JP6210466B1 - Information input device - Google Patents

Information input device Download PDF

Info

Publication number
JP6210466B1
JP6210466B1 JP2016213096A JP2016213096A JP6210466B1 JP 6210466 B1 JP6210466 B1 JP 6210466B1 JP 2016213096 A JP2016213096 A JP 2016213096A JP 2016213096 A JP2016213096 A JP 2016213096A JP 6210466 B1 JP6210466 B1 JP 6210466B1
Authority
JP
Japan
Prior art keywords
palm
information input
image
input device
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016213096A
Other languages
Japanese (ja)
Other versions
JP2018073170A (en
Inventor
俊宏 坂爪
俊宏 坂爪
西村 英士
英士 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016213096A priority Critical patent/JP6210466B1/en
Application granted granted Critical
Publication of JP6210466B1 publication Critical patent/JP6210466B1/en
Publication of JP2018073170A publication Critical patent/JP2018073170A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することを可能にする。【解決手段】人の手のひらPを検知可能な検知部3と、手のひらPに、電子機器20を操作するための複数の処理に対応した複数の選択肢画像(ボタンB)を含む情報入力用画像を投影するプロジェクタ5と、検知部3およびプロジェクタ5を制御する制御部1と、を備える情報入力装置10であって、制御部1は、所定のタイミングにおいて検知部3が検知した手のひらPの位置に対応した絶対位置を記憶し、プロジェクタ5は、絶対位置を基準として情報入力用画像を投影し、検知部3が、手のひらPの中心に所定の選択肢画像が投影された状態から、手のひらPによる所定の動作を検知したとき、制御部1は、当該所定の選択肢画像(ボタンB)が選択されたと判定し、選択した選択肢画像(ボタンB)に対応する処理を電子機器20に送信する。【選択図】図9When operating an electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and the other electronic device can be operated by a user with only one hand. It is possible to operate. An information input image including a plurality of option images (buttons B) corresponding to a plurality of processes for operating an electronic device 20 on a palm P and a palm P capable of detecting a human palm P. An information input device 10 that includes a projector 5 to project, a detection unit 3 and a control unit 1 that controls the projector 5, wherein the control unit 1 is positioned at a palm P detected by the detection unit 3 at a predetermined timing. The corresponding absolute position is stored, the projector 5 projects an information input image with the absolute position as a reference, and the detection unit 3 projects a predetermined option image on the center of the palm P from the predetermined position by the palm P. Is detected, the control unit 1 determines that the predetermined option image (button B) is selected, and performs processing corresponding to the selected option image (button B). To send. [Selection] Figure 9

Description

本開示は、電子機器を操作する情報入力装置に関する。   The present disclosure relates to an information input device that operates an electronic device.

従来より、ユーザーが種々の電子機器を操作する場合、操作のための情報入力にはリモコン等の情報入力装置を利用することが一般的に行われている。リモコン等は置き場所が不明となることも多く、ユーザーが不便さを感じることも多い。   Conventionally, when a user operates various electronic devices, an information input device such as a remote control is generally used to input information for the operation. The location of the remote control is often unknown, and the user often feels inconvenient.

そこで、リモコン等の機器を用いず情報入力を行うことができる種々の装置が提案されている。例えば、特許文献1〜4は、投影装置からの照射光が投影される被投影面を検知する検知部を備えた情報入力装置を開示している。この照射光により、被投影面上に電子機器を操作する操作入力のための情報入力用画像が投影される。ユーザーは、情報入力用画像をタッチ操作等することにより、電子機器を操作することができる。   Therefore, various devices capable of inputting information without using a device such as a remote controller have been proposed. For example, Patent Literatures 1 to 4 disclose information input devices including a detection unit that detects a projection surface onto which irradiation light from a projection device is projected. By this irradiation light, an information input image for operation input for operating the electronic device is projected on the projection surface. The user can operate the electronic device by touching the information input image.

特に特許文献1〜4においては、被投影面として手のひらを用いることを想定しており、ユーザーはスクリーンの如き専用の投影対象を用意することなく、電子機器を操作することが可能となっている。   In particular, in Patent Documents 1 to 4, it is assumed that the palm is used as the projection surface, and the user can operate the electronic device without preparing a dedicated projection target such as a screen. .

国際公開第2012/173001号International Publication No. 2012/173001 国際公開第2014/034527号International Publication No. 2014/034527 特開2015−94828号公報Japanese Patent Laying-Open No. 2015-94828 特開2015−111772号公報JP, 2015-111172, A

特許文献1〜4の情報入力装置は、専用の投影対象なしで、情報入力用画像を手のひらに投影することが可能となっている。しかしながら、投影面を手のひらにした場合、情報入力用画像を投影する面積が制限されることになる。また、手のひらを単に投影面として用いることを前提としており、情報の入力にはもう一方の手による操作が必須となる。よって、従来の情報入力装置には依然として不便な面が存在している。   The information input devices of Patent Documents 1 to 4 can project an information input image on the palm without a dedicated projection target. However, when the projection surface is in the palm of the hand, the area for projecting the information input image is limited. Also, it is assumed that the palm is simply used as the projection plane, and the operation with the other hand is essential for inputting information. Therefore, the conventional information input device still has inconveniences.

本開示は、専用の投影対象を用意せず、また、ユーザーの片手のみで簡易な操作入力を可能とする情報入力装置に関する。   The present disclosure relates to an information input apparatus that does not prepare a dedicated projection target and enables simple operation input with only one hand of a user.

本開示の情報入力装置は、人の手のひらを検知可能な検知部と、手のひらに、電子機器を操作するための複数の処理に対応した複数の選択肢画像を含む情報入力用画像を投影する投影装置と、前記検知部および前記投影装置を制御する制御部と、を備える情報入力装置であって、前記制御部は、所定のタイミングにおいて前記検知部が検知した手のひらの位置に対応した絶対位置を記憶し、前記投影装置は、前記絶対位置を基準として前記情報入力用画像を投影し、前記検知部が、手のひらの中心に所定の選択肢画像が投影された状態から、手のひらによる所定の動作を検知したとき、前記制御部は、当該所定の選択肢画像が選択されたと判定し、選択した選択肢画像に対応する処理を前記電子機器に送信し、前記制御部は、前記投影装置から前記絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成し、前記投影装置は、前記方向に沿って積層された複数の情報入力用画像を投影する。 An information input device according to the present disclosure includes a detection unit capable of detecting a palm of a person, and a projection device that projects an information input image including a plurality of option images corresponding to a plurality of processes for operating an electronic device on the palm. And a control unit that controls the detection unit and the projection device, wherein the control unit stores an absolute position corresponding to a palm position detected by the detection unit at a predetermined timing. Then, the projection device projects the information input image based on the absolute position, and the detection unit detects a predetermined operation by the palm from a state in which the predetermined option image is projected at the center of the palm. when the control unit transmits determines that the predetermined option images is selected, a process that corresponds to a selection image selected to the electronic device, the control unit, or the projection device Wherein generating a plurality of information input image that is stacked along a direction leading to an absolute position, the projection device projects a plurality of information input image that is laminated along the direction.

本開示の情報入力装置によれば、電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することが可能となり、より簡易な操作入力が可能となる。   According to the information input device of the present disclosure, when operating an electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and a user can Other electronic devices can be operated with only one hand, and simpler operation input is possible.

図1は、本開示の情報入力装置の一実施形態に係るブロック図である。FIG. 1 is a block diagram according to an embodiment of an information input device of the present disclosure. 図2は、情報入力装置が人の手のひらに選択肢画像であるボタンを含む情報入力用画像を投影する状態を示す概念図である。FIG. 2 is a conceptual diagram showing a state in which the information input device projects an information input image including a button that is an option image on the palm of a person. 図3は、情報入力装置による入力処理動作を示す概念図であり、(a)は、空間における手のひらを検知する一連の動作を示し、(b)は、ボタンを含む情報入力用画像を投影する一連の動作を示す。FIG. 3 is a conceptual diagram showing an input processing operation by the information input device. (A) shows a series of operations for detecting a palm in space, and (b) projects an information input image including buttons. A series of operations is shown. 図4は、情報入力装置による入力処理動作を示す概念図であり、(a)は特定のボタンを選択する一連の動作の一例を示し、(b)は、(a)の代わりの特定のボタンを選択する一連の動作の他の例を示す。FIG. 4 is a conceptual diagram showing an input processing operation by the information input device, where (a) shows an example of a series of operations for selecting a specific button, and (b) is a specific button instead of (a). Another example of a series of operations for selecting is shown. 図5は、情報入力装置が人の手のひらに選択肢画像であるボタンを含む情報入力用画像を投影する初期時の状態を示す概念図であり、(a)は、初期時に表示される例を示し、(b)は、初期時に表示された後、手のひらを移動した状態を示す。FIG. 5 is a conceptual diagram illustrating an initial state in which the information input device projects an information input image including a button that is an option image on the palm of a person. FIG. 5A illustrates an example displayed at the initial time. , (B) shows a state in which the palm is moved after being displayed at the initial stage. 図6は、情報入力装置による入力処理動作を示す概念図であり、(a)は、選択したボタンの実行決定を行う一連の動作を示し、(b)および(c)は情報入力装置による入力処理動作の終了を命ずる動作の一例を示す。FIG. 6 is a conceptual diagram showing an input processing operation by the information input device. (A) shows a series of operations for determining execution of the selected button, and (b) and (c) are inputs by the information input device. An example of the operation | movement which orders the completion | finish of a processing operation is shown. 図7は、情報入力装置による入力処理動作の一例のフロー図である。FIG. 7 is a flowchart of an example of an input processing operation by the information input device. 図8は、情報入力装置による入力処理動作の他の例のフロー図である。FIG. 8 is a flowchart of another example of the input processing operation by the information input device. 図9は、情報入力装置が人の手のひらに選択肢画像であるボタンを含む情報入力用画像を投影する初期時の状態を示す概念図であり、(a)は、初期時に表示される例を示し、(b)は、初期時に表示された後、手のひらを移動した状態を示す。FIG. 9 is a conceptual diagram showing an initial state in which the information input device projects an information input image including a button which is an option image on the palm of a person, and (a) shows an example displayed at the initial time. , (B) shows a state in which the palm is moved after being displayed at the initial stage. 図10は、情報入力装置の応用例の一つを説明する概念図であり、(a)は、最初に表示される情報入力用画像であるボタンに加え、上下方向に他のボタンの画像を重ねて表示する例であり、(b)は、最初に表示される情報入力用画像であるボタンにおいて、上下方向に他のボタンが存在する旨を知らせる文字(メッセージ)を表示する例であり、(c)は、最初に表示される情報入力用画像であるボタンに加え、上下方向に他のボタンの画像を重ねて表示する例である。FIG. 10 is a conceptual diagram for explaining one application example of the information input device. FIG. 10A is a diagram showing images of other buttons in the vertical direction in addition to the button that is an information input image displayed first. (B) is an example of displaying a character (message) informing that there is another button in the vertical direction on the button that is the information input image displayed first, (C) is an example in which, in addition to the button that is the information input image that is displayed first, the images of other buttons are superimposed and displayed in the vertical direction. 図11は、情報入力用画像の投影範囲が広い場合に、投影範囲を知らせる表示画像を投影することにより、ユーザーが容易に投影範囲を把握することができる例を示す概念図であり、(a)は、プロジェクタが投影範囲を示す横方向の両矢印を投影する例を示し、(b)は、プロジェクタが投影範囲を示す左方向の矢印を投影する例を示す。FIG. 11 is a conceptual diagram illustrating an example in which the user can easily grasp the projection range by projecting a display image that informs the projection range when the information input image has a wide projection range. ) Shows an example in which the projector projects a horizontal double arrow indicating the projection range, and (b) shows an example in which the projector projects a left arrow indicating the projection range. 図12は、手のひらの上下方向の位置に合わせて、情報入力用画像のサイズを決定する例を示す概念図であり、(a)は、基本例であり、光学の原則論により、手のひらの上下移動に追従して情報入力用画像であるボタンのサイズが変化している例であり、(b)は、手のひらまでの距離に基づき、手のひらの上下移動とは独立して、ボタンのサイズを最適なものにする例である。FIG. 12 is a conceptual diagram showing an example in which the size of an information input image is determined in accordance with the vertical position of the palm. FIG. 12A is a basic example, and is based on the principle of optics. This is an example in which the size of the button that is an information input image changes following the movement, and (b) is based on the distance to the palm and optimizes the button size independently of the vertical movement of the palm. This is an example of what to do. 図13は、手のひらの面積を算出する例を示す概念図であり、(a1)、(a2)は、指の付け根を基準として算出する例と示し、(b1)、(b2)は、指の付け根を認識し、この付け根に接する外接円の面積で算出する例を示す。FIG. 13 is a conceptual diagram showing an example of calculating the area of the palm. (A1) and (a2) are examples calculated based on the base of the finger, and (b1) and (b2) An example of recognizing the root and calculating the area of the circumscribed circle in contact with the root is shown. 図14は、手のひらの傾き角度に合わせて、情報入力用画像の形状を決定する例を示す概念図であり、(a)は、基本例であり、光学の原則論により、下位置の手のひらが傾いており、その傾き角度に応じて、情報入力用画像であるボタンの形状が変化している例であり、(b)は、手のひらの傾き角度および手のひらまでの距離に基づき、ボタンの形状を最適なものにする例である。FIG. 14 is a conceptual diagram showing an example of determining the shape of the information input image in accordance with the inclination angle of the palm. FIG. 14A is a basic example, and the palm in the lower position is determined based on the principle of optics. This is an example in which the shape of the button, which is an information input image, is changing according to the inclination angle, and (b) shows the shape of the button based on the inclination angle of the palm and the distance to the palm. This is an example of optimizing. 図15は、手のひらの高さ方向の位置に合わせて、プロジェクタのピントを決定する例を示す概念図であり、(a)は、基本例であり、光学の原則論により、手のひらの上下移動に追従してピントがずれる例であり、(b)は、手のひらまでの距離に基づき、手のひらの上下移動とは独立して、常に最適なピントを合わせる例である。FIG. 15 is a conceptual diagram showing an example in which the focus of the projector is determined in accordance with the position of the palm in the height direction. FIG. 15A is a basic example, and the palm is moved up and down by optical theory. This is an example in which the subject is out of focus and (b) is an example in which the optimum focus is always achieved independently of the vertical movement of the palm based on the distance to the palm. 図16は、手のひらに加えて他の人体部分を認識し、情報入力用画像を投影する例を示す概念図であり、(a)は、円形のボタンの情報入力用画像を示し、(b)は、手のひら、頭部、肩部を認識する例を示し、(c)は、手のひら、肩部を認識する例を示し、(d)は、手のひら、頭部を認識する例を示し、(e)は、手のひら、両肩を認識した状況において、両肩を結ぶ直線軸およびそれを二等分する点が頭部位置であると仮定する例を示し、(f)は、手のひら、両肩を認識した状況において、手のひらが両肩の内側か外側にあるかを認識する例を示す。FIG. 16 is a conceptual diagram showing an example of recognizing another human body part in addition to the palm and projecting an information input image. FIG. 16A shows an information input image of a circular button, and FIG. Shows an example of recognizing the palm, head and shoulder, (c) shows an example of recognizing the palm and shoulder, (d) shows an example of recognizing the palm and head, (e ) Shows an example in which the palm and both shoulders are recognized, assuming that the linear axis connecting both shoulders and the point that bisects them are the head position, and (f) shows the palm and both shoulders. An example of recognizing whether the palm is inside or outside both shoulders in the recognized situation is shown. 図17は、上下方向において情報入力用画像を投影する範囲を規定する概念を示す概念図である。FIG. 17 is a conceptual diagram showing a concept for defining a range in which an information input image is projected in the vertical direction. 図18は、手のひらに対し情報入力用画像を投影する投影角度が90°でない場合の処理の概念を示す概念図であり、(a)は、検知部が手のひらの傾き角度を検知する状態を示し、(b)は、手のひらの平面方向への移動では平面内でのボタンの選択処理であると判断し、手のひらの奥行方向への移動では、ボタンの投影位置そのものを変更すると判断する状況を示す概念図である。FIG. 18 is a conceptual diagram showing the concept of processing when the projection angle for projecting the information input image to the palm is not 90 °, and (a) shows a state in which the detection unit detects the tilt angle of the palm. , (B) shows a situation in which it is determined that the movement of the palm in the plane direction is a button selection process in the plane, and the movement of the palm in the depth direction is determined to change the button projection position itself. It is a conceptual diagram.

以下、適宜図面を参照しながら、本開示に係る情報入力装置を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, an embodiment (hereinafter referred to as “the present embodiment”) that specifically discloses an information input apparatus according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

以下、本開示を実施するための好適な本実施形態について、図面を参照して詳細に説明する。   Hereinafter, preferred embodiments for carrying out the present disclosure will be described in detail with reference to the drawings.

(基本構成)
図1は、本開示の情報入力装置の一実施形態のブロック図である。情報入力装置10は、制御部1と、検知部3と、プロジェクタ(投影装置)5とを含む。情報入力装置10はリモコン等の装置を必要とすることなく、電子機器20の操作をするための情報をユーザーが入力するための装置である。電子機器20の種類は特に限定されず、室内の照明システム、空調システム、静止画、動画、音声などの種々のコンテンツを再生・記録するコンテンツ機器等、種々の機器が含まれる。情報入力装置10と電子機器20をインターネット等の通信回線で接続することにより、電子機器20を遠隔地から操作することも可能となる。
(Basic configuration)
FIG. 1 is a block diagram of an embodiment of an information input device of the present disclosure. The information input device 10 includes a control unit 1, a detection unit 3, and a projector (projection device) 5. The information input device 10 is a device for a user to input information for operating the electronic device 20 without requiring a device such as a remote controller. The type of the electronic device 20 is not particularly limited, and includes various devices such as an indoor lighting system, an air conditioning system, a content device that reproduces and records various content such as still images, moving images, and audio. By connecting the information input device 10 and the electronic device 20 via a communication line such as the Internet, the electronic device 20 can be operated from a remote location.

制御部1は、情報入力装置10の全体動作を司るプロセッサ、コンピュータ装置であり、検知部3、プロジェクタ5と別体の装置として設けてもよいし、検知部3またはプロジェクタ5内に設けられてもよいが、検知部3、プロジェクタ5を制御可能である。また、制御部1は、メモリなどの図示せぬ記憶装置を有しており、情報入力装置10を動作させる種々のプログラムや、検知部3が検知した対象物の座標、その他の情報を記憶可能である。   The control unit 1 is a processor or computer device that controls the overall operation of the information input device 10, and may be provided as a separate device from the detection unit 3 and the projector 5, or provided in the detection unit 3 or the projector 5. However, the detection unit 3 and the projector 5 can be controlled. The control unit 1 has a storage device (not shown) such as a memory, and can store various programs for operating the information input device 10, coordinates of the object detected by the detection unit 3, and other information. It is.

検知部3は、例えば赤外線発光装置と赤外線カメラを含む赤外線方式の深度センサーである。赤外線発光装置が空間に赤外線を照射し、赤外線カメラが、空間内に存在する対象物からの赤外線の反射光を受光して撮像し、赤外線画像の画素毎の位置座標データ(x,y)と、各画素に対応する撮像された物体までの距離を示す深度データ(d)とを、制御部1に出力する。ただし、対象物そのものの位置と距離を把握できる装置であれば、検知部3の種類は特に限定されない。   The detection unit 3 is an infrared type depth sensor including, for example, an infrared light emitting device and an infrared camera. The infrared light emitting device irradiates the space with infrared rays, and the infrared camera receives infrared reflected light from an object existing in the space and captures it, and position coordinate data (x, y) for each pixel of the infrared image and The depth data (d) indicating the distance to the imaged object corresponding to each pixel is output to the control unit 1. However, the type of the detection unit 3 is not particularly limited as long as the device can grasp the position and distance of the object itself.

図2に示すように、本開示における検知対象である対象物は、少なくとも人(ユーザー)が手を拡げて形成される手のひらP(いわゆる「パー」の状態)を含む。制御部1は、予め個人差を考慮した手のひらの画像パターンを所定の記憶部に記憶しており、検知部3が撮像した赤外線画像と、当該画像パターンを比較し、所定の条件を満たしたとき(赤外線画像と画像パターンの差が所定値以下になった時)、手のひらPが検知されたと判定する。そして、制御部1は、当該手のひらPの位置座標データと、深度データをプロジェクタ5に出力する。   As shown in FIG. 2, an object that is a detection target in the present disclosure includes at least a palm P (so-called “par” state) formed by a person (user) spreading his / her hand. The control unit 1 stores a palm image pattern in consideration of individual differences in a predetermined storage unit, and compares the infrared image captured by the detection unit 3 with the image pattern and satisfies a predetermined condition. When the difference between the infrared image and the image pattern is equal to or less than a predetermined value, it is determined that the palm P is detected. Then, the control unit 1 outputs the position coordinate data of the palm P and the depth data to the projector 5.

プロジェクタ5は、制御部1から受信した手のひらPの位置座標データと、深度データに基づき、本開示における対象物である手のひらに対して可視光を照射し、画像を投影する投影装置であり、その種類は特に限定されない。図2に示すように、プロジェクタ5は、検知部3が検知した手のひらPに対し、可視光を投影することによって、電子機器20を操作する操作情報を入力するための情報入力用画像を手のひらPの上に形成する。本実施形態では、複数の円形の画像である複数のボタンBを含む情報入力用画像が形成されている。後述するように、各ボタンBは、電子機器20を操作するための複数の処理(スイッチオン、種々のモード切り替え等)に対応した複数の選択肢画像に対応する。   The projector 5 is a projection device that projects an image by irradiating the palm, which is the object in the present disclosure, with visible light based on the position coordinate data of the palm P received from the control unit 1 and the depth data. The type is not particularly limited. As shown in FIG. 2, the projector 5 projects an information input image for inputting operation information for operating the electronic device 20 by projecting visible light onto the palm P detected by the detection unit 3. Form on top. In the present embodiment, an information input image including a plurality of buttons B that are a plurality of circular images is formed. As will be described later, each button B corresponds to a plurality of option images corresponding to a plurality of processes (switch-on, various mode switching, etc.) for operating the electronic device 20.

(動作の概要)
図3〜図6は、本開示の情報入力装置10による入力処理動作を示す概念図である。図3(a)は、空間における手のひらPを検知する一連の動作を示す。情報入力装置10の電源オン等をトリガーとして、検知部3は赤外線の照射を開始する(図3(a)(1))。検知部3が手のひらPを検知した後(図3(a)(2))、制御部1は、手のひらPは追跡すべき対象物であることを判断し、プロジェクタ5に対し可視光の照射を指示し、追跡ポインタCを形成する様に可視光を手のひらPに対し照射する(図3(a)(3))。
なお、手のひらPを検知する特定空間を、ユーザーが予め認識している場合には、追跡ポインタCを照射しなくてもよい。
(Overview of operation)
3 to 6 are conceptual diagrams illustrating an input processing operation by the information input device 10 of the present disclosure. Fig.3 (a) shows a series of operation | movement which detects the palm P in space. The detection unit 3 starts irradiating infrared rays with the information input device 10 being powered on or the like as a trigger (FIGS. 3A and 3A). After the detection unit 3 detects the palm P (FIGS. 3A and 3B), the control unit 1 determines that the palm P is an object to be tracked and irradiates the projector 5 with visible light. Instructed to irradiate the palm P with visible light so as to form the tracking pointer C (FIGS. 3A and 3).
In addition, when the user recognizes the specific space for detecting the palm P in advance, the tracking pointer C may not be irradiated.

図3(b)は、選択肢画像であるボタンBを形成する一連の動作を示す。追跡ポインタCの照射後、制御部1は検知部3に対し、対象物を補足するよう指示し、検知部3が対象物である手のひらPの位置座標データ、深度データを補足し続ける(図3(b)(1))。この後、時系列を示す矢印A1に沿うように、ユーザーが手を握り、形状が握りこぶしF(いわゆる「グー」の状態)に変化し、さらに手を拡げて手のひらPを形成し、検知部3が補足し続けている位置座標データ、深度データに基づき、この一連の動作を検知する(図3(b)(2))。制御部1は、検知したこの動作により、ユーザーが電子機器20を操作する準備ができたと判断し、情報入力用画像を構成する複数のボタンBを手のひらPの上に形成する(図3(b)(3))。このとき制御部1は、図3(b)(2)の動作タイミングにおいて検知部3が検知した手のひらの空間内の位置を絶対位置として、図示せぬ記憶装置に記憶した上で、ボタンBを投影する。「絶対位置」は、図3(b)(2)に示すような所定のタイミングにおいて検知部3が検知した手のひらPの位置に対応し、検知部3が検知し得る空間内の絶対的な位置座標に対応する。よって、絶対位置は、手のひらPが移動しても、変動することはない。なお、限られた範囲内においては、絶対位置を、手のひらPの移動に少し追従するようにしてもよい。   FIG. 3B shows a series of operations for forming the button B that is an option image. After irradiation of the tracking pointer C, the control unit 1 instructs the detection unit 3 to supplement the object, and the detection unit 3 continues to supplement the position coordinate data and depth data of the palm P that is the object (FIG. 3). (B) (1)). Thereafter, the user grasps the hand along the arrow A1 indicating the time series, the shape is changed to a fist F (so-called “goo” state), the hand is further expanded to form the palm P, and the detection unit 3 This series of operations is detected based on the position coordinate data and depth data that are continuously supplemented (FIGS. 3B and 2). Based on the detected operation, the control unit 1 determines that the user is ready to operate the electronic device 20, and forms a plurality of buttons B constituting the information input image on the palm P (FIG. 3B). (3)). At this time, the control unit 1 stores the position in the palm space detected by the detection unit 3 at the operation timing of FIGS. 3B and 3B as an absolute position in a storage device (not shown), and then presses the button B. Project. The “absolute position” corresponds to the position of the palm P detected by the detection unit 3 at a predetermined timing as shown in FIGS. 3B and 3B, and is an absolute position in the space that can be detected by the detection unit 3. Corresponds to coordinates. Therefore, the absolute position does not change even if the palm P moves. Note that the absolute position may slightly follow the movement of the palm P within a limited range.

図4(a)は特定のボタンを選択する一連の動作の一例を示す。複数のボタンBが手のひらPの上に形成された状態で(図4(a)(1))、ユーザーが手のひらPを水平方向(横方向)に動かす(図4(a)(2))。そして、特定のボタンBFが手のひらPの中心に位置したところで、手のひらPを止めると、ユーザーが当該ボタンBFの選択を要望していると制御部1は判定し、当該ボタンBFが選択された選択ボタン(選択肢画像)と判定する(図4(a)(3))。   FIG. 4A shows an example of a series of operations for selecting a specific button. With the plurality of buttons B formed on the palm P (FIGS. 4A and 1), the user moves the palm P in the horizontal direction (lateral direction) (FIGS. 4A and 2). When the specific button BF is located at the center of the palm P, when the palm P is stopped, the control unit 1 determines that the user desires the selection of the button BF, and the selection that the button BF is selected. The button (option image) is determined (FIGS. 4A and 3).

図4(b)は、図4(a)とは異なる、特定のボタンを選択する一連の動作の他の例を示す。複数のボタンBが手のひらPの上に形成された状態で(図4(b)(1))、ユーザーが手のひらPを上下方向(高さ方向)A2にスライドさせる(図4(b)(2))。このとき、手のひらPは、例えば手のひらP1で示す上の高さや、手のひらP2で示す下の高さに移動する。そして、それぞれの高さで表示されるボタンは、ボタンB1、B2で示す如く変化する。すなわち、制御部1は、上下方向に沿って積層された複数の情報入力用画像を生成し、プロジェクタ5が、上下方向に沿って積層された複数の情報入力用画像を投影する。
なお、図5に示すように、手のひらP上に複数のボタンBが最初に形成されたとき(初期時)には、手のひらPの中央付近には、選択可能なボタンBを配置しないことが望ましい(図5(a)参照)。手のひらPの中央付近のボタンは、初期時にユーザーが意図せずに選択してしまうことが多いため、初期時の形成では手のひらPの中央付近に選択可能なボタンBを配置せずに、空きスペースや、メッセージ等を表示する領域とする。なお、初期時の形成以外では、手のひらPの中央付近に選択可能なボタンBを配置してもよい。
FIG. 4B shows another example of a series of operations for selecting a specific button, which is different from FIG. With the plurality of buttons B formed on the palm P (FIG. 4B (1)), the user slides the palm P in the vertical direction (height direction) A2 (FIGS. 4B and 2). )). At this time, the palm P moves, for example, to an upper height indicated by a palm P1 or a lower height indicated by a palm P2. The buttons displayed at the respective heights change as indicated by buttons B1 and B2. That is, the control unit 1 generates a plurality of information input images stacked along the vertical direction, and the projector 5 projects the plurality of information input images stacked along the vertical direction.
As shown in FIG. 5, when a plurality of buttons B are first formed on the palm P (initial time), it is desirable not to arrange the selectable button B near the center of the palm P. (See FIG. 5 (a)). The buttons near the center of the palm P are often selected unintentionally by the user at the initial stage. Therefore, in the initial formation, the selectable button B is not arranged near the center of the palm P, and an empty space is provided. Or an area for displaying a message or the like. Other than the initial formation, a selectable button B may be arranged near the center of the palm P.

以降は、図4(a)(2)、図4(a)(3)で示した動作をそれぞれの高さで行うことにより、制御部1はボタンBFを選択ボタンとして判定することができる(図5(b)参照)。すなわち、手のひらP、P1、P2で示すそれぞれの高さで、ユーザーが手のひらを水平方向にスライドさせる(図4(a)(2))。特定のボタンBFが手のひらの中心に位置したところで、手のひらを止めると、ユーザーが当該ボタンBFの選択を要望していると制御部1は判定し、当該ボタンBFを選択ボタンとして判定する(図4(a)(3))。   Thereafter, the control unit 1 can determine the button BF as the selection button by performing the operations shown in FIGS. 4A, 2B, and 4A, 3 at the respective heights ( (Refer FIG.5 (b)). That is, the user slides the palm in the horizontal direction at the respective heights indicated by the palms P, P1, and P2 (FIGS. 4A and 2). When the specific button BF is positioned at the center of the palm and the palm is stopped, the control unit 1 determines that the user desires to select the button BF, and determines that the button BF is a selection button (FIG. 4). (A) (3)).

図6(a)は、選択した選択ボタンBFに対応する処理の実行決定を行う一連の動作を示す。ボタンBFを選択ボタンとして判定した後(図6(a)(1))、ユーザーが手のひらを握り、握りこぶしFを形造ることにより、制御部1はボタンBFの最終的な選択を判定し、その後、握りこぶしFの状態から手のひらを開くと、当該ボタンBFの示す処理動作の実行命令を、電子機器20に送信する(図6(a)(2)、図6(a)(3))。尚、最終的な選択がなされたことをユーザーに視覚的に知らせるため、ボタンBFの表示態様を変更させてもよい。   FIG. 6A shows a series of operations for determining execution of a process corresponding to the selected selection button BF. After determining the button BF as a selection button (FIGS. 6A and 1), the control unit 1 determines the final selection of the button BF after the user grasps the palm and forms the fist F. When the palm is opened from the state of the fist F, an instruction to execute the processing operation indicated by the button BF is transmitted to the electronic device 20 (FIGS. 6 (a) (2), 6 (a) (3)). In order to visually notify the user that the final selection has been made, the display mode of the button BF may be changed.

図6(b)は情報入力装置10による入力処理動作の終了を命ずる動作の一例を示す。ユーザーが手のひらPを下に向けて垂直にすることにより、制御部1は入力処理動作の終了を判定する。図6(c)は終了を瞑する動作の他の例であり、ユーザーが手のひらPを数回上下に動かすような動作の後(図6(c)(1))、本動作を停止するような手のひらPの所定の動作を検知したとき(図6(c)(2))、制御部1は入力処理動作の終了を判定する。プロジェクタ5は、複数のボタンBを含む情報入力用画像の投影を停止する。もちろん、終了判定の動作は特には現令されない。また、手のひらPが、検知部3が検知し得る検知エリアから外れた場合も、制御部1は入力処理動作の終了を判定してよい。ただし、例えばボタンの投影が終了しても、電子機器20によるコンテンツの再生は継続してもよい。再生(動作)したコンテンツを終了する場合は、例えば他の終了用のボタンを選択するようにしてもよい。   FIG. 6B shows an example of an operation for instructing the end of the input processing operation by the information input device 10. When the user makes the palm P downward and vertical, the control unit 1 determines the end of the input processing operation. FIG. 6 (c) shows another example of the operation to mitigate the end. After the user moves the palm P up and down several times (FIG. 6 (c) (1)), this operation is stopped. When a predetermined operation of the palm P is detected (FIGS. 6C and 2), the control unit 1 determines the end of the input processing operation. The projector 5 stops projecting the information input image including the plurality of buttons B. Of course, the end determination operation is not particularly issued. Also, when the palm P is out of the detection area that the detection unit 3 can detect, the control unit 1 may determine the end of the input processing operation. However, for example, even when the projection of the button ends, the reproduction of the content by the electronic device 20 may be continued. When ending the reproduced (operated) content, for example, another ending button may be selected.

(入力処理動作)
図7は、情報入力装置10による入力処理動作の一例のフロー図である。本フロー図は、専ら、図4(a)に示す特定のボタンを選択する動作を含む処理ステップを示し、手のひらPを上下方向に動かさず、水平方向にのみ動かしてボタンBFを選択ボタンとして判定する(図4(a)(3))、いわば2次元の選択処理を示す。
(Input processing operation)
FIG. 7 is a flowchart of an example of an input processing operation by the information input device 10. This flowchart shows processing steps including the operation of selecting a specific button shown in FIG. 4 (a), and the button BF is determined as a selection button by moving only the horizontal direction without moving the palm P vertically. (FIG. 4 (a) (3)), so-called two-dimensional selection processing.

まず検知部3は、手のひらが検知されるまで検知を続行し(ステップS1;No)、手のひらを検知すると(ステップS1;Yes)、検知を受けた制御部1からの指示により、プロジェクタ5が手のひらへ追跡ポインタを投影し、検知部3は、手のひらの移動に連れて移動する追跡ポインタを追跡する(ステップS2)。ここまでが、図3(a)、図3(b)(1)の動作に該当する。   First, the detection unit 3 continues the detection until the palm is detected (step S1; No). When the palm is detected (step S1; Yes), the projector 5 detects the palm according to the instruction from the control unit 1 that has received the detection. The tracking pointer is projected to the detection unit 3, and the detection unit 3 tracks the tracking pointer that moves as the palm moves (step S2). The steps so far correspond to the operations in FIGS. 3A, 3B, and 1).

次に検知部3が、図3(b)(2)に示すような手のひらの何らかの動作(ジェスチャ)の検知を行い、何ら動作を検知しない場合は、ステップS1に戻り、再度手のひらの検知を開始する(ステップS3;No)。一方、検知部3が、図3(b)(2)に示すような手のひらの動作を検知した場合は(ステップS3;Yes)、手のひらへ選択肢画像である複数のボタンBを投影する(ステップS4)。ここでは、ボタンBを含む情報入力用画像が、特定の絶対位置を基準として投影される(図3(b)(3))。尚、ボタンBを投影することを決定する動作は、図3(b)(2)に示す手を握り締めて拡げる動作には限定されず、他の所定の動作であってもよい。   Next, the detection unit 3 detects a palm motion (gesture) as shown in FIGS. 3B and 3B, and if no motion is detected, returns to step S1 and starts palm detection again. (Step S3; No). On the other hand, when the detection unit 3 detects the operation of the palm as shown in FIGS. 3B and 3B (step S3; Yes), a plurality of buttons B, which are option images, are projected onto the palm (step S4). ). Here, the information input image including the button B is projected with reference to a specific absolute position (FIGS. 3B and 3). In addition, the operation | movement which determines to project the button B is not limited to the operation | movement which grasps and spreads the hand shown to FIG.3 (b) (2), Other predetermined operation | movement may be sufficient.

そして、検知部3が再度手のひらの検知を行い、ここで検知されなかった場合は、制御部1は手のひらの検知が失敗したと判定し、ステップS1に戻り、再度手のひらの検知を開始する(ステップS5;No)。一方、検知部3が、再度手のひらの検知を行い、手のひらを検知した場合は(ステップS5;Yes)、制御部1は、次に手のひらの何らかの動作の有無を判定する(ステップS6)。ここで、検知部3が、図3(b)(2)に示すような手のひらの動作を検知した場合は(ステップS6;Yes)、制御部1は再度ボタンBを含む情報入力用画像の絶対位置を決定すべきと判定し、ステップS4へ戻る。一方、検知部3が手のひらの何らかの動作を検知しない場合は(ステップS6;No)、制御部1は手のひらの中心と投影した特定のボタンBとの位置が、所定の時間以上合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS7;No)。一方、制御部1が、手のひらの中心と投影した特定のボタンBとの位置が所定の時間以上合致したと判定した場合は(ステップS7;Yes)、図4(a)(3)に示すように、当該特定のボタンの表示を変更し、選択ボタンBFの表示をする(ステップS8)。   And the detection part 3 detects a palm again, and when it does not detect here, the control part 1 determines with the detection of a palm failing, returns to step S1, and starts the detection of a palm again (step). S5; No). On the other hand, when the detection unit 3 detects the palm again and detects the palm (step S5; Yes), the control unit 1 next determines whether there is any operation of the palm (step S6). Here, when the detection unit 3 detects the palm movement as shown in FIGS. 3B and 3B (step S6; Yes), the control unit 1 again determines the absolute value of the information input image including the button B. It is determined that the position should be determined, and the process returns to step S4. On the other hand, when the detection unit 3 does not detect any movement of the palm (step S6; No), the control unit 1 determines whether or not the position of the center of the palm matches the position of the projected specific button B for a predetermined time or more. If it does not match, the process returns to step S5 to detect the palm again (step S7; No). On the other hand, when the control unit 1 determines that the position of the center of the palm matches the position of the projected specific button B for a predetermined time or more (step S7; Yes), as shown in FIGS. Further, the display of the specific button is changed, and the selection button BF is displayed (step S8).

さらに検知部3は、手のひらの何らかの動作(ジェスチャ)の検知を行い、手のひらの何らかの動作を検知しない場合は、ステップS5に戻り、再度手のひらの検知を開始する(ステップS9;No)。一方、検知部3が、図6(a)(1)に示すような手のひらの何らかの動作を検知した場合は(ステップS9;Yes)、図6(a)(3)に示すように選択ボタンBFの表示を変更する(ステップS10)。そして、制御部1が、当該選択ボタンBFに割り当てられた処理の実行命令を電子機器20に送信し(ステップS11)、処理が終了する。   Furthermore, the detection part 3 detects some operation | movement (gesture) of a palm, and when some operation | movement of a palm is not detected, it returns to step S5 and starts detection of a palm again (step S9; No). On the other hand, when the detection unit 3 detects any operation of the palm as shown in FIGS. 6A and 6A (step S9; Yes), the selection button BF as shown in FIGS. Is changed (step S10). And the control part 1 transmits the execution command of the process allocated to the said selection button BF to the electronic device 20 (step S11), and a process is complete | finished.

図8は、情報入力装置10による入力処理動作の他の例のフロー図である。本フロー図は、図7におけるステップS7、ステップS8の代わりにステップS71〜ステップS82を実施する。すなわち、図4(b)、図4(a)(2)、図4(a)(3)に示す特定のボタンを選択する動作を含む処理ステップを示し、手のひらPを水平方向のみならず上下方向にも動かして、ボタンBFを選択ボタンとして判定する(図4(a)(3))、いわば3次元の選択処理を示す。   FIG. 8 is a flowchart of another example of the input processing operation by the information input device 10. In this flowchart, steps S71 to S82 are performed instead of steps S7 and S8 in FIG. That is, FIG. 4 (b), FIG. 4 (a) (2), and FIG. 4 (a) (3) show processing steps including the operation of selecting a specific button. Moving in the direction as well, the button BF is determined as a selection button (FIGS. 4A and 3), so to speak, a three-dimensional selection process is shown.

すなわち、検知部3が手のひらの何らかの動作(ジェスチャ)を検知しない場合は(ステップS6;No)、制御部1は手のひらの中心と投影したボタンとの位置が、特定の高さにおける平面内で合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS71;No)。一方、制御部1が、平面内で手のひらの中心と投影したボタンとの位置が合致したと判定した場合は(ステップS71;Yes)、ボタンの表示を変更する(ステップS8)。さらに制御部1は手のひらと投影したボタンとの位置が、上下方向において合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS81;No)。一方、制御部1が、上下方向において手のひらと投影したボタンとの位置が合致したと判定した場合は(ステップS71;No)、ボタンの表示を変更する(ステップS82)。なお、図8の入力処理動作のフローにおいては、ステップ71とステップ81の順番を入れ替えてもよい。   That is, when the detection unit 3 does not detect any movement (gesture) of the palm (step S6; No), the control unit 1 matches the position of the center of the palm and the projected button within a plane at a specific height. If it does not match, the process returns to step S5, and palm detection is performed again (step S71; No). On the other hand, when the control unit 1 determines that the position of the center of the palm matches the projected button in the plane (step S71; Yes), the button display is changed (step S8). Further, the control unit 1 determines whether or not the positions of the palm and the projected button match in the vertical direction. If they do not match, the control unit 1 returns to step S5 to detect the palm again (step S81; No). . On the other hand, when the control unit 1 determines that the position of the palm and the projected button matches in the vertical direction (step S71; No), the display of the button is changed (step S82). In the input processing operation flow of FIG. 8, the order of step 71 and step 81 may be interchanged.

図9は、本開示に係る情報入力装置10の主たる特徴点について説明した概念図である。図9(a)に示すように、情報入力装置10は手のひらPをカバーするような広い範囲に複数の選択肢画像である複数のボタンBを表示させることができ、ユーザーに対し操作の選択肢を与えることができる。また、図9(a)と図9(b)との比較から明らかなように、たとえ手のひらPが移動しても、情報入力装置10は手のひらPの動きに追従しないように、ボタンBの如き選択肢画像を含む情報入力用画像を空間の絶対位置を基準として投影させることができる。この結果、手のひらPには選択すべき選択ボタンBFと、他のボタンBが同時に並んで投影されることになり、ユーザーは、容易に、安定的にボタンBを選択することが可能となる。   FIG. 9 is a conceptual diagram illustrating main feature points of the information input device 10 according to the present disclosure. As shown in FIG. 9A, the information input device 10 can display a plurality of buttons B, which are a plurality of option images, over a wide range that covers the palm P, and gives an operation option to the user. be able to. Further, as is clear from the comparison between FIG. 9A and FIG. 9B, even if the palm P moves, the information input device 10 does not follow the movement of the palm P, such as the button B. An information input image including an option image can be projected with reference to the absolute position in space. As a result, the selection button BF to be selected and the other buttons B are projected side by side on the palm P, and the user can easily and stably select the button B.

また、手のひらPの中心に位置したボタンBFと隣接した他のボタンBも手のひらPに投影されている。よって、ユーザーは、ボタンBFと他のボタンB比較しながら、ボタンBFを選択することが可能であり、ユーザーは、容易な操作で要望する処理に対応したボタンを選択することが可能となる。さらに、手のひらPを握るような何らかの動作(ジェスチャ)によって、選択したボタンを最終的決定することができ、片手のみで選択処理を終了させることができるため、利便性を向上させることができる。尚、手のひらPの「中心」とは厳密には規定されないが、ユーザーが手のひらの中心であると認識できる所定の範囲を持った位置であり、ユーザーが手のひらを動かすことにより、当該所定範囲の位置に選択肢画像(ボタンB)を位置させることができればよい。   Further, another button B adjacent to the button BF located at the center of the palm P is also projected onto the palm P. Therefore, the user can select the button BF while comparing the button BF with another button B, and the user can select a button corresponding to a desired process with an easy operation. Furthermore, the selected button can be finally determined by some action (gesture) such as grasping the palm P, and the selection process can be completed with only one hand, so that convenience can be improved. Although the "center" of the palm P is not strictly defined, it is a position having a predetermined range that the user can recognize as the center of the palm, and the position of the predetermined range by moving the palm by the user It suffices if the option image (button B) can be positioned on the screen.

また、図9では表れていないが、情報入力装置10から見た手のひらPの上下位置(高さ位置)に応じても、情報入力用画像の内容を変化させることが可能である。このため、電子機器20の操作のバリエーションを更に拡充することが可能となる。   Although not shown in FIG. 9, the content of the information input image can be changed also according to the vertical position (height position) of the palm P viewed from the information input device 10. For this reason, it becomes possible to further expand the variation of operation of the electronic device 20.

(応用例)
図10は、情報入力装置10の応用例の一つを説明する概念図である。図4(b)に示した例では、ユーザーは、手のひらの上下方向(高さ方向)に応じて種類の異なる情報入力用画像(およびそれに含まれる選択肢画像)を選択することができるが、何の目印もない場合、上下に他の情報入力用画像が存在するか否かを判断することは困難であると考えられる。よって、高さ方向に他の情報入力用画像が存在するか否かをユーザーに通知する何らかの手段が存在することが望ましい。
(Application examples)
FIG. 10 is a conceptual diagram illustrating one application example of the information input device 10. In the example shown in FIG. 4B, the user can select different types of information input images (and option images included therein) according to the vertical direction (height direction) of the palm. If there is no mark, it may be difficult to determine whether there are other information input images above and below. Therefore, it is desirable that there is some means for notifying the user whether or not another information input image exists in the height direction.

図10(a)は、最初に表示される画像であるボタンBに加え、上下方向に他のボタンを含む情報入力用画像が存在する場合は、画像を重ねて表示することにより、ユーザーに高さ方向において複数のボタンが存在することを知らせる例である。本例では、ボタンBの上方向にはボタンB1、下方向にはボタンB2、B3が互いに積層された状態で表示されており、制御部1は、上下方向に沿って積層された複数の選択肢画像であるボタンB、B1、B2、B3の積層状態を表示する積層状態表示画像Baを生成し、プロジェクタ5が積層状態表示画像Baを投影している。ユーザーは直感的に上下方向に手のひらPを移動させることにより、他のボタンも選択可能であることを把握することができ、利便性が向上する。   FIG. 10 (a) shows that when there is an information input image including other buttons in the vertical direction in addition to the button B, which is the image displayed first, the image is displayed in an overlapping manner so that the user can This is an example informing that there are a plurality of buttons in the vertical direction. In this example, the button B1 is displayed with the button B1 in the upward direction and the buttons B2 and B3 are stacked in the downward direction, and the control unit 1 has a plurality of options stacked in the vertical direction. A laminated state display image Ba that displays the laminated state of the buttons B, B1, B2, and B3, which are images, is generated, and the projector 5 projects the laminated state display image Ba. By intuitively moving the palm P in the vertical direction, the user can grasp that other buttons can be selected, and convenience is improved.

尚、積層状態表示画像BaにおけるボタンB1、B2、B3はあくまで他のボタンの存在を知らせる役割を果たすのであり、積層状態表示画像Baの一部であって、この手のひらの位置では選択できるボタンはボタンBのみであり、ボタンB1、B2、B3を選択することはできない。ユーザーは、積層状態表示画像Baを見て、図4(b)の要領で手のひらを上下に移動させることにより、ボタンB1、B2、B3を選択することができる。   Note that the buttons B1, B2, and B3 in the stacked state display image Ba play a role of notifying the existence of other buttons, and are a part of the stacked state display image Ba. The buttons that can be selected at the palm position are as follows. Only button B is available, and buttons B1, B2, and B3 cannot be selected. The user can select the buttons B1, B2, and B3 by looking at the stacked state display image Ba and moving the palm up and down as shown in FIG. 4B.

図10(b)は、最初に表示される画像であるボタンBにおいて、上下方向に他のボタンが存在する旨を知らせるメッセージ(文字など)を表示することにより、ユーザーに高さ方向において複数のボタンが存在することを知らせる例である。すなわち制御部1は、上下方向に沿って積層された複数の選択肢画像であるボタンの各々の積層順序を表示する積層順序情報であるメッセージBbを生成し、プロジェクタ5が、ボタンBの各々においてメッセージBbを表示する。本例では「1/4 Movie 1」のメッセージBbが表示されているが、このメッセージにより、ユーザーは、映画を選択するボタンBの上下方向において合計4個のボタンが存在し、本ボタンBは下から1番目のボタンであることを把握することができる。ユーザーは直感的に高さ方向に手のひらPを移動させることにより、他のボタンも選択可能であることを把握することができ、利便性が向上する。   FIG. 10B shows a message (characters or the like) informing the user that there is another button in the vertical direction on the button B, which is the image displayed first, thereby displaying a plurality of messages in the height direction. This is an example of informing that a button exists. In other words, the control unit 1 generates a message Bb that is stacking order information that displays the stacking order of each of the buttons that are a plurality of option images stacked in the vertical direction, and the projector 5 displays a message in each button B. Bb is displayed. In this example, the message Bb of “1/4 Movie 1” is displayed. By this message, the user has a total of four buttons in the vertical direction of the button B for selecting a movie. You can see that it is the first button from the bottom. The user can grasp that other buttons can be selected by intuitively moving the palm P in the height direction, and convenience is improved.

図10(c)は、最初に表示される情報入力用画像である厚みの表現されたボタンBに加え、上下方向に他のボタンが存在する場合は、異なる形状の画像を重ねて表示することにより、ユーザーに上下方向において複数のボタンが存在することを知らせる例である。ボタンBの上方向には弦形状のボタンBx、下方向には弦形状のボタンByが互いに重畳した状態で表示されている。ユーザーはボタンBの位置から、例えば上方向に手のひらPを移動させることにより、現在選択している円形のボタンBが弦形状に変形しつつ、下の弦形状のボタンByに重なり、上の弦形状のボタンBxが高さ方向の中央に位置するとともに厚みのある円形に変形して選択されたことを示す。このように選択肢画像を選択の有無により変形させることにより、ユーザーは特定の選択肢画像の選択を直感的に理解することができ、利便性が向上する。   In FIG. 10C, in addition to the button B expressing the thickness that is the first information input image displayed, when other buttons exist in the vertical direction, images of different shapes are displayed in an overlapping manner. In this example, the user is notified that there are a plurality of buttons in the vertical direction. A string-shaped button Bx is displayed in the upper direction of the button B, and a string-shaped button By is displayed in a superimposed state in the lower direction. The user moves the palm P upward from the position of the button B, for example, so that the currently selected circular button B is deformed into a string shape and overlaps the lower string-shaped button By, and the upper string The shape button Bx is located at the center in the height direction and is selected by being transformed into a thick circle. In this way, by transforming the option image depending on the presence or absence of the selection, the user can intuitively understand the selection of the specific option image, and the convenience is improved.

尚、情報入力用画像および選択肢画像(ボタン)の積層状態を示す態様は、図10(a)〜(c)のものには特に限定されない。また、図4(b)、図10(a)〜(c)においては、複数の情報入力用画像が上下方向(高さ方向)に沿って積層され、ユーザーが上下方向に手のひらを移動させることにより、各情報入力用画像および選択肢画像を選択する例を示している。ただし、情報入力装置10が、側面の壁などに設置されることもあり、複数の情報入力用画像が積層される方向は上下方向(高さ方向)には限定されず、水平方向、斜め方向などであってもよい。一般化すれば、制御部1は、プロジェクタ5から検知部3が検知した絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成すればよく、プロジェクタ5がこの方向に沿って積層された複数の情報入力用画像を投影すればよい。   In addition, the aspect which shows the lamination | stacking state of the information input image and the choice image (button) is not specifically limited to the thing of Fig.10 (a)-(c). 4B and 10A to 10C, a plurality of information input images are stacked in the vertical direction (height direction), and the user moves the palm in the vertical direction. Thus, an example of selecting each information input image and option image is shown. However, the information input device 10 may be installed on a side wall or the like, and the direction in which a plurality of information input images are stacked is not limited to the vertical direction (height direction), but is horizontal or oblique. It may be. Generally speaking, the control unit 1 may generate a plurality of information input images stacked along the direction from the projector 5 to the absolute position detected by the detection unit 3, and the projector 5 moves along this direction. A plurality of stacked information input images may be projected.

図11は、情報入力装置10の応用例の一つを説明する概念図である。図9のように、ボタンBの如き情報入力用画像の投影範囲が手のひらPの周辺のみに限定される場合、ユーザーは投影された全ての情報入力用画像を直感的に把握することができる。しかしながら、投影範囲が手のひらPの周辺のみに限定されると、一面(平面)内で投影する情報入力用画像の数、種類は限定されてしまう。一方、投影範囲を広げてしまうと、手のひらPの周辺以外であって、手のひらPに投影されない情報入力用画像、選択肢画像を直感的に把握することは困難となる。   FIG. 11 is a conceptual diagram illustrating one application example of the information input device 10. As shown in FIG. 9, when the projection range of the information input image such as the button B is limited only to the periphery of the palm P, the user can intuitively grasp all the information input images projected. However, when the projection range is limited only to the periphery of the palm P, the number and types of information input images to be projected on one surface (plane) are limited. On the other hand, if the projection range is widened, it becomes difficult to intuitively grasp information input images and option images that are not projected around the palm P except in the vicinity of the palm P.

図11は、一面内における情報入力用画像の投影範囲が手のひらのサイズを超える領域に渡るように広く、多数の選択肢画像が形成される場合に、プロジェクタ5による投影範囲および手のひらの位置を知らせる位置表示画像を投影することにより、ユーザーが容易に投影範囲を把握することができる例を示す概念図である。図11(a)の例では、プロジェクタ5が選択肢画像群である情報入力用画像の投影範囲を示す横方向の両矢印A3である位置表示画像を投影する例を示す。手のひらが情報入力用画像内のどの位置にあるかを示す横方向の両矢印A3を手のひらPに投影することにより、ユーザーは情報入力用画像の投影範囲が手のひらPの左右両側に広がっており、左右方向に他の選択可能な選択肢画像(ボタンB)が存在することを直感的に把握することができる。図11(b)の例では、プロジェクタ5が投影範囲を示す左方向の矢印A4を手のひらPに投影する例を示す。画像群の投影範囲が手のひらPの左側に広がっているため、左方向の矢印A4を示すことにより、ユーザーは左方向に他の選択可能なボタンが存在することを直感的に把握することができる。尚、画像群の端からの距離を、矢印の長さで表現するなどしてもよい。   FIG. 11 shows a position where the projection range of the information input image in one surface is wide so as to cover an area exceeding the size of the palm, and the projection range by the projector 5 and the position of the palm are notified when a large number of option images are formed. It is a conceptual diagram which shows the example which a user can grasp | ascertain a projection range easily by projecting a display image. In the example of FIG. 11A, an example is shown in which the projector 5 projects a position display image that is a horizontal double-headed arrow A3 indicating the projection range of the information input image that is the option image group. By projecting a horizontal double-headed arrow A3 indicating the position of the palm in the information input image onto the palm P, the user can expand the projection range of the information input image on both the left and right sides of the palm P. It can be intuitively understood that there are other selectable option images (button B) in the left-right direction. In the example of FIG. 11B, an example in which the projector 5 projects a left arrow A4 indicating the projection range onto the palm P is shown. Since the projection range of the image group extends to the left side of the palm P, the user can intuitively understand that there is another selectable button in the left direction by indicating the left arrow A4. . The distance from the end of the image group may be expressed by the length of the arrow.

位置表示画像は矢印には限定されず、他の文字や、図形、記号などであってもよく、特に限定はされない。投影範囲は手のひらPの前後や斜め範囲に広がってもよく、広がりの範囲に応じた位置表示画像が生成される。   The position display image is not limited to an arrow, and may be other characters, figures, symbols, etc., and is not particularly limited. The projection range may extend before and after the palm P or in an oblique range, and a position display image corresponding to the spread range is generated.

図12は、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のサイズを決定する例を示す概念図である。図12(a)は、基本例であり、光学の原則論により、手のひらPの上下移動(矢印A5)に追従して選択肢画像であるボタンBのサイズが変化している。これに対し、図12(b)に示すように、制御部1は、検知部3が検知したプロジェクタ5から手のひらPまでの距離に基づき、手のひらPの上下移動(矢印A6)とは独立して、ボタンBのサイズを最適なもの、例えば高さに関わらず一定にすることができる。制御部1は、手のひらPまでの距離に基づき最適な情報入力用画像および選択肢画像のサイズを算出し、そのようなサイズの情報入力用画像および選択肢画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの高さ方向の位置に関わらず、最適な情報入力用画像および選択肢画像のサイズを維持することができる。   FIG. 12 is a conceptual diagram illustrating an example in which the size of the information input image and the option image is determined in accordance with the position of the palm P in the height direction. FIG. 12A is a basic example, and the size of the button B, which is an option image, changes following the vertical movement of the palm P (arrow A5) according to the principle of optics. On the other hand, as shown in FIG. 12B, the control unit 1 is independent of the vertical movement of the palm P (arrow A6) based on the distance from the projector 5 to the palm P detected by the detection unit 3. The size of the button B can be made constant regardless of the optimum size, for example, the height. The control unit 1 calculates the optimum information input image and option image size based on the distance to the palm P, and instructs the projector 5 to output the information input image and option image having such a size. Output. By performing such control, it is possible to maintain the optimum size of the information input image and the option image regardless of the position of the palm P in the height direction.

最適な情報入力用画像および選択肢画像のサイズの決定方法は特に限定されない。上述した様に、制御部1は、検知部3から手のひらPまでの距離に基づき最適な情報入力用画像および選択肢画像のサイズを算出することもできる。また、制御部1は、検知部3が取得した手のひらPの平面サイズ(面積)に基づき、最適な情報入力用画像および選択肢画像のサイズを算出することもできる。具体的には、制御部1は、手のひらPまでの距離と、手のひらPの平面サイズ(面積)から、情報入力用画像および選択肢画像のサイズを変更するが、例えば、算出した手のひらPのサイズ(面積)の80%のサイズ(面積)の情報入力用画像および選択肢画像を投影してもよい。具体的には、図13に示すように、手のひらPのサイズ(面積)は、指以外の面積で算出してもよく、例えば指の付け根Qを認識し、指の付け根Qの位置を基準として手のひらPのサイズを算出することができる(図13(a1)、(a2)参照)。また、指の付け根Qを認識し、この付け根に接する外接円の面積で手のひらPのサイズを算出してもよい(図13(b1)、(b2)参照)。また、予め検知部3から手のひらPまでの距離に対応した情報入力用画像および選択肢画像のサイズを算出しておき、この距離のみに依存して情報入力用画像および選択肢画像のサイズを変更して投影してもよく、このような処理により制御部1の処理負担を軽減することができる。   The method for determining the optimum information input image and option image size is not particularly limited. As described above, the control unit 1 can also calculate the optimum information input image and option image size based on the distance from the detection unit 3 to the palm P. Further, the control unit 1 can also calculate the optimum information input image and option image size based on the plane size (area) of the palm P acquired by the detection unit 3. Specifically, the control unit 1 changes the size of the information input image and the option image from the distance to the palm P and the plane size (area) of the palm P. For example, the control unit 1 calculates the size of the calculated palm P ( Information input images and option images having a size (area) of 80% of (area) may be projected. Specifically, as shown in FIG. 13, the size (area) of the palm P may be calculated as an area other than the finger. For example, the base Q of the finger is recognized and the position of the finger base Q is used as a reference. The size of the palm P can be calculated (see FIGS. 13A1 and 13A2). Alternatively, the base Q of the finger may be recognized, and the size of the palm P may be calculated based on the area of the circumscribed circle in contact with the base (see FIGS. 13B1 and 13B2). Also, the size of the information input image and option image corresponding to the distance from the detection unit 3 to the palm P is calculated in advance, and the size of the information input image and option image is changed depending on only this distance. Projection may be performed, and the processing load on the control unit 1 can be reduced by such processing.

図14は、手のひらPの傾き角度に合わせて、入力用画像の形状を決定する例を示す概念図である。図14(a)は、基本例であり、光学の原則論により、下位置の手のひらPがプロジェクタ5に対して傾いており、その傾き角度に応じて、情報入力用画像に含まれる選択肢画像であるボタンBの形状が変化している。具体的には、ボタンBが、横方向に伸びて手のひらPからはみ出てしまっている。尚、手のひらPがプロジェクタ5に対して傾いていない場合とは、プロジェクタ5の照射項の照射軸に対し、手のひらPが直交する様に配置されている場合である。   FIG. 14 is a conceptual diagram illustrating an example in which the shape of the input image is determined in accordance with the inclination angle of the palm P. FIG. 14A is a basic example, and the palm P in the lower position is inclined with respect to the projector 5 according to the principle of optics, and an option image included in the information input image according to the inclination angle. The shape of a certain button B has changed. Specifically, the button B extends in the lateral direction and protrudes from the palm P. The case where the palm P is not inclined with respect to the projector 5 is a case where the palm P is arranged so as to be orthogonal to the irradiation axis of the irradiation term of the projector 5.

これに対し、図14(b)に示すように、情報入力装置10は、検知部3が検知したプロジェクタ5に対する手のひらPの傾き角度および手のひらPまでの距離に基づき、ボタンBの形状を最適なもの、例えば傾き角度に関わらず一定にすることができる。制御部1は、手のひらPの傾き角度に基づき最適な情報入力用画像の形状を算出し、そのような形状の情報入力用画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの傾き角度に関わらず、最適な情報入力用画像の形状を維持することができる。   On the other hand, as shown in FIG. 14B, the information input device 10 optimizes the shape of the button B based on the tilt angle of the palm P with respect to the projector 5 detected by the detection unit 3 and the distance to the palm P. It can be constant regardless of the tilt angle, for example. The control unit 1 calculates an optimal information input image shape based on the tilt angle of the palm P, and outputs an instruction to the projector 5 so as to output the information input image having such a shape. By performing such control, the optimum shape of the information input image can be maintained regardless of the inclination angle of the palm P.

図15は、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のピントを決定する例を示す概念図である。図15(a)は、基本例であり、光学の原則論により、手のひらPの上下移動(矢印A7)に追従してピントがずれることになる。本例では、最適なピントが下位置の手のひらPに対して与えられているため、上位置の手のひらPではピントがボケてしまっている。   FIG. 15 is a conceptual diagram illustrating an example of determining the focus of the information input image and the option image in accordance with the position of the palm P in the height direction. FIG. 15A is a basic example, and the focus is shifted following the vertical movement (arrow A7) of the palm P according to the principle of optics. In this example, since the optimum focus is given to the palm P at the lower position, the palm P at the upper position is out of focus.

これに対し、図15(b)に示すように、情報入力装置10は、検知部3が検知したプロジェクタ5から手のひらPまでの距離に基づき、手のひらPの上下移動(矢印A8)とは独立して、常に最適なプロジェクタ5のピントを決定することができる。制御部1は、手のひらPまでの距離に基づき最適なピントを算出し、そのようなピントの情報入力用画像および選択肢画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの高さ方向の位置に関わらず、最適なピントの情報入力用画像および選択肢画像を維持することができる。   On the other hand, as shown in FIG. 15B, the information input device 10 is independent of the vertical movement of the palm P (arrow A8) based on the distance from the projector 5 to the palm P detected by the detection unit 3. Thus, the optimum focus of the projector 5 can always be determined. The control unit 1 calculates an optimum focus based on the distance to the palm P, and outputs an instruction to the projector 5 so as to output such an information input image and option image of the focus. By performing such control, it is possible to maintain an optimal focus information input image and option image regardless of the position of the palm P in the height direction.

ピントの設定方法は特に限定されない。上述した様に、制御部1は、プロジェクタ5から手のひらPまでの距離に基づき最適なピントを算出することもできる(アクティブ方式)。また、制御部1は、検知部3がRGBカメラを備える場合、レンズを通過した光に基づき最適なピントを算出することもできる(パッシブ方式)。
なお、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のピントを決定する処理は、図12で説明した手のひらPの高さ方向の位置に合わせて情報入力用画像および選択肢画像のサイズを決定する処理や、図14で説明した手のひらPの傾き角度に合わせて入力用画像の形状を決定する処理を組み合わせてもよい。
The focus setting method is not particularly limited. As described above, the control unit 1 can also calculate the optimum focus based on the distance from the projector 5 to the palm P (active method). Moreover, the control part 1 can also calculate an optimal focus based on the light which passed the lens, when the detection part 3 is equipped with an RGB camera (passive system).
Note that the process of determining the focus of the information input image and the option image in accordance with the position of the palm P in the height direction is the same as the information input image and the position of the palm P described in FIG. The process of determining the size of the option image and the process of determining the shape of the input image in accordance with the inclination angle of the palm P described in FIG. 14 may be combined.

図16は、情報入力装置10の応用例の一つを説明する概念図である。ユーザーの手のひらの位置によっては、情報入力用画像および選択肢画像の見え方が変わるため、その位置に応じて情報入力用画像および選択肢画像の表示方向をユーザーが見やすい方向に変更することが望ましい。例えば図16(a)に示すように、選択肢画像が円形のボタンBの場合、矢印A9で示す周方向に回転させ、表示方向を決定することが考えられる。   FIG. 16 is a conceptual diagram illustrating one application example of the information input device 10. Depending on the position of the user's palm, the appearance of the information input image and the option image changes. Therefore, it is desirable to change the display direction of the information input image and the option image in a direction that is easy for the user to see. For example, as shown in FIG. 16A, when the option image is a circular button B, it is conceivable that the display direction is determined by rotating in the circumferential direction indicated by the arrow A9.

このため、検知部3が、手のひらに加え、ユーザーの肘部、肩部、頭部等の他の人体部分を形状から検知し、当該他の人体部分と手のひらを結ぶ直線軸を算出する。制御部1は、この直線軸を基準として、情報入力用画像の適切な表示方向を決定し、この表示方向を持つ情報入力用画像をプロジェクタ5が投影する。例えば直線軸が手のひらと頭部を結ぶものである場合、情報入力用画像は、直線軸と略平行にまたは略垂直になるような表示方向に配置されるのがよい。例えば直線軸が手のひらと肩部を結ぶものである場合、情報入力用画像は、手のひらが左右いずれの手かを認識した上で、直線軸から0〜60°程度の範囲での回転させた表示方向に配置されるのがよい。もちろん表示方向は一義的に規定されるものではなく、装置の種類、設置場所、ユーザーの特性など種々の要因により適宜決定される。   For this reason, in addition to the palm, the detection unit 3 detects other human body parts such as the user's elbow, shoulder, and head from the shape, and calculates a linear axis that connects the other human body part and the palm. The controller 1 determines an appropriate display direction of the information input image with reference to the linear axis, and the projector 5 projects the information input image having this display direction. For example, when the linear axis connects the palm and the head, the information input image is preferably arranged in a display direction that is substantially parallel to or substantially perpendicular to the linear axis. For example, when the linear axis connects the palm and the shoulder, the information input image is displayed by recognizing whether the palm is the left or right hand and rotated within a range of about 0 to 60 ° from the linear axis. It should be arranged in the direction. Of course, the display direction is not uniquely defined, and is appropriately determined depending on various factors such as the type of apparatus, installation location, and user characteristics.

図16(b)は、検知部3が手のひらP、頭部H、肩部Sを認識した状況において、制御部1が手のひらPと頭部Hを結ぶ直線軸AX1および手のひらPと肩部Sを結ぶ直線軸AX2の二つの直線軸を決定し、この二つの直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。図16(c)は、検知部3が手のひらP、肩部Sを認識した状況において、制御部1が手のひらPと肩部Sを結ぶ直線軸AX2を決定し、この直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。図16(d)は、検知部3が手のひらP、頭部Hを認識した状況において、制御部1が手のひらPと頭部Hを結ぶ直線軸AX1を決定し、この直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。   FIG. 16B shows a situation in which the controller 1 recognizes the palm P, the head H, and the shoulder S, the linear axis AX1 that connects the palm P and the head H, and the palm P and the shoulder S. The conceptual diagram which determines the two linear axes of the connecting linear axis AX2, and determines the display direction of the button B which is an information input image from these two linear axes is shown. FIG. 16C shows a situation in which the detection unit 3 recognizes the palm P and the shoulder S, and the control unit 1 determines a linear axis AX2 connecting the palm P and the shoulder S, and an information input image is obtained from the linear axis. The conceptual diagram which determines the display direction of the button B which is is shown. FIG. 16D shows a situation in which the detection unit 3 recognizes the palm P and the head H, and the control unit 1 determines a linear axis AX1 that connects the palm P and the head H, and an information input image is obtained from the linear axis. The conceptual diagram which determines the display direction of the button B which is is shown.

図16(e)は、検知部3が手のひらP、肩部S、特に両肩を認識した状況において、制御部1が両肩を結ぶ直線軸AX3を決定し、直線軸AX3を二等分する点が頭部Hの位置であると仮定して手のひらPと頭部Hを結ぶ直線軸AX1を決定し、直線軸AX1から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。帽子や髪型等で頭部Hの認識が困難な場合に有用な方法である。   FIG. 16E shows that in the situation where the detection unit 3 recognizes the palm P and shoulder S, particularly both shoulders, the control unit 1 determines the linear axis AX3 connecting the shoulders, and bisects the linear axis AX3. Assuming that the point is the position of the head H, a linear axis AX1 that connects the palm P and the head H is determined, and a conceptual diagram for determining the display direction of the button B that is an information input image from the linear axis AX1 is shown. . This method is useful when it is difficult to recognize the head H with a hat, hairstyle, or the like.

図16(f)は、検知部3が手のひらP、肩部S、特に両肩を認識した状況において、手のひらPが両肩の内側か外側にあるかを認識できるため、内側にある場合と外側にある場合とで表示方向を変更している。本例では、手のひらPが両肩の内側にある場合、表示方向は体に対して正対するように設定される、一方、手のひらPが両肩の外側にある場合、図16(e)と同様の方法で、直線軸AX3、直線軸AX1を決定し、直線軸AX1から情報入力用画像であるボタンBの表示方向を決定する。   FIG. 16 (f) shows the case where the palm P is inside or outside both shoulders in the situation where the detection unit 3 recognizes the palm P, shoulder S, especially both shoulders. The display direction is changed depending on the case. In this example, when the palm P is inside the shoulders, the display direction is set so as to face the body. On the other hand, when the palm P is outside the shoulders, the same as in FIG. By this method, the linear axis AX3 and the linear axis AX1 are determined, and the display direction of the button B which is the information input image is determined from the linear axis AX1.

本処理においては、上述した通り、検知部3が手のひらに加え、様々な他の人体部分を検知し、制御部1が、手のひらと他の人体部分との相対位置関係に基づき、情報入力用画像の向きを決定することができる。尚、検知部3が、ユーザーの直上に位置していなくても、空間的にユーザーの直上に位置している状況に変換して用いることができる。また、肩部の認識方法は骨格推定でも、上体塊推定でも良い。また、肘部を用いて表示方向を決定してもよい。また、椅子や、表示器など、使用環境によって人間の体の向きが限定される場合や、椅子の回転角度等を検出することにより体の認識以外でも向きを推定出来る場合は、その手段を用いて表示角度を変えてもよい。   In this process, as described above, the detection unit 3 detects various other human body parts in addition to the palm, and the control unit 1 detects the information input image based on the relative positional relationship between the palm and the other human body parts. Can be determined. Even if the detection unit 3 is not located immediately above the user, the detection unit 3 can be converted into a situation where it is spatially located directly above the user. The shoulder recognition method may be skeleton estimation or upper body mass estimation. Moreover, you may determine a display direction using an elbow part. Also, if the orientation of the human body is limited by the usage environment, such as a chair or a display, or if the orientation can be estimated by other than body recognition by detecting the rotation angle of the chair, etc., use that means. The display angle may be changed.

図17は、高さ方向において情報入力用画像を投影する範囲を規定する概念を示す概念図である。検知部3が検知した頭部Hまたは肩部Sから手のひらPまでの相対距離(相対高さ)を制御部1が算出し、相対距離を基準として、プロジェクタ5が情報入力用画像を投影する範囲を規定する。例えば、肩部Sから手のひらPまでの相対距離を用いる場合(肩部基準)、手のひらPが肩部Sの高さ以下にある場合に情報入力用画像を投影すると決定することができ(距離D1)、さらに手のひらPが肩部Sの高さから600mm下の範囲までで情報入力用画像を投影すると決定することができる(距離D2)。頭部Hから手のひらPまでの相対距離を用いる場合(頭部基準)、肩部基準に対して150mm加算して計算する(距離D3、D4)。   FIG. 17 is a conceptual diagram showing a concept for defining a range in which an information input image is projected in the height direction. The control unit 1 calculates the relative distance (relative height) from the head H or shoulder S detected by the detection unit 3 to the palm P, and the range in which the projector 5 projects the information input image based on the relative distance. Is specified. For example, when the relative distance from the shoulder S to the palm P is used (shoulder reference), the information input image can be determined to be projected when the palm P is below the height of the shoulder S (distance D1). Further, it can be determined that the information input image is projected within a range where the palm P is 600 mm below the height of the shoulder S (distance D2). When the relative distance from the head H to the palm P is used (head reference), calculation is performed by adding 150 mm to the shoulder reference (distances D3 and D4).

本処理において、高さの基準を決める方向の角度は、図17のように重力方向(鉛直方向)には限定されず、例えばリクライニング式の椅子に腰かけた場合などを考慮し、上体の傾斜角度を基準として算出することもできる。すなわち、検知部3が、手のひら以外の他の人体部分を検知し、制御部1が、手のひらと他の人体部分との相対位置関係に基づき、情報入力用画像を投影する範囲を決定することができる。また、本処理においては、検知部3が、ユーザーの直上に位置していなくても(一般的な監視カメラ等)、空間的に本処理の状況に変換して用いることができる。また、クライニング式の椅子に腰かけた場合などは、頭部Hまたは肩部Sではなく、床、椅子の座面高さ等を認識、または事前設定しておき、情報入力用画像を投影する範囲を規定してもよく、高さの基準となるものは限定されない。   In this process, the angle of the direction for determining the height reference is not limited to the gravitational direction (vertical direction) as shown in FIG. 17, and for example, when the user sits on a reclining chair, the upper body tilts. It is also possible to calculate based on the angle. That is, the detection unit 3 detects a human body part other than the palm, and the control unit 1 determines a range for projecting the information input image based on the relative positional relationship between the palm and the other human body part. it can. In the present process, even if the detection unit 3 is not located directly above the user (such as a general monitoring camera), it can be spatially converted into the present process. When sitting on a clinching chair, the information input image is projected by recognizing or presetting the floor, chair seat height, etc. instead of the head H or shoulder S. The range may be defined, and the height standard is not limited.

図18は、プロジェクタ5から照射する照射光と手のひらPが垂直に交わらない場合、すなわち、手のひらPに対し情報入力用画像を投影する投影角度が90°でない場合の処理の概念を示す概念図である。図18(a)に示すように、検知部3が手のひらPの傾き角度cを検知し、傾き角度に合わせて、例えば図14(b)で示した方法で情報入力用画像の形状を補正処理する。   FIG. 18 is a conceptual diagram showing a processing concept when the irradiation light irradiated from the projector 5 and the palm P do not intersect perpendicularly, that is, when the projection angle for projecting the information input image to the palm P is not 90 °. is there. As shown in FIG. 18A, the detection unit 3 detects the tilt angle c of the palm P, and corrects the shape of the information input image by the method shown in FIG. 14B, for example, according to the tilt angle. To do.

また、手のひらPの移動が検知された場合、傾き角度cを用いて、制御部1は、移動方向について分解演算を行う。すなわち、手のひらPの平面方向aへの移動では投影位置は変化させず、制御部1は平面内でのボタンBの選択処理であると判断する。一方、手のひらPの奥行方向bへの移動では、ボタンBの投影位置そのものを変更する(図18(b)参照)。
これらの補正処置によって、プロジェクタ5から照射する照射光と手のひらPが垂直に交わらない場合でも、図4(b)のように、ユーザーが手のひらPに対して垂直方向にスライドさせることで、それぞれの高さで表示されるボタンが、ボタンB1、B2で示す如く変化する。
Further, when the movement of the palm P is detected, the control unit 1 performs a decomposition operation in the movement direction using the inclination angle c. That is, the projection position is not changed by the movement of the palm P in the plane direction a, and the control unit 1 determines that the button B selection process is in the plane. On the other hand, when the palm P moves in the depth direction b, the projection position of the button B itself is changed (see FIG. 18B).
Even if the irradiation light emitted from the projector 5 and the palm P do not intersect perpendicularly by these correction treatments, the user can slide the palm P vertically with respect to the palm P as shown in FIG. The buttons displayed at the height change as indicated by the buttons B1 and B2.

手のひらPの傾き角度cを拡大すると投影画像の不鮮明化、手認識の困難化等が生じるため、傾き角度60°を上限とし、それ以上の傾き角度の場合、制御部1は傾き角度60°を最大角度として用いて処理する。また、手のひらPの傾き角度cに対して厳密に描画・演算処理を行うが、演算力・表示のチラつきが生じる場合、例えば5°、10°、15°毎のステップで演算を行う。   If the tilt angle c of the palm P is enlarged, the projected image becomes unclear and the hand recognition becomes difficult. Therefore, the tilt angle is set to 60 ° as the upper limit, and when the tilt angle is larger than that, the control unit 1 sets the tilt angle 60 °. Process using as the maximum angle. Further, although drawing / calculation processing is strictly performed with respect to the inclination angle c of the palm P, when flickering of calculation power / display occurs, calculation is performed in steps of, for example, 5 °, 10 °, and 15 °.

尚、手のひらによる動作(ジェスチャ)には種々のものが考えられ、上述の実施形態を含め、特定のものに限定はされない。例えば、テーブル等の所定の対象物に、手のひらに投影したボタンなどの情報入力用画像をこぼすようなジェスチャが考えられる。ボタンの投影箇所を、こぼし先の対象物に移動し、表示される情報入力用画像の数やサイズを変更して表示してもよい。   Various actions (gestures) by the palm are conceivable and are not limited to specific ones including the above-described embodiment. For example, a gesture that spills an information input image such as a button projected on the palm of a predetermined object such as a table can be considered. The projected part of the button may be moved to the object to be spilled and displayed by changing the number and size of the information input images to be displayed.

また、電子機器20による処理の実行開始後に、電子機器(ディスプレイ等)に注意が向くように、ビーム等を別途投影する様にしてもよい。具体的には、手のひらPに投射されているボタンBを、電子機器の方向に移動させてもよいし、手のひらPに投射されているボタンBを、電子機器の方向を示す矢印を表示させる様にしてもよい。   In addition, after the execution of processing by the electronic device 20 is started, a beam or the like may be separately projected so as to pay attention to the electronic device (display or the like). Specifically, the button B projected on the palm P may be moved in the direction of the electronic device, or the button B projected on the palm P may be displayed with an arrow indicating the direction of the electronic device. It may be.

また、特定の情報入力用画像をちぎるような動作により処理を決定してもよいし、手のひらを傾けることで、情報入力用画像が流れていくように遷移する様にしてもよい。   Further, the processing may be determined by an operation that tears a specific information input image, or the information input image may be changed to flow by tilting the palm.

上述の形態では、片方の手のみで操作を完結させる例を説明した。ただし、他方の手で情報入力用画像をタッチして決定することも可能である。ただし、他方の手の指によって片方の手のひらが隠れてしまい、手のひらの高さと指との高さの差が正確に測れないと言った不都合は生じ得る。このような不都合を解消するため、例えば、情報入力用画像を表示する前に手の平の表面の凹凸を記録し、情報入力用画像を表示する領域より外側で、かつ指にかからない領域を3点以上、観測点とし、この観測点を計測することで手のひらの傾きを検出する。記録した表面の凹凸と、手のひらの傾きにより、手のひらの表面の高さを逐次補正することができる。また、手のひらの血の赤色をVGA(Video Graphics Array)カメラで観測してもよい。   In the above-described embodiment, the example in which the operation is completed with only one hand has been described. However, it is also possible to make a decision by touching the information input image with the other hand. However, there may be a disadvantage that the palm of one hand is hidden by the finger of the other hand, and the difference between the height of the palm and the height of the finger cannot be measured accurately. In order to eliminate such inconvenience, for example, the unevenness of the palm surface is recorded before displaying the information input image, and three or more areas outside the area where the information input image is displayed and which do not touch the finger are displayed. Then, the observation point is detected, and the inclination of the palm is detected by measuring the observation point. The height of the surface of the palm can be sequentially corrected based on the recorded surface irregularities and the inclination of the palm. Further, the red blood of the palm may be observed with a VGA (Video Graphics Array) camera.

また、検知部3とプロジェクタ5との構成、位置等に関しては、種々の関係が考えられる。例えば、プロジェクタ5の投影画角にかからない位置に検知部3を配置したり、検知部3の検知領域にかからない位置にプロジェクタ5を配置することが考えられる。プロジェクタ5の情報入力用画像を投影する投影面と検知部3が検知する面を同一面に配置してもよい。   Various relationships are conceivable regarding the configuration, position, and the like of the detection unit 3 and the projector 5. For example, it is conceivable to arrange the detection unit 3 at a position that does not cover the projection field angle of the projector 5 or to arrange the projector 5 at a position that does not cover the detection area of the detection unit 3. You may arrange | position the projection surface which projects the information input image of the projector 5, and the surface which the detection part 3 detects on the same surface.

また、プロジェクタ5と検知部3を、同一パーツで固定してもよく、プロジェクタ5の光軸と検知部の軸を同一方向に配置してもよい。また、検知部3のアスペクト比とプロジェクタ5のアスペクト比を合わせてもよい。   Further, the projector 5 and the detection unit 3 may be fixed with the same parts, and the optical axis of the projector 5 and the axis of the detection unit may be arranged in the same direction. Further, the aspect ratio of the detection unit 3 and the aspect ratio of the projector 5 may be matched.

また、プロジェクタ5と検知部3を校正する校正方法として、例えば何らかの校正アナウンスにより、対角点を表示し、ユーザーに対角点2点の中心に手をかざしてもらうことにより、手の検出位置と、投影位置を照合し、校正することが考えられる。また、画像認識によりポインタ中心と手のひらの中心のズレを認識し、調整してもよい。また、特徴的な構造物(イス等)に対して調整してもよい。   Further, as a calibration method for calibrating the projector 5 and the detection unit 3, for example, by displaying a diagonal point by some kind of calibration announcement, and by having the user hold the hand over the center of the two diagonal points, the detected position of the hand It is conceivable to collate and calibrate the projection position. Further, a deviation between the center of the pointer and the center of the palm may be recognized and adjusted by image recognition. Moreover, you may adjust with respect to a characteristic structure (chair etc.).

本開示の情報入力装置によれば、電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することが可能となり、より簡易な操作入力が可能となる。   According to the information input device of the present disclosure, when operating the electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and the user Other electronic devices can be operated with only one hand, and simpler operation input is possible.

また、本開示の情報入力装置によれば、基本的に手のひらに情報入力画像を投影するが、手のひらのサイズに制限されることなく情報入力画像を投影することができ、多様な電子機器の操作処理が可能となる。   Further, according to the information input device of the present disclosure, the information input image is basically projected on the palm, but the information input image can be projected without being limited by the size of the palm, and various electronic devices can be operated. Processing is possible.

また、本開示の情報入力装置によれば、手のひらの検知後、特定のタイミング、特に特定の手のひらの動作(ジェスチャ)によって、情報入力画像を投影する絶対位置を画定することができる。よって、任意の位置(空間)を投影位置とすることができ、専用の投影対象が不要となる。また、ユーザーが手のひらを動かしても、投影位置は追従しないため、ユーザーは選択したい情報入力画像の選択肢画像に、手のひらを動かすことができる。   Further, according to the information input device of the present disclosure, the absolute position at which the information input image is projected can be defined by a specific timing, in particular, a specific palm operation (gesture) after the palm is detected. Therefore, an arbitrary position (space) can be set as the projection position, and a dedicated projection target is not required. Further, even if the user moves the palm, the projection position does not follow, so the user can move the palm to the option image of the information input image to be selected.

また、本開示の情報入力装置によれば、特定の選択肢画像を手のひらの中心に位置する様に手を動かした後、所定の動作によりその選択肢画像の選択が決定される。よって、投影位置の設定、選択肢画像の選択及び決定を、同じ手で行うことができ、ユーザーの片手のみで電子機器を簡易に操作することが可能となる。また、従来のように、選択肢画像の決定を、もう一方の手で指す動作にした場合のような複雑な検出処理をする必要がないため、より確実に、より簡易に決定処理を行うことができる。   Further, according to the information input device of the present disclosure, after moving a hand so that a specific option image is positioned at the center of the palm, selection of the option image is determined by a predetermined operation. Therefore, setting of the projection position and selection and determination of option images can be performed with the same hand, and the electronic apparatus can be easily operated with only one hand of the user. Further, unlike the conventional case, it is not necessary to perform a complicated detection process as in the case where the selection image is determined with the other hand, so that the determination process can be performed more reliably and easily. it can.

以上、図面を参照して本開示に係る情報入力装置の実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。   Although the embodiment of the information input device according to the present disclosure has been described above with reference to the drawings, the present disclosure is not limited to the example. It is obvious for those skilled in the art that various modifications, modifications, substitutions, additions, deletions, and equivalents can be conceived within the scope of the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

本開示の情報入力装置は、専用の投影対象を用意せずに、電子機器を簡易かつ的確に操作する用途に有用である。   The information input device of the present disclosure is useful for applications in which an electronic apparatus is easily and accurately operated without preparing a dedicated projection target.

1 制御部
3 検知部
5 プロジェクタ(投影装置)
10 情報入力装置
20 電子機器
B ボタン(選択肢画像)
F 握りこぶし
H 頭部
P 手のひら
Q 指の付け根
S 肩部
DESCRIPTION OF SYMBOLS 1 Control part 3 Detection part 5 Projector (projection apparatus)
10 Information Input Device 20 Electronic Device B Button (Option Image)
F Fist H Head P Palm Q Finger base S Shoulder

Claims (12)

人の手のひらを検知可能な検知部と、
手のひらに、電子機器を操作するための複数の処理に対応した複数の選択肢画像を含む情報入力用画像を投影する投影装置と、
前記検知部および前記投影装置を制御する制御部と、
を備える情報入力装置であって、
前記制御部は、所定のタイミングにおいて前記検知部が検知した手のひらの位置に対応した絶対位置を記憶し、
前記投影装置は、前記絶対位置を基準として前記情報入力用画像を投影し、
前記検知部が、手のひらの中心に所定の選択肢画像が投影された状態から、手のひらによる所定の動作を検知したとき、前記制御部は、当該所定の選択肢画像が選択されたと判定し、選択した選択肢画像に対応する処理を前記電子機器に送信し、
前記制御部は、前記投影装置から前記絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成し、前記投影装置は、前記方向に沿って積層された複数の情報入力用画像を投影する、情報入力装置。
A detection unit capable of detecting the palm of a person,
A projection device that projects an information input image including a plurality of option images corresponding to a plurality of processes for operating an electronic device on a palm;
A control unit for controlling the detection unit and the projection device;
An information input device comprising:
The control unit stores an absolute position corresponding to the palm position detected by the detection unit at a predetermined timing;
The projection device projects the information input image based on the absolute position,
When the detection unit detects a predetermined action by the palm from a state where the predetermined option image is projected at the center of the palm, the control unit determines that the predetermined option image is selected, and the selected option Send processing corresponding to the image to the electronic device ,
The control unit generates a plurality of information input images stacked along a direction from the projection device to the absolute position, and the projection device stores a plurality of information input images stacked along the direction. An information input device that projects .
請求項1に記載の情報入力装置であって、
前記制御部は、前記方向に沿って積層された複数の選択肢画像の積層状態を表示する積層状態表示画像を生成し、
前記投影装置は、前記積層状態表示画像を投影する、情報入力装置。
The information input device according to claim 1,
The control unit generates a stacked state display image that displays a stacked state of a plurality of option images stacked along the direction,
The projection device is an information input device that projects the stacked state display image.
請求項に記載の情報入力装置であって、
前記制御部は、前記方向に沿って積層された複数の選択肢画像の各々の積層順序を表示する積層順序情報を生成し、
前記投影装置は、選択肢画像の各々において前記積層順序情報を表示する、情報入力装置。
The information input device according to claim 1 ,
The control unit generates stacking order information that displays the stacking order of each of the plurality of option images stacked along the direction,
The projection device is an information input device that displays the stacking order information in each of the option images.
請求項1に記載の情報入力装置であって、
前記投影装置は、一面内おいて、手のひらのサイズを超える領域に前記情報入力用画像を投影する、情報入力装置。
The information input device according to claim 1,
The information input device projects the information input image onto an area exceeding the size of a palm in one plane.
請求項1に記載の情報入力装置であって、 前記投影装置は、手のひらが前記情報入力用画像内のどの位置にあるかを示す位置表示画像を手のひらに投影する、情報入力装置。   The information input device according to claim 1, wherein the projection device projects a position display image indicating where the palm is in the information input image onto the palm. 請求項1に記載の情報入力装置であって、
前記検知部が手のひらによる所定の動作がされたことを検知したとき、前記投影装置は前記情報入力用画像の投影を停止する、情報入力装置。
The information input device according to claim 1,
The information input device, wherein the projection device stops projecting the information input image when the detection unit detects that a predetermined operation by a palm is performed.
請求項1に記載の情報入力装置であって、
前記投影装置は、初期時に前記手のひらに投影する際には、少なくとも前記選択肢画像は前記手のひらの中央付近以外に投射する、情報入力装置。
The information input device according to claim 1,
When the projection device projects the image onto the palm at an initial stage, at least the option image is projected outside the vicinity of the center of the palm.
請求項1に記載の情報入力装置であって、
前記検知部は、前記投影装置から手のひらまでの距離を検知し、
前記制御部は、前記距離に基づき、前記情報入力用画像のサイズを決定する、情報入力装置。
The information input device according to claim 1,
The detection unit detects a distance from the projection device to a palm;
The control unit is an information input device that determines a size of the information input image based on the distance.
請求項1に記載の情報入力装置であって、
前記検知部は、前記投影装置に対する手のひらの傾き角度を検知し、
前記制御部は、前記傾き角度に基づき、前記情報入力用画像の形状を決定する、情報入力装置。
The information input device according to claim 1,
The detection unit detects a tilt angle of a palm relative to the projection device;
The control unit is an information input device that determines a shape of the information input image based on the tilt angle.
請求項1に記載の情報入力装置であって、
前記検知部は、前記投影装置から手のひらまでの距離を検知し、
前記制御部は、前記距離に基づき、前記投影装置のピントを決定する、情報入力装置。
The information input device according to claim 1,
The detection unit detects a distance from the projection device to a palm;
The control unit is an information input device that determines a focus of the projection device based on the distance.
請求項1に記載の情報入力装置であって、
前記検知部は、手のひら以外の他の人体部分を検知し、
前記制御部は、手のひらと他の人体部分との相対位置関係に基づき、前記情報入力用画像の向きを決定する、情報入力装置。
The information input device according to claim 1,
The detection unit detects a human body part other than the palm,
The said control part is an information input device which determines the direction of the said image for information input based on the relative positional relationship of a palm and another human body part.
請求項1に記載の情報入力装置であって、
前記検知部は、手のひら以外の他の人体部分を検知し、
前記制御部は、手のひらと他の人体部分との相対位置関係に基づき、前記情報入力用画像を投影する範囲を決定する、情報入力装置。
The information input device according to claim 1,
The detection unit detects a human body part other than the palm,
The said control part is an information input device which determines the range which projects the said image for information input based on the relative positional relationship of a palm and another human body part.
JP2016213096A 2016-10-31 2016-10-31 Information input device Active JP6210466B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016213096A JP6210466B1 (en) 2016-10-31 2016-10-31 Information input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213096A JP6210466B1 (en) 2016-10-31 2016-10-31 Information input device

Publications (2)

Publication Number Publication Date
JP6210466B1 true JP6210466B1 (en) 2017-10-11
JP2018073170A JP2018073170A (en) 2018-05-10

Family

ID=60040417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213096A Active JP6210466B1 (en) 2016-10-31 2016-10-31 Information input device

Country Status (1)

Country Link
JP (1) JP6210466B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447052A (en) * 2019-01-09 2019-03-08 东浓智能科技(上海)有限公司 A kind of vena metacarpea identification device being accurately positioned palm position and its implementation
CN111093066A (en) * 2019-12-03 2020-05-01 耀灵人工智能(浙江)有限公司 Dynamic plane projection method and system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235035A1 (en) 2019-05-22 2020-11-26 マクセル株式会社 Head-mounted display
EP3764199A1 (en) * 2019-07-12 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft Methods, apparatuses and computer programs for controlling a user interface
JP2021099721A (en) * 2019-12-23 2021-07-01 トヨタ紡織株式会社 Input device for vehicle
JP7375611B2 (en) 2020-02-28 2023-11-08 日本精機株式会社 operating device
JP7328409B2 (en) * 2020-09-24 2023-08-16 Necプラットフォームズ株式会社 Control device, control method, information input system and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2012089079A (en) * 2010-10-22 2012-05-10 Honda Access Corp Vehicle input-output device
WO2012129649A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Gesture recognition by shadow processing
US20120249409A1 (en) * 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for providing user interfaces
WO2012173001A1 (en) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 Information input device
US20130086531A1 (en) * 2011-09-29 2013-04-04 Kabushiki Kaisha Toshiba Command issuing device, method and computer program product
US20140177909A1 (en) * 2012-12-24 2014-06-26 Industrial Technology Research Institute Three-dimensional interactive device and operation method thereof
JP2016029532A (en) * 2014-07-25 2016-03-03 小島プレス工業株式会社 User interface
WO2016047043A1 (en) * 2014-09-25 2016-03-31 パナソニックIpマネジメント株式会社 Projection device
US20160282951A1 (en) * 2013-06-27 2016-09-29 Futureplay Inc. Method and Device for Determining User Input on Basis of Visual Information on User's Fingernails or Toenails

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2012089079A (en) * 2010-10-22 2012-05-10 Honda Access Corp Vehicle input-output device
WO2012129649A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Gesture recognition by shadow processing
US20120249409A1 (en) * 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for providing user interfaces
WO2012173001A1 (en) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 Information input device
US20130086531A1 (en) * 2011-09-29 2013-04-04 Kabushiki Kaisha Toshiba Command issuing device, method and computer program product
US20140177909A1 (en) * 2012-12-24 2014-06-26 Industrial Technology Research Institute Three-dimensional interactive device and operation method thereof
US20160282951A1 (en) * 2013-06-27 2016-09-29 Futureplay Inc. Method and Device for Determining User Input on Basis of Visual Information on User's Fingernails or Toenails
JP2016029532A (en) * 2014-07-25 2016-03-03 小島プレス工業株式会社 User interface
WO2016047043A1 (en) * 2014-09-25 2016-03-31 パナソニックIpマネジメント株式会社 Projection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447052A (en) * 2019-01-09 2019-03-08 东浓智能科技(上海)有限公司 A kind of vena metacarpea identification device being accurately positioned palm position and its implementation
CN111093066A (en) * 2019-12-03 2020-05-01 耀灵人工智能(浙江)有限公司 Dynamic plane projection method and system

Also Published As

Publication number Publication date
JP2018073170A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6210466B1 (en) Information input device
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US20220261112A1 (en) Systems, devices, and methods for touch-free typing
US10139929B2 (en) Information handling system interactive totems
JP6371475B2 (en) Eye-gaze input device, eye-gaze input method, and eye-gaze input program
US9804733B2 (en) Dynamic cursor focus in a multi-display information handling system environment
US9753591B2 (en) Capacitive mat information handling system display and totem interactions
US9983717B2 (en) Disambiguation of false touch inputs at an information handling system projected user interface
US9323343B2 (en) Information processing method and information processing apparatus
JP2019087279A (en) Systems and methods of direct pointing detection for interaction with digital device
US20160316186A1 (en) Continuous Calibration of an Information Handling System Projected User Interface
JP6372487B2 (en) Information processing apparatus, control method, program, and storage medium
US10139854B2 (en) Dynamic display resolution management for an immersed information handling system environment
US11635827B2 (en) Control device, display device, program, and detection method
US11243640B2 (en) Information handling system modular capacitive mat with extension coupling devices
US20160314727A1 (en) Information Handling System Projected Work Space Calibration
US9791979B2 (en) Managing inputs at an information handling system by adaptive infrared illumination and detection
US9921644B2 (en) Information handling system non-linear user interface
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP7294350B2 (en) Information processing device, information processing method, and program
US20160313822A1 (en) Context Based Peripheral Management for Interacting with an Information Handling System
US20210287330A1 (en) Information processing system, method of information processing, and program
US20160313820A1 (en) Adaptable Input Active Zones at an Information Handling System Projected User Interface
JP2015094828A (en) Image projection method, information input device and program
JP4712754B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R151 Written notification of patent or utility model registration

Ref document number: 6210466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151