JP5401645B2 - Human interface device - Google Patents

Human interface device Download PDF

Info

Publication number
JP5401645B2
JP5401645B2 JP2009161031A JP2009161031A JP5401645B2 JP 5401645 B2 JP5401645 B2 JP 5401645B2 JP 2009161031 A JP2009161031 A JP 2009161031A JP 2009161031 A JP2009161031 A JP 2009161031A JP 5401645 B2 JP5401645 B2 JP 5401645B2
Authority
JP
Japan
Prior art keywords
finger
distance
image
light
conversion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009161031A
Other languages
Japanese (ja)
Other versions
JP2011018129A (en
Inventor
一郎 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2009161031A priority Critical patent/JP5401645B2/en
Publication of JP2011018129A publication Critical patent/JP2011018129A/en
Application granted granted Critical
Publication of JP5401645B2 publication Critical patent/JP5401645B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータなどの機器に対するヒューマンインターフェイス装置に関し、特に人の手指の3次元位置情報を出力するヒューマンインターフェイス装置に関する。   The present invention relates to a human interface device for a device such as a computer, and more particularly to a human interface device that outputs three-dimensional position information of a human finger.

1970年代にGUI(Graphical User Interface)の概念が発明されてから、コンピュータへの情報入力のために、マウス、トラックボール、ジョイスティック、ペン入力タブレットなどの多様なポインティングデバイスが利用されてきた。とりわけマウスの普及は目覚しく、現在に至るまで、使い易さやコストの点で、マウスを超えるポインティングデバイスは知られていない。   Since the concept of GUI (Graphical User Interface) was invented in the 1970s, various pointing devices such as a mouse, a trackball, a joystick, and a pen input tablet have been used for inputting information to a computer. In particular, the spread of mice is remarkable, and until now, no pointing device that exceeds the mouse has been known in terms of ease of use and cost.

現在のポインティングデバイスは2次元座標の変位を連続して入力しているように見えるが、一定の周期でデータを繰り返して入力していて、ある瞬間に入力できるのは1点の座標のみである。即ち、多点の変位や座標を同時に入力することはできない。また、この変位や座標は2次元平面上のものであり、これに高さ方向の座標を加えた3次元座標を入力することは一般にはできない。なお、CADやゲームのために開発された3次元座標の入力装置として、図10に示す「3dマウス」が知られている(下記非特許文献1参照)。これは、複数のセンサを用いて各々の方向の変位を検出するものである。   Although the current pointing device seems to input the displacement of the two-dimensional coordinate continuously, the data is repeatedly input at a fixed period, and only one point coordinate can be input at a certain moment. . That is, it is not possible to input multiple points of displacement and coordinates simultaneously. In addition, the displacement and coordinates are on a two-dimensional plane, and it is generally not possible to input three-dimensional coordinates obtained by adding a coordinate in the height direction. As a three-dimensional coordinate input device developed for CAD and games, a “3d mouse” shown in FIG. 10 is known (see Non-Patent Document 1 below). This is to detect displacement in each direction using a plurality of sensors.

一方、下記特許文献1には、複数の指の位置を検出する機能を備えたヒューマンインターフェイス装置が開示されている。この装置の断面の構成を図11に示す。照明装置から出力された光が外殻パターンによって反射され、撮像光学系と撮像装置によって外殻パターンの画像を取得する。この装置を手にとって複数の指で支えるとき、外殻外面に接触した指の位置の情報を得ることができる。更に、外殻を柔軟な材料で構成することにより、変形した外殻パターンの画像を基にして、指によって外殻に加えられた圧力の情報も得ることができる。   On the other hand, Patent Document 1 below discloses a human interface device having a function of detecting the positions of a plurality of fingers. FIG. 11 shows a cross-sectional configuration of this apparatus. The light output from the illumination device is reflected by the outer shell pattern, and an image of the outer shell pattern is acquired by the imaging optical system and the imaging device. When this device is supported by a hand with a plurality of fingers, information on the position of the finger in contact with the outer surface of the outer shell can be obtained. Further, by configuring the outer shell with a flexible material, information on the pressure applied to the outer shell by the finger can be obtained based on the image of the deformed outer shell pattern.

特許第4169688号明細書Japanese Patent No. 4169688

インターネット<URL:http://www.nissho-ele.co.jp/product/3d_mouse/feature.html>Internet <URL: http://www.nissho-ele.co.jp/product/3d_mouse/feature.html>

上記したように、複数の点の変位や座標を同時に入力できるユーザーインターフェイス装置が要望されている。複数の点の変位や座標を同時に入力できれば、これらに対応するポインタや指の画像をディスプレイに表示して、同時に表示した物体を操作するという自然なインターフェイスを実現できる。即ち、複数の指の変位や座標の同時入力により、指の動き(ジェスチャー)を利用したインターフェイスを実現することができる。   As described above, there is a demand for a user interface device that can simultaneously input displacements and coordinates of a plurality of points. If the displacements and coordinates of a plurality of points can be input simultaneously, a natural interface can be realized in which images of pointers and fingers corresponding to these points are displayed on the display and the objects displayed at the same time are operated. That is, an interface using finger movement (gesture) can be realized by simultaneously inputting a plurality of finger displacements and coordinates.

また、最近は3dディスプレイの研究開発が盛んである。今後、映画やゲームなどの3dコンテンツが大量に開発されるようになり、家庭のテレビやパソコンのモニタが3次元表示の機能を備えることが予想される。このような環境では、3次元表示された仮想物体を操作するために、3次元座標を入力するためのユーザーインターフェイスが必要になる。しかも同時に多点の座標を入力できれば、複数の指の動きによりコンピュータを操作することができる。例えば、3dディスプレイに表示した仮想物体を、実際に手に取るような感覚で操作することが可能になる。   Also, recently, research and development of 3d display has been active. In the future, a large amount of 3d content such as movies and games will be developed, and it is expected that home television and personal computer monitors will have a three-dimensional display function. In such an environment, a user interface for inputting three-dimensional coordinates is required to operate a three-dimensionally displayed virtual object. Moreover, if multi-point coordinates can be input at the same time, the computer can be operated by the movement of a plurality of fingers. For example, the virtual object displayed on the 3d display can be operated as if it were actually picked up.

しかし、既存のポインティングデバイスは、コンピュータのユーザーインターフェイスとしては、著しく機能が制限されたものである。例えば、上記非特許文献1の3dマウスによる入力動作は、人にとって自然な入力動作とは言えず、一般の2dマウスを代替するには至っていない。また、上記特許文献1の装置では、指と装置が接触していることが前提となるため、指が装置から離れたときには何の情報も入力できない。   However, the existing pointing device is remarkably limited in function as a computer user interface. For example, the input operation using the 3d mouse in Non-Patent Document 1 cannot be said to be a natural input operation for humans, and has not yet replaced a general 2d mouse. Further, since the device of Patent Document 1 is based on the premise that the finger is in contact with the device, no information can be input when the finger is separated from the device.

従って、本発明は、人の自然な動作により情報を入力できるヒューマンインターフェイス装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a human interface device capable of inputting information by a natural operation of a person.

本発明の目的は、以下の手段によって達成される。   The object of the present invention is achieved by the following means.

即ち、本発明に係るヒューマンインターフェイス装置は、発光手段、撮像手段、及び画像処理手段を備え、
前記発光手段が物体に光を放射した状態で、前記撮像手段が前記物体から反射された光を検出して画像を取得し、
前記画像処理手段が、
前記画像内において、前記物体表面の特定部分に該当する画像領域を検出し、
検出された前記画像領域の特徴量と変換用データとを用いて、基準位置から前記物体表面の前記特定部分までの距離を求め、
前記変換用データが、前記基準位置からの距離と前記特徴量とを対応付けるデータであることを特徴としている。
That is, the human interface device according to the present invention includes light emitting means, imaging means, and image processing means,
In a state where the light emitting means radiates light to the object, the imaging means detects light reflected from the object and acquires an image,
The image processing means
In the image, an image area corresponding to a specific part of the object surface is detected,
Using the detected feature amount of the image area and the conversion data, obtain a distance from a reference position to the specific portion of the object surface,
The conversion data is data that associates the distance from the reference position with the feature amount.

前記特徴量は、前記画像領域の大きさであるThe feature quantity is the size of the image area.

また、前記物体が人の手であり、前記特定部分が指の先端部分であることができる。 The object may be a human hand, and the specific portion may be a tip portion of a finger.

また、前記光が近赤外光であり、前記撮像手段が魚眼レンズを備え、前記画像処理手段が、前記画像上の前記特定部分の位置及び前記撮像手段の光学特性から、極座標における前記特定部分の極角及び方位角を求め、前記距離、前記極角、及び前記方位角を、前記特定部分の3次元位置情報として決定することができる。   Further, the light is near-infrared light, the imaging unit includes a fisheye lens, and the image processing unit determines the position of the specific part in polar coordinates from the position of the specific part on the image and the optical characteristics of the imaging unit. The polar angle and the azimuth angle can be obtained, and the distance, the polar angle, and the azimuth angle can be determined as the three-dimensional position information of the specific portion.

また、前記画像処理手段は、前記発光手段から放射される光の配光特性の極角依存性と前記特定部分の極角とを用いて、明るさに関する前記変換用データを修正し、修正された前記変換用データを用いて前記距離を求めることができる。   Further, the image processing means corrects the conversion data relating to brightness using the polar angle dependency of the light distribution characteristic of the light emitted from the light emitting means and the polar angle of the specific portion. Further, the distance can be obtained using the conversion data.

本発明によれば、対象物の特定部分に関する3次元位置情報、特に、人の各指の先端部の3次元位置情報を同時に取得することができる。従って、コンピュータなどに対して、複数の点の変位や座標を同時に入力することが可能になる。   According to the present invention, it is possible to simultaneously acquire three-dimensional position information related to a specific portion of an object, in particular, three-dimensional position information of the tip of each finger of a person. Accordingly, it becomes possible to simultaneously input displacements and coordinates of a plurality of points to a computer or the like.

従って、これらに対応するポインタや指の画像をディスプレイに表示して、同時に表示した物体を操作するという自然なインターフェイスを実現することができる。即ち、複数の指の変位や座標の同時入力により、指の動き(ジェスチャー)を利用したインターフェイスを実現することができる。   Therefore, it is possible to realize a natural interface in which images of pointers and fingers corresponding to these are displayed on the display and the objects displayed at the same time are operated. That is, an interface using finger movement (gesture) can be realized by simultaneously inputting a plurality of finger displacements and coordinates.

また、今後、家庭のテレビやパソコンのモニタが3次元表示の機能を備え、映画やゲームなどの3dコンテンツが大量に開発されるようになれば、本発明を適用して、複数の指の動きにより3dディスプレイに表示した仮想物体を、実際に手に取るような感覚で操作することが可能になる。例えば、コンピュータの記憶装置に保存されたファイルを探すときに、複数の指とキャビネットをディスプレイに立体的に表示して、ラベルの付いた引き出しを開け、その中のフォルダに収納された複数のファイルを指でめくりながら所望のものを見つける、あるいは、製品と5本の指を立体表示して、製品を指で動かしながら、様々な角度から製品を観察したり機能を確認したりする、といった使い方が可能になる。   In the future, if a home TV or PC monitor has a three-dimensional display function and a large amount of 3d contents such as movies and games will be developed, the present invention can be applied to move multiple fingers. Thus, the virtual object displayed on the 3d display can be manipulated as if it were actually picked up. For example, when searching for files stored in a computer storage device, multiple fingers and cabinets are displayed three-dimensionally on the display, a labeled drawer is opened, and multiple files stored in folders inside Use your finger to find the desired product while turning it with your fingers, or to display the product and five fingers in 3D and move the product with your fingers to observe the product from various angles and check its functions. Is possible.

本発明の実施の形態に係るヒューマンインターフェイス装置の概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a human interface device concerning an embodiment of the invention. 図1に示したヒューマンインターフェイス装置の発光手段及び撮像手段の一例を示す図である。It is a figure which shows an example of the light emission means and imaging means of the human interface apparatus shown in FIG. 極座標を示す図である。It is a figure which shows a polar coordinate. 試作した発光手段の配光特性を示すグラフである。It is a graph which shows the light distribution characteristic of the light emission means made as an experiment. 試作した発光手段を用いて撮像した画像である。It is the image imaged using the light emission means made as an experiment. 試作した発光手段を用いて撮像した画像から得られた指の幅および指の中心部の画素値の平均値のグラフである。It is a graph of the average value of the width of the finger and the pixel value at the center of the finger obtained from the image captured using the prototype light emitting means. 試作した別の発光手段の配光特性を示すグラフである。It is a graph which shows the light distribution characteristic of another light-emitting means made as an experiment. 試作した別の発光手段を用いて撮像した画像から得られた指の幅および指の中心部の画素値の平均値のグラフである。It is a graph of the average value of the pixel width | variety of the finger | toe width | variety obtained from the image imaged using another light emission means made as an experiment, and the finger | toe center part. 本発明の実施の形態に係るヒューマンインターフェイス装置を用いて、指先の位置情報を取得する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which acquires the positional infomation on a fingertip using the human interface apparatus which concerns on embodiment of this invention. 従来の3dマウスの一例を示す斜視図である。It is a perspective view which shows an example of the conventional 3d mouse | mouth. 従来のヒューマンインターフェイス装置の一例を示す断面図である。It is sectional drawing which shows an example of the conventional human interface apparatus.

以下、本発明に係る実施の形態を、添付した図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the accompanying drawings.

図1は、本発明の実施の形態に係るヒューマンインターフェイス装置の概略構成を示すブロック図である。本ヒューマンインターフェイス装置は、発光手段1、撮像手段2、制御手段3、記録手段4、及び、画像処理手段5を備えて構成されている。制御手段は、発光手段1による光の放射をオン/オフ制御し、発光手段1をオンした状態で、撮像手段2を制御して所定の時間間隔で撮像対象物(例えば人の指)6を撮像する。記録手段4は、撮像される一連の画像(デジタルデータ)を時系列に記録する。画像処理手段5は、記録手段4から撮像された画像を読み出し、撮像対象物6の3次元位置情報(例えば、指の3次元位置情報)を計算する。計算された3次元位置情報(以下、3Dデータとも記す)は、制御手段3から外部装置7に出力される。なお、本明細書において、特に断らない限り、「指」とは手指の第1関節から先の部分を意味する。 FIG. 1 is a block diagram showing a schematic configuration of a human interface device according to an embodiment of the present invention. The human interface device includes a light emitting unit 1, an imaging unit 2, a control unit 3, a recording unit 4, and an image processing unit 5. The control means 3 controls on / off of the emission of light by the light emitting means 1, and controls the imaging means 2 with the light emitting means 1 turned on to control the imaging object (for example, a human finger) 6 at a predetermined time interval. Image. The recording unit 4 records a series of captured images (digital data) in time series. The image processing unit 5 reads the image captured from the recording unit 4 and calculates the three-dimensional position information (for example, the three-dimensional position information of the finger) of the imaging target 6. The calculated three-dimensional position information (hereinafter also referred to as 3D data) is output from the control means 3 to the external device 7. In the present specification, unless otherwise specified, the “finger” means a portion beyond the first joint of the finger.

本ヒューマンインターフェイス装置は、このように対象物の撮像および3Dデータの算出を繰り返すことによって、対象物の変位に応じて3Dデータを外部装置7に出力し、外部装置7は3Dデータを任意の用途(例えば、コンピュータのアプリケーションソフトウエア)で使用する。なお、図1には、主要な構成要素のみを示しており、それら以外にも電源など当然に必要な要素もあるが省略されている。   The human interface device repeats the imaging of the object and the calculation of the 3D data in this manner, thereby outputting 3D data to the external device 7 in accordance with the displacement of the object, and the external device 7 uses the 3D data for any application. (For example, computer application software). In FIG. 1, only main components are shown, and other necessary elements such as a power source are omitted.

図2は、本ヒューマンインターフェイス装置の発光手段1及び撮像手段2の一例を示す模式図である。図2では、発光手段1としてLED8を使用している。LED8及び撮像手段2は、ベース11の上に配置された球状の透明な外殻9の内側に配置されている。撮像手段2は、魚眼レンズ10、イメージセンサ(図示せず)、その駆動装置(図示せず)を備えている。複数のLED8は、魚眼レンズ10を取り囲むように配置されている。LED8から放射された光は、透明な外殻9を透過してその外部にある複数の指6を照明する。撮像手段2は、照明された指6を撮像し、画像データを制御手段3へ転送する。ここで、魚眼レンズとは画角が約180度以上のレンズをいう。   FIG. 2 is a schematic diagram showing an example of the light emitting means 1 and the imaging means 2 of the human interface device. In FIG. 2, the LED 8 is used as the light emitting means 1. The LED 8 and the imaging means 2 are disposed inside a spherical transparent outer shell 9 disposed on the base 11. The imaging means 2 includes a fish-eye lens 10, an image sensor (not shown), and a driving device (not shown). The plurality of LEDs 8 are arranged so as to surround the fisheye lens 10. The light emitted from the LED 8 passes through the transparent outer shell 9 and illuminates a plurality of fingers 6 located outside thereof. The imaging means 2 images the illuminated finger 6 and transfers the image data to the control means 3. Here, the fisheye lens means a lens having an angle of view of about 180 degrees or more.

ここで、LED8が発する光は赤外光であり、透明な外殻9とイメージセンサの光電変換素子との間の空間に赤外光のみを透過するフィルタを備えることが望ましい。また、複数のLED8が放射する光の強度分布は、魚眼レンズ10の光軸(図3のz軸)を基準として軸対称であることが望ましい。即ち、複数のLED8の数及び配置は、そのような光の強度分布が得られるように決定されることが望ましい。   Here, the light emitted from the LED 8 is infrared light, and it is desirable to provide a filter that transmits only infrared light in the space between the transparent outer shell 9 and the photoelectric conversion element of the image sensor. The intensity distribution of light emitted from the plurality of LEDs 8 is desirably axisymmetric with respect to the optical axis of the fisheye lens 10 (z-axis in FIG. 3). That is, it is desirable that the number and arrangement of the plurality of LEDs 8 be determined so as to obtain such a light intensity distribution.

尚、透明な外殻9は必須の構成要素ではなく、指6が直接に魚眼レンズ10に触れる構成であってもよい。また、魚眼レンズ10の代わりに広角レンズ(画角が約60度〜約180度)を使用してもよい。   Note that the transparent outer shell 9 is not an essential component, and may be configured such that the finger 6 directly touches the fisheye lens 10. Further, instead of the fisheye lens 10, a wide angle lens (angle of view of about 60 degrees to about 180 degrees) may be used.

次に、動作原理について説明する。発光手段1は、複数の指6及びその周囲の領域を照明する。一様に光を放射する点光源の場合には、光源に正対する領域の単位面積当たりの光強度(放射照度)は、光源からの距離の自乗に反比例する。従って、指で拡散反射する光の強度も、光源と指との距離に反比例する。その結果、撮像された画像の指の領域の画素値は、光源からの距離の増加と共に減少する。実際の発光手段1は点光源ではなく、特有の角度分布で光を放射するが、放射照度が光源からの距離と共に単調に減少するという傾向は同じである。従って、撮像された指の特定領域の画素値は、光源からの距離に応じて単調に変化する。従って、この距離と画素値の関係を予め測定して変換用データとして保持しておけば、撮像された画像中の指に該当する部分の画素値と変換用データとを比較して、指と光源との距離を計算できる。この距離は、図3の極座標において光源の位置を原点とすれば、動径rに対応する。極角θと方位角φは、撮像された画像から直接に特定できる。即ち、方位角φは、指に該当する部分と原点を結ぶ直線とx軸とが成す角度であり、極角θは、魚眼レンズの特性及び画像の中心からの距離から求めることができる。その結果、各指の3次元位置情報を得ることができる。   Next, the operation principle will be described. The light emitting means 1 illuminates the plurality of fingers 6 and the surrounding area. In the case of a point light source that uniformly emits light, the light intensity (irradiance) per unit area of the region facing the light source is inversely proportional to the square of the distance from the light source. Therefore, the intensity of light diffusely reflected by the finger is also inversely proportional to the distance between the light source and the finger. As a result, the pixel value of the finger area of the captured image decreases with an increase in the distance from the light source. The actual light emitting means 1 is not a point light source but emits light with a specific angular distribution, but the tendency that the irradiance decreases monotonously with the distance from the light source is the same. Therefore, the pixel value of the specific region of the imaged finger changes monotonously according to the distance from the light source. Therefore, if the relationship between the distance and the pixel value is measured in advance and stored as conversion data, the pixel value of the portion corresponding to the finger in the captured image is compared with the conversion data, The distance to the light source can be calculated. This distance corresponds to the moving radius r if the position of the light source is the origin in the polar coordinates of FIG. The polar angle θ and the azimuth angle φ can be directly specified from the captured image. That is, the azimuth angle φ is an angle formed by a straight line connecting the portion corresponding to the finger and the origin and the x axis, and the polar angle θ can be obtained from the characteristics of the fisheye lens and the distance from the center of the image. As a result, the three-dimensional position information of each finger can be obtained.

動径方向の距離の算出に関して、実験で採用した数値例を示しながら詳しく説明する。撮像手段2として、一般的な魚眼レンズを一般的なCMOSカメラに装着して構成した。発光手段1については、ドーナツ状のプリント基板に16個の砲弾型LEDを半田付けした。即ち、これらのLEDは、プリント基板の中央に位置する魚眼レンズを取り囲むように配置される(図2参照)。ここで、外光の影響をなくすために、ピーク波長が950nmの近赤外光を放射するLEDを用いた。一般的なシリコンウェハから製造されるCCDやCMOSセンサ等のイメージセンサは、この波長帯の光を検出できるので、赤外線のみを透過するフィルタをイメージセンサとレンズの間に挿入することにより、可視領域の外光の影響を完全に取り除くことができる。簡単のため、以下ではこの種のフィルタは用いずに、暗室内で実験することで外光の影響を排除した結果を示す。 The calculation of the distance in the radial direction will be described in detail with reference to numerical examples adopted in the experiment. As the image pickup means 2, a general fisheye lens is mounted on a general CMOS camera. For the light emitting means 1, 16 bullet-type LEDs were soldered to a donut-shaped printed board. That is, these LEDs are arranged so as to surround a fisheye lens located at the center of the printed circuit board (see FIG. 2). Here, in order to eliminate the influence of external light, an LED that emits near-infrared light having a peak wavelength of 950 nm was used. Image sensors such as CCD and CMOS sensors manufactured from general silicon wafers can detect light in this wavelength band, so inserting a filter that transmits only infrared light between the image sensor and the lens makes it possible to detect visible light. The effects of external light can be completely removed. For simplicity, the following shows the result of eliminating the influence of external light by experimenting in a dark room without using this type of filter.

図4は、上記のように試作した発光手段に所定の電流を流したときの配光特性を示すグラフである。測定手段として有感領域の面積が1cmのフォトダイオードを使用し、魚眼レンズの中心を図3の極座標の原点として、z軸を含む面内で半径5cmおよび10cmの半円に沿ってフォトダイオードを移動させて測定した。図4において、縦軸は光の強度、横軸は極角θ(但し、ここではz軸を挟んで一方を正、逆方向を負の値で現している)である。図4から、光源からの距離が大きくなると放射強度が減少することが確認できる。距離が2倍になっても放射強度が正確に1/4にならないのは、点光源ではなく、指向性を持つ砲弾型LEDを使用したためである。 FIG. 4 is a graph showing the light distribution characteristics when a predetermined current is passed through the light emitting means experimentally manufactured as described above. As a measuring means, a photodiode having a sensitive area of 1 cm 2 is used, and the photodiode is arranged along a semicircle having a radius of 5 cm and a radius of 10 cm in the plane including the z-axis with the center of the fisheye lens as the origin of the polar coordinates in FIG. It was moved and measured. In FIG. 4, the vertical axis represents the light intensity, and the horizontal axis represents the polar angle θ (in this case, one is positive and the opposite direction is a negative value across the z axis). From FIG. 4, it can be confirmed that the radiation intensity decreases as the distance from the light source increases. The reason why the radiant intensity does not accurately become ¼ even when the distance is doubled is that a bullet-type LED having directivity is used instead of a point light source.

図5は、試作した装置で取得した手の画像の一例である。画像の外縁付近にリング状に見えるのは魚眼レンズのCマウントである。このリング状領域の内側が、魚眼レンズを通してCMOSカメラによって撮像された外界であり、画像の中央に手が鮮明に写っている。図5は、手と魚眼レンズの中心との間の距離が約5cmの場合の画像である。この距離が増加するに連れて、撮像された画像中の手の大きさは小さくなり、明るさも減少する。   FIG. 5 is an example of an image of a hand acquired with the prototype device. A fish-eye lens C-mount is visible in the vicinity of the outer edge of the image. The inside of this ring-shaped region is the outside world imaged by the CMOS camera through the fisheye lens, and the hand is clearly shown in the center of the image. FIG. 5 is an image when the distance between the hand and the center of the fisheye lens is about 5 cm. As this distance increases, the size of the hand in the captured image decreases and the brightness also decreases.

距離と明るさの関係を定量化するために、人差し指を、指の腹が光源に対向するように固定具に固定し、これを光学ベンチの上でスライドさせながら複数の画像を撮像した。このとき、撮像された画像上で、指に該当する領域の中心が画像の中心と一致するように調節した。即ち、図3の座標系で極角θが0となるように、z軸上で動径rを変化させた。図6は、撮像した各画像から指の幅と指の中心部の画素値の平均値とを求め、これらを動径rに対してプロットしたグラフである。白丸は指の幅を表し、黒丸は指の中心部の画素値の平均値を表す。図6から、動径方向の距離の増加と共に、指の幅は単調に減少することが分かる。これは単純な幾何学的な効果である。また、指の明るさである画素値の平均値も単調に減少することが分かる。   In order to quantify the relationship between distance and brightness, the index finger was fixed to a fixture such that the belly of the finger was facing the light source, and a plurality of images were taken while sliding on the optical bench. At this time, the center of the region corresponding to the finger was adjusted to match the center of the image on the captured image. That is, the radius r is changed on the z-axis so that the polar angle θ is 0 in the coordinate system of FIG. FIG. 6 is a graph in which the finger width and the average value of the pixel values at the center of the finger are obtained from each captured image and plotted against the radius r. The white circle represents the width of the finger, and the black circle represents the average value of the pixel values at the center of the finger. From FIG. 6, it can be seen that the width of the finger monotonously decreases as the radial distance increases. This is a simple geometric effect. It can also be seen that the average value of the pixel values, which are the brightness of the finger, also decreases monotonously.

従って、図6のいずれの曲線も、撮像された指の画像から指の動径方向の位置(撮像系の原点からの距離)を算出するための変換用データとして利用できる。但し、手の回転によって、指の腹が光源に正対しない場合、画像上の指の幅や指の明るさが変化するが、その場合でも、ある程度の精度で指の距離を計算することができる。また、指の幅に関する変換用データと、指の中心部の画素値の平均値に関する変換用データとを組み合わせて使用すれば、精度を向上することが可能である。   Accordingly, any of the curves in FIG. 6 can be used as conversion data for calculating the radial position of the finger (distance from the origin of the imaging system) from the imaged finger image. However, if the finger belly does not face the light source due to the rotation of the hand, the finger width and finger brightness on the image will change, but even in that case, the finger distance can be calculated with a certain degree of accuracy. it can. In addition, accuracy can be improved by using a combination of conversion data related to the finger width and conversion data related to the average value of the pixel values at the center of the finger.

以下において、変換用データを区別する場合には、指の幅と距離とを対応付ける変換用データを「第1の変換用データ」とし、指の中心部の画素値の平均値と距離とを対応付ける変換用データを「第2の変換用データ」とする。   In the following, when differentiating the conversion data, the conversion data for associating the finger width with the distance is referred to as “first conversion data”, and the average pixel value at the center of the finger is associated with the distance. The conversion data is referred to as “second conversion data”.

図4〜図6では砲弾型LEDを用いた場合の実験結果を示したが、以下では、チップ型LEDを使用した例を示す。ピーク波長が950nmのチップ型LEDを8個用い、魚眼レンズの周囲に同じ円周上で等間隔に配置して、所定の電流を流して発光させた。図4の実験と同様にして得られた配光特性を図7に示す。但し、測定用のフォトダイオードは、z軸を含む面内で半径5〜10cmの半円に沿って移動させた。   4 to 6 show experimental results when using a bullet-type LED, but an example using a chip-type LED is shown below. Eight chip LEDs having a peak wavelength of 950 nm were used, arranged at equal intervals around the fisheye lens on the same circumference, and allowed to emit light by passing a predetermined current. FIG. 7 shows light distribution characteristics obtained in the same manner as the experiment of FIG. However, the measurement photodiode was moved along a semicircle having a radius of 5 to 10 cm in a plane including the z-axis.

図7から、指向性の広いチップ型LEDを用いたために、図4に比べて、斜め方向へ出力される光の強度が大きいことが確認できる。また、図7においても図4と同様に、動径方向の距離rの増加と共に光強度が単調に減少しており、画素値の大きさに基づいた距離の算出が可能なことを示している。   From FIG. 7, it can be confirmed that the intensity of light output in an oblique direction is larger than that of FIG. Also in FIG. 7, as in FIG. 4, the light intensity monotonously decreases as the radial distance r increases, indicating that the distance can be calculated based on the size of the pixel value. .

更に、チップ型LEDを使用した光源についても、図6の変換用データを取得したのと同様の実験を繰り返した。得られた結果を図8に示す。図6と同様の変換曲線が得られたが、細かく観察すると、図8では、図6に比べて、特に距離が小さいとき(グラフの左端付近)に画素値の平均値の変化が急峻であることが分かる。これは、図6のグラフよりも図8のグラフの方が、画素値から算出される距離の分解能が高くなることを示している。但し、距離が大きい場合(グラフの右端付近)には、図6のグラフよりも図8のグラフの方が画素値の変化は緩やかであり、距離を算出するときの分解能が低くなる。   Further, for the light source using the chip type LED, the same experiment as that for obtaining the conversion data in FIG. 6 was repeated. The obtained result is shown in FIG. A conversion curve similar to that in FIG. 6 was obtained, but when observed closely, in FIG. 8, the change in the average value of the pixel values is steep when the distance is particularly small (near the left end of the graph) compared to FIG. I understand that. This indicates that the resolution of the distance calculated from the pixel value is higher in the graph of FIG. 8 than in the graph of FIG. However, when the distance is large (near the right end of the graph), the pixel value changes more slowly in the graph of FIG. 8 than in the graph of FIG. 6, and the resolution when calculating the distance is low.

このように、光源の配光特性によって変換曲線の形状が変化するので、光源の配光特性は、動径方向の距離を算出するときの精度に影響を与える。即ち、指の動径方向の距離rを精度よく算出するためには、光源の配光特性が重要であり、光源の配光特性は距離rにのみ依存し極角θに依存しないのが望ましい。そして、使用する撮像手段に応じて、発光手段の配光特性が距離rにのみ依存するように、発光手段の形状(例えば、LEDの配置)を決定することが望ましい。逆に、発光手段の詳細な構成は、使用目的に応じて要求される距離rの精度や許容される製造コストなどに応じて決められるべき事項であるとも言える。   As described above, since the shape of the conversion curve changes depending on the light distribution characteristic of the light source, the light distribution characteristic of the light source affects the accuracy when calculating the radial distance. That is, in order to accurately calculate the distance r in the radial direction of the finger, the light distribution characteristic of the light source is important, and it is desirable that the light distribution characteristic of the light source depends only on the distance r and not on the polar angle θ. . Then, it is desirable to determine the shape of the light emitting means (for example, the arrangement of the LEDs) so that the light distribution characteristic of the light emitting means depends only on the distance r in accordance with the imaging means to be used. Conversely, it can be said that the detailed configuration of the light emitting means is a matter to be determined according to the accuracy of the distance r required according to the purpose of use, the allowable manufacturing cost, and the like.

なお、図6および図8は、極角θが0に等しい場合の変換用データだが、極角θが0でない場合でも、同様の変換用データが得られる。これも具体的な設計に依存するが、前述のチップ型LEDを使用した光源の場合には、θ<70°の場合にはこれらの変換用データはほぼ一致する。従って、距離rの算出に必要なデータ量が少なくなる。   6 and 8 show the conversion data when the polar angle θ is equal to 0, but similar conversion data can be obtained even when the polar angle θ is not zero. Although this also depends on the specific design, in the case of the light source using the above-described chip-type LED, these conversion data substantially coincide with each other when θ <70 °. Therefore, the amount of data necessary for calculating the distance r is reduced.

図9は、本ヒューマンインターフェイス装置を用いて指の位置情報を取得する動作を示すフローチャートである。図1〜図9を参照して、本ヒューマンインターフェイス装置の動作を説明すれば次の通りでする。   FIG. 9 is a flowchart showing an operation of acquiring finger position information using the human interface device. The operation of the present human interface device will be described with reference to FIGS.

ステップS1において、制御手段3は、発光手段1をオンし、撮像手段2を用いて撮像を行い、画像データを記録手段4に記録する。これによって、図5のような画像が得られる。撮像される画像は、例えば多階調のグレースケール画像である。   In step S <b> 1, the control unit 3 turns on the light emitting unit 1, performs imaging using the imaging unit 2, and records image data in the recording unit 4. As a result, an image as shown in FIG. 5 is obtained. The image to be picked up is, for example, a multi-tone gray scale image.

ステップS2において、画像処理手段5は、記録手段4から画像データを読み出して、画像中の指の領域を検出する。指の検出には、エッジ検出などの公知の画像処理を使用すればよいので、詳細説明は省略する。   In step S2, the image processing means 5 reads the image data from the recording means 4 and detects a finger area in the image. Since a known image process such as edge detection may be used for finger detection, detailed description thereof is omitted.

ステップS3において、画像処理手段5は、ステップS2で検出した指の領域から、各指の幅w、又は、各指の所定領域(以下、領域Aとも記す(図3の楕円領域参照))の画素値の平均値aを計算する。例えば、幅w、平均値aは、5本の指の各々について計算される。   In step S3, the image processing means 5 calculates the width w of each finger or a predetermined area of each finger (hereinafter also referred to as area A (refer to the oval area in FIG. 3)) from the finger area detected in step S2. An average value a of pixel values is calculated. For example, the width w and the average value a are calculated for each of five fingers.

ステップS4において、画像処理手段5は、ステップS3で得られた幅w又は平均値aと、記録手段4から読み出した変換用データとを用いて、各指の位置座標(r,θ,φ)を計算し、指毎のデータとして出力する。変換用データは、使用する発光手段1及び撮像手段2を用いて予め測定されたデータであり、例えば図6、図8に示したようなデータである。   In step S4, the image processing means 5 uses the width w or the average value a obtained in step S3 and the conversion data read from the recording means 4 to position coordinates (r, θ, φ) of each finger. Is calculated and output as data for each finger. The conversion data is data measured in advance using the light emitting means 1 and the imaging means 2 to be used, for example, data as shown in FIGS.

このとき、ステップS3で幅wを計算する場合には、少なくとも幅w及び距離rのグラフ(例えは図6、図8の白丸のデータ)を第1の変換用データとして記録手段4に記録しておき、これを用いてステップS4における距離rの計算を行う。ステップS3で平均値aを計算する場合には、少なくとも平均値a及び距離rのグラフ(例えは図6、図8の黒丸のデータ)を第2の変換用データとして記録手段4に記録しておき、これを用いてステップS4における距離rの計算を行う。なお、換算用データは、関数として記録していても、離散的なデータとして記録していてもよい。関数であれば、測定値(w又はa)から直接に距離rを計算することができる。離散的なデータの場合には、補間法などによって測定値(w又はa)に対応する距離rを計算すればよい。   At this time, when the width w is calculated in step S3, at least a graph of the width w and the distance r (for example, the white circle data in FIGS. 6 and 8) is recorded in the recording means 4 as the first conversion data. The distance r in step S4 is calculated using this. When the average value a is calculated in step S3, at least a graph of the average value a and the distance r (for example, the black circle data in FIGS. 6 and 8) is recorded in the recording means 4 as the second conversion data. Then, using this, the distance r in step S4 is calculated. Note that the conversion data may be recorded as a function or as discrete data. If it is a function, the distance r can be calculated directly from the measured value (w or a). In the case of discrete data, the distance r corresponding to the measured value (w or a) may be calculated by an interpolation method or the like.

極角θは、撮像手段の光学特性を考慮して、画像の中心から領域A(領域Aの代表点(例えば中心))までの距離(画素数)から計算することができる。例えば、魚眼レンズを使用して、画像の中心からの距離と極角θとが比例するように光学系を設計しておけばよい。また、方位角φは、画像内の基準軸(x軸)に対する領域A(領域Aの代表点)の角度として計算する。   The polar angle θ can be calculated from the distance (number of pixels) from the center of the image to the region A (representative point (for example, the center) of the region A) in consideration of the optical characteristics of the imaging means. For example, using a fisheye lens, the optical system may be designed so that the distance from the center of the image is proportional to the polar angle θ. Further, the azimuth angle φ is calculated as the angle of the region A (representative point of the region A) with respect to the reference axis (x axis) in the image.

指毎に得られた(r,θ,φ)は、所定のインターフェイスを介して外部装置7に出力される。データの出力形式は任意である。シリアルインターフェイスの場合には、例えば、データの時系列順序を各指に対応させ、親指〜小指の(r,θ,φ)を順に出力すればよい。   The (r, θ, φ) obtained for each finger is output to the external device 7 via a predetermined interface. The data output format is arbitrary. In the case of a serial interface, for example, the time series order of data may be associated with each finger, and (r, θ, φ) from the thumb to the little finger may be output in order.

ステップS5において、終了の有無が判断され、終了しない場合にはステップS1に戻り、上記のステップS1〜S4を所定の時間間隔で繰り返す。各指の位置の変化の時間分解能は、撮像手段2および画像処理手段5の性能に依存する。例えば、N枚/秒の速度で画像を撮像し画像処理すれば、各指の位置の変化を1秒間にNの分解能で求めることができる。   In step S5, it is determined whether or not the process is finished. If the process is not finished, the process returns to step S1, and the above steps S1 to S4 are repeated at a predetermined time interval. The time resolution of the change in the position of each finger depends on the performance of the imaging means 2 and the image processing means 5. For example, if an image is captured and processed at a rate of N frames / second, the change in the position of each finger can be obtained with N resolution per second.

CMOS技術によるイメージセンサは、画像の出力フォーマットの自由度が高いので、撮像手段2にCMOSイメージセンサを使用すれば、例えば、目的とする指の領域を限定して高速で出力することも可能である。また、通常の人物や風景等の撮像と異なり、指の中心の変位を求めるのが目的なので、画像の精細度に関する要求は低い。この事実も高速のデータ出力に有利であり、例えば200fps(frames/sec)を超えるスピードが実現できる。従って、一般のマウスに比べて、座標入力の速度が劣ることは無い。   Since an image sensor based on CMOS technology has a high degree of freedom in the output format of an image, if a CMOS image sensor is used for the imaging means 2, for example, it is possible to output at a high speed by limiting the target finger area. is there. In addition, unlike normal person and landscape imaging, the purpose is to determine the displacement of the center of the finger, so the demand for image definition is low. This fact is also advantageous for high-speed data output, and for example, a speed exceeding 200 fps (frames / sec) can be realized. Therefore, the coordinate input speed is not inferior to that of a general mouse.

上記では、幅w又は平均値aを使用して、距離rを計算する場合を説明したが、幅w及び平均値aの両方を用いてもよい。例えば、ステップS3において、幅w及び平均値aを計算し、ステップS4において、それぞれ第1及び第2の変換用データを用いて距離rを求め、第1の変換用データから求めた距離rwと、第2の変換用データから求めた距離raとから、例えばそれらの平均値(rw+ra)/2として最終的に距離rを求めても良い。また、距離に応じて、変換用データを使い分けてもよい。例えば、図6のデータを使用する場合には、距離rが5cm近傍では、第1の変換用データの変化の方が急峻であり解像度が高いので、距離rが5cm近傍の所定範囲では第1の変換用データを使用し、それ以外の範囲では第2の変換用データを使用してもよい。 In the above description, the distance r is calculated using the width w or the average value a. However, both the width w and the average value a may be used. For example, the width w and the average value a are calculated in step S3, the distance r is obtained using the first and second conversion data in step S4, and the distance r w obtained from the first conversion data is obtained. From the distance r a obtained from the second conversion data, the distance r may be finally obtained as an average value (r w + r a ) / 2, for example. Further, the conversion data may be properly used according to the distance. For example, when the data of FIG. 6 is used, when the distance r is about 5 cm, the change in the first conversion data is steeper and the resolution is higher. The conversion data may be used, and the second conversion data may be used in other ranges.

変換用データは、特定のヒューマンインターフェイス装置および特定の人に関して少なくとも一度測定して得られたものを、異なる人に対して使用することができる。しかし、指の形状や光の反射率には個体差(性別、年齢、肌の色など)があるので、同じヒューマンインターフェイス装置で測定しても変換用データが異なる可能性がある。従って、より精度良く距離を求めるためには、人毎に最初に較正を行なうことが望ましい。例えば、最初に所定距離r=r0の位置に指を位置させて、一度ステップS1〜S4の処理を行って距離を計算し、計算されたr1とr0との差違に応じて、予め記録された変換用データを修正して、それ以後の処理では修正された変換用データを使用することができる。修正方法は、例えば、r1とr0との差に応じて変換用データをシフトする、r1とr0との比に応じて変換用データをスケーリングするなどの方法がある。 The conversion data obtained by measuring at least once for a specific human interface device and a specific person can be used for different persons. However, since there are individual differences (gender, age, skin color, etc.) in finger shape and light reflectance, conversion data may be different even when measured with the same human interface device. Therefore, in order to obtain the distance with higher accuracy, it is desirable to perform calibration first for each person. For example, the finger is first positioned at the position of the predetermined distance r = r 0 , and the distance is calculated by performing the processing of steps S1 to S4 once, and according to the difference between the calculated r 1 and r 0 , The recorded conversion data can be corrected, and the corrected conversion data can be used in subsequent processing. Method of correction, for example, to shift the conversion data according to the difference between r 1 and r 0, there are methods such as scaling the converted data in accordance with the ratio of r 1 and r 0.

また、指の幅wは指の種類(親指、人差し指、中指、薬指、小指)によって異なるので、指毎に第1の変換用データを記録しておいてもよい。例えば、親指用の変換用データと、小指用の変換用データとで、異なる変換用データを使用してもよい。このとき、指の種類は、画像処理によって検出された各指の大きさと相互の位置関係とから決定すればよい。   Further, since the width w of the finger varies depending on the type of finger (thumb, forefinger, middle finger, ring finger, little finger), the first conversion data may be recorded for each finger. For example, different conversion data may be used for conversion data for the thumb and conversion data for the little finger. At this time, the type of finger may be determined from the size of each finger detected by image processing and the mutual positional relationship.

また、第1の変換用データは、絶対距離と指の幅とを対応させたデータに限らず、指の幅を距離に変換できるデータであればよい。例えば、最小距離(図2の外殻表面と原点との距離)に対する倍率と指の幅とを対応させたデータであってもよい。   The first conversion data is not limited to data in which the absolute distance and the finger width are associated with each other, and may be any data that can convert the finger width into the distance. For example, it may be data in which the magnification with respect to the minimum distance (distance between the outer shell surface and the origin in FIG. 2) and the width of the finger are associated with each other.

また、配光特性の角度依存性が小さい場合、θ=0で測定して得られた第2の変換用データのみを使用することができるが、図4、図7のように配光特性に角度依存性がある場合、第2の変換用データを配光特性で修正して使用してもよい。例えば、第2の変換用データがθ=0で測定して得られたデータであった場合、距離rを計算する前に、指先部の極角θを求め(θ=θ1)、θ=θ1及びθ=0に対応する配光特性の光強度の比で第2の変換用データを修正し、修正された変換用データを用いて距離rを算出すればよい。また、θ=0で測定した第2の変換用データに加えて、0<θ<90(度)で測定した複数の第2の変換用データを使用してもよい。その場合、距離rを計算する前に、指の極角θを求め、得られた角度θ1に応じて複数の第2の変換用データを用いて距離rを計算すればよい。 Further, when the angle dependency of the light distribution characteristic is small, only the second conversion data obtained by measurement with θ = 0 can be used, but the light distribution characteristic is as shown in FIGS. If there is angle dependency, the second conversion data may be corrected with the light distribution characteristic and used. For example, when the second conversion data is data obtained by measurement at θ = 0, the polar angle θ of the fingertip portion is obtained (θ = θ 1 ) before calculating the distance r, and θ = The second conversion data may be corrected with the ratio of the light intensity of the light distribution characteristics corresponding to θ 1 and θ = 0, and the distance r may be calculated using the corrected conversion data. Further, in addition to the second conversion data measured at θ = 0, a plurality of second conversion data measured at 0 <θ <90 (degrees) may be used. In this case, the polar angle θ of the finger may be obtained before calculating the distance r, and the distance r may be calculated using a plurality of second conversion data according to the obtained angle θ 1 .

また、人の指先部分に所定の反射物を取り付けて、その反射物によって反射される光の強度を用いてもよい。例えば、各指の指先に直接接着しても、指先部分に反射物を取り付けた手袋を使用してもよい。この場合、変換用データは、同じ反射物を取り付けた状態で測定して取得すればよい。   Alternatively, a predetermined reflector may be attached to a human fingertip and the intensity of light reflected by the reflector may be used. For example, it is possible to directly attach to the fingertip of each finger or to use a glove with a reflector attached to the fingertip portion. In this case, the conversion data may be obtained by measuring with the same reflector attached.

また、指の幅w、指の画素値の平均値aを使用する場合に限らず、撮像された画像から抽出された各指の特徴量が距離に依存するものであれば、その特徴量と距離との関係を予め測定して変換用データとして使用することができる。例えば、特徴量は指の面積であってもよい。   Further, not only when the finger width w and the average value a of the finger pixel values are used, if the feature amount of each finger extracted from the captured image depends on the distance, the feature amount The relationship with the distance can be measured in advance and used as conversion data. For example, the feature amount may be a finger area.

また、指に限らず、ある程度光を反射し、3次元位置が変位可能な物を使用しても良い。例えば、掌の皺を利用してもよい。これを手相として認識すれば、占いに関連したゲームのインターフェイスとしても利用できる。   Moreover, not only a finger but a thing which reflects light to some extent and whose three-dimensional position can be displaced may be used. For example, a palm cocoon may be used. If this is recognized as a palm, it can also be used as a game interface related to fortune-telling.

また、光の反射だけではなく吸収も利用して画像を取得して、画像の特徴量に基づいて、手や指の変位を検出してもよい。このような例として、手や指の内部の静脈がある。赤外光の吸収の大小を利用して掌の静脈パターンを検出し、この特徴を元に個人認証を行うことは、銀行のATM装置などで広く実用化されている。従って、こうした公知技術を用いれば、図5のような画像から静脈パターンを検出できる。手を動かせば静脈パターンも変化するので、逆に、静脈パターンの変化から手の変位を検出できる。   Alternatively, an image may be acquired using not only light reflection but also absorption, and the displacement of the hand or finger may be detected based on the feature amount of the image. An example of this is a vein inside the hand or finger. Detecting a palm vein pattern using the intensity of infrared light absorption and performing personal authentication based on this feature is widely used in bank ATM devices and the like. Therefore, if such a known technique is used, a vein pattern can be detected from an image as shown in FIG. If the hand is moved, the vein pattern also changes, and conversely, the displacement of the hand can be detected from the change in the vein pattern.

1 発光手段
2 撮像手段
3 制御手段
4 記録手段
5 画像処理手段
6 手指
7 外部装置
8 LED
9 外殻
10 魚眼レンズ
11 ベース
DESCRIPTION OF SYMBOLS 1 Light emission means 2 Imaging means 3 Control means 4 Recording means 5 Image processing means 6 Finger 7 External device 8 LED
9 Outer shell 10 Fisheye lens 11 Base

Claims (4)

発光手段、撮像手段、及び画像処理手段を備え、
前記発光手段が物体に光を放射した状態で、前記撮像手段が前記物体から反射された光を検出して画像を取得し、
前記画像処理手段が、
前記画像内において、前記物体表面の特定部分に該当する画像領域を検出し、
検出された前記画像領域の特徴量と変換用データとを用いて、基準位置から前記物体表面の前記特定部分までの距離を求め、
前記変換用データが、前記基準位置からの距離と前記特徴量とを対応付けるデータであり、
前記特徴量が、前記画像領域の明るさであることを特徴とするヒューマンインターフェイス装置。
A light emitting means, an imaging means, and an image processing means,
In a state where the light emitting means radiates light to the object, the imaging means detects light reflected from the object and acquires an image,
The image processing means
In the image, an image area corresponding to a specific part of the object surface is detected,
Using the detected feature amount of the image area and the conversion data, obtain a distance from a reference position to the specific portion of the object surface,
The conversion data, Ri Oh the data associating the distance between the feature amount from the reference position,
The feature quantity, human interface device, wherein the brightness der Rukoto of the image area.
前記物体が人の手であり、
前記特定部分が指の先端部分であることを特徴とする請求項に記載のヒューマンインターフェイス装置。
The object is a human hand;
The human interface device according to claim 1 , wherein the specific portion is a tip portion of a finger.
前記光が近赤外光であり、
前記撮像手段が魚眼レンズを備え、
前記画像処理手段が、前記画像上の前記特定部分の位置及び前記撮像手段の光学特性から、極座標における前記特定部分の極角及び方位角を求め、
前記距離、前記極角、及び前記方位角を、前記特定部分の3次元位置情報として決定することを特徴とする請求項に記載のヒューマンインターフェイス装置。
The light is near infrared light;
The imaging means comprises a fisheye lens;
The image processing means obtains the polar angle and azimuth angle of the specific part in polar coordinates from the position of the specific part on the image and the optical characteristics of the imaging means,
The human interface device according to claim 2 , wherein the distance, the polar angle, and the azimuth angle are determined as three-dimensional position information of the specific portion.
前記画像処理手段が、
前記発光手段から放射される光の配光特性の極角依存性と前記特定部分の極角とを用いて、明るさに関する前記変換用データを修正し、
修正された前記変換用データを用いて前記距離を求めることを特徴とする請求項の何れか1項に記載のヒューマンインターフェイス装置。
The image processing means
Using the polar angle dependency of the light distribution characteristic of the light emitted from the light emitting means and the polar angle of the specific part, the conversion data relating to brightness is corrected,
The human interface device according to any one of claims 1 to 3 , wherein the distance is obtained using the corrected data for conversion.
JP2009161031A 2009-07-07 2009-07-07 Human interface device Expired - Fee Related JP5401645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009161031A JP5401645B2 (en) 2009-07-07 2009-07-07 Human interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009161031A JP5401645B2 (en) 2009-07-07 2009-07-07 Human interface device

Publications (2)

Publication Number Publication Date
JP2011018129A JP2011018129A (en) 2011-01-27
JP5401645B2 true JP5401645B2 (en) 2014-01-29

Family

ID=43595889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009161031A Expired - Fee Related JP5401645B2 (en) 2009-07-07 2009-07-07 Human interface device

Country Status (1)

Country Link
JP (1) JP5401645B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5737748B2 (en) * 2011-02-10 2015-06-17 学校法人 名城大学 Integrated input interface
JP6236847B2 (en) * 2013-04-18 2017-11-29 オムロン株式会社 Movement detection apparatus and program
JP6212918B2 (en) * 2013-04-18 2017-10-18 オムロン株式会社 Game machine
JP6136516B2 (en) * 2013-04-18 2017-05-31 オムロン株式会社 Game machine
JP2015069895A (en) * 2013-09-30 2015-04-13 パナソニックIpマネジメント株式会社 Lighting control device and lighting control system
KR102542641B1 (en) * 2020-12-03 2023-06-14 경일대학교산학협력단 Apparatus and operation method for rehabilitation training using hand tracking

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992009063A1 (en) * 1990-11-09 1992-05-29 Triax Controls, Incorporated Controller
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
JPH07182101A (en) * 1993-10-26 1995-07-21 Itu Res Inc Apparatus and method for input of graphic, operating method of graphic object and supply method of graphic input signal
JP3521187B2 (en) * 1996-10-18 2004-04-19 株式会社東芝 Solid-state imaging device
JPH10198506A (en) * 1997-01-13 1998-07-31 Osaka Gas Co Ltd System for detecting coordinate
JP3471201B2 (en) * 1997-09-05 2003-12-02 株式会社東芝 Imaging module and imaging device
JPH11242274A (en) * 1998-02-25 1999-09-07 Fuji Photo Optical Co Ltd Camera and photographic print system
JP2001337166A (en) * 2000-05-26 2001-12-07 Minolta Co Ltd Method and device for three-dimensional input
JP2005061899A (en) * 2003-08-08 2005-03-10 Nec Saitama Ltd Distance measurement method by cellular phone
US20060267927A1 (en) * 2005-05-27 2006-11-30 Crenshaw James E User interface controller method and apparatus for a handheld electronic device
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
TW200935272A (en) * 2007-12-03 2009-08-16 Tse-Hsien Yeh Sensing apparatus and operating method thereof
US8199106B2 (en) * 2007-12-20 2012-06-12 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
JP2009198241A (en) * 2008-02-20 2009-09-03 Yamatake Corp Instrument

Also Published As

Publication number Publication date
JP2011018129A (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP5401645B2 (en) Human interface device
US8971565B2 (en) Human interface electronic device
US8941620B2 (en) System and method for a virtual multi-touch mouse and stylus apparatus
JP5166713B2 (en) Position detection system using laser speckle
US7295329B2 (en) Position detection system
JP6302414B2 (en) Motion sensor device having a plurality of light sources
JP2013069273A (en) Motion detection method of input body and input device using the same
CN105992988A (en) Method and device for detecting a touch between a first object and a second object
TW200825874A (en) Programmable resolution for optical pointing device
JPH11345079A (en) Hand-held pointing device
JPH1185386A (en) Image pickup module and image pickup device
JPWO2014162675A1 (en) Motion sensor device having a plurality of light sources
TWI536209B (en) Optical navigation device with enhanced tracking speed
TW201214243A (en) Optical touch system and object detection method therefor
US20160019684A1 (en) Wide field-of-view depth imaging
TWI533010B (en) Optical sensing apparatus and method for detecting object near optical sensing apparatus
US10884518B2 (en) Gesture detection device for detecting hovering and click
Soter et al. MultiTip: A multimodal mechano-thermal soft fingertip
US9423893B2 (en) Gesture detection device for detecting hovering and click
TW201327322A (en) Optical touch system
WO2022201693A1 (en) Controller and tracking system
Shah et al. A survey of virtual keyboard with its senses
JP6750039B2 (en) Practical detection system
Fujieda et al. Detection of finger height for a multi-touch mouse
WO2014065697A1 (en) Method and device for the gesture control of a multimedia display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5401645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees