JP2014154049A - Fingertip detection method and fingertip detection user interface module - Google Patents
Fingertip detection method and fingertip detection user interface module Download PDFInfo
- Publication number
- JP2014154049A JP2014154049A JP2013025018A JP2013025018A JP2014154049A JP 2014154049 A JP2014154049 A JP 2014154049A JP 2013025018 A JP2013025018 A JP 2013025018A JP 2013025018 A JP2013025018 A JP 2013025018A JP 2014154049 A JP2014154049 A JP 2014154049A
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- finger
- fan
- pixel
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、指先検出方法及び指先検出ユーザーインターフェースモジュールに関し、特に、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して情報機器に提示し、情報機器が、撮像手段により特定の形態を撮像して得られた画像情報に基づき、使用者の指先を検出する指先検出方法、及びその方法を実現する上記情報機器に含まれる指先検出ユーザーインターフェースモジュールに関する。 The present invention relates to a fingertip detection method and a fingertip detection user interface module, and in particular, an information device user forms at least one finger in a specific form so as to give specific information to the information device. Included in the fingertip detection method for detecting the fingertip of the user based on the image information obtained by imaging the specific form by the imaging means that is presented to the device and the information device for realizing the method The present invention relates to a fingertip detection user interface module.
技術の進歩に伴い、各種情報機器に対する使用者の操作・指示等の制御情報の供給の仕方、すなわちユーザーインターフェース(略してUIと称す)は、高度に進化してきている。例えば、昨今急速に普及しつつあるいわゆるスマートフォンのように、使用者が指先で情報機器の特に情報表示部に触れることによるUIは、もはや常識のように活用されている。更に当該UIにおいては、触れることの一態様としてのなぞる態様を識別できるようにしたことにより、画期的に多様な制御情報の供給が可能となっている。また、ハードウェア素子の開発に伴って、更に発展した制御情報の識別も可能となってきている。例えば特許文献1は、タッチセンサに加えて近接センサを採用することにより、近接センサからの距離傾斜情報に基づき、触れた指先の方向を認識できるような技術を開示している。
With the advance of technology, the way of supplying control information such as user operations / instructions to various information devices, that is, the user interface (hereinafter referred to as UI) has been highly advanced. For example, like a so-called smart phone that is rapidly spreading recently, a UI by a user touching an information display unit of an information device with a fingertip is no longer used as common sense. Furthermore, in the UI, by making it possible to identify the tracing mode as one mode of touching, it is possible to supply a variety of control information. Further, with the development of hardware elements, it has become possible to identify control information further developed. For example,
また、他のUIとして、情報機器がCMOSイメージセンサを採用したカメラ(以下、「CMOSカメラ」と称す)等の撮像手段を備えて、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識するという態様のUIも発展段階にある。 In addition, as another UI, the information device is provided with imaging means such as a camera (hereinafter referred to as “CMOS camera”) employing a CMOS image sensor, and images the whole or part of the user's body as necessary. However, UIs that recognize control information such as operations / instructions intended by the user from the image information obtained thereby are also in the development stage.
ここで、上述のような撮像手段を利用したUIにおいて、最も典型的な手法は、使用者が自らの上肢、特に手により操作・指示等を表現し、それを情報機器側の撮像手段が撮像し、その画像データを判別処理することにより使用者の意図した操作・指示等を情報機器が取得するという態様である。このとき使用者は、特に指の本数や指の方向により操作・指示等を表現することが、使用者にとっても表現しやすい。使用者が手の指により情報機器との制御情報交換を行う例としては、例えば、指の本数で数値を指定する場合や、1本の指の方向で選択情報を特定する場合等、各種がある。また、遊技機などでは、例えば、遊技者と遊技機とがじゃんけんを行うというような場合もある。しかしながら、情報機器側にあっては、撮像した画像データの中から指先部分を判別することは、比較的困難なことも多い。更に、使用者が“動き”、例えば撮像手段に対して人差し指を立てて上下左右に移動させる(いわゆるドラッグ操作を意図)、により制御情報を与える場合もあるが、この場合も前提として指先を検出できている状態で、更にその動きを検出しなければならない。 Here, in the UI using the imaging means as described above, the most typical method is that the user expresses his / her upper limbs, especially operations / instructions by hand, and the imaging means on the information equipment side captures the images. Then, the information device obtains the operation / instruction intended by the user by performing the discrimination processing on the image data. At this time, it is easy for the user to express the operation / instructions by the number of fingers and the direction of the finger. Examples of a user exchanging control information with an information device using fingers of a hand include various cases such as specifying a numerical value by the number of fingers or specifying selection information by the direction of one finger. is there. Further, in a gaming machine or the like, for example, there may be a case where a player and a gaming machine play a game. However, on the information equipment side, it is often relatively difficult to determine the fingertip portion from the captured image data. Furthermore, there are cases where the user gives control information by “movement”, for example, by moving the index finger up and down and left and right with respect to the imaging means (so-called drag operation is intended). In the ready state, the motion must be further detected.
本発明は上述のような事情から為されたものであり、本発明の目的は、情報機器が撮像手段を備え、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識する場合において、指の先端を簡易に正確に検出できる指先検出方法及び指先検出ユーザーインターフェースモジュールを提供することにある。 The present invention has been made for the above-mentioned circumstances, and an object of the present invention is to obtain an information device having an imaging means and imaging the whole or a part of the user's body as necessary. An object of the present invention is to provide a fingertip detection method and a fingertip detection user interface module that can easily and accurately detect the tip of a finger when recognizing control information such as an operation / instruction intended by a user from the image information.
上記目的を達成するため、本発明の指先検出方法は、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器が、撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する指先検出方法であって、前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出することを要旨とする。 In order to achieve the above object, the fingertip detection method according to the present invention is characterized in that a user of an information device forms at least one finger in a specific form so as to give specific information to the information device. A fingertip detection method in which the information device detects the fingertip of the user based on image information obtained by imaging the specific form by an imaging means, the sharpness of the fingertip A fan having a central angle corresponding to the filter is used as a filter, and the center of a circle including the fan is made to correspond to each pixel of the image information, and the fan is rotated while rotating the fan, The process of obtaining the change in the overlap area is performed for all the pixels by moving the filter to each pixel, and a pixel point obtained by setting the angle range where the overlap area substantially matches the fan area to be equal to or less than a predetermined threshold is set near the fingertip. Pixel And summarized in that the detected.
更に、検出された指先近傍の複数の画素点を、各指ごとの画素点として分別することを特徴とする。 Furthermore, a plurality of pixel points in the vicinity of the detected fingertip are classified as pixel points for each finger.
ここで、2つの境界近傍画素が同一の指のデータであるか否かは、両者が、両者の距離に対応した、ピークとなる角度範囲が所定の差異を有しているか、かつ、角度範囲の中心値が所定の差異を有しているか、により判別することが特徴である。 Here, whether or not two neighboring pixels are data of the same finger is based on whether or not the peak angle range corresponding to the distance between the two has a predetermined difference and the angle range. It is a feature that it is discriminated based on whether or not the central value has a predetermined difference.
更に、各指について、指の先端の位置を、当該指先近傍の画素のうちの所定数の画素の位置から補間により求めることが好適である。 Further, for each finger, it is preferable to obtain the position of the tip of the finger from the positions of a predetermined number of pixels in the vicinity of the fingertip by interpolation.
また、各指について、指の方向を、当該指先近傍の複数の画素についての前記角度範囲の中心値角度の方向のベクトル和をとることにより求めることが好適である。 For each finger, the direction of the finger is preferably obtained by taking a vector sum of the direction of the central value angle of the angle range for a plurality of pixels near the fingertip.
また、前記扇の半径は、前記指から前記撮像手段までの距離に応じて決定されることが好適である。 Moreover, it is preferable that the radius of the fan is determined according to a distance from the finger to the imaging unit.
また、前記扇を所定送り角度ごとに回転させつつ、前記画像情報の肌色部分と前記扇との重なり面積を求めることを特徴としている。 Further, the overlapping area between the flesh-colored portion of the image information and the fan is obtained while rotating the fan at every predetermined feed angle.
ここで、前記所定送り角度は、前記扇の半径に対する前記画像情報を精細度に応じて決定することが好適である。 Here, it is preferable that the predetermined feed angle is determined according to the definition of the image information with respect to the radius of the fan.
また、上記目的を達成するため、本発明の指先検出ユーザーインターフェースモジュールは、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器に備えられた撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する、前記情報機器に含まれる指先検出ユーザーインターフェースモジュールであって、前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出する指先近傍データ抽出処理部を備えたことを要旨とする。 In order to achieve the above object, the fingertip detection user interface module of the present invention forms at least one finger in a specific form so that a user of an information device gives specific control information to the information device. Included in the information device, wherein the fingertip of the user is detected based on image information obtained by imaging the specific form by an imaging unit provided in the information device. A fingertip detection user interface module, wherein a fan having a central angle corresponding to the sharpness of the fingertip is used as a filter, and the fan is detected in a state where the center of a circle including the fan is associated with each pixel of the image information. Rotating the filter, the process of obtaining the change in the overlapping area between the flesh-colored portion of the image information and the fan is performed for all the pixels by moving the filter to each pixel. And summarized in that the angular range in which the overlapping area is substantially the same as the area of the fan is provided with a fingertip proximate data extraction processing unit for detecting the pixel points obtained as a predetermined threshold value or less as a pixel of a fingertip vicinity.
本発明によれば、情報機器が撮像手段を備え、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識する場合において、指の先端を簡易に正確に検出できる。更に、指の方向を簡易に正確に検出できる。また、複数の指についても分別して検出できる。 According to the present invention, the information device includes an imaging unit, images the whole or a part of the user's body as necessary, and the operation / instruction intended by the user from the image information obtained thereby. When recognizing the control information, the tip of the finger can be detected easily and accurately. Furthermore, the direction of the finger can be detected easily and accurately. Also, a plurality of fingers can be detected separately.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本発明の指先検出ユーザーインターフェース(以下、「UI」と称す)モジュールにおける一実施形態の概略構成ブロック図である。同図に示した指先検出UIモジュール1は、CMOSカメラ等で撮像した人物の画像から指先部分を検出し、指の本数や指の方向を認識することにより、人物のその手により提示された情報を認識することを可能とするUIモジュールである。なお、以下の説明では、1枚の静止画の情報から上述の情報を認識することを基本として説明しているが、静止画の時間的連なり画像が動画であることを鑑みれば、動画を構成する各静止画について当該処理を行えば、動画について、手やその指の動きが認識できるようになるということは、当業者には自明であろう。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram of an embodiment of a fingertip detection user interface (hereinafter referred to as “UI”) module of the present invention. The fingertip
そこで、図1に示した指先検出UIモジュール1は、メモリインターフェース(以下、「I/F」と称す)11と、カメラI/F12と、フレームバッファ13と、肌色検出/2値化処理部14と、指先近傍データ抽出処理部15と、各指分別処理部16と、各指方向算出部17と、外部I/F(例えばI2C(Inter-Integrated Circuit)I/F)18と、を備えている。
Therefore, the fingertip
図1において、機器内の画像メモリに格納された画像データは、メモリI/F11を介して、フレームごとにフレームバッファ13に書き込まれ、また、CMOSカメラで撮像された画像データも、カメラI/F12を介して、フレームバッファ13に書込み可能となっている。つまり、いずれの画像データでも処理可能である。肌色抽出/2値化処理部14は、フレームバッファ13から画像データを読み出してきて、そこから肌色部分のみを抽出し、更に抽出した部分のデータを2値化して得られたデータをフレームバッファ13に書き戻す。指先近傍データ抽出処理部15は、フレームバッファ13に格納された肌色部分の2値化データを所定単位で読み出してきて、後述のフィルタ処理により、指先の近傍の画素データを抽出する。各指分別処理部16は、指先近傍データ抽出処理部15により得られた指先の近傍の複数の画素データを処理し、各指ごとのデータとして分別する。各指方向算出部17は、各指分別処理部16により得られた各指ごとのデータに基づいて、各指の方向と指の先端の位置を算出する。各指方向算出部17により得られた情報は、外部I/F18を介して、外部CPUに送られる。
In FIG. 1, the image data stored in the image memory in the device is written to the
次に、図2乃至図13を参照して、指先検出UIモジュール1による指先の検出の方法を詳細に説明する。図2は、本発明の指先検出方法における一実施形態のフローチャートである。また、図3乃至図13は、指先の検出の方法を具体的に説明するための図である。
Next, a method for detecting a fingertip by the fingertip
図2において、まず、画像メモリに格納された画像データ、又はCMOSカメラにより撮像された画像に係るデータを、フレームごとに、メモリI/F11又はカメラI/F12を介して入力し、フレームバッファ13に書き込む(ステップS11)。次に、肌色抽出/2値化処理部14は、フレームバッファ13から画像データを読み出してきて、そこから肌色部分のみを抽出し、更に抽出した部分のデータを2値化して得られたデータをフレームバッファ13に書き戻す(ステップS12)。手の指先を検出するにはまず、画像全体から、指先を含めた肌色部分(顔等が含まれる)を抽出する必要があるので、この処理を前処理として行う。なお、この具体的方法は当業者には自明である。
In FIG. 2, first, image data stored in an image memory or data related to an image captured by a CMOS camera is input for each frame via the memory I / F 11 or the camera I /
次に、指先近傍データ抽出処理部15が、フレームバッファ13に格納された肌色部分の2値化データを読み出してきて、フィルタ処理により、指先の近傍の画素データを抽出する(ステップS13)。以下、この処理の詳細を、図3乃至図10を参照して説明する。まず、この指先近傍画素データの抽出処理においては、指先の概ね尖った形状を考慮して、図3(a)に示すような扇を含む二次元フィルタ(以下、「指先検出フィルタFF」と称す)を採用する。そして、上記2値化データの各画素点に対して、当該画素点とその扇を一部とする円の中心を一致させ、その状態で、値1の扇を含む指先検出フィルタFFを回転させつつ、その指先検出フィルタFFと肌色部分を表す2値化データとの論理積をとることにより、各画素点での、扇の各回転位置での、扇と肌色部分の重なり面積(重なり画素数)を求める。これを図3(b)に示すように、二次元に配列された各画素点に指先検出フィルタFFをシフトしつつ順次行う。
Next, the fingertip vicinity data
図4乃至図7を参照して、指先検出フィルタFFの扇と肌色部分との扇の回転角に応じた重なり面積について、指先検出フィルタFFと肌色部分との代表的な位置関係を挙げて説明する。図4は、扇を回転させても肌色部分との重なりが生じないような両者の位置関係の場合である。この場合には、同図(b)に示すように、一回転(360度)に渡って、重なり面積は生じない。これに対して、図5は、扇が回転に拘わらず全体が肌色部分と重なるような両者の位置関係の場合である。この場合には、0度〜360度(一回転)に渡って重なり面積は、扇の面積となる。次に、図6は、扇を含む円の中心が、肌色とそうでない部分の境界にある場合(理論的な説明として画素点が境界上にあると仮定している)である。この場合には、扇の中心角θ(図3(a))にもよるが、中心角θが概ね90度の場合には、同図(b)の模式図のように、重なり面積の回転角度に渡った見かけ形状は、所定角度範囲(理論上、中心角θ=90度で90度)の間、重なり面積が扇の面積となる台形形状となる。また、図7は、扇を含む円の中心が、指の先端部の境界にある場合である。この場合には、同図(b)の模式図のように、重なり面積の回転角度に渡った見かけ形状は、重なり面積が生ずる角度範囲が所定値以下の狭い範囲、かつ、重なり面積が扇の面積となる角度範囲が微小であるような形状となる。従って、逆に言えば、重なり面積の回転角度に渡った見かけ形状が、図7(b)に示すような形状として表れた場合、その画素点が、指の先端部近傍の画素点であると判定できることになる。 With reference to FIG. 4 thru | or FIG. 7, about the overlap area according to the rotation angle of the fan of a fingertip detection filter FF and a skin color part, the typical positional relationship of the fingertip detection filter FF and a skin color part is given and demonstrated. To do. FIG. 4 shows a case where the positional relationship between the two is such that no overlap with the flesh-colored portion occurs even when the fan is rotated. In this case, as shown in FIG. 5B, there is no overlapping area over one rotation (360 degrees). On the other hand, FIG. 5 shows the case of the positional relationship between the two so that the whole overlaps with the skin color portion regardless of the rotation of the fan. In this case, the overlapping area is 0 to 360 degrees (one rotation), which is the fan area. Next, FIG. 6 shows the case where the center of the circle including the fan is at the boundary between the skin color and the part that is not (the theoretical explanation assumes that the pixel point is on the boundary). In this case, although it depends on the central angle θ of the fan (FIG. 3A), when the central angle θ is approximately 90 degrees, as shown in the schematic diagram of FIG. The apparent shape over the angle becomes a trapezoidal shape in which the overlapping area is the area of the fan within a predetermined angle range (theoretically, the central angle θ = 90 degrees and 90 degrees). FIG. 7 shows a case where the center of the circle including the fan is at the boundary of the tip of the finger. In this case, as shown in the schematic diagram of FIG. 5B, the apparent shape over the rotation angle of the overlap area is a narrow range where the overlap area is less than a predetermined value and the overlap area is a fan. The shape is such that the angle range of the area is very small. Therefore, in other words, if the apparent shape over the rotation angle of the overlapping area appears as a shape as shown in FIG. 7B, the pixel point is a pixel point near the tip of the finger. It can be judged.
条件としては、扇の中心角θが指先の先鋭度と略一致している必要がある。扇の中心角θが指先の先鋭度よりも小さい場合には、重なり面積が扇の面積となる角度範囲がある程度生じてしまうし、一方、扇の中心角θが指先の先鋭度よりも大きい場合には、重なり面積が扇の面積に達することがなくなってしまう。また、図6の場合において、例えば扇の中心角θを180度としてしまうと、重なり面積の回転角度に渡った見かけ形状は、頂点を有する大きな三角形(全角度に渡って重なり面積を生じる)となってしまう。 As a condition, it is necessary that the central angle θ of the fan substantially matches the sharpness of the fingertip. When the fan central angle θ is smaller than the fingertip sharpness, there will be some angle range where the overlapping area becomes the fan area, while the fan central angle θ is larger than the fingertip sharpness In this case, the overlapping area does not reach the fan area. In the case of FIG. 6, for example, if the center angle θ of the fan is set to 180 degrees, the apparent shape over the rotation angle of the overlapping area is a large triangle having a vertex (the overlapping area is generated over all angles). turn into.
以上から、総じて、判定基準としては、扇の中心角θが指先の先鋭度と略一致しているという前提条件の下で、「重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下である」という基準を採用すればよいことになる。その場合には、重なり面積が示す見かけ形状の面積も所定値以下となる。そこで、上記閾値を適切に設定し、当該基準に基づいて判定すると、指先近傍の画素として例えば図8に示すような画素点が抽出できる。なお、図8においては、抽出画素点を模式的に境界線上に配置しているが、実際は、各画素点は二次元格子上の点であるので、境界近傍の格子上の画素点が得られることとなる。なお、以上から、扇の中心角θとしては、標準の人の指先の先鋭度を採用するのが好適である。 From the above, as a whole, as a criterion for judgment, under the precondition that the central angle θ of the fan substantially matches the sharpness of the fingertip, “the angle range where the overlapping area substantially matches the fan area is a predetermined threshold value. It is only necessary to adopt the standard of “being below”. In that case, the area of the apparent shape indicated by the overlapping area is also a predetermined value or less. Therefore, when the threshold value is set appropriately and determined based on the reference, pixel points as shown in FIG. 8 can be extracted as pixels near the fingertip. In FIG. 8, the extracted pixel points are schematically arranged on the boundary line. However, since each pixel point is actually a point on the two-dimensional lattice, pixel points on the lattice near the boundary are obtained. It will be. From the above, it is preferable to adopt the sharpness of a standard human fingertip as the central angle θ of the fan.
なお、上述のステップS13で説明した指先検出フィルタFFの扇は理論上のものであり、実際にハードウェア回路で構成する場合には、画像精細度に応じた離散的データとして処理する構成とする必要がある。図9はその例を示す図である。ここで、前述のように、扇の中心角θは指先の先鋭度と一致していることが最適であるため、標準の指先の先鋭度を念頭に、予め最適な角度に設定してやればよい。なお、図9では図示の便宜上90度となっている。また、扇の半径r(図3(a)参照)は、使用者による想定される使用状況において、撮像される使用者の指の大きさが何画素分に相当するか、という観点で決定すればよい。つまり、画像の精細度と、カメラから指までの距離が決まれば、画素データ上で指がどの程度を占めるかが決まる。図9(a)〜(c)においては、扇を45度ずつ回転させた場合のそれぞれの扇の離散的形状を示している。この場合、扇の回転を考慮すると、指先検出フィルタFFは、15×15画素で構成できる。また、扇を何度単位で回転させて処理を行うかも(なお、以下、この角度単位を「送り角度」と称す)、扇の占める画像の精細度による。扇に対して画像が精細であればあるほど、この送り角度も精細にすることができる。なお、扇の形状に対応した画素の数は、扇の回転位置に拘わらず一定であることが好ましい。角度(例えば、0度、15度、30度、45度、・・・)に応じて、予め決定してやればよい。図9に示した場合は33画素である。 Note that the fan of the fingertip detection filter FF described in step S13 described above is theoretical, and when actually configured with a hardware circuit, it is configured to process as discrete data according to image definition. There is a need. FIG. 9 is a diagram showing an example thereof. Here, as described above, it is optimal that the central angle θ of the fan coincides with the sharpness of the fingertip. Therefore, the optimum angle may be set in advance with the sharpness of the standard fingertip in mind. In FIG. 9, it is 90 degrees for convenience of illustration. Further, the radius r of the fan (see FIG. 3A) is determined in terms of how many pixels the size of the user's finger to be imaged corresponds to in the usage situation assumed by the user. That's fine. That is, if the definition of the image and the distance from the camera to the finger are determined, how much the finger occupies on the pixel data is determined. 9A to 9C show the discrete shapes of the fans when the fans are rotated by 45 degrees. In this case, considering the rotation of the fan, the fingertip detection filter FF can be composed of 15 × 15 pixels. In addition, the process may be performed by rotating the fan in units (hereinafter, this angle unit is referred to as “feed angle”), depending on the definition of the image occupied by the fan. The finer the image relative to the fan, the finer the feed angle. Note that the number of pixels corresponding to the shape of the fan is preferably constant regardless of the rotational position of the fan. What is necessary is just to determine beforehand according to an angle (for example, 0 degree, 15 degrees, 30 degrees, 45 degrees, ...). In the case shown in FIG. 9, there are 33 pixels.
図10は、送り角度が15度で、扇の画素数が33の場合の、扇の回転角度に対する重なり画素数の関係の例を示す図である。ここで、図10(a)は、図6に対応するものである。また、図10(b)は、図7に対応するものであり、同図のように重なり画素数が検出された場合に、前述の閾値の観点から、指先近傍の画素が判定できることになる。なお、扇の回転中心(処理対象の画素)が指画像に含まれる端の画素であれば、全角度に渡って1画素分の重なり画素が表れるということは、当業者であれば容易に理解できるであろう。 FIG. 10 is a diagram illustrating an example of the relationship between the number of overlapping pixels and the rotation angle of the fan when the feed angle is 15 degrees and the number of pixels of the fan is 33. Here, FIG. 10A corresponds to FIG. FIG. 10B corresponds to FIG. 7, and when the number of overlapping pixels is detected as shown in FIG. 10, pixels near the fingertip can be determined from the viewpoint of the above threshold. A person skilled in the art can easily understand that if the rotation center of the fan (the pixel to be processed) is an edge pixel included in the finger image, an overlap pixel of one pixel appears over all angles. It will be possible.
なお、指先近傍データ抽出処理部15におけるフレームバッファ13からの2値化データの読出しに関し、上述のように、15×15画素の指先検出フィルタFFであれば、好適には、15ライン単位で読出し、その15ラインごとに、15×15画素の指先検出フィルタFFをライン方向に順次シフトしつつ処理すればよい。
Regarding the reading of the binarized data from the
上述のステップS13で得られた、指先近傍として抽出された画素点は、使用者(ユーザー)の提示態様に応じて、1本の指だけについての画素点である場合もあるし、図8に示すように複数本の指についての画素点である場合もある。従って、次の処理として、各指分別処理部16が、ステップS13で得られた指先近傍の複数の画素点について、それぞれを各指ごとのデータとして分別する(ステップS14)。この処理は、指の本数を認識することと等価である。但し、図8のような典型的な各指関係の場合には分別も容易であるが、使用者が顕示する各指の形態によっては、各指が接近し、各指のデータを分別することが容易ではないこともあり得る。そこで、図11に示すような観点で、指先近傍として抽出された各画素を精査すれば、それらを各指ごとに分別できることになる。具体的には、図11は、1本の指において、境界近傍の画素についてフィルタ処理を施した場合の扇の回転角度と重なり面積の関係を示す図であり、同図においては、代表的な5点を示している。同図に示すように、1本の指のみに関しては以下の関係が見いだせる。すなわち、まず、指の先端の境界においては、前述のように、重なり面積の回転角度に渡った見かけ形状は、狭い角度範囲でピークを有する小面積形状であるのに対して、画素点が、左右それぞれ指の側面方向にいくに従って、ピークとなる角度範囲が徐々に広がると共に、当該角度範囲の中心値が徐々に右方向又は左方向にシフトしていく。故に、1本の指のデータであれば、ある境界画素についての重なり面積の回転角度に渡った見かけ形状と、他の境界画素についての重なり面積の回転角度に渡った見かけ形状との関係は、両者の画素間の距離に応じて決まることとなる。かかる観点から、ある2つの境界近傍画素が同一の指のデータであるか否かは、両者が、両者の距離に対応した、ピークとなる角度範囲が所定の差異を有しているか、かつ、角度範囲の中心値が所定の差異を有しているか、により判別できることになる。図12は、そのようにして分別した指[1]データ及び指[2]データを示している。
The pixel point extracted as the vicinity of the fingertip obtained in step S13 described above may be a pixel point for only one finger depending on the presentation mode of the user (user), and FIG. As shown, there may be pixel points for multiple fingers. Accordingly, as the next process, each finger
図2に戻って、次に、ステップS14のように分別された各指について、各指方向算出部17が、各指の先端と各指の方向を求める(ステップS15)。指の先端については、最も簡易には、当該指の各指先近傍データのうちの、重なり面積が扇面積に等しい、すなわち重なり面積が最大の角度範囲が最も狭い画素の位置を採用してもよい。あるいは、当該指の各指先近傍の画素のうちのいくつかの画素の位置から補間により求めてもよい。また、指の方向については、最も簡易には、当該指の各指先近傍データのうちの、重なり面積が扇面積に等しい、すなわち重なり面積が最大の角度範囲が最も狭いデータについて、その角度範囲の中心値を指方向の角度として採用すればよい。但し、それは理論上の話であって、実際には、指の形状も均一ではなく歪があり、かつ、離散的データを扱っているので、図13に示すように、複数の指先近傍データの各々の上記角度範囲の中心値角度の方向のベクトル和をとるようにすれは、ばらつきを吸収できることとなる。
Returning to FIG. 2, next, for each finger sorted as in step S14, each finger
図2に戻り、最後に、全ての指について、指の先端と指の方向が求められたか否かを判定し(ステップS16)、未処理の場合は、ステップS15に戻って引き続き処理を続行し、全ての指について処理が終了した場合は、全処理を終了する。 Returning to FIG. 2, finally, for all the fingers, it is determined whether or not the finger tips and finger directions have been obtained (step S16). If unprocessed, the process returns to step S15 to continue processing. When the process is completed for all fingers, the entire process is terminated.
以上のように、上述の一実施形態によれば、情報機器に付帯のCMOSカメラによりその情報機器の使用者の少なくとも手の部分を撮像することにより、指を含む手の部分の形態による使用者の制御意図を情報機器が判別する際に、情報機器が適切に、1本以上の指の先端部の位置と各指の方向を容易に正確に検出できる。 As described above, according to the above-described embodiment, the user in the form of the hand portion including the finger is obtained by imaging at least the hand portion of the user of the information device using the CMOS camera attached to the information device. When the information device determines the control intention, the information device can appropriately and accurately detect the position of the tip of one or more fingers and the direction of each finger.
なお、上述の実施形態にあっては、UIモジュール1は、外部CPUに対して、1本以上の指の先端部の位置と各指の方向の情報を供給しているが、各指の方向までは求めることなく、また、指の先端部の位置を特定の位置として求めることなく、各指分別処理部16の出力情報である、各指に分別された複数の指先近傍データを供給して、各指の先端部の位置と各指の方向の算出については、外部CPUに任せてもよい。また、更に、各指を分別することなく、指先近傍データ抽出処理部15からの情報を外部CPUに直接供給するようにしてもよい。
In the above-described embodiment, the
本発明の指先検出方法及び指先検出ユーザーインターフェースモジュールは、情報端末、携帯端末などの非接触操作や、テレビ、空調機などのリモートコントロール操作に利用されたり、ゲーム機、パチンコ機などの遊技機に採用される。 The fingertip detection method and fingertip detection user interface module of the present invention are used for non-contact operations such as information terminals and portable terminals, remote control operations such as televisions and air conditioners, and for game machines such as game machines and pachinko machines. Adopted.
1 ユーザーインターフェースモジュール
11 メモリインターフェース
12 カメラインターフェース
13 フレームバッファ
14 肌色抽出/2値化処理部
15 指先近傍データ抽出処理部
16 各指分別処理部
17 各指方向算出部
18 外部インターフェース
DESCRIPTION OF
Claims (9)
前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、
前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出することを特徴とする指先検出方法。 When the user of the information device forms at least one finger in a specific form and presents it to the information device in order to give specific control information to the information device, the information device uses the imaging means to A fingertip detection method for detecting a fingertip of the user based on image information obtained by imaging a specific form,
Using a fan having a central angle corresponding to the sharpness of the fingertip as a filter, the flesh-colored portion of the image information while rotating the fan with the center of the circle including the fan corresponding to each pixel of the image information The process of obtaining the change in the overlapping area between the fan and the fan is performed for all the pixels by shifting the filter to each pixel,
A fingertip detection method, wherein a pixel point obtained by setting an angle range in which the overlapping area substantially coincides with the fan area is equal to or less than a predetermined threshold is detected as a pixel in the vicinity of the fingertip.
前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出する指先近傍データ抽出処理部を備えたことを特徴とする指先検出ユーザーインターフェースモジュール。
An imaging device provided in the information device when a user of the information device forms and presents at least one finger in a specific form to give specific control information to the information device. A fingertip detection user interface module included in the information device for detecting the fingertip of the user based on image information obtained by imaging the specific form according to
Using a fan having a central angle corresponding to the sharpness of the fingertip as a filter, the flesh-colored portion of the image information while rotating the fan with the center of the circle including the fan corresponding to each pixel of the image information The process of obtaining the change in the overlap area between the fan and the fan is performed for all the pixels by moving the filter to each pixel, and the angle range in which the overlap area substantially coincides with the fan area is obtained as a predetermined threshold value or less. A fingertip detection user interface module comprising a fingertip vicinity data extraction processing unit for detecting a point as a pixel near the fingertip.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013025018A JP5360631B1 (en) | 2013-02-12 | 2013-02-12 | Fingertip detection method and fingertip detection user interface module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013025018A JP5360631B1 (en) | 2013-02-12 | 2013-02-12 | Fingertip detection method and fingertip detection user interface module |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5360631B1 JP5360631B1 (en) | 2013-12-04 |
JP2014154049A true JP2014154049A (en) | 2014-08-25 |
Family
ID=49850305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013025018A Active JP5360631B1 (en) | 2013-02-12 | 2013-02-12 | Fingertip detection method and fingertip detection user interface module |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5360631B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143077A (en) * | 2015-01-29 | 2016-08-08 | 富士通株式会社 | Fingertip position estimation device, fingertip position estimation method and program |
JP2018025973A (en) * | 2016-08-10 | 2018-02-15 | 株式会社東海理化電機製作所 | Image processing device and image processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020073245A1 (en) * | 2018-10-10 | 2020-04-16 | 深圳市道通智能航空技术有限公司 | Gesture recognition method, vr angle of view control method and vr system |
-
2013
- 2013-02-12 JP JP2013025018A patent/JP5360631B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143077A (en) * | 2015-01-29 | 2016-08-08 | 富士通株式会社 | Fingertip position estimation device, fingertip position estimation method and program |
JP2018025973A (en) * | 2016-08-10 | 2018-02-15 | 株式会社東海理化電機製作所 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5360631B1 (en) | 2013-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101514169B1 (en) | Information processing device, information processing method, and recording medium | |
JP6155786B2 (en) | Gesture recognition device, gesture recognition method, electronic device, control program, and recording medium | |
US9329673B2 (en) | Information processing device, information processing method, and recording medium | |
US8768006B2 (en) | Hand gesture recognition | |
US8934673B2 (en) | Image processing method and apparatus for detecting target | |
Gomes et al. | Efficient 3D object recognition using foveated point clouds | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
CN104583902A (en) | Improved identification of a gesture | |
US9082000B2 (en) | Image processing device and image processing method | |
US9218060B2 (en) | Virtual mouse driving apparatus and virtual mouse simulation method | |
WO2012177333A2 (en) | Facilitating image capture and image review by visually impaired users | |
US20140015950A1 (en) | Touch detection apparatus, touch detection method and recording medium | |
JP5845969B2 (en) | Information processing apparatus, information processing method, and program | |
JP5360631B1 (en) | Fingertip detection method and fingertip detection user interface module | |
US20160093055A1 (en) | Information processing apparatus, method for controlling same, and storage medium | |
JPWO2016006090A1 (en) | Electronic device, method and program | |
JP6038700B2 (en) | Shaping device | |
EP2916261A2 (en) | Detecting device and detecting method | |
CN106156774B (en) | Image processing method and image processing system | |
JP5558899B2 (en) | Information processing apparatus, processing method thereof, and program | |
US20150103205A1 (en) | Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor | |
Friedman et al. | Icon scanning: Towards next generation QR codes | |
JP2016042383A (en) | User operation processing apparatus, user operation processing method, and program | |
JP6312488B2 (en) | Image processing apparatus, image processing method, and program | |
US20230061557A1 (en) | Electronic device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
R150 | Certificate of patent or registration of utility model |
Ref document number: 5360631 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |