JP2014154049A - Fingertip detection method and fingertip detection user interface module - Google Patents

Fingertip detection method and fingertip detection user interface module Download PDF

Info

Publication number
JP2014154049A
JP2014154049A JP2013025018A JP2013025018A JP2014154049A JP 2014154049 A JP2014154049 A JP 2014154049A JP 2013025018 A JP2013025018 A JP 2013025018A JP 2013025018 A JP2013025018 A JP 2013025018A JP 2014154049 A JP2014154049 A JP 2014154049A
Authority
JP
Japan
Prior art keywords
fingertip
finger
fan
pixel
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013025018A
Other languages
Japanese (ja)
Other versions
JP5360631B1 (en
Inventor
Hiroki Sugano
裕揮 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axell Corp
Original Assignee
Axell Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axell Corp filed Critical Axell Corp
Priority to JP2013025018A priority Critical patent/JP5360631B1/en
Application granted granted Critical
Publication of JP5360631B1 publication Critical patent/JP5360631B1/en
Publication of JP2014154049A publication Critical patent/JP2014154049A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily and accurately detect the top end of the finger.SOLUTION: Image data are written via a memory I/F 11 or a camera I/F 12 in a frame buffer 13. A skin color extraction/binarization processing part 14 reads the image data from the frame buffer 13, and extracts only the skin color portion, and rewrites data obtained by binarizing the data of the extracted portion in the frame buffer 13. A fingertip neighborhood data extraction processing part 15 reads the binary data of the skin color portion stored in the frame buffer 13, and extracts pixel data in the neighborhood of the fingertip by predetermined filter processing. A finger-categorized processing part 16 processes a plurality of pixel data in the neighborhood of the fingertip, and classifies the pixel data as data for each finger. A finger direction calculation part 17 calculates the direction of each finger and the position of the top end of the finger on the basis of the obtained data of each finger. Information acquired by the finger direction calculation part 17 is transmitted via an external I/F 18 to an external CPU.

Description

本発明は、指先検出方法及び指先検出ユーザーインターフェースモジュールに関し、特に、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して情報機器に提示し、情報機器が、撮像手段により特定の形態を撮像して得られた画像情報に基づき、使用者の指先を検出する指先検出方法、及びその方法を実現する上記情報機器に含まれる指先検出ユーザーインターフェースモジュールに関する。   The present invention relates to a fingertip detection method and a fingertip detection user interface module, and in particular, an information device user forms at least one finger in a specific form so as to give specific information to the information device. Included in the fingertip detection method for detecting the fingertip of the user based on the image information obtained by imaging the specific form by the imaging means that is presented to the device and the information device for realizing the method The present invention relates to a fingertip detection user interface module.

技術の進歩に伴い、各種情報機器に対する使用者の操作・指示等の制御情報の供給の仕方、すなわちユーザーインターフェース(略してUIと称す)は、高度に進化してきている。例えば、昨今急速に普及しつつあるいわゆるスマートフォンのように、使用者が指先で情報機器の特に情報表示部に触れることによるUIは、もはや常識のように活用されている。更に当該UIにおいては、触れることの一態様としてのなぞる態様を識別できるようにしたことにより、画期的に多様な制御情報の供給が可能となっている。また、ハードウェア素子の開発に伴って、更に発展した制御情報の識別も可能となってきている。例えば特許文献1は、タッチセンサに加えて近接センサを採用することにより、近接センサからの距離傾斜情報に基づき、触れた指先の方向を認識できるような技術を開示している。   With the advance of technology, the way of supplying control information such as user operations / instructions to various information devices, that is, the user interface (hereinafter referred to as UI) has been highly advanced. For example, like a so-called smart phone that is rapidly spreading recently, a UI by a user touching an information display unit of an information device with a fingertip is no longer used as common sense. Furthermore, in the UI, by making it possible to identify the tracing mode as one mode of touching, it is possible to supply a variety of control information. Further, with the development of hardware elements, it has become possible to identify control information further developed. For example, Patent Document 1 discloses a technique that can recognize the direction of the touched fingertip based on distance inclination information from the proximity sensor by employing a proximity sensor in addition to the touch sensor.

また、他のUIとして、情報機器がCMOSイメージセンサを採用したカメラ(以下、「CMOSカメラ」と称す)等の撮像手段を備えて、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識するという態様のUIも発展段階にある。   In addition, as another UI, the information device is provided with imaging means such as a camera (hereinafter referred to as “CMOS camera”) employing a CMOS image sensor, and images the whole or part of the user's body as necessary. However, UIs that recognize control information such as operations / instructions intended by the user from the image information obtained thereby are also in the development stage.

特開2012−194692号公報JP 2012-194692 A

ここで、上述のような撮像手段を利用したUIにおいて、最も典型的な手法は、使用者が自らの上肢、特に手により操作・指示等を表現し、それを情報機器側の撮像手段が撮像し、その画像データを判別処理することにより使用者の意図した操作・指示等を情報機器が取得するという態様である。このとき使用者は、特に指の本数や指の方向により操作・指示等を表現することが、使用者にとっても表現しやすい。使用者が手の指により情報機器との制御情報交換を行う例としては、例えば、指の本数で数値を指定する場合や、1本の指の方向で選択情報を特定する場合等、各種がある。また、遊技機などでは、例えば、遊技者と遊技機とがじゃんけんを行うというような場合もある。しかしながら、情報機器側にあっては、撮像した画像データの中から指先部分を判別することは、比較的困難なことも多い。更に、使用者が“動き”、例えば撮像手段に対して人差し指を立てて上下左右に移動させる(いわゆるドラッグ操作を意図)、により制御情報を与える場合もあるが、この場合も前提として指先を検出できている状態で、更にその動きを検出しなければならない。   Here, in the UI using the imaging means as described above, the most typical method is that the user expresses his / her upper limbs, especially operations / instructions by hand, and the imaging means on the information equipment side captures the images. Then, the information device obtains the operation / instruction intended by the user by performing the discrimination processing on the image data. At this time, it is easy for the user to express the operation / instructions by the number of fingers and the direction of the finger. Examples of a user exchanging control information with an information device using fingers of a hand include various cases such as specifying a numerical value by the number of fingers or specifying selection information by the direction of one finger. is there. Further, in a gaming machine or the like, for example, there may be a case where a player and a gaming machine play a game. However, on the information equipment side, it is often relatively difficult to determine the fingertip portion from the captured image data. Furthermore, there are cases where the user gives control information by “movement”, for example, by moving the index finger up and down and left and right with respect to the imaging means (so-called drag operation is intended). In the ready state, the motion must be further detected.

本発明は上述のような事情から為されたものであり、本発明の目的は、情報機器が撮像手段を備え、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識する場合において、指の先端を簡易に正確に検出できる指先検出方法及び指先検出ユーザーインターフェースモジュールを提供することにある。   The present invention has been made for the above-mentioned circumstances, and an object of the present invention is to obtain an information device having an imaging means and imaging the whole or a part of the user's body as necessary. An object of the present invention is to provide a fingertip detection method and a fingertip detection user interface module that can easily and accurately detect the tip of a finger when recognizing control information such as an operation / instruction intended by a user from the image information.

上記目的を達成するため、本発明の指先検出方法は、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器が、撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する指先検出方法であって、前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出することを要旨とする。   In order to achieve the above object, the fingertip detection method according to the present invention is characterized in that a user of an information device forms at least one finger in a specific form so as to give specific information to the information device. A fingertip detection method in which the information device detects the fingertip of the user based on image information obtained by imaging the specific form by an imaging means, the sharpness of the fingertip A fan having a central angle corresponding to the filter is used as a filter, and the center of a circle including the fan is made to correspond to each pixel of the image information, and the fan is rotated while rotating the fan, The process of obtaining the change in the overlap area is performed for all the pixels by moving the filter to each pixel, and a pixel point obtained by setting the angle range where the overlap area substantially matches the fan area to be equal to or less than a predetermined threshold is set near the fingertip. Pixel And summarized in that the detected.

更に、検出された指先近傍の複数の画素点を、各指ごとの画素点として分別することを特徴とする。   Furthermore, a plurality of pixel points in the vicinity of the detected fingertip are classified as pixel points for each finger.

ここで、2つの境界近傍画素が同一の指のデータであるか否かは、両者が、両者の距離に対応した、ピークとなる角度範囲が所定の差異を有しているか、かつ、角度範囲の中心値が所定の差異を有しているか、により判別することが特徴である。   Here, whether or not two neighboring pixels are data of the same finger is based on whether or not the peak angle range corresponding to the distance between the two has a predetermined difference and the angle range. It is a feature that it is discriminated based on whether or not the central value has a predetermined difference.

更に、各指について、指の先端の位置を、当該指先近傍の画素のうちの所定数の画素の位置から補間により求めることが好適である。   Further, for each finger, it is preferable to obtain the position of the tip of the finger from the positions of a predetermined number of pixels in the vicinity of the fingertip by interpolation.

また、各指について、指の方向を、当該指先近傍の複数の画素についての前記角度範囲の中心値角度の方向のベクトル和をとることにより求めることが好適である。   For each finger, the direction of the finger is preferably obtained by taking a vector sum of the direction of the central value angle of the angle range for a plurality of pixels near the fingertip.

また、前記扇の半径は、前記指から前記撮像手段までの距離に応じて決定されることが好適である。   Moreover, it is preferable that the radius of the fan is determined according to a distance from the finger to the imaging unit.

また、前記扇を所定送り角度ごとに回転させつつ、前記画像情報の肌色部分と前記扇との重なり面積を求めることを特徴としている。   Further, the overlapping area between the flesh-colored portion of the image information and the fan is obtained while rotating the fan at every predetermined feed angle.

ここで、前記所定送り角度は、前記扇の半径に対する前記画像情報を精細度に応じて決定することが好適である。   Here, it is preferable that the predetermined feed angle is determined according to the definition of the image information with respect to the radius of the fan.

また、上記目的を達成するため、本発明の指先検出ユーザーインターフェースモジュールは、情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器に備えられた撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する、前記情報機器に含まれる指先検出ユーザーインターフェースモジュールであって、前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出する指先近傍データ抽出処理部を備えたことを要旨とする。   In order to achieve the above object, the fingertip detection user interface module of the present invention forms at least one finger in a specific form so that a user of an information device gives specific control information to the information device. Included in the information device, wherein the fingertip of the user is detected based on image information obtained by imaging the specific form by an imaging unit provided in the information device. A fingertip detection user interface module, wherein a fan having a central angle corresponding to the sharpness of the fingertip is used as a filter, and the fan is detected in a state where the center of a circle including the fan is associated with each pixel of the image information. Rotating the filter, the process of obtaining the change in the overlapping area between the flesh-colored portion of the image information and the fan is performed for all the pixels by moving the filter to each pixel. And summarized in that the angular range in which the overlapping area is substantially the same as the area of the fan is provided with a fingertip proximate data extraction processing unit for detecting the pixel points obtained as a predetermined threshold value or less as a pixel of a fingertip vicinity.

本発明によれば、情報機器が撮像手段を備え、必要に応じて使用者の身体の全体又は一部を撮像し、それにより得られた画像情報から、使用者が意図した操作・指示等の制御情報を認識する場合において、指の先端を簡易に正確に検出できる。更に、指の方向を簡易に正確に検出できる。また、複数の指についても分別して検出できる。   According to the present invention, the information device includes an imaging unit, images the whole or a part of the user's body as necessary, and the operation / instruction intended by the user from the image information obtained thereby. When recognizing the control information, the tip of the finger can be detected easily and accurately. Furthermore, the direction of the finger can be detected easily and accurately. Also, a plurality of fingers can be detected separately.

本発明の指先検出ユーザーインターフェースモジュールにおける一実施形態の概略構成ブロック図である。It is a schematic block diagram of one embodiment of the fingertip detection user interface module of the present invention. 本発明の指先検出方法における一実施形態のフローチャートである。It is a flowchart of one Embodiment in the fingertip detection method of this invention. 指先検出フィルタと、それによるフィルタ処理を説明するための図である。It is a figure for demonstrating a fingertip detection filter and the filter process by it. 指先検出フィルタの扇と肌色部分との扇の回転角に応じた重なり面積を説明するための例を示す図である。It is a figure which shows the example for demonstrating the overlapping area according to the rotation angle of the fan of a fingertip detection filter, and the skin color part. 指先検出フィルタの扇と肌色部分との扇の回転角に応じた重なり面積を説明するための例を示す図である。It is a figure which shows the example for demonstrating the overlapping area according to the rotation angle of the fan of a fingertip detection filter, and the skin color part. 指先検出フィルタの扇と肌色部分との扇の回転角に応じた重なり面積を説明するための例を示す図である。It is a figure which shows the example for demonstrating the overlapping area according to the rotation angle of the fan of a fingertip detection filter, and the skin color part. 指先検出フィルタの扇と肌色部分との扇の回転角に応じた重なり面積を説明するための例を示す図である。It is a figure which shows the example for demonstrating the overlapping area according to the rotation angle of the fan of a fingertip detection filter, and the skin color part. 指先近傍として抽出された画素点を示す図である。It is a figure which shows the pixel point extracted as a fingertip vicinity. 画素の集合として扇を含む指先検出フィルタを設計した例を示す図である。It is a figure which shows the example which designed the fingertip detection filter containing a fan as a collection of pixels. 送り角度が15度で、扇の画素数が33の場合の、扇の回転角度に対する重なり画素数の関係の例を示す図である。It is a figure which shows the example of the relationship of the number of overlapping pixels with respect to the rotation angle of a fan when a feed angle is 15 degrees and the number of pixels of a fan is 33. 各指を分別するための観点を説明するための図である。It is a figure for demonstrating the viewpoint for classifying each finger | toe. 各指データとして分別できた指先近傍データを示す図である。It is a figure which shows the fingertip vicinity data which could be classified as each finger data. 指の方向を求めるときの処理を説明するための図である。It is a figure for demonstrating the process when calculating | requiring the direction of a finger | toe.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本発明の指先検出ユーザーインターフェース(以下、「UI」と称す)モジュールにおける一実施形態の概略構成ブロック図である。同図に示した指先検出UIモジュール1は、CMOSカメラ等で撮像した人物の画像から指先部分を検出し、指の本数や指の方向を認識することにより、人物のその手により提示された情報を認識することを可能とするUIモジュールである。なお、以下の説明では、1枚の静止画の情報から上述の情報を認識することを基本として説明しているが、静止画の時間的連なり画像が動画であることを鑑みれば、動画を構成する各静止画について当該処理を行えば、動画について、手やその指の動きが認識できるようになるということは、当業者には自明であろう。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram of an embodiment of a fingertip detection user interface (hereinafter referred to as “UI”) module of the present invention. The fingertip detection UI module 1 shown in the figure detects the fingertip portion from the image of the person imaged by a CMOS camera or the like, and recognizes the number of fingers and the direction of the finger, thereby presenting information presented by the person's hand. It is a UI module that makes it possible to recognize. In the following description, the description is based on recognizing the above-mentioned information from the information of one still image. However, in view of the fact that still images are temporally linked, moving images are configured. It will be obvious to those skilled in the art that if the process is performed for each still image to be performed, the movement of the hand and its finger can be recognized for the moving image.

そこで、図1に示した指先検出UIモジュール1は、メモリインターフェース(以下、「I/F」と称す)11と、カメラI/F12と、フレームバッファ13と、肌色検出/2値化処理部14と、指先近傍データ抽出処理部15と、各指分別処理部16と、各指方向算出部17と、外部I/F(例えばI2C(Inter-Integrated Circuit)I/F)18と、を備えている。   Therefore, the fingertip detection UI module 1 shown in FIG. 1 includes a memory interface (hereinafter referred to as “I / F”) 11, a camera I / F 12, a frame buffer 13, and a skin color detection / binarization processing unit 14. A fingertip vicinity data extraction processing unit 15, each finger classification processing unit 16, each finger direction calculation unit 17, and an external I / F (for example, an I2C (Inter-Integrated Circuit) I / F) 18. Yes.

図1において、機器内の画像メモリに格納された画像データは、メモリI/F11を介して、フレームごとにフレームバッファ13に書き込まれ、また、CMOSカメラで撮像された画像データも、カメラI/F12を介して、フレームバッファ13に書込み可能となっている。つまり、いずれの画像データでも処理可能である。肌色抽出/2値化処理部14は、フレームバッファ13から画像データを読み出してきて、そこから肌色部分のみを抽出し、更に抽出した部分のデータを2値化して得られたデータをフレームバッファ13に書き戻す。指先近傍データ抽出処理部15は、フレームバッファ13に格納された肌色部分の2値化データを所定単位で読み出してきて、後述のフィルタ処理により、指先の近傍の画素データを抽出する。各指分別処理部16は、指先近傍データ抽出処理部15により得られた指先の近傍の複数の画素データを処理し、各指ごとのデータとして分別する。各指方向算出部17は、各指分別処理部16により得られた各指ごとのデータに基づいて、各指の方向と指の先端の位置を算出する。各指方向算出部17により得られた情報は、外部I/F18を介して、外部CPUに送られる。   In FIG. 1, the image data stored in the image memory in the device is written to the frame buffer 13 for each frame via the memory I / F 11, and the image data captured by the CMOS camera is also the camera I / F. Writing to the frame buffer 13 is possible via F12. That is, any image data can be processed. The skin color extraction / binarization processing unit 14 reads out the image data from the frame buffer 13, extracts only the skin color portion from the image data, and further binarizes the extracted portion of the data to the frame buffer 13. Write back to The fingertip vicinity data extraction processing unit 15 reads the binarized data of the skin color portion stored in the frame buffer 13 in a predetermined unit, and extracts pixel data in the vicinity of the fingertip by a filtering process described later. Each finger classification processing unit 16 processes a plurality of pixel data in the vicinity of the fingertip obtained by the fingertip vicinity data extraction processing unit 15 and classifies the data as data for each finger. Each finger direction calculation unit 17 calculates the direction of each finger and the position of the tip of the finger based on the data for each finger obtained by each finger classification processing unit 16. Information obtained by each finger direction calculation unit 17 is sent to the external CPU via the external I / F 18.

次に、図2乃至図13を参照して、指先検出UIモジュール1による指先の検出の方法を詳細に説明する。図2は、本発明の指先検出方法における一実施形態のフローチャートである。また、図3乃至図13は、指先の検出の方法を具体的に説明するための図である。   Next, a method for detecting a fingertip by the fingertip detection UI module 1 will be described in detail with reference to FIGS. FIG. 2 is a flowchart of an embodiment of the fingertip detection method of the present invention. 3 to 13 are diagrams for specifically explaining a fingertip detection method.

図2において、まず、画像メモリに格納された画像データ、又はCMOSカメラにより撮像された画像に係るデータを、フレームごとに、メモリI/F11又はカメラI/F12を介して入力し、フレームバッファ13に書き込む(ステップS11)。次に、肌色抽出/2値化処理部14は、フレームバッファ13から画像データを読み出してきて、そこから肌色部分のみを抽出し、更に抽出した部分のデータを2値化して得られたデータをフレームバッファ13に書き戻す(ステップS12)。手の指先を検出するにはまず、画像全体から、指先を含めた肌色部分(顔等が含まれる)を抽出する必要があるので、この処理を前処理として行う。なお、この具体的方法は当業者には自明である。   In FIG. 2, first, image data stored in an image memory or data related to an image captured by a CMOS camera is input for each frame via the memory I / F 11 or the camera I / F 12, and the frame buffer 13 (Step S11). Next, the skin color extraction / binarization processing unit 14 reads out the image data from the frame buffer 13, extracts only the skin color portion from the image data, and further binarizes the data of the extracted portion. Write back to the frame buffer 13 (step S12). In order to detect the fingertip of the hand, first, since it is necessary to extract a skin color portion (including a face and the like) including the fingertip from the entire image, this processing is performed as preprocessing. This specific method is obvious to those skilled in the art.

次に、指先近傍データ抽出処理部15が、フレームバッファ13に格納された肌色部分の2値化データを読み出してきて、フィルタ処理により、指先の近傍の画素データを抽出する(ステップS13)。以下、この処理の詳細を、図3乃至図10を参照して説明する。まず、この指先近傍画素データの抽出処理においては、指先の概ね尖った形状を考慮して、図3(a)に示すような扇を含む二次元フィルタ(以下、「指先検出フィルタFF」と称す)を採用する。そして、上記2値化データの各画素点に対して、当該画素点とその扇を一部とする円の中心を一致させ、その状態で、値1の扇を含む指先検出フィルタFFを回転させつつ、その指先検出フィルタFFと肌色部分を表す2値化データとの論理積をとることにより、各画素点での、扇の各回転位置での、扇と肌色部分の重なり面積(重なり画素数)を求める。これを図3(b)に示すように、二次元に配列された各画素点に指先検出フィルタFFをシフトしつつ順次行う。   Next, the fingertip vicinity data extraction processing unit 15 reads out the binarized data of the skin color portion stored in the frame buffer 13, and extracts pixel data in the vicinity of the fingertip by the filter process (step S13). The details of this processing will be described below with reference to FIGS. First, in this fingertip vicinity pixel data extraction process, taking into account the generally sharp shape of the fingertip, a two-dimensional filter including a fan as shown in FIG. 3A (hereinafter referred to as “fingertip detection filter FF”). ). Then, for each pixel point of the binarized data, the pixel point and the center of a circle including a part of the pixel point are matched, and in this state, the fingertip detection filter FF including the value 1 fan is rotated. On the other hand, by taking the logical product of the fingertip detection filter FF and the binarized data representing the skin color portion, the overlapping area (number of overlapping pixels) of the fan and the skin color portion at each rotation position of the fan at each pixel point ) As shown in FIG. 3B, this is sequentially performed while shifting the fingertip detection filter FF to each pixel point arranged two-dimensionally.

図4乃至図7を参照して、指先検出フィルタFFの扇と肌色部分との扇の回転角に応じた重なり面積について、指先検出フィルタFFと肌色部分との代表的な位置関係を挙げて説明する。図4は、扇を回転させても肌色部分との重なりが生じないような両者の位置関係の場合である。この場合には、同図(b)に示すように、一回転(360度)に渡って、重なり面積は生じない。これに対して、図5は、扇が回転に拘わらず全体が肌色部分と重なるような両者の位置関係の場合である。この場合には、0度〜360度(一回転)に渡って重なり面積は、扇の面積となる。次に、図6は、扇を含む円の中心が、肌色とそうでない部分の境界にある場合(理論的な説明として画素点が境界上にあると仮定している)である。この場合には、扇の中心角θ(図3(a))にもよるが、中心角θが概ね90度の場合には、同図(b)の模式図のように、重なり面積の回転角度に渡った見かけ形状は、所定角度範囲(理論上、中心角θ=90度で90度)の間、重なり面積が扇の面積となる台形形状となる。また、図7は、扇を含む円の中心が、指の先端部の境界にある場合である。この場合には、同図(b)の模式図のように、重なり面積の回転角度に渡った見かけ形状は、重なり面積が生ずる角度範囲が所定値以下の狭い範囲、かつ、重なり面積が扇の面積となる角度範囲が微小であるような形状となる。従って、逆に言えば、重なり面積の回転角度に渡った見かけ形状が、図7(b)に示すような形状として表れた場合、その画素点が、指の先端部近傍の画素点であると判定できることになる。   With reference to FIG. 4 thru | or FIG. 7, about the overlap area according to the rotation angle of the fan of a fingertip detection filter FF and a skin color part, the typical positional relationship of the fingertip detection filter FF and a skin color part is given and demonstrated. To do. FIG. 4 shows a case where the positional relationship between the two is such that no overlap with the flesh-colored portion occurs even when the fan is rotated. In this case, as shown in FIG. 5B, there is no overlapping area over one rotation (360 degrees). On the other hand, FIG. 5 shows the case of the positional relationship between the two so that the whole overlaps with the skin color portion regardless of the rotation of the fan. In this case, the overlapping area is 0 to 360 degrees (one rotation), which is the fan area. Next, FIG. 6 shows the case where the center of the circle including the fan is at the boundary between the skin color and the part that is not (the theoretical explanation assumes that the pixel point is on the boundary). In this case, although it depends on the central angle θ of the fan (FIG. 3A), when the central angle θ is approximately 90 degrees, as shown in the schematic diagram of FIG. The apparent shape over the angle becomes a trapezoidal shape in which the overlapping area is the area of the fan within a predetermined angle range (theoretically, the central angle θ = 90 degrees and 90 degrees). FIG. 7 shows a case where the center of the circle including the fan is at the boundary of the tip of the finger. In this case, as shown in the schematic diagram of FIG. 5B, the apparent shape over the rotation angle of the overlap area is a narrow range where the overlap area is less than a predetermined value and the overlap area is a fan. The shape is such that the angle range of the area is very small. Therefore, in other words, if the apparent shape over the rotation angle of the overlapping area appears as a shape as shown in FIG. 7B, the pixel point is a pixel point near the tip of the finger. It can be judged.

条件としては、扇の中心角θが指先の先鋭度と略一致している必要がある。扇の中心角θが指先の先鋭度よりも小さい場合には、重なり面積が扇の面積となる角度範囲がある程度生じてしまうし、一方、扇の中心角θが指先の先鋭度よりも大きい場合には、重なり面積が扇の面積に達することがなくなってしまう。また、図6の場合において、例えば扇の中心角θを180度としてしまうと、重なり面積の回転角度に渡った見かけ形状は、頂点を有する大きな三角形(全角度に渡って重なり面積を生じる)となってしまう。   As a condition, it is necessary that the central angle θ of the fan substantially matches the sharpness of the fingertip. When the fan central angle θ is smaller than the fingertip sharpness, there will be some angle range where the overlapping area becomes the fan area, while the fan central angle θ is larger than the fingertip sharpness In this case, the overlapping area does not reach the fan area. In the case of FIG. 6, for example, if the center angle θ of the fan is set to 180 degrees, the apparent shape over the rotation angle of the overlapping area is a large triangle having a vertex (the overlapping area is generated over all angles). turn into.

以上から、総じて、判定基準としては、扇の中心角θが指先の先鋭度と略一致しているという前提条件の下で、「重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下である」という基準を採用すればよいことになる。その場合には、重なり面積が示す見かけ形状の面積も所定値以下となる。そこで、上記閾値を適切に設定し、当該基準に基づいて判定すると、指先近傍の画素として例えば図8に示すような画素点が抽出できる。なお、図8においては、抽出画素点を模式的に境界線上に配置しているが、実際は、各画素点は二次元格子上の点であるので、境界近傍の格子上の画素点が得られることとなる。なお、以上から、扇の中心角θとしては、標準の人の指先の先鋭度を採用するのが好適である。   From the above, as a whole, as a criterion for judgment, under the precondition that the central angle θ of the fan substantially matches the sharpness of the fingertip, “the angle range where the overlapping area substantially matches the fan area is a predetermined threshold value. It is only necessary to adopt the standard of “being below”. In that case, the area of the apparent shape indicated by the overlapping area is also a predetermined value or less. Therefore, when the threshold value is set appropriately and determined based on the reference, pixel points as shown in FIG. 8 can be extracted as pixels near the fingertip. In FIG. 8, the extracted pixel points are schematically arranged on the boundary line. However, since each pixel point is actually a point on the two-dimensional lattice, pixel points on the lattice near the boundary are obtained. It will be. From the above, it is preferable to adopt the sharpness of a standard human fingertip as the central angle θ of the fan.

なお、上述のステップS13で説明した指先検出フィルタFFの扇は理論上のものであり、実際にハードウェア回路で構成する場合には、画像精細度に応じた離散的データとして処理する構成とする必要がある。図9はその例を示す図である。ここで、前述のように、扇の中心角θは指先の先鋭度と一致していることが最適であるため、標準の指先の先鋭度を念頭に、予め最適な角度に設定してやればよい。なお、図9では図示の便宜上90度となっている。また、扇の半径r(図3(a)参照)は、使用者による想定される使用状況において、撮像される使用者の指の大きさが何画素分に相当するか、という観点で決定すればよい。つまり、画像の精細度と、カメラから指までの距離が決まれば、画素データ上で指がどの程度を占めるかが決まる。図9(a)〜(c)においては、扇を45度ずつ回転させた場合のそれぞれの扇の離散的形状を示している。この場合、扇の回転を考慮すると、指先検出フィルタFFは、15×15画素で構成できる。また、扇を何度単位で回転させて処理を行うかも(なお、以下、この角度単位を「送り角度」と称す)、扇の占める画像の精細度による。扇に対して画像が精細であればあるほど、この送り角度も精細にすることができる。なお、扇の形状に対応した画素の数は、扇の回転位置に拘わらず一定であることが好ましい。角度(例えば、0度、15度、30度、45度、・・・)に応じて、予め決定してやればよい。図9に示した場合は33画素である。   Note that the fan of the fingertip detection filter FF described in step S13 described above is theoretical, and when actually configured with a hardware circuit, it is configured to process as discrete data according to image definition. There is a need. FIG. 9 is a diagram showing an example thereof. Here, as described above, it is optimal that the central angle θ of the fan coincides with the sharpness of the fingertip. Therefore, the optimum angle may be set in advance with the sharpness of the standard fingertip in mind. In FIG. 9, it is 90 degrees for convenience of illustration. Further, the radius r of the fan (see FIG. 3A) is determined in terms of how many pixels the size of the user's finger to be imaged corresponds to in the usage situation assumed by the user. That's fine. That is, if the definition of the image and the distance from the camera to the finger are determined, how much the finger occupies on the pixel data is determined. 9A to 9C show the discrete shapes of the fans when the fans are rotated by 45 degrees. In this case, considering the rotation of the fan, the fingertip detection filter FF can be composed of 15 × 15 pixels. In addition, the process may be performed by rotating the fan in units (hereinafter, this angle unit is referred to as “feed angle”), depending on the definition of the image occupied by the fan. The finer the image relative to the fan, the finer the feed angle. Note that the number of pixels corresponding to the shape of the fan is preferably constant regardless of the rotational position of the fan. What is necessary is just to determine beforehand according to an angle (for example, 0 degree, 15 degrees, 30 degrees, 45 degrees, ...). In the case shown in FIG. 9, there are 33 pixels.

図10は、送り角度が15度で、扇の画素数が33の場合の、扇の回転角度に対する重なり画素数の関係の例を示す図である。ここで、図10(a)は、図6に対応するものである。また、図10(b)は、図7に対応するものであり、同図のように重なり画素数が検出された場合に、前述の閾値の観点から、指先近傍の画素が判定できることになる。なお、扇の回転中心(処理対象の画素)が指画像に含まれる端の画素であれば、全角度に渡って1画素分の重なり画素が表れるということは、当業者であれば容易に理解できるであろう。   FIG. 10 is a diagram illustrating an example of the relationship between the number of overlapping pixels and the rotation angle of the fan when the feed angle is 15 degrees and the number of pixels of the fan is 33. Here, FIG. 10A corresponds to FIG. FIG. 10B corresponds to FIG. 7, and when the number of overlapping pixels is detected as shown in FIG. 10, pixels near the fingertip can be determined from the viewpoint of the above threshold. A person skilled in the art can easily understand that if the rotation center of the fan (the pixel to be processed) is an edge pixel included in the finger image, an overlap pixel of one pixel appears over all angles. It will be possible.

なお、指先近傍データ抽出処理部15におけるフレームバッファ13からの2値化データの読出しに関し、上述のように、15×15画素の指先検出フィルタFFであれば、好適には、15ライン単位で読出し、その15ラインごとに、15×15画素の指先検出フィルタFFをライン方向に順次シフトしつつ処理すればよい。   Regarding the reading of the binarized data from the frame buffer 13 in the fingertip vicinity data extraction processing unit 15, if it is a fingertip detection filter FF of 15 × 15 pixels as described above, it is preferably read in units of 15 lines. For each 15 lines, the fingertip detection filter FF of 15 × 15 pixels may be processed while being sequentially shifted in the line direction.

上述のステップS13で得られた、指先近傍として抽出された画素点は、使用者(ユーザー)の提示態様に応じて、1本の指だけについての画素点である場合もあるし、図8に示すように複数本の指についての画素点である場合もある。従って、次の処理として、各指分別処理部16が、ステップS13で得られた指先近傍の複数の画素点について、それぞれを各指ごとのデータとして分別する(ステップS14)。この処理は、指の本数を認識することと等価である。但し、図8のような典型的な各指関係の場合には分別も容易であるが、使用者が顕示する各指の形態によっては、各指が接近し、各指のデータを分別することが容易ではないこともあり得る。そこで、図11に示すような観点で、指先近傍として抽出された各画素を精査すれば、それらを各指ごとに分別できることになる。具体的には、図11は、1本の指において、境界近傍の画素についてフィルタ処理を施した場合の扇の回転角度と重なり面積の関係を示す図であり、同図においては、代表的な5点を示している。同図に示すように、1本の指のみに関しては以下の関係が見いだせる。すなわち、まず、指の先端の境界においては、前述のように、重なり面積の回転角度に渡った見かけ形状は、狭い角度範囲でピークを有する小面積形状であるのに対して、画素点が、左右それぞれ指の側面方向にいくに従って、ピークとなる角度範囲が徐々に広がると共に、当該角度範囲の中心値が徐々に右方向又は左方向にシフトしていく。故に、1本の指のデータであれば、ある境界画素についての重なり面積の回転角度に渡った見かけ形状と、他の境界画素についての重なり面積の回転角度に渡った見かけ形状との関係は、両者の画素間の距離に応じて決まることとなる。かかる観点から、ある2つの境界近傍画素が同一の指のデータであるか否かは、両者が、両者の距離に対応した、ピークとなる角度範囲が所定の差異を有しているか、かつ、角度範囲の中心値が所定の差異を有しているか、により判別できることになる。図12は、そのようにして分別した指[1]データ及び指[2]データを示している。   The pixel point extracted as the vicinity of the fingertip obtained in step S13 described above may be a pixel point for only one finger depending on the presentation mode of the user (user), and FIG. As shown, there may be pixel points for multiple fingers. Accordingly, as the next process, each finger classification processing unit 16 classifies each of the plurality of pixel points near the fingertip obtained in step S13 as data for each finger (step S14). This process is equivalent to recognizing the number of fingers. However, in the case of typical finger relationships as shown in FIG. 8, separation is easy, but depending on the form of each finger revealed by the user, each finger approaches and separates the data of each finger. May not be easy. Thus, from the viewpoint as shown in FIG. 11, if each pixel extracted as the vicinity of the fingertip is scrutinized, it can be classified for each finger. Specifically, FIG. 11 is a diagram showing the relationship between the rotation angle of the fan and the overlapping area when a filter process is performed on pixels near the boundary in one finger. Five points are shown. As shown in the figure, the following relationship can be found for only one finger. That is, first, at the boundary of the tip of the finger, as described above, the apparent shape over the rotation angle of the overlapping area is a small area shape having a peak in a narrow angle range, whereas the pixel point is As the lateral direction of each finger increases, the peak angular range gradually increases and the center value of the angular range gradually shifts to the right or left. Therefore, in the case of data of one finger, the relationship between the apparent shape over the rotation angle of the overlapping area for a certain boundary pixel and the apparent shape over the rotation angle of the overlapping area for other boundary pixels is: It depends on the distance between the two pixels. From such a viewpoint, whether or not two neighboring pixels are the same finger data is based on whether or not both have a predetermined difference in the peak angle range corresponding to the distance between the two, and It can be determined whether the central value of the angle range has a predetermined difference. FIG. 12 shows the finger [1] data and the finger [2] data thus sorted.

図2に戻って、次に、ステップS14のように分別された各指について、各指方向算出部17が、各指の先端と各指の方向を求める(ステップS15)。指の先端については、最も簡易には、当該指の各指先近傍データのうちの、重なり面積が扇面積に等しい、すなわち重なり面積が最大の角度範囲が最も狭い画素の位置を採用してもよい。あるいは、当該指の各指先近傍の画素のうちのいくつかの画素の位置から補間により求めてもよい。また、指の方向については、最も簡易には、当該指の各指先近傍データのうちの、重なり面積が扇面積に等しい、すなわち重なり面積が最大の角度範囲が最も狭いデータについて、その角度範囲の中心値を指方向の角度として採用すればよい。但し、それは理論上の話であって、実際には、指の形状も均一ではなく歪があり、かつ、離散的データを扱っているので、図13に示すように、複数の指先近傍データの各々の上記角度範囲の中心値角度の方向のベクトル和をとるようにすれは、ばらつきを吸収できることとなる。   Returning to FIG. 2, next, for each finger sorted as in step S14, each finger direction calculation unit 17 obtains the tip of each finger and the direction of each finger (step S15). As for the tip of the finger, in the simplest case, the position of the pixel having the narrowest angular range in which the overlapping area is equal to the fan area, that is, the overlapping area is the smallest, among the data near each fingertip of the finger may be adopted. . Or you may obtain | require by interpolation from the position of several pixels among the pixels of each fingertip vicinity of the said finger | toe. As for the direction of the finger, the simplest is that of the data near each fingertip of the finger, the overlapping area is equal to the fan area, i.e., the data having the narrowest angular range with the largest overlapping area, The center value may be adopted as the angle in the finger direction. However, it is a theoretical story. Actually, the finger shape is not uniform and distorted, and discrete data is handled. Therefore, as shown in FIG. If the vector sum in the direction of the central value angle of each of the above angle ranges is taken, variations can be absorbed.

図2に戻り、最後に、全ての指について、指の先端と指の方向が求められたか否かを判定し(ステップS16)、未処理の場合は、ステップS15に戻って引き続き処理を続行し、全ての指について処理が終了した場合は、全処理を終了する。   Returning to FIG. 2, finally, for all the fingers, it is determined whether or not the finger tips and finger directions have been obtained (step S16). If unprocessed, the process returns to step S15 to continue processing. When the process is completed for all fingers, the entire process is terminated.

以上のように、上述の一実施形態によれば、情報機器に付帯のCMOSカメラによりその情報機器の使用者の少なくとも手の部分を撮像することにより、指を含む手の部分の形態による使用者の制御意図を情報機器が判別する際に、情報機器が適切に、1本以上の指の先端部の位置と各指の方向を容易に正確に検出できる。   As described above, according to the above-described embodiment, the user in the form of the hand portion including the finger is obtained by imaging at least the hand portion of the user of the information device using the CMOS camera attached to the information device. When the information device determines the control intention, the information device can appropriately and accurately detect the position of the tip of one or more fingers and the direction of each finger.

なお、上述の実施形態にあっては、UIモジュール1は、外部CPUに対して、1本以上の指の先端部の位置と各指の方向の情報を供給しているが、各指の方向までは求めることなく、また、指の先端部の位置を特定の位置として求めることなく、各指分別処理部16の出力情報である、各指に分別された複数の指先近傍データを供給して、各指の先端部の位置と各指の方向の算出については、外部CPUに任せてもよい。また、更に、各指を分別することなく、指先近傍データ抽出処理部15からの情報を外部CPUに直接供給するようにしてもよい。   In the above-described embodiment, the UI module 1 supplies information on the position of the tip of one or more fingers and the direction of each finger to the external CPU. Without providing the above, and without obtaining the position of the tip of the finger as a specific position, the output information of each finger classification processing unit 16 is supplied with a plurality of fingertip neighborhood data sorted for each finger The calculation of the position of the tip of each finger and the direction of each finger may be left to an external CPU. Furthermore, the information from the fingertip vicinity data extraction processing unit 15 may be directly supplied to the external CPU without separating each finger.

本発明の指先検出方法及び指先検出ユーザーインターフェースモジュールは、情報端末、携帯端末などの非接触操作や、テレビ、空調機などのリモートコントロール操作に利用されたり、ゲーム機、パチンコ機などの遊技機に採用される。   The fingertip detection method and fingertip detection user interface module of the present invention are used for non-contact operations such as information terminals and portable terminals, remote control operations such as televisions and air conditioners, and for game machines such as game machines and pachinko machines. Adopted.

1 ユーザーインターフェースモジュール
11 メモリインターフェース
12 カメラインターフェース
13 フレームバッファ
14 肌色抽出/2値化処理部
15 指先近傍データ抽出処理部
16 各指分別処理部
17 各指方向算出部
18 外部インターフェース
DESCRIPTION OF SYMBOLS 1 User interface module 11 Memory interface 12 Camera interface 13 Frame buffer 14 Skin color extraction / binarization process part 15 Fingertip vicinity data extraction process part 16 Each finger classification process part 17 Each finger direction calculation part 18 External interface

Claims (9)

情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器が、撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する指先検出方法であって、
前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、
前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出することを特徴とする指先検出方法。
When the user of the information device forms at least one finger in a specific form and presents it to the information device in order to give specific control information to the information device, the information device uses the imaging means to A fingertip detection method for detecting a fingertip of the user based on image information obtained by imaging a specific form,
Using a fan having a central angle corresponding to the sharpness of the fingertip as a filter, the flesh-colored portion of the image information while rotating the fan with the center of the circle including the fan corresponding to each pixel of the image information The process of obtaining the change in the overlapping area between the fan and the fan is performed for all the pixels by shifting the filter to each pixel,
A fingertip detection method, wherein a pixel point obtained by setting an angle range in which the overlapping area substantially coincides with the fan area is equal to or less than a predetermined threshold is detected as a pixel in the vicinity of the fingertip.
検出された指先近傍の複数の画素点を、各指ごとの画素点として分別することを特徴とする請求項1に記載の指先検出方法。   The fingertip detection method according to claim 1, wherein a plurality of detected pixel points in the vicinity of the fingertip are classified as pixel points for each finger. 2つの境界近傍画素が同一の指のデータであるか否かは、両者が、両者の距離に対応した、ピークとなる角度範囲が所定の差異を有しているか、かつ、角度範囲の中心値が所定の差異を有しているか、により判別することを特徴とする請求項2に記載の指先検出方法。   Whether or not the two pixels near the boundary are data of the same finger is based on whether or not the peak angle range corresponding to the distance between the two has a predetermined difference and the center value of the angle range The fingertip detection method according to claim 2, wherein it is determined based on whether or not has a predetermined difference. 各指について、指の先端の位置を、当該指先近傍の画素のうちの所定数の画素の位置から補間により求めることを特徴とする請求項3に記載の指先検出方法。   4. The fingertip detection method according to claim 3, wherein, for each finger, the position of the tip of the finger is obtained by interpolation from the positions of a predetermined number of pixels in the vicinity of the fingertip. 各指について、指の方向を、当該指先近傍の複数の画素についての前記角度範囲の中心値角度の方向のベクトル和をとることにより求めることを特徴とする請求項3に記載の指先検出方法。   The fingertip detection method according to claim 3, wherein the finger direction is obtained for each finger by taking a vector sum of the direction of the central value angle of the angle range for a plurality of pixels near the fingertip. 前記扇の半径は、前記指から前記撮像手段までの距離に応じて決定されることを特徴とする請求項1に記載の指先検出方法。   The fingertip detection method according to claim 1, wherein the radius of the fan is determined according to a distance from the finger to the imaging unit. 前記扇を所定送り角度ごとに回転させつつ、前記画像情報の肌色部分と前記扇との重なり面積を求めることを特徴とする請求項1に記載の指先検出方法。   The fingertip detection method according to claim 1, wherein an overlapping area between a flesh-colored portion of the image information and the fan is obtained while rotating the fan for each predetermined feed angle. 前記所定送り角度は、前記扇の半径に対する前記画像情報を精細度に応じて決定することを特徴とする請求項1に記載の指先検出方法。   The fingertip detection method according to claim 1, wherein the predetermined feed angle is determined according to a definition of the image information with respect to the radius of the fan. 情報機器の使用者がその情報機器に対して特定の制御情報を与えるべく少なくとも1本の指を特定の形態に形成して前記情報機器に提示したときに、前記情報機器に備えられた撮像手段により前記特定の形態を撮像して得られた画像情報に基づき、前記使用者の指先を検出する、前記情報機器に含まれる指先検出ユーザーインターフェースモジュールであって、
前記指先の先鋭度に対応した中心角を有する扇をフィルタとして、その扇を含む円の中心を前記画像情報の各画素に対応させた状態で、前記扇を回転させつつ前記画像情報の肌色部分と前記扇との重なり面積の変化を求める処理を、前記フィルタを各画素に推移させて全画素について行い、前記重なり面積が扇の面積と略一致する角度範囲が所定の閾値以下として得られる画素点を指先近傍の画素として検出する指先近傍データ抽出処理部を備えたことを特徴とする指先検出ユーザーインターフェースモジュール。
An imaging device provided in the information device when a user of the information device forms and presents at least one finger in a specific form to give specific control information to the information device. A fingertip detection user interface module included in the information device for detecting the fingertip of the user based on image information obtained by imaging the specific form according to
Using a fan having a central angle corresponding to the sharpness of the fingertip as a filter, the flesh-colored portion of the image information while rotating the fan with the center of the circle including the fan corresponding to each pixel of the image information The process of obtaining the change in the overlap area between the fan and the fan is performed for all the pixels by moving the filter to each pixel, and the angle range in which the overlap area substantially coincides with the fan area is obtained as a predetermined threshold value or less. A fingertip detection user interface module comprising a fingertip vicinity data extraction processing unit for detecting a point as a pixel near the fingertip.
JP2013025018A 2013-02-12 2013-02-12 Fingertip detection method and fingertip detection user interface module Active JP5360631B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013025018A JP5360631B1 (en) 2013-02-12 2013-02-12 Fingertip detection method and fingertip detection user interface module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013025018A JP5360631B1 (en) 2013-02-12 2013-02-12 Fingertip detection method and fingertip detection user interface module

Publications (2)

Publication Number Publication Date
JP5360631B1 JP5360631B1 (en) 2013-12-04
JP2014154049A true JP2014154049A (en) 2014-08-25

Family

ID=49850305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013025018A Active JP5360631B1 (en) 2013-02-12 2013-02-12 Fingertip detection method and fingertip detection user interface module

Country Status (1)

Country Link
JP (1) JP5360631B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143077A (en) * 2015-01-29 2016-08-08 富士通株式会社 Fingertip position estimation device, fingertip position estimation method and program
JP2018025973A (en) * 2016-08-10 2018-02-15 株式会社東海理化電機製作所 Image processing device and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020073245A1 (en) * 2018-10-10 2020-04-16 深圳市道通智能航空技术有限公司 Gesture recognition method, vr angle of view control method and vr system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143077A (en) * 2015-01-29 2016-08-08 富士通株式会社 Fingertip position estimation device, fingertip position estimation method and program
JP2018025973A (en) * 2016-08-10 2018-02-15 株式会社東海理化電機製作所 Image processing device and image processing method

Also Published As

Publication number Publication date
JP5360631B1 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
KR101514169B1 (en) Information processing device, information processing method, and recording medium
JP6155786B2 (en) Gesture recognition device, gesture recognition method, electronic device, control program, and recording medium
US9329673B2 (en) Information processing device, information processing method, and recording medium
US8768006B2 (en) Hand gesture recognition
US8934673B2 (en) Image processing method and apparatus for detecting target
Gomes et al. Efficient 3D object recognition using foveated point clouds
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
CN104583902A (en) Improved identification of a gesture
US9082000B2 (en) Image processing device and image processing method
US9218060B2 (en) Virtual mouse driving apparatus and virtual mouse simulation method
WO2012177333A2 (en) Facilitating image capture and image review by visually impaired users
US20140015950A1 (en) Touch detection apparatus, touch detection method and recording medium
JP5845969B2 (en) Information processing apparatus, information processing method, and program
JP5360631B1 (en) Fingertip detection method and fingertip detection user interface module
US20160093055A1 (en) Information processing apparatus, method for controlling same, and storage medium
JPWO2016006090A1 (en) Electronic device, method and program
JP6038700B2 (en) Shaping device
EP2916261A2 (en) Detecting device and detecting method
CN106156774B (en) Image processing method and image processing system
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
US20150103205A1 (en) Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor
Friedman et al. Icon scanning: Towards next generation QR codes
JP2016042383A (en) User operation processing apparatus, user operation processing method, and program
JP6312488B2 (en) Image processing apparatus, image processing method, and program
US20230061557A1 (en) Electronic device and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 5360631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250