JP2003346162A - Input system by image recognition of hand - Google Patents
Input system by image recognition of handInfo
- Publication number
- JP2003346162A JP2003346162A JP2002154145A JP2002154145A JP2003346162A JP 2003346162 A JP2003346162 A JP 2003346162A JP 2002154145 A JP2002154145 A JP 2002154145A JP 2002154145 A JP2002154145 A JP 2002154145A JP 2003346162 A JP2003346162 A JP 2003346162A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- finger
- region
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータ入力
のヒューマン・インターフェースに関し、特に掌の画像
から立っている指を識別することにより入力することが
できるシステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a human interface for computer input, and more particularly to a system which can be input by identifying a standing finger from an image of a palm.
【0002】[0002]
【技術的背景】近年、コンピュータ等の発達によって、
人間の周りの機械類をより利用しやすく、より役に立つ
ものにすることが可能になった。バーチャルリアリテ
ィ、マルチメディア、ヒューマン・インターフェースな
どの発明はこの動きの代表的なものである。その中のヒ
ューマン・インターフェースは、人間と機械の間の情報
のやりとりを如何にして効率良く、理解しやすい形で行
えるかを目的とする発明であり、人とコンピュータとの
間で人にやさしい対話を目的とする上で、人間の動作や
姿勢を機械に理解させることが非常に重要な課題であ
る。例えば、仮想世界の構築を行うためには人体全体に
対する姿勢推定が必要であるし、機械の遠隔操作を想定
するなら、手指の姿勢推定が重要となる。また、各種の
設備や機器にカメラを設置して利用者の行動を数値化で
きれば、ヒューマン・インターフェースの一助となる。
動作認識の中でも、人体の一部である手の形状を入力手
段とする方法は、各種機器とのインターフェースが自然
な形で実現することにつながり、非常に重要な意味を持
っている。しかも、手は人の体の中でもっとも器用な部
分で、その形状や動作による表現が非常に豊富である。
従って、人間像の合成や人の動作の認識の中で手は極め
て重要な部分である。[Technical background] In recent years, with the development of computers, etc.,
It has made it possible to make the machinery around humans more accessible and more useful. Inventions such as virtual reality, multimedia and human interface are representative of this movement. The human interface is an invention aiming at how information can be exchanged between humans and machines in an efficient and easy-to-understand form, and a human-friendly dialogue between humans and computers In order to achieve this, it is very important to make machines understand human movements and postures. For example, in order to construct a virtual world, posture estimation for the entire human body is necessary. If remote operation of a machine is assumed, posture estimation of fingers is important. In addition, if cameras can be installed in various facilities and devices and the behavior of the user can be quantified, it will help human interface.
Among the motion recognition methods, the method of using the shape of a hand that is a part of the human body as an input means leads to realizing an interface with various devices in a natural form, and has a very important meaning. In addition, the hands are the most dexterous parts of the human body, and their shapes and movements are very abundant.
Therefore, the hand is an extremely important part in synthesizing a human image and recognizing human motion.
【0003】手形状を利用する手法としては、データグ
ローブ等の物理型センサやマーカを用いる接触型の手法
と画像情報から認識をおこなう非接触型の手法がある。
センサーやマーカを用いる接触型の手法は数多く提案さ
れているが、入力画像の特徴点を抽出する際の安定性が
高く処理が速い反面、被観測者にとって物理的なセンサ
の装着に伴う煩わしさがあり、より自然なシステムを構
築するためには問題がある。それに対し、センサやマー
カを用いず画像情報から認識を行う方法も数多く提案さ
れている。画像情報より認識を行う手法には、入力画像
から指などのエッジ成分や輪郭線といった特徴を抽出
し、得られた成分と学習済みの3次元モデルをマッチン
グさせることで形状推定を行う方法がある。しかし、こ
れらの手法は、マッチングの際の計算量が多く処理時間
に問題があり、手を入力手段とする実時間上で動作する
システムを構築するには無理がある。実時間で手の重心
の位置や手の方向、指の本数の認識は行えるものもある
が、これらは手の形状から得られる基本的な情報のみを
認識しており、実際にどの指が伸びているのかを認識す
ることができない。実時間で指を認識することができる
システムもあるが、複数台のカメラを用いて特徴を抽出
し認識を行っており、手をコンピュータの入力装置とす
る自然なマンマシン・ヒューマン・インタフェースを構
築するには無理がある。しかし、ユーザにとって自然で
使いやすいヒューマン・インターフェースを構築するた
めには、物理センサを用いず、被観測者に負担を与えな
い画像情報を利用する手法の方が有用である。[0003] As a technique using the hand shape, there are a contact technique using a physical sensor such as a data glove and a marker, and a non-contact technique which performs recognition from image information.
Many contact-type methods using sensors and markers have been proposed, but the stability and high-speed processing when extracting feature points of the input image are high, but the annoyance of the observer with the physical sensor mounting is high. There is a problem in building a more natural system. On the other hand, many methods have been proposed for performing recognition from image information without using sensors or markers. As a method of performing recognition based on image information, there is a method of extracting a feature such as an edge component such as a finger or a contour from an input image, and performing shape estimation by matching the obtained component with a learned three-dimensional model. . However, these methods require a large amount of calculation at the time of matching and have a problem in processing time, and it is impossible to construct a system that operates in real time using hands as input means. In some cases, the position of the center of gravity of the hand, the direction of the hand, and the number of fingers can be recognized in real time.However, these recognize only basic information obtained from the shape of the hand, I can't tell if it is. There are systems that can recognize fingers in real time, but features are extracted and recognized using multiple cameras, creating a natural man-machine-human interface that uses hands as input devices for computers. There is no way to do it. However, in order to construct a human interface that is natural and easy for the user to use, a method that uses image information that does not use a physical sensor and does not impose a burden on the subject is more useful.
【0004】[0004]
【発明が解決しようとする課題】本発明の目的は、セン
サやマーカを用いず、手の形状の画像情報から、5本の
指のうちどの指が立っているかの認識を行うことによ
り、コンピュータ等に入力できるシステムを提供するこ
とである。SUMMARY OF THE INVENTION It is an object of the present invention to provide a computer by recognizing which one of five fingers stands from image information of a hand without using a sensor or a marker. And the like to provide a system capable of inputting the information.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明は手の画像認識による入力システムであっ
て、手の画像を入力する画像入力手段と、該画像入力手
段からの手の画像から、手領域部分を塗りつぶした手領
域抽出画像を得る手領域抽出手段と、該手領域抽出画像
から、手領域細線画像を得る手領域細線画像生成手段
と、前記手領域抽出画像と手領域細線画像とから、立っ
ている指を認識して手の形状を特定する手形状認識手段
とを備え、どの指が立っているかで片手で32通りの形
状を特定することを特徴とする。前記手領域抽出手段
は、前記手の画像から肌色部分を抽出して、肌色部分に
平滑化処理を行い、平滑化処理後の前記肌色部分の輪郭
線を追跡して輪郭線の長さが最大である座標系列の抽出
を行い、抽出した輪郭線に平滑化処理を行った後、該輪
郭線の内部を塗りつぶして手領域抽出画像を得ることが
できる。さらに、前記輪郭線から、指の数を認識する指
数認識手段を備え、該指数認識手段により、指の数が2
〜4のいずれかであると認識したときに、前記手形状認
識手段で手形状の特定を行い、指の数が0又は5である
と認識したときは、前記手形状認識手段による処理を行
わないようにすることもできる。手形状認識手段は、前
記手領域細線画像から手の方向ベクトルを求め、求めた
該手の方向ベクトルに対して垂直に前記手領域抽出画像
を走査して、手のラン長を求め、該ラン長により指領域
を抽出し、抽出した該指領域を用いて、前記手領域細線
画像から指の部分を抽出することで手の形状を認識する
こともできる。手形状認識手段は、前記手の形状の認識
を行うパラメータを正規化して評価するとよい。上述に
記載した機能を有する入力システムをコンピュータ・シ
ステムに構成させるプログラムやプログラムを格納した
記録媒体も本発明である。In order to achieve the above object, the present invention relates to an input system for recognizing a hand image, comprising: an image input means for inputting an image of a hand; Hand region extracting means for obtaining a hand region extracted image in which a hand region portion is filled from an image, hand region fine line image generating means for obtaining a hand region thin line image from the hand region extracted image, the hand region extracted image and the hand region A hand shape recognizing means for recognizing a standing finger from a fine line image and specifying a hand shape is provided, and 32 shapes are specified with one hand depending on which finger is standing. The hand region extracting means extracts a skin color portion from the image of the hand, performs a smoothing process on the skin color portion, tracks an outline of the skin color portion after the smoothing process, and has a maximum length of the outline. After a coordinate series is extracted and a smoothing process is performed on the extracted contour line, the inside of the contour line is painted out to obtain a hand region extracted image. Further, an index recognizing means for recognizing the number of fingers from the contour line is provided.
When the number of fingers is 0 or 5, the hand shape recognizing unit performs the process by the hand shape recognizing unit. It can also be excluded. The hand shape recognition means obtains a hand direction vector from the hand area thin line image, scans the hand area extracted image perpendicular to the obtained hand direction vector, obtains a hand run length, It is also possible to recognize a hand shape by extracting a finger region based on the length and extracting a finger portion from the hand region thin line image using the extracted finger region. The hand shape recognizing means may normalize and evaluate parameters for recognizing the hand shape. The present invention also includes a program for causing a computer system to configure the input system having the functions described above and a recording medium storing the program.
【0006】[0006]
【発明の実施の形態】本発明の実施形態を、図面を参照
して詳細に説明する。図1は、本発明の実施形態におけ
るシステム構成例を示す。手の画像認識による入力シス
テム100は、CPU,ハードディスク等を内蔵するコ
ンピュータ本体110,CRT等の表示装置120,キ
ーボード112,マウス等のポインティング・デバイス
114等で構成される通常のコンピュータ・システムに
カメラ等の画像入力装置130を接続したものである。
画像入力装置130から、手の画像をコンピュータ・シ
ステム内に取り込み、画像処理を行うことができる。ま
た、図2は、このシステムで実行される手形状の認識処
理を示すフローチャートである。以下に、このフローチ
ャートを用いて、手形状の認識処理を説明する。まず、
1台のカメラ130により、システム内に手形状の画像
を取得する(S202)。以下に説明するこの実施形態
では、取得した入力画像に対して、以下のような制約条
件がある。
1.入力画像はRGB表色系で表されるカラー画像であ
る。
2.肌色領域を抽出して手領域とするため、画像中にお
いて手が最大の肌色領域であり、手領域と他の肌色物体
は重ならないようにする。
3.カメラのレンズに対してなるべく掌を平行に向ける
ようにし、カメラのレンズに掌が向いているのか手の甲
が向いているのかが分かっている。
4.手となる領域がすべて肌で表され、手首より先の領
域は画像枠とは交わらない。
5.指同士は重なり合わないようにする。
6.指は伸ばしているか伸ばしていないかのいずれかの
状態にあるとする。Embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an example of a system configuration according to an embodiment of the present invention. The input system 100 based on hand image recognition includes a computer body 110 having a built-in CPU and a hard disk, a display device 120 such as a CRT, a keyboard 112, a pointing device 114 such as a mouse, and the like. Etc. are connected to the image input device 130.
From the image input device 130, an image of a hand can be captured into a computer system and image processing can be performed. FIG. 2 is a flowchart showing a hand shape recognition process performed by this system. The hand shape recognition process will be described below with reference to this flowchart. First,
An image of a hand shape is acquired in the system by one camera 130 (S202). In this embodiment described below, there are the following constraints on the acquired input image. 1. The input image is a color image represented by the RGB color system. 2. In order to extract a flesh-color area to be a hand area, the hand is the largest flesh-color area in the image, and the hand area and other flesh-colored objects are prevented from overlapping. 3. Orient the palm as parallel to the camera lens as possible, and know whether the palm or the back of the hand is facing the camera lens. 4. All the regions that become hands are represented by the skin, and the region beyond the wrist does not intersect the image frame. 5. Make sure your fingers do not overlap. 6. It is assumed that the finger is in a stretched or unstretched state.
【0007】これらの制約条件を満たし、かつ人間が指
を用いて表現できる手形状は32種類ある。本発明はこ
の32種類全ての形状に対してどの指が伸びているかを
認識する。32種類の手形状の詳細を図3,図4(背景
は黒に統一してある)に示す。図3,図4では、各手形
状に対して、指の位置を2進数の位とし、指が立ってい
る状態を1、畳んでいる状態を0としたときの2進数
(括弧の中は10進数)も示している。図3に示すよう
に、手形状の32種類の状態と指による2進数とは1対
1の関係にある。従って、図3に示す手形状を認識でき
ると、それに対応する2進数(10進数)も入力できる
ことになる。There are 32 types of hand shapes that satisfy these constraints and can be expressed by a human using a finger. The present invention recognizes which finger is extending for all 32 types of shapes. Details of the 32 hand shapes are shown in FIGS. 3 and 4 (the background is unified in black). In FIG. 3 and FIG. 4, for each hand shape, the position of the finger is represented by a binary number, the state where the finger is standing is 1 and the state where the finger is folded is 0 (the number in parentheses is shown in parentheses). (Decimal number) is also shown. As shown in FIG. 3, there is a one-to-one relationship between 32 kinds of hand-shaped states and binary numbers by fingers. Therefore, if the hand shape shown in FIG. 3 can be recognized, the corresponding binary number (decimal number) can be input.
【0008】入力した入力画像の例を図5に示す。図5
に示すように、実際の入力画像には、背景等、手の認識
に無関係のものが映っている。次に、図5に示した入力
した画像から、手領域を抽出するための画像を生成する
(S204)。この認識用の画像の生成を行う処理例の
フローチャートを図6に示す。図6に示すように、手領
域抽出画像の生成は、例えば以下の手順で行う。
1.RGB表色系で表される入力画像を、RBG表色系
に対して光の影響が受けにくいHSV表色系に変換する
(S304)。
2.HSV表色系画像において肌色成分を抽出し(S3
06)、肌色成分とその他の成分に2値化し、2値画像
を生成する(S308)。
3.得られた2値画像において面積が最大である領域を
抽出し(S310)、平滑化処理として拡散・収縮を行
った(S322)ものを手領域候補とする。FIG. 5 shows an example of an input image. FIG.
As shown in (1), an actual input image includes a background and the like that are not related to hand recognition. Next, an image for extracting a hand region is generated from the input image shown in FIG. 5 (S204). FIG. 6 shows a flowchart of an example of processing for generating an image for recognition. As shown in FIG. 6, the generation of the hand region extracted image is performed, for example, in the following procedure. 1. The input image represented by the RGB color system is converted into the HSV color system that is less affected by light than the RGB color system (S304). 2. A skin color component is extracted from the HSV color system image (S3
06), the image is binarized into a skin color component and other components to generate a binary image (S308). 3. In the obtained binary image, a region having the largest area is extracted (S310), and a region subjected to diffusion / shrinkage as a smoothing process (S322) is set as a hand region candidate.
【0009】上の手順で得られた画像は、撮影環境など
によっては情報の欠落やノイズを含んでいる場合があ
り、後の細線化処理において不都合が生じる場合があ
る。そこで手領域候補の輪郭線に対しても平滑化を行
う。輪郭線の平滑化は以下の手順で行う。
1.手領域候補の輪郭線を抽出し、輪郭線の最大のもの
を手領域候補の輪郭線とする(S324)。
2.得られた手領域候補の輪郭線を線分近似パラメータ
εで多角形近似し、多角形近似された領域に対して塗り
つぶし処理を行う(S326)。ここで線分近似パラメ
ータεは手領域候補の面積に対して設定される。
3.多角形近似された領域に対して塗りつぶし処理を行
って得られた図形を手領域として決定し、この画像を手
領域抽出画像とする(S328)。
以下に各処理の詳細に付いて述べる。The image obtained by the above procedure may include missing information or noise depending on the shooting environment or the like, and may cause inconvenience in the subsequent thinning processing. Therefore, the contour of the hand region candidate is also smoothed. The contour is smoothed by the following procedure. 1. The contour of the hand region candidate is extracted, and the largest contour line is set as the contour of the hand region candidate (S324). 2. The contour of the obtained hand region candidate is approximated by a polygon using the line segment approximation parameter ε, and the region approximated by the polygon is painted (S326). Here, the line segment approximation parameter ε is set for the area of the hand region candidate. 3. A figure obtained by performing a painting process on the polygon approximated area is determined as a hand area, and this image is used as a hand area extracted image (S328). The details of each process are described below.
【0010】(手領域候補の抽出:S302)まず、画
像中の手領域である場所を抽出するために、本発明の実
施形態では肌色抽出を行う。しかしながら、入力画像で
あるRGB表色系で表されるカラー画像は、色彩情報を
人間が直接推定することが困難となり扱いにくい。した
がって人間が感覚的に取り扱いやすい、明度、彩度、色
度のような属性を持つ表色系に変換することが望まし
い。このような表色系にはHSV表色系やL*a*b*
表色系など様々なものがあるが、HSV表色系が安定し
て肌色抽出が行える。そこで、本発明の実施形態では、
RGB表色系からHSV表色系に変換し、肌色抽出を行
った。(Extraction of Hand Area Candidate: S302) First, in order to extract a location which is a hand area in an image, skin color is extracted in the embodiment of the present invention. However, a color image represented by the RGB color system, which is an input image, is difficult for a person to directly estimate color information, and is thus difficult to handle. Therefore, it is desirable to convert to a color system having attributes such as lightness, saturation, and chromaticity that can be easily handled by human beings. Such a color system includes an HSV color system and L * a * b *.
There are various color systems such as a color system, but the HSV color system can stably extract skin color. Therefore, in the embodiment of the present invention,
The color system was converted from the RGB color system to the HSV color system, and the skin color was extracted.
【0011】(HSV表色系)HSV表色系は、色の種
類を表す色相H(hue)、色の鮮やかさを表す彩度S(s
aturation)、そして明るさの程度を表す明度V(valu
e)の3つの要素からなる。変換方法は、RGB表色系を
非線形変換する。ただし、R,G,B,S,Vの値域は
[0,1]であり、Hは〔0,2π〕の値を持つものと
する。RGB表色系からHSV表色系への変換方法は、
例えば高木・下田監修「画像解析ハンドブック」(東京
大学出版会,pp.485−491,1991年発行)
に記載されている。(HSV Color System) The HSV color system has a hue H (hue) representing the type of color and a saturation S (s) representing the vividness of the color.
aturation), and lightness V (valu) representing the degree of brightness
e) consists of three elements. The conversion method nonlinearly converts the RGB color system. However, the value range of R, G, B, S, and V is [0, 1], and H has a value of [0, 2π]. How to convert from RGB color system to HSV color system
For example, "Image Analysis Handbook" supervised by Takagi and Shimoda (published by The University of Tokyo, pp. 485-491, 1991)
It is described in.
【0012】(手領域の抽出)本発明では、肌色領域の
閾値は
0.11<H<0.22
0.2<S<0.5
のように設定し、この閾値を用いて肌色を抽出する(S
306)。手領域と背景とを分離するために2値化処理
(S308)を行い、手領域の最大面積部を抽出する。
このとき手領域の最大面積部、つまり画素数が1000
より小さいときは画像中に手領域が存在しないとし、処
理を終る。なお、用いている画像は、横320画素・縦
240画素の大きさであるとする。得られた手領域最大
部のシルエット画像に対して、平滑化処理として拡散・
収縮処理(S322)を行ったものを手領域候補とする
(図7参照)。拡散・収縮処理のアルゴリズムは、例え
ば長谷川他「画像処理の基本技法−技術入門編−」(技
術評論社 1986年発行)を用いることができる。(Extraction of Hand Area) In the present invention, the threshold of the skin color area is set as 0.11 <H <0.22 0.2 <S <0.5, and the skin color is extracted using this threshold. Do (S
306). Binarization processing (S308) is performed to separate the hand region from the background, and the maximum area of the hand region is extracted.
At this time, the maximum area of the hand region, that is, the number of pixels is 1000
If it is smaller, it is determined that there is no hand region in the image, and the process is terminated. It is assumed that the image being used has a size of 320 pixels horizontally and 240 pixels vertically. For the obtained silhouette image of the largest part of the hand area, diffusion and
The result of the contraction process (S322) is set as a hand region candidate (see FIG. 7). As the algorithm of the diffusion / shrinkage processing, for example, Hasegawa et al., “Basic Techniques of Image Processing-Introduction to Technology-” (published by Gijutsu Hyoronsha 1986) can be used.
【0013】(手領域の決定)得られた手領域候補に対
して、輪郭線追跡処理を施して輪郭線抽出画像を作成し
(S324:図8参照)、輪郭線の長さが最大である座
標系列の抽出を行う。この座標系列より、輪郭線の平滑
化処理として多角形近似(S326)を行う。多角形近
似には区分的直線近似法を用いる。
(区分的直線近似法)区分的直線近似法とは、ある線分
近似パラメータεを導入した以下の手順のアルゴリズム
で実現されている(長谷川他「画像処理の基本技法−技
術入門編−」(技術評論社 1986年発行)参照)。
図9は、その動作原理を示したもので(a)(b)
(c)(d)という順で処理されている。
1.まず、輪郭線図形の追跡開始点Aから追跡順に直線
線分で結んでいき、その直線線分から最も離れた点Cを
見つけ、その最大距離hが近似値εより大きければ、そ
の点で2つの直線AC,直線CBに分割する。最大距離
hが近似値εより小さければ手順終了。
2.次に、分割した各々の部分線AC,BCに対し、1
と同様の手順を用いて分割を繰り返す。図9(b)の例
では、直線ACで、再度最大距離hが近似値εより大き
い点Dが見出されているので、直線ADと直線DCに分
割している(図9(c)参照)。
3.分割されたどの直線線分に対しても最大距離がεを
越えなければ分割操作を停止し(図9(c)参照)、分
割点で結ばれた多角形が求める線図形として手順終了
(図9(d)参照)。
区分的近似法は、線分近似パラメータ値εを適当に設定
することにより滑らかさの具合も調整できる。(Determination of Hand Region) The obtained hand region candidate is subjected to a contour tracing process to create a contour extraction image (S324: see FIG. 8), and the length of the contour is the maximum. Extract coordinate series. From this coordinate series, polygon approximation (S326) is performed as contour line smoothing processing. A piecewise linear approximation method is used for polygon approximation. (Piecewise linear approximation method) The piecewise linear approximation method is realized by an algorithm of the following procedure in which a certain line segment approximation parameter ε is introduced (Hasegawa et al., “Basic Techniques of Image Processing-Introduction to Techniques-” ( Technical Review, published in 1986)).
FIGS. 9A and 9B show the principle of operation.
The processing is performed in the order of (c) and (d). 1. First, from the tracking start point A of the contour graphic, a straight line segment is connected in the order of tracking, a point C farthest from the straight line segment is found, and if the maximum distance h is larger than the approximate value ε, two points are determined at that point. It is divided into a straight line AC and a straight line CB. If the maximum distance h is smaller than the approximate value ε, the procedure ends. 2. Next, for each of the divided partial lines AC and BC, 1
The division is repeated using the same procedure as described above. In the example of FIG. 9B, since the point D where the maximum distance h is larger than the approximate value ε is found again on the straight line AC, it is divided into the straight line AD and the straight line DC (see FIG. 9C). ). 3. If the maximum distance does not exceed ε with respect to any of the divided straight line segments, the dividing operation is stopped (see FIG. 9C), and the procedure is terminated as a line figure determined by a polygon connected by the dividing points (see FIG. 9C). 9 (d)). In the piecewise approximation method, the degree of smoothness can be adjusted by appropriately setting the segment approximation parameter value ε.
【0014】しかし、手とカメラとの距離(奥行き値)
によって、フレーム上での手領域面積が異なるため、一
定の線分近似パラメータでは適切な近似ができない。そ
こで本発明の実施形態では、手領域の面積によりそれぞ
れの線分近似パラメータを決定し、奥行き値の影響を軽
減する適切な近似ができるようにした。本発明の実施形
態で用いた近似パラメータの例を表1に示す。However, the distance between the hand and the camera (depth value)
Therefore, appropriate approximation cannot be performed with certain line segment approximation parameters because the area of the hand region on the frame is different. Therefore, in the embodiment of the present invention, each line segment approximation parameter is determined based on the area of the hand region, and appropriate approximation for reducing the influence of the depth value can be performed. Table 1 shows examples of approximate parameters used in the embodiment of the present invention.
【表1】
輪郭線抽出画像を区分的直線近似法を使って実現した、
多角形近似画像の例を図10に示す。[Table 1] Contour extraction image realized using piecewise straight line approximation method,
FIG. 10 shows an example of a polygon approximate image.
【0015】(手領域の決定)得られた多角形近似画像
に対して、スキャン・コンバージョンのアルゴリズムを
用いて多角形近似画像の塗りつぶし処理(S326)を
おこない、得られた画像(図11参照)を手領域抽出画
像として決定する(S328)。スキャン・コンバージ
ョンは、例えば、阿部圭一「OAのための図面・文書画
像処理4 図形の追跡」(画像ラボ,pp.52−5
5,1999)に記載されている。
(手領域細線画像の生成)得られた手領域抽出画像を用
いて手領域細線画像を生成する(図2のS206)。手
領域抽出画像に対して細線化を行う。細線化のアルゴリ
ズムは、例えば横井他「標本化された2値図形のトポロ
ジカルな性質について」(電子通信学会論文誌(D),
J56−D,42,pp.662−669,1973)
に記載のものを用いた。得られた細線化画像には、図1
2に示すように指先などに小さな枝が付いている場合が
多く、この後の処理に不都合が生じる。そこで枝の除去
処理を行う。枝の除去を行った細線化画像を手領域細線
画像とする(図13)。
(指の本数認識:S208)認識用画像を生成するとと
もに、伸びている指の本数を求める。手領域抽出過程で
得られた輪郭線抽出画像に対して、手領域抽出で用いた
線分近似パラメータとは別の値(表2参照)の線分近似
パラメータεで多角形近似を行う。(Determination of Hand Region) The obtained polygon approximate image is subjected to a polygon approximate image filling process (S326) using a scan conversion algorithm, and the obtained image is obtained (see FIG. 11). Is determined as the hand region extraction image (S328). Scan conversion is performed, for example, by Keiichi Abe “Drawing / Document Image Processing for OA 4 Tracking of Figures” (Image Lab, pp. 52-5).
5, 1999). (Generation of Hand Region Thin Line Image) A hand region thin line image is generated using the obtained hand region extracted image (S206 in FIG. 2). The hand region extraction image is thinned. For example, Yokoi et al., “About the Topological Properties of Sampled Binary Figures” (Transactions of the Institute of Electronics, Information and Communication Engineers (D),
J56-D, 42, pp. 662-669, 1973).
The one described in the above was used. FIG. 1 shows the obtained thinned image.
In many cases, small branches are attached to a fingertip or the like as shown in FIG. 2, which causes inconvenience in subsequent processing. Therefore, a branch removal process is performed. The thinned image from which the branches have been removed is defined as a hand region thin line image (FIG. 13). (Recognition of Number of Fingers: S208) A recognition image is generated, and the number of extending fingers is obtained. A polygon approximation is performed on the contour line extraction image obtained in the hand region extraction process using a line segment approximation parameter ε having a different value (see Table 2) from the line segment approximation parameter used in the hand region extraction.
【表2】 [Table 2]
【0016】近似された画像は、n個の点とn個の直線
から成る多角形である。そこでn個の点を近似点と呼
び、図14に示す様に、近似点をx0,x1,・・・,
xi− 1,xi,・・・,xn−1と置いて、ベクトル
xixi+1,ベクトルxix i−1の成す角をθiと
する。ここでベクトルxixi+1=(a1,a2),
ベクトルxixi−1=(b1,b2)とすると、θi
は次の式で求められる。The approximated image is composed of n points and n straight lines.
Is a polygon consisting of Therefore, the n points are called approximate points.
Then, as shown in FIG.0, X1, ...,
xi- 1, Xi, ..., xn-1And put, vector
xixi + 1, Vector xix i-1Angle θiWhen
I do. Where the vector xixi + 1= (A1, A2),
Vector xixi-1= (B1, B2), Θi
Is obtained by the following equation.
【数1】
この式によって、多角形のすべての近似点によって成さ
れる角が求まる。ここでθi≦60°であるものを特徴
点として抽出しその数を算出する。しかし、上述の式を
用いて内角を求めると、多角形の内角が180°以上の
ものも抽出されてしまう。これは、180°以上の内角
θは、上述の式では360°−θとして計算され、実質
的に多角形の内角が180°以上のものも抽出されてし
まうことになる。そこで、図15に示すように、三角形
△pi−1pipi+1の符号付き面積(例えば、浅野
哲夫「計算幾何学」pp.73−79 朝倉書店,19
90年参照)を用いて180°以上の内角を持つ頂点の
検出を行い、180°以上の内角を持つ角を特徴点とし
て抽出しない処理を行う。算出された特徴点の数より指
の本数の認識を行う。特徴点の個数と指の本数との対応
は表3に示す。このとき指が0本と5本に認識された場
合は、処理を終了する。(Equation 1) This equation determines the angle formed by all approximate points of the polygon. Here, those where θ i ≦ 60 ° are extracted as feature points and the number thereof is calculated. However, when the interior angle is obtained by using the above equation, a polygon having an interior angle of 180 ° or more is also extracted. This means that an internal angle θ of 180 ° or more is calculated as 360 ° −θ in the above formula, and a polygon whose internal angle is substantially 180 ° or more is also extracted. Therefore, as shown in FIG. 15, the triangle △ p i-1 p i p i + 1 signed area (e.g., Tetsuo Asano "Computational Geometry," pp.73-79 Asakura Shoten, 19
A vertex having an internal angle of 180 ° or more is detected by using (see 1990), and a process of not extracting a corner having an internal angle of 180 ° or more as a feature point is performed. The number of fingers is recognized from the calculated number of feature points. Table 3 shows the correspondence between the number of feature points and the number of fingers. At this time, if 0 and 5 fingers are recognized, the process ends.
【表3】
指の本数認識の精度であるが、認識実験で用いた画像1
500枚に対して、認識率は約99%である。[Table 3] The accuracy of the recognition of the number of fingers is the same as the image 1 used in the recognition experiment.
For 500 sheets, the recognition rate is about 99%.
【0017】<指領域抽出処理>以下に、作成された2
種類の認識用画像より指領域の抽出を行い、認識に必要
な画像特徴を抽出する。手領域抽出画像からは手指の太
さといった手の見かけ特徴を抽出し、手領域細線画像か
らは手の骨格的特徴である座標特徴を抽出する。
(手の方向ベクトルの決定:S210)手領域細線画像
(図13参照)から手の方向ベクトルを決定する。以下
に指ベクトルの抽出方法を説明する。1.手領域抽出細
線画像から端点(xn0,yn0)(n=0,1…,
N)を求める。ここで、各端点は対応する指先に存在す
る。端点から分岐点または交差点までの線分Snを抽出
し、指候補線分とする(図16参照)。2.各線分Sn
を区分的直線近似法を用いて折れ線近似し、屈折点を
(xnm,ynm)とする。但し、mは端点側より1,
2,…とする。折れ線近似する必要のない線分では、分
岐点または交差点を屈折点(xn1,yn1)として抽
出する。また、このときの線分近似パラメータεの値を
7.0とした。3.各線分Snにおいて、端点
(xn0,yn0)と、近似された直線において端点に
最も近い屈折点(xnl,yn1)とを用いて各指ベク
トルvnを求める(図17参照)。但し、vn=(x
n0−xn1,yn0−yn1)である。4.以下の式
を用いて、各指の方向ベクトルの和をとり、手の方向ベ
クトルvとする(図18参照)。ただし、Nは指の数で
ある。<Finger Area Extraction Processing>
The finger region is extracted from the types of recognition images, and image features necessary for recognition are extracted. An apparent feature of the hand such as the thickness of the finger is extracted from the hand region extraction image, and a coordinate feature which is a skeleton feature of the hand is extracted from the hand region thin line image. (Determination of Hand Direction Vector: S210) The hand direction vector is determined from the hand area thin line image (see FIG. 13). Hereinafter, a method of extracting a finger vector will be described. 1. From the hand region extraction thin line image, the end point (x n0 , y n0 ) (n = 0, 1,...,
N). Here, each end point exists at the corresponding fingertip. A line segment Sn from the end point to the branch point or the intersection is extracted and set as a finger candidate line segment (see FIG. 16). 2. Each line segment S n
Is approximated using a piecewise linear approximation method, and the refraction point is defined as (x nm , y nm ). However, m is 1, from the end point side.
2, ... For a line segment that does not need to be broken-line approximation, a branch point or an intersection is extracted as a refraction point (x n1 , y n1 ). At this time, the value of the line segment approximation parameter ε was set to 7.0. 3. In each segment S n, and the end point (x n0, y n0), obtaining the respective finger vector v n by using the nearest point of inflection on the end points in the approximated linear (x nl, y n1) (see FIG. 17) . Here, v n = (x
n0 is a -x n1, y n0 -y n1) . 4. Using the following equation, the sum of the directional vectors of each finger is taken as the directional vector v of the hand (see FIG. 18). Here, N is the number of fingers.
【数2】
本手法では、指領域抽出の際に手の方向ベクトルが必要
であり、画像中の手領域全体の方向より、手首から指先
の方向のベクトルの方が重要である。この手順により求
められた手の方向ベクトルは、指の領域候補より求めら
れているために、手首の曲がり具合に影響されず、手首
から指先の方向を求めることができる。
(指領域の決定:S212)得られた手の方向ベクトル
に対して垂直に画像走査し、画像走査とともに画像中の
手領域のラン長のヒストグラム(以下ラン・ヒストグラ
ムとする)を作成する(図19参照)。各指の太さは、
手首や掌の太さとは大きく異なる。そのため、手の方向
ベクトルに対して垂直に画像を走査すると、指・手首・
掌を横切ることによって定まるランの長さは、指の部分
とその他の部分で大きく異なる。そこで、図20に示す
様なラン・ヒストグラムを作成して、指領域とそうでな
い領域とを分割するための閾値となるラン長を、判別分
析法により決定することができる。判別分析法は、例え
ば大津展之「判別および最小2乗基準に基づく自動しき
い値選定法」電子通信学会論文誌,J−63D,p.3
49,1980に記載されている。(Equation 2) In this method, a hand direction vector is required at the time of finger region extraction, and the vector in the direction from the wrist to the fingertip is more important than the direction of the entire hand region in the image. Since the hand direction vector obtained by this procedure is obtained from the finger area candidates, the direction from the wrist to the fingertip can be obtained without being affected by the degree of bending of the wrist. (Determination of finger region: S212) Image scanning is performed perpendicularly to the obtained hand direction vector, and a histogram of the run length of the hand region in the image (hereinafter referred to as run histogram) is created together with the image scanning (FIG. 19). The thickness of each finger is
It differs greatly from the thickness of the wrist and palm. Therefore, when scanning the image perpendicular to the hand direction vector, the finger, wrist,
The length of the run determined by crossing the palm differs greatly between the finger and other parts. Therefore, a run histogram as shown in FIG. 20 can be created, and a run length serving as a threshold for dividing a finger region and a region other than the finger region can be determined by a discriminant analysis method. The discriminant analysis method is described in, for example, Nobuyuki Otsu, “Automatic Threshold Selection Method Based on Discrimination and Least Square Criterion”, IEICE Transactions, J-63D, p. 3
49, 1980.
【0018】(指領域の抽出)判別分析法により決定さ
れた閾値を用いて、指領域を抽出する。再度、手の方向
ベクトルに対して垂直に画像走査を行い、図21に示す
ように、画像中の手領域のランが閾値より短い場合、そ
れを指領域として抽出する。図22の白い部分が抽出さ
れた指領域である。また、図22(a)〜(d)に示さ
れた指領域のランヒストグラムと決定された閾値を図2
3(a)〜(d)に示す。しかし、すべての場合この判
別分析法が適用されるとは限らない。判別分析法の特性
上、例えば指が1本のときなどは、閾値が決定されない
場合がある。その場合はランの最長の1/3より小さい
領域を指領域として抽出する。得られた指領域抽出画像
より、手領域細線画像から指領域を抽出する。抽出は、
指領域抽出画像と手領域細線画像の論理積をとるだけな
のだが、そのとき本来の指の本数より多くの線分数が抽
出されてしまう場合がある。そこで指の本数認識(S2
08)の結果を用い、指の本数と指領域線分が一致する
ように、指領域線分の長さが小さいものを取り除く処理
を行う。得られる画像を図24に示す。(Extraction of Finger Region) A finger region is extracted using a threshold value determined by the discriminant analysis method. Again, image scanning is performed perpendicular to the direction vector of the hand, and if the run of the hand area in the image is shorter than the threshold as shown in FIG. 21, it is extracted as a finger area. The white part in FIG. 22 is the extracted finger area. The run histograms of the finger regions shown in FIGS. 22A to 22D and the determined threshold are shown in FIG.
3 (a) to 3 (d). However, this discriminant analysis method is not always applied in all cases. Due to the characteristics of the discriminant analysis, for example, when the number of fingers is one, the threshold value may not be determined. In that case, an area smaller than the longest 1/3 of the run is extracted as a finger area. The finger region is extracted from the hand region thin line image from the obtained finger region extraction image. Extraction is
Although only the logical product of the finger region extraction image and the hand region thin line image is obtained, a number of line segments greater than the original number of fingers may be extracted. Therefore, the number of fingers is recognized (S2
Using the result of step 08), a process of removing a finger segment having a small length is performed so that the number of fingers and the finger segment coincide. The resulting image is shown in FIG.
【0019】<手形状の認識>これまでの処理または処
理過程より得られた画像より、以下の画像特徴を抽出
し、認識パラメータとする。これらの認識パラメータを
用いて認識関数を作成し、どの指が伸びているのかを認
識する。
・指領域のランの平均長
・各指線分の長さ
・各指同士の間隔
・掌に対する指の位置情報
以下に、画像特徴から認識パラメータを抽出する過程
(S216)を示す。指領域のランの平均長を求めるに
は、抽出する画像特徴である各指線分の長さ、各指同士
の間隔、掌に対する指の位置情報を数値化する時、画像
中の手の大きさ、つまりカメラと手の位置により値が異
なるため、正規化する必要がある。そこで正規化値を求
めるため、抽出された指領域(図22参照)に対し、図
25に示す様に、手の方向ベクトルvに垂直な画像走査
を行い、指領域のランヒストグラムを作成する。得られ
たランヒストグラムの平均値を求め、これを指領域のラ
ンの平均長とし、正規化値Tとする。<Recognition of Hand Shape> The following image features are extracted from images obtained by the processing or the processing steps so far, and are used as recognition parameters. A recognition function is created using these recognition parameters to recognize which finger is extended. The average length of the run of the finger region, the length of each finger line, the distance between each finger, and the position information of the finger with respect to the palm. To obtain the average length of the run of the finger area, the length of each finger line segment, the interval between each finger, and the position information of the finger with respect to the palm, which are the image features to be extracted, are digitized. That is, since the value differs depending on the position of the camera and the hand, it is necessary to normalize the value. Therefore, in order to obtain a normalized value, the extracted finger region (see FIG. 22) is subjected to image scanning perpendicular to the direction vector v of the hand as shown in FIG. 25 to create a run histogram of the finger region. The average value of the obtained run histogram is obtained, and this is set as the average length of the runs of the finger region, and is set as the normalized value T.
【0020】(各指の線分の長さ)指領域抽出細線画像
において、図26に示すように、指にあたる各線分の両
端点を結ぶ直線の長さをLn(n=1,2,…,N)と
する。これを指領域のラン平均長Tを用いて正規化す
る。正規化には次式を用い、正規化後の指の長さFl n
(n=1,2,…,N)を求める。(Line length of each finger) Finger region extraction thin line image
In FIG. 26, as shown in FIG.
L is the length of the straight line connecting the endpointsn(N = 1, 2,..., N)
I do. This is normalized using the average run length T of the finger region.
You. The following equation is used for the normalization, and the finger length Fl after the normalization is used. n
(N = 1, 2,..., N).
【数3】 (Equation 3)
【0021】(各指同士の間隔)指同士の間隔を求める
手順を以下に示す。
1.指領域抽出細線画像において、手の方向ベクトルv
を用いて、各線分の指の根本に対応する座標を検出す
る。
2.得られた指の根本座標を近似する直線Aを最小2乗
法により求める(図27(a)参照)。
3.直線Aに対して垂直かつ指の根本座標を通る直線B
n(n=1,2,…,N)を求める(図27(b)参
照)。
4.直線Aと直線Bn(n=1,2,…N)の交点C
n(n=1,2,…,N)を求め、CnとCn+1の長
さを指同士の間隔とする。
5.得られた間隔を指領域のラン平均長Tを用いて正規
化を行う。(Interval between Fingers) The procedure for obtaining the interval between fingers will be described below. 1. In the finger region extraction thin line image, the hand direction vector v
Is used to detect the coordinates corresponding to the root of the finger of each line segment. 2. A straight line A approximating the obtained root coordinates of the finger is obtained by the least squares method (see FIG. 27A). 3. A straight line B perpendicular to the straight line A and passing through the root coordinates of the finger
n (n = 1, 2,..., N) is obtained (see FIG. 27B). 4. Intersection point C between straight line A and straight line B n (n = 1, 2,... N)
n (n = 1, 2,..., N) is determined, and the length of C n and C n + 1 is defined as the distance between the fingers. 5. The obtained interval is normalized using the average run length T of the finger region.
【0022】(掌に対する指の位置情報)掌に対する指
の位置情報を求める手順を以下に示す。まず、掌の位置
線分の決定するために、手領域抽出画像に対して、手の
方向ベクトルvに垂直な画像走査を行う。ラン長が最大
である部分を画像走査によって検出し、その部分を掌の
位置線分とする(図28(a)参照)。また、得られた
位置線分の両端点をそれぞれ端点L,端点Rとする。
(指の位置の決定)得られた掌の位置線分に対して、指
の根本座標から垂線を降ろし、掌の位置線分との交点座
標を求める(図28(b)参照)。図28(b)に示さ
れる様に、指の位置情報は、交点と掌の位置線分の両端
点L、Rからの距離により求める。また、他のパラメー
タ同様、指領域のランの平均長Tを用いて正規化を行
う。
<認識パラメータの特徴>認識パラメータから得られる
特徴について述べ、これらの特徴を用いて認識を行う
(S216)。(Position Information of Finger with respect to Palm) A procedure for obtaining position information of a finger with respect to the palm will be described below. First, in order to determine the position line segment of the palm, an image scan perpendicular to the direction vector v of the hand is performed on the hand region extracted image. The part having the longest run length is detected by image scanning, and that part is defined as a palm position line segment (see FIG. 28A). Also, both end points of the obtained position line segment are referred to as an end point L and an end point R, respectively. (Determination of finger position) A perpendicular line is lowered from the root coordinates of the finger to the obtained palm position line segment, and the intersection coordinates with the palm position line segment are obtained (see FIG. 28 (b)). As shown in FIG. 28B, the position information of the finger is obtained from the distance from both ends L and R of the intersection and the position line segment of the palm. As with the other parameters, the normalization is performed using the average length T of the runs in the finger area. <Features of Recognition Parameter> Features obtained from the recognition parameters will be described, and recognition will be performed using these features (S216).
【0023】(各指の長さ特徴)人間の手の構造上、各
指の長さに違いがある。図29(a)のように指が5本
の時、図29(b)のグラフに示す様に、親指と小指は
その他の指の長さに比べ短いという特徴が現れる。ま
た、図30のグラフは、指が5本の時の統計データを示
す(但し、データ数は47である)。統計データからも
親指と小指がその他の指の長さに比べ短いということが
分かる。しかし、この関係は、図3,図4に示した手の
各形状において異なるため、全ての形状のデータを分析
し、指の長さ特徴として用いる必要がある。図29
(b)、図30において、×印は正規化後の指の長さf
lnを表し、折れ線部は同じ画像の各指の長さ関係を示
している。(Characteristics of Length of Each Finger) Due to the structure of the human hand, the length of each finger differs. When the number of fingers is five as shown in FIG. 29 (a), as shown in the graph of FIG. 29 (b), the characteristic that the thumb and the little finger are shorter than the length of the other fingers appears. The graph of FIG. 30 shows statistical data when five fingers are used (however, the number of data is 47). It can be seen from the statistical data that the thumb and the little finger are shorter than the other fingers. However, since this relationship is different for each hand shape shown in FIGS. 3 and 4, it is necessary to analyze data of all shapes and use it as a finger length feature. FIG.
(B) In FIG. 30, the mark x indicates the length f of the finger after normalization.
represents l n, polygonal line portion indicates the length relationship of the fingers of the same image.
【0024】(各指同士の間隔特徴)図31に示すよう
に指の組合せ方によって指同士の間隔は異なる。例え
ば、図31(a)と図31(b)では、指の組合せ方の
違いから、指の間隔特徴も異なる。そこで、前に述べた
方法で、指の間隔を数値化することにより、指の組合せ
を限定することができ、認識に用いることができる。
(掌に対する指の位置特徴)図32に示すように、どの
指のが伸びているかによって指の位置情報が異なる。図
32(a)は、端点Lから最左の交点の距離が小さく、
端点Rから最右の交点の距離が大きい。この特徴より小
指が伸びている確率が高く、親指または人指し指が伸び
ている確率が低いことが分かる。また、図32(b)は
端点Lから最左の交点の距離が小さく、端点Rからの最
右の交点の距離が大きい。この特徴より小指の伸びてい
る確率が小さく、親指または人指し指の伸びている確率
が高いことが分かる。このように、上述の様にして用い
た各認識パラメータを用いて、どの指が立っているかを
認識する。(Characteristic of Spacing Between Fingers) As shown in FIG. 31, the spacing between fingers differs depending on how the fingers are combined. For example, in FIG. 31A and FIG. 31B, the finger interval characteristics are also different due to the difference in how the fingers are combined. Therefore, by digitizing the interval between the fingers by the method described above, the combinations of the fingers can be limited and can be used for recognition. (Characteristics of finger position with respect to palm) As shown in FIG. 32, finger position information differs depending on which finger is extended. FIG. 32A shows that the distance from the end point L to the leftmost intersection is small,
The distance from the end point R to the rightmost intersection is large. From this feature, it can be seen that the probability that the little finger is extended is high, and the probability that the thumb or forefinger is extended is low. In FIG. 32B, the distance from the end point L to the leftmost intersection is small, and the distance from the end point R to the rightmost intersection is large. It can be seen that the probability that the little finger is extended is smaller than this feature, and the probability that the thumb or index finger is extended is high. In this way, it is recognized which finger is standing using each recognition parameter used as described above.
【0025】<どの指が立っているかの認識手順>具体
的な認識手順の例を図33〜図37に示す。どの指が立
っているかの認識は、指の本数認識処理(S208)よ
り認識した、立っている指の本数毎に行われている。図
33には1本の指が立っている場合の認識手順、図34
には2本の指が立っている場合の認識手順、図35,3
6は3本の指が立っている場合の認識手順、図37には
4本の指が立っている場合の認識手順が示されている。
示されている手順は、条件欄に示されている条件が、満
たされているか、満たされないかにより、認識結果又は
どの手順にジャンプするかを示している。認識結果が示
されている場合は、認識手順を終了する。これらの認識
手順では、認識結果は、立っている指を図3,図4に示
したような2進法で示している。右の掌をカメラに向け
て、小指が左側,親指が右側に映っている画像を認識し
ている。左手を認識する場合は、指の番号付け・左右の
解釈を変えればよい。指の太さの平均を1として、手の
左右端からの指の位置や指の長さを表す。<Recognition Procedure of Which Finger is Standing> FIGS. 33 to 37 show specific examples of the recognition procedure. Recognition of which finger is standing is performed for each number of standing fingers recognized by the finger number recognition process (S208). FIG. 33 shows a recognition procedure when one finger stands, and FIG.
35, the recognition procedure when two fingers are standing, FIG.
6 shows a recognition procedure when three fingers are standing, and FIG. 37 shows a recognition procedure when four fingers are standing.
The illustrated procedure indicates a recognition result or a procedure to jump to depending on whether the condition indicated in the condition column is satisfied or not satisfied. If the recognition result is indicated, the recognition procedure ends. In these recognition procedures, the recognition result indicates the standing finger in a binary system as shown in FIGS. With the right palm facing the camera, the little finger recognizes the image on the left and the thumb on the right. When recognizing the left hand, the numbering of the fingers and the interpretation of the left and right may be changed. Assuming that the average of the finger thickness is 1, the position of the finger from the left and right ends of the hand and the length of the finger are represented.
【0026】[0026]
【発明の効果】上述するように、各種機器に接続された
カメラの前で手の形を変えることにより、片手を認識す
ることで32通り、両手だと1024通りの指示等を、
本発明の入力システムを用いて、各種機器に入力するこ
とが可能である。As described above, by changing the shape of the hand in front of the camera connected to the various devices, it is possible to recognize 32 directions by recognizing one hand and 1024 directions by using both hands.
It is possible to input to various devices using the input system of the present invention.
【図1】実施形態のシステム構成例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration according to an embodiment.
【図2】実施形態の認識処理の例を示すフローチャート
である。FIG. 2 is a flowchart illustrating an example of a recognition process according to the embodiment;
【図3】実施形態のシステムで認識可能な手の形状を示
す図である。FIG. 3 is a diagram illustrating hand shapes recognizable by the system according to the embodiment;
【図4】実施形態のシステムで認識可能な手の形状を示
す図である。FIG. 4 is a diagram illustrating hand shapes recognizable by the system according to the embodiment;
【図5】入力画像例を示す図である。FIG. 5 is a diagram illustrating an example of an input image.
【図6】手領域抽出画像の生成する処理例を示すフロー
チャートである。FIG. 6 is a flowchart illustrating a processing example of generating a hand region extracted image.
【図7】手領域候補画像例を示す図である。FIG. 7 is a diagram illustrating an example of a hand region candidate image.
【図8】輪郭線抽出画像例を示す図である。FIG. 8 is a diagram showing an example of a contour line extraction image.
【図9】区分的直線近似法を説明する図である。FIG. 9 is a diagram illustrating a piecewise linear approximation method.
【図10】多角形近似画像例を示す図である。FIG. 10 is a diagram illustrating an example of a polygon approximate image.
【図11】手領域抽出画像例を示す図である。FIG. 11 is a diagram showing an example of a hand region extracted image.
【図12】細線化処理後の画像例を示す図である。FIG. 12 is a diagram illustrating an example of an image after a thinning process.
【図13】手領域細線画像例を示す図である。FIG. 13 is a diagram illustrating an example of a hand area thin line image.
【図14】多角形近似を示す図である。FIG. 14 is a diagram showing polygon approximation.
【図15】180°以上の内角を持つ頂点の検出を説明
する図である。FIG. 15 is a diagram illustrating detection of a vertex having an inner angle of 180 ° or more.
【図16】指候補線分Snを説明する図である。16 is a diagram illustrating a finger candidate segments S n.
【図17】各指の方向ベクトルvnを示す図である。17 is a diagram showing a direction vector v n of each finger.
【図18】手の方向ベクトルvを示す図である。FIG. 18 is a diagram showing a hand direction vector v.
【図19】画像走査を説明する図である。FIG. 19 is a diagram illustrating image scanning.
【図20】画像走査で得られるラン・ヒストグラムを示
す図である。FIG. 20 is a diagram showing a run histogram obtained by image scanning.
【図21】ラン長のヒストグラムで指領域を抽出するこ
とを説明する図である。FIG. 21 is a diagram for describing extraction of a finger region using a run length histogram.
【図22】指領域抽出画像例を示す図である。FIG. 22 is a diagram illustrating an example of a finger region extracted image.
【図23】ラン・ヒストグラムと閾値の例を示す図であ
る。FIG. 23 is a diagram illustrating an example of a run histogram and a threshold.
【図24】手領域細線画像の指領域抽出例を示す図であ
る。FIG. 24 is a diagram illustrating an example of extracting a finger region from a hand region thin line image.
【図25】指領域のランの平均長Tを説明するための図
である。FIG. 25 is a diagram for explaining an average length T of runs in a finger region.
【図26】各指の長さを示す図である。FIG. 26 is a diagram showing the length of each finger.
【図27】各指の間隔を得る処理を説明する図である。FIG. 27 is a diagram illustrating a process for obtaining the interval between fingers.
【図28】掌に対する指の位置情報を得る処理を説明す
る図である。FIG. 28 is a diagram illustrating a process of obtaining positional information of a finger with respect to a palm.
【図29】各指の長さの特徴を示す図である。FIG. 29 is a diagram showing characteristics of the length of each finger.
【図30】各指の長さの特徴を示す他の図である。FIG. 30 is another diagram showing the characteristics of the length of each finger.
【図31】指同士の間隔の特徴例を示す図である。FIG. 31 is a diagram illustrating a characteristic example of an interval between fingers.
【図32】掌に対する指の位置特徴例を示す図である。FIG. 32 is a diagram illustrating an example of a position feature of a finger with respect to a palm.
【図33】立っている指が1本の場合の認識手順の例を
示す図である。FIG. 33 is a diagram illustrating an example of a recognition procedure in the case where one standing finger is used.
【図34】立っている指が2本の場合の認識手順の例を
示す図である。FIG. 34 is a diagram illustrating an example of a recognition procedure when two standing fingers are used.
【図35】立っている指が3本の場合の認識手順の例を
示す図である。FIG. 35 is a diagram illustrating an example of a recognition procedure when three standing fingers are used.
【図36】立っている指が3本の場合の認識手順の続き
を示す図である。FIG. 36 is a diagram illustrating the continuation of the recognition procedure when three standing fingers are used.
【図37】立っている指が4本の場合の認識手順の例を
示す図である。FIG. 37 is a diagram illustrating an example of a recognition procedure when four standing fingers are used.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 300 G06T 7/00 300F Fターム(参考) 5B057 BA02 BA11 CA01 CA08 CA12 CA16 CE05 CE12 CE16 CG04 DA08 DB02 DB06 DB09 DC09 DC17 5L096 AA02 AA06 BA18 CA02 EA02 EA04 EA06 FA06 FA18 FA35 FA59 GA36 GA38 GA41 JA18──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) G06T 7/00 300 G06T 7/00 300F F term (reference) 5B057 BA02 BA11 CA01 CA08 CA12 CA16 CE05 CE12 CE16 CG04 DA08 DB02 DB06 DB09 DC09 DC17 5L096 AA02 AA06 BA18 CA02 EA02 EA04 EA06 FA06 FA18 FA35 FA59 GA36 GA38 GA41 JA18
Claims (7)
て、 手の画像を入力する画像入力手段と、 該画像入力手段からの手の画像から、手領域部分を塗り
つぶした手領域抽出画像を得る手領域抽出手段と、 該手領域抽出画像から、手領域細線画像を得る手領域細
線画像生成手段と、 前記手領域抽出画像と手領域細線画像とから、立ってい
る指を認識して手の形状を特定する手形状認識手段とを
備え、どの指が立っているかで片手で32通りの形状を
特定することを特徴とする手の画像認識による入力シス
テム。1. An input system based on hand image recognition, comprising: an image input means for inputting an image of a hand; and a hand area extracted image in which a hand area portion is filled from a hand image from the image input means. A hand region extracting unit, a hand region thin line image generating unit that obtains a hand region thin line image from the hand region extracted image, and a hand that recognizes a standing finger from the hand region extracted image and the hand region thin line image. An input system using hand image recognition, comprising: hand shape recognition means for specifying a shape; and specifying one of 32 shapes with one hand depending on which finger is standing.
出して、肌色部分に平滑化処理を行い、平滑化処理後の
前記肌色部分の輪郭線を追跡して輪郭線の長さが最大で
ある座標系列の抽出を行い、抽出した輪郭線に平滑化処
理を行った後、該輪郭線の内部を塗りつぶして手領域抽
出画像を得ることを特徴とする手の画像認識による入力
システム。2. The input system according to claim 1, wherein the hand region extracting means extracts a flesh color portion from the image of the hand, performs a smoothing process on the flesh color portion, and performs the smoothing process on the flesh color portion. The contour of the part is traced to extract a coordinate series having the maximum length of the contour, a smoothing process is performed on the extracted contour, and then the inside of the contour is painted to obtain a hand region extracted image. An input system based on image recognition of a hand.
段を備え、 該指数認識手段により、指の数が2〜4のいずれかであ
ると認識したときに、前記手形状認識手段で手形状の特
定を行い、指の数が0又は5であると認識したときは、
前記手形状認識手段による処理を行わないことを特徴と
する手の画像認識による入力システム。3. The input system according to claim 2, further comprising an index recognizing means for recognizing the number of fingers from the contour, wherein the index recognizing means selects one of 2 to 4 fingers. When it is recognized that the hand shape is identified by the hand shape recognition means, and when it is recognized that the number of fingers is 0 or 5,
An input system based on hand image recognition, wherein the processing by the hand shape recognition means is not performed.
テムにおいて、 手形状認識手段は、前記手領域細線画像から手の方向ベ
クトルを求め、求めた該手の方向ベクトルに対して垂直
に前記手領域抽出画像を走査して、手のラン長を求め、
該ラン長により指領域を抽出し、抽出した該指領域を用
いて、前記手領域細線画像から指の部分を抽出すること
で手の形状を認識することを特徴とする手の画像認識に
よる入力システム。4. The input system according to claim 1, wherein the hand shape recognizing means obtains a hand direction vector from the hand area thin line image, and obtains a hand direction vector perpendicular to the obtained hand direction vector. Scanning the hand region extraction image to determine the run length of the hand,
An input by hand image recognition, wherein a finger region is extracted based on the run length, and a hand shape is recognized by extracting a finger portion from the hand region thin line image using the extracted finger region. system.
テムにおいて、 手形状認識手段は、前記手の形状の認識を行うパラメー
タを正規化して評価することを特徴とする手の画像認識
による入力システム。5. The hand image recognition apparatus according to claim 1, wherein the hand shape recognition means normalizes and evaluates a parameter for recognizing the hand shape. By input system.
テムをコンピュータ・システムに構成させるプログラム
を格納した記録媒体。6. A recording medium storing a program for causing a computer system to configure the input system according to claim 1.
テムをコンピュータ・システムに構成させるプログラ
ム。7. A program for causing a computer system to configure the input system according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002154145A JP3863809B2 (en) | 2002-05-28 | 2002-05-28 | Input system by hand image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002154145A JP3863809B2 (en) | 2002-05-28 | 2002-05-28 | Input system by hand image recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003346162A true JP2003346162A (en) | 2003-12-05 |
JP3863809B2 JP3863809B2 (en) | 2006-12-27 |
Family
ID=29771007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002154145A Expired - Lifetime JP3863809B2 (en) | 2002-05-28 | 2002-05-28 | Input system by hand image recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3863809B2 (en) |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006163662A (en) * | 2004-12-06 | 2006-06-22 | Nissan Motor Co Ltd | Device and method for recognizing number of fingers |
WO2007097548A1 (en) * | 2006-02-20 | 2007-08-30 | Cheol Woo Kim | Method and apparatus for user-interface using the hand trace |
JP2007276615A (en) * | 2006-04-06 | 2007-10-25 | Denso Corp | Prompter-type operating device |
JP2007538318A (en) * | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | Sign-based human-machine interaction |
KR100858358B1 (en) * | 2006-09-29 | 2008-09-11 | 김철우 | Method and apparatus for user-interface using the hand trace |
JP2009020690A (en) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | Image forming apparatus |
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
JP2009282634A (en) * | 2008-05-20 | 2009-12-03 | Canon Inc | Information processor, its control method, program and storage medium |
JP2010504568A (en) * | 2006-08-25 | 2010-02-12 | レストレーション ロボティクス,インク. | System and method for classifying hair follicle units |
JP2010086367A (en) * | 2008-10-01 | 2010-04-15 | Sony Corp | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
JP2010134901A (en) * | 2008-12-08 | 2010-06-17 | Ind Technol Res Inst | Object-end positioning method and system |
JP2010526391A (en) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
KR100977443B1 (en) | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | Apparatus and method for controlling home appliances based on gesture |
JP2011022927A (en) * | 2009-07-17 | 2011-02-03 | Oki Joho Systems:Kk | Hand image recognition device |
JP2011054138A (en) * | 2009-09-04 | 2011-03-17 | Hyundai Motor Co Ltd | Operation device for vehicle |
JP2011070658A (en) * | 2009-08-24 | 2011-04-07 | Semiconductor Energy Lab Co Ltd | Touch sensor and display device |
JP2011175347A (en) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | Information processing apparatus and method |
JP2011191870A (en) * | 2010-03-12 | 2011-09-29 | Kddi Corp | Information terminal device |
JP2011198270A (en) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | Object recognition device and controller using the same, and object recognition method |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
WO2013051681A1 (en) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | Finger shape estimation device, finger shape estimation method, and finger shape estimation program |
JP2013134706A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Information processing device, information processing method, and program for the same |
EP2258587A4 (en) * | 2008-03-19 | 2013-08-07 | Denso Corp | Operation input device for vehicle |
JP5264007B1 (en) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | controller |
US8724862B2 (en) | 2011-04-06 | 2014-05-13 | Fujitsu Limited | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
JP2014106754A (en) * | 2012-11-28 | 2014-06-09 | Nec Soft Ltd | Finger direction specifying system, finger direction specifying method, and program thereof |
WO2014128749A1 (en) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | Shape recognition device, shape recognition program, and shape recognition method |
EP2787416A1 (en) | 2013-04-02 | 2014-10-08 | Fujitsu Limited | Information operation display system, display program, and display method |
JP2014206930A (en) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Gesture recognition device, gesture recognition method, electronic apparatus, control program, and recording medium |
US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
JP2015522193A (en) * | 2012-07-12 | 2015-08-03 | デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド | Gesture based user interface |
US9128529B2 (en) | 2013-02-21 | 2015-09-08 | Fujitsu Limited | Image processing device, image processing method |
EP2924610A2 (en) | 2014-03-24 | 2015-09-30 | Fujitsu Limited | Flesh color detection condition determining apparatus, and flesh color detection condition determining method |
US9183632B2 (en) | 2010-11-24 | 2015-11-10 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9196042B2 (en) | 2010-11-24 | 2015-11-24 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9224033B2 (en) | 2010-11-24 | 2015-12-29 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9286513B2 (en) | 2012-12-18 | 2016-03-15 | Fujitsu Limited | Image processing apparatus, method, and storage medium |
JP2016131008A (en) * | 2014-07-30 | 2016-07-21 | まるおかディジタル株式会社 | Input device |
US9405182B2 (en) | 2013-01-23 | 2016-08-02 | Fujitsu Limited | Image processing device and image processing method |
JP2016146176A (en) * | 2015-02-06 | 2016-08-12 | ゼロックス コーポレイションXerox Corporation | Process recognition based on computer vision |
US9645735B2 (en) | 2013-04-02 | 2017-05-09 | Fujitsu Limited | Information processing device and information processing method |
JP2017102598A (en) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | Recognition device, recognition method, and recognition program |
US9710109B2 (en) | 2014-05-01 | 2017-07-18 | Fujitsu Limited | Image processing device and image processing method |
US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
US9874938B2 (en) | 2014-11-10 | 2018-01-23 | Fujitsu Limited | Input device and detection method |
US9916042B2 (en) | 2015-01-29 | 2018-03-13 | Fujitsu Limited | Fingertip position estimation apparatus and method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101167784B1 (en) | 2010-07-09 | 2012-07-25 | 성균관대학교산학협력단 | A method for recognizing pointers and a method for recognizing control commands, based on finger motions on the back of the portable information terminal |
KR101189633B1 (en) * | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions |
JP6221505B2 (en) | 2013-08-22 | 2017-11-01 | 富士通株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2002
- 2002-05-28 JP JP2002154145A patent/JP3863809B2/en not_active Expired - Lifetime
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065652A (en) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | Sign based man-machine interaction |
JP2007538318A (en) * | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | Sign-based human-machine interaction |
JP2006163662A (en) * | 2004-12-06 | 2006-06-22 | Nissan Motor Co Ltd | Device and method for recognizing number of fingers |
WO2007097548A1 (en) * | 2006-02-20 | 2007-08-30 | Cheol Woo Kim | Method and apparatus for user-interface using the hand trace |
JP2007276615A (en) * | 2006-04-06 | 2007-10-25 | Denso Corp | Prompter-type operating device |
JP4847586B2 (en) * | 2006-08-25 | 2011-12-28 | レストレーション ロボティクス,インク. | System and method for classifying hair follicle units |
JP2010504568A (en) * | 2006-08-25 | 2010-02-12 | レストレーション ロボティクス,インク. | System and method for classifying hair follicle units |
KR100858358B1 (en) * | 2006-09-29 | 2008-09-11 | 김철우 | Method and apparatus for user-interface using the hand trace |
JP2010526391A (en) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
US8472665B2 (en) | 2007-05-04 | 2013-06-25 | Qualcomm Incorporated | Camera-based user input for compact devices |
JP2009020690A (en) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | Image forming apparatus |
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
EP2258587A4 (en) * | 2008-03-19 | 2013-08-07 | Denso Corp | Operation input device for vehicle |
JP2009282634A (en) * | 2008-05-20 | 2009-12-03 | Canon Inc | Information processor, its control method, program and storage medium |
US8917245B2 (en) | 2008-05-20 | 2014-12-23 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
JP2010086367A (en) * | 2008-10-01 | 2010-04-15 | Sony Corp | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
KR100977443B1 (en) | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | Apparatus and method for controlling home appliances based on gesture |
JP2010134901A (en) * | 2008-12-08 | 2010-06-17 | Ind Technol Res Inst | Object-end positioning method and system |
US8396300B2 (en) | 2008-12-08 | 2013-03-12 | Industrial Technology Research Institute | Object-end positioning method and system |
JP2011022927A (en) * | 2009-07-17 | 2011-02-03 | Oki Joho Systems:Kk | Hand image recognition device |
JP2011070658A (en) * | 2009-08-24 | 2011-04-07 | Semiconductor Energy Lab Co Ltd | Touch sensor and display device |
US9542022B2 (en) | 2009-08-24 | 2017-01-10 | Semiconductor Energy Laboratory Co., Ltd. | Touch sensor and method for driving the same and display device |
KR101761543B1 (en) * | 2009-08-24 | 2017-07-26 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | Touch sensor and method for driving the same and display device |
JP2011054138A (en) * | 2009-09-04 | 2011-03-17 | Hyundai Motor Co Ltd | Operation device for vehicle |
JP2011175347A (en) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | Information processing apparatus and method |
JP2011191870A (en) * | 2010-03-12 | 2011-09-29 | Kddi Corp | Information terminal device |
JP2011198270A (en) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | Object recognition device and controller using the same, and object recognition method |
US9196042B2 (en) | 2010-11-24 | 2015-11-24 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9183632B2 (en) | 2010-11-24 | 2015-11-10 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9224033B2 (en) | 2010-11-24 | 2015-12-29 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US8724862B2 (en) | 2011-04-06 | 2014-05-13 | Fujitsu Limited | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
JPWO2013051681A1 (en) * | 2011-10-07 | 2015-03-30 | 国立大学法人 筑波大学 | Finger shape estimation device, finger shape estimation method, and finger shape estimation program |
WO2013051681A1 (en) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | Finger shape estimation device, finger shape estimation method, and finger shape estimation program |
US9141873B2 (en) | 2011-12-27 | 2015-09-22 | Canon Kabushiki Kaisha | Apparatus for measuring three-dimensional position, method thereof, and program |
JP2013134706A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Information processing device, information processing method, and program for the same |
US9733717B2 (en) | 2012-07-12 | 2017-08-15 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
JP2015522193A (en) * | 2012-07-12 | 2015-08-03 | デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド | Gesture based user interface |
US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
JP5264007B1 (en) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | controller |
US9448639B2 (en) | 2012-10-01 | 2016-09-20 | Yoshiro Mizuno | Controller |
WO2014054313A1 (en) * | 2012-10-01 | 2014-04-10 | Mizuno Yoshiro | Controller |
JP2014106754A (en) * | 2012-11-28 | 2014-06-09 | Nec Soft Ltd | Finger direction specifying system, finger direction specifying method, and program thereof |
US9286513B2 (en) | 2012-12-18 | 2016-03-15 | Fujitsu Limited | Image processing apparatus, method, and storage medium |
US9405182B2 (en) | 2013-01-23 | 2016-08-02 | Fujitsu Limited | Image processing device and image processing method |
JPWO2014128749A1 (en) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | Shape recognition device, shape recognition program, and shape recognition method |
US10295826B2 (en) | 2013-02-19 | 2019-05-21 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
WO2014128749A1 (en) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | Shape recognition device, shape recognition program, and shape recognition method |
US9128529B2 (en) | 2013-02-21 | 2015-09-08 | Fujitsu Limited | Image processing device, image processing method |
US9645735B2 (en) | 2013-04-02 | 2017-05-09 | Fujitsu Limited | Information processing device and information processing method |
EP2787416A1 (en) | 2013-04-02 | 2014-10-08 | Fujitsu Limited | Information operation display system, display program, and display method |
JP2014206930A (en) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Gesture recognition device, gesture recognition method, electronic apparatus, control program, and recording medium |
US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
EP2924610A2 (en) | 2014-03-24 | 2015-09-30 | Fujitsu Limited | Flesh color detection condition determining apparatus, and flesh color detection condition determining method |
US9710109B2 (en) | 2014-05-01 | 2017-07-18 | Fujitsu Limited | Image processing device and image processing method |
JP2016131008A (en) * | 2014-07-30 | 2016-07-21 | まるおかディジタル株式会社 | Input device |
US9874938B2 (en) | 2014-11-10 | 2018-01-23 | Fujitsu Limited | Input device and detection method |
US9916042B2 (en) | 2015-01-29 | 2018-03-13 | Fujitsu Limited | Fingertip position estimation apparatus and method |
JP2016146176A (en) * | 2015-02-06 | 2016-08-12 | ゼロックス コーポレイションXerox Corporation | Process recognition based on computer vision |
US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
JP2017102598A (en) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | Recognition device, recognition method, and recognition program |
Also Published As
Publication number | Publication date |
---|---|
JP3863809B2 (en) | 2006-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3863809B2 (en) | Input system by hand image recognition | |
CN107038424B (en) | Gesture recognition method | |
Sarkar et al. | Hand gesture recognition systems: a survey | |
Gurav et al. | Real time finger tracking and contour detection for gesture recognition using OpenCV | |
US9372546B2 (en) | Hand pointing estimation for human computer interaction | |
Hasan et al. | RETRACTED ARTICLE: Static hand gesture recognition using neural networks | |
Hasan et al. | Hand gesture modeling and recognition using geometric features: a review | |
JP4332649B2 (en) | Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method | |
Wen et al. | A robust method of detecting hand gestures using depth sensors | |
Bilal et al. | Vision-based hand posture detection and recognition for Sign Language—A study | |
Kulshreshth et al. | Poster: Real-time markerless kinect based finger tracking and hand gesture recognition for HCI | |
JP6066093B2 (en) | Finger shape estimation device, finger shape estimation method, and finger shape estimation program | |
JPH10214346A (en) | Hand gesture recognizing system and its method | |
Abe et al. | Virtual 3-D interface system via hand motion recognition from two cameras | |
Hussain et al. | Hand gesture recognition system with real-time palm tracking | |
Tofighi et al. | Rapid hand posture recognition using adaptive histogram template of skin and hand edge contour | |
JP6651388B2 (en) | Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system | |
Weerasekera et al. | Robust asl fingerspelling recognition using local binary patterns and geometric features | |
JP2009288917A (en) | Information processor, information processing method and program | |
Takimoto et al. | Classification of hand postures based on 3d vision model for human-robot interaction | |
US20210158565A1 (en) | Pose selection and animation of characters using video data and training techniques | |
CN111722710A (en) | Method for starting augmented reality AR interactive learning mode and electronic equipment | |
Caplier et al. | Comparison of 2D and 3D analysis for automated cued speech gesture recognition | |
Itkarkar et al. | A study of vision based hand gesture recognition for human machine interaction | |
Xu et al. | Bare hand gesture recognition with a single color camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060929 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101006 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111006 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121006 Year of fee payment: 6 |