JP2014106603A - Information terminal device - Google Patents
Information terminal device Download PDFInfo
- Publication number
- JP2014106603A JP2014106603A JP2012257421A JP2012257421A JP2014106603A JP 2014106603 A JP2014106603 A JP 2014106603A JP 2012257421 A JP2012257421 A JP 2012257421A JP 2012257421 A JP2012257421 A JP 2012257421A JP 2014106603 A JP2014106603 A JP 2014106603A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- finger
- feature amount
- palm
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 60
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 230000005484 gravity Effects 0.000 claims description 21
- 239000000284 extract Substances 0.000 abstract description 4
- 230000036544 posture Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 9
- 210000001015 abdomen Anatomy 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、表示部により情報を提示する情報端末装置に関し、特に、撮像部と撮像対象との相対的位置関係の変化及び撮像対象の変形によって表示部での表示情報を制御できる情報装置端末に関する。 The present invention relates to an information terminal device that presents information on a display unit, and more particularly to an information device terminal that can control display information on a display unit by changing a relative positional relationship between an imaging unit and an imaging target and by changing the imaging target. .
撮像対象との相対的な位置関係に応じて情報を提示する装置は、提示する情報を直感的に変化させることが可能であり、利用者の利便性を向上させることができる。このような装置を実現する技術として、以下のようなものが公開されている。 An apparatus that presents information according to a relative positional relationship with an imaging target can intuitively change the information to be presented, and can improve user convenience. As techniques for realizing such an apparatus, the following are disclosed.
特許文献1では、物体の色に近似した色が付され、かつその外形及び配置の組み合わせにより識別情報を構成する複数のマーカエレメントで構成されるマーカユニットを物体に配置し、該物体のカメラ映像を解析することによって、現実環境における物体に仮想情報を重畳表示する際の位置合わせを行う複合現実感システムが開示されている。 In Patent Document 1, a marker unit that is provided with a color approximate to the color of an object and that includes a plurality of marker elements that constitute identification information by a combination of its outer shape and arrangement is arranged on the object, and a camera image of the object A mixed reality system that performs alignment when virtual information is superimposed and displayed on an object in a real environment is disclosed.
特許文献2では、位置姿勢センサが配置された現実空間の実写画像に、位置姿勢センサとカメラの計測範囲を重ね合わせた合成画像を生成する画像合成装置が開示されている。 Patent Document 2 discloses an image composition device that generates a composite image in which a position and orientation sensor and a measurement range of a camera are superimposed on a real image in which a position and orientation sensor is arranged.
特許文献3では、モーションセンサが検出した移動、傾動の方向及び量に応じて、表示する情報をスクロールまたはズームするとともに、キー入力の所定キーを操作することによりスクロールまたはズームを停止する機能を有するポータブル機器が開示されている。 Patent Document 3 has a function of scrolling or zooming information to be displayed according to the movement and tilting direction and amount detected by the motion sensor, and stopping scrolling or zooming by operating a predetermined key for key input. A portable device is disclosed.
非特許文献1では、カメラで撮像した手の画像から曲率が大きな箇所を指先として検出し、楕円フィッティングの技術を利用して、検出された手の場所に位置合わせして情報を表示する手法が開示されている。 In Non-Patent Document 1, there is a method in which a part having a large curvature is detected as a fingertip from an image of a hand imaged by a camera, and information is displayed by aligning with the detected hand position using an ellipse fitting technique. It is disclosed.
特許文献1の複合現実感システムでは、カメラ画像におけるマーカユニットの位置により現実環境に重畳表示する仮想情報の位置が制御されるが、物体に予め人工的なマーカエレメントを配置しておく必要がある。このため、この複合現実感システムでの手法を利用できる場所が限定されるという課題がある。 In the mixed reality system of Patent Document 1, the position of virtual information to be superimposed and displayed in the real environment is controlled by the position of the marker unit in the camera image. However, it is necessary to place an artificial marker element on the object in advance. . For this reason, there is a problem that a place where the method in the mixed reality system can be used is limited.
特許文献2の画像合成装置では、位置姿勢センサを必要としている。また、特許文献3のポータブル機器では、モーションセンサを必要としている。このため、これらにおける手法を利用できる装置が限定されるという課題がある。また、センサ類の搭載は、端末のコスト上昇を招くだけでなく、装置の小型化や省電力化が困難になるという課題もある。 The image synthesizing apparatus of Patent Document 2 requires a position and orientation sensor. In addition, the portable device disclosed in Patent Document 3 requires a motion sensor. For this reason, there exists a subject that the apparatus which can utilize the method in these is limited. In addition, mounting sensors does not only increase the cost of the terminal, but also makes it difficult to reduce the size and power consumption of the device.
非特許文献1の手法では、特に曲率が大きな箇所を指先として検出するので、情報を正しく位置合わせして表示するには、指が丸く見えるくらいの近距離かつ高解像度画像を必要とする。また、処理負荷が大きい楕円フィッティングを用いて指先を検出するので、全ての指の指先を検出するとなると、処理時間がかかりすぎるという課題もある。 In the method of Non-Patent Document 1, a portion having a particularly large curvature is detected as a fingertip. Therefore, in order to correctly align and display information, a short-distance and high-resolution image that allows the finger to appear round is required. In addition, since the fingertips are detected using ellipse fitting with a large processing load, there is a problem that it takes too much processing time to detect the fingertips of all fingers.
本発明の目的は、上記従来技術の課題を解決し、特別なマーカやセンサ等を用いることなく、表示部で表示する情報を確実かつ高精度に制御できる情報端末装置を提供することにある。 The objective of this invention is providing the information terminal device which can control the information displayed on a display part reliably and with high precision, without solving the subject of the said prior art and using a special marker, a sensor, etc.
上記目的を達成するため、本発明は、撮像部を有する情報端末装置であって、該撮像部は所定の撮像対象を撮像してその画像を得ており、前記画像より前記撮像対象の所定の第1特徴量及び第2特徴量を抽出し、前記第1特徴量に基づいて前記撮像対象の前記撮像部に対する相対的な位置関係を推定すると共に、当該位置関係及び前記第2特徴量に基づいて前記撮像対象の形状を推定する推定部と、情報を表示する表示部と、該表示部で表示する情報を記憶する記憶部と、該記憶部から読み出して前記表示部で表示する情報を、前記推定された位置関係及び形状に基づいて制御する制御部と、を備えることを特徴とする。 In order to achieve the above object, the present invention is an information terminal device having an imaging unit, wherein the imaging unit captures a predetermined imaging target to obtain an image, and the imaging target is determined from the image. Extracting the first feature amount and the second feature amount, estimating the relative positional relationship of the imaging target with respect to the imaging unit based on the first feature amount, and based on the positional relationship and the second feature amount An estimation unit that estimates the shape of the imaging target, a display unit that displays information, a storage unit that stores information to be displayed on the display unit, and information that is read from the storage unit and displayed on the display unit, And a control unit that controls based on the estimated positional relationship and shape.
本発明によれば、撮像部に対して撮像対象の位置及び姿勢を変化させる又は撮像対象の形状を変化させるだけで表示部での表示情報を制御することができるので、情報端末装置を利用するユーザに直感的な操作環境を提供することができる。また、当該制御は画像解析に基づくので、特殊なセンサ等を必要としない。さらに、位置及び姿勢と、形状と、の変化で制御を行うので、多様な制御が可能となる。 According to the present invention, since the display information on the display unit can be controlled simply by changing the position and orientation of the imaging target or changing the shape of the imaging target with respect to the imaging unit, the information terminal device is used. An intuitive operating environment can be provided to the user. Further, since the control is based on image analysis, no special sensor or the like is required. Furthermore, since the control is performed by changing the position, posture, and shape, various controls are possible.
以下、図面を参照して本発明を説明する。以下では、情報端末装置として携帯端末を利用し、撮像対象を手とした場合について説明する。しかし、本発明の情報端末装置は、携帯端末に限られるものではなく、撮像部を備えたものであればどのような情報端末装置でもよく、例えば、デスクトップ型、ラップトップ型又はその他のコンピュータなどでもよい。また、画像処理上の同様の特徴を有していれば、利用する色情報などを適宜置き換えることで、手以外の撮像対象にも本発明を適用可能である。 The present invention will be described below with reference to the drawings. Hereinafter, a case where a mobile terminal is used as the information terminal device and the imaging target is a hand will be described. However, the information terminal device of the present invention is not limited to a portable terminal, and may be any information terminal device provided with an imaging unit, such as a desktop type, a laptop type, or another computer. But you can. In addition, if the image processing has similar characteristics, the present invention can be applied to an imaging target other than the hand by appropriately replacing color information to be used.
図1は本発明の一実施形態に係る情報端末装置の機能ブロック図である。情報端末装置10は、撮像部1、推定部2、制御部3、記憶部4及び表示部5を備える。また、併記するように、推定部2は特徴抽出部21、特徴対応部22、姿勢推定部23及び形状推定部24を含む。 FIG. 1 is a functional block diagram of an information terminal device according to an embodiment of the present invention. The information terminal device 10 includes an imaging unit 1, an estimation unit 2, a control unit 3, a storage unit 4, and a display unit 5. Further, as will be described, the estimation unit 2 includes a feature extraction unit 21, a feature correspondence unit 22, a posture estimation unit 23, and a shape estimation unit 24.
撮像部1は、所定のサンプリング周期で撮像対象を連続的に撮像して、その画像を推定部2へ出力する。撮像部1としては携帯端末に標準装備されるデジタルカメラを用いることができる。 The imaging unit 1 continuously captures an imaging target at a predetermined sampling period and outputs the images to the estimation unit 2. As the imaging unit 1, a digital camera provided as a standard in a portable terminal can be used.
推定部2には、撮像対象の位置及び姿勢の判断基準として既知の位置及び姿勢での撮像対象に対して基準特徴量が予め登録されている。推定部2は、特徴抽出部21にて撮像部1から入力される画像から基準特徴量に対応する特徴量を検出し、特徴対応部22にて両者の対応関係を推定する。次に、推定部2は、姿勢推定部23にて対応する特徴量と基準特徴量の座標位置から、予め設定された変換式に基づいて撮像部に対する撮像対象の相対的位置及び姿勢を表す係数を推定する。 In the estimation unit 2, a reference feature amount is registered in advance for an imaging target at a known position and orientation as a criterion for determining the position and orientation of the imaging target. The estimation unit 2 detects a feature amount corresponding to the reference feature amount from the image input from the imaging unit 1 by the feature extraction unit 21, and estimates the correspondence between the two by the feature correspondence unit 22. Next, the estimation unit 2 calculates a coefficient representing the relative position and orientation of the imaging target with respect to the imaging unit based on a preset conversion formula from the coordinate position of the corresponding feature amount and the reference feature amount in the orientation estimation unit 23. Is estimated.
さらに、推定部2は、形状推定部24にて前記姿勢推定処理に用いなかった基準特徴量に対して、該姿勢推定結果を適用し対応する特徴量との比較から撮像対象の形状の変化量を形状情報として推定する。推定部2において係数の推定に用いられた変換式、推定された係数及び形状情報は、制御部3へ出力される。 Further, the estimation unit 2 applies the posture estimation result to the reference feature amount that is not used in the posture estimation process in the shape estimation unit 24, and compares the corresponding feature amount with the amount of change in the shape of the imaging target. Is estimated as shape information. The conversion formula, the estimated coefficient, and the shape information used for estimating the coefficient in the estimation unit 2 are output to the control unit 3.
以上のような基準特徴量のうち、位置及び姿勢の推定に用いるものを第1特徴量、形状の推定に用いるものを第2特徴量と呼ぶこととする。推定部2での処理の詳細は後述する。 Among the above reference feature amounts, those used for position and orientation estimation are referred to as first feature amounts, and those used for shape estimation are referred to as second feature amounts. Details of the processing in the estimation unit 2 will be described later.
記憶部4は、表示部5に表示する表示情報を予め複数蓄積している。情報端末装置10を利用するユーザは、制御部3に対する入力操作で、記憶部4に蓄積されている表示情報の中から任意の表示情報を選択して表示部5に表示させることができる。 The storage unit 4 stores a plurality of display information to be displayed on the display unit 5 in advance. A user using the information terminal device 10 can select arbitrary display information from the display information stored in the storage unit 4 and display it on the display unit 5 by an input operation on the control unit 3.
表示部5での情報表示の際、制御部3は、推定部2から入力された変換式及び変換係数を表示情報に適用して表示情報を加工するように表示情報を制御する。また、制御部3は推定部2から入力された形状情報に応じて表示情報を制御する。 When displaying information on the display unit 5, the control unit 3 controls the display information so as to process the display information by applying the conversion formula and the conversion coefficient input from the estimation unit 2 to the display information. Further, the control unit 3 controls display information according to the shape information input from the estimation unit 2.
以下、推定部2の詳細を説明する。推定部2では、特徴抽出部21の処理、特徴対応部22の処理、姿勢推定部23の処理、形状推定部24の処理を所定のタイミング間隔で入力される各画像を対象として順次繰り返し実行する。図2及び図3は共に、撮像対象の一例としての手形状と、その特徴量と、その抽出手法とを説明するための図であり、当該例を各処理の説明において適宜参照する。 Hereinafter, details of the estimation unit 2 will be described. In the estimation unit 2, the processing of the feature extraction unit 21, the processing of the feature correspondence unit 22, the processing of the posture estimation unit 23, and the processing of the shape estimation unit 24 are sequentially and repeatedly executed for each image input at a predetermined timing interval. . 2 and 3 are diagrams for explaining a hand shape as an example of an imaging target, a feature amount thereof, and an extraction method thereof, and the example will be referred to as appropriate in the description of each process.
図2では(1)に示すように、当該手形状は掌側を撮像用に利用して第3指乃至第5指を握り込むと共に、第1指及び第2指を開いて構成されている。当該形状例であれば、基準特徴量を以下のように設定することが望ましい。この場合、握り込んだ部分はそのままの状態を保って動かさないようにしたうえで、手の平自体の位置及び姿勢を変化させ、また、第1 指及び/又は第2 指を概ね開いた状態において変化させることで、制御がなされる。
第1特徴量…第3指乃至第5指の境界線((3)の各線分群L23,L34,L45及びL50)の端点、または、当該各指の第1関節及び第2関節の座標((3)の点P31,P32,P41,P42,P51及びP52)
第2特徴量…第1 指及び/又は第2 指の指先座標((3)の点P10及びP20)
In FIG. 2, as shown in (1), the hand shape is configured by grasping the third to fifth fingers using the palm side for imaging and opening the first and second fingers. . In the case of the shape, it is desirable to set the reference feature amount as follows. In this case, keep the gripped part as it is and do not move it, change the position and posture of the palm itself, and change in the state where the first and / or second fingers are almost open. By doing so, control is performed.
First feature amount ... the end point of the boundary line of the third finger to the fifth finger (each line segment group L23, L34, L45 and L50 of (3)), or the coordinates of the first joint and the second joint of each finger (( 3) Points P31, P32, P41, P42, P51 and P52)
2nd feature amount ... fingertip coordinates of the first and / or second finger (points P10 and P20 in (3))
図3では(1)に示すように、当該手形状は手を握り込んだうえで、手の甲の一つの側面である第1指及び第2指の見える側を撮像用に利用するものである。当該形状例であれば、基準特徴量を以下のように設定することが望ましい。
第1特徴量…握り込んだ第2指の側面に形成される線分群((3)の線分群L200)の端点((4)の点P201,P202,P203,P211,P212及びP221)
第2特徴量…第1指の先端座標((3)の点P30)
In FIG. 3, as shown in (1), after grasping the hand, the hand shape uses one side of the back of the hand, on which the first and second fingers can be seen, for imaging. In the case of the shape, it is desirable to set the reference feature amount as follows.
The first feature amount is the end point (points P201, P202, P203, P211, P212 and P221 of (4)) of the line segment group (line segment group L200 of (3)) formed on the side surface of the second finger grasped
2nd feature amount ... 1st finger tip coordinates (point P30 in (3))
なお、図3の例における第1特徴量を定義する線分群L200の各々は具体的には(4)に示すように、握り込んで関節が折り畳まれた第2指の側面において、以下のようにして形成される各線分L201〜L220である。
線分L201…折り畳まれた第1関節により第2指の側面に形成される「しわ」(あるいは、第1関節を挟んだ指の腹同士が接して形成される境界線)
線分L202…折り畳まれた第2関節により第2指の側面に形成される「しわ」(あるいは、第2関節を挟んだ指の腹同士が接して形成される境界線)
線分L203…折り畳まれた第3関節により第2指の側面に形成される「しわ」(あるいは、第3関節を挟んだ指の腹及び付け根部分が接して形成される境界線)
線分L210…第1関節より先端側の指の腹と、第2関節及び第3関節の間の指の腹と、が接して形成される境界線
線分L220…第1関節より先端側の指の腹と第3関節つけ根の指の腹とが接して形成される境界線
In addition, each of the segment groups L200 defining the first feature amount in the example of FIG. 3 specifically, as shown in (4), on the side surface of the second finger that is grasped and the joint is folded, is as follows: The line segments L201 to L220 are formed as described above.
Line segment L201: “wrinkle” formed on the side surface of the second finger by the folded first joint (or a boundary line formed by contacting the belly of the finger across the first joint)
Line segment L202: “wrinkle” formed on the side surface of the second finger by the folded second joint (or a boundary line formed by contacting the belly of the finger across the second joint)
Line segment L203: "wrinkle" formed on the side surface of the second finger by the folded third joint (or a boundary line formed by contact of the belly and base portion of the finger across the third joint)
Line segment L210: a boundary line formed by the contact between the belly of the finger on the tip side from the first joint and the belly of the finger between the second joint and the third joint Line segment L220: on the tip side of the first joint Boundary formed by the contact between the belly of the finger and the belly of the third joint base
(特徴抽出部21の処理)
まず、特徴抽出部21は、基準特徴量に該当する撮像対象の特徴量を、撮像部から入力される画像から抽出する。境界線抽出例としては、まずCanny 等のエッジ検出を行い、ノイズ除去及びエッジの拡幅等の整形をする。次に、Hough 変換によってエッジ成分の座標を極座標系に変換する。続いて、同じ座標になった個数が多い極座標上の点を直交座標系の直線として検出し、両端を境界線の端点座標として抽出する。当該抽出された例が図2及び3において共に、(1)の画像から抽出された線分として(2)に示されている。
(Processing of the feature extraction unit 21)
First, the feature extraction unit 21 extracts the feature amount of the imaging target corresponding to the reference feature amount from the image input from the imaging unit. As an example of boundary line extraction, first, edge detection such as Canny is performed, and noise removal and edge widening are performed. Next, the edge component coordinates are converted into a polar coordinate system by Hough transform. Subsequently, a large number of polar coordinate points having the same coordinates are detected as straight lines in the orthogonal coordinate system, and both ends are extracted as end point coordinates of the boundary line. The extracted example is shown in (2) as a line segment extracted from the image (1) in FIGS.
最後に、後段の特徴対応処理で安定的に判定できるようにするため、当該抽出線分の中から境界線として正しい特徴量を選別する。選別には、図2の手形状を対象とする場合であれば、下記[1]〜[5]の全てまたは一部を満たすことを条件として課すことができる。また、図3の場合であれば[3]を除外して、[1],[2],[4],[5]の全てまたは一部を満たすことを条件として課すことができる。
[1] 線分の色が予め定めた閾値より小さいこと
[2] 線分の長さが予め定めた閾値より長いこと
[3] 近傍に平行な線分が存在すること(平行に関しては線分間の角にて閾値判定)
[4] 線分の近傍領域の色変化が予め設定された閾値より小さいこと
[5] 複数の線分の密度が予め定めた閾値より少ないこと
Finally, in order to be able to make a stable determination by subsequent feature correspondence processing, a correct feature amount is selected as a boundary line from the extracted line segments. In the case of selecting the hand shape shown in FIG. 2 for selection, it can be imposed on the condition that all or part of the following [1] to [5] are satisfied. In the case of FIG. 3, [3] can be excluded and all or a part of [1], [2], [4], and [5] can be satisfied as a condition.
[1] The color of the line is smaller than a predetermined threshold
[2] The length of the line segment is longer than a predetermined threshold
[3] There are parallel line segments in the vicinity (for parallel, the threshold is determined by the angle of the line segment)
[4] Color change in the vicinity of the line segment is smaller than a preset threshold
[5] Density of multiple line segments is less than a predetermined threshold
なお、上記[4]は境界線が手の平において形成されることから、手の平が概ね肌色をなすことに基づくものである。当該[4]を課す場合には、所定の色特徴に基づいて手の平の領域を検出したのち、当該手の平領域内及び領域境界を対象として線分を選出するようにしてもよい。また、当該[4]に該当する線分の選出に際して、線分が手の平領域の内部に形成されているのか、あるいは手の平領域とその他の領域との境界に形成されているか、についての情報を取得しておいてもよい。[4]の「近傍領域」は手の平内部に限定することが、特に境界に形成される線分を選出する場合において好ましい。 Note that the above [4] is based on the fact that the boundary line is formed in the palm of the hand, so that the palm is generally skin-colored. When imposing [4], after detecting a palm region based on a predetermined color feature, a line segment may be selected for the palm region and the region boundary. In addition, when selecting the line segment corresponding to [4], information on whether the line segment is formed inside the palm area or at the boundary between the palm area and other areas is acquired. You may keep it. The “near area” of [4] is preferably limited to the inside of the palm, especially when selecting a line segment formed at the boundary.
当該条件により、図2の(3)に概念的に示すような、第1指の境界線としての線分群L10及びL11と、第2指の境界線としての線分群L20及びL21と、前記第1特徴量において説明した第3指乃至第5指の境界線としての線分群L23乃至L50が得られる。特に上記[3]において線分群内の各線分のなす角が所定範囲に収まるようにすることで、各境界線に対応する線分群が得られる。 According to the conditions, as conceptually shown in (3) of FIG. 2, the line segment groups L10 and L11 as the boundary line of the first finger, the line segment groups L20 and L21 as the boundary line of the second finger, and the first Line segment groups L23 to L50 as the boundary lines of the third to fifth fingers described in the one feature amount are obtained. In particular, in [3] above, by making the angle formed by each line segment within the line segment group fall within a predetermined range, a line segment group corresponding to each boundary line can be obtained.
また、前記第1,第2特徴量における関節、指先等の座標の抽出例としては、前記境界線を抽出した後、予め設定された閾値より境界線同士の中心線が他のエッジ成分と近接した座標を関節座標若しくは指先座標として抽出する。あるいは、関節部位では他の部位と血流が異なるため、前記中心線に沿って輝度若しくは色差の変化を見たとき、極値を取る座標を関節座標として抽出する。 In addition, as an example of extracting the coordinates of joints, fingertips, etc. in the first and second feature quantities, after extracting the boundary line, the center line between the boundary lines is closer to other edge components than a preset threshold value. The extracted coordinates are extracted as joint coordinates or fingertip coordinates. Alternatively, since blood flow is different from other parts in the joint part, when the change in luminance or color difference is seen along the center line, coordinates that take extreme values are extracted as joint coordinates.
図2の(3)では例えば、境界線L23及びL34の中心線M30においてエッジ成分との近接箇所あるいは極値を取る箇所として点P31及びP32が関節座標として抽出される。同様に境界線L34及びL45の中心線M40から点P41及びP42が、境界線L45及びL50の中心線M50から点P51及びP52が、関節座標として抽出される。また同様に、境界線L10及びL11の中心線(不図示)から点P10が、境界線L20及びL21の中心線(不図示)から点P20が、指先座標として抽出される。 In (3) of FIG. 2, for example, points P31 and P32 are extracted as joint coordinates as locations that are close to the edge component or locations that take extreme values on the center line M30 of the boundary lines L23 and L34. Similarly, points P41 and P42 are extracted from the center line M40 of the boundary lines L34 and L45, and points P51 and P52 are extracted from the center line M50 of the boundary lines L45 and L50 as joint coordinates. Similarly, a point P10 is extracted from the center lines (not shown) of the boundary lines L10 and L11, and a point P20 is extracted from the center lines (not shown) of the boundary lines L20 and L21 as fingertip coordinates.
一方、当該条件により、図3の(3)に概念的に示すような、第2指が構成する前述の線分群L200と、第1指の先端座標P30に連なる線分L300とが、手の内部領域から得られる。これら線分群L200及びL300を「内部線」と呼ぶこととする。なお、線分L300は、握り込んだ状態における第1指と第2指との境界線として形成されている。 On the other hand, according to the conditions, the above-described line segment group L200 formed by the second finger and the line segment L300 connected to the tip coordinate P30 of the first finger as conceptually shown in (3) of FIG. Obtained from the inner area. These line segment groups L200 and L300 will be referred to as “internal lines”. The line segment L300 is formed as a boundary line between the first finger and the second finger in a grasped state.
(特徴対応部22の処理)
次に、特徴対応部22は、前記特徴抽出部21で抽出された特徴量と、予め設定された基準特徴量(第1特徴量及び第2特徴量のそれぞれに対する基準値)との対応関係を決定する。
(Processing of feature correspondence unit 22)
Next, the feature correspondence unit 22 determines the correspondence between the feature amount extracted by the feature extraction unit 21 and a preset reference feature amount (reference value for each of the first feature amount and the second feature amount). decide.
撮像対象が図2のような手形状の場合、当該対応関係は、特徴量として抽出された境界線がいずれの指の境界線であるかを決定することで定まる。当該手形状には配置及び長さに関して偏りがあるので、特徴量が含まれる領域(手の平の領域)における特徴量同士の配置又は特徴量の長さを利用できる。 When the imaging target is a hand shape as shown in FIG. 2, the corresponding relationship is determined by determining which finger is the boundary line extracted as the feature amount. Since the hand shape is biased with respect to arrangement and length, it is possible to use the arrangement of feature quantities or the length of the feature quantity in a region (a palm region) including the feature amount.
配置によって対応関係を決定する一例として、該領域の重心を求め、重心との距離が短い順の上位2つの境界線を第3指が構成する特徴量として判断する。図2の(3)であれば、手の平の重心G1に最も近い境界線の上位2つはL23及びL34であるので、当該境界線L23及びL34は第3指によって生じた境界線であると判断できる。 As an example of determining the correspondence relationship by arrangement, the center of gravity of the region is obtained, and the top two boundary lines in the order of short distance from the center of gravity are determined as the feature amounts that the third finger configures. In the case of (3) in FIG. 2, since the top two boundary lines closest to the center of gravity G1 of the palm are L23 and L34, it is determined that the boundary lines L23 and L34 are boundary lines generated by the third finger. it can.
あるいは、近接して対向する3つの境界線ペアとして、ペアL23及びL34と、ペアL34及びL45と、ペアL45及びL50と、の囲む領域(境界線の端点同士を直線でつないで囲んで得られる領域)の各重心を求め、手の平の重心と最も近い重心を有するペアL23及びL34として、第3指を構成する境界線を決定してもよい。 Or, as three boundary line pairs that face each other in close proximity, the pair L23 and L34, the pair L34 and L45, and the pair L45 and L50 are surrounded by a region surrounded by connecting the end points of the boundary line with a straight line. The boundary line constituting the third finger may be determined as the pair L23 and L34 having the center of gravity closest to the palm center of gravity.
さらに、当該境界線L23及びL34と垂直な線分が交差する順に、第4 指が構成する特徴量、第5 指が構成する特徴量のように割り当てる。当該順は各境界線の中心線が当該境界線L23及びL34の中心線に近い順としてもよい。こうして、境界線L34及びL45が第4指によって生じた境界線であり、境界線L45及びL50が第5指によって生じた境界線であると判断できる。 Furthermore, the feature amounts configured by the fourth finger and the feature amounts configured by the fifth finger are assigned in the order in which the line segments perpendicular to the boundary lines L23 and L34 intersect. The order may be such that the center line of each boundary line is close to the center lines of the boundary lines L23 and L34. Thus, it can be determined that the boundary lines L34 and L45 are boundary lines generated by the fourth finger, and the boundary lines L45 and L50 are boundary lines generated by the fifth finger.
あるいは、長さが最小となる境界線、すなわち境界線L50を第5 指によって生じる境界線として判断し、該特徴量と垂直な線分が交差する順に、上記と同様の割り当てを逆方向に行ってもよい。すなわち、第5指によって生じるもう1つの境界線がL45であり、第4 指によって生じる境界線がL45及びL34であり、第3 指によって生じる境界線がL34及びL23であると割り当てる。 Alternatively, the boundary line having the minimum length, that is, the boundary line L50 is determined as the boundary line generated by the fifth finger, and the same assignment as above is performed in the reverse direction in the order in which the line segments perpendicular to the feature amount intersect. May be. That is, another boundary line generated by the fifth finger is L45, the boundary lines generated by the fourth finger are L45 and L34, and the boundary lines generated by the third finger are L34 and L23.
なお、上記第3指乃至第5指の割り当てを実行する際には、予め境界線のうち第1指及び第2指によって生じたものを特定して探索対象から除外しておく必要がある。この際、前記手の平の重心を利用して、重心との距離が大きい側の4本の境界線を除外するようにしてもよい。また、前述のように近接して対向する境界線ペアの囲む領域の重心をペアL10及びL11とペアL20及びL21についても求め、5つのペアの重心のうち手の平の重心との距離が下位となる2つとして除外してもよい。 Note that, when performing the assignment of the third finger to the fifth finger, it is necessary to specify in advance the boundary line generated by the first finger and the second finger and exclude it from the search target. At this time, the center of gravity of the palm may be used to exclude the four boundary lines on the side having a larger distance from the center of gravity. Further, as described above, the center of gravity of the region surrounded by the border line pair that is closely opposed to each other is also obtained for the pair L10 and L11 and the pair L20 and L21, and the distance from the center of gravity of the palm among the five pairs of center is lower. You may exclude it as two.
あるいは、概ね平行をなして近傍で対向している2本の境界線であって、当該2本の境界線が共に手の平の領域の境界線上にも存在しているものを除外するようにしてもよい。なおまた、上記重心等を求める際の手の平の領域は、前述のように肌色に関する所定の色特徴に基づいて画像より抽出しておけばよい。 Alternatively, it is possible to exclude two boundary lines that are substantially parallel and face each other in the vicinity, both of which are also present on the boundary of the palm area. Good. In addition, the palm region for obtaining the center of gravity or the like may be extracted from the image based on the predetermined color feature relating to the skin color as described above.
あるいは、本発明者らによる特開2012-8936号公報に開示の技術により、手の平領域の外接多角形を求め、非肌色領域に形成される角度のうち最小の角度を形成する2辺の頂点を第1指及び第2指の先端であると判断してもよい。 Alternatively, by the technique disclosed in Japanese Patent Application Laid-Open No. 2012-8936 by the present inventors, the circumscribed polygon of the palm area is obtained, and the vertices of two sides forming the minimum angle among the angles formed in the non-skin color area are determined. It may be determined that the tip of the first finger and the second finger.
また、当該対応関係の決定に従い、特徴抽出部21で求めた第2特徴量も対応が定まることとなる。図2の例であればすなわち、点P10が第1指の先端であり、点P20が第2指の先端であることが決定される。 Further, according to the determination of the correspondence relationship, the correspondence is also determined for the second feature amount obtained by the feature extraction unit 21. In the example of FIG. 2, that is, it is determined that the point P10 is the tip of the first finger and the point P20 is the tip of the second finger.
一方、撮像対象が図3のような手形状の場合、当該対応関係における第1特徴量の特定に際してまず前記内部線のうち、線分群L200を線分L300から区別して抽出する必要がある。L200の抽出例としては、まず前記内部線を抽出した後、線分群の端点(境界に存在する点P30を除いた、手の平領域内部に存在する端点)の重心を求める。当該条件により、端点としては、第1指の先端座標P30に連なる線分L300のP30ではない端点(図3の(3)に示す、点P30の逆側の端点としての点P99)と、L200の3つの端点(図3の(4)に示す点P201,P202及びP203)との4つの端点が得られていることから、当該4端点の重心に最も近い端点を図3の(4)のL203の端点P203として抽出する。 On the other hand, when the imaging target is a hand shape as shown in FIG. 3, it is necessary to first extract the line segment group L200 from the line segment L300 out of the internal lines when specifying the first feature amount in the corresponding relationship. As an example of extracting L200, first, the internal line is extracted, and then the center of gravity of the end point of the line segment group (the end point existing inside the palm area excluding the point P30 existing at the boundary) is obtained. According to the conditions, as the end points, the end point that is not P30 of the line segment L300 connected to the tip coordinate P30 of the first finger (point P99 as the end point on the opposite side of the point P30 shown in (3) of FIG. 3), and L200 Since the four end points with the three end points (points P201, P202 and P203 shown in (4) of FIG. 3) are obtained, the end point closest to the center of gravity of the four end points is shown in (4) of FIG. Extracted as an end point P203 of L203.
さらに、L203の端点P203から他の3端点と結ぶ3線分を求め、傾きが最も異なる端点をL201の端点P201とし、L201から近い端点をL202の端点P202として抽出する。それぞれの端点に連なる線分がそれぞれL203,L201,L202として得られるので、残りの線分をL210,L220に割り当てる。 Further, three line segments connecting from the end point P203 of L203 to the other three end points are obtained, and the end point having the most different inclination is set as the end point P201 of L201, and the end point close to L201 is extracted as the end point P202 of L202. Since the line segments connected to the respective end points are obtained as L203, L201, and L202, respectively, the remaining line segments are assigned to L210 and L220.
なお、上記抽出するための「端点」は内部線(L200及びL300)の全体を一体として見た場合に形成される端点である。第1特徴量として用いる端点は、線分群L200を構成する各線分L201,L202,L203,L210及びL220のそれぞれの端点であり、前述の点P201,P202及びP203にさらに線分L210の両端の2点(図3(4)にて白丸で示す点P211及びP212)と、線分L220のうち線分L210の端点ではない側の端点(点P221)とを加えた6点となる。 The “end point” for extraction is an end point formed when the entire internal lines (L200 and L300) are viewed as one body. The end points used as the first feature amount are the end points of each of the line segments L201, L202, L203, L210, and L220 constituting the line segment group L200. A point (points P211 and P212 indicated by white circles in FIG. 3 (4)) and an end point (point P221) on the side of the line segment L220 that is not the end point of the line segment L210 are added.
また、第2特徴量である点P30については、本発明者らによる特開2012-8936号広報に開示の技術により、手領域の外接多角形を求め、肌色領域に形成される角度のうち最小の角度を形成する2辺の頂点を選び、前記重心から遠い頂点を第1指の先端としてP30であると判断する。あるいは、線分L300の端点であって且つ手の平領域の境界部に存在する点としてP30を判断してもよい。 For the point P30, which is the second feature amount, the circumscribed polygon of the hand area is obtained by the technique disclosed in the publication of Japanese Patent Laid-Open No. 2012-8936 by the present inventors, and the smallest of the angles formed in the skin color area The vertexes of the two sides forming the angle are selected, and the vertex far from the center of gravity is determined to be P30 with the tip of the first finger. Alternatively, P30 may be determined as a point that is an end point of the line segment L300 and exists at the boundary portion of the palm region.
(姿勢推定部23の処理)
姿勢推定部23は、予め同一平面上に登録されている基準特徴量のうち第1特徴量と前記検出された第1特徴量とを比較することで、撮像部1と撮像対象の相対的な位置及び姿勢を変換係数として推定する。姿勢推定部23で推定された変換係数は形状推定部24及び制御部3へ送られる。
(Processing of posture estimation unit 23)
The posture estimation unit 23 compares the first feature amount of the reference feature amounts registered in advance on the same plane with the detected first feature amount, thereby comparing the imaging unit 1 and the imaging target relative to each other. The position and orientation are estimated as conversion coefficients. The transformation coefficient estimated by the posture estimation unit 23 is sent to the shape estimation unit 24 and the control unit 3.
図2の例であれば、撮像部1に対して所定位置及び姿勢にある際の当該形状の手の平の画像から得られる第1特徴量を所定の基準値として予め登録しておき、姿勢推定対象の画像より検出された第1特徴量と比較して、当該基準値を与える所定位置及び姿勢からの変化として、画像中の手の平の位置及び姿勢の変化を推定する。図3の例の場合も同様である。 In the example of FIG. 2, the first feature amount obtained from the palm image of the shape when the imaging unit 1 is at a predetermined position and posture is registered in advance as a predetermined reference value, and the posture estimation target Compared with the first feature amount detected from the image of, a change in the position and posture of the palm in the image is estimated as a change from the predetermined position and posture that gives the reference value. The same applies to the example of FIG.
画像より検出され対応付けされた第1特徴量、すなわち、図2の例では第3指乃至第5指の境界線端点座標又は関節座標の座標を、また、図3の例では境界線分の各端点の座標を(x'j, y'j) (1≦j≦n)[図2及び図3の例では共にn=6だが、別種類の特徴量を用いる一般の場合も含めてnとする]とし、その基準特徴量としての座標を(xj, yj) (1≦j≦n)とし、予め設定した変換式において両者が一致するような変換係数ak (1 ≦ k ≦ m , m ≦2n)を求める。変換式が次式(式1)及び(式2)の射影変換を利用するとき、m = 2n では2n 元連立方程式として解くことができる。m < 2n では最小二乗法で解くこともできる。 The first feature amount detected and associated from the image, that is, the boundary line end point coordinates or joint coordinate coordinates of the third to fifth fingers in the example of FIG. 2, and the boundary line segment in the example of FIG. The coordinates of each end point are (x ' j , y' j ) (1 ≤ j ≤ n) (n = 6 in the examples of Figs. 2 and 3, but n including the general case of using different types of feature quantities. The coordinate as the reference feature is (x j , y j ) (1 ≦ j ≦ n), and the conversion coefficient a k (1 ≦ k ≦ m, m ≦ 2n). When the transformation equation uses the projective transformation of the following equations (Equation 1) and (Equation 2), it can be solved as a 2n simultaneous equation when m = 2n. If m <2n, it can also be solved by the least squares method.
(形状推定部24の処理)
形状推定部24は、姿勢推定に用いなかった別の特徴量、すなわち第2特徴量に対して前記姿勢推定処理で推定された結果から所定位置及び姿勢の際の値を予測し、当該予測された値を基準特徴量の値とを比較することで、撮像対象の形状を推定する。形状推定部24で推定された形状情報は制御部3へ送られる。
(Processing of the shape estimation unit 24)
The shape estimation unit 24 predicts a value at a predetermined position and posture from a result estimated by the posture estimation process for another feature amount that is not used for posture estimation, that is, a second feature amount, and the predicted value The shape of the imaging target is estimated by comparing the obtained value with the value of the reference feature value. The shape information estimated by the shape estimation unit 24 is sent to the control unit 3.
図2の例であれば、画像より検出され対応付けされた第1指及び第2指の先端座標を、姿勢推定結果の射影変換を適用することで、第1特徴量が前記所定の基準値を取る際の手の平の位置及び姿勢で見た際の値として求める。すなわち、姿勢推定処理で推定された射影行列を第1 指及び第2 指の先端座標に適用し、それぞれ適用された基準特徴点座標を原点として前記特徴対応処理で対応付けされた第1 指及び第2 指の特徴点座標との距離を算出し形状情報とする。図3の例でも同様に、画像より求まった第1指の先端座標に、第1特徴量から求まった射影変換を適用して、第1特徴量が基準値を取る際の手の平の位置及び姿勢で見た際の値を求める。 In the example of FIG. 2, by applying the projection transformation of the posture estimation result to the tip coordinates of the first finger and the second finger detected and correlated from the image, the first feature value is the predetermined reference value. It is calculated as the value when looking at the position and posture of the palm when taking. That is, the projection matrix estimated in the posture estimation process is applied to the tip coordinates of the first finger and the second finger, and the first finger and The distance from the feature point coordinates of the second finger is calculated and used as shape information. Similarly, in the example of FIG. 3, the position and orientation of the palm when the first feature value takes the reference value by applying the projective transformation obtained from the first feature value to the tip coordinates of the first finger obtained from the image. Find the value when viewed in.
当該基準座標系の原点を例えば手の平の領域の重心又は図2の例であれば第3指乃至第5指の重心(第1特徴量を構成する点の重心)として定めておき、基準値と比較することで、第1指及び第2指の先端がそれぞれ、当該重心に近いか遠いかを知ることができる。特に、図2の手形状であれば第1指及び第2指が外側へ向けて伸びているか、内側へ向けて曲がっているか、を所定精度で検知することができる。図3の手形状であれば、同様に手領域の重心又は第1特徴量の構成点の重心を原点として定め、第1指の第1関節より先の部分が外側へ向かって伸びているか、内側に向かって折り畳まれているか、を検知できる。 For example, the origin of the reference coordinate system is defined as the center of gravity of the palm region or the center of gravity of the third to fifth fingers (the center of gravity of the points constituting the first feature amount) in the example of FIG. By comparing, it is possible to know whether the tips of the first finger and the second finger are close to or far from the center of gravity. In particular, with the hand shape of FIG. 2, it is possible to detect with a predetermined accuracy whether the first finger and the second finger are extended outward or bent inward. In the case of the hand shape of FIG. 3, similarly, the center of gravity of the hand region or the center of gravity of the constituent point of the first feature amount is set as the origin, and the part beyond the first joint of the first finger extends outward, Whether it is folded inward can be detected.
あるいは、図2の例であれば当該基準特徴点座標での値より、図2の(3)に示すような第1指及び第2指の先端点間の距離D12を形状情報としてもよい。この場合、第1指と第2指との距離が大きいか小さいか、すなわち第1指と第2指とが互いに離れているか、何かをつまみ込むように向かい合っているか、を所定精度で検知することができる。 Alternatively, in the example of FIG. 2, the distance D12 between the tip points of the first finger and the second finger as shown in (3) of FIG. 2 may be used as shape information based on the value at the reference feature point coordinates. In this case, whether the distance between the first finger and the second finger is large or small, that is, whether the first finger and the second finger are separated from each other or facing each other to pinch something with a predetermined accuracy is detected. can do.
ここで、第2特徴量の基準値も、第1特徴量の場合と同様に、手の平の所定形状において予め基準値として登録しておく。図2の例であれば、当該所定形状として、第1指と第2指とをそれぞれ手の平に対して所定の位置関係を持った状態における値を基準値として登録しておく。第1指と第2指とを当該位置から動かすことで、それぞれ当該所定形状から変化した形状となる。 Here, the reference value of the second feature value is registered in advance as a reference value in a predetermined shape of the palm, as in the case of the first feature value. In the example of FIG. 2, as the predetermined shape, a value in a state where the first finger and the second finger have a predetermined positional relationship with the palm of each hand is registered as a reference value. By moving the first finger and the second finger from the position, the shape changes from the predetermined shape.
図3の例であれば、第1指の第1関節から先を、握り込まれた第2〜第5指に対して所定の開き具合となした状態を当該所定形状として、その際の値を基準値として登録しておく。 In the example of FIG. 3, the state where the first joint of the first finger is in a predetermined open state with respect to the grasped second to fifth fingers is defined as the predetermined shape, and the value at that time Is registered as a reference value.
なお、手の平自体の位置及び姿勢が変化すると、画像上から第2特徴量を特定しただけでは当該形状変化を推定することができないが、本発明では第2特徴量の値を画像上から特定してさらに手の平の位置及び姿勢が所定の基準配置にある際の値として求めるので、当該形状変化を推定することが可能となる。 Note that if the position and orientation of the palm itself changes, the shape change cannot be estimated just by specifying the second feature value from the image, but in the present invention, the value of the second feature value is specified from the image. Furthermore, since the palm position and posture are obtained as values when they are in a predetermined reference arrangement, the shape change can be estimated.
図4は、本発明による表示情報の制御例であり、ここでは画面G10においてマウスカーソルを制御している。第1特徴量によって位置及び姿勢を推定し、このうち位置を所定xy平面に投影した2次元座標の値のみを利用して、動きA1として示すようにマウスカーソルの移動制御が行われ、位置M10から位置M11へ移動されている。推定された位置及び姿勢を全て用いた制御を行ってもよい。 FIG. 4 is an example of display information control according to the present invention. Here, the mouse cursor is controlled on the screen G10. The position and orientation are estimated based on the first feature amount, and using only the value of the two-dimensional coordinates obtained by projecting the position onto the predetermined xy plane, the movement control of the mouse cursor is performed as indicated by the movement A1, and the position M10 Has been moved to position M11. You may perform control using all the estimated positions and postures.
一方、第2特徴量を用いて、例えばその原点との距離に閾値判定を加えることによってマウスカーソルの状態制御A2を行うこともでき、ここでは閾値より小さくなった場合にプレス状態M12へ遷移している。また、当該距離の時間変化に基づいて、指先端の動きに対応した各種の制御を行ってもよい。 On the other hand, using the second feature amount, it is also possible to perform the mouse cursor state control A2, for example, by adding a threshold judgment to the distance from the origin, and here, when it becomes smaller than the threshold, transition to the press state M12. ing. Various controls corresponding to the movement of the finger tip may be performed based on the time change of the distance.
ここで特に、第1特徴量による制御と第2特徴量による制御とが独立して実行可能である点により、本発明ではユーザにとって利便性の高い制御が可能となる。例えば図2の手形状を利用するものとして、手の平自体を移動させ、マウスカーソルの移動制御A1を実行している際には、第1指と第2指とを固定してさえおけば、画像上の見え方が変化しても、A2のプレス状態への移行が誤って生じることはない。 Here, in particular, the control according to the first feature value and the control according to the second feature value can be performed independently, so that the present invention enables highly convenient control for the user. For example, when using the hand shape of FIG. 2 and moving the palm itself and executing the mouse cursor movement control A1, as long as the first and second fingers are fixed, the image Even if the above appearance changes, the transition to the pressed state of A2 does not occur by mistake.
次に、本発明における補足事項を述べる。本発明は、図2及び図3で説明したような手形状に限らず、所定の取り決めによって手の平においてその一部分を固定して動かさないようにし、別の一部分を可動とし、固定部分に第1特徴量を設定し、可動部分に第2特徴量を設定することで、その他の手形状の場合でも適用可能である。手の平全体の位置及び姿勢が第1特徴量によって求まり、可動部分に起因する手の平の形状変化が第2特徴量によって求まり、これらを互いに独立に用いて表示情報の制御が可能となる。 Next, supplementary matters in the present invention will be described. The present invention is not limited to the hand shape as described with reference to FIGS. 2 and 3, and a part of the palm is fixed and not moved by a predetermined arrangement, the other part is movable, and the fixed part has the first feature. By setting the amount and setting the second feature amount in the movable part, it can be applied to other hand shapes. The position and posture of the entire palm can be obtained from the first feature amount, and the shape change of the palm caused by the movable part can be obtained from the second feature amount, which can be used independently of each other to control the display information.
また、その他の手形状の場合に第1特徴量及び第2特徴量を特定する際も、図2及び図3の例と同様に、手の平の領域内における相対的な位置関係等(例えば、重心などの所定点を基準とした際の配置の偏りや、長さの関係など)に基づいて特定する所定方式を予め定めておけばよい。図2及び図3の例の場合も、当該位置関係などの特徴に基づいて、説明した方式以外の方式で特定がなされてもよい。手の平以外を撮像対象として、以上と同様にしてもよい。 Also, when specifying the first feature amount and the second feature amount in the case of other hand shapes, as in the examples of FIGS. 2 and 3, the relative positional relationship in the palm region (e.g., the center of gravity) A predetermined method that is specified on the basis of a predetermined point such as a deviation in arrangement when using a predetermined point as a reference, a length relationship, or the like may be determined in advance. In the case of the example in FIGS. 2 and 3 as well, identification may be performed by a method other than the method described based on the characteristics such as the positional relationship. Other than the palm may be set as the imaging target, and the above may be performed.
10…情報端末装置、1…撮像部、2…推定部、3…制御部、4…記憶部、5…表示部、21…特徴抽出部、22…特徴対応部、23…姿勢推定部、24…形状推定部 DESCRIPTION OF SYMBOLS 10 ... Information terminal device, 1 ... Imaging part, 2 ... Estimation part, 3 ... Control part, 4 ... Memory | storage part, 5 ... Display part, 21 ... Feature extraction part, 22 ... Feature correspondence part, 23 ... Attitude estimation part, 24 ... Shape estimation section
Claims (7)
前記画像より前記撮像対象の所定の第1特徴量及び第2特徴量を抽出し、前記第1特徴量に基づいて前記撮像対象の前記撮像部に対する相対的な位置関係を推定すると共に、当該位置関係及び前記第2特徴量に基づいて前記撮像対象の形状を推定する推定部と、
情報を表示する表示部と、
該表示部で表示する情報を記憶する記憶部と、
該記憶部から読み出して前記表示部で表示する情報を、前記推定された位置関係及び形状に基づいて制御する制御部と、を備えることを特徴とする情報端末装置。 An information terminal device having an imaging unit, which captures a predetermined imaging target and obtains an image thereof,
Extracting a predetermined first feature quantity and second feature quantity of the imaging target from the image, estimating a relative positional relationship of the imaging target with respect to the imaging unit based on the first feature quantity, and the position An estimation unit that estimates the shape of the imaging target based on the relationship and the second feature amount;
A display for displaying information;
A storage unit for storing information to be displayed on the display unit;
An information terminal device comprising: a control unit that controls information read from the storage unit and displayed on the display unit based on the estimated positional relationship and shape.
前記所定の第1特徴量は、第3指乃至第5指の境界線の端点又は当該各指の第1関節及び第2関節の座標であり、
前記所定の第2特徴量は、第1指及び/又は第2指の指先座標であり、
前記推定部が、
前記画像より指の境界線を抽出する特徴抽出部と、
当該抽出された境界線がいずれの指に起因するかの対応付けを特定して、前記第1特徴量及び前記第2特徴量の前記画像内での値を特定する特徴対応部と、
前記特定された第1特徴量と、前記手の平が前記撮像部に対して所定位置及び姿勢にある際の第1特徴量と、に基づいて前記手の平の前記撮像部に対する位置及び姿勢を推定する姿勢推定部と、
前記推定された位置及び姿勢により前記手の平の所定位置及び姿勢における前記第2特徴量を求め、当該求められた第2特徴量と、前記手の平の所定形状における第2特徴量と、に基づいて前記手の平の形状を推定する形状推定部と、を含むことを特徴とする請求項1または2に記載の情報端末装置。 The imaging object is a palm that opens the first finger and the second finger and grasps the third to fifth fingers,
The predetermined first feature amount is an end point of a boundary line of the third finger to the fifth finger or the coordinates of the first joint and the second joint of each finger,
The predetermined second feature amount is fingertip coordinates of the first finger and / or the second finger,
The estimation unit is
A feature extraction unit for extracting a finger boundary from the image;
Identifying the correspondence of which finger the extracted boundary line is attributed to, and a feature corresponding unit that identifies values in the image of the first feature value and the second feature value;
A posture for estimating the position and posture of the palm with respect to the imaging unit based on the identified first feature amount and the first feature amount when the palm is in a predetermined position and posture with respect to the imaging unit An estimation unit;
The second feature amount at a predetermined position and posture of the palm is obtained from the estimated position and posture, and based on the obtained second feature amount and the second feature amount in the predetermined shape of the palm The information terminal device according to claim 1, further comprising: a shape estimation unit that estimates a palm shape.
前記特徴対応部は、当該各指に起因する境界線同士の中心線が前記画像のエッジ成分に近接する座標として、または、当該各指に起因する境界線同士の中心線上において前記画像の輝度もしくは色差の変動が極値を取る箇所の座標として、前記第1特徴量の前記画像内での値を特定することを特徴とする請求項3ないし5のいずれかに記載の情報端末装置。 The predetermined first feature amount is the coordinates of the first joint and the second joint of the third to fifth fingers,
The feature-corresponding unit is configured such that the center line between the boundary lines caused by the fingers is close to the edge component of the image or on the center line between the boundary lines caused by the fingers. 6. The information terminal device according to claim 3, wherein a value in the image of the first feature amount is specified as a coordinate of a place where a variation in color difference takes an extreme value.
前記所定の第1特徴量は、握り込んだ第2指の側面において第2指の腹側の部分が形成する境界線の各線分における端点座標であり、
前記所定の第2特徴量は、第1指の指先座標であり、
前記画像より指の握り込みに起因する境界線を抽出する特徴抽出部と、
当該抽出された境界線がいずれの部分に起因するかの対応付けを特定して、前記第1特徴量及び前記第2特徴量の前記画像内での値を特定する特徴対応部と、
前記特定された第1特徴量と、前記手の平が前記撮像部に対して所定位置及び姿勢にある際の第1特徴量と、に基づいて前記手の平の前記撮像部に対する位置及び姿勢を推定する姿勢推定部と、
前記推定された位置及び姿勢により前記手の平の所定位置及び姿勢における前記第2特徴量を求め、当該求められた第2特徴量と、前記手の平の所定形状における第2特徴量と、に基づいて前記手の平の形状を推定する形状推定部と、を含むことを特徴とする請求項1または2に記載の情報端末装置。 The imaging object is to image the palm of each finger from the side of the first and second fingers,
The predetermined first feature amount is an end point coordinate in each line segment of the boundary line formed by the ventral side portion of the second finger on the side surface of the grasped second finger,
The predetermined second feature amount is fingertip coordinates of the first finger,
A feature extraction unit for extracting a boundary line resulting from finger gripping from the image;
Identifying the correspondence of which part the extracted boundary line is attributed to, and a feature correspondence unit that identifies values in the image of the first feature value and the second feature value;
A posture for estimating the position and posture of the palm with respect to the imaging unit based on the identified first feature amount and the first feature amount when the palm is in a predetermined position and posture with respect to the imaging unit An estimation unit;
The second feature amount at a predetermined position and posture of the palm is obtained from the estimated position and posture, and based on the obtained second feature amount and the second feature amount in the predetermined shape of the palm The information terminal device according to claim 1, further comprising: a shape estimation unit that estimates a palm shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012257421A JP6086474B2 (en) | 2012-11-26 | 2012-11-26 | Information terminal equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012257421A JP6086474B2 (en) | 2012-11-26 | 2012-11-26 | Information terminal equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014106603A true JP2014106603A (en) | 2014-06-09 |
JP6086474B2 JP6086474B2 (en) | 2017-03-01 |
Family
ID=51028062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012257421A Expired - Fee Related JP6086474B2 (en) | 2012-11-26 | 2012-11-26 | Information terminal equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6086474B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115179A (en) * | 2014-12-16 | 2016-06-23 | 日本電気株式会社 | Information processing unit, information processing method, and program |
JP2017528833A (en) * | 2015-06-30 | 2017-09-28 | 三菱電機株式会社 | Method for determining motion between a first coordinate system and a second coordinate system |
JP2018092272A (en) * | 2016-11-30 | 2018-06-14 | 富士通株式会社 | Biometric authentication apparatus, biometric authentication method and program |
WO2022264436A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0689342A (en) * | 1992-09-08 | 1994-03-29 | Toshiba Corp | Moving picture processor |
-
2012
- 2012-11-26 JP JP2012257421A patent/JP6086474B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0689342A (en) * | 1992-09-08 | 1994-03-29 | Toshiba Corp | Moving picture processor |
Non-Patent Citations (1)
Title |
---|
JPN6016026782; 山本豪志朗 外1名: 'PALMbit:掌への光投影を利用した身体インタフェース' 映像情報メディア学会誌 第61巻 第6号, 20070601, 第797-804頁, 社団法人映像情報メディア学会 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115179A (en) * | 2014-12-16 | 2016-06-23 | 日本電気株式会社 | Information processing unit, information processing method, and program |
JP2017528833A (en) * | 2015-06-30 | 2017-09-28 | 三菱電機株式会社 | Method for determining motion between a first coordinate system and a second coordinate system |
JP2018092272A (en) * | 2016-11-30 | 2018-06-14 | 富士通株式会社 | Biometric authentication apparatus, biometric authentication method and program |
WO2022264436A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP6086474B2 (en) | 2017-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | A novel finger and hand pose estimation technique for real-time hand gesture recognition | |
Shen et al. | Vision-based hand interaction in augmented reality environment | |
EP2904472B1 (en) | Wearable sensor for tracking articulated body-parts | |
Xu et al. | Efficient hand pose estimation from a single depth image | |
KR101807241B1 (en) | Apparatus and method for assuming finger location based on image acquired by single camera and computer readable media storing program performing the method | |
KR101930652B1 (en) | Gait analysis system and computer program recorded on recording medium | |
CN105045399B (en) | A kind of electronic equipment with 3D camera assemblies | |
KR101360149B1 (en) | Method for tracking finger motion based on sensorless and apparatus thereof | |
JP6086474B2 (en) | Information terminal equipment | |
US20220415094A1 (en) | Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium | |
JP5534432B2 (en) | Information terminal equipment | |
JP2012160051A (en) | Information terminal equipment | |
JP5464661B2 (en) | Information terminal equipment | |
JP2012003724A (en) | Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program | |
JP7254262B2 (en) | Work estimating device, work estimating method, and work estimating program | |
Kondori et al. | A direct method for 3d hand pose recovery | |
JP2016184203A (en) | Pointing input device | |
Ng et al. | Vision-based hand detection for registration of virtual objects in augmented reality | |
JP2009151516A (en) | Information processor and operator designating point computing program for information processor | |
JP2017027115A (en) | Method for pointing by gesture | |
Grzejszczak et al. | Tracking of dynamic gesture fingertips position in video sequence | |
KR20050060606A (en) | Device and method for interaction between human and computer | |
JP5812414B2 (en) | Information terminal equipment | |
Prabhakar et al. | AI And Hand Gesture Recognition Based Virtual Mouse | |
Fritz et al. | Markerless 3d interaction in an unconstrained handheld mixed reality setup |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160906 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6086474 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |