JP5569973B2 - Information terminal device, method and program - Google Patents
Information terminal device, method and program Download PDFInfo
- Publication number
- JP5569973B2 JP5569973B2 JP2011019710A JP2011019710A JP5569973B2 JP 5569973 B2 JP5569973 B2 JP 5569973B2 JP 2011019710 A JP2011019710 A JP 2011019710A JP 2011019710 A JP2011019710 A JP 2011019710A JP 5569973 B2 JP5569973 B2 JP 5569973B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- unit
- posture
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 19
- 238000003384 imaging method Methods 0.000 claims description 38
- 239000000284 extract Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 6
- 210000003811 finger Anatomy 0.000 description 71
- 230000036544 posture Effects 0.000 description 61
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、撮影部と表示部とを備えた情報端末装置、方法及びプログラムに関し、特に、被写体の撮影部に対する位置および姿勢に基づいて表示部を制御する情報端末装置、方法及びプログラムに関する。 The present invention relates to an information terminal device , method, and program including an imaging unit and a display unit, and more particularly to an information terminal device , method, and program for controlling a display unit based on the position and orientation of a subject with respect to the imaging unit.
撮影対象たる被写体との相対的な位置関係に応じて情報を提示する装置は、提示する情報を直感的に変化させることが可能であり、利用者の利便性を向上させることができる。上記を実現する方法としては、以下のような方法が公開されている。 An apparatus that presents information according to a relative positional relationship with a subject to be imaged can intuitively change the information to be presented, and can improve user convenience. The following methods are disclosed as methods for realizing the above.
特許文献1では,レーザセンサを使用することで、撮像対象の位置の動きを検出平面において検出することを提案している。
特許文献2では,モーションセンサの検出した移動および傾動の方向および量に応じて、表示される部分をスクロールまたはズームする手法が提案されている。 Patent Document 2 proposes a method of scrolling or zooming a displayed portion according to the direction and amount of movement and tilt detected by a motion sensor.
特許文献3では,入力画像の最も大きい移動したブロックが検出され、その最も大きい移動したブロックは撮像対象の位置として定められる。そして、該ブロックの特徴が分析され、移動した撮像対象の中心座標が追跡される。
In
特許文献1および特許文献2に開示された技術では、それぞれレーザセンサやモーションセンサが必要となるため、利用できる装置が限定されるという問題がある。また、特別なセンサ類の搭載は端末のコスト上昇を招くだけでなく、装置の小型化や省電力化が困難になる可能性がある。
The techniques disclosed in
特許文献3では、撮像対象の検出に動きの有無が用いられているため、平面的な前後左右の入力にしか対応できないという問題がある。また、中心座標を用いているため、撮像対象の見かけの変化に影響を受けやすいという問題がある。
In
本発明は、上記従来技術の課題を解決し、特別なセンサ等を用いることなく、情報端末装置に対する被写体の空間的な動作によって、情報端末装置の表示部に表示される情報を制御できる、高速かつ高精度な情報端末装置を提供することを目的とする。 The present invention solves the above-described problems of the prior art, and can control information displayed on the display unit of the information terminal device by using a spatial motion of the subject with respect to the information terminal device without using a special sensor or the like. And it aims at providing a highly accurate information terminal device.
上記の目的を達成するため、本発明は、被写体を連続的に撮影する撮影部と表示部とを含む情報端末装置において、撮影画像より色特徴に基づいて前記被写体の領域を抽出する領域形成部と、前記抽出された被写体の領域を包含する第一の外接多角形を形成する第一多角形形成部と、前記第一の外接多角形の内部より前記被写体の領域を排除した内部背景領域を抽出する内部背景抽出部と、前記内部背景領域を包含する第二の外接多角形を形成する第二多角形形成部と、前記第一の外接多角形、前記内部背景領域及び前記第二の外接多角形に基づいて、前記被写体の前記撮影部に対する位置及び姿勢のうち少なくとも一方を推定する姿勢推定部と、前記推定された位置及び姿勢のうち少なくとも一方に基づいて前記表示部に表示される情報の一部を制御する制御部とを備えることを特徴とする。 In order to achieve the above object, the present invention provides an area forming unit that extracts an area of a subject from a photographed image based on color characteristics in an information terminal device including a photographing unit that continuously photographs the subject and a display unit. A first polygon forming unit that forms a first circumscribed polygon that includes the extracted subject area; and an inner background area that excludes the subject area from the inside of the first circumscribed polygon. An internal background extraction unit for extracting; a second polygon forming unit for forming a second circumscribed polygon including the internal background region; the first circumscribed polygon; the internal background region; and the second circumscribed region. Based on a polygon, a posture estimation unit that estimates at least one of a position and a posture of the subject with respect to the photographing unit, and information displayed on the display unit based on at least one of the estimated position and posture of Characterized in that it comprises a control unit for controlling the parts.
本発明によれば、被写体の位置及び姿勢のうち少なくとも一方に基づいて表示部が制御されるので、本発明の情報端末装置を利用するユーザに直感的な操作インタフェースが提供される。また本発明によれば、撮像部で連続的に撮影される被写体の画像に対する簡素な画像処理によって、被写体の位置及び姿勢のうち少なくとも一方が高速かつ高精度に推定されるので、表示部も高速かつ高精度に制御され、本発明の情報端末装置を利用するユーザに使い勝手のよい操作インタフェースが提供される。さらに本発明によれば簡素な画像処理が利用されるのみであって、特別なセンサ等を必要としない。 According to the present invention, since the display unit is controlled based on at least one of the position and orientation of the subject, an intuitive operation interface is provided to the user who uses the information terminal device of the present invention. Further, according to the present invention, at least one of the position and orientation of the subject can be estimated at high speed and with high accuracy by simple image processing on the image of the subject continuously photographed by the imaging unit. In addition, an operation interface that is controlled with high accuracy and is easy to use for a user who uses the information terminal device of the present invention is provided. Furthermore, according to the present invention, only simple image processing is used, and no special sensor or the like is required.
以下に、図面を参照して本発明を詳細に説明する。図1に本発明の情報端末装置の機能ブロック図を示す。情報端末装置10は、撮影部1、推定部2、制御部3及び表示部4を備える。推定部2は領域形成部21、特徴検出部22及び姿勢推定部23を備える。特徴検出部22は第一多角形形成部221、内部背景抽出部222及び第二多角形形成部223を備える。
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 shows a functional block diagram of the information terminal device of the present invention. The information terminal device 10 includes an
情報端末装置10には携帯端末を用い、撮影部1として携帯端末に標準装備されるデジタルカメラを用いることができるが、本発明の適用される構成はこれに限定されない。撮像機能を備えるどのような情報端末を利用してもよい。例えば、外付けカメラなどによって撮像機能を備えたパーソナルコンピュータなどでもよい。
As the information terminal device 10, a mobile terminal can be used, and a digital camera provided as a standard in the mobile terminal can be used as the photographing
図2に本発明の動作の概要を示し、図2を用いて撮影部1、推定部2、制御部3及び表示部4の動作の概要を説明する。(a)に示すような情報端末装置10(ここでは携帯端末でありその表示部4の背面に撮像部1を有するものとする)は、撮像部1により被写体(b)を所定のサンプリング周期で連続的に撮影している。図2に示すように被写体(b)は、本発明の好ましい実施形態において手であり、第三乃至第五指(中指、薬指及び小指)を握り込み、且つ該握り込んだ部分を、間隙を設けて囲むように第一指(親指)及び第二指(人差し指)を構えた格好にある。
FIG. 2 shows an outline of the operation of the present invention, and the outline of the operations of the
握り込んだ第三乃至第五指はそのまま固定して開くことはないが、第一指及び第二指は握り込んだ部分を囲む状態のままであれば動かしてよい。動かすことで第一指の腹と第二指の腹とが接してつまむ状態となってもよいし、図2に示すような離れた状態であってもよい。 The grasped third to fifth fingers are not fixed and opened as they are, but the first and second fingers may be moved as long as they surround the grasped portion. By moving it, the belly of the first finger and the belly of the second finger may be in contact with each other, or may be in a separated state as shown in FIG.
撮像部1は被写体である手(b)を、第一指及び第二指の側から撮影する。握り込んだ第三乃至第五指は、第一指及び第二指が概ね形成する面(b1)よりも、撮像部1から見ると奥に位置する。
The
推定部2は、撮像部1より送られる(d)に示すような手(b)の撮影画像を用いて、手(b)の撮像部1に対する相対的な位置及び姿勢を推定する。図2では当該位置および姿勢を推定するための基準となる空間配置の一例が描かれている。すなわち、撮像部1の撮像面(を広げて描いたもの)を(a1)として示し、手(b)の第一指及び第二指により概ね形成される平面(b1)と平行である状態を示している。また撮像部1の正面に手(b)が位置しているものとする。
The estimation unit 2 estimates the relative position and orientation of the hand (b) with respect to the
なお、当該基準配置は説明の便宜上用いる一例の配置であって、その他の配置を基準としてもよい。 The reference arrangement is an example arrangement used for convenience of explanation, and other arrangements may be used as a reference.
推定部2は、このような既知の空間配置及び既知の被写体(b)における被写体(b)の撮影画像(d)を基準として用いることで、被写体(b)の位置および姿勢などの変化を推定する。推定する位置とは、被写体(b)の面(b1)内でのx軸y軸方向移動(c2)などで定められる空間的位置である。推定する姿勢とは、例えば手首を回したり傾けたりすることによる、手(b)の傾きとして表れる面(b1)の傾きに対応する姿勢であり、回転(c3)や(c4)などにより定められるものである。またそのほか、推定部2は面(a1)と面(b1)との奥行きz軸方向の距離(c1)や、手の形状すなわち第一指及び第二指の開閉なども推定する。 The estimation unit 2 estimates changes in the position and orientation of the subject (b) using the known spatial arrangement and the captured image (d) of the subject (b) in the known subject (b) as a reference. To do. The estimated position is a spatial position determined by movement in the x-axis and y-axis directions (c2) in the surface (b1) of the subject (b). The estimated posture is a posture corresponding to the tilt of the surface (b1) that appears as the tilt of the hand (b), for example, by turning or tilting the wrist, and is determined by rotation (c3), (c4), etc. Is. In addition, the estimation unit 2 also estimates the distance (c1) between the surface (a1) and the surface (b1) in the depth z-axis direction, the shape of the hand, that is, the opening and closing of the first and second fingers.
特に、推定部2では撮影画像(d)において、手(b)の領域(d4)を検出し、第一指及び第二指の領域(d2)及び(d1)で囲まれ、(d4)に属さないU字乃至V字状の領域(d5)を検出する。また(d5)より第三指の第二関節を想定した基準点(d30)を検出する。被写体の位置および姿勢が変わるとその見え方すなわち(d4)の位置および形が変わり、これら検出される結果(d4)、(d5)及び(d30)も変わる。推定部2は幾何学的考察に基づきこれらの検出結果から、被写体(b)の変化した位置及び姿勢などを推定する。 In particular, the estimation unit 2 detects the region (d4) of the hand (b) in the captured image (d) and is surrounded by the regions (d2) and (d1) of the first finger and the second finger, and (d4) A U-shaped or V-shaped region (d5) that does not belong is detected. Further, a reference point (d30) assuming the second joint of the third finger is detected from (d5). When the position and orientation of the subject change, the appearance thereof, that is, the position and shape of (d4) change, and the detected results (d4), (d5), and (d30) also change. The estimation unit 2 estimates the changed position and orientation of the subject (b) from these detection results based on geometric considerations.
制御部3は、推定部2により推定された位置及び姿勢に基づいて表示部4に表示される情報の一部を制御する。例えば、表示部4にポインタがある場合なら、(c2)のxy方向の位置変化の推定結果をそのまま、又は所定倍して表示部4におけるポインタを移動させて、マウスの代理のように機能させることができる。また例えば、表示部4に立体画像が表示されている場合に、(c3)及び(c4)のような回転方向として推定された姿勢の変化に連動させて、当該立体画像をあたかも手(b)に乗っているかのように回転させることができる。また、推定された位置及び姿勢やその他に基づいて他の表示制御を行うこともできる。
The
なお、本発明の全体において、推定部2では位置(x,y)や姿勢(角度θなど)を推定し、制御部3では当該推定された量の変化である位置の変化(Δx, Δy)や姿勢の変化(角度の変化Δθなど)を利用して制御を行う。また推定部2で推定した距離zを利用して、制御部3はその変化Δzを利用して制御を行う。後述の推定部2で推定した形状については、各時点で推定される形状をそのまま制御部3で利用するが、結果として推定された形状の変化も制御部3で利用することとなる。
Note that in the whole of the present invention, the estimation unit 2 estimates the position (x, y) and posture (angle θ, etc.), and the
図2に概略を示したような本発明により、次の(1)〜(3)のような効果がある。(1)撮像部1と被写体との相対的な位置及び姿勢などを変化させるだけで表示部4での表示情報の一部を制御できる。したがって、ユーザは、撮像部1に対する被写体(特にユーザ自身の手)の相対的な位置及び姿勢などを変化させるという直感的な操作で表示情報の一部を制御できる。
According to the present invention as schematically shown in FIG. 2, the following effects (1) to (3) are obtained. (1) A part of display information on the
(2)推定部2では被写体の画像に対する簡素な画像処理によって位置及び姿勢などを推定するので、例えばソフトウェアで実現可能であり、特別なセンサ類といったような特別なハードウェアを情報端末装置10に組み込む必要がない。 (2) Since the estimation unit 2 estimates the position and orientation by simple image processing on the image of the subject, it can be realized by software, for example, and special hardware such as special sensors is provided in the information terminal device 10. There is no need to include it.
(3)図2の撮影画像(d)で説明したような処理によって位置及び姿勢などが高速かつ高精度に推定されるので、表示情報の一部を高速かつ高精度に制御できる。 (3) Since the position, posture, and the like are estimated at high speed and with high accuracy by the processing described in the captured image (d) in FIG. 2, a part of the display information can be controlled at high speed and with high accuracy.
次に、推定部2の各部すなわち領域形成部21、特徴検出部22及び姿勢推定部23の処理の詳細について順次説明する。まず、領域形成部21では、撮像部1から入力される画像から被写体の手の領域である肌色領域を抽出する。肌色領域は、撮像部1から入力される画像における色情報に基づいて抽出できる。例えば、撮像部1から入力される画像がRGB色空間で表現されている場合、肌色領域は、RGBが予め設定した範囲内に収まっている画素を肌色領域として抽出できる。例えば、以下の非特許文献1で紹介される(数1)のような設定範囲を用いて抽出してよい。
Next, details of the processing of each unit of the estimation unit 2, that is, the
(非特許文献1)Vladimir Vezhnevets, Vassili Sazonov, Alla Andreeva, "A Survey on Pixelbased Skin Color Detection Techniques," Pattern Recognition, vol.40, no.3, pp.1106-1122, March 2007. (Non-Patent Document 1) Vladimir Vezhnevets, Vassili Sazonov, Alla Andreeva, "A Survey on Pixelbased Skin Color Detection Techniques," Pattern Recognition, vol.40, no.3, pp.1106-1122, March 2007.
あるいは、RGB色空間からHSV色空間(明度V,彩度S,色相H)の表現に変換する。RGB色空間の表現からHSV色空間の表現への変換は(数2)で表される。 Alternatively, the RGB color space is converted into a representation of the HSV color space (brightness V, saturation S, hue H). The conversion from the RGB color space representation to the HSV color space representation is expressed by (Equation 2).
上記(数2)の色相Hが予め設定した範囲内に収まっている画素を肌色領域としてもよい。 Pixels in which the hue H in the above (Equation 2) falls within a preset range may be set as the skin color region.
あるいは、YCbCrなど他の色空間を利用してもよい。RGB色空間の表現からYCbCr色空間の表現への変換は(数3)で表される。 Alternatively, other color spaces such as YCbCr may be used. The conversion from the RGB color space representation to the YCbCr color space representation is expressed by (Equation 3).
上記(数3)の色差Cb、Crが予め設定した範囲内に収まっている画素を肌色領域としてもよい。 Pixels in which the color differences Cb and Cr in (Equation 3) are within a preset range may be used as the skin color region.
あるいは、複数の色空間における肌色領域結果の重み付き平均が予め設定した閾値を超える領域を肌色領域としても良い。各方式にかかる重みは肌色が最も正確に抽出できるように、予め既知の肌色領域を使って設定しておく。情報端末装置10の処理性能に応じて、組み合わせる方式の種類および数を設定してもよい。処理性能に余裕があれば、ガウス混合モデル等の確率モデルに基づく肌色検出方式を組み合わせてもよい。 Or it is good also considering the area | region where the weighted average of the skin color area | region result in several color spaces exceeds the preset threshold value as a skin color area | region. The weight applied to each method is set in advance using a known skin color region so that the skin color can be extracted most accurately. Depending on the processing performance of the information terminal device 10, the type and number of methods to be combined may be set. If there is a margin in processing performance, a skin color detection method based on a probability model such as a Gaussian mixture model may be combined.
次に、特徴検出部22の処理を、第一多角形形成部221、内部背景抽出部222及び第二多角形形成部223の順に説明し、さらに続く姿勢推定部23の処理を説明する。またこれらの処理を説明する例となる図を図3に示す。以下のように、特徴検出部22及び姿勢推定部23では図3の(A)〜(E)に例示される処理によって、最終的に矢印(E)の根元の位置として示される、予め設定された基準点に対応する座標(画像中の位置座標)や、その他の情報を検出する。予め設定される基準点は前述の通り、被写体として手を想定している場合であれば、第三指の第二関節であり、以下の処理によって当該関節の位置座標が検出される。そして姿勢推定部23は当該基準点などを用いて姿勢を推定する。
Next, the processing of the feature detection unit 22 will be described in the order of the first polygon forming unit 221, the internal background extraction unit 222, and the second
まず、第一多角形形成部221は、領域形成部21により抽出された肌色領域のうち最も大きな肌色領域を選択し、モルフォロジフィルタによって当該肌色領域の部分的な欠損を補う。これにより、(A)に示すような肌色領域が得られる。続いて、第一多角形形成部221は(A)の肌色領域の全体を包含する、(B)のような外接多角形を形成する。
First, the first polygon forming unit 221 selects the largest skin color region among the skin color regions extracted by the
続いて、内部背景抽出部222は、形成された外接多角形(B)の内部に存在する面積最大の非肌色領域を前述の内部背景領域として、斜線部(C)に示すように抽出する。なお、最大の非肌色領域を抽出することで、第一指及び第二指で囲まれる領域以外の、例えば手の甲の側や手首側などに生ずる、肌色領域(A)と外接多角形(B)との間の小さな隙間の領域が内部背景領域から除外される。 Subsequently, the internal background extraction unit 222 extracts the non-skin color region having the maximum area existing inside the formed circumscribed polygon (B) as the above-described internal background region, as indicated by the hatched portion (C). In addition, by extracting the maximum non-skin color region, for example, the skin color region (A) and circumscribed polygon (B) occurring on the back side of the hand, the wrist side, etc., other than the region surrounded by the first finger and the second finger A small gap area between and is excluded from the internal background area.
続いて、第二多角形形成部223は、抽出された内部背景領域(C)の全体を包含する外接多角形を点線(D)に示すように形成する。図3の例では、第一指及び第二指は離れているため、外接多角形(D)は外接多角形(B)と辺の一部を共有している。もし第一指及び第二指が接しており、当該指同士をつまんだ状態の手であれば外接多角形(D)は外接多角形(B)と辺を共有しない。
Subsequently, the second
なお、外接多角形(B)及び(D)はそれぞれが形成される元となる領域の、肌色領域(A)及び内部背景領域(C)に対して、各種の周知技術を適用することによって凸多角形として形成される。 The circumscribed polygons (B) and (D) are convex by applying various well-known techniques to the skin color area (A) and the internal background area (C), which are the areas from which the polygons are formed. Formed as a polygon.
続いて、姿勢推定部23は、矢印(E)の根元の点として示され、第三関節により形成される角の点に対応する基準点(F)を検出し、その座標を求めるため、次のような処理を行う。すなわち、内部領域(C)の境界上の各点より、形成した外接多角形(D)の辺上の点へ、当該内部領域(C)の内部を通過せずに至る距離のうち、最小距離となるものを求める。そして、当該内部領域(C)の境界上の各点から求められた最小距離のうち、最大距離を与える内部領域(C)の境界上の点を、矢印(E)の根元として示すように、基準点(F)とする。
Subsequently, the
さらに、姿勢推定部23は、当該求めた基準点(F)若しくは内部領域(C)、若しくは(F)と(C)の相対的な位置関係のうち少なくとも1つを用いて、被写体の位置及び姿勢を推定する。具体的には基準点(F)の座標すなわち画像上の(x,y)位置座標を、被写体の位置として推定する。また、基準点(F)と内部領域(C)の重心との位置関係を用いて、被写体の姿勢を推定する。当該姿勢の推定については後述の制御部3の説明と共に詳述する。
Further, the
また、姿勢推定部23は、外接多角形(B)と(D)とに共有辺があるか否かに基づいて、被写体である手の形状、すなわち第一指及び第二指が離れて開いているか、接して閉じているか、を推定する。当該形状の推定を図4の例で説明する。すなわち(10)のように第一指及び第二指が離れて開いている場合は、(11)のように外接多角形(B)と(D)とには重なり部分があり、辺(の一部)を共有する。逆に(20)のように第1指及び第2指が接して閉じている場合は、(21)のように外接多角形(B)と(D)とには重なり部分がなく、辺(の一部)を共有しない。このように、外接多角形(B)と(D)との共有辺の有無によって、手の形状すなわち指同士の開閉を推定できる。
Further, the
そして、制御部3は、当該推定された被写体の位置及び姿勢などに連動させて、表示部4に表示される情報の一部を移動又は回転させるなどする。制御部3は図5に示すように、移動制御部31、回転制御部32、切替制御部33及び倍率制御部34を備え、各制御機能を独立にあるいは互いに連動して担い、いずれもユーザにとって直感的なインタフェースを提供する。以下これらを説明する。
Then, the
移動制御部31は、推定された被写体の位置の変化に基づいて表示情報の一部を移動させる。当該移動制御の例を図6に示す。すなわち、推定位置(x, y)の変化として定まる基準点(F)の画像(1)上でのピクセル単位での移動(Δx, Δy)をそのまま又は定数a倍して、表示部(2)における表示情報の一部、例えばポインタ、の位置を(Δx, Δy)又は(aΔx, aΔy)だけ移動させる。またこのような定数a倍による表示情報の一部の移動量の調整は、x方向とy方向とで別の定数を用いてもよい。
The
被写体が図2や図4で説明したような形状に構えた手である場合、推定位置は握り込んだ第三指第二関節の角の位置となる。当該角の位置は第三乃至第五指を握り込んだ手の全体と剛体的に連動して動く位置である。よって、周知のマウスにおいて手の動きがそのままポインタの移動量となるのと同様な、直感的でユーザにとって操作の容易なインタフェースが上記のような移動制御部31によってもたらされる。
When the subject is a hand held in the shape described with reference to FIG. 2 or FIG. 4, the estimated position is the position of the corner of the third joint of the second finger grasped. The position of the corner is a position that moves in a rigidly interlocked manner with the entire hand holding the third to fifth fingers. Accordingly, the
回転制御部32は、推定された被写体の姿勢の変化に基づいて表示情報の一部を回転させる。当該回転制御と、そこで必要となる姿勢推定部23による姿勢推定の例を、図7乃至図9を用いて説明する。図7は推定対象となる被写体の実際の姿勢の変化の例として、(1)被写体(手)の各回転の例、を示している。図8は前記(1)被写体の各回転の推定結果に基づいて、回転制御部32が表示部4における(2)表示情報の一部を回転制御する例、を示している。
The
図9は前記(1)被写体の回転の各場合における、図3で説明したような特徴検出部22及び姿勢推定部23で得られる(3)内部背景領域及び基準点、並びに当該基準点と内部背景領域の重心との位置関係を表す基準点を始点、重心を終点とする基準点・重心ベクトルv、の例を示している。被写体の姿勢(回転)に応じて図9のように内部背景領域の形状や基準点との位置関係が変わるため、姿勢推定部23による姿勢推定が可能となる。姿勢推定部23は前記(3)のうち特に基準点・重心ベクトルを用いて、前記(1)被写体の各回転に対応する姿勢を推定する。以下、図7乃至図9の各図の対応を説明する。
9 is obtained by the feature detection unit 22 and the
図7には被写体の姿勢変化の例として、(1)被写体(手)の各回転の例が示されている。図7では図2で説明したのと同様の、被写体である手(b)が基準となる位置、姿勢及び形状の状態で平面(b1)上に存在し、その画像が(d)として得られている状態を示す。当該例では軸(c3)として示す腕の軸における上下(up/down)方向と、軸(c4)として示す平面(b1)の左右(left/right)方向との回転を推定される姿勢として、表示情報の一部を制御するが、その他の基準位置と共にその他の回転軸を設定してもよい。 FIG. 7 shows (1) an example of each rotation of the subject (hand) as an example of the posture change of the subject. In FIG. 7, the hand (b) that is the subject exists on the plane (b1) in the state of the reference position, posture, and shape as described in FIG. 2, and an image thereof is obtained as (d). It shows the state. In this example, the posture estimated to rotate in the up / down direction on the axis of the arm shown as the axis (c3) and the left / right direction of the plane (b1) shown as the axis (c4), Although a part of the display information is controlled, other rotation axes may be set together with other reference positions.
図8では、図7の(1)に対応して、被写体である手を(1)の基準位置から手首方向の軸に相当する(c3)軸の周りに上回転/下回転した場合と、(c4)軸の周りに右回転/左回転した場合に、表示部4に表示される情報が制御される例を示している。制御される表示情報の一部の例として、一面に楕円の模様を有する直方体が描かれている。そして、当該直方体が、(2基準位置)で示す正面を向いた状態から、制御部3の制御によって、前記手の各回転に応じてそれぞれ回転されて表示される例を示している。xyz軸は当該回転の様子の理解を容易とするための便宜として示している。
In FIG. 8, corresponding to (1) in FIG. 7, the subject's hand is rotated up / down around the axis (c3) corresponding to the wrist direction axis from the reference position of (1), and (c4) An example is shown in which the information displayed on the
すなわち図8では前述の(c3)上回転/下回転及び(c4)右回転/左回転のそれぞれの場合に対応して、(2上回転)/(2下回転)、及び(2右回転)/(2左回転)、のように回転されて表示される。当該回転制御は、被写体である手の図7の平面(b1)にあたかも当該直方体が張り付いており、手の回転と連動して同方向に回転されるような制御の例である。 In other words, in FIG. 8, (c3) up rotation / down rotation and (c4) right rotation / left rotation corresponding to the cases of (2 up rotation) / (2 down rotation) and (2 right rotation), respectively. Rotated and displayed as / (2 left rotation). The rotation control is an example of control in which the rectangular parallelepiped sticks to the plane (b1) in FIG. 7 of the hand that is the subject and rotates in the same direction in conjunction with the rotation of the hand.
図9には図7で前述した(c3)及び(c4)のそれぞれの場合の回転において、特徴検出部22及び姿勢推定部23で検出される、内部背景領域の形状、基準点及び該基準点を始点として内部背景領域の重心を終点とする基準点・重心ベクトルvの例が示されている。前述と同様に(3基準位置)に対してそれぞれ回転後の例が、(3上回転)/(3下回転)、及び(3右回転)/(3左回転)として示されている。
FIG. 9 shows the shape of the internal background region, the reference point, and the reference point detected by the feature detection unit 22 and the
また、各姿勢での基準点・重心ベクトルvは図9にも示しているように、次の通りである。
(基準位置) v=(−xref, 0)
(上回転) v=(−xup, +yup)
(下回転) v=(−xdown, −ydown)
(右回転) v=(+xright, 0)
(左回転) v=(−xleft, 0)
Further, as shown in FIG. 9, the reference point / centroid vector v in each posture is as follows.
(Reference position) v = (− x ref , 0)
(Up rotation) v = (− x up , + y up )
(Down rotation) v = (− x down , −y down )
(Rotate right) v = (+ x right , 0)
(Rotate left) v = (− x left , 0)
ここで、(3右回転)/(3左回転)と(3基準位置)とでは、次の関係があるので、上記の基準点・重心ベクトルvの各姿勢に対応する値を所定の閾値内で区別することが可能となり、姿勢推定部23はこれら各姿勢を区別して推定することが可能となる。
xleft > xref > 0, xright > 0
Here, since (3 right rotation) / (3 left rotation) and (3 reference position) have the following relationship, the value corresponding to each posture of the reference point / centroid vector v is within a predetermined threshold. And the
x left > x ref > 0, x right > 0
また、(3上回転)/(3下回転)と(3基準位置)とでは、次の関係があるので、上記と同様に姿勢推定部23はこれら各姿勢を、上記(3右回転)/(3左回転)との区別も含めて区別して推定することが可能となる。
xup >0 , yup > 0, xdown > 0, ydown > 0, xup≒xref, xdown≒xref
In addition, since (3 upward rotation) / (3 downward rotation) and (3 reference position) have the following relationship, the
x up > 0, y up > 0, x down > 0, y down > 0, x up ≒ x ref , x down ≒ x ref
なおまた、図9では各姿勢での内部背景領域の形状、基準点及び基準点・重心ベクトルと共に、それら各姿勢の間での変化の様子をより容易に把握できるように、このような結果の得られる画像上での同一位置及び同一サイズの矩形領域を点線で表示している。当該点線矩形を目安とした各姿勢での画像対比より明らかなように、本発明では次のような効果がある。すなわち、被写体として第一指及び第二指をつまむような形で平面を形成し、撮像部1から見て当該平面の奥に第三乃至第五指を握り込んだ状態の手を設定していることから、各回転に応じてその見え方が顕著に変化し、上記のような各姿勢での顕著な基準点・重心ベクトルvの変化が得られるため、姿勢推定を高精度に行えるという効果がある。
In addition, in FIG. 9, the shape of the internal background region in each posture, the reference point, the reference point / centroid vector, and the change state between these postures can be more easily grasped. A rectangular region having the same position and the same size on the obtained image is displayed by a dotted line. As is clear from the image comparison in each posture with the dotted line rectangle as a guide, the present invention has the following effects. That is, a plane is formed by pinching the first finger and the second finger as a subject, and a hand with the third to fifth fingers held behind the plane as viewed from the
当該効果は特に、第一指及び第二指と、握り込んだ第三乃至第五指とで段差があることに基づくものである。例えば(3左回転)では(3基準位置)に比べて第一指及び第二指で囲まれる部分が撮像部1から遠ざかるため、内部背景領域はx方向にもy方向にも小さくなり、第三指の凸部も小さくなる。逆に(3右回転)では(3基準位置)に比べて前記囲まれた部分が近づき、内部背景領域はx方向に縮小しy方向に拡大する。また第三指の凸部が拡大強調される。(3右回転)の場合ある程度回転すると、基準点として第三指の第二関節ではなく第四または第五指の第二関節が得られることとなるが、そのような場合はさらに当該凸部の拡大強調が促進されることとなる。
This effect is particularly based on the fact that there is a step between the first finger and the second finger and the third to fifth fingers grasped. For example, in (3 left rotation), the part surrounded by the first finger and the second finger is further away from the
同様の考察で、(3上回転)/(3下回転)の場合にも(3基準位置)と比べて内部背景領域の形状が顕著に変化する。(3上回転)の場合には第一指が撮像部1へ近づき、第二指が遠ざかることによって、同時に握り込んだ第三乃至第五指の見え方も連動して変化することによって、(3基準位置)の概ね上下対称な横向きU字乃至V字状の内部背景領域が、(3上回転)では上側に偏った形状へと変化する。逆に、(3下回転)の場合には第一指が撮像部1から遠ざかり、第二指が近づくことによって、同時に握り込んだ第三乃至第五指の見え方も連動して変化することによって、(3下回転)では下側へ偏った形状へと変化する。
In the same consideration, the shape of the internal background region changes significantly in the case of (3 upward rotation) / (3 downward rotation) as compared with (3 reference position). In the case of (3 upward rotation), when the first finger approaches the
以上の説明のような見え方、形状が顕著に変化するという効果は、前記段差の存在によるものであり、本発明に特有のものである。(3基準位置)のU字乃至V字状の内部背景領域が本発明における手のような立体的な段差の存在する被写体によってではなく、仮に平面的な被写体によって得られたとすると、被写体が回転しても当該内部背景領域はアフィン変換乃至射影変換的な変化をするだけであって、図9のような顕著な形状変化は得られず、姿勢推定を可能にするような顕著な基準点・重心ベクトルの変化も得られない。 The effect that the appearance and shape change remarkably as described above is due to the presence of the step and is unique to the present invention. If the (3 reference position) U-shaped or V-shaped internal background region is obtained by a planar subject, not by a subject with a three-dimensional step like the hand in the present invention, the subject rotates. Even so, the internal background area only changes in an affine transformation or projective transformation, and a remarkable shape change as shown in FIG. The change of the center of gravity vector cannot be obtained.
以上、図7乃至図9の対応をまとめた図表を図10に示す。図10において、図7で説明した推定姿勢(1)に基づいて図8で説明した表示の回転(2)を行うのが回転制御部32である。上回転であれば被写体の回転量θupに対して前述の移動制御部の場合と同様に、所定数a倍して表示情報をaθupだけ回転させる。当該定数aは下回転θdown、右回転θright及び左回転θleftにおいても用いられているが、別の定数を用いてもよい。
FIG. 10 shows a chart summarizing the correspondence between FIGS. In FIG. 10, the
前述の通り、推定姿勢(1)は実際の被写体の姿勢の角度であり、表示情報の回転(2)は当該推定される角度の変化に基づく回転量であるが、表記が煩雑になるため表示情報の回転(2)の欄では変化量を表すΔの表記を省略している。 As described above, the estimated posture (1) is the angle of the actual subject posture, and the rotation (2) of the display information is the amount of rotation based on the estimated angle change, but it is displayed because the notation is complicated In the column of information rotation (2), the notation of Δ representing the amount of change is omitted.
本発明では被写体が手であることから、手の回転量が90°付近になると図3で説明したような内部背景領域(C)及び基準点(F)が正常に求められなくなり、所望の制御が困難となる。しかし例えばaとしてa>1となる値を設定することで、基準位置からの一度の手の回転動作のみによっても、表示情報の一部を90°以上回転させることも可能となる。 Since the subject is a hand in the present invention, when the rotation amount of the hand is around 90 °, the internal background region (C) and the reference point (F) as described in FIG. It becomes difficult. However, by setting a value where a> 1 as a, for example, it is possible to rotate part of the display information by 90 ° or more only by a single hand rotation operation from the reference position.
また図10において、図9で説明した基準点・重心ベクトル(3)に基づいて図7で説明した姿勢(1)を推定するのが姿勢推定部23である。回転の上下左右の各方向への割り当ては、所定の閾値を設けていずれか1つのみの方向を割り当ててもよいし、フィッティングなどによって重み付けをして複数の方向を割り当ててもよい。例えば、上回転と右回転との同時の回転を推定してもよい。各方向における回転量の推定は、基準点・重心ベクトルの長さに比例させて行ってもよい。また、各方向における回転量の推定は、回転に伴う内部背景領域の見え方の変化が不均一である場合、回転量の変化が実際の手の回転量に比例して滑らかに推定されるよう補正する対応関係を用いてもよい。
In FIG. 10, the
なお、図10のような対応関係は、被写体となる個別の手(指の長さ、太さなどで特徴づけられる)によって姿勢を推定するための具体的な値が異なる。そのような値は各被写体と各基準位置とに対して推定部2に予め設定しておくものとする。またこのような個別の手に対する個別設定値を利用するかわりに、代表的な手の形状と対応する基準位置を想定して、代表設定値を利用してもよい。 It should be noted that the correspondence values as shown in FIG. 10 have different specific values for estimating the posture depending on individual hands (characterized by finger length, thickness, etc.) as subjects. Such values are set in advance in the estimation unit 2 for each subject and each reference position. Further, instead of using such individual setting values for individual hands, representative setting values may be used assuming a reference position corresponding to a representative hand shape.
以上のような、図7乃至図9及び図10の姿勢推定及び回転制御の応用的実施形態として、第一指及び第二指の開いている幅を広げることにより、内部背景領域自体を大きくして、手の回転に伴う内部背景領域重心の移動量が大きくなることを利用して、表示制御される回転量をユーザ側で調整することができる。すなわち、同じ手の回転量でも、第一指及び第二指が近い場合は表示制御される回転量を小さく、第一指及び第二指が遠い場合は表示制御される回転量を大きくすることができる。 As an application of the posture estimation and rotation control of FIGS. 7 to 9 and FIG. 10 as described above, the inner background region itself is enlarged by widening the open width of the first finger and the second finger. Thus, the amount of rotation for display control can be adjusted on the user side by utilizing the fact that the amount of movement of the center of gravity of the internal background region accompanying the rotation of the hand increases. That is, even for the same hand rotation amount, the rotation amount controlled for display is small when the first finger and the second finger are close, and the rotation amount controlled for display is increased when the first finger and the second finger are far away. Can do.
なお、前述の通り図7乃至図9及び図10の姿勢推定及び回転制御は一例であって、その他の回転軸や基準位置を利用することもできる。 Note that, as described above, the posture estimation and the rotation control in FIGS. 7 to 9 and 10 are merely examples, and other rotation axes and reference positions can be used.
切替制御部33は、図4を用いて前述した推定形状が「開」であるか「閉」であるかに基づいて、制御部3での制御方式の切替などを行う。当該切替の各種利用については後述するが、一例としては表示部4に表示される情報の一部がポインタである場合に、周知のマウスポインタにおけるマウスボタンのプレス状態及びリリース状態に相当する状態を、前記推定形状の「閉」及び「開」に対応づけることができる。この場合、第一指及び第二指を、(「開」→)「閉」→「開」と動かすことで、マウスポインタにおけるクリック動作に対応する処理を実現できる。さらに当該ポインタの移動を図6の説明のように移動制御部31に担当させれば、マウスポインタと同様の処理を実現できる。
The switching
倍率制御部34は、次に説明する撮像部1と被写体との推定距離の変化に基づいて、表示部4に表示される情報の一部を拡大縮小する。好ましい実施形態として、推定距離が小さいほど拡大表示し、推定距離が大きいほど縮小表示することで、表示情報の一部をあたかも手で取っているように、撮像部1に対する遠近と連動させて遠近表示することができる。すなわち倍率制御部34は好ましい実施形態として、図11に示すように、(1)の被写体である手と、(2)の表示情報の一部の例である直方体とが、手を近づけるほど直方体が拡大され、手を遠ざけるほど直方体が縮小されるような制御を行うことができる。
The
ここで、倍率制御部34で用いる推定距離は、図2のz軸として示す(c1)の距離に相当し、姿勢推定部23によって推定される。当該距離は、内部背景領域の面積によって推定される。所定の比例定数または対応関係などを用いて、当該面積が大きいほど距離は小さく、当該面積が小さいほど距離は大きいとして推定を行う。
Here, the estimated distance used in the
なお、距離推定を行うのは、前記推定形状が「閉」である場合すなわち第一指及び第二指が閉じている場合のみに限定してもよい。この場合、第一指及び第二指はほぼ固定されるので、より確実に内部背景領域の面積から距離を推定でき、手全体の移動によって拡大縮小制御を行うことができる。逆に前記推定形状が「閉」でない場合も距離推定を行うようにすれば、手全体の移動に加えて、第一指及び第二指の開き具合と連動させた拡大縮小制御も行うようにすることができる。 The distance estimation may be performed only when the estimated shape is “closed”, that is, when the first finger and the second finger are closed. In this case, since the first finger and the second finger are substantially fixed, the distance can be more reliably estimated from the area of the internal background region, and the enlargement / reduction control can be performed by moving the entire hand. Conversely, if distance estimation is performed even when the estimated shape is not “closed”, in addition to movement of the entire hand, enlargement / reduction control linked to the degree of opening of the first and second fingers is also performed. can do.
以上のような、制御部3の各部(移動制御部31乃至倍率制御部34)の制御はいずれかのみを個別で利用してもよいし、複数の組み合わせを利用してもよい。組み合わせ利用の実施形態のうち好ましい例を以下に説明する。
As described above, only one of the control of each unit (
例えば、制御される表示情報の一部としてポインタを扱う場合で、当該ポインタを移動制御部31により移動させる場合は、同時に回転制御部32を利用する状況はまれであると考えられるので、回転制御部32を利用しないようにする。このような状態で当該ポインタを移動させて、例えば表示部4に通信販売のウェブサイトが表示され、そのウェブページ内の商品画像にポインタを合わせることを考える。ここで当該商品を回転させて眺めるため、ポインタ移動制御から商品画像の回転制御に切り替えるのに、切替制御部33を利用することができる。
For example, when a pointer is handled as part of display information to be controlled and the pointer is moved by the
例えばポインタが商品画像上にあって且つ推定形状が「閉」(あるいは逆に「開」でもよい)ならば、制御対象をポインタから商品画像に切り替え、移動制御部31を利用せず回転制御部32を利用するように設定することができ、ポインタ位置を気にせずに商品の回転のみを行うようにすることができる。また制御対象の商品画像に対して回転制御部32による回転に加えて、倍率制御部34による倍率の制御を行うようにしてもよく、両者の利用でより高い現実感と共に当該商品を仮想的に手に取る操作を実現できる。別商品を選ぶ場合は形状を「開」(あるいは逆に「閉」)として別商品にポインタを移動させてから同様にすればよい。
For example, if the pointer is on the product image and the estimated shape is “closed” (or conversely “open”), the control target is switched from the pointer to the product image, and the rotation control unit is not used without using the
また、前述の図10で例えばa=1と設定して手の回転量と等しい量の回転制御を行うようにしている場合であれば、当該商品を選択後に回転制御に切り替えてある方向へ45°回転させて、一度形状を「開」(あるいは逆に「閉」)に戻して移動制御状態にして手の回転状態を基準位置に戻し、再度形状を「閉」(あるいは逆に「開」)として商品の回転制御を追加継続して行い同様の方向へ45°+45°=90°回転させる、といった利用もできる。 Further, in the case where, for example, a = 1 is set in FIG. 10 to perform rotation control of an amount equal to the rotation amount of the hand, the product is selected in the direction in which the rotation control is switched after selection of the product. Rotate to return the shape to “open” (or conversely “closed”), move to the movement control state, return the hand rotation to the reference position, and again “close” (or conversely “open”) ), The rotation control of the product can be continued and rotated 45 ° + 45 ° = 90 ° in the same direction.
また、制御される表示情報の一部が例えばスクロールバーやスクロール式メニューの場合、移動制御部31ではなくて回転制御部32のみを利用するようにしてもよい。この場合も制御対象および制御方式の切り替えに、例えば別のスクロール式メニューをスクロールさせたい場合などに、前述と同様に切替制御部33を利用することができる。
Further, when part of the display information to be controlled is, for example, a scroll bar or a scroll menu, only the
表示部4において補助的に利用可能な補助表示部の例を図12に示す。図12では補助表示部40は表示部4の一部の領域を利用して設けられているが、別のディスプレイを利用して設けてもよい。補助表示部40には、図12に示されているように、撮像部1にて撮影している手などの被写体を含む画像を(撮像部1のサンプリング周期と同様の周期又は荒い周期により)リアルタイムで表示することができる。あるいは、図3で説明したような、被写体の手の画像に対して推定部2での処理を施して得られる肌色領域、外接多角形、基準点、などとして表示してもよい。
FIG. 12 shows an example of an auxiliary display unit that can be used supplementarily in the
補助表示部40の利用によって、図12に示すようにユーザが自身の手を動かして被写体の移動や回転を行い、それに連動させて直方体として例示されている表示情報の一部の移動や回転の制御を行うに際して、ユーザの気づかないうちに被写体が撮影画像から外れてしまい、手を動かしても制御が実施されないような状況になることを防止できるという効果がある。例えば手を移動させすぎて撮影映像内から手が消えてしまうことのないよう、補助表示部40を利用して確認することができる。また例えば手を回転させすぎて内部背景領域が得られなくなり、正常な制御が行えなくなることのないよう、補助表示部40を利用して随時確認することができる。 By using the auxiliary display unit 40, as shown in FIG. 12, the user moves and rotates the subject by moving his / her hand, and the movement and rotation of a part of the display information exemplified as a rectangular parallelepiped in conjunction with the movement. When the control is performed, there is an effect that it is possible to prevent the subject from being taken out of the captured image without the user's knowledge and the situation where the control is not performed even if the hand is moved. For example, it is possible to check using the auxiliary display unit 40 so that the hand does not disappear from the captured video image by moving the hand too much. Further, for example, the auxiliary display unit 40 can be used to check at any time so that the internal background region cannot be obtained due to excessive rotation of the hand and normal control cannot be performed.
上記のような補助表示部40の利用意義よりも明らかなように、補助表示部40での表示は、制御部3による制御対象である表示部4の一部の表示情報とは別である。すなわち、原則として補助表示部40は制御部3による表示制御とは独立に、表示を行う。ただし例外として、補助表示部40を利用するか否かの切替に切替制御部33を利用するなどしても構わない。
As is clear from the significance of the use of the auxiliary display unit 40 as described above, the display on the auxiliary display unit 40 is different from the display information of a part of the
なお、本発明による表示制御自体を行うか行わないかの切替に、前述の切替制御部33を利用してもよい。例えば撮影画像に手が映っていない状態から、手を基準位置に持ってきて、その状態で例えば前述のクリック動作、あるいは同様にダブルクリック動作などを行うことで、表示制御を開始するようにしてもよい。同様に表示制御を終了するようにしてもよい。このようにすることで基準位置に手を持ってくるまでの動作のような、ユーザが表示制御として意図しない動作の影響を除外することができる。
Note that the switching
図13は本発明で利用可能な被写体で、手に限定されない一般的な例を示している。当該被写体は、被写体「手」における第一指及び第二指に対応する一対の半円環状部分A1及びA2と、被写体「手」における握り込んだ第三乃至第五指に対応する、A1及びA2で取り囲まれ且つその奥に位置する凸状部分Bを備える。A1及びA2はU字状又はV字状などであってもよく、「半円環状」とはこのような形状をも含むものとする。 FIG. 13 shows a general example that is a subject that can be used in the present invention and is not limited to a hand. The subject includes a pair of semi-annular portions A1 and A2 corresponding to the first finger and the second finger in the subject “hand”, and A1 and A5 corresponding to the third to fifth fingers grasped in the subject “hand”. A convex portion B is provided which is surrounded by A2 and located behind it. A1 and A2 may be U-shaped or V-shaped, and “semi-annular” includes such a shape.
A1及びA2は例えばその根元に位置する蝶番C(回転軸C)によって先端部分が開閉可能となっており、閉じることで円環状部分を形成する。このような一般的な被写体を利用する場合も、領域形成部21において必ずしも肌色ではない当該被写体の色特徴(全体に一様な色であることが好ましい)を利用して、前述の(数1)乃至(数3)などで説明したのと類似の手法により当該一般的な被写体の領域を抽出することができる。
A1 and A2 can be opened and closed by, for example, a hinge C (rotary axis C) located at the base thereof, and an annular portion is formed by closing. Even when such a general subject is used, the
10…情報端末装置、1…撮影部、2…推定部、21…領域形成部、22…特徴検出部、221…第一多角形形成部、222…内部背景抽出部、223…第二多角形形成部、23…姿勢推定部、3…制御部、4…表示部 DESCRIPTION OF SYMBOLS 10 ... Information terminal device, 1 ... Imaging | photography part, 2 ... Estimation part, 21 ... Area | region formation part, 22 ... Feature detection part, 221 ... First polygon formation part, 222 ... Internal background extraction part, 223 ... Second polygon Forming unit, 23 ... Attitude estimation unit, 3 ... Control unit, 4 ... Display unit
Claims (12)
撮影画像より色特徴に基づいて前記被写体の領域を抽出する領域形成部と、
前記抽出された被写体の領域を包含する第一の外接多角形を形成する第一多角形形成部と、
前記第一の外接多角形の内部より前記被写体の領域を排除した内部背景領域を抽出する内部背景抽出部と、
前記内部背景領域を包含する第二の外接多角形を形成する第二多角形形成部と、
前記第一の外接多角形、前記内部背景領域及び前記第二の外接多角形に基づいて、前記被写体の前記撮影部に対する位置及び姿勢を推定する姿勢推定部と、
前記推定された位置及び姿勢に基づいて前記表示部に表示される情報の一部を制御する制御部とを備え、
前記被写体の撮影画像が、指を握り込み、該握り込んだ部分を別の指が取り囲んだ状態により段差及びU字乃至V字状の領域を形成した手を撮影した画像であり、前記領域形成部が肌色の領域を抽出し、
前記姿勢推定部が、前記内部背景領域より該領域の形状に基づいて抽出される基準点であって前記握り込んで形成される角の部分に対応する基準点に基づいて前記位置を推定し、
前記姿勢推定部が、前記基準点と前記内部背景領域との、前記段差の存在に依存した位置関係に基づいて前記姿勢を推定し、
前記姿勢推定部がさらに、前記第一の外接多角形の辺と前記第二の外接多角形の辺とで重なる部分があるか否かに基づいて、前記被写体の形状を、前記取り囲んだ指が離れて開いているか又は接して閉じているかに関して推定し、
前記制御部が、前記推定された位置の変化に基づいて前記表示部に表示される情報の一部を移動させる移動制御部と、前記推定された姿勢の変化に基づいて前記表示部に表示される情報の一部を回転させる回転制御部と、前記推定された形状に基づいて、前記表示部に表示される情報の一部の状態を切り替える切替制御部と、を備えることを特徴とする情報端末装置。 In an information terminal device including a photographing unit and a display unit that continuously photograph a subject,
An area forming unit that extracts an area of the subject based on color characteristics from a captured image;
A first polygon forming unit forming a first circumscribed polygon including the extracted subject area;
An internal background extraction unit that extracts an internal background region that excludes the region of the subject from the inside of the first circumscribed polygon;
A second polygon forming portion forming a second circumscribed polygon including the inner background region;
A posture estimation unit that estimates a position and a posture of the subject with respect to the photographing unit based on the first circumscribed polygon, the inner background region, and the second circumscribed polygon;
A control unit that controls a part of information displayed on the display unit based on the estimated position and orientation ;
The photographed image of the subject is an image of a hand that forms a step and a U-shaped or V-shaped region by gripping a finger and surrounding the gripped portion with another finger, and forming the region Extract the skin-colored area,
The posture estimation unit estimates the position based on a reference point extracted from the internal background region based on the shape of the region and corresponding to a corner portion formed by grasping,
The posture estimation unit estimates the posture based on a positional relationship between the reference point and the internal background region depending on the presence of the step;
The posture estimation unit further includes a finger that surrounds the shape of the subject based on whether there is an overlapping portion between the side of the first circumscribed polygon and the side of the second circumscribed polygon. Infers whether it is open away or closed close,
The control unit moves a part of the information displayed on the display unit based on the estimated change in position, and is displayed on the display unit based on the estimated change in posture. a rotation control unit for rotating a portion of that information, based on the estimated shape, characterized Rukoto and a switching control unit for switching the part of the state of the information displayed on the display unit Information terminal device.
撮影画像より色特徴に基づいて前記被写体の領域を抽出する領域形成部と、
前記抽出された被写体の領域を包含する第一の外接多角形を形成する第一多角形形成部と、
前記第一の外接多角形の内部より前記被写体の領域を排除した内部背景領域を抽出する内部背景抽出部と、
前記内部背景領域を包含する第二の外接多角形を形成する第二多角形形成部と、
前記第一の外接多角形、前記内部背景領域及び前記第二の外接多角形に基づいて、前記被写体の前記撮影部に対する位置及び姿勢を推定する姿勢推定部と、
前記推定された位置及び姿勢に基づいて前記表示部に表示される情報の一部を制御する制御部とを備え、
前記被写体の撮影画像が、第三乃至第五指を奥側に握り込み、該握り込んだ部分を手前側より第一及び第二指が取り囲んだ状態の手を、当該第一及び第二指の側から撮影した画像であり、前記領域形成部が肌色の領域を抽出し、
前記姿勢推定部が、前記内部背景領域より該領域の形状に基づいて抽出される基準点であって、前記握り込んだ第三乃至第五指による第二関節における角の部分に対応する基準点に基づいて前記位置を推定し、
前記姿勢推定部が、前記基準点と前記内部背景領域との、前記奥側及び手前側の存在に依存した位置関係に基づいて前記姿勢を推定し、
前記姿勢推定部がさらに、前記第一の外接多角形の辺と前記第二の外接多角形の辺とで重なる部分があるか否かに基づいて、前記被写体の形状を、前記第一指及び第二指が離れて開いているか又は接して閉じているかに関して推定し、
前記制御部が、前記推定された位置の変化に基づいて前記表示部に表示される情報の一部を移動させる移動制御部と、前記推定された姿勢の変化に基づいて前記表示部に表示される情報の一部を回転させる回転制御部と、前記推定された形状に基づいて、前記表示部に表示される情報の一部の状態を切り替える切替制御部と、を備えることを特徴とする情報端末装置。 In an information terminal device including a photographing unit and a display unit that continuously photograph a subject,
An area forming unit that extracts an area of the subject based on color characteristics from a captured image;
A first polygon forming unit forming a first circumscribed polygon including the extracted subject area;
An internal background extraction unit that extracts an internal background region that excludes the region of the subject from the inside of the first circumscribed polygon;
A second polygon forming portion forming a second circumscribed polygon including the inner background region;
A posture estimation unit that estimates a position and a posture of the subject with respect to the photographing unit based on the first circumscribed polygon, the inner background region, and the second circumscribed polygon;
A control unit that controls a part of information displayed on the display unit based on the estimated position and orientation ;
The photographed image of the subject grasps the third and fifth fingers to the back side, and the hand in a state where the first and second fingers surround the grasped portion from the front side, the first and second fingers The image is taken from the side, and the region forming unit extracts a skin color region,
The reference point that is extracted from the internal background region based on the shape of the region by the posture estimation unit and that corresponds to the corner portion of the second joint by the grasped third to fifth fingers Estimating the position based on
The posture estimation unit estimates the posture based on a positional relationship between the reference point and the internal background region depending on the existence of the back side and the near side;
The posture estimation unit further determines the shape of the subject based on whether or not there is an overlapping portion between the side of the first circumscribed polygon and the side of the second circumscribed polygon. Infers whether the second finger is open apart or closed in contact;
The control unit moves a part of the information displayed on the display unit based on the estimated change in position, and is displayed on the display unit based on the estimated change in posture. a rotation control unit for rotating a portion of that information, based on the estimated shape, characterized Rukoto and a switching control unit for switching the part of the state of the information displayed on the display unit Information terminal device.
撮影画像より色特徴に基づいて前記被写体の領域を抽出する領域形成段階と、An area forming step of extracting the area of the subject based on color characteristics from the captured image;
前記抽出された被写体の領域を包含する第一の外接多角形を形成する第一多角形形成段階と、A first polygon forming step of forming a first circumscribed polygon that encompasses the extracted subject area;
前記第一の外接多角形の内部より前記被写体の領域を排除した内部背景領域を抽出する内部背景抽出段階と、An internal background extraction step for extracting an internal background area excluding the area of the subject from the inside of the first circumscribed polygon;
前記内部背景領域を包含する第二の外接多角形を形成する第二多角形形成段階と、A second polygon forming step for forming a second circumscribed polygon including the inner background region;
前記第一の外接多角形、前記内部背景領域及び前記第二の外接多角形に基づいて、前記被写体の前記撮影部に対する位置及び姿勢を推定する姿勢推定段階と、A posture estimation step of estimating a position and a posture of the subject with respect to the photographing unit based on the first circumscribed polygon, the inner background region, and the second circumscribed polygon;
前記推定された位置及び姿勢に基づいて前記表示部に表示される情報の一部を制御する制御段階とを備え、A control step of controlling a part of information displayed on the display unit based on the estimated position and orientation;
前記被写体の撮影画像が、指を握り込み、該握り込んだ部分を別の指が取り囲んだ状態により段差及びU字乃至V字状の領域を形成した手を撮影した画像であり、前記領域形成段階が肌色の領域を抽出し、The photographed image of the subject is an image of a hand that forms a step and a U-shaped or V-shaped region by gripping a finger and surrounding the gripped portion with another finger, and forming the region The stage extracts the skin color area,
前記姿勢推定段階が、前記内部背景領域より該領域の形状に基づいて抽出される基準点であって前記握り込んで形成される角の部分に対応する基準点に基づいて前記位置を推定し、The posture estimation step estimates the position based on a reference point extracted from the internal background region based on the shape of the region and corresponding to a corner portion formed by grasping;
前記姿勢推定段階が、前記基準点と前記内部背景領域との、前記段差の存在に依存した位置関係に基づいて前記姿勢を推定し、The posture estimation step estimates the posture based on a positional relationship between the reference point and the internal background region depending on the presence of the step;
前記姿勢推定段階がさらに、前記第一の外接多角形の辺と前記第二の外接多角形の辺とで重なる部分があるか否かに基づいて、前記被写体の形状を、前記取り囲んだ指が離れて開いているか又は接して閉じているかに関して推定し、The posture estimation step further includes determining whether the surrounding finger has a shape of the subject based on whether there is an overlapping portion between the side of the first circumscribed polygon and the side of the second circumscribed polygon. Infers whether it is open away or closed close,
前記制御段階が、前記推定された位置の変化に基づいて前記表示部に表示される情報の一部を移動させる移動制御段階と、前記推定された姿勢の変化に基づいて前記表示部に表示される情報の一部を回転させる回転制御段階と、前記推定された形状に基づいて、前記表示部に表示される情報の一部の状態を切り替える切替制御段階と、を備えることを特徴とする方法。The control step is displayed on the display unit based on the movement control step of moving a part of information displayed on the display unit based on the estimated change in position and the estimated change in posture. A rotation control step for rotating a part of the information to be rotated, and a switching control step for switching a state of a part of the information displayed on the display unit based on the estimated shape. .
撮影画像より色特徴に基づいて前記被写体の領域を抽出する領域形成段階と、An area forming step of extracting the area of the subject based on color characteristics from the captured image;
前記抽出された被写体の領域を包含する第一の外接多角形を形成する第一多角形形成段階と、A first polygon forming step of forming a first circumscribed polygon that encompasses the extracted subject area;
前記第一の外接多角形の内部より前記被写体の領域を排除した内部背景領域を抽出する内部背景抽出段階と、An internal background extraction step for extracting an internal background area excluding the area of the subject from the inside of the first circumscribed polygon;
前記内部背景領域を包含する第二の外接多角形を形成する第二多角形形成段階と、A second polygon forming step for forming a second circumscribed polygon including the inner background region;
前記第一の外接多角形、前記内部背景領域及び前記第二の外接多角形に基づいて、前記被写体の前記撮影部に対する位置及び姿勢を推定する姿勢推定段階と、A posture estimation step of estimating a position and a posture of the subject with respect to the photographing unit based on the first circumscribed polygon, the inner background region, and the second circumscribed polygon;
前記推定された位置及び姿勢に基づいて前記表示部に表示される情報の一部を制御する制御段階とを備え、A control step of controlling a part of information displayed on the display unit based on the estimated position and orientation;
前記被写体の撮影画像が、第三乃至第五指を奥側に握り込み、該握り込んだ部分を手前側より第一及び第二指が取り囲んだ状態の手を、当該第一及び第二指の側から撮影した画像であり、前記領域形成段階が肌色の領域を抽出し、The photographed image of the subject grasps the third and fifth fingers to the back side, and the hand in a state where the first and second fingers surround the grasped portion from the front side, the first and second fingers The image is taken from the side, and the region forming stage extracts a skin color region,
前記姿勢推定段階が、前記内部背景領域より該領域の形状に基づいて抽出される基準点であって、前記握り込んだ第三乃至第五指による第二関節における角の部分に対応する基準点に基づいて前記位置を推定し、The reference point extracted from the internal background region based on the shape of the region, and the reference point corresponding to the corner portion of the second joint by the grasped third to fifth fingers. Estimating the position based on
前記姿勢推定段階が、前記基準点と前記内部背景領域との、前記奥側及び手前側の存在に依存した位置関係に基づいて前記姿勢を推定し、The posture estimation step estimates the posture based on a positional relationship between the reference point and the internal background region depending on the existence of the back side and the near side,
前記姿勢推定段階がさらに、前記第一の外接多角形の辺と前記第二の外接多角形の辺とで重なる部分があるか否かに基づいて、前記被写体の形状を、前記第一指及び第二指が離れて開いているか又は接して閉じているかに関して推定し、The posture estimation step further includes determining the shape of the subject based on whether there is an overlapping portion between the side of the first circumscribed polygon and the side of the second circumscribed polygon. Infers whether the second finger is open apart or closed in contact;
前記制御段階が、前記推定された位置の変化に基づいて前記表示部に表示される情報の一部を移動させる移動制御段階と、前記推定された姿勢の変化に基づいて前記表示部に表示される情報の一部を回転させる回転制御段階と、前記推定された形状に基づいて、前記表示部に表示される情報の一部の状態を切り替える切替制御段階と、を備えることを特徴とする方法。The control step is displayed on the display unit based on the movement control step of moving a part of information displayed on the display unit based on the estimated change in position and the estimated change in posture. A rotation control step for rotating a part of the information to be rotated, and a switching control step for switching a state of a part of the information displayed on the display unit based on the estimated shape. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011019710A JP5569973B2 (en) | 2011-02-01 | 2011-02-01 | Information terminal device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011019710A JP5569973B2 (en) | 2011-02-01 | 2011-02-01 | Information terminal device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012160051A JP2012160051A (en) | 2012-08-23 |
JP5569973B2 true JP5569973B2 (en) | 2014-08-13 |
Family
ID=46840524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011019710A Expired - Fee Related JP5569973B2 (en) | 2011-02-01 | 2011-02-01 | Information terminal device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5569973B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101757080B1 (en) | 2012-07-13 | 2017-07-11 | 소프트키네틱 소프트웨어 | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
JP6004972B2 (en) * | 2013-03-12 | 2016-10-12 | アルパイン株式会社 | Operation input device and operation input method |
JP6425299B2 (en) * | 2013-12-10 | 2018-11-21 | 国立大学法人 筑波大学 | Finger motion detection device, finger motion detection method, finger motion detection program, and virtual object processing system |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
DE112014006739T5 (en) * | 2014-06-11 | 2017-05-11 | Mitsubishi Electric Corporation | Display control system and display control method |
US10732725B2 (en) * | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784715A (en) * | 1993-09-10 | 1995-03-31 | Hitachi Ltd | Information processor |
JP5207513B2 (en) * | 2007-08-02 | 2013-06-12 | 公立大学法人首都大学東京 | Control device operation gesture recognition device, control device operation gesture recognition system, and control device operation gesture recognition program |
JP4938748B2 (en) * | 2008-11-06 | 2012-05-23 | 日本放送協会 | Image recognition apparatus and program |
JP2010184600A (en) * | 2009-02-12 | 2010-08-26 | Autonetworks Technologies Ltd | Onboard gesture switch device |
JP2010238145A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Information output device, remote control method and program |
-
2011
- 2011-02-01 JP JP2011019710A patent/JP5569973B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012160051A (en) | 2012-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5569973B2 (en) | Information terminal device, method and program | |
TWI536320B (en) | Method for image segmentation | |
US10082879B2 (en) | Head mounted display device and control method | |
US10514767B2 (en) | Information processing apparatus and information processing method | |
TWI499966B (en) | Interactive operation method of electronic apparatus | |
US8970490B2 (en) | Electronic device and a method for controlling the functions of the electronic device as well as program product for implementing the method | |
JP2020198108A (en) | Information processing device, control method of information processing device, and program | |
CN107291346B (en) | Terminal device and method and device for processing drawing content of terminal device | |
US20130181897A1 (en) | Operation input apparatus, operation input method, and program | |
JP4747232B2 (en) | Small portable terminal | |
JP7212067B2 (en) | Image synthesizing method and apparatus | |
JP2006209359A (en) | Apparatus, method and program for recognizing indicating action | |
JP2009265809A (en) | Information terminal device | |
EP3036605A1 (en) | System and method for creating an interacting with a surface display | |
WO2019128917A1 (en) | Object control method and apparatus, storage medium, and computer device | |
CN103472915B (en) | reading control method based on pupil tracking, reading control device and display device | |
WO2020080107A1 (en) | Information processing device, information processing method, and program | |
CN106909871A (en) | Gesture instruction recognition methods | |
CN109947243B (en) | Intelligent electronic equipment gesture capturing and recognizing technology based on touch hand detection | |
Bai et al. | Free-hand interaction for handheld augmented reality using an RGB-depth camera | |
JP5534432B2 (en) | Information terminal equipment | |
CN109993059B (en) | Binocular vision and object recognition technology based on single camera on intelligent electronic equipment | |
CN109960406B (en) | Intelligent electronic equipment gesture capturing and recognizing technology based on action between fingers of two hands | |
JP5360406B2 (en) | Image display device | |
JP5464661B2 (en) | Information terminal equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5569973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |