JP2014182662A - Operation apparatus and operation method - Google Patents

Operation apparatus and operation method Download PDF

Info

Publication number
JP2014182662A
JP2014182662A JP2013057382A JP2013057382A JP2014182662A JP 2014182662 A JP2014182662 A JP 2014182662A JP 2013057382 A JP2013057382 A JP 2013057382A JP 2013057382 A JP2013057382 A JP 2013057382A JP 2014182662 A JP2014182662 A JP 2014182662A
Authority
JP
Japan
Prior art keywords
hand
finger
angle
fingertip
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013057382A
Other languages
Japanese (ja)
Other versions
JP2014182662A5 (en
Inventor
Yuta Kaminaga
祐太 上永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanley Electric Co Ltd
Original Assignee
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanley Electric Co Ltd filed Critical Stanley Electric Co Ltd
Priority to JP2013057382A priority Critical patent/JP2014182662A/en
Publication of JP2014182662A publication Critical patent/JP2014182662A/en
Publication of JP2014182662A5 publication Critical patent/JP2014182662A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation apparatus and an operation method capable of recognizing a shape and movement of a hand accurately at high speed, while reducing a processing load.SOLUTION: In hand area extraction processing S10, a hand area is extracted from image information obtained by imaging means. In fingertip shape recognition processing S20, a plurality of fingertip shapes are recognized from the hand area. In hand shape recognition processing S30, there is calculated, as an angle between fingers, an angle made by neighboring straight lines connecting a specific point within a palm or back of the hand in the hand area, and a specific point within the fingertip shapes. In pointing information calculation processing S40, an operation command is created for operating equipment according to a change of the angle between fingers. In command transmission processing S50, the operation command is transmitted to the equipment.

Description

本発明は、人の手の形状や動作に応じて、モニター装置等の機器を操作する操作装置及び操作方法に関する。   The present invention relates to an operating device and an operating method for operating a device such as a monitor device in accordance with the shape and movement of a human hand.

従来、手のジェスチャや動作に応じて、モニター中のポインタやロボット等の機器を非接触で操作するためのヒューマンインターフェイス装置が知られている。   2. Description of the Related Art Conventionally, human interface devices for operating devices such as a pointer and a robot in a non-contact manner according to hand gestures and actions are known.

例えば、特許文献1に記載のヒューマンインターフェイス装置では、撮像手段が所定の時間間隔で手の指を撮像する。撮像手段は、複数のLEDと魚眼レンズを備え、LEDで指を照明したときに反射する光を魚眼レンズで検出し、各指の3次元位置情報を取得する。指までの距離の算出には、対象物とLEDの距離が大きくなるにつれて、対象物で反射される光強度が減少するという性質が利用されている(段落0028、図2)。   For example, in the human interface device described in Patent Document 1, the imaging unit images a finger of a hand at a predetermined time interval. The imaging means includes a plurality of LEDs and a fisheye lens, detects light reflected when the finger is illuminated with the LEDs, and acquires three-dimensional position information of each finger. The calculation of the distance to the finger utilizes the property that the light intensity reflected by the object decreases as the distance between the object and the LED increases (paragraph 0028, FIG. 2).

また、特許文献2に記載のユーザインターフェイス装置では、形状解釈部は、画像入力部から所定時間毎に出力される対象物体(ユーザの手)の2次元画像を逐次取り込む。形状解釈部は、2次元画像から所定の特徴量(距離情報や対象物の領域)を抽出し、解釈規則をもとに対象物体の形状を認識する(段落0038〜0042、図1)。   In the user interface device described in Patent Document 2, the shape interpretation unit sequentially captures a two-dimensional image of the target object (user's hand) output from the image input unit every predetermined time. The shape interpretation unit extracts a predetermined feature amount (distance information or object region) from the two-dimensional image, and recognizes the shape of the target object based on the interpretation rules (paragraphs 0038 to 0042, FIG. 1).

特開2011−18129号公報JP 2011-18129 A 特開平10−207618号公報Japanese Patent Laid-Open No. 10-207618

しかしながら、特許文献1の装置では、光の反射率が、性別や肌の色等による個体差があることにより、同じ装置で測定しても精度良く距離を求めることができず、人毎に較正を行う必要があった。   However, in the device of Patent Document 1, the distance of light cannot be obtained accurately even if measured with the same device due to individual differences in light reflectivity due to gender, skin color, etc., and calibration is performed for each person. Had to do.

また、特許文献2の装置では、手の形状、位置、方向、肌の色等により、多種の解釈規則を準備する必要があり、マッチング処理にかかる制御負担や時間が莫大なものとなっていた。   Further, in the apparatus of Patent Document 2, it is necessary to prepare various interpretation rules depending on the shape, position, direction, skin color, etc. of the hand, and the control burden and time required for matching processing have become enormous. .

本発明は、このような事情に鑑みてなされたものであり、処理負担を軽減しつつ、正確かつ高速に手の形状、動作を認識することが可能な操作装置及び操作方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an operation device and an operation method capable of recognizing the shape and movement of a hand accurately and at high speed while reducing the processing burden. Objective.

本発明の操作装置は、撮像領域にある人の手を撮像して画像情報として取得する撮像手段と、該撮像手段が取得した画像情報に基づいて手の動作を認識する画像処理手段と、該手の動作に応じて機器を操作するための操作コマンドを送出するコマンド処理手段とを備えた操作装置であって、前記画像処理手段は、前記画像情報から手の領域を抽出する手領域抽出手段と、前記手領域抽出手段により抽出された手の領域から複数の指先形状を認識する指先形状認識手段と、前記手の領域のうち掌又は手の甲内の特定点と前記指先形状認識手段により認識された各指先形状内の特定点とを結ぶ隣接する直線のなす角度を指間角度として算出する指間角度算出手段とを有し、前記コマンド処理手段は、前記指間角度の変化に基づいて前記操作コマンドを作成するコマンド作成手段と、前記コマンド作成手段により作成された操作コマンドを前記機器に送信するコマンド送信手段とを有することを特徴とする。   An operation device according to the present invention includes an imaging unit that captures a human hand in an imaging region and acquires the image information as image information, an image processing unit that recognizes a hand motion based on the image information acquired by the imaging unit, An operation device comprising command processing means for sending an operation command for operating a device in accordance with hand movement, wherein the image processing means extracts a hand area from the image information. A fingertip shape recognizing means for recognizing a plurality of fingertip shapes from the hand area extracted by the hand area extracting means, a specific point in the palm or back of the hand of the hand area, and the fingertip shape recognizing means. And an inter-finger angle calculating unit that calculates an angle between adjacent straight lines connecting specific points in each fingertip shape as the inter-finger angle, and the command processing unit is configured to change the inter-finger angle based on the change in the inter-finger angle. Operation command And command generating means for generating, characterized in that it has a command transmitting means for transmitting the operation command created by the command generating means to said device.

本発明の操作装置によれば、人の手が撮像領域に入ってきたとき、撮像手段がこれを画像情報として取得する。手領域抽出手段は、該画像情報から手の領域を抽出し、指先形状認識手段は、抽出された手の領域から、例えば、所定の曲率の部分を抽出して複数の指先形状を認識する。   According to the operating device of the present invention, when a human hand enters the imaging region, the imaging unit acquires this as image information. The hand region extracting unit extracts a hand region from the image information, and the fingertip shape recognizing unit extracts, for example, a portion having a predetermined curvature from the extracted hand region, and recognizes a plurality of fingertip shapes.

このとき、手の領域のうち掌又は手の甲内の特定点と指先形状内の特定点とを結ぶ直線が、指先形状認識手段により認識された指の数(最大5本)だけ発生する。指間角度算出手段は、隣接する直線のなす角度を指間角度として算出するので、手によるジェスチャ等を容易に認識することができる。   At this time, a straight line connecting a specific point in the palm or back of the hand and a specific point in the fingertip shape in the hand region is generated by the number of fingers (up to five) recognized by the fingertip shape recognition means. Since the inter-finger angle calculating means calculates the angle formed by the adjacent straight lines as the inter-finger angle, it is possible to easily recognize a hand gesture or the like.

コマンド作成手段は、指間角度が変化(手が動作)したことに基づいて、機器(例えば、ロボットやモニター中のポインタ)を操作する操作コマンドを作成し、コマンド送信手段は、該操作コマンドを該機器に送信する。従って、手の動作を認識して機器を操作することが可能な操作装置が実現される。手の動作を認識するのに多くの条件を必要としないので、画像処理の制御負担を軽減しつつ、正確かつ高速に手の形状、動作を認識することができる。   The command creation means creates an operation command for operating a device (for example, a robot or a pointer in a monitor) based on the change of the finger-to-finger angle (the hand moves), and the command transmission means outputs the operation command. Send to the device. Therefore, an operation device that can recognize the movement of the hand and operate the device is realized. Since many conditions are not required for recognizing the hand movement, the hand shape and movement can be recognized accurately and at high speed while reducing the control load of image processing.

本発明の操作装置において、前記掌又は手の甲内の特定点は、該掌又は手の甲の領域の重心であり、前記指先形状内の特定点は、該指先形状の重心又は先端であることが好ましい。   In the operating device of the present invention, the specific point in the palm or back of the hand is preferably the center of gravity of the palm or back of the hand, and the specific point in the fingertip shape is preferably the center of gravity or the tip of the fingertip shape.

本発明によれば、掌又は手の甲内の特定点は、掌又は手の甲の領域の重心であるので、該領域を抽出することで容易に重心を算出することができる。また、指先形状内の特定点は、指先形状の重心であるので、例えば、指先形状を構成する画素の座標から容易に重心座標を算出することができる。指先形状内の特定点は、指先形状の先端であってもよい。これにより、両重心座標を結ぶ直線を求めて、容易に指間角度を算出することができる。   According to the present invention, since the specific point in the palm or back of the hand is the center of gravity of the palm or back of the hand, the center of gravity can be easily calculated by extracting the area. Further, since the specific point in the fingertip shape is the center of gravity of the fingertip shape, for example, the center of gravity coordinates can be easily calculated from the coordinates of the pixels constituting the fingertip shape. The specific point in the fingertip shape may be the tip of the fingertip shape. As a result, a straight line connecting both barycentric coordinates can be obtained, and the inter-finger angle can be easily calculated.

本発明の操作装置において、指の種別を決定する指種別決定手段を備え、前記指種別決定手段は、前記指間角度算出手段により算出された指間角度と、多数の手のサンプルを調査することにより構築されたデータベースとによって、指種別を決定することが好ましい。   The operation device of the present invention includes a finger type determining unit that determines a finger type, and the finger type determining unit investigates the inter-finger angle calculated by the inter-finger angle calculating unit and a large number of hand samples. It is preferable to determine the finger type according to the database constructed by this.

本発明では、指種別決定手段が、算出された指間角度を、例えば、データベースにあるモデルに当てはめることにより指種別を決定する。これにより、特定の指の動きを追跡して、細かな手の動作も認識できるようになる。   In the present invention, the finger type determining means determines the finger type by applying the calculated inter-finger angle to, for example, a model in the database. As a result, the movement of a specific finger can be tracked to recognize a fine hand movement.

本発明の操作装置において、前記コマンド作成手段は、親指と人差し指が決定されたとき、該親指と該人差し指のなす指間角度が予め定めた角度閾値より小さくなった場合に、前記操作コマンドを作成することが好ましい。   In the operation device according to the present invention, the command creation means creates the operation command when a thumb and an index finger are determined, and an angle between fingers between the thumb and the index finger is smaller than a predetermined angle threshold. It is preferable to do.

本発明によれば、親指と人差し指のなす指間角度が予め定めた角度閾値より小さくなった場合に、例えば、マウスのボタンダウンに相当する操作コマンドを作成するので、指の動作を認識して操作する操作装置を実現することができる。   According to the present invention, when the finger-to-finger angle between the thumb and the index finger becomes smaller than a predetermined angle threshold, for example, an operation command corresponding to a mouse button down is created. An operating device to be operated can be realized.

本発明の操作方法は、撮像領域にある人の手を撮像して画像情報として取得し、該画像情報に基づいて手の動作を認識し、該手の動作に応じて機器を操作する操作方法であって、前記画像情報から手の領域を抽出する手領域抽出工程と、前記手領域抽出工程で抽出された手の領域から、複数の指先形状を認識する指先形状認識工程と、前記手の領域のうち掌又は手の甲内の特定点と前記指先形状認識工程で認識された各指先形状内の特定点とを結ぶ隣接する直線のなす角度を指間角度として算出する指間角度算出工程と、前記指間角度の変化に基づいて前記機器を操作するための操作コマンドを作成するコマンド作成工程と、前記コマンド作成工程で作成された操作コマンドを前記機器に送信するコマンド送信工程とを備えることを特徴とする。   An operation method according to the present invention is an operation method in which a person's hand in an imaging region is captured and acquired as image information, the movement of the hand is recognized based on the image information, and the device is operated according to the movement of the hand. A hand region extracting step for extracting a hand region from the image information, a fingertip shape recognition step for recognizing a plurality of fingertip shapes from the hand region extracted in the hand region extracting step, and the hand A finger angle calculation step of calculating an angle between adjacent straight lines connecting a specific point in the palm or the back of the hand in the region and a specific point in each fingertip shape recognized in the fingertip shape recognition step; A command creation step of creating an operation command for operating the device based on a change in the angle between the fingers, and a command transmission step of sending the operation command created in the command creation step to the device. Features .

本発明の操作方法によれば、人の手が撮像領域に入ってきたとき、まず、画像情報として取得される。手領域抽出工程では、該画像情報から手の領域が抽出され、指先形状認識工程では、抽出された手の領域から、例えば、所定の曲率の部分を抽出して複数の指先形状が認識される。   According to the operation method of the present invention, when a human hand enters the imaging region, it is first acquired as image information. In the hand region extraction step, a hand region is extracted from the image information. In the fingertip shape recognition step, for example, a plurality of fingertip shapes are recognized by extracting a portion of a predetermined curvature from the extracted hand region. .

このとき、手の領域のうち掌又は手の甲内の特定点と指先形状内の特定点とを結ぶ直線が、指先形状認識工程で認識された指の数(最大5本)だけ発生する。指間角度算出工程では、隣接する直線のなす角度が指間角度として算出されるので、手によるジェスチャ等を容易に認識することができる。   At this time, a straight line connecting a specific point in the palm or back of the hand and a specific point in the fingertip shape in the hand region is generated by the number of fingers (up to 5) recognized in the fingertip shape recognition step. In the inter-finger angle calculating step, the angle formed by the adjacent straight lines is calculated as the inter-finger angle, so that a hand gesture or the like can be easily recognized.

コマンド作成工程では、指間角度が変化(手が動作)したことに基づいて、機器(例えば、ロボットやモニター中のポインタ)を操作する操作コマンドが作成され、コマンド送信工程において、該操作コマンドが該機器に送信される。従って、手の動作を認識して機器を操作することが可能になる。手の動作を認識するのに多くの条件を必要としないので、画像処理の制御負担を軽減しつつ、正確かつ高速に手の形状、動作を認識することができる。   In the command creation process, an operation command for operating a device (for example, a robot or a pointer in a monitor) is created based on the change of the finger-to-finger angle (hand movement). Transmitted to the device. Therefore, it is possible to recognize the movement of the hand and operate the device. Since many conditions are not required for recognizing the hand movement, the hand shape and movement can be recognized accurately and at high speed while reducing the control load of image processing.

以上のように、本発明によれば、処理負担を軽減しつつ、正確かつ高速に手の形状、動作を認識することができる。   As described above, according to the present invention, the shape and movement of the hand can be recognized accurately and at high speed while reducing the processing load.

人とカメラの位置関係を説明する図と、本発明の構成の概略図。The figure explaining the positional relationship of a person and a camera, and the schematic of the structure of this invention. 全体処理のフローチャート。The flowchart of the whole process. 手領域抽出を説明する図。The figure explaining hand area extraction. 輪郭線抽出を説明する図。The figure explaining outline extraction. 指形状認識処理のフローチャート。The flowchart of a finger shape recognition process. 曲率の算出を説明する図。The figure explaining calculation of a curvature. 指先候補点抽出を説明する図。The figure explaining fingertip candidate point extraction. 手形状認識処理のフローチャート。The flowchart of a hand shape recognition process. 指種別決定処理のフローチャート。The flowchart of a finger classification determination process. 指間角度の算出を説明する図。The figure explaining calculation of the angle between fingers. 指間角度モデルを説明する図。The figure explaining an inter-finger angle model. ポインティング情報の最終出力を説明する図。The figure explaining the final output of pointing information. クリックジェスチャの認識を説明する図。The figure explaining recognition of a click gesture. ポインティング情報の最終出力を説明する図(変形例)。The figure explaining the final output of pointing information (modification).

初めに図1を参照して、人とカメラの位置関係及び本発明による操作装置の全体構成について説明する。   First, with reference to FIG. 1, the positional relationship between a person and a camera and the overall configuration of the operating device according to the present invention will be described.

操作装置1は、撮像手段の一例であるカメラ2と、後述の各処理を実行するコンピュータ3とで構成される。カメラ2は、図1(a)の左側に示すように人(操作者)Hの前方下、或いは右側に示すように人Hの前方上に配置されている。カメラ2がどちらの位置にあっても、カメラ2からの距離に比例して撮像可能な範囲が拡大し、その範囲内の物体を撮像することができる。   The operating device 1 includes a camera 2 that is an example of an imaging unit, and a computer 3 that executes each process described below. The camera 2 is disposed below the front of the person (operator) H as shown on the left side of FIG. 1A or above the front of the person H as shown on the right side. Regardless of the position of the camera 2, the imageable range is expanded in proportion to the distance from the camera 2, and an object within the range can be imaged.

また、カメラ2は、ケーブルによりコンピュータ3に接続されている。カメラ2で撮像された画像情報は、コンピュータ3に送信されるので、コンピュータ3のモニターMで画像情報を確認することができる。また、コンピュータ3は、画像情報を解析することで、例えば、人Hの手の動きにより、モニターM中のポインタ(カーソル)を動かすことができる。   The camera 2 is connected to the computer 3 by a cable. Since the image information captured by the camera 2 is transmitted to the computer 3, the image information can be confirmed on the monitor M of the computer 3. Further, the computer 3 can move the pointer (cursor) in the monitor M by the movement of the hand of the person H, for example, by analyzing the image information.

図1(b)は、図1(a)の状態を上方から見たときの図である。領域Sは、カメラ2が人Hの手等を撮像可能な領域(以下、撮像領域又は単に領域という)であり、領域S内で、例えば、人Hが手を右方向(x軸正方向)に動かすと、コンピュータ3が画像を解析して、手が右方向に動いたと認識する。これにより、上記の例では、モニターM中のポインタが右方向に動く。同様に、人Hが手を手前方向(y軸正方向)に動かすと、コンピュータ3は、手がその方向に動いたと認識し、モニターM中のポインタが下方向に動く。   FIG.1 (b) is a figure when the state of Fig.1 (a) is seen from upper direction. The area S is an area in which the camera 2 can image the hand of the person H (hereinafter referred to as an imaging area or simply an area). In the area S, for example, the person H moves the hand to the right (in the positive x-axis direction). The computer 3 analyzes the image and recognizes that the hand has moved to the right. Thereby, in the above example, the pointer in the monitor M moves to the right. Similarly, when the person H moves his / her hand in the forward direction (y-axis positive direction), the computer 3 recognizes that the hand has moved in that direction, and the pointer in the monitor M moves downward.

また、人Hは、カメラ2に対して常に同じ方向にいるわけではなく、時々、動いて立ち位置を変える。従って、人Hの手は、領域Sの横方向や斜め方向から差込まれることがある。しかし、本発明は、このような場合にも手の差込まれた方向に関わらず手の形状、動作を認識することができる。   Also, the person H is not always in the same direction with respect to the camera 2, and sometimes moves to change the standing position. Accordingly, the hand of the person H may be inserted from the lateral direction or the oblique direction of the region S. However, the present invention can recognize the shape and movement of the hand regardless of the direction in which the hand is inserted even in such a case.

次に図1(c)に示すように、操作装置1において、カメラ2で人Hの手が撮像されたとき、その画像情報は、コンピュータ3内の画像処理部31に送信される。この画像処理部31における処理結果に応じて、コマンド処理部32で、操作対象機器の一例のモニターMを操作するための操作コマンドが作成される。   Next, as illustrated in FIG. 1C, when the hand of the person H is imaged by the camera 2 in the controller device 1, the image information is transmitted to the image processing unit 31 in the computer 3. In accordance with the processing result in the image processing unit 31, the command processing unit 32 creates an operation command for operating the monitor M as an example of the operation target device.

ここで、画像処理部31は、本発明の「手領域抽出手段」、「指先形状認識手段」、「指間角度算出手段」に相当し、コマンド処理部は、本発明の「コマンド作成手段」、「コマンド送信手段」に相当する。なお、図1(c)では、本発明の機能実現手段としてコンピュータ3の構成を画像処理部31とコマンド処理部32とに分けて示しているが、後で詳述するように、これらの処理部の機能はコンピュータ3のCPUで実行されるものである。   Here, the image processing unit 31 corresponds to the “hand region extraction unit”, “fingertip shape recognition unit”, and “inter-finger angle calculation unit” of the present invention, and the command processing unit corresponds to the “command creation unit” of the present invention. Corresponds to “command transmission means”. In FIG. 1 (c), the configuration of the computer 3 is shown as a function realizing unit of the present invention divided into an image processing unit 31 and a command processing unit 32. As will be described in detail later, these processes are performed. The function of this part is executed by the CPU of the computer 3.

コマンド処理部32で作成された操作コマンドは、モニターMに送信され、それによってモニターM中のポインタを動かすことができる。なお、本発明の操作対象となる機器は、モニターMのほか、各種装置のスイッチやロボット等、人の手の動作で作動させ得るものであればよい。   The operation command created by the command processing unit 32 is transmitted to the monitor M, and thereby the pointer in the monitor M can be moved. In addition to the monitor M, the device to be operated according to the present invention may be any device that can be operated by the action of a human hand, such as switches and robots of various devices.

図2は、実施形態の全体処理のフローチャートである。以下では、撮像領域Sに人の手が差込まれたときを例に、各処理について説明する。   FIG. 2 is a flowchart of the overall processing of the embodiment. In the following, each process will be described by taking as an example a case where a human hand is inserted into the imaging region S.

まず、手領域抽出処理(本発明の「手領域抽出手段(工程)」)が行われる(ステップS10)。これは、カメラ2で撮像された画像(本発明の「画像情報」)から手の領域を抽出する処理である。実施形態では、手を距離画像カメラにより撮像する。距離画像カメラを使用する場合、予め撮像領域に差込まれた手と距離画像カメラとの距離を所定の範囲に設定しておくことで、手の領域を容易に抽出することができる。   First, hand region extraction processing (“hand region extraction means (process)” of the present invention) is performed (step S10). This is processing for extracting a hand region from an image captured by the camera 2 (“image information” of the present invention). In the embodiment, the hand is imaged by a range image camera. When using the distance image camera, the hand region can be easily extracted by setting the distance between the hand inserted in the imaging region and the distance image camera in a predetermined range.

図3Aは、手領域抽出処理により手領域4が抽出されたときの画像である。図示するように、画像領域Rの中央部分に掌、中央下部分に手首がある。なお、図中の掌領域4’と掌座標Fについては、後述する。   FIG. 3A is an image when the hand region 4 is extracted by the hand region extraction process. As shown in the figure, the palm of the image region R is at the center and the wrist is at the bottom of the center. The palm area 4 'and palm coordinates F in the figure will be described later.

手領域の抽出方法は、上記の方法以外にも幾つか存在する。例えば、普通のカメラを使用する場合、RGB情報のうち肌色に該当する情報を抽出することにより、手領域を抽出することができる。また、カメラに手以外の物体が写り込む可能性がない場合には、背景差分法により、容易に手領域を抽出することができる。また、2つのレンズを視差が生じるように配置することで、物体までの距離を算出可能なステレオカメラを使用してもよい。   There are several hand region extraction methods other than those described above. For example, when an ordinary camera is used, the hand region can be extracted by extracting information corresponding to the skin color from the RGB information. In addition, when there is no possibility that an object other than the hand appears in the camera, the hand region can be easily extracted by the background subtraction method. In addition, a stereo camera that can calculate the distance to the object by arranging the two lenses so as to generate parallax may be used.

図2に戻り、手領域抽出処理の終了後には、指先形状認識処理(本発明の「指先形状認識手段(工程)」)に進む(ステップS20)。以下、図4を参照して、指先形状認識処理のフローチャートを説明する。   Returning to FIG. 2, after the hand region extraction process is completed, the process proceeds to the fingertip shape recognition process (“fingertip shape recognition means (step)” of the present invention) (step S20). Hereinafter, a flowchart of the fingertip shape recognition process will be described with reference to FIG.

まず、輪郭線抽出処理が行われる(ステップS201)。これは、手領域4を含む画像から、手の輪郭線を抽出する処理である。図3Bは、手領域4のエッジ部分を検出し、輪郭線5を抽出したときの画像である。輪郭線を抽出する方法は、上記の方法以外にも幾つか存在するので、いかなる方法を用いてもよい。   First, outline extraction processing is performed (step S201). This is a process for extracting a hand outline from an image including the hand region 4. FIG. 3B is an image when the edge portion of the hand region 4 is detected and the contour line 5 is extracted. Since there are several methods for extracting the contour line in addition to the above method, any method may be used.

輪郭線抽出処理が終了すると、曲率算出処理が行われる(図4:ステップS202)。曲率とは、曲線である輪郭線上の1点と、その点から等距離離れた2点とがなす角度のことである。以下、図5を参照して、曲率の算出方法について説明する。   When the contour line extraction process ends, a curvature calculation process is performed (FIG. 4: step S202). The curvature is an angle formed by one point on a contour line that is a curve and two points that are equidistant from the point. Hereinafter, the curvature calculation method will be described with reference to FIG.

曲線上の点Bに対して、等距離だけ離れた点A、点Cがあるとき、直線ABと直線BCのなす角θiが算出すべき曲率となる。曲率の算出方法は幾つか考えられるが、実施形態では、以下の方法を用いた。ここで、各点の座標を点A(xi-1,yi-1)、点B(xi,yi)、点C(xi+1,yi+1)とする。 When there are a point A and a point C that are equidistant from the point B on the curve, the angle θ i formed by the straight line AB and the straight line BC is the curvature to be calculated. Several methods of calculating the curvature are conceivable. In the embodiment, the following method is used. Here, the coordinates of each point are assumed to be point A (x i−1 , y i−1 ), point B (x i , y i ), and point C (x i + 1 , y i + 1 ).

このとき、直線ABとx軸のなす角をθi-1→iとし、直線BCとx軸のなす角をθi→i+1とすると、θiは、以下の式(1)で与えられる。
At this time, assuming that the angle between the straight line AB and the x axis is θ i−1 → i and the angle between the straight line BC and the x axis is θ i → i + 1 , θ i is given by the following equation (1). It is done.

また、θi-1→iとθi→i+1は、それぞれ以下の式(2)、(3)で与えられる。
このように、曲率θiは、上記3点の座標から算出することができる。
Θ i−1 → i and θ i → i + 1 are given by the following equations (2) and (3), respectively.
Thus, the curvature θ i can be calculated from the coordinates of the three points.

曲率算出処理が終了すると、指先候補点抽出処理が行われる(図4:ステップS203)。これは、手の輪郭線5から指先の候補となる条件を満たす部分を抽出する処理である。以下、図6を参照して、指先候補点抽出処理について説明する。   When the curvature calculation process ends, a fingertip candidate point extraction process is performed (FIG. 4: step S203). This is a process of extracting a part that satisfies the candidate fingertip from the contour 5 of the hand. Hereinafter, the fingertip candidate point extraction process will be described with reference to FIG.

ここでは、曲率算出処理(ステップS202)で算出した輪郭線5を構成する各点の曲率θiについて、それぞれ角度閾値θthと比較して、角度θth以下となるものを抽出する。この処理により、指先候補点6(1)〜6(5)が抽出される。なお、指先候補点と判定されなかった部分(図中の破線部分)については削除されるので、破線で示した。 Here, the curvature θ i of each point constituting the contour line 5 calculated in the curvature calculation process (step S202) is compared with the angle threshold value θ th, and the one having an angle θ th or less is extracted. By this processing, fingertip candidate points 6 (1) to 6 (5) are extracted. In addition, since it deletes about the part (dashed line part in a figure) which was not determined with a fingertip candidate point, it showed with the broken line.

指先候補点抽出処理が終了すると、指先座標算出処理が行われる(図4:ステップS204)。これは、指先候補点抽出処理(ステップS203)で抽出された複数の指先候補点について、指先座標を算出する処理である。   When the fingertip candidate point extraction process ends, a fingertip coordinate calculation process is performed (FIG. 4: step S204). This is a process of calculating fingertip coordinates for a plurality of fingertip candidate points extracted in the fingertip candidate point extraction process (step S203).

再び、図6を参照するが、図の右上に指先候補点抽出処理により抽出された指先候補点6(4)の拡大図が示されている。このとき、指先候補点を構成する複数の画素の平均値を求めることにより、人差し指の指先座標を算出する。すなわち、指先座標は、これらの画素の重心の座標となり、指先座標G(xg4,yg4)が決定する。 Again referring to FIG. 6, an enlarged view of the fingertip candidate point 6 (4) extracted by the fingertip candidate point extraction process is shown in the upper right of the figure. At this time, the fingertip coordinates of the index finger are calculated by obtaining an average value of a plurality of pixels constituting the fingertip candidate point. That is, the fingertip coordinates become the coordinates of the center of gravity of these pixels, and the fingertip coordinates G (x g4 , y g4 ) are determined.

同様に、指先候補点6(1)〜6(3)、6(5)についても、それぞれ重心座標を求めて、各指先の指先座標とする。指先座標算出処理が終了すると、指先形状認識処理も終了となる。   Similarly, for the fingertip candidate points 6 (1) to 6 (3) and 6 (5), the barycentric coordinates are obtained and used as the fingertip coordinates of each fingertip. When the fingertip coordinate calculation process ends, the fingertip shape recognition process also ends.

再び、図2に戻り、指先形状認識処理の終了後には、手形状認識処理に進む(ステップS30)。以下、図7を参照して、手形状認識処理のフローチャートを説明する。   Returning to FIG. 2 again, after the fingertip shape recognition process is completed, the process proceeds to the hand shape recognition process (step S30). Hereinafter, a flowchart of the hand shape recognition process will be described with reference to FIG.

まず、対象物距離計測処理が行われる(ステップS301)。ここでは、対象物である手とカメラの距離を計測する。実施形態では、距離画像カメラ(TOF方式)の発光素子から出力された赤外線が、手で反射してカメラに戻ってくるまでの位相差を距離換算して、両者の距離を計測する。なお、距離の計測には、パターン照射方式の距離画像カメラを用いてもよい。   First, an object distance measurement process is performed (step S301). Here, the distance between the target hand and the camera is measured. In the embodiment, the distance difference between the infrared rays output from the light emitting element of the distance image camera (TOF method) is measured by converting the phase difference until it is reflected by the hand and returns to the camera. For distance measurement, a pattern irradiation type distance image camera may be used.

対象物距離計測処理が終了すると、掌座標算出処理が行われる(図7:ステップS302)。これは、上述の手領域抽出処理(図2:ステップS10)で抽出された手領域4の画像から掌座標を算出する処理である。   When the object distance measurement processing is completed, palm coordinate calculation processing is performed (FIG. 7: Step S302). This is a process of calculating palm coordinates from the image of the hand area 4 extracted in the above-described hand area extraction process (FIG. 2: step S10).

手領域4の画像から掌領域を切り出す方法は幾つか考えられるが、実施形態では、Opening処理による方法を用いる。Opening処理とは、画像に対して同じ数だけ、Erosion処理(収縮処理)とDilation処理(膨張処理)を繰り返し行うことにより、細かいパターン及び小さいパターンを除去する処理である。   There are several methods for extracting the palm region from the image of the hand region 4, but in the embodiment, a method based on the Opening process is used. The opening process is a process for removing fine patterns and small patterns by repeatedly performing the erosion process (shrinkage process) and the dilation process (expansion process) for the same number of images.

再び、図3Aを参照するが、画像領域Rに対してOpening処理を行うと、手領域4のうち、指や手首のパターンが除去されて、掌領域4’だけが残る。さらに、掌領域の重心を算出して、これを掌座標Fとする。もちろん、抽出された手領域4が手の甲の側である場合には、掌座標の代わりに手の甲座標が算出される。   Referring to FIG. 3A again, when the opening process is performed on the image region R, the finger and wrist patterns are removed from the hand region 4 and only the palm region 4 ′ remains. Further, the center of gravity of the palm region is calculated and used as palm coordinates F. Of course, when the extracted hand region 4 is on the back of the hand, the back of the hand coordinates are calculated instead of the palm coordinates.

掌座標算出処理が終了すると、指種別決定処理が行われる(図7:ステップS303)。これは、指先形状認識処理(図2:ステップS20)により得られた指先形状が、それぞれどの指に該当するかラベリングする処理である。以下、図8を参照して、指種別決定処理のフローチャートを説明する。   When the palm coordinate calculation process ends, a finger type determination process is performed (FIG. 7: Step S303). This is a process of labeling to which finger the fingertip shape obtained by the fingertip shape recognition process (FIG. 2: step S20) corresponds. Hereinafter, the flowchart of the finger type determination process will be described with reference to FIG.

まず、R_Flagが0であるか否かが判定される(ステップS311)。「R_Flag」とは、指先ラベリングの完了を示すフラグである。R_Flagが「0」である場合には、ステップS312に進み、R_Flagが「1」である場合には、ステップS320に進む。   First, it is determined whether or not R_Flag is 0 (step S311). “R_Flag” is a flag indicating completion of fingertip labeling. If R_Flag is “0”, the process proceeds to step S312. If R_Flag is “1”, the process proceeds to step S320.

初めに、ステップS311の判定が「YES」である場合を説明する。この場合、指先検出数が5であるか否かが判定される(ステップS312)。基本的に指先検出数は、指先座標算出処理(図4:ステップS204)で算出された指先座標の数と一致する。指先検出数が「5」である場合には、ステップS313に進み、指先検出数が「5」でない場合には、ステップS318に進む。   First, the case where the determination in step S311 is “YES” will be described. In this case, it is determined whether or not the number of detected fingertips is 5 (step S312). Basically, the number of detected fingertips matches the number of fingertip coordinates calculated in the fingertip coordinate calculation process (FIG. 4: step S204). If the number of detected fingertips is “5”, the process proceeds to step S313. If the number of detected fingertips is not “5”, the process proceeds to step S318.

なお、指先が2つ検出された場合には、後述するクリックジェスチャに用いる親指、人差し指が決定する場合があるので、「指先検出数」の条件を2以上に変更してもよい。   When two fingertips are detected, the thumb and index finger used for a click gesture, which will be described later, may be determined, so the condition of “number of detected fingertips” may be changed to 2 or more.

ステップS312の判定が「YES」である場合には、指間角度算出処理(本発明の「指間角度算出手段(工程)」)が行われる(ステップS313)。指間角度とは、指先座標と掌座標とを結ぶ隣接する直線がなす角度であり、ここでは5本の指が検出されている場合であるので、4つの指間角度が算出される。以下、図9を参照して、指間角度の算出について説明する。   If the determination in step S312 is “YES”, an inter-finger angle calculation process (“inter-finger angle calculating means (step)” of the present invention) is performed (step S313). The inter-finger angle is an angle formed by an adjacent straight line connecting the fingertip coordinate and the palm coordinate. Here, since five fingers are detected, four inter-finger angles are calculated. Hereinafter, calculation of the inter-finger angle will be described with reference to FIG.

図示するように、掌座標算出処理(図7:ステップS302)で算出された掌座標をF(xf,yf)とする。また、x座標の小さい指先座標から順に(1)〜(5)のラベルを付け(初期ラベリング)、第1の指先座標G(xg1,yg1)から第5の指先座標G(xg5,yg5)までを決定する(図中の座標名は一部省略)。なお、この段階では、輪郭線5は、全て削除されているので破線で示した。 As shown in the figure, the palm coordinates calculated in the palm coordinate calculation process (FIG. 7: step S302) are assumed to be F (x f , y f ). Further, labels (1) to (5) are attached in order from the fingertip coordinates having the smallest x coordinate (initial labeling), and the first fingertip coordinates G (x g1 , y g1 ) to the fifth fingertip coordinates G (x g5 , ( yg5 ) is determined (part of the coordinate names in the figure are omitted). At this stage, the outline 5 is all deleted and is shown by a broken line.

また、掌座標Fから各指先座標に向かうベクトルができるので、掌座標Fから第1の指先座標に向かうベクトルをベクトルx1とする。同様にして、掌座標Fから第5の指先座標に向かうベクトルx5までを決定する。このとき、ベクトルx1とベクトルx2のなす角を指間角度φ1-2とし、同様にベクトルx4とベクトルx5のなす角を指間角度φ4-5とする(図中の角度は一部省略)。 In addition, since a vector from the palm coordinate F to each fingertip coordinate is generated, a vector from the palm coordinate F to the first fingertip coordinate is set as a vector x 1 . Similarly, a vector x 5 from the palm coordinate F to the fifth fingertip coordinate is determined. At this time, the angle between the vector x 1 and the vector x 2 is the inter-finger angle φ 1-2, and similarly, the angle between the vector x 4 and the vector x 5 is the inter-finger angle φ 4-5 (the angle in the figure). Are omitted).

実施形態では、特に、親指が人差し指の方向に閉じたことをマウスのボタンダウンのジェスチャと認識するので、指間角度φ4-5について必ず検出する必要がある。このとき、指間角度φ4-5は、以下の式(4)で与えられる。
このように、指間角度φ4-5は、2つのベクトルから算出することができる。
In the embodiment, in particular, since the fact that the thumb is closed in the direction of the index finger is recognized as a mouse button-down gesture, the inter-finger angle φ 4-5 must be detected. At this time, the inter-finger angle φ 4-5 is given by the following equation (4).
Thus, the inter-finger angle φ 4-5 can be calculated from two vectors.

指間角度算出処理が終了すると、指種別決定処理(本発明の「指種別決定手段」)が行われる(図8:ステップS314)。指種別の決定には、指間角度モデルを利用する。指間角度モデルは、カメラと一定の距離で撮像した異なる人の手の画像(約200枚)から得られた指間角度データと、カメラと手の間の距離を0.35m〜0.55mの間(有効距離範囲)で変化させて撮像したデータとにより構築されたものである(図10参照)。   When the inter-finger angle calculation process ends, a finger type determination process (“finger type determination unit” of the present invention) is performed (FIG. 8: Step S314). An inter-finger angle model is used to determine the finger type. The inter-finger angle model is the distance between the camera and the hand obtained from the image of the hand of a different person (approximately 200 images) taken at a certain distance from the camera and the distance between the camera and the hand. (See FIG. 10).

指種別決定の手順としては、まず、カメラが手を撮像したとき、カメラと手の間の距離に応じた指間角度モデルを切り出す(例えば、図中の☆印)。次に、取得した画像から算出された指間角度を該指間角度モデルに当てはめて、最も近い角度情報から指種別を決定する。   As a procedure for determining the finger type, first, when the camera picks up a hand, an inter-finger angle model corresponding to the distance between the camera and the hand is cut out (for example, ☆ in the figure). Next, the finger angle calculated from the acquired image is applied to the finger angle model, and the finger type is determined from the closest angle information.

この指間角度モデルによると、親指と人差し指の指間角度φ4-5は、角度が最も大きく(有効距離範囲の平均指間角度は約40度)、他の指間角度と容易に区別できるので、ジェスチャ等の認識に用いる指の組合せとして最適である。なお、図中のσは、標準偏差を示し、角度φ4-5の場合、±5度のばらつきがあることを意味する。 According to this inter-finger angle model, the inter-finger angle φ 4-5 between the thumb and forefinger is the largest (the average inter-finger angle in the effective distance range is about 40 degrees) and can be easily distinguished from other inter-finger angles. Therefore, it is optimal as a combination of fingers used for recognizing a gesture or the like. Note that σ in the figure indicates a standard deviation, and means that there is a variation of ± 5 degrees in the case of an angle φ 4-5 .

指間角度は、手が撮像領域Sに対して横方向又は斜め方向から差込まれた場合にも正確に算出され、少なくとも、親指と人差し指に関しては間違ってラベリングされる可能性が低い。以上で、指先の最終的なラベリングが完了する。   The inter-finger angle is accurately calculated even when the hand is inserted from the lateral direction or the oblique direction with respect to the imaging region S, and at least, there is a low possibility that the thumb and the index finger are erroneously labeled. This completes the final labeling of the fingertip.

次に、親指、人差し指が決定したか否かが判定される(図8:ステップS315)。上記の処理にて親指、人差し指が決定した場合には、ステップS316に進む。一方、例えば、指間角度が殆どない等の理由で親指、人差し指が決定できなかった場合には、ステップS319に進む。   Next, it is determined whether or not the thumb and index finger have been determined (FIG. 8: step S315). If the thumb and index finger are determined in the above processing, the process proceeds to step S316. On the other hand, for example, if the thumb or index finger cannot be determined because there is almost no inter-finger angle, the process proceeds to step S319.

ステップS315の判定が「YES」である場合には、R_Flagを1とする(ステップS316)。R_Flagが「1」であるとは、指先ラベリングが完了したことを意味する。その後、ステップS317に進む。   If the determination in step S315 is “YES”, R_Flag is set to 1 (step S316). R_Flag being “1” means that fingertip labeling has been completed. Thereafter, the process proceeds to step S317.

ステップS317では、親指、人差し指の追跡中か否かが判定される。これは、画像処理部が認識した親指、人差し指の動きを追跡するものであるが、R_Flagが「1」にセットされた直後は追跡中ではないので、ステップS311に戻る。一方、追跡中である場合には、ステップS323に進む。   In step S317, it is determined whether the thumb and index finger are being tracked. This is to track the movement of the thumb and index finger recognized by the image processing unit, but immediately after the R_Flag is set to “1”, the tracking is not in progress, so the process returns to step S311. On the other hand, if tracking is in progress, the process proceeds to step S323.

ここで、ステップS312の判定が「NO」である場合を説明する。この場合、指先検出数が1より大きいか否かが判定される(ステップS318)。指先検出数が「1」より大きい場合には、ステップS319に進み、指先検出数が「1」以下の場合には、指種別決定処理を終了する。指先検出数が「1」以下の場合には、指間角度の算出ができないので、指種別決定処理を終了する。   Here, a case where the determination in step S312 is “NO” will be described. In this case, it is determined whether or not the number of detected fingertips is greater than 1 (step S318). If the number of detected fingertips is greater than “1”, the process proceeds to step S319. If the number of detected fingertips is “1” or less, the finger type determination process ends. When the number of detected fingertips is “1” or less, the finger-to-finger angle determination process is terminated because the inter-finger angle cannot be calculated.

次に、ステップS318の判定が「YES」である場合、又はステップS315の判定が「NO」である場合には、警告処理が行われる(ステップS319)。これは、例えば、指間角度が殆どないため、上述した何れの指間角度モデルにも当てはまらなかった場合等に、モニターによる表示又は音声等により、手を開くように警告する処理である。警告処理が行われた後、指先種別決定処理を終了する。   Next, when the determination in step S318 is “YES” or when the determination in step S315 is “NO”, a warning process is performed (step S319). This is, for example, a process of warning that the hand is opened by a display on the monitor or by voice when there is almost no inter-finger angle and it does not apply to any of the inter-finger angle models described above. After the warning process is performed, the fingertip type determination process is terminated.

次に、ステップS311の判定が「NO」である場合を説明する。R_Flagが「1」にセットされると、ステップS320に進み、指先検出数が5でないか否かが判定される。これは、エラー等により指先検出数が「5」から変化していないかのチェック処理である。   Next, the case where the determination in step S311 is “NO” will be described. When R_Flag is set to “1”, the process proceeds to step S320, and it is determined whether or not the number of detected fingertips is not five. This is a check process for checking whether the number of detected fingertips has changed from “5” due to an error or the like.

R_Flagが「1」であるのに指先検出数が「5」以外である場合には、再ラベリングする必要があるので、ステップS321に進む。一方、指先検出数が「5」である場合には、ステップS322に進む。   If R_Flag is “1” and the number of detected fingertips is other than “5”, it is necessary to perform relabeling, and the process proceeds to step S321. On the other hand, if the number of detected fingertips is “5”, the process proceeds to step S322.

ステップS320の判定が「YES」である場合には、R_Flagを0とする(ステップS321)。その後、指種別決定処理を終了するので、次回の指種別決定処理の際に、指先ラベリングが行われる。   If the determination in step S320 is “YES”, R_Flag is set to 0 (step S321). Thereafter, since the finger type determination process is ended, fingertip labeling is performed in the next finger type determination process.

一方、ステップS320の判定が「NO」である場合には、親指、人差し指の追跡が開始される(ステップS322)。その後、ステップS317に進むが、今回は「YES」の判定となるので、ステップS323に進む。   On the other hand, if the determination in step S320 is “NO”, tracking of the thumb and index finger is started (step S322). Thereafter, the process proceeds to step S317, but since the determination is “YES” this time, the process proceeds to step S323.

最後に、R_Flagを0とする(ステップS323)。これは、R_Flagをリセットする処理であり、次回の指種別決定処理の際に、まず、指先ラベリングが行われるようになる。その後、指種別決定処理を終了し、手形状認識処理も終了となる(図7参照)。   Finally, R_Flag is set to 0 (step S323). This is a process of resetting R_Flag, and fingertip labeling is first performed in the next finger type determination process. Thereafter, the finger type determination process is terminated, and the hand shape recognition process is also terminated (see FIG. 7).

再び、図2に戻り、手形状認識処理の終了後には、ポインティング情報算出処理(本発明の「コマンド作成手段(工程)」)に進む(ステップS40)。ポインティング情報算出処理の詳細は後述するが、座標変換を行って、例えば、モニター中のポインタを操作するための操作コマンドを作成する処理である。   Returning to FIG. 2 again, after the hand shape recognition process is completed, the process proceeds to the pointing information calculation process ("command creation means (process)" of the present invention) (step S40). Although the details of the pointing information calculation process will be described later, it is a process of creating an operation command for operating, for example, a pointer in the monitor by performing coordinate conversion.

ポインティング情報算出処理の終了後には、コマンド送信処理(本発明の「コマンド送信手段(工程)」)に進む(ステップS50)。これは、上記一連の画像処理で得られた操作コマンドを出力機器に送信する処理である。以上により、手の形状や動作を認識し、機器を操作する非接触型の操作装置を実現することができる。   After the pointing information calculation process is completed, the process proceeds to a command transmission process (“command transmission means (step)” of the present invention) (step S50). This is a process of transmitting the operation command obtained by the series of image processing to the output device. As described above, a non-contact type operating device that recognizes the shape and movement of the hand and operates the device can be realized.

以下では、図11、12を参照して、説明を後に回したポインティング情報の最終出力について説明する。   Hereinafter, with reference to FIGS. 11 and 12, the final output of pointing information, which will be described later, will be described.

まず、図11(a)は、撮像領域Sに人の手7が差込まれている状態を上方から見た図である。画像処理部は、カメラ2がとらえた人差し指Pの動く方向を追跡するので、例えば、手7がx軸正方向に動いたとき画像処理を行い、モニター上(以下、モニター領域M’又は領域M’という)では、X軸正方向にポインタP’が移動する(図11(c)参照)。なお、ここでは、領域M’の右方向をX軸正方向とした。   First, FIG. 11A is a view of a state in which a human hand 7 is inserted into the imaging region S as viewed from above. Since the image processing unit tracks the moving direction of the index finger P captured by the camera 2, for example, the image processing is performed when the hand 7 moves in the positive x-axis direction, and the image processing unit performs on the monitor (hereinafter, the monitor region M ′ or the region M). '), The pointer P' moves in the positive direction of the X axis (see FIG. 11C). Here, the right direction of the region M ′ is the X axis positive direction.

また、図11(b)は、撮像領域Sに人の手7が差込まれている状態を横方向から見た図である。カメラ2は、手7とカメラ2との距離Lを計測できるので、例えば、手7がz軸正方向に動いたとき、画像処理部により画像処理が行われ、領域M’では、Y軸負方向にポインタが移動する(図11(c)参照)。なお、ここでは、領域M’の上方向をY軸正方向とした。   FIG. 11B is a view of the state in which the human hand 7 is inserted into the imaging region S as viewed from the lateral direction. Since the camera 2 can measure the distance L between the hand 7 and the camera 2, for example, when the hand 7 moves in the positive z-axis direction, image processing is performed by the image processing unit. The pointer moves in the direction (see FIG. 11C). Here, the upward direction of the region M ′ is defined as the positive Y-axis direction.

画像処理部は、人差し指の他、親指の動きも追跡するので、この2本の指によるジェスチャを認識することができる。以下では、特に、クリックジェスチャの認識について説明する。   Since the image processing unit tracks the movement of the thumb in addition to the index finger, it is possible to recognize a gesture with these two fingers. In the following, the recognition of the click gesture will be described in particular.

図12(a)は、撮像領域Sに人の手7が差込まれている状態を上方から見た図である。図示するように、掌座標F(xf,yf)から人差し指の指先座標G(xg4,yg4)に向かうベクトルx4と、親指の指先座標G(xg5,yg5)に向かうベクトルx5が示され、ベクトルx4とベクトルx5とのなす指間角度が角度φ4-5である。 FIG. 12A is a diagram of a state in which a human hand 7 is inserted into the imaging region S as viewed from above. As shown in the figure, a vector x 4 directed from the palm coordinates F (x f , y f ) to the fingertip coordinates G (x g4 , y g4 ) of the index finger and a vector directed to the fingertip coordinates G (x g5 , y g5 ) of the thumb x 5 is shown, it forms finger angle between the vectors x 4 and the vector x 5 is the angle phi 4-5.

ここで、指間角度φ4-5が小さくなり、角度閾値φthを下回ったとき、画像処理部によってボタンダウンがされたと認識される(図12(b)参照)。その後、指間角度φ4-5が大きくなって角度閾値φthを上回ったとき、画像処理部によってボタンアップがされたと認識される。これは、マウスの1回のクリックに相当する操作である。 Here, when the inter-finger angle φ 4-5 decreases and falls below the angle threshold φ th , it is recognized that the button has been pressed down by the image processing unit (see FIG. 12B). Thereafter, when the inter-finger angle φ 4-5 increases and exceeds the angle threshold φ th , it is recognized that the button has been pushed up by the image processing unit. This is an operation corresponding to one click of the mouse.

以上により、例えば、人が領域M’にあるアイコンの上までポインタを動かすことができる。また、その状態で親指を人差し指方向に閉じて開く動作を2回行うことで、アイコンをダブルクリックしたと認識されるので、アプリケーションを起動することができる。   As described above, for example, the person can move the pointer over the icon in the region M ′. In this state, by performing the operation of closing and opening the thumb in the direction of the forefinger twice, it is recognized that the icon has been double-clicked, so that the application can be activated.

最後に、図13を参照して、ポインティング情報出力の変形例について説明する。図11で示した例では、手7の横方向(x軸方向)の動作、高さ方向(z方向)の動作をモニター領域M’のポインタの動きに変換したが、撮像領域Sの縦方向(y軸方向)の動作を追加することができる(図13(a)参照)。   Finally, a modification of pointing information output will be described with reference to FIG. In the example shown in FIG. 11, the movement of the hand 7 in the horizontal direction (x-axis direction) and the height direction (z direction) are converted into the movement of the pointer in the monitor area M ′. An operation in the (y-axis direction) can be added (see FIG. 13A).

これにより、領域M’のポインタは、3次元の動きが可能になる。3次元の動きが必要でない場合には、領域M’における他の操作に利用してもよい。例えば、画面の拡大縮小、図形や立体の回転、次のスライドや画像に切替えるための操作に用いることができる。   Thereby, the pointer of the region M ′ can be moved three-dimensionally. When three-dimensional movement is not necessary, it may be used for other operations in the region M ′. For example, it can be used for operations for enlarging / reducing the screen, rotating figures and solids, and switching to the next slide or image.

上記の実施形態は、本発明の一例であり、種々の変形例が考えられる。手の画像から手領域を抽出する方法、手領域から輪郭線を抽出する方法、曲率の算出方法は、様々な方法が知られているので、どのような方法を使用してもよい。また、指先座標を重心座標とする代わりに指先の先端座標としたり、掌座標の代わりに手首座標とすることもできる。   The above-described embodiment is an example of the present invention, and various modifications can be considered. Since various methods are known for extracting a hand region from a hand image, extracting a contour line from a hand region, and calculating a curvature, any method may be used. Also, the fingertip coordinates can be the tip coordinates of the fingertips instead of the barycentric coordinates, or the wrist coordinates instead of the palm coordinates.

また、上記の実施形態では、親指と人差し指による動作を認識して、モニター領域のポインタを動かしたが、人差し指と中指による動作等、他の指による動作を認識するようにしてもよい。また、この「指の動作」には、各指を折り曲げたり、タップする動作が含まれる。   In the above embodiment, the motion of the thumb and forefinger is recognized and the pointer in the monitor area is moved. However, the motion of another finger such as the motion of the index finger and the middle finger may be recognized. Further, the “finger movement” includes an operation of bending or tapping each finger.

指種別決定処理(図8)では、ステップS312において、「指先検出数≧2?」と変更することができる。これにより、少なくとも指先の形状が2つ検出されたとき、指間角度算出処理(ステップS313)に進むことになり、親指と人差し指が決定されたときには(ステップS315/YES)、クリックジェスチャの認識が可能となる。その場合、ステップS318が不要となり、「指先検出数≧2?」の判定が「NO」である場合には、ステップS319に進む。   In the finger type determination process (FIG. 8), it can be changed to “number of detected fingertips ≧ 2?” In step S312. Thereby, when at least two fingertip shapes are detected, the process proceeds to the inter-finger angle calculation process (step S313). When the thumb and index finger are determined (step S315 / YES), the click gesture is recognized. It becomes possible. In this case, step S318 is not necessary, and if the determination “number of detected fingertips ≧ 2?” Is “NO”, the process proceeds to step S319.

1 操作装置
2 カメラ(撮像手段)
3 コンピュータ
4 手領域
4’ 掌領域
5 輪郭線
6(1)〜6(5) 指先候補点
7 手領域
31 画像処理部 (画像処理手段)
32 コマンド処理部 (コマンド処理手段)
H 人
M モニター
M’ モニター領域
P 指先
P’ ポインタ
R 画像領域
S 撮像領域
1 Operating device 2 Camera (imaging means)
3 Computer 4 Hand region 4 'Palm region 5 Contour lines 6 (1) to 6 (5) Fingertip candidate points 7 Hand region 31 Image processing unit (image processing means)
32 Command processing part (command processing means)
H person M monitor M 'monitor area P fingertip P' pointer R image area S imaging area

Claims (5)

撮像領域にある人の手を撮像して画像情報として取得する撮像手段と、該撮像手段が取得した画像情報に基づいて手の動作を認識する画像処理手段と、該手の動作に応じて機器を操作するための操作コマンドを送出するコマンド処理手段とを備えた操作装置であって、
前記画像処理手段は、
前記画像情報から手の領域を抽出する手領域抽出手段と、
前記手領域抽出手段により抽出された手の領域から複数の指先形状を認識する指先形状認識手段と、
前記手の領域のうち掌又は手の甲内の特定点と前記指先形状認識手段により認識された各指先形状内の特定点とを結ぶ隣接する直線のなす角度を指間角度として算出する指間角度算出手段とを有し、
前記コマンド処理手段は、
前記指間角度の変化に基づいて前記操作コマンドを作成するコマンド作成手段と、
前記コマンド作成手段により作成された操作コマンドを前記機器に送信するコマンド送信手段とを有することを特徴とする操作装置。
Imaging means for imaging a human hand in an imaging area and acquiring it as image information, image processing means for recognizing the movement of the hand based on the image information acquired by the imaging means, and equipment corresponding to the movement of the hand An operation device comprising command processing means for sending an operation command for operating
The image processing means includes
Hand region extraction means for extracting a hand region from the image information;
Fingertip shape recognition means for recognizing a plurality of fingertip shapes from the hand area extracted by the hand area extraction means;
Inter-finger angle calculation that calculates an angle between adjacent straight lines connecting a specific point in the palm or back of the hand of the hand region and a specific point in each fingertip shape recognized by the fingertip shape recognition means as an inter-finger angle. Means,
The command processing means includes
Command creation means for creating the operation command based on a change in the inter-finger angle;
An operation device comprising command transmission means for transmitting the operation command created by the command creation means to the device.
請求項1に記載の操作装置において、
前記掌又は手の甲内の特定点は、該掌又は手の甲の領域の重心であり、前記指先形状内の特定点は、該指先形状の重心又は先端であることを特徴とする操作装置。
The operating device according to claim 1,
The operating device characterized in that the specific point in the palm or back of the hand is the center of gravity of the palm or back of the hand, and the specific point in the fingertip shape is the center of gravity or the tip of the fingertip shape.
請求項1又は2に記載の操作装置において、
指の種別を決定する指種別決定手段を備え、
前記指種別決定手段は、前記指間角度算出手段により算出された指間角度と、多数の手のサンプルを調査することにより構築されたデータベースとによって、指種別を決定することを特徴とする操作装置。
The operating device according to claim 1 or 2,
A finger type determining means for determining a finger type;
The finger type determining means determines the finger type from the inter-finger angle calculated by the inter-finger angle calculating means and a database constructed by examining a large number of hand samples. apparatus.
請求項3に記載の操作装置において、
前記コマンド作成手段は、親指と人差し指が決定されたとき、該親指と該人差し指のなす指間角度が予め定めた角度閾値より小さくなった場合に、前記操作コマンドを作成することを特徴とする操作装置。
The operating device according to claim 3,
The command creating means creates the operation command when the thumb and the index finger are determined, and the angle between the fingers formed by the thumb and the index finger is smaller than a predetermined angle threshold value. apparatus.
撮像領域にある人の手を撮像して画像情報として取得し、該画像情報に基づいて手の動作を認識し、該手の動作に応じて機器を操作する操作方法であって、
前記画像情報から手の領域を抽出する手領域抽出工程と、
前記手領域抽出工程で抽出された手の領域から、複数の指先形状を認識する指先形状認識工程と、
前記手の領域のうち掌又は手の甲内の特定点と前記指先形状認識工程で認識された各指先形状内の特定点とを結ぶ隣接する直線のなす角度を指間角度として算出する指間角度算出工程と、
前記指間角度の変化に基づいて前記機器を操作するための操作コマンドを作成するコマンド作成工程と、
前記コマンド作成工程で作成された操作コマンドを前記機器に送信するコマンド送信工程とを備えることを特徴とする操作方法。
An operation method for capturing an image of a person's hand in an imaging region and acquiring it as image information, recognizing the movement of the hand based on the image information, and operating the device according to the movement of the hand
A hand region extraction step of extracting a hand region from the image information;
A fingertip shape recognition step for recognizing a plurality of fingertip shapes from the hand region extracted in the hand region extraction step;
Inter-finger angle calculation that calculates an angle between adjacent straight lines connecting a specific point in the palm or back of the hand of the hand region and a specific point in each fingertip shape recognized in the fingertip shape recognition step as a finger-to-finger angle Process,
A command creating step for creating an operation command for operating the device based on a change in the inter-finger angle;
A command transmission step of transmitting the operation command created in the command creation step to the device.
JP2013057382A 2013-03-19 2013-03-19 Operation apparatus and operation method Pending JP2014182662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013057382A JP2014182662A (en) 2013-03-19 2013-03-19 Operation apparatus and operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013057382A JP2014182662A (en) 2013-03-19 2013-03-19 Operation apparatus and operation method

Publications (2)

Publication Number Publication Date
JP2014182662A true JP2014182662A (en) 2014-09-29
JP2014182662A5 JP2014182662A5 (en) 2016-03-31

Family

ID=51701296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013057382A Pending JP2014182662A (en) 2013-03-19 2013-03-19 Operation apparatus and operation method

Country Status (1)

Country Link
JP (1) JP2014182662A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049955A (en) * 2015-09-04 2017-03-09 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication program
JP2019139698A (en) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス Non-contact input system, method and program
JP2021534482A (en) * 2018-08-17 2021-12-09 ベイジン センスタイム テクノロジー デベロップメント カンパニー リミテッド Gesture recognition method, gesture processing method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011965A (en) * 2004-06-28 2006-01-12 Denso Corp Image analysis apparatus, and program
JP2006163886A (en) * 2004-12-08 2006-06-22 Canon Inc Information inputting method and information inputting device
WO2011142313A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Object recognition device, method, program, and computer-readable medium upon which software is stored
WO2011142317A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2012073659A (en) * 2010-09-01 2012-04-12 Shinsedai Kk Operation determination device, fingertip detection device, operation determination method, fingertip detection method, operation determination program, and fingertip detection program
US20120174213A1 (en) * 2010-12-29 2012-07-05 Microsoft Corporation User identification with biokinematic input

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011965A (en) * 2004-06-28 2006-01-12 Denso Corp Image analysis apparatus, and program
JP2006163886A (en) * 2004-12-08 2006-06-22 Canon Inc Information inputting method and information inputting device
WO2011142313A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Object recognition device, method, program, and computer-readable medium upon which software is stored
WO2011142317A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2012073659A (en) * 2010-09-01 2012-04-12 Shinsedai Kk Operation determination device, fingertip detection device, operation determination method, fingertip detection method, operation determination program, and fingertip detection program
US20120174213A1 (en) * 2010-12-29 2012-07-05 Microsoft Corporation User identification with biokinematic input

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049955A (en) * 2015-09-04 2017-03-09 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication program
JP2019139698A (en) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス Non-contact input system, method and program
JP2022008645A (en) * 2018-02-15 2022-01-13 有限会社ワタナベエレクトロニクス Contactless input system and method
JP2021534482A (en) * 2018-08-17 2021-12-09 ベイジン センスタイム テクノロジー デベロップメント カンパニー リミテッド Gesture recognition method, gesture processing method and device
JP7266667B2 (en) 2018-08-17 2023-04-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー リミテッド GESTURE RECOGNITION METHOD, GESTURE PROCESSING METHOD AND APPARATUS

Similar Documents

Publication Publication Date Title
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
KR101761050B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
JP5695758B2 (en) Method, circuit and system for human machine interface with hand gestures
Oka et al. Real-time tracking of multiple fingertips and gesture recognition for augmented desk interface systems
JP2014501011A5 (en)
TWI471815B (en) Gesture recognition device and method
KR102347248B1 (en) Method and apparatus for recognizing touch gesture
JP6095478B2 (en) Input operation device
JP6066093B2 (en) Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP2016091457A (en) Input device, fingertip-position detection method, and computer program for fingertip-position detection
JP2014235634A (en) Finger operation detection device, finger operation detection method, finger operation detection program, and virtual object processing system
JP6651388B2 (en) Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system
JP2014238727A (en) Information processing apparatus and information processing method
KR102052449B1 (en) System for virtual mouse and method therefor
JP2014182662A (en) Operation apparatus and operation method
JP2016071547A (en) Information processing device and control method thereof, program, and storage medium
JP2012003724A (en) Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program
KR20140140482A (en) Apparatus and method for processing an user input using movement of an object
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
KR101171239B1 (en) Non-touch data input and operating method using image processing
Annabel et al. Design and Development of Multimodal Virtual Mouse
JP2018195053A (en) Image processing apparatus, image processing program, and gesture recognition system
JP2012108762A (en) Instruction system and mouse system
JP2018181169A (en) Information processor, and information processor control method, computer program, and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606