JP2009003813A - Finger shape estimation apparatus, finger shape estimation method and program - Google Patents

Finger shape estimation apparatus, finger shape estimation method and program Download PDF

Info

Publication number
JP2009003813A
JP2009003813A JP2007165689A JP2007165689A JP2009003813A JP 2009003813 A JP2009003813 A JP 2009003813A JP 2007165689 A JP2007165689 A JP 2007165689A JP 2007165689 A JP2007165689 A JP 2007165689A JP 2009003813 A JP2009003813 A JP 2009003813A
Authority
JP
Japan
Prior art keywords
nail
finger
image data
data
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007165689A
Other languages
Japanese (ja)
Other versions
JP5526465B2 (en
Inventor
Sei Hoshino
聖 星野
Emi Tamaki
絵美 玉城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2007165689A priority Critical patent/JP5526465B2/en
Publication of JP2009003813A publication Critical patent/JP2009003813A/en
Application granted granted Critical
Publication of JP5526465B2 publication Critical patent/JP5526465B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more accurately estimate a finger shape including a wrist turn from an image of fingers captured by a camera. <P>SOLUTION: Image data corresponding to various finger shapes and nail position data representing nail positions in the shapes represented by the image data are stored to construct a database. Nail positions are detected in image data obtained by imaging fingers to be detected, and the detected nail positions are collated with the nail position data in the database. On the basis of the nail position data substantially matching the detected nail position data, the image data stored in the database in association with the nail position data is read out, and the finger shape represented by the image data is set as an estimated shape of the fingers to be detected. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えばロボットあるいは仮想物体の手指を駆動制御するのに好適な手指形状推定装置及び手指形状推定方法、並びにその検出方法を実行させるプログラムに関する。   The present invention relates to a finger shape estimation apparatus and a finger shape estimation method suitable for driving and controlling a finger of a robot or a virtual object, for example, and a program for executing the detection method.

近年、人間の手指と類似した形状の多指型のロボットハンドが開発されている。その多指型のロボットハンドは、人間の手と同様に関節が動く構成とすることで、人間の手と同様に物を掴むなどの作業が可能となり、高度な作業が行える。このロボットハンドの動作を制御する手法の1つとして、操作者の手指をカメラで撮影して、そのカメラで撮影した手指の画像から推定した手指の形状と同じ形状を、ロボットハンドで再現させることが提案されている。
特許文献1には、本発明の発明者らが先に提案した、手指の画像から手指の形状を推定して、ロボットハンドを制御する手法についての記載がある。特許文献1に記載された手法では、手指を撮影した画像から、手指の輪郭を検出し、その輪郭から手指の形状を推定するようにしている。
特開2006−294018号公報
In recent years, multi-finger type robot hands having a shape similar to human fingers have been developed. The multi-fingered robot hand has a structure in which the joints move like a human hand, so that a work such as grasping an object can be performed in the same manner as a human hand, and an advanced work can be performed. As one method for controlling the operation of the robot hand, the operator's fingers are photographed with a camera, and the robot hand reproduces the same shape as that of the finger estimated from the image of the finger photographed with the camera. Has been proposed.
Japanese Patent Laid-Open No. 2004-228688 describes a technique for controlling a robot hand by estimating the shape of a finger from an image of a finger previously proposed by the inventors of the present invention. In the technique described in Patent Document 1, the contour of a finger is detected from an image obtained by photographing the finger, and the shape of the finger is estimated from the contour.
JP 2006-294018 A

ところで、特許文献1に記載したように、手指を撮影した画像から、手指の輪郭を検出することで、それなりの精度で手指の形状を推定することができるが、手首関節動作などを伴った手指の形状推定では、手指の各関節の角度を、誤って推定してしまうことがあった。具体的には、手指の輪郭だけでは、掌が見えているのか、あるいは手の甲が見えているのか、判別するのが困難な場合がある。さらに、指を曲げた状態の画像から、1つ1つの指の関節の角度を正確に判断するのが困難な場合が存在する。   By the way, as described in Patent Document 1, it is possible to estimate the shape of a finger with a certain degree of accuracy by detecting the contour of the finger from an image obtained by photographing the finger. In the shape estimation, the angles of the joints of the fingers may be erroneously estimated. Specifically, it may be difficult to determine whether the palm or the back of the hand is visible only by the contours of the fingers. Furthermore, there are cases where it is difficult to accurately determine the angle of each finger joint from an image of a finger bent.

本発明はかかる点に鑑みてなされたものであり、手指をカメラで撮影した画像から、その手指の形状をより正確に推定できるようにすることを目的とする。   The present invention has been made in view of such a point, and an object thereof is to more accurately estimate the shape of a finger from an image obtained by photographing the finger with a camera.

本発明は、手指の種々の形状に対応した画像データと、その画像データで示される形状のときの爪の位置を示す爪位置データとを記憶してデータベースを構成させる。
そして、検出対象の手指を撮影して得た画像データから、爪の位置を検出し、その検出された爪の位置を、データベースに記憶された爪位置データと照合する。さらに、その照合でほぼ一致が検出された爪位置データに基づいて、その爪位置データに対応してデータベースに記憶された画像データを読み出し、その画像データで示される手指形状を、検出対象の手指の形状として判定するようにしたものである。
The present invention stores image data corresponding to various shapes of fingers and nail position data indicating the position of the nail when the shape is indicated by the image data, and forms a database.
Then, the position of the nail is detected from the image data obtained by photographing the finger to be detected, and the detected nail position is collated with the nail position data stored in the database. Further, based on the nail position data for which a match is detected by the collation, the image data stored in the database corresponding to the nail position data is read, and the finger shape indicated by the image data is changed to the detection target finger. It is determined as the shape of the.

本発明によると撮影して得た手指の画像データから検出した爪位置を利用して、正確な手指形状の推定が可能となる。従って、撮影した画像から推定した手指形状に基づいて、各種機器の高度な制御が可能となる。
例えば、推定した手指の形状を、ロボットハンドに再現させる制御を行うことで、ロボットハンドの制御を、操作者の手指の動きから簡単かつ正確に行えるようになる。
また、撮影した画像から推定した手指形状に基づいて、手の3次元CGモデルを動作させることが可能となる。手の3次元CGモデルに当たり判定などの機能を付加することにより、コンピュータ内の仮想世界で3次元の物体操作が行えるようになる。
According to the present invention, it is possible to accurately estimate a finger shape using a nail position detected from finger image data obtained by photographing. Therefore, advanced control of various devices is possible based on the finger shape estimated from the captured image.
For example, by controlling the robot hand to reproduce the estimated finger shape, the robot hand can be controlled easily and accurately from the movement of the operator's finger.
In addition, the three-dimensional CG model of the hand can be operated based on the finger shape estimated from the captured image. By adding a function such as hit determination to the three-dimensional CG model of the hand, a three-dimensional object operation can be performed in the virtual world in the computer.

また、手指の爪位置情報と輪郭情報を併せて記憶し、前記データベースに記憶された爪位置データと手指の輪郭情報の両方を照合に用いることにより、手指の各関節の角度を正確に推定できるようになる。   In addition, the finger nail position information and the contour information are stored together, and the angle of each joint of the finger can be accurately estimated by using both the nail position data stored in the database and the finger contour information for collation. It becomes like this.

この場合、データベースとして、画像データに対応した手指の関節の角度データまたは3次元座標データを記憶して、照合で一致が検出された爪位置データに対応してデータベースに記憶された関節の角度データまたは3次元座標データから、手指の関節角度を推定することで、ロボットハンドや手指のCGを正確に駆動することが可能となる。   In this case, the joint joint angle data or three-dimensional coordinate data corresponding to the image data is stored as the database, and the joint angle data stored in the database corresponding to the nail position data in which matching is detected by the collation. Alternatively, it is possible to accurately drive the robot hand and the finger CG by estimating the joint angle of the finger from the three-dimensional coordinate data.

また、データベースに記憶された手指の関節の角度データあるいは3次元座標データは、手指の各関節にセンサを取付けたいわゆるデータグローブや磁気センサなどを使用して、簡単にデータベース用の関節角度データあるいは3次元座標データを得ることが可能となる。   In addition, the joint joint angle data or three-dimensional coordinate data stored in the database can be easily obtained by using a so-called data glove or magnetic sensor with a sensor attached to each joint of the fingers. It becomes possible to obtain three-dimensional coordinate data.

また、検出対象の手指を撮影して得た画像データから、手指の肌色部分と、その肌色部分に含まれる爪の色の部分とを抽出して、抽出された爪の色の部分から爪の位置を検出することで、爪の検出を効率よく行うことが可能となる。   Further, the skin color portion of the finger and the nail color portion included in the skin color portion are extracted from the image data obtained by photographing the detection target finger, and the nail color portion is extracted from the extracted nail color portion. By detecting the position, it is possible to efficiently detect the nail.

また、この肌色部分から爪の色の部分を検出する場合に、検出対象の手指の肌色部分の近傍を通過する第1の軸と、この第1の軸と直交する第2の軸とで表現される領域により画像データの色空間を定義し、その定義した肌色部分から爪の色の部分を抽出することで、推定誤差の少ない状態で正確に爪の色の部分を抽出することができ、検出精度が向上する。また、肌色部分に無駄なデータが少ないため、爪の色の部分を抽出するための演算処理量を削減でき、高速に爪の部分を検出することが可能となる。   Further, when detecting the nail color portion from the skin color portion, it is expressed by a first axis passing through the vicinity of the skin color portion of the finger to be detected and a second axis orthogonal to the first axis. By defining the color space of the image data according to the area to be extracted and extracting the nail color part from the defined skin color part, the nail color part can be accurately extracted with little estimation error, Detection accuracy is improved. Further, since there is little useless data in the skin color portion, the amount of calculation processing for extracting the nail color portion can be reduced, and the nail portion can be detected at high speed.

さらに、この第1の軸と第2の軸を設定する場合に、第1及び第2の軸で設定される色空間の各軸の角度位置は、予め検出対象者の肌色部分を撮影した画像データに基づいて設定することで、個々の検出対象者の肌の色の違いによる誤差をなくした精度の高い検出が可能となる。   Further, when setting the first axis and the second axis, the angular position of each axis of the color space set by the first and second axes is an image obtained by photographing the skin color portion of the detection subject in advance. By setting based on the data, it is possible to perform highly accurate detection that eliminates errors due to differences in skin color of individual detection subjects.

以下、本発明の一実施の形態を、添付図面を参照して説明する。
本実施の形態においては、検出対象の手指をビデオカメラで撮影して、その撮影した画像から、手指の形状や関節の角度を推定するものである。推定した手指の形状や関節の角度のデータは、ロボットハンドや手の3次元CGモデルなどの各種装置の制御に使用する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
In this embodiment, a finger to be detected is photographed with a video camera, and the shape of the finger and the joint angle are estimated from the photographed image. The estimated finger shape and joint angle data are used to control various devices such as a robot hand and a three-dimensional CG model of the hand.

まず、図1を参照して装置のシステム構成を説明する。本実施の形態の装置は、図1に示すように、手指の形状などのデータを記憶したデータベース装置10と、そのデータベース装置10に記憶されたデータを参照しながら手指の形状を推定する手指推定装置20とで構成される。データベース装置10と手指推定装置20は、図1では別体の装置として構成させてあるが、一体化して構成してもよい。   First, the system configuration of the apparatus will be described with reference to FIG. As shown in FIG. 1, the apparatus according to the present embodiment includes a database device 10 that stores data such as the shape of a finger, and a hand estimation that estimates the shape of a finger while referring to the data stored in the database device 10. The apparatus 20 is comprised. Although the database device 10 and the finger estimation device 20 are configured as separate devices in FIG. 1, they may be configured integrally.

データベース装置10は、手指の様々な形状についてのデータを記憶する手段である。本例の場合には、ビデオカメラ31が撮影した画像データと、データグローブ40に取り付けられた各センサのデータとが供給される。ビデオカメラ31は、データベース用の手指の画像を撮影するものである。データグローブ40は、その画像を撮影する際に、手指に装着されたグローブである。
図2はデータグローブ40の一例を示したものであり、指の各関節に相当する箇所に、その関節が動いた角度を検出するセンサ41が配置してある。また、手首の動きを検出するために、掌の部分にもセンサ41が配置してある。以下の説明で手指の関節の動きと述べた場合には、この手首の動きも含まれる。センサ41は、例えば歪センサを使用する。また、本例のデータグローブ40は、各指の爪に相当する箇所に、データグローブそのものの色(例えば白色)とは異なる色(例えば赤色)で、爪42を書き込んである。
The database device 10 is means for storing data on various shapes of fingers. In the case of this example, image data captured by the video camera 31 and data of each sensor attached to the data glove 40 are supplied. The video camera 31 captures an image of a finger for a database. The data glove 40 is a glove worn on a finger when the image is taken.
FIG. 2 shows an example of the data glove 40, and a sensor 41 for detecting an angle at which the joint moves is arranged at a position corresponding to each joint of the finger. In order to detect wrist movement, a sensor 41 is also arranged on the palm. In the following description, the movement of the wrist is also included when the movement of the finger joint is described. As the sensor 41, for example, a strain sensor is used. Further, in the data glove 40 of this example, the nail 42 is written at a position corresponding to the nail of each finger with a color (for example, red) different from the color (for example, white) of the data glove itself.

図1の説明に戻ると、ビデオカメラ31が撮影した画像データは、画像データ記憶手段11に供給されて、一旦記憶される。記憶された画像データは、画像特徴量抽出手段12に供給されて、画像中の手指の輪郭を抽出するための特徴量の抽出処理が行われる。特徴量の抽出処理については後述する。
爪位置算出手段13では、画像中の指の爪の位置を検出する処理を行う。ここでの爪の位置の検出処理の詳細についても後述するが、簡単に述べるとデータグローブ40に書き込まれた爪の色を検出し、その色を検出した部分を爪の位置とする処理である。爪の位置は、例えば爪の重心位置のデータとする。
画像特徴量抽出手段12で検出された特徴量のデータと、爪位置算出手段13で検出された爪の位置データは、画像及び爪位置対応動作指令記憶手段14に供給して、データベース化して記憶させる。
Returning to the description of FIG. 1, the image data captured by the video camera 31 is supplied to the image data storage means 11 and temporarily stored. The stored image data is supplied to the image feature quantity extraction means 12 and a feature quantity extraction process is performed to extract the contours of fingers in the image. The feature amount extraction processing will be described later.
The nail position calculation means 13 performs processing for detecting the position of the fingernail in the image. The details of the nail position detection processing here will be described later. Briefly, the nail color written in the data glove 40 is detected, and the detected portion is used as the nail position. . The position of the nail is, for example, data on the position of the center of gravity of the nail.
The feature amount data detected by the image feature amount extraction unit 12 and the nail position data detected by the nail position calculation unit 13 are supplied to the image and nail position corresponding operation command storage unit 14 and stored in a database. Let

また、データグローブ40の各センサの出力を、サンプリング手段15で周期的にサンプリングし、そのサンプリングされたセンサ出力を、時系列関節角度データ記憶手段16に供給して、時系列の関節角度データとして記憶させる。記憶された時系列の関節角度データについても、画像及び爪位置対応動作指令記憶手段14に供給して、データベース化して記憶させる。   Further, the output of each sensor of the data glove 40 is periodically sampled by the sampling means 15, and the sampled sensor output is supplied to the time series joint angle data storage means 16 to obtain time series joint angle data. Remember. The stored time-series joint angle data is also supplied to the image and nail position corresponding operation command storage means 14 and stored in a database.

画像及び爪位置対応動作指令記憶手段14でデータベース化する際には、手指の形状のデータと、その形状の際の爪の位置と、その形状の際の手指の各関節の角度データとを、対応づけてデータベース化する。
この記憶手段14に記憶されたデータベースは、手指形状推定装置20からの指示で読み出される。
When creating a database in the image and nail position corresponding operation command storage means 14, the finger shape data, the nail position at the time of the shape, and the angle data of each joint of the finger at the shape, Create a database in association.
The database stored in the storage unit 14 is read by an instruction from the finger shape estimation device 20.

手指形状推定装置20は、ビデオカメラ32で撮影した手指の画像データを、個人表色系変換手段21に供給して、予め決められた変換特性で、画像データの表色系の座標軸を変換する。その変換処理の詳細については後述する。個人表色系変換手段21には、ビデオカメラ32で操作者の手指を撮影する際の初期設定で、変換特性が記憶される。   The finger shape estimation device 20 supplies finger image data captured by the video camera 32 to the personal color system conversion means 21 and converts the coordinate axes of the color system of the image data with predetermined conversion characteristics. . Details of the conversion process will be described later. The personal color system conversion means 21 stores conversion characteristics as initial settings when the operator's fingers are photographed by the video camera 32.

個人表色系変換手段21で変換された画像データは、画像データ記憶手段23に記憶され、その記憶された画像データから画像特徴量抽出手段24で画像特徴量が抽出され、手指の輪郭が抽出される。また、画像データ記憶手段23に記憶された画像データから爪位置算出手段25で爪の位置が検出される。
画像特徴量抽出手段24で抽出された特徴量のデータと、爪位置算出手段25で検出された爪の位置のデータは、データ特定及び動作指令発生手段26に送られる。データ特定及び動作指令発生手段26では、供給された特徴量のデータと、爪位置のデータとから、データベース装置10に記憶されたデータベース上の類似したデータを検索し、最も近いデータに対応して記憶された関節角度のデータをデータベースから読み出す。
The image data converted by the personal color system conversion means 21 is stored in the image data storage means 23, the image feature quantity is extracted by the image feature quantity extraction means 24 from the stored image data, and the contour of the finger is extracted. Is done. Further, the nail position calculating unit 25 detects the position of the nail from the image data stored in the image data storage unit 23.
The feature amount data extracted by the image feature amount extraction unit 24 and the nail position data detected by the nail position calculation unit 25 are sent to the data specification and operation command generation unit 26. The data specifying and operation command generating means 26 searches for similar data on the database stored in the database device 10 from the supplied feature value data and nail position data, and corresponds to the closest data. The stored joint angle data is read from the database.

そして、データベースから読み出された関節角度のデータを、撮影した手指の各関節の角度として推定する。その推定された関節の角度のデータを、ロボットハンドの各関節の動作指令として生成させ、その動作指令をロボットハンドの駆動手段27に送り、対応した状態にロボットハンド50内の各関節のアクチュエータを駆動させる。
なお、図1の構成では、データベース構築用のビデオカメラ31と、実際に手指の形状を推定する際に使用するビデオカメラ32は、別のものを使用したが、同一のカメラを使用してもよい。また、各ビデオカメラ31,32は、例えば毎秒150フレーム程度の高速撮影が可能なものを使用するのが好ましいが、毎秒60フレーム程度の撮影を行う通常のビデオカメラを使用してもよい。
Then, the joint angle data read from the database is estimated as the angle of each joint of the photographed finger. The estimated joint angle data is generated as an operation command for each joint of the robot hand, the operation command is sent to the driving means 27 of the robot hand, and the actuator of each joint in the robot hand 50 is set in a corresponding state. Drive.
In the configuration of FIG. 1, the video camera 31 for database construction and the video camera 32 used for actually estimating the shape of the fingers are different from each other. Good. The video cameras 31 and 32 are preferably those capable of high-speed shooting at about 150 frames per second, for example, but normal video cameras that perform shooting at about 60 frames per second may be used.

図3は、本例の手指形状記憶手段20で推定した手指の形状に基づいて駆動されるロボットハンド50の一例を示したものである。
この図3に示すように、ロボットハンド50は、実際の手指の関節の位置に対応した位置に、関節用アクチュエータ52が配置されたものが、支持部材51で支持される構成としてある。支持部材51内にもアクチュエータ(図示せず)が設けてあり、手首を曲げた状態に対応して、支持部材51でロボットハンドを支持させる角度も調整できる構成としてある。各関節用アクチュエータ52が、データベースから読み出された各関節角度のデータで、対応した角度に設定されるように駆動される。
FIG. 3 shows an example of the robot hand 50 that is driven based on the finger shape estimated by the finger shape storage means 20 of this example.
As shown in FIG. 3, the robot hand 50 has a configuration in which a joint actuator 52 is arranged at a position corresponding to an actual finger joint position and is supported by a support member 51. An actuator (not shown) is also provided in the support member 51, and the angle at which the robot hand is supported by the support member 51 can be adjusted in accordance with the state where the wrist is bent. Each joint actuator 52 is driven so as to be set to a corresponding angle by the data of each joint angle read from the database.

図4は、本例の手指形状記憶手段20で推定した手指の形状による3次元CGを作成して、その推定した形状の手指により操作されるコンピュータ内の仮想世界での仮想物体を表示させる例を示したものである。仮想物体は、その持ち方や触り方で形状が自在に変形する物体である。
この図4に示すように、操作者の頭部に、カメラ付きHMD(ヘッドマウンテッドディスプレイ)90を装着し、操作者はそのカメラ付きHMD90で表示される画像を、周囲の実画像と重ねて見ることができる。カメラ付きHMD90には、3軸位置センサ91が取付けてあり、その3軸センサ91の出力で、頭部の位置情報を取得し、操作者がどの位置から仮想物体を見ているかの整合を行う。カメラ付きHMD90に取付けられたカメラは、操作者の前方の手元を撮影する構成としてあり、操作者の右手HR及び左手HLを撮影する。図4では、3次元仮想物体92を示してあるが、この3次元仮想物体92は、カメラ付きHMD90を装着した操作者にだけ見えているものである。
FIG. 4 shows an example of creating a three-dimensional CG based on the finger shape estimated by the finger shape storage means 20 of this example and displaying a virtual object in the virtual world in the computer operated by the finger of the estimated shape. Is shown. A virtual object is an object whose shape is freely deformed depending on how to hold or touch it.
As shown in FIG. 4, a camera-equipped HMD (head mounted display) 90 is mounted on the operator's head, and the operator superimposes the image displayed on the camera-equipped HMD 90 on the surrounding real image. Can see. A 3-axis position sensor 91 is attached to the camera-equipped HMD 90, and the position information of the head is acquired by the output of the 3-axis sensor 91, and the position where the operator is viewing the virtual object is matched. . The camera attached to the camera-equipped HMD 90 is configured to photograph the operator's front hand and photographs the operator's right hand HR and left hand HL. In FIG. 4, a three-dimensional virtual object 92 is shown, but this three-dimensional virtual object 92 is visible only to an operator wearing the HMD 90 with a camera.

カメラ付きHMD90内のカメラで、操作者の右手HR及び左手HLを撮影することで、その撮影した右手HR及び左手HLの画像データから、本例の手指形状記憶手段20で手指の形状を推定する。推定した手指の形状により、手の3次元CGを作成する。3次元CGは、CGデータにより作成される。
図5(a)は、作成された3次元CGによる右手93R及び左手93Lを示したものである。この3次元CGで作成された右手93R及び左手93Lは、本例では表示はされず、その3次元CGの手93R,93Lで持つことで操作される3次元物体92の形状を決めるために使用される。
By photographing the right hand HR and the left hand HL of the operator with the camera in the HMD 90 with a camera, the hand shape storage means 20 of this example estimates the shape of the finger from the photographed right hand HR and left hand HL image data. . A three-dimensional CG of the hand is created based on the estimated finger shape. A three-dimensional CG is created from CG data.
FIG. 5A shows the right hand 93R and the left hand 93L by the created three-dimensional CG. The right hand 93R and the left hand 93L created by the three-dimensional CG are not displayed in this example, and are used to determine the shape of the three-dimensional object 92 to be operated by holding the hands 93R and 93L of the three-dimensional CG. Is done.

図5(b)は、カメラ付きHMD90を装着した操作者に見えている画像の例である。この例では、操作者の実際の右手HR及び左手HLで、3次元仮想物体92を持っている状態である。3次元仮想物体92は、右手HR及び左手HLの形状の推定結果により、その右手HR及び左手HLで操作されているように変形させる。例えば、右手HRと左手HLを離した場合には、3次元仮想物体92を引き伸ばし、右手HRと左手HLを近づけた場合には、3次元仮想物体92を縮小させるような表示を行う。このように表示が行われることで、操作者の手指動作に応じて、あたかも実世界の物体のように、3次元仮想物体が操作され変形する。
また、カメラ付きHMD90による画像表示として、図5(b)に示すように、メニュー表示94を行い、そのメニュー表示94中の各項目を手で触れる操作を行うことで、仮想物体92に色を付けるなどの各種画像操作が行えるようにしてもよい。
FIG. 5B is an example of an image that can be seen by an operator wearing the HMD 90 with a camera. In this example, the operator has the three-dimensional virtual object 92 with the actual right hand HR and left hand HL. The three-dimensional virtual object 92 is deformed so as to be operated with the right hand HR and the left hand HL based on the estimation results of the shapes of the right hand HR and the left hand HL. For example, when the right hand HR and the left hand HL are separated from each other, the three-dimensional virtual object 92 is stretched, and when the right hand HR and the left hand HL are brought close to each other, the three-dimensional virtual object 92 is reduced. By performing the display in this manner, the three-dimensional virtual object is manipulated and deformed as if it were a real world object according to the finger movement of the operator.
Further, as shown in FIG. 5B, as the image display by the HMD 90 with a camera, a menu display 94 is performed, and an operation in which each item in the menu display 94 is touched by a hand is performed, whereby the virtual object 92 is colored. Various image operations such as attaching may be performed.

このような表示処理を行う装置を、デスクトップマネージャとしたOS(オペレーティングシステム)として構築することにより、それは3次元操作可能なOSとなる。
なお、図5(b)の例では、実際の右手HR及び左手HLに重ねて、3次元仮想物体92を表示させる構成としたが、図5(a)に示した3次元CGによる右手93R及び左手93と3次元仮想物体92とを表示させる画像としてもよい。
By constructing a device that performs such display processing as an OS (operating system) as a desktop manager, it becomes an OS that can be operated three-dimensionally.
In the example of FIG. 5B, the three-dimensional virtual object 92 is displayed so as to overlap the actual right hand HR and left hand HL. However, the right hand 93R and the three-dimensional CG shown in FIG. The left hand 93 and the three-dimensional virtual object 92 may be displayed.

次に、本実施の形態による手指判定処理のおおまかな流れを、図6〜図8のフローチャートを参照して説明する。
まず、データベース装置でデータベースを構築させる処理の流れを、図6を参照して説明する。
データベースの構築時には、まず図2に示したデータグローブ40を装着した手指の画像を取り込み、その手指の画像から手指の形状と爪位置を検出し、さらにそのときのデータグローブ40のセンサ41の出力を関節の角度に変換して読み込む(ステップS101)。そして、その読み込んだ手指の形状と爪位置と関節の角度とを対応づけて、データベース化する(ステップS102)。その後、データベースの構築を続行するか否か判断して(ステップS103)、データベースの構築を続行する場合には、ステップS101に戻って、別の形状(即ち手指の関節の曲げ具合などが異なる形状)の手指を取り込ませる。このようにして、様々な手指の形状をデータベース化し、ステップS103でデータベースの構築が終了であると判断した場合に、このデータベース構築処理を終了する。
Next, the general flow of the finger determination process according to the present embodiment will be described with reference to the flowcharts of FIGS.
First, the flow of processing for constructing a database by the database device will be described with reference to FIG.
When constructing the database, first, an image of a finger wearing the data glove 40 shown in FIG. 2 is captured, the shape of the finger and the nail position are detected from the image of the finger, and the output of the sensor 41 of the data glove 40 at that time Is converted into a joint angle and read (step S101). Then, the read finger shape, nail position, and joint angle are associated with each other to create a database (step S102). After that, it is determined whether or not to continue the database construction (step S103), and when the database construction is continued, the process returns to step S101, and another shape (that is, a shape in which the degree of bending of the finger joint is different). ). In this way, various finger shapes are made into a database, and when it is determined in step S103 that the database construction is finished, this database construction processing is finished.

なお、データベース構築時の手指の関節角度データは、必ずしもデータグローブなどのセンサを用いる必要はなく、任意の関節角度を入力して生成される手指のCGモデルを用いても良い。また、データベース構築時の手指の関節角度データは、3次元座標データでも良い。その場合のセンサは、磁気センサやカラーグローブなどを用いることができることは言うまでもない。   Note that the finger joint angle data at the time of database construction does not necessarily need to use a sensor such as a data glove, and a finger CG model generated by inputting an arbitrary joint angle may be used. Further, the joint angle data of fingers at the time of database construction may be three-dimensional coordinate data. It goes without saying that a magnetic sensor, a color glove, or the like can be used as the sensor in that case.

データベースが用意されると、次に、検出対象者の手指を撮影して、初期調整を行う。図7は、この初期調整処理の流れを示したフローチャートである。初期調整処理としては、ビデオカメラ32を使用して、検出対象者の手指を撮影し、その撮影した画像を基準画像として読み込む(ステップS111)。手指の画像である基準画像は、例えば複数枚の画像であることが好ましく、さらに、その複数枚の内の少なくとも1枚は、爪が写っていることが好ましい。
そして、読み込んだ基準画像から、手指の肌色の色空間が、どの範囲に存在しているのか判断し、その判断に基づいて、検出対象者の手指を検出するために必要な、色空間の軸の変換特性を算出する(ステップS112)。算出された変換特性は、例えば図1に示した個人色データ記憶手段22に記憶され、初期調整処理を終了する。
初期調整が終了すると、検出対象者の手指を撮影して、形状を推定する処理が可能となる。なお、この初期調整は、既に今回の検出対象者の手指に基づいた変換特性が、既に装置内に記憶されている場合には、その記憶されたデータを読み出して使用してもよく、毎回必要な処理ではない。
Once the database is prepared, the initial adjustment is performed by photographing the fingers of the person to be detected. FIG. 7 is a flowchart showing the flow of the initial adjustment process. In the initial adjustment process, the video camera 32 is used to photograph the finger of the person to be detected, and the photographed image is read as a reference image (step S111). The reference image, which is an image of a finger, is preferably a plurality of images, for example, and at least one of the plurality of images preferably includes a nail.
Based on the read reference image, it is determined in which range the skin color space of the finger exists, and based on the determination, the axis of the color space necessary for detecting the finger of the detection target person The conversion characteristics are calculated (step S112). The calculated conversion characteristics are stored in, for example, the personal color data storage unit 22 shown in FIG. 1, and the initial adjustment process ends.
When the initial adjustment is completed, it is possible to perform processing for estimating the shape by photographing the finger of the detection target person. Note that this initial adjustment may be performed by reading the stored data if the conversion characteristics based on the finger of the person to be detected this time have already been stored in the apparatus. It's not an easy process.

図8のフローチャートは、検出対象者の手指を撮影して、形状を推定する処理の流れを示したものである。
手指の形状の推定処理としては、ビデオカメラ32により撮影された手指の画像データを取り込み(ステップS121)、先に説明した初期調整処理で設定された変換特性で、画像データの色空間の座標軸を変換する個人表色系変換処理を行う(ステップS122)。そして、色空間の座標軸が変換された画像データに基づいて、手指画像を検出する(ステップS123)と共に、爪の位置の検出を行う(ステップS124)。
各データが検出されると、検出されたそれぞれデータに基づいて、データベースから最も類似度が高いデータを検索し、検索されたデータに対応した全ての関節の角度データを読み出す(ステップS125)。各関節のデータを読み出すと、その読み出した関節の角度に、ロボットハンド50の各関節用アクチュエータ52を対応した角度に設定させる指令を生成させる(ステップS126)。ここまでの処理が終了すると、ステップS121に戻って、画像の読み込みから繰り返し処理される。ステップS125で読み出した各関節の角度で示される形状が、推定された手指の形状に相当する。
The flowchart in FIG. 8 shows the flow of processing for estimating the shape by photographing the finger of the person to be detected.
As a finger shape estimation process, image data of a finger photographed by the video camera 32 is captured (step S121), and the coordinate axis of the color space of the image data is set with the conversion characteristics set in the initial adjustment process described above. A personal color system conversion process for conversion is performed (step S122). A finger image is detected based on the image data obtained by converting the coordinate axis of the color space (step S123), and the position of the nail is detected (step S124).
When each data is detected, the data having the highest similarity is searched from the database based on the detected data, and the angle data of all joints corresponding to the searched data is read (step S125). When the data of each joint is read, a command for setting the joint actuator 52 of the robot hand 50 to an angle corresponding to the read joint angle is generated (step S126). When the process so far is completed, the process returns to step S121, and the process is repeated from the reading of the image. The shape indicated by the angle of each joint read in step S125 corresponds to the estimated finger shape.

次に、各処理の詳細を、図9以降を参照して説明する。
まず、データベース構築時に、画像特徴量抽出手段12で行われる画像の特徴量を抽出する処理の詳細を、図9のフローチャートを参照して説明する。ここでは、画像データのノイズ除去処理を行い(ステップS11)、そのノイズ除去した画像データを2値化する(ステップS12)。2値化した画像データからは、手領域の輪郭線を検出する(ステップS13)。この輪郭線の検出処理を行うために、画像データで示される全ての画素について、高次局所自己相関パターンを算出する(ステップS14)。
図10は、高次局所自己相関特徴を検出するための局所パターンの例を示したものである。この例では、縦3画素×横3画素の9画素のブロック単位で示してあり、パターンM1からパターンM25までの25種類のパターンに分類してあり、輪郭線が黒色で示した画素配列である場合に、該当する番号のパターンであると算出し、そのパターンの組み合わせで、手指の輪郭線を示すようにしてある。
このようにして得た手指の輪郭線のデータを、データベースに登録させる。
なお、画像特徴量抽出のためには必ずしも高次局所自己相関特徴を使う必要はなく、画像が含んでいる特徴を、より低次の特徴により抽出できれば良い。
また、図9のフローチャートでは、画像からの手指の形状検出処理として、輪郭線の検出処理を行うようにしたが、例えば、画像中の手指の領域そのものを検出するようにしてもよい。例えば、画像中の手指の色の部分(データグローブの色の部分)を検出して、手指の輪郭ではなく、手指が存在する領域を検出するようにしてもよい。
Next, details of each process will be described with reference to FIG.
First, the details of the process of extracting the image feature amount performed by the image feature amount extraction means 12 when the database is constructed will be described with reference to the flowchart of FIG. Here, noise removal processing is performed on the image data (step S11), and the image data from which the noise has been removed is binarized (step S12). From the binarized image data, the outline of the hand region is detected (step S13). In order to perform this contour line detection process, higher-order local autocorrelation patterns are calculated for all the pixels indicated by the image data (step S14).
FIG. 10 shows an example of a local pattern for detecting higher-order local autocorrelation features. In this example, the pixel arrangement is shown in block units of 9 pixels of 3 vertical pixels × 3 horizontal pixels, classified into 25 types of patterns from pattern M1 to pattern M25, and the outline is shown in black. In this case, it is calculated that the pattern has a corresponding number, and the contour line of the finger is indicated by a combination of the patterns.
The finger contour data thus obtained is registered in the database.
Note that it is not always necessary to use high-order local autocorrelation features for image feature extraction, and it is sufficient that features included in an image can be extracted by lower-order features.
In the flowchart of FIG. 9, the contour detection processing is performed as the finger shape detection processing from the image. However, for example, the finger region itself in the image may be detected. For example, a finger color portion (data glove color portion) in the image may be detected to detect not the contour of the finger but the region where the finger is present.

次に、データベース構築時に、爪位置算出手段13で行われる爪位置の算出処理の詳細を、図11のフローチャートを参照して説明する。ここでは、画像データのノイズ除去処理を行い(ステップS21)、そのノイズ除去した画像データを、黒色の部分(画像の背景部分)と、白色の部分(画像のデータグローブ本体部分)と、赤色の部分(データグローブの爪の部分)とに3値化する(ステップS22)。この色分けは、黒色の背景で撮影を行った場合の例である。
そして、3値化した画像データの内で、赤色の部分を、爪領域として検出する(ステップS23)。さらに、その検出したそれぞれの爪領域の重心位置を算出する(ステップS24)。この算出された各爪の重心位置のデータを、爪の位置データとしてデータベースに登録させる。
図13は、この爪の位置の算出処理のイメージを示した図である。手指を撮影した画像として、ここでは図13(a)に示すような画像が得られたとする。画像の特徴量を抽出する処理では、この手指の輪郭が検出されるが、爪の位置の算出処理では、図13(b)に示すように5本の指の爪の領域だけが抽出される。そして、図13(c)に示すように、それぞれの爪の領域ごとに、各領域の重心位置((x1、y1)など)が算出される。この算出された重心位置が、データベースに登録される。
なお、本例では各爪の位置データとして、重心位置のデータとしたが、重心位置以外のデータであってもよい。例えば、単純な中心としてもよい。或いは、各爪の領域のデータ(即ち図11のフローチャートのステップS23で検出された爪領域のデータ)を、そのままデータベースに登録するデータとしてもよい。
Next, details of the nail position calculation processing performed by the nail position calculation means 13 at the time of database construction will be described with reference to the flowchart of FIG. Here, noise removal processing is performed on the image data (step S21), and the noise-removed image data is divided into a black portion (background portion of the image), a white portion (data glove main body portion of the image), and a red portion. It is ternarized into a part (a part of the nail of the data glove) (step S22). This color coding is an example when photographing is performed on a black background.
Then, a red portion is detected as a nail region in the ternary image data (step S23). Further, the center-of-gravity position of each detected nail region is calculated (step S24). The calculated data on the center of gravity of each nail is registered in the database as nail position data.
FIG. 13 is a diagram showing an image of the nail position calculation process. Here, it is assumed that an image as shown in FIG. 13A is obtained as an image obtained by photographing a finger. In the process of extracting the feature amount of the image, the contour of the finger is detected, but in the nail position calculation process, only the nail area of five fingers is extracted as shown in FIG. . And as shown in FIG.13 (c), the gravity center position ((x1, y1) etc.) of each area | region is calculated for every area | region of each nail | claw. The calculated barycentric position is registered in the database.
In this example, the position data of each nail is the data of the center of gravity, but it may be data other than the position of the center of gravity. For example, a simple center may be used. Alternatively, the data of each nail region (that is, the data of the nail region detected in step S23 in the flowchart of FIG. 11) may be directly registered in the database.

次に、手指の形状を推定する際の初期調整として行われる、個人表色系の作成処理を、図12のフローチャートを参照して説明する。
図12のフローチャートを説明する前に、個人表色系の作成処理を行うことの理由について説明する。
この個人表色系の作成処理は、形状を推定する手指を撮影して、その手指の肌色分布に基づいて行うものである。即ち、画像データの色成分を、2つの色信号成分(色差信号成分)を直交させて示したものが図18(a)である。この図18(a)では、色成分を色差信号の空間である、X軸とY軸とで示した一般的な色空間座標で示してある。手指などの人間の肌色の領域F1は、この図18(a)に示されるように、細長いほぼ楕円形で示される領域である。そして、爪の色の領域NAは、この肌色領域F1内の更に一部の領域として示される。爪の色の領域NAは、肌色の中の若干青白い色の領域である。手指の形状を推定する際には、この爪の色の領域NAを検出する処理が行われる。
Next, a process for creating a personal color system, which is performed as an initial adjustment when estimating the shape of a finger, will be described with reference to the flowchart of FIG.
Before describing the flowchart of FIG. 12, the reason for performing the personal color system creation process will be described.
This personal color system creation process is performed by photographing a finger whose shape is to be estimated and based on the skin color distribution of the finger. That is, FIG. 18A shows the color components of the image data in which two color signal components (color difference signal components) are orthogonally crossed. In FIG. 18A, the color components are represented by general color space coordinates indicated by the X axis and the Y axis, which are the color difference signal spaces. The human skin color region F1 such as a finger is a region which is shown in an elongated and oval shape as shown in FIG. The nail color area NA is shown as a part of the skin color area F1. The nail color area NA is a slightly pale white area in the skin color. When estimating the shape of the finger, a process of detecting the nail color area NA is performed.

図18(a)に示したX軸とY軸で示される色空間内で、肌色領域F1を検出するためには、例えばX軸での肌色領域F1の範囲x1からx2と、Y軸での肌色領域F1の範囲y1からy2を設定することで、検出可能である。ところが、そのように範囲を設定した場合、図18(a)に示すように、肌色領域F1以外の領域も多数含まれた範囲となってしまう。図18(a)でノイズと記載した部分が、余計な領域である。   In order to detect the skin color area F1 in the color space indicated by the X axis and the Y axis shown in FIG. 18A, for example, the range x1 to x2 of the skin color area F1 on the X axis and the Y axis Detection is possible by setting the range y1 to y2 of the skin color region F1. However, when such a range is set, as shown in FIG. 18A, a range including many areas other than the skin color area F1 is included. The part described as noise in FIG. 18A is an extra area.

ここで、本例においては、色空間座標として、図18(b)に示すように、肌色領域の重心位置を通過する角度の座標軸Saと、その軸Saと直交する座標軸Sbを設定し、その軸Sa,Sbで示される色空間上で、肌色領域F1の領域を定義する。図18(b)の例では、軸Saでの範囲a1からa2と、軸Sbでの範囲b1からb2で、ほぼ楕円形状の肌色領域F1を定義する。このように定義することで、肌色領域F1を余計な領域がほとんどない状態で抽出することができる。
この図18(b)に示すように、X軸とY軸で示される色空間の画像データを、軸の角度がシフトしたSa軸とSb軸で示される色空間の画像データに変換するのが、図1の個人表色系変換手段21での変換処理である。
表色系への変換式を、次の[数1]式及び[数2]式に示す。
Here, in this example, as shown in FIG. 18B, the coordinate axis Sa of the angle passing through the barycentric position of the skin color region and the coordinate axis Sb orthogonal to the axis Sa are set as the color space coordinates. A skin color region F1 is defined on the color space indicated by the axes Sa and Sb. In the example of FIG. 18B, a substantially oval skin color region F1 is defined by the range a1 to a2 on the axis Sa and the range b1 to b2 on the axis Sb. By defining in this way, it is possible to extract the skin color area F1 with almost no extra area.
As shown in FIG. 18B, the image data in the color space indicated by the X-axis and the Y-axis is converted into image data in the color space indicated by the Sa-axis and the Sb-axis with the axis angle shifted. This is a conversion process in the personal color system conversion means 21 in FIG.
Expressions for conversion to the color system are shown in the following [Expression 1] and [Expression 2].

Figure 2009003813
Figure 2009003813

Figure 2009003813
Figure 2009003813

式中のRとGとBはRGB表色系のそれぞれの値であり、YとIとQは、YIQ表色系のそれぞれの値である。YIQ表色系は北アメリカのテレビジョン放送に使用され、肌色表現に優れている表色系である。   In the equation, R, G, and B are values of the RGB color system, and Y, I, and Q are values of the YIQ color system. The YIQ color system is a color system that is used in North American television broadcasting and is excellent in skin color expression.

ところで、この図18に示される肌色領域F1の色空間上の座標位置には、個人差がある。即ち、皮膚の色である肌色の色調には個人差があり、例えば図19に示すように、ある人の肌色領域F1と、別の人の肌色領域F2とは、若干違いがある。従って、本例においては、図7のフローチャートで説明した個人表色系変換用の基準画像の読み込みで、検出対象者の手指の肌色の領域を検出して、その検出した肌色領域の重心を通過するSa軸と、そのSa軸に直交するSa軸を設定するように、変換特性の個人差を調整する構成としてある。
肌色領域の重心は、次の[数3]式で算出される。但し、mは色の出現回数、Mは枠内の画素数、XはQ軸の値がqでI軸の値がiの色差空間上の点である。
By the way, there is an individual difference in the coordinate position on the color space of the skin color area F1 shown in FIG. That is, there are individual differences in the tone of the skin color, which is the color of the skin, and for example, as shown in FIG. 19, there is a slight difference between the skin color area F1 of one person and the skin color area F2 of another person. Therefore, in this example, the skin color region of the finger of the detection target person is detected by reading the reference image for personal color system conversion described in the flowchart of FIG. 7, and passes through the center of gravity of the detected skin color region. The individual difference of the conversion characteristics is adjusted so that the Sa axis to be set and the Sa axis orthogonal to the Sa axis are set.
The center of gravity of the skin color area is calculated by the following [Equation 3]. However, m is the number of appearances of the color, M is the number of pixels in the frame, and X is a point on the color difference space where the value of the Q axis is q and the value of the I axis is i.

Figure 2009003813
Figure 2009003813

[数3]式で求めた傾きの単位ベクトルをα(Q′,I′)とするとき、[数2]式より肌色軸Saは次式のように求めることができる。   When the unit vector of the inclination obtained by the equation [3] is α (Q ′, I ′), the skin color axis Sa can be obtained by the following equation from the equation [2].

Figure 2009003813
Figure 2009003813

同様に肌色直交軸Sbも単位ベクトルαに直交する単位ベクトルから計算することができる。
なお、肌色領域の座標位置は、個人差の他に、撮影する際の照明の条件などによっても変化する。
Similarly, the flesh color orthogonal axis Sb can also be calculated from the unit vector orthogonal to the unit vector α.
Note that the coordinate position of the skin color region changes depending on the lighting conditions at the time of shooting in addition to individual differences.

ここまで説明した処理が、図12のフローチャートに示した個人表色系の作成処理で実行される。即ち、図12に示すように、まず、検出対象者の手などの肌色部分を撮影した画像から、その人の肌色分布図が作成される(ステップS31)。肌色分布図が作成されて、肌色領域が検出されると、その人の肌色領域(肌色分布)の重心を求める処理が行われる(ステップS32)。そして、その重心位置を傾きとして肌色領域を通過する軸(Sa軸)が求められる(ステップS33)。さらに、そのSa軸に直交するSb軸が求められる(ステップS34)。   The processing described so far is executed in the personal color system creation processing shown in the flowchart of FIG. That is, as shown in FIG. 12, first, a skin color distribution chart of a person is created from an image obtained by photographing a skin color part such as the hand of the person to be detected (step S31). When the skin color distribution chart is created and the skin color area is detected, a process for obtaining the center of gravity of the person's skin color area (skin color distribution) is performed (step S32). Then, an axis (Sa axis) that passes through the skin color region with the center of gravity position as an inclination is obtained (step S33). Further, an Sb axis orthogonal to the Sa axis is obtained (step S34).

次に、検出対象者の手指の形状の推定時の、画像特徴量の抽出の具体的な処理例を、図14のフローチャートを参照して説明する。
この画像特徴量の抽出処理は、基本的には、図9のフローチャートに示したデータベース作成時の画像特徴量の抽出処理と同じである。但し、個人表色系に変換された画像データから検出する処理構成としてある。即ち、まず画像データのノイズ除去処理を行い(ステップS41)、そのノイズ除去した画像データを、個人表色系の座標軸のデータに変換して、手指の領域(即ち肌色の領域)を抽出する(ステップS42)。この抽出した手指の領域から、手領域の輪郭線を検出する(ステップS43)。この輪郭線の検出処理を行うために、画像データで示される全ての画素について、高次局所自己相関パターンを算出する(ステップS44)。高次局所自己相関特徴を検出するための局所パターンは、例えば図10に示したパターンが適用可能である。
Next, a specific processing example of image feature amount extraction when estimating the shape of the finger of the person to be detected will be described with reference to the flowchart of FIG.
This image feature quantity extraction processing is basically the same as the image feature quantity extraction processing at the time of database creation shown in the flowchart of FIG. However, the processing configuration is to detect from image data converted into the personal color system. That is, first, noise removal processing is performed on the image data (step S41), and the image data from which the noise has been removed is converted into data on the coordinate system of the personal color system to extract a finger region (ie, a skin color region) ( Step S42). A contour line of the hand region is detected from the extracted finger region (step S43). In order to perform this contour line detection process, higher-order local autocorrelation patterns are calculated for all the pixels indicated by the image data (step S44). As a local pattern for detecting higher-order local autocorrelation features, for example, the pattern shown in FIG. 10 can be applied.

次に、検出対象者の手指の形状の推定時の、爪位置の算出の具体的な処理例を、図15のフローチャートを参照して説明する。
この爪位置の算出処理は、図16で説明した肌色領域F1内の爪領域NAを検出する処理である。まず、画像データのノイズ除去処理を行い(ステップS51)、そのノイズ除去した画像データを、個人表色系の座標軸のデータに変換して、手指の領域(即ち肌色の領域)を抽出する(ステップS52)。さらに、肌色軸(X軸)と直交する軸(Y軸)の値だけを参照して、その肌色領域内からさらに爪領域NAを抽出する(ステップS53)。そして、その抽出した爪領域の画像の座標の重心位置を算出する(ステップS54)。この重心位置が、各爪の位置データとして使われるデータである。
Next, a specific processing example of nail position calculation at the time of estimating the finger shape of the person to be detected will be described with reference to the flowchart of FIG.
This nail position calculation process is a process for detecting the nail area NA in the skin color area F1 described with reference to FIG. First, noise removal processing of image data is performed (step S51), and the image data from which the noise has been removed is converted into coordinate data of a personal color system to extract a finger region (ie, a skin color region) (step S51). S52). Further, by referring only to the value of the axis (Y axis) orthogonal to the skin color axis (X axis), the nail area NA is further extracted from the skin color area (step S53). Then, the barycentric position of the coordinates of the extracted image of the nail region is calculated (step S54). This barycentric position is data used as position data for each nail.

図16は、画像データ内の各画素から手指の領域(即ち肌色領域)を抽出する具体的な処理例を示したものである。
まず、画素番号iを0に設定し(ステップS61)、その画素番号の個人表色系で示される値(a,b)を算出する(ステップS62)。値(a,b)は、Sa軸とSb軸の値である。その求めた値(a,b)が、図16(b)に示した範囲(a1からa2、b1からb2)内の値であるか否か判断される(ステップS63)。この判断で、該当する範囲内であると判断した場合には、現在の画素iが手指の領域であると判定する(ステップS64)。該当する範囲内でないと判断した場合には、現在の画素iが手指の領域でないと判定する(ステップS65)。
FIG. 16 shows a specific processing example for extracting a finger region (that is, a skin color region) from each pixel in the image data.
First, the pixel number i is set to 0 (step S61), and the value (a, b) indicated by the personal color system of the pixel number is calculated (step S62). Values (a, b) are values of the Sa axis and Sb axis. It is determined whether or not the obtained values (a, b) are values within the ranges (a1 to a2, b1 to b2) shown in FIG. 16B (step S63). If it is determined by this determination that the pixel is within the corresponding range, it is determined that the current pixel i is a finger region (step S64). If it is determined that it is not within the corresponding range, it is determined that the current pixel i is not a finger region (step S65).

ステップS64、S65の判断の後は、画素番号iを1つ加算し(ステップS66)、その加算した画素番号iが最後の画素番号よりも大きな値であるか否か判断し(ステップS67)、最後の画素番号よりも大きな値でない場合には、ステップS62に戻る。このようにして、手指の領域である肌色領域が画像データから抽出される。   After the determination in steps S64 and S65, one pixel number i is added (step S66), and it is determined whether or not the added pixel number i is larger than the last pixel number (step S67). If the value is not larger than the last pixel number, the process returns to step S62. In this way, the skin color region that is the finger region is extracted from the image data.

図17は、画像データ内の各画素から爪の領域を抽出する具体的な処理例を示したものである。
まず、画素番号iを0に設定し(ステップS71)、その画素番号の個人表色系で示される値(a,b)を算出する(ステップS72)。その求めた値(a,b)の内の軸Bで示される値Sbが、爪の範囲NA内に相当する値であるか否か判断される(ステップS73)。ここでの爪の範囲NA内に相当する値とは、例えば図18に示した値b2から値b3までの範囲内の値であるかの判断である。この判断で、該当する範囲内であると判断した場合には、現在の画素iが爪の領域であると判定する(ステップS74)。該当する範囲内でないと判断した場合には、現在の画素iが爪の領域でないと判定する(ステップS75)。
FIG. 17 shows a specific processing example for extracting the nail region from each pixel in the image data.
First, the pixel number i is set to 0 (step S71), and the value (a, b) indicated by the personal color system of the pixel number is calculated (step S72). It is determined whether or not the value Sb indicated by the axis B in the obtained values (a, b) is a value corresponding to the nail range NA (step S73). Here, the value corresponding to the nail range NA is, for example, determination of whether the value is within the range from the value b2 to the value b3 shown in FIG. If it is determined by this determination that the pixel is within the corresponding range, it is determined that the current pixel i is a nail region (step S74). If it is determined that it is not within the corresponding range, it is determined that the current pixel i is not a nail region (step S75).

ステップS74、S75の判断の後は、画素番号iを1つ加算し(ステップS76)、その加算した画素番号iが最後の画素番号よりも大きな値であるか否か判断し(ステップS77)、最後の画素番号よりも大きな値でない場合には、ステップS72に戻る。このようにして、爪の領域が画像データから抽出される。
なお、図16の手指領域を抽出する処理と、図17の爪領域を抽出する処理は、1つの処理として同時に行うようにしてもよい。
このようにして爪領域を抽出することで、撮影された画像から正確に爪を検出することができる。
After the determination in steps S74 and S75, one pixel number i is added (step S76), and it is determined whether or not the added pixel number i is larger than the last pixel number (step S77). If the value is not larger than the last pixel number, the process returns to step S72. In this way, the nail region is extracted from the image data.
Note that the processing for extracting the finger region in FIG. 16 and the processing for extracting the nail region in FIG. 17 may be performed simultaneously as one processing.
By extracting the nail region in this manner, the nail can be accurately detected from the captured image.

以上説明したように、本実施の形態によると、画像から手指の輪郭又は範囲を検出して、その輪郭などで示される手指内の爪の位置を検出して、手指の形状と爪の位置とに基づいて、手指の形状を推定するようにしたので、非常に正確に手指の形状を推定することができる。即ち、手指の輪郭だけの場合には、指の関節の曲がり具合や、手首の曲がり具合を誤って推定される可能性があったが、本実施の形態の場合には、そのような誤った推定を極力少なくすることができる。
さらに本実施の形態の場合には、手指の検出と爪の検出を、個人表色系に変換した色空間で行うようにしたので、図16(a),(b)で説明したように、抽出される肌色領域にノイズ成分が少なく、良好な検出が行える。しかも、検出する領域がX軸とY軸で示される通常の色空間で示される領域よりも非常に小さい領域であるので、手指領域や爪領域を抽出するための図16及び図17のフローチャートに示した処理が、少ない演算処理量で行え、それぞれの抽出処理が高速に行える。
As described above, according to the present embodiment, the contour or range of the finger is detected from the image, the position of the nail in the finger indicated by the contour or the like is detected, and the shape of the finger and the position of the nail are determined. Since the shape of the finger is estimated based on the above, the shape of the finger can be estimated very accurately. That is, in the case of only the contour of the finger, there is a possibility that the bending state of the finger joint and the bending state of the wrist may be erroneously estimated. The estimation can be reduced as much as possible.
Further, in the case of the present embodiment, the finger detection and the nail detection are performed in the color space converted into the personal color system, so as described in FIGS. 16 (a) and 16 (b), There are few noise components in the extracted skin color area, and good detection can be performed. Moreover, since the area to be detected is much smaller than the area indicated by the normal color space indicated by the X axis and the Y axis, the flowcharts of FIGS. 16 and 17 for extracting the finger area and the nail area are shown. The processing shown can be performed with a small amount of calculation processing, and each extraction processing can be performed at high speed.

なお、上述した実施の形態では、個人表色系の特性を検出するために、実際に肌を撮影した画像から、個人表色系の変換特性を算出する初期調整を行うようにしたが、その他の処理構成で、個人表色系の変換特性を設定するようにしてもよい。例えば、検出対象者自身で、操作を行う前に、各自の肌色に応じて選択するようにしてもよい。具体的には、初期設定操作として、ボタン操作などで「肌の色は白い方ですか、黒い方ですか、普通ですか」などの複数種類の中から選択させる構成として、それぞれの肌の色に応じた個人表色系の変換特性を設定するようにしてもよい。また、黄色人種、白人、黒人などの人種によっても、個人表色系の変換特性は異なるので、そのような人種を設定する操作で、個人表色系の変換特性を設定するようにしてもよい。   In the above-described embodiment, in order to detect the characteristics of the personal color system, initial adjustment for calculating the conversion characteristics of the personal color system is performed from an image obtained by actually photographing the skin. With this processing configuration, the conversion characteristics of the personal color system may be set. For example, the person to be detected may make a selection according to his / her skin color before performing the operation. Specifically, as an initial setting operation, each skin color can be selected from multiple types such as “Is the skin color white, black, or normal” by operating buttons, etc. The conversion characteristics of the personal color system may be set according to the above. In addition, the conversion characteristics of the personal color system differ depending on the race, such as yellow, white, and black, so the conversion characteristics of the personal color system should be set in the operation for setting such a race. May be.

また、上述した実施の形態では、データベース構築時に爪位置を検出する処理として、データグローブの上に、指の爪がある位置に爪に相当する印を赤色などで付けて、その爪の印を検出して爪位置を検出するようにしたが、別の処理で爪位置を検出するようにしてもよい。例えば、手指の形状を示すデータをデータベースに取り込んだ後に、データベース上のそれぞれのデータに基づいて、コンピュータグラフィックで手指の三次元画像を生成させて表示させる。そして、その画像を操作者が確認しながら、三次元画像中の手指に爪を貼り付ける処理を操作者の操作で行って、その操作で設定された爪の位置を、爪の位置データとして使用してもよい。   In the embodiment described above, as a process for detecting the position of the nail when the database is constructed, a mark corresponding to the nail is attached to the position where the fingernail is located on the data glove in red or the like, and the mark of the nail is marked. The nail position is detected and detected, but the nail position may be detected by another process. For example, after data indicating the shape of a finger is taken into a database, a three-dimensional image of the finger is generated and displayed by computer graphics based on the data on the database. Then, while the operator confirms the image, the process of attaching the nail to the finger in the three-dimensional image is performed by the operator, and the nail position set by the operation is used as the nail position data. May be.

また、上述した実施の形態では、画像から推定した手指の形状に基づいて、ロボットハンドの各関節を対応した状態に制御する処理構成としたが、他の各種機器の動作などを、同様な手指の形状推定に基づいて行うようにしてもよい。   In the above-described embodiment, the processing configuration is such that the joints of the robot hand are controlled to correspond to each other based on the shape of the fingers estimated from the image. It may be performed based on the shape estimation.

また、上述した実施の形態では、データベース装置10や手指形状推定装置20は、専用の装置として構成した例について説明したが、例えば各種データ処理を行うパーソナルコンピュータ装置に、カメラなどの必要な周辺機器を接続した上で、本発明によるデータベース化や、そのデータベースを参照しながらの手指形状の判別(推定)処理を行うソフトウェア(プログラム)を実装させて、本発明の処理を行う構成としてもよい。この場合、本発明の処理を実行するプログラムは、光ディスクや半導体メモリなどの媒体で配布する他に、インターネットなどの伝送手段を介してダウンロードさせる構成としてもよい。   In the above-described embodiment, the database device 10 and the finger shape estimation device 20 are described as examples configured as dedicated devices. However, for example, a personal computer device that performs various data processing, and a necessary peripheral device such as a camera. It is also possible to implement the processing of the present invention by mounting software (program) for creating a database according to the present invention and performing finger shape discrimination (estimation) processing while referring to the database. In this case, the program for executing the processing of the present invention may be configured to be downloaded via a transmission means such as the Internet, in addition to being distributed on a medium such as an optical disk or a semiconductor memory.

本発明の一実施の形態によるシステム構成例を示すブロック図である。It is a block diagram which shows the system configuration example by one embodiment of this invention. 本発明の一実施の形態によるデータベースの構築に利用するデータグローブの例を示す説明図である。It is explanatory drawing which shows the example of the data glove utilized for construction of the database by one embodiment of this invention. 本発明の一実施の形態により制御されるロボットハンドの例を示す斜視図である。It is a perspective view which shows the example of the robot hand controlled by one embodiment of this invention. 本発明の一実施の形態によりHMDの画像を制御する例を示す斜視図である。It is a perspective view which shows the example which controls the image of HMD by one embodiment of this invention. 図4のHDMにより推定される手指形状(a)と、その推定されて手指形状に基づいて表示される画像の例を示す説明図である。It is explanatory drawing which shows the example of the finger shape (a) estimated by HDM of FIG. 4, and the image displayed based on the estimated finger shape. 本発明の一実施の形態によるデータベース構築処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the database construction process by one embodiment of this invention. 本発明の一実施の形態による初期設定処理例を示すフローチャートである。It is a flowchart which shows the example of an initial setting process by one embodiment of this invention. 本発明の一実施の形態による手指判別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the finger discrimination process by one embodiment of this invention. 本発明の一実施の形態によるデータベース構築時の画像特徴量抽出処理例を示すフローチャートである。It is a flowchart which shows the image feature-value extraction process example at the time of the database construction by one embodiment of this invention. 本発明の一実施の形態による高次局所自己相関特徴のための局所パターンの例を示す説明図である。It is explanatory drawing which shows the example of the local pattern for the high-order local autocorrelation characteristic by one embodiment of this invention. 本発明の一実施の形態によるデータベース構築時の爪位置算出処理例を示すフローチャートである。It is a flowchart which shows the nail | claw position calculation process example at the time of the database construction by one embodiment of this invention. 本発明の一実施の形態による個人表色系の作成処理例を示すフローチャートである。It is a flowchart which shows the creation processing example of the personal color system by one embodiment of this invention. 本発明の一実施の形態による個人表色系を利用して爪の重心位置を抽出した例を示した説明図である。It is explanatory drawing which showed the example which extracted the gravity center position of the nail | claw using the personal color system by one embodiment of this invention. 本発明の一実施の形態による手指形状推定時の画像特徴量抽出処理例を示すフローチャートである。It is a flowchart which shows the image feature-value extraction process example at the time of the finger shape estimation by one embodiment of this invention. 本発明の一実施の形態による手指形状推定時の爪位置算出処理例を示すフローチャートである。It is a flowchart which shows the nail | claw position calculation process example at the time of the finger shape estimation by one embodiment of this invention. 本発明の一実施の形態による画像から手指領域を抽出する処理例を示すフローチャートである。It is a flowchart which shows the example of a process which extracts a finger area | region from the image by one embodiment of this invention. 本発明の一実施の形態による画像から爪領域を抽出する処理例を示すフローチャートである。It is a flowchart which shows the process example which extracts a nail | claw area | region from the image by one embodiment of this invention. 本発明の一実施の形態による肌色領域と爪領域の例を示す特性図である。It is a characteristic view which shows the example of the skin color area | region and nail | claw area | region by one embodiment of this invention. 本発明の一実施の形態による個人表色系を示した特性図である。It is the characteristic view which showed the personal color system by one embodiment of this invention.

符号の説明Explanation of symbols

10…データベース装置、11…画像データ記憶手段、12…画像特徴量抽出手段、13…爪位置算出手段、14…画像及び爪位置対応動作指令記憶手段、15…サンプリング手段、16…時系列関節角度データ記憶手段、20…手指形状記憶手段、21…個人表色系変換手段、23…画像データ記憶手段、24…画像特徴量抽出手段、25…爪位置算出手段、26…データ特定及び動作指令発生手段、27…駆動手段、31,32…ビデオカメラ、40…データグローブ、41…角度センサ、50…ロボットハンド、51…支持部、52…関節用アクチュエータ、90…カメラ付きHMD、91…3軸位置センサ、92…3次元仮想物体、93R…3次元CGによる右手、93L…3次元CGによる左手   DESCRIPTION OF SYMBOLS 10 ... Database apparatus, 11 ... Image data storage means, 12 ... Image feature-value extraction means, 13 ... Nail position calculation means, 14 ... Image and nail position corresponding | compatible operation command storage means, 15 ... Sampling means, 16 ... Time series joint angle Data storage means, 20 ... finger shape storage means, 21 ... personal color system conversion means, 23 ... image data storage means, 24 ... image feature quantity extraction means, 25 ... nail position calculation means, 26 ... data specification and operation command generation Means 27: Driving means 31, 32 ... Video camera, 40 ... Data glove, 41 ... Angle sensor, 50 ... Robot hand, 51 ... Supporting part, 52 ... Actuator for joint, 90 ... HMD with camera, 91 ... 3-axis Position sensor, 92 ... 3D virtual object, 93R ... Right hand with 3D CG, 93L ... Left hand with 3D CG

Claims (10)

手指の種々の形状に対応した画像データと、前記画像データで示される形状のときの爪の位置を示す爪位置データとを記憶するデータベースと、
検出対象の手指を撮影して得た画像データから、爪の位置を検出する爪検出手段と、
前記爪検出手段で検出された爪の位置を、前記データベースに記憶された爪位置データと照合する照合手段と、
前記照合手段でほぼ一致が検出された爪位置データに基づいて、その爪位置データに対応して前記データベースに記憶された画像データを読み出し、その画像データで示される手指形状を、前記検出対象の手指の形状として推定する推定手段とを備えることを特徴とする手指形状推定装置。
A database for storing image data corresponding to various shapes of fingers and nail position data indicating the position of the nail when the shape is indicated by the image data;
Nail detection means for detecting the position of the nail from image data obtained by photographing the detection target finger;
Collation means for collating the position of the nail detected by the nail detection means with the nail position data stored in the database;
Based on the nail position data in which the match is detected by the collating means, the image data stored in the database corresponding to the nail position data is read, and the finger shape indicated by the image data is determined as the detection target. An apparatus for estimating a finger shape, comprising: estimation means for estimating the shape of a finger.
請求項1記載の手指形状推定装置において、
前記データベースは、手指の輪郭情報を併せて記憶し、前記データベースに記憶された爪位置データと手指の輪郭情報の両方を照合する手指形状推定装置。
The finger shape estimation apparatus according to claim 1,
The database is a finger shape estimation device for storing finger contour information together and collating both nail position data and finger contour information stored in the database.
請求項1記載の手指形状推定装置において、
前記データベースは、画像データに対応した手指の形状データを記憶することを特徴とする手指形状推定装置。
The finger shape estimation apparatus according to claim 1,
The finger shape estimation apparatus, wherein the database stores finger shape data corresponding to image data.
請求項3記載の手指形状推定装置において、
前記手指の形状データは、手指の関節角度データを記憶し、前記照合手段で照合された爪位置データに対応して前記データベースに記憶された関節の角度データから、前記推定手段で手指の関節角度を推定することを特徴とする手指形状推定装置。
In the finger shape estimation apparatus according to claim 3,
The finger shape data stores finger joint angle data, and from the joint angle data stored in the database corresponding to the nail position data collated by the collating unit, the joint angle of the finger by the estimating unit The finger shape estimation apparatus characterized by estimating.
請求項3記載の手指形状推定装置において、
前記手指の形状データは、3次元座標データを記憶し、前記照合手段で照合された爪位置データに対応して前記データベースに記憶された3次元座標データから、前記推定手段で手指の3次元座標データを推定することを特徴とする手指形状推定装置。
In the finger shape estimation apparatus according to claim 3,
The shape data of the finger stores three-dimensional coordinate data, and the three-dimensional coordinate of the finger is estimated by the estimation unit from the three-dimensional coordinate data stored in the database corresponding to the nail position data verified by the verification unit. A finger shape estimation apparatus characterized by estimating data.
請求項1記載の手指形状推定装置において、
前記爪検出手段は、検出対象の手指を撮影して得た画像データから、手指の肌色部分と、その肌色部分に含まれる爪の色の部分とを抽出して、抽出された爪の色の部分から爪の位置を検出することを特徴とする手指形状推定装置。
The finger shape estimation apparatus according to claim 1,
The nail detection means extracts the skin color portion of the finger and the nail color portion included in the skin color portion from the image data obtained by photographing the finger to be detected, and extracts the nail color of the extracted nail color. A finger shape estimation device characterized by detecting a position of a nail from a portion.
請求項6記載の手指形状推定装置において、
前記爪検出手段は、検出対象の手指の色分布領域の近傍を通過する第1の軸と、前記第1の軸と直交する第2の軸とで表現される色空間により爪の領域を抽出することを特徴とする手指形状推定装置。
The finger shape estimation apparatus according to claim 6,
The nail detection means extracts a nail region from a color space expressed by a first axis passing near the color distribution region of a finger to be detected and a second axis orthogonal to the first axis. A finger shape estimation device.
請求項7記載の手指形状推定装置において、
前記第1及び第2の軸で設定される色空間の各軸の角度位置は、予め検出対象者の肌色部分を撮影した画像データに基づいて設定することを特徴とする手指形状推定装置。
The finger shape estimation apparatus according to claim 7,
The finger shape estimation apparatus according to claim 1, wherein the angular position of each axis of the color space set by the first and second axes is set based on image data obtained by photographing a skin color portion of the detection subject in advance.
手指の種々の形状に対応した画像データと、前記画像データで示される形状のときの爪の位置を示す爪位置データとを記憶してデータベースを構成させるデータベース構成処理と、
検出対象の手指を撮影して得た画像データから、爪の位置を検出する爪位置検出処理と、
前記爪検出処理で検出された爪の位置を、前記データベースに記憶された爪位置データと照合する照合処理と、
前記照合処理でほぼ一致が検出された爪位置データに基づいて、その爪位置データに対応して前記データベースに記憶された画像データを読み出し、その画像データで示される手指形状を、前記検出対象の手指の形状として判定する判定処理とを具備することを特徴とする手指形状推定方法。
Database configuration processing for storing image data corresponding to various shapes of fingers and nail position data indicating the position of the nail when the shape is indicated by the image data, and configuring a database;
Nail position detection processing for detecting the position of the nail from image data obtained by photographing the finger of the detection target;
A collation process for collating the nail position detected in the nail detection process with the nail position data stored in the database;
Based on the nail position data for which a match is detected in the matching process, the image data stored in the database corresponding to the nail position data is read, and the finger shape indicated by the image data is determined as the detection target. A finger shape estimation method comprising: determination processing for determining a finger shape.
コンピュータ装置に実装して処理を実行させるプログラムにおいて、
手指の種々の形状に対応した画像データと、前記画像データで示される形状のときの爪の位置を示す爪位置データとを記憶してデータベースを構成させるデータベース構成処理と、
検出対象の手指を撮影して得た画像データから、爪の位置を検出する爪位置検出処理と、
前記爪検出処理で検出された爪の位置を、前記データベースに記憶された爪位置データと照合する照合処理と、
前記照合処理でほぼ一致が検出された爪位置データに基づいて、その爪位置データに対応して前記データベースに記憶された画像データを読み出し、その画像データで示される手指形状を、前記検出対象の手指の形状として推定する推定処理とを実行させることを特徴とするプログラム。
In a program that is mounted on a computer device and executes processing,
Database configuration processing for storing image data corresponding to various shapes of fingers and nail position data indicating the position of the nail when the shape is indicated by the image data, and configuring a database;
Nail position detection processing for detecting the position of the nail from image data obtained by photographing the finger of the detection target;
A collation process for collating the position of the nail detected in the nail detection process with the nail position data stored in the database;
Based on the nail position data for which a match is detected in the matching process, the image data stored in the database corresponding to the nail position data is read, and the finger shape indicated by the image data is determined as the detection target. A program for executing estimation processing for estimating the shape of a finger.
JP2007165689A 2007-06-22 2007-06-22 Nail position data detection device, nail position data detection method, and nail position data detection program Expired - Fee Related JP5526465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007165689A JP5526465B2 (en) 2007-06-22 2007-06-22 Nail position data detection device, nail position data detection method, and nail position data detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007165689A JP5526465B2 (en) 2007-06-22 2007-06-22 Nail position data detection device, nail position data detection method, and nail position data detection program

Publications (2)

Publication Number Publication Date
JP2009003813A true JP2009003813A (en) 2009-01-08
JP5526465B2 JP5526465B2 (en) 2014-06-18

Family

ID=40320112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007165689A Expired - Fee Related JP5526465B2 (en) 2007-06-22 2007-06-22 Nail position data detection device, nail position data detection method, and nail position data detection program

Country Status (1)

Country Link
JP (1) JP5526465B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265809A (en) * 2008-04-23 2009-11-12 Kddi Corp Information terminal device
WO2010079708A1 (en) 2009-01-09 2010-07-15 三菱伸銅株式会社 High-strength high-conductivity copper alloy rolled sheet and method for producing same
WO2011065035A1 (en) * 2009-11-24 2011-06-03 株式会社豊田自動織機 Method of creating teaching data for robot, and teaching system for robot
JP2011110620A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of controlling action of robot, and robot system
WO2013051681A1 (en) * 2011-10-07 2013-04-11 国立大学法人筑波大学 Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP2015084261A (en) * 2015-02-05 2015-04-30 キヤノン株式会社 Imaging apparatus, control method and program thereof, and recording medium
EP3174012A1 (en) * 2015-11-27 2017-05-31 Holition Limited Locating and tracking fingernails in images
JP2018142273A (en) * 2017-02-28 2018-09-13 キヤノン株式会社 Information processing apparatus, method for controlling information processing apparatus, and program
CN109558784A (en) * 2017-09-27 2019-04-02 卡西欧计算机株式会社 Nail outline detection device, nail outline detection method and recording medium
CN113888620A (en) * 2021-09-29 2022-01-04 武汉联影智融医疗科技有限公司 Bone nail mark point extraction method and device, processing equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269360A (en) * 1997-03-26 1998-10-09 Toppan Printing Co Ltd Method and device for extracting image area and image processor
JP2000132305A (en) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd Operation input device
JP2002209082A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Image processing unit, image processing method, image processing program and computer-readable recording medium with the image processing program recorded thereon
JP2006039845A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Method and device for classifying flesh color area, device and method for changing surface reflection component, and program
JP2007036747A (en) * 2005-07-27 2007-02-08 Fuji Xerox Co Ltd Color prediction method, color prediction apparatus, and color prediction program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269360A (en) * 1997-03-26 1998-10-09 Toppan Printing Co Ltd Method and device for extracting image area and image processor
JP2000132305A (en) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd Operation input device
JP2002209082A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Image processing unit, image processing method, image processing program and computer-readable recording medium with the image processing program recorded thereon
JP2006039845A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Method and device for classifying flesh color area, device and method for changing surface reflection component, and program
JP2007036747A (en) * 2005-07-27 2007-02-08 Fuji Xerox Co Ltd Color prediction method, color prediction apparatus, and color prediction program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200902256052; 藤原 清司: '色情報を用いた手指姿勢の推定による指示伝達' 第16回日本ロボット学会学術講演会予稿集 第2分冊 , 19980918, p.769〜770, 社団法人日本ロボット学会 *
CSNG201010014209; 木下 晶雄: 'カラー濃淡画像からの手領域の抽出と指先位置の特定方法' 電子情報通信学会1997年総合大会講演論文集 , 19970306, p.209, 電子情報通信学会 *
JPN6012013617; 藤原 清司: '色情報を用いた手指姿勢の推定による指示伝達' 第16回日本ロボット学会学術講演会予稿集 第2分冊 , 19980918, p.769〜770, 社団法人日本ロボット学会 *
JPN6012013619; 木下 晶雄: 'カラー濃淡画像からの手領域の抽出と指先位置の特定方法' 電子情報通信学会1997年総合大会講演論文集 , 19970306, p.209, 電子情報通信学会 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265809A (en) * 2008-04-23 2009-11-12 Kddi Corp Information terminal device
WO2010079708A1 (en) 2009-01-09 2010-07-15 三菱伸銅株式会社 High-strength high-conductivity copper alloy rolled sheet and method for producing same
WO2011065035A1 (en) * 2009-11-24 2011-06-03 株式会社豊田自動織機 Method of creating teaching data for robot, and teaching system for robot
JP2011110620A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of controlling action of robot, and robot system
JP2011110621A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of producing teaching data of robot and robot teaching system
CN102470530A (en) * 2009-11-24 2012-05-23 株式会社丰田自动织机 Method of producing teaching data of robot and robot teaching system
WO2013051681A1 (en) * 2011-10-07 2013-04-11 国立大学法人筑波大学 Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JPWO2013051681A1 (en) * 2011-10-07 2015-03-30 国立大学法人 筑波大学 Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP2015084261A (en) * 2015-02-05 2015-04-30 キヤノン株式会社 Imaging apparatus, control method and program thereof, and recording medium
EP3174012A1 (en) * 2015-11-27 2017-05-31 Holition Limited Locating and tracking fingernails in images
GB2544971A (en) * 2015-11-27 2017-06-07 Holition Ltd Locating and tracking fingernails in images
GB2544971B (en) * 2015-11-27 2017-12-27 Holition Ltd Locating and tracking fingernails in images
US9959462B2 (en) 2015-11-27 2018-05-01 Holition Limited Locating and tracking fingernails in images
JP2018142273A (en) * 2017-02-28 2018-09-13 キヤノン株式会社 Information processing apparatus, method for controlling information processing apparatus, and program
CN109558784A (en) * 2017-09-27 2019-04-02 卡西欧计算机株式会社 Nail outline detection device, nail outline detection method and recording medium
CN109558784B (en) * 2017-09-27 2023-05-30 卡西欧计算机株式会社 Nail contour detection device, nail contour detection method, and recording medium
CN113888620A (en) * 2021-09-29 2022-01-04 武汉联影智融医疗科技有限公司 Bone nail mark point extraction method and device, processing equipment and storage medium

Also Published As

Publication number Publication date
JP5526465B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5526465B2 (en) Nail position data detection device, nail position data detection method, and nail position data detection program
CN103140879B (en) Information presentation device, digital camera, head mounted display, projecting apparatus, information demonstrating method and information are presented program
JP4829141B2 (en) Gaze detection apparatus and method
KR101687017B1 (en) Hand localization system and the method using head worn RGB-D camera, user interaction system
JP5205187B2 (en) Input system and input method
JP5931215B2 (en) Method and apparatus for estimating posture
JP5877053B2 (en) Posture estimation apparatus and posture estimation method
JP2010519629A (en) Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking
JP2011095797A (en) Image processing device, image processing method and program
JP5595655B2 (en) Image processing apparatus and image processing method
KR20110139694A (en) Method and system for gesture recognition
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP6823403B2 (en) Information processing device, control method of information processing device, information processing method and program
JP2010113530A (en) Image recognition device and program
JP3732757B2 (en) Image recognition method and image recognition apparatus
JP2005056059A (en) Input device and method using head mounting type display equipped with image pickup part
JP2009258884A (en) User interface
JP5468773B2 (en) Image processing apparatus and image processing method
JP6818968B2 (en) Authoring device, authoring method, and authoring program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP6810442B2 (en) A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program.
JP2019046096A (en) Information processing device and method thereof
JP6929043B2 (en) Image processing device, image processing method
JP5068711B2 (en) Object shape recognition system and object shape recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130618

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130626

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R150 Certificate of patent or registration of utility model

Ref document number: 5526465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees