JP5526465B2 - Nail position data detection device, nail position data detection method, and nail position data detection program - Google Patents
Nail position data detection device, nail position data detection method, and nail position data detection program Download PDFInfo
- Publication number
- JP5526465B2 JP5526465B2 JP2007165689A JP2007165689A JP5526465B2 JP 5526465 B2 JP5526465 B2 JP 5526465B2 JP 2007165689 A JP2007165689 A JP 2007165689A JP 2007165689 A JP2007165689 A JP 2007165689A JP 5526465 B2 JP5526465 B2 JP 5526465B2
- Authority
- JP
- Japan
- Prior art keywords
- axis
- nail
- finger
- color
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、例えばロボットあるいは仮想物体の手指を駆動制御するのに好適な爪位置データ検出装置及び爪位置データ検出方法、並びにその検出方法を実行させる爪位置データ検出プログラムに関する。 The present invention relates to a nail position data detection device and a nail position data detection method suitable for driving and controlling a finger of a robot or a virtual object, for example, and a nail position data detection program for executing the detection method.
近年、人間の手指と類似した形状の多指型のロボットハンドが開発されている。その多指型のロボットハンドは、人間の手と同様に関節が動く構成とすることで、人間の手と同様に物を掴むなどの作業が可能となり、高度な作業が行える。このロボットハンドの動作を制御する手法の1つとして、操作者の手指をカメラで撮影して、そのカメラで撮影した手指の画像から推定した手指の形状と同じ形状を、ロボットハンドで再現させることが提案されている。
特許文献1には、本発明の発明者らが先に提案した、手指の画像から手指の形状を推定して、ロボットハンドを制御する手法についての記載がある。特許文献1に記載された手法では、手指を撮影した画像から、手指の輪郭を検出し、その輪郭から手指の形状を推定するようにしている。
Japanese Patent Laid-Open No. 2004-228688 describes a technique for controlling a robot hand by estimating the shape of a finger from an image of a finger previously proposed by the inventors of the present invention. In the technique described in Patent Document 1, the contour of a finger is detected from an image obtained by photographing the finger, and the shape of the finger is estimated from the contour.
ところで、特許文献1に記載したように、手指を撮影した画像から、手指の輪郭を検出することで、それなりの精度で手指の形状を推定することができるが、手首関節動作などを伴った手指の形状推定では、手指の各関節の角度を、誤って推定してしまうことがあった。具体的には、手指の輪郭だけでは、掌が見えているのか、あるいは手の甲が見えているのか、判別するのが困難な場合がある。さらに、指を曲げた状態の画像から、1つ1つの指の関節の角度を正確に判断するのが困難な場合が存在する。 By the way, as described in Patent Document 1, it is possible to estimate the shape of a finger with a certain degree of accuracy by detecting the contour of the finger from an image obtained by photographing the finger. In the shape estimation, the angles of the joints of the fingers may be erroneously estimated. Specifically, it may be difficult to determine whether the palm or the back of the hand is visible only by the contours of the fingers. Furthermore, there are cases where it is difficult to accurately determine the angle of each finger joint from an image of a finger bent.
本発明はかかる点に鑑みてなされたものであり、手指をカメラで撮影した画像から、その手指の形状をより正確に推定できるようにすることを目的とする。 The present invention has been made in view of such a point, and an object thereof is to more accurately estimate the shape of a finger from an image obtained by photographing the finger with a camera.
本発明は、検出対象の手指を撮影して得た検出対象者毎の画像データの色成分を、検出対象の手指の色分布領域を通過する第1の軸と、第1の軸と直交する第2の軸とで表現される色空間に変換し、変換して得た第1の軸及び第2の軸で表現される色空間から、第1の軸上の位置と前記第2の軸上の位置を領域抽出のための情報として用いて特定の色の領域を爪の領域として抽出して、爪の位置を示す爪位置データを得るものである。 In the present invention, a color component of image data for each detection target person obtained by photographing a detection target finger is orthogonal to the first axis passing through the color distribution region of the detection target finger and the first axis. The position on the first axis and the second axis are obtained from the color space expressed by the first axis and the second axis obtained by converting to the color space expressed by the second axis. The upper position is used as information for region extraction, a specific color region is extracted as a nail region, and nail position data indicating the position of the nail is obtained.
本発明によると撮影して得た手指の画像データから検出した爪位置を利用して、正確な手指形状の推定が可能となる。従って、撮影した画像から推定した手指形状に基づいて、各種機器の高度な制御が可能となる。
例えば、推定した手指の形状を、ロボットハンドに再現させる制御を行うことで、ロボットハンドの制御を、操作者の手指の動きから簡単かつ正確に行えるようになる。
また、撮影した画像から推定した手指形状に基づいて、手の3次元CGモデルを動作させることが可能となる。手の3次元CGモデルに当たり判定などの機能を付加することにより、コンピュータ内の仮想世界で3次元の物体操作が行えるようになる。
According to the present invention, it is possible to accurately estimate a finger shape using a nail position detected from finger image data obtained by photographing. Therefore, advanced control of various devices is possible based on the finger shape estimated from the captured image.
For example, by controlling the robot hand to reproduce the estimated finger shape, the robot hand can be controlled easily and accurately from the movement of the operator's finger.
In addition, the three-dimensional CG model of the hand can be operated based on the finger shape estimated from the captured image. By adding a function such as hit determination to the three-dimensional CG model of the hand, a three-dimensional object operation can be performed in the virtual world in the computer.
また、手指の爪位置情報と輪郭情報を併せて記憶し、前記データベースに記憶された爪位置データと手指の輪郭情報の両方を照合に用いることにより、手指の各関節の角度を正確に推定できるようになる。 In addition, the finger nail position information and the contour information are stored together, and the angle of each joint of the finger can be accurately estimated by using both the nail position data stored in the database and the finger contour information for collation. It becomes like this.
この場合、データベースとして、画像データに対応した手指の関節の角度データまたは3次元座標データを記憶して、照合で一致が検出された爪位置データに対応してデータベースに記憶された関節の角度データまたは3次元座標データから、手指の関節角度を推定することで、ロボットハンドや手指のCGを正確に駆動することが可能となる。 In this case, the joint joint angle data or three-dimensional coordinate data corresponding to the image data is stored as the database, and the joint angle data stored in the database corresponding to the nail position data in which matching is detected by the collation. Alternatively, it is possible to accurately drive the robot hand and the finger CG by estimating the joint angle of the finger from the three-dimensional coordinate data.
また、データベースに記憶された手指の関節の角度データあるいは3次元座標データは、手指の各関節にセンサを取付けたいわゆるデータグローブや磁気センサなどを使用して、簡単にデータベース用の関節角度データあるいは3次元座標データを得ることが可能となる。 In addition, the joint joint angle data or the three-dimensional coordinate data stored in the database can be easily obtained by using a so-called data glove or magnetic sensor with a sensor attached to each joint of the fingers. It becomes possible to obtain three-dimensional coordinate data.
また、検出対象の手指を撮影して得た画像データから、手指の肌色部分と、その肌色部分に含まれる爪の色の部分とを抽出して、抽出された爪の色の部分から爪の位置を検出することで、爪の検出を効率よく行うことが可能となる。 Further, the skin color portion of the finger and the nail color portion included in the skin color portion are extracted from the image data obtained by photographing the detection target finger, and the nail color portion is extracted from the extracted nail color portion. By detecting the position, it is possible to efficiently detect the nail.
また、この肌色部分から爪の色の部分を検出する場合に、検出対象の手指の肌色部分の近傍を通過する第1の軸と、この第1の軸と直交する第2の軸とで表現される領域により画像データの色空間を定義し、その定義した肌色部分から爪の色の部分を抽出することで、推定誤差の少ない状態で正確に爪の色の部分を抽出することができ、検出精度が向上する。また、肌色部分に無駄なデータが少ないため、爪の色の部分を抽出するための演算処理量を削減でき、高速に爪の部分を検出することが可能となる。 Further, when detecting the nail color portion from the skin color portion, it is expressed by a first axis passing through the vicinity of the skin color portion of the finger to be detected and a second axis orthogonal to the first axis. By defining the color space of the image data according to the area to be extracted and extracting the nail color part from the defined skin color part, the nail color part can be accurately extracted with little estimation error, Detection accuracy is improved. Further, since there is little useless data in the skin color portion, the amount of calculation processing for extracting the nail color portion can be reduced, and the nail portion can be detected at high speed.
さらに、この第1の軸と第2の軸を設定する場合に、第1及び第2の軸で設定される色空間の各軸の角度位置は、予め検出対象者の肌色部分を撮影した画像データに基づいて設定することで、個々の検出対象者の肌の色の違いによる誤差をなくした精度の高い検出が可能となる。 Further, when setting the first axis and the second axis, the angular position of each axis of the color space set by the first and second axes is an image obtained by photographing the skin color portion of the detection subject in advance. By setting based on the data, it is possible to perform highly accurate detection that eliminates errors due to differences in skin color of individual detection subjects.
以下、本発明の一実施の形態を、添付図面を参照して説明する。
本実施の形態においては、検出対象の手指をビデオカメラで撮影して、その撮影した画像から、手指の形状や関節の角度を推定するものである。推定した手指の形状や関節の角度のデータは、ロボットハンドや手の3次元CGモデルなどの各種装置の制御に使用する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
In this embodiment, a finger to be detected is photographed with a video camera, and the shape of the finger and the joint angle are estimated from the photographed image. The estimated finger shape and joint angle data are used to control various devices such as a robot hand and a three-dimensional CG model of the hand.
まず、図1を参照して装置のシステム構成を説明する。本実施の形態の装置は、図1に示すように、手指の形状などのデータを記憶したデータベース装置10と、そのデータベース装置10に記憶されたデータを参照しながら手指の形状を推定する手指推定装置20とで構成される。データベース装置10と手指推定装置20は、図1では別体の装置として構成させてあるが、一体化して構成してもよい。 First, the system configuration of the apparatus will be described with reference to FIG. As shown in FIG. 1, the apparatus according to the present embodiment includes a database device 10 that stores data such as the shape of a finger, and a hand estimation that estimates the shape of a finger while referring to the data stored in the database device 10. The apparatus 20 is comprised. Although the database device 10 and the finger estimation device 20 are configured as separate devices in FIG. 1, they may be configured integrally.
データベース装置10は、手指の様々な形状についてのデータを記憶する手段である。本例の場合には、ビデオカメラ31が撮影した画像データと、データグローブ40に取り付けられた各センサのデータとが供給される。ビデオカメラ31は、データベース用の手指の画像を撮影するものである。データグローブ40は、その画像を撮影する際に、手指に装着されたグローブである。
図2はデータグローブ40の一例を示したものであり、指の各関節に相当する箇所に、その関節が動いた角度を検出するセンサ41が配置してある。また、手首の動きを検出するために、掌の部分にもセンサ41が配置してある。以下の説明で手指の関節の動きと述べた場合には、この手首の動きも含まれる。センサ41は、例えば歪センサを使用する。また、本例のデータグローブ40は、各指の爪に相当する箇所に、データグローブそのものの色(例えば白色)とは異なる色(例えば赤色)で、爪42を書き込んである。
The database device 10 is means for storing data on various shapes of fingers. In the case of this example, image data captured by the
FIG. 2 shows an example of the
図1の説明に戻ると、ビデオカメラ31が撮影した画像データは、画像データ記憶手段11に供給されて、一旦記憶される。記憶された画像データは、画像特徴量抽出手段12に供給されて、画像中の手指の輪郭を抽出するための特徴量の抽出処理が行われる。特徴量の抽出処理については後述する。
爪位置算出手段13では、画像中の指の爪の位置を検出する処理を行う。ここでの爪の位置の検出処理の詳細についても後述するが、簡単に述べるとデータグローブ40に書き込まれた爪の色を検出し、その色を検出した部分を爪の位置とする処理である。爪の位置は、例えば爪の重心位置のデータとする。
画像特徴量抽出手段12で検出された特徴量のデータと、爪位置算出手段13で検出された爪の位置データは、画像及び爪位置対応動作指令記憶手段14に供給して、データベース化して記憶させる。
Returning to the description of FIG. 1, the image data captured by the
The nail position calculation means 13 performs processing for detecting the position of the fingernail in the image. The details of the nail position detection processing here will be described later. Briefly, the nail color written in the
The feature amount data detected by the image feature
また、データグローブ40の各センサの出力を、サンプリング手段15で周期的にサンプリングし、そのサンプリングされたセンサ出力を、時系列関節角度データ記憶手段16に供給して、時系列の関節角度データとして記憶させる。記憶された時系列の関節角度データについても、画像及び爪位置対応動作指令記憶手段14に供給して、データベース化して記憶させる。
Further, the output of each sensor of the
画像及び爪位置対応動作指令記憶手段14でデータベース化する際には、手指の形状のデータと、その形状の際の爪の位置と、その形状の際の手指の各関節の角度データとを、対応づけてデータベース化する。
この記憶手段14に記憶されたデータベースは、手指形状推定装置20からの指示で読み出される。
When creating a database in the image and nail position corresponding operation command storage means 14, the finger shape data, the nail position at the time of the shape, and the angle data of each joint of the finger at the shape, Create a database in association.
The database stored in the
手指形状推定装置20は、ビデオカメラ32で撮影した手指の画像データを、個人表色系変換手段21に供給して、予め決められた変換特性で、画像データの表色系の座標軸を変換する。その変換処理の詳細については後述する。個人表色系変換手段21には、ビデオカメラ32で操作者の手指を撮影する際の初期設定で、変換特性が記憶される。
The finger shape estimation device 20 supplies finger image data captured by the
個人表色系変換手段21で変換された画像データは、画像データ記憶手段23に記憶され、その記憶された画像データから画像特徴量抽出手段24で画像特徴量が抽出され、手指の輪郭が抽出される。また、画像データ記憶手段23に記憶された画像データから爪位置算出手段25で爪の位置が検出される。
画像特徴量抽出手段24で抽出された特徴量のデータと、爪位置算出手段25で検出された爪の位置のデータは、データ特定及び動作指令発生手段26に送られる。データ特定及び動作指令発生手段26では、供給された特徴量のデータと、爪位置のデータとから、データベース装置10に記憶されたデータベース上の類似したデータを検索し、最も近いデータに対応して記憶された関節角度のデータをデータベースから読み出す。
The image data converted by the personal color system conversion means 21 is stored in the image data storage means 23, the image feature quantity is extracted by the image feature quantity extraction means 24 from the stored image data, and the contour of the finger is extracted. Is done. Further, the nail
The feature amount data extracted by the image feature
そして、データベースから読み出された関節角度のデータを、撮影した手指の各関節の角度として推定する。その推定された関節の角度のデータを、ロボットハンドの各関節の動作指令として生成させ、その動作指令をロボットハンドの駆動手段27に送り、対応した状態にロボットハンド50内の各関節のアクチュエータを駆動させる。
なお、図1の構成では、データベース構築用のビデオカメラ31と、実際に手指の形状を推定する際に使用するビデオカメラ32は、別のものを使用したが、同一のカメラを使用してもよい。また、各ビデオカメラ31,32は、例えば毎秒150フレーム程度の高速撮影が可能なものを使用するのが好ましいが、毎秒60フレーム程度の撮影を行う通常のビデオカメラを使用してもよい。
Then, the joint angle data read from the database is estimated as the angle of each joint of the photographed finger. The estimated joint angle data is generated as an operation command for each joint of the robot hand, the operation command is sent to the driving means 27 of the robot hand, and the actuator of each joint in the
In the configuration of FIG. 1, the
図3は、本例の手指形状記憶手段20で推定した手指の形状に基づいて駆動されるロボットハンド50の一例を示したものである。
この図3に示すように、ロボットハンド50は、実際の手指の関節の位置に対応した位置に、関節用アクチュエータ52が配置されたものが、支持部材51で支持される構成としてある。支持部材51内にもアクチュエータ(図示せず)が設けてあり、手首を曲げた状態に対応して、支持部材51でロボットハンドを支持させる角度も調整できる構成としてある。各関節用アクチュエータ52が、データベースから読み出された各関節角度のデータで、対応した角度に設定されるように駆動される。
FIG. 3 shows an example of the
As shown in FIG. 3, the
図4は、本例の手指形状記憶手段20で推定した手指の形状による3次元CGを作成して、その推定した形状の手指により操作されるコンピュータ内の仮想世界での仮想物体を表示させる例を示したものである。仮想物体は、その持ち方や触り方で形状が自在に変形する物体である。
この図4に示すように、操作者の頭部に、カメラ付きHMD(ヘッドマウンテッドディスプレイ)90を装着し、操作者はそのカメラ付きHMD90で表示される画像を、周囲の実画像と重ねて見ることができる。カメラ付きHMD90には、3軸位置センサ91が取付けてあり、その3軸センサ91の出力で、頭部の位置情報を取得し、操作者がどの位置から仮想物体を見ているかの整合を行う。カメラ付きHMD90に取付けられたカメラは、操作者の前方の手元を撮影する構成としてあり、操作者の右手HR及び左手HLを撮影する。図4では、3次元仮想物体92を示してあるが、この3次元仮想物体92は、カメラ付きHMD90を装着した操作者にだけ見えているものである。
FIG. 4 shows an example of creating a three-dimensional CG based on the finger shape estimated by the finger shape storage means 20 of this example and displaying a virtual object in the virtual world in the computer operated by the finger of the estimated shape. Is shown. A virtual object is an object whose shape is freely deformed depending on how to hold or touch it.
As shown in FIG. 4, a camera-equipped HMD (head mounted display) 90 is mounted on the operator's head, and the operator superimposes the image displayed on the camera-equipped HMD 90 on the surrounding real image. Can see. A 3-axis position sensor 91 is attached to the camera-equipped HMD 90, and the position information of the head is acquired by the output of the 3-axis sensor 91, and the position where the operator is viewing the virtual object is matched. . The camera attached to the camera-equipped HMD 90 is configured to photograph the operator's front hand and photographs the operator's right hand HR and left hand HL. In FIG. 4, a three-dimensional virtual object 92 is shown, but this three-dimensional virtual object 92 is visible only to an operator wearing the HMD 90 with a camera.
カメラ付きHMD90内のカメラで、操作者の右手HR及び左手HLを撮影することで、その撮影した右手HR及び左手HLの画像データから、本例の手指形状記憶手段20で手指の形状を推定する。推定した手指の形状により、手の3次元CGを作成する。3次元CGは、CGデータにより作成される。
図5(a)は、作成された3次元CGによる右手93R及び左手93Lを示したものである。この3次元CGで作成された右手93R及び左手93Lは、本例では表示はされず、その3次元CGの手93R,93Lで持つことで操作される3次元物体92の形状を決めるために使用される。
By photographing the right hand HR and the left hand HL of the operator with the camera in the HMD 90 with a camera, the hand shape storage means 20 of this example estimates the shape of the finger from the photographed right hand HR and left hand HL image data. . A three-dimensional CG of the hand is created based on the estimated finger shape. A three-dimensional CG is created from CG data.
FIG. 5A shows the
図5(b)は、カメラ付きHMD90を装着した操作者に見えている画像の例である。この例では、操作者の実際の右手HR及び左手HLで、3次元仮想物体92を持っている状態である。3次元仮想物体92は、右手HR及び左手HLの形状の推定結果により、その右手HR及び左手HLで操作されているように変形させる。例えば、右手HRと左手HLを離した場合には、3次元仮想物体92を引き伸ばし、右手HRと左手HLを近づけた場合には、3次元仮想物体92を縮小させるような表示を行う。このように表示が行われることで、操作者の手指動作に応じて、あたかも実世界の物体のように、3次元仮想物体が操作され変形する。
また、カメラ付きHMD90による画像表示として、図5(b)に示すように、メニュー表示94を行い、そのメニュー表示94中の各項目を手で触れる操作を行うことで、仮想物体92に色を付けるなどの各種画像操作が行えるようにしてもよい。
FIG. 5B is an example of an image that can be seen by an operator wearing the HMD 90 with a camera. In this example, the operator has the three-dimensional virtual object 92 with the actual right hand HR and left hand HL. The three-dimensional virtual object 92 is deformed so as to be operated with the right hand HR and the left hand HL based on the estimation results of the shapes of the right hand HR and the left hand HL. For example, when the right hand HR and the left hand HL are separated from each other, the three-dimensional virtual object 92 is stretched, and when the right hand HR and the left hand HL are brought close to each other, the three-dimensional virtual object 92 is reduced. By performing the display in this manner, the three-dimensional virtual object is manipulated and deformed as if it were a real world object according to the finger movement of the operator.
Further, as shown in FIG. 5B, as the image display by the HMD 90 with a camera, a
このような表示処理を行う装置を、デスクトップマネージャとしたOS(オペレーティングシステム)として構築することにより、それは3次元操作可能なOSとなる。
なお、図5(b)の例では、実際の右手HR及び左手HLに重ねて、3次元仮想物体92を表示させる構成としたが、図5(a)に示した3次元CGによる右手93R及び左手93と3次元仮想物体92とを表示させる画像としてもよい。
By constructing a device that performs such display processing as an OS (operating system) as a desktop manager, it becomes an OS that can be operated three-dimensionally.
In the example of FIG. 5B, the three-dimensional virtual object 92 is displayed so as to overlap the actual right hand HR and left hand HL. However, the
次に、本実施の形態による手指判定処理のおおまかな流れを、図6〜図8のフローチャートを参照して説明する。
まず、データベース装置でデータベースを構築させる処理の流れを、図6を参照して説明する。
データベースの構築時には、まず図2に示したデータグローブ40を装着した手指の画像を取り込み、その手指の画像から手指の形状と爪位置を検出し、さらにそのときのデータグローブ40のセンサ41の出力を関節の角度に変換して読み込む(ステップS101)。そして、その読み込んだ手指の形状と爪位置と関節の角度とを対応づけて、データベース化する(ステップS102)。その後、データベースの構築を続行するか否か判断して(ステップS103)、データベースの構築を続行する場合には、ステップS101に戻って、別の形状(即ち手指の関節の曲げ具合などが異なる形状)の手指を取り込ませる。このようにして、様々な手指の形状をデータベース化し、ステップS103でデータベースの構築が終了であると判断した場合に、このデータベース構築処理を終了する。
Next, the general flow of the finger determination process according to the present embodiment will be described with reference to the flowcharts of FIGS.
First, the flow of processing for constructing a database by the database device will be described with reference to FIG.
When constructing the database, first, an image of a finger wearing the
なお、データベース構築時の手指の関節角度データは、必ずしもデータグローブなどのセンサを用いる必要はなく、任意の関節角度を入力して生成される手指のCGモデルを用いても良い。また、データベース構築時の手指の関節角度データは、3次元座標データでも良い。その場合のセンサは、磁気センサやカラーグローブなどを用いることができることは言うまでもない。 Note that the finger joint angle data at the time of database construction does not necessarily need to use a sensor such as a data glove, and a finger CG model generated by inputting an arbitrary joint angle may be used. Further, the joint angle data of fingers at the time of database construction may be three-dimensional coordinate data. It goes without saying that a magnetic sensor, a color glove, or the like can be used as the sensor in that case.
データベースが用意されると、次に、検出対象者の手指を撮影して、初期調整を行う。図7は、この初期調整処理の流れを示したフローチャートである。初期調整処理としては、ビデオカメラ32を使用して、検出対象者の手指を撮影し、その撮影した画像を基準画像として読み込む(ステップS111)。手指の画像である基準画像は、例えば複数枚の画像であることが好ましく、さらに、その複数枚の内の少なくとも1枚は、爪が写っていることが好ましい。
そして、読み込んだ基準画像から、手指の肌色の色空間が、どの範囲に存在しているのか判断し、その判断に基づいて、検出対象者の手指を検出するために必要な、色空間の軸の変換特性を算出する(ステップS112)。算出された変換特性は、例えば図1に示した個人色データ記憶手段22に記憶され、初期調整処理を終了する。
初期調整が終了すると、検出対象者の手指を撮影して、形状を推定する処理が可能となる。なお、この初期調整は、既に今回の検出対象者の手指に基づいた変換特性が、既に装置内に記憶されている場合には、その記憶されたデータを読み出して使用してもよく、毎回必要な処理ではない。
Once the database is prepared, the initial adjustment is performed by photographing the fingers of the person to be detected. FIG. 7 is a flowchart showing the flow of the initial adjustment process. In the initial adjustment process, the
Based on the read reference image, it is determined in which range the skin color space of the finger exists, and based on the determination, the axis of the color space necessary for detecting the finger of the detection target person The conversion characteristics are calculated (step S112). The calculated conversion characteristics are stored in, for example, the personal color
When the initial adjustment is completed, it is possible to perform processing for estimating the shape by photographing the finger of the detection target person. Note that this initial adjustment may be performed by reading the stored data if the conversion characteristics based on the finger of the person to be detected this time have already been stored in the apparatus. It's not an easy process.
図8のフローチャートは、検出対象者の手指を撮影して、形状を推定する処理の流れを示したものである。
手指の形状の推定処理としては、ビデオカメラ32により撮影された手指の画像データを取り込み(ステップS121)、先に説明した初期調整処理で設定された変換特性で、画像データの色空間の座標軸を変換する個人表色系変換処理を行う(ステップS122)。そして、色空間の座標軸が変換された画像データに基づいて、手指画像を検出する(ステップS123)と共に、爪の位置の検出を行う(ステップS124)。
各データが検出されると、検出されたそれぞれデータに基づいて、データベースから最も類似度が高いデータを検索し、検索されたデータに対応した全ての関節の角度データを読み出す(ステップS125)。各関節のデータを読み出すと、その読み出した関節の角度に、ロボットハンド50の各関節用アクチュエータ52を対応した角度に設定させる指令を生成させる(ステップS126)。ここまでの処理が終了すると、ステップS121に戻って、画像の読み込みから繰り返し処理される。ステップS125で読み出した各関節の角度で示される形状が、推定された手指の形状に相当する。
The flowchart in FIG. 8 shows the flow of processing for estimating the shape by photographing the finger of the person to be detected.
As a finger shape estimation process, image data of a finger photographed by the
When each data is detected, the data having the highest similarity is searched from the database based on the detected data, and the angle data of all joints corresponding to the searched data is read (step S125). When the data of each joint is read, a command for setting the
次に、各処理の詳細を、図9以降を参照して説明する。
まず、データベース構築時に、画像特徴量抽出手段12で行われる画像の特徴量を抽出する処理の詳細を、図9のフローチャートを参照して説明する。ここでは、画像データのノイズ除去処理を行い(ステップS11)、そのノイズ除去した画像データを2値化する(ステップS12)。2値化した画像データからは、手領域の輪郭線を検出する(ステップS13)。この輪郭線の検出処理を行うために、画像データで示される全ての画素について、高次局所自己相関パターンを算出する(ステップS14)。
図10は、高次局所自己相関特徴を検出するための局所パターンの例を示したものである。この例では、縦3画素×横3画素の9画素のブロック単位で示してあり、パターンM1からパターンM25までの25種類のパターンに分類してあり、輪郭線が黒色で示した画素配列である場合に、該当する番号のパターンであると算出し、そのパターンの組み合わせで、手指の輪郭線を示すようにしてある。
このようにして得た手指の輪郭線のデータを、データベースに登録させる。
なお、画像特徴量抽出のためには必ずしも高次局所自己相関特徴を使う必要はなく、画像が含んでいる特徴を、より低次の特徴により抽出できれば良い。
また、図9のフローチャートでは、画像からの手指の形状検出処理として、輪郭線の検出処理を行うようにしたが、例えば、画像中の手指の領域そのものを検出するようにしてもよい。例えば、画像中の手指の色の部分(データグローブの色の部分)を検出して、手指の輪郭ではなく、手指が存在する領域を検出するようにしてもよい。
Next, details of each process will be described with reference to FIG.
First, the details of the process of extracting the image feature amount performed by the image feature amount extraction means 12 when the database is constructed will be described with reference to the flowchart of FIG. Here, noise removal processing is performed on the image data (step S11), and the image data from which the noise has been removed is binarized (step S12). From the binarized image data, the outline of the hand region is detected (step S13). In order to perform this contour line detection process, higher-order local autocorrelation patterns are calculated for all the pixels indicated by the image data (step S14).
FIG. 10 shows an example of a local pattern for detecting higher-order local autocorrelation features. In this example, the pixel arrangement is shown in block units of 9 pixels of 3 vertical pixels × 3 horizontal pixels, classified into 25 types of patterns from pattern M1 to pattern M25, and the outline is shown in black. In this case, it is calculated that the pattern has a corresponding number, and the contour line of the finger is indicated by a combination of the patterns.
The finger contour data thus obtained is registered in the database.
Note that it is not always necessary to use high-order local autocorrelation features for image feature extraction, and it is sufficient that features included in an image can be extracted by lower-order features.
In the flowchart of FIG. 9, the contour detection processing is performed as the finger shape detection processing from the image. However, for example, the finger region itself in the image may be detected. For example, a finger color portion (data glove color portion) in the image may be detected to detect not the contour of the finger but the region where the finger is present.
次に、データベース構築時に、爪位置算出手段13で行われる爪位置の算出処理の詳細を、図11のフローチャートを参照して説明する。ここでは、画像データのノイズ除去処理を行い(ステップS21)、そのノイズ除去した画像データを、黒色の部分(画像の背景部分)と、白色の部分(画像のデータグローブ本体部分)と、赤色の部分(データグローブの爪の部分)とに3値化する(ステップS22)。この色分けは、黒色の背景で撮影を行った場合の例である。
そして、3値化した画像データの内で、赤色の部分を、爪領域として検出する(ステップS23)。さらに、その検出したそれぞれの爪領域の重心位置を算出する(ステップS24)。この算出された各爪の重心位置のデータを、爪の位置データとしてデータベースに登録させる。
図13は、この爪の位置の算出処理のイメージを示した図である。手指を撮影した画像として、ここでは図13(a)に示すような画像が得られたとする。画像の特徴量を抽出する処理では、この手指の輪郭が検出されるが、爪の位置の算出処理では、図13(b)に示すように5本の指の爪の領域だけが抽出される。そして、図13(c)に示すように、それぞれの爪の領域ごとに、各領域の重心位置((x1、y1)など)が算出される。この算出された重心位置が、データベースに登録される。
なお、本例では各爪の位置データとして、重心位置のデータとしたが、重心位置以外のデータであってもよい。例えば、単純な中心としてもよい。或いは、各爪の領域のデータ(即ち図11のフローチャートのステップS23で検出された爪領域のデータ)を、そのままデータベースに登録するデータとしてもよい。
Next, details of the nail position calculation processing performed by the nail position calculation means 13 at the time of database construction will be described with reference to the flowchart of FIG. Here, noise removal processing is performed on the image data (step S21), and the noise-removed image data is divided into a black portion (background portion of the image), a white portion (data glove main body portion of the image), and a red portion. It is ternarized into a part (a part of the nail of the data glove) (step S22). This color coding is an example when photographing is performed on a black background.
Then, a red portion is detected as a nail region in the ternary image data (step S23). Further, the center-of-gravity position of each detected nail region is calculated (step S24). The calculated data on the center of gravity of each nail is registered in the database as nail position data.
FIG. 13 is a diagram showing an image of the nail position calculation process. Here, it is assumed that an image as shown in FIG. 13A is obtained as an image obtained by photographing a finger. In the process of extracting the feature amount of the image, the contour of the finger is detected, but in the nail position calculation process, only the nail area of five fingers is extracted as shown in FIG. . And as shown in FIG.13 (c), the gravity center position ((x1, y1) etc.) of each area | region is calculated for every area | region of each nail | claw. The calculated barycentric position is registered in the database.
In this example, the position data of each nail is the data of the center of gravity, but it may be data other than the position of the center of gravity. For example, it may be a simple center. Alternatively, the data of each nail region (that is, the data of the nail region detected in step S23 in the flowchart of FIG. 11) may be directly registered in the database.
次に、手指の形状を推定する際の初期調整として行われる、個人表色系の作成処理を、図12のフローチャートを参照して説明する。
図12のフローチャートを説明する前に、個人表色系の作成処理を行うことの理由について説明する。
この個人表色系の作成処理は、形状を推定する手指を撮影して、その手指の肌色分布に基づいて行うものである。即ち、画像データの色成分を、2つの色信号成分(色差信号成分)を直交させて示したものが図18(a)である。この図18(a)では、色成分を色差信号の空間である、X軸とY軸とで示した一般的な色空間座標で示してある。手指などの人間の肌色の領域F1は、この図18(a)に示されるように、細長いほぼ楕円形で示される領域である。そして、爪の色の領域NAは、この肌色領域F1内の更に一部の領域として示される。爪の色の領域NAは、肌色の中の若干青白い色の領域である。手指の形状を推定する際には、この爪の色の領域NAを検出する処理が行われる。
Next, a process for creating a personal color system, which is performed as an initial adjustment when estimating the shape of a finger, will be described with reference to the flowchart of FIG.
Before describing the flowchart of FIG. 12, the reason for performing the personal color system creation process will be described.
This personal color system creation process is performed by photographing a finger whose shape is to be estimated and based on the skin color distribution of the finger. That is, FIG. 18A shows the color components of the image data in which two color signal components (color difference signal components) are orthogonally crossed. In FIG. 18A, the color components are represented by general color space coordinates indicated by the X axis and the Y axis, which are the color difference signal spaces. The human skin color region F1 such as a finger is a region which is shown in an elongated and oval shape as shown in FIG. The nail color area NA is shown as a part of the skin color area F1. The nail color area NA is a slightly pale white area in the skin color. When estimating the shape of the finger, a process of detecting the nail color area NA is performed.
図18(a)に示したX軸とY軸で示される色空間内で、肌色領域F1を検出するためには、例えばX軸での肌色領域F1の範囲x1からx2と、Y軸での肌色領域F1の範囲y1からy2を設定することで、検出可能である。ところが、そのように範囲を設定した場合、図18(a)に示すように、肌色領域F1以外の領域も多数含まれた範囲となってしまう。図18(a)でノイズと記載した部分が、余計な領域である。 In order to detect the skin color region F1 in the color space indicated by the X axis and the Y axis shown in FIG. 18A, for example, the range x1 to x2 of the skin color region F1 on the X axis and the Y axis Detection is possible by setting the range y1 to y2 of the skin color region F1. However, when such a range is set, as shown in FIG. 18A, a range including many areas other than the skin color area F1 is included. The part described as noise in FIG. 18A is an extra area.
ここで、本例においては、色空間座標として、図18(b)に示すように、肌色領域の重心位置を通過する角度の座標軸Saと、その軸Saと直交する座標軸Sbを設定し、その軸Sa,Sbで示される色空間上で、肌色領域F1の領域を定義する。図18(b)の例では、軸Saでの範囲a1からa2と、軸Sbでの範囲b1からb2で、ほぼ楕円形状の肌色領域F1を定義する。このように定義することで、肌色領域F1を余計な領域がほとんどない状態で抽出することができる。
この図18(b)に示すように、X軸とY軸で示される色空間の画像データを、軸の角度がシフトしたSa軸とSb軸で示される色空間の画像データに変換するのが、図1の個人表色系変換手段21での変換処理である。
表色系への変換式を、次の[数1]式及び[数2]式に示す。
Here, in this example, as shown in FIG. 18B, the coordinate axis Sa of the angle passing through the barycentric position of the skin color region and the coordinate axis Sb orthogonal to the axis Sa are set as the color space coordinates. A skin color region F1 is defined on the color space indicated by the axes Sa and Sb. In the example of FIG. 18B, a substantially oval skin color region F1 is defined by the range a1 to a2 on the axis Sa and the range b1 to b2 on the axis Sb. By defining in this way, it is possible to extract the skin color area F1 with almost no extra area.
As shown in FIG. 18B, the image data in the color space indicated by the X-axis and the Y-axis is converted into image data in the color space indicated by the Sa-axis and the Sb-axis with the axis angle shifted. This is a conversion process in the personal color system conversion means 21 in FIG.
Expressions for conversion to the color system are shown in the following [Expression 1] and [Expression 2].
式中のRとGとBはRGB表色系のそれぞれの値であり、YとIとQは、YIQ表色系のそれぞれの値である。YIQ表色系は北アメリカのテレビジョン放送に使用され、肌色表現に優れている表色系である。 In the equation, R, G, and B are values of the RGB color system, and Y, I, and Q are values of the YIQ color system. The YIQ color system is a color system that is used in North American television broadcasting and is excellent in skin color expression.
ところで、この図18に示される肌色領域F1の色空間上の座標位置には、個人差がある。即ち、皮膚の色である肌色の色調には個人差があり、例えば図19に示すように、ある人の肌色領域F1と、別の人の肌色領域F2とは、若干違いがある。従って、本例においては、図7のフローチャートで説明した個人表色系変換用の基準画像の読み込みで、検出対象者の手指の肌色の領域を検出して、その検出した肌色領域の重心を通過するSa軸と、そのSa軸に直交するSa軸を設定するように、変換特性の個人差を調整する構成としてある。
肌色領域の重心は、次の[数3]式で算出される。但し、mは色の出現回数、Mは枠内の画素数、XはQ軸の値がqでI軸の値がiの色差空間上の点である。
By the way, there is an individual difference in the coordinate position on the color space of the skin color area F1 shown in FIG. That is, there are individual differences in the tone of the skin color, which is the color of the skin, and for example, as shown in FIG. 19, there is a slight difference between the skin color area F1 of one person and the skin color area F2 of another person. Therefore, in this example, the skin color region of the finger of the detection target person is detected by reading the reference image for personal color system conversion described in the flowchart of FIG. 7, and passes through the center of gravity of the detected skin color region. The individual difference of the conversion characteristics is adjusted so that the Sa axis to be set and the Sa axis orthogonal to the Sa axis are set.
The center of gravity of the skin color area is calculated by the following [Equation 3]. However, m is the number of appearances of the color, M is the number of pixels in the frame, and X is a point on the color difference space where the value of the Q axis is q and the value of the I axis is i.
[数3]式で求めた傾きの単位ベクトルをα(Q′,I′)とするとき、[数2]式より肌色軸Saは次式のように求めることができる。 When the unit vector of the inclination obtained by the equation [3] is α (Q ′, I ′), the skin color axis Sa can be obtained by the following equation from the equation [2].
同様に肌色直交軸Sbも単位ベクトルαに直交する単位ベクトルから計算することができる。
なお、肌色領域の座標位置は、個人差の他に、撮影する際の照明の条件などによっても変化する。
Similarly, the flesh color orthogonal axis Sb can also be calculated from the unit vector orthogonal to the unit vector α.
Note that the coordinate position of the skin color region changes depending on the lighting conditions at the time of shooting in addition to individual differences.
ここまで説明した処理が、図12のフローチャートに示した個人表色系の作成処理で実行される。即ち、図12に示すように、まず、検出対象者の手などの肌色部分を撮影した画像から、その人の肌色分布図が作成される(ステップS31)。肌色分布図が作成されて、肌色領域が検出されると、その人の肌色領域(肌色分布)の重心を求める処理が行われる(ステップS32)。そして、その重心位置を傾きとして肌色領域を通過する軸(Sa軸)が求められる(ステップS33)。さらに、そのSa軸に直交するSb軸が求められる(ステップS34)。 The processing described so far is executed in the personal color system creation processing shown in the flowchart of FIG. That is, as shown in FIG. 12, first, a skin color distribution chart of a person is created from an image obtained by photographing a skin color part such as the hand of the person to be detected (step S31). When the skin color distribution chart is created and the skin color area is detected, a process for obtaining the center of gravity of the person's skin color area (skin color distribution) is performed (step S32). Then, an axis (Sa axis) that passes through the skin color region with the center of gravity position as an inclination is obtained (step S33). Further, an Sb axis orthogonal to the Sa axis is obtained (step S34).
次に、検出対象者の手指の形状の推定時の、画像特徴量の抽出の具体的な処理例を、図14のフローチャートを参照して説明する。
この画像特徴量の抽出処理は、基本的には、図9のフローチャートに示したデータベース作成時の画像特徴量の抽出処理と同じである。但し、個人表色系に変換された画像データから検出する処理構成としてある。即ち、まず画像データのノイズ除去処理を行い(ステップS41)、そのノイズ除去した画像データを、個人表色系の座標軸のデータに変換して、手指の領域(即ち肌色の領域)を抽出する(ステップS42)。この抽出した手指の領域から、手領域の輪郭線を検出する(ステップS43)。この輪郭線の検出処理を行うために、画像データで示される全ての画素について、高次局所自己相関パターンを算出する(ステップS44)。高次局所自己相関特徴を検出するための局所パターンは、例えば図10に示したパターンが適用可能である。
Next, a specific processing example of image feature amount extraction when estimating the shape of the finger of the person to be detected will be described with reference to the flowchart of FIG.
This image feature quantity extraction processing is basically the same as the image feature quantity extraction processing at the time of database creation shown in the flowchart of FIG. However, the processing configuration is to detect from image data converted into the personal color system. That is, first, noise removal processing of image data is performed (step S41), and the image data from which the noise has been removed is converted into data on the coordinate system of the personal color system to extract a finger region (that is, a skin color region) ( Step S42). A contour line of the hand region is detected from the extracted finger region (step S43). In order to perform this contour line detection process, higher-order local autocorrelation patterns are calculated for all the pixels indicated by the image data (step S44). As a local pattern for detecting higher-order local autocorrelation features, for example, the pattern shown in FIG. 10 can be applied.
次に、検出対象者の手指の形状の推定時の、爪位置の算出の具体的な処理例を、図15のフローチャートを参照して説明する。
この爪位置の算出処理は、図16で説明した肌色領域F1内の爪領域NAを検出する処理である。まず、画像データのノイズ除去処理を行い(ステップS51)、そのノイズ除去した画像データを、個人表色系の座標軸のデータに変換して、手指の領域(即ち肌色の領域)を抽出する(ステップS52)。さらに、肌色軸(X軸)と直交する軸(Y軸)の値だけを参照して、その肌色領域内からさらに爪領域NAを抽出する(ステップS53)。そして、その抽出した爪領域の画像の座標の重心位置を算出する(ステップS54)。この重心位置が、各爪の位置データとして使われるデータである。
Next, a specific processing example of nail position calculation at the time of estimating the finger shape of the person to be detected will be described with reference to the flowchart of FIG.
This nail position calculation process is a process for detecting the nail area NA in the skin color area F1 described with reference to FIG. First, noise removal processing of image data is performed (step S51), and the image data from which the noise has been removed is converted into coordinate data of a personal color system to extract a finger region (ie, a skin color region) (step S51). S52). Further, by referring only to the value of the axis (Y axis) orthogonal to the skin color axis (X axis), the nail area NA is further extracted from the skin color area (step S53). Then, the barycentric position of the coordinates of the extracted image of the nail region is calculated (step S54). This barycentric position is data used as position data for each nail.
図16は、画像データ内の各画素から手指の領域(即ち肌色領域)を抽出する具体的な処理例を示したものである。
まず、画素番号iを0に設定し(ステップS61)、その画素番号の個人表色系で示される値(a,b)を算出する(ステップS62)。値(a,b)は、Sa軸とSb軸の値である。その求めた値(a,b)が、図16(b)に示した範囲(a1からa2、b1からb2)内の値であるか否か判断される(ステップS63)。この判断で、該当する範囲内であると判断した場合には、現在の画素iが手指の領域であると判定する(ステップS64)。該当する範囲内でないと判断した場合には、現在の画素iが手指の領域でないと判定する(ステップS65)。
FIG. 16 shows a specific processing example for extracting a finger region (that is, a skin color region) from each pixel in the image data.
First, the pixel number i is set to 0 (step S61), and the value (a, b) indicated by the personal color system of the pixel number is calculated (step S62). Values (a, b) are values of the Sa axis and Sb axis. It is determined whether or not the obtained values (a, b) are values within the ranges (a1 to a2, b1 to b2) shown in FIG. 16B (step S63). If it is determined by this determination that the pixel is within the corresponding range, it is determined that the current pixel i is a finger region (step S64). If it is determined that it is not within the corresponding range, it is determined that the current pixel i is not a finger region (step S65).
ステップS64、S65の判断の後は、画素番号iを1つ加算し(ステップS66)、その加算した画素番号iが最後の画素番号よりも大きな値であるか否か判断し(ステップS67)、最後の画素番号よりも大きな値でない場合には、ステップS62に戻る。このようにして、手指の領域である肌色領域が画像データから抽出される。 After the determination in steps S64 and S65, one pixel number i is added (step S66), and it is determined whether or not the added pixel number i is larger than the last pixel number (step S67). If the value is not larger than the last pixel number, the process returns to step S62. In this way, the skin color region that is the finger region is extracted from the image data.
図17は、画像データ内の各画素から爪の領域を抽出する具体的な処理例を示したものである。
まず、画素番号iを0に設定し(ステップS71)、その画素番号の個人表色系で示される値(a,b)を算出する(ステップS72)。その求めた値(a,b)の内の軸Bで示される値Sbが、爪の範囲NA内に相当する値であるか否か判断される(ステップS73)。ここでの爪の範囲NA内に相当する値とは、例えば図18に示した値b2から値b3までの範囲内の値であるかの判断である。この判断で、該当する範囲内であると判断した場合には、現在の画素iが爪の領域であると判定する(ステップS74)。該当する範囲内でないと判断した場合には、現在の画素iが爪の領域でないと判定する(ステップS75)。
FIG. 17 shows a specific processing example for extracting the nail region from each pixel in the image data.
First, the pixel number i is set to 0 (step S71), and the value (a, b) indicated by the personal color system of the pixel number is calculated (step S72). It is determined whether or not the value Sb indicated by the axis B in the obtained values (a, b) is a value corresponding to the nail range NA (step S73). Here, the value corresponding to the nail range NA is, for example, determination of whether the value is within the range from the value b2 to the value b3 shown in FIG. If it is determined by this determination that the pixel is within the corresponding range, it is determined that the current pixel i is a nail region (step S74). If it is determined that it is not within the corresponding range, it is determined that the current pixel i is not a nail region (step S75).
ステップS74、S75の判断の後は、画素番号iを1つ加算し(ステップS76)、その加算した画素番号iが最後の画素番号よりも大きな値であるか否か判断し(ステップS77)、最後の画素番号よりも大きな値でない場合には、ステップS72に戻る。このようにして、爪の領域が画像データから抽出される。
なお、図16の手指領域を抽出する処理と、図17の爪領域を抽出する処理は、1つの処理として同時に行うようにしてもよい。
このようにして爪領域を抽出することで、撮影された画像から正確に爪を検出することができる。
After the determination in steps S74 and S75, one pixel number i is added (step S76), and it is determined whether or not the added pixel number i is larger than the last pixel number (step S77). If the value is not larger than the last pixel number, the process returns to step S72. In this way, the nail region is extracted from the image data.
Note that the processing for extracting the finger region in FIG. 16 and the processing for extracting the nail region in FIG. 17 may be performed simultaneously as one processing.
By extracting the nail region in this manner, the nail can be accurately detected from the captured image.
以上説明したように、本実施の形態によると、画像から手指の輪郭又は範囲を検出して、その輪郭などで示される手指内の爪の位置を検出して、手指の形状と爪の位置とに基づいて、手指の形状を推定するようにしたので、非常に正確に手指の形状を推定することができる。即ち、手指の輪郭だけの場合には、指の関節の曲がり具合や、手首の曲がり具合を誤って推定される可能性があったが、本実施の形態の場合には、そのような誤った推定を極力少なくすることができる。
さらに本実施の形態の場合には、手指の検出と爪の検出を、個人表色系に変換した色空間で行うようにしたので、図16(a),(b)で説明したように、抽出される肌色領域にノイズ成分が少なく、良好な検出が行える。しかも、検出する領域がX軸とY軸で示される通常の色空間で示される領域よりも非常に小さい領域であるので、手指領域や爪領域を抽出するための図16及び図17のフローチャートに示した処理が、少ない演算処理量で行え、それぞれの抽出処理が高速に行える。
As described above, according to the present embodiment, the contour or range of a finger is detected from the image, the position of the nail in the finger indicated by the contour or the like is detected, and the shape of the finger and the position of the nail are determined. Since the shape of the finger is estimated based on the above, the shape of the finger can be estimated very accurately. That is, in the case of only the contour of the finger, there is a possibility that the bending state of the finger joint and the bending state of the wrist may be erroneously estimated. The estimation can be reduced as much as possible.
Further, in the case of the present embodiment, the finger detection and the nail detection are performed in the color space converted into the personal color system, so as described in FIGS. 16 (a) and 16 (b), There are few noise components in the extracted skin color area, and good detection can be performed. Moreover, since the area to be detected is much smaller than the area indicated by the normal color space indicated by the X axis and the Y axis, the flowcharts of FIGS. 16 and 17 for extracting the finger area and the nail area are shown. The processing shown can be performed with a small amount of calculation processing, and each extraction processing can be performed at high speed.
なお、上述した実施の形態では、個人表色系の特性を検出するために、実際に肌を撮影した画像から、個人表色系の変換特性を算出する初期調整を行うようにしたが、その他の処理構成で、個人表色系の変換特性を設定するようにしてもよい。例えば、検出対象者自身で、操作を行う前に、各自の肌色に応じて選択するようにしてもよい。具体的には、初期設定操作として、ボタン操作などで「肌の色は白い方ですか、黒い方ですか、普通ですか」などの複数種類の中から選択させる構成として、それぞれの肌の色に応じた個人表色系の変換特性を設定するようにしてもよい。また、黄色人種、白人、黒人などの人種によっても、個人表色系の変換特性は異なるので、そのような人種を設定する操作で、個人表色系の変換特性を設定するようにしてもよい。 In the above-described embodiment, in order to detect the characteristics of the personal color system, initial adjustment for calculating the conversion characteristics of the personal color system is performed from an image obtained by actually photographing the skin. With this processing configuration, the conversion characteristics of the personal color system may be set. For example, the person to be detected may make a selection according to his / her skin color before performing the operation. Specifically, as an initial setting operation, each skin color can be selected from multiple types such as “Is the skin color white, black, or normal” by operating buttons, etc. The conversion characteristics of the personal color system may be set according to the above. In addition, the conversion characteristics of the personal color system differ depending on the race, such as yellow, white, and black, so the conversion characteristics of the personal color system should be set in the operation for setting such a race. May be.
また、上述した実施の形態では、データベース構築時に爪位置を検出する処理として、データグローブの上に、指の爪がある位置に爪に相当する印を赤色などで付けて、その爪の印を検出して爪位置を検出するようにしたが、別の処理で爪位置を検出するようにしてもよい。例えば、手指の形状を示すデータをデータベースに取り込んだ後に、データベース上のそれぞれのデータに基づいて、コンピュータグラフィックで手指の三次元画像を生成させて表示させる。そして、その画像を操作者が確認しながら、三次元画像中の手指に爪を貼り付ける処理を操作者の操作で行って、その操作で設定された爪の位置を、爪の位置データとして使用してもよい。 In the embodiment described above, as a process of detecting the nail position at the time of constructing the database, a mark corresponding to the nail is put on the data glove at a position where the fingernail is located in red or the like, and the nail mark is marked. The nail position is detected and detected, but the nail position may be detected by another process. For example, after data indicating the shape of a finger is taken into a database, a three-dimensional image of the finger is generated and displayed by computer graphics based on the data on the database. Then, while the operator confirms the image, the process of attaching the nail to the finger in the three-dimensional image is performed by the operator, and the nail position set by the operation is used as the nail position data. May be.
また、上述した実施の形態では、画像から推定した手指の形状に基づいて、ロボットハンドの各関節を対応した状態に制御する処理構成としたが、他の各種機器の動作などを、同様な手指の形状推定に基づいて行うようにしてもよい。 In the above-described embodiment, the processing configuration is such that the joints of the robot hand are controlled to correspond to each other based on the shape of the fingers estimated from the image. It may be performed based on the shape estimation.
また、上述した実施の形態では、データベース装置10や手指形状推定装置20は、専用の装置として構成した例について説明したが、例えば各種データ処理を行うパーソナルコンピュータ装置に、カメラなどの必要な周辺機器を接続した上で、本発明によるデータベース化や、そのデータベースを参照しながらの手指形状の判別(推定)処理を行うソフトウェア(プログラム)を実装させて、本発明の処理を行う構成としてもよい。この場合、本発明の処理を実行するプログラムは、光ディスクや半導体メモリなどの媒体で配布する他に、インターネットなどの伝送手段を介してダウンロードさせる構成としてもよい。 Further, in the above-described embodiment, the database device 10 and the finger shape estimation device 20 are described as examples configured as dedicated devices. However, for example, a personal computer device that performs various data processing, a necessary peripheral device such as a camera, etc. It is also possible to implement the processing of the present invention by installing software (program) for creating a database according to the present invention and performing finger shape discrimination (estimation) processing while referring to the database. In this case, the program for executing the processing of the present invention may be downloaded via a transmission means such as the Internet, in addition to being distributed on a medium such as an optical disk or a semiconductor memory.
10…データベース装置、11…画像データ記憶手段、12…画像特徴量抽出手段、13…爪位置算出手段、14…画像及び爪位置対応動作指令記憶手段、15…サンプリング手段、16…時系列関節角度データ記憶手段、20…手指形状記憶手段、21…個人表色系変換手段、23…画像データ記憶手段、24…画像特徴量抽出手段、25…爪位置算出手段、26…データ特定及び動作指令発生手段、27…駆動手段、31,32…ビデオカメラ、40…データグローブ、41…角度センサ、50…ロボットハンド、51…支持部、52…関節用アクチュエータ、90…カメラ付きHMD、91…3軸位置センサ、92…3次元仮想物体、93R…3次元CGによる右手、93L…3次元CGによる左手 DESCRIPTION OF SYMBOLS 10 ... Database apparatus, 11 ... Image data storage means, 12 ... Image feature-value extraction means, 13 ... Nail position calculation means, 14 ... Image and nail position corresponding | compatible operation command storage means, 15 ... Sampling means, 16 ... Time series joint angle Data storage means, 20 ... finger shape storage means, 21 ... personal color system conversion means, 23 ... image data storage means, 24 ... image feature quantity extraction means, 25 ... nail position calculation means, 26 ... data specification and operation command generation Means 27: Driving means 31, 32 ... Video camera, 40 ... Data glove, 41 ... Angle sensor, 50 ... Robot hand, 51 ... Supporting part, 52 ... Actuator for joint, 90 ... HMD with camera, 91 ... 3-axis Position sensor, 92 ... 3D virtual object, 93R ... Right hand with 3D CG, 93L ... Left hand with 3D CG
Claims (6)
変換して得た前記第1の軸及び第2の軸で表現される色空間から、前記第1の軸上の位置と前記第2の軸上の位置を領域抽出のための情報として用いて特定の色の領域を爪の領域として抽出して、爪の位置を示す爪位置データを得ることを特徴とする爪位置データ検出装置。 A color component of image data obtained by photographing a detection target finger is expressed by a first axis that passes through a color distribution region of the detection target finger and a second axis that is orthogonal to the first axis. To the color space
From the color space expressed by the first axis and the second axis obtained by the conversion , the position on the first axis and the position on the second axis are used as information for region extraction. A nail position data detecting apparatus, wherein a nail position data indicating a nail position is obtained by extracting a specific color area as a nail area.
予め検出対象者の手指を撮影した画像データから得た肌色領域の重心を通過するように、前記第1の軸の角度位置を設定し、
その設定された角度位置の第1の軸及びその第1の軸と直交する第2の軸を使用して、前記色空間の変換を行うことを特徴とする爪位置データ検出装置。 In the nail | claw position data detection apparatus of Claim 1,
The angular position of the first axis is set so as to pass through the center of gravity of the skin color region obtained from image data obtained by photographing the finger of the detection subject in advance,
A nail position data detecting apparatus, wherein the color space is converted using a first axis of the set angular position and a second axis orthogonal to the first axis.
変換して得た前記第1の軸及び第2の軸で表現される色空間から、前記第1の軸上の位置と前記第2の軸上の位置を領域抽出のための情報として用いて特定の色の領域を爪の領域として抽出して、爪の位置を示す爪位置データを得ることを特徴とする爪位置データ検出方法。 A color component of image data obtained by photographing a detection target finger is expressed by a first axis that passes through a color distribution region of the detection target finger and a second axis that is orthogonal to the first axis. To the color space
From the color space expressed by the first axis and the second axis obtained by the conversion , the position on the first axis and the position on the second axis are used as information for region extraction. A nail position data detection method, wherein a nail position data indicating a nail position is obtained by extracting a specific color area as a nail area.
予め検出対象者の手指を撮影した画像データから得た肌色領域の重心を通過するように、前記第1の軸の角度位置を設定し、
その設定された角度位置の第1の軸及びその第1の軸と直交する第2の軸を使用して、前記色空間の変換を行うことを特徴とする爪位置データ検出方法。 In the nail | claw position data detection method of Claim 3,
The angular position of the first axis is set so as to pass through the center of gravity of the skin color region obtained from image data obtained by photographing the finger of the detection subject in advance,
A nail position data detection method, wherein the color space is converted using a first axis of the set angular position and a second axis orthogonal to the first axis.
検出対象の手指を撮影して得た画像データの色成分を、検出対象の手指の色分布領域を通過する第1の軸と、前記第1の軸と直交する第2の軸とで表現される色空間に変換し、
変換して得た前記第1の軸及び第2の軸で表現される色空間から、前記第1の軸上の位置と前記第2の軸上の位置を領域抽出のための情報として用いて特定の色の領域を爪の領域として抽出して、爪の位置を示す爪位置データを得ることを特徴とする爪位置データ検出プログラム。 In a nail position data detection program that is mounted on a computer device and executes a process of detecting nail position data,
A color component of image data obtained by photographing a detection target finger is expressed by a first axis that passes through a color distribution region of the detection target finger and a second axis that is orthogonal to the first axis. To the color space
From the color space expressed by the first axis and the second axis obtained by the conversion , the position on the first axis and the position on the second axis are used as information for region extraction. A nail position data detection program for extracting nail position data indicating a position of a nail by extracting a specific color area as a nail area.
予め検出対象者の手指を撮影した画像データから得た肌色領域の重心を通過するように、前記第1の軸の角度位置を設定し、
その設定された角度位置の第1の軸及びその第1の軸と直交する第2の軸を使用して、前記色空間の変換を行うことを特徴とする爪位置データ検出プログラム。 In the nail position data detection program according to claim 5,
The angular position of the first axis is set so as to pass through the center of gravity of the skin color region obtained from image data obtained by photographing the finger of the detection subject in advance,
A nail position data detection program for performing conversion of the color space using a first axis of the set angular position and a second axis orthogonal to the first axis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007165689A JP5526465B2 (en) | 2007-06-22 | 2007-06-22 | Nail position data detection device, nail position data detection method, and nail position data detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007165689A JP5526465B2 (en) | 2007-06-22 | 2007-06-22 | Nail position data detection device, nail position data detection method, and nail position data detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009003813A JP2009003813A (en) | 2009-01-08 |
JP5526465B2 true JP5526465B2 (en) | 2014-06-18 |
Family
ID=40320112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007165689A Expired - Fee Related JP5526465B2 (en) | 2007-06-22 | 2007-06-22 | Nail position data detection device, nail position data detection method, and nail position data detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5526465B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5077956B2 (en) * | 2008-04-23 | 2012-11-21 | Kddi株式会社 | Information terminal equipment |
US10311991B2 (en) | 2009-01-09 | 2019-06-04 | Mitsubishi Shindoh Co., Ltd. | High-strength and high-electrical conductivity copper alloy rolled sheet and method of manufacturing the same |
JP2011110621A (en) * | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | Method of producing teaching data of robot and robot teaching system |
JP2011110620A (en) * | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | Method of controlling action of robot, and robot system |
WO2013051681A1 (en) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | Finger shape estimation device, finger shape estimation method, and finger shape estimation program |
JP5976145B2 (en) * | 2015-02-05 | 2016-08-23 | キヤノン株式会社 | Imaging apparatus, control method and program thereof, and recording medium |
GB2544971B (en) * | 2015-11-27 | 2017-12-27 | Holition Ltd | Locating and tracking fingernails in images |
JP6948801B2 (en) * | 2017-02-28 | 2021-10-13 | キヤノン株式会社 | Information processing equipment, control methods and programs for information processing equipment |
JP6992367B2 (en) * | 2017-09-27 | 2022-01-13 | カシオ計算機株式会社 | Nail contour detection device, nail contour detection method and nail contour detection program |
CN113888620A (en) * | 2021-09-29 | 2022-01-04 | 武汉联影智融医疗科技有限公司 | Bone nail mark point extraction method and device, processing equipment and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10269360A (en) * | 1997-03-26 | 1998-10-09 | Toppan Printing Co Ltd | Method and device for extracting image area and image processor |
JP2000132305A (en) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | Operation input device |
JP2002209082A (en) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | Image processing unit, image processing method, image processing program and computer-readable recording medium with the image processing program recorded thereon |
JP4412541B2 (en) * | 2004-07-26 | 2010-02-10 | 富士フイルム株式会社 | Skin color region classification device and method, surface reflection component changing device and method, and program |
JP2007036747A (en) * | 2005-07-27 | 2007-02-08 | Fuji Xerox Co Ltd | Color prediction method, color prediction apparatus, and color prediction program |
-
2007
- 2007-06-22 JP JP2007165689A patent/JP5526465B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009003813A (en) | 2009-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5526465B2 (en) | Nail position data detection device, nail position data detection method, and nail position data detection program | |
JP4829141B2 (en) | Gaze detection apparatus and method | |
KR101687017B1 (en) | Hand localization system and the method using head worn RGB-D camera, user interaction system | |
CN103140879B (en) | Information presentation device, digital camera, head mounted display, projecting apparatus, information demonstrating method and information are presented program | |
JP5205187B2 (en) | Input system and input method | |
WO2010073432A1 (en) | Image processing device and image processing method | |
JP5595655B2 (en) | Image processing apparatus and image processing method | |
JP2011095797A (en) | Image processing device, image processing method and program | |
JP2010519629A (en) | Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking | |
JP2013125402A (en) | Posture estimation device and posture estimation method | |
JP2015505089A (en) | Method and apparatus for estimating posture | |
WO2007102537A1 (en) | Posture estimating device and method | |
JP2014165660A (en) | Method of input with virtual keyboard, program, storage medium, and virtual keyboard system | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP2018119833A (en) | Information processing device, system, estimation method, computer program, and storage medium | |
JPWO2018087933A1 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2009258884A (en) | User interface | |
JP3732757B2 (en) | Image recognition method and image recognition apparatus | |
JP2005056059A (en) | Input device and method using head mounting type display equipped with image pickup part | |
JP5468773B2 (en) | Image processing apparatus and image processing method | |
JP6810442B2 (en) | A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program. | |
JP6818968B2 (en) | Authoring device, authoring method, and authoring program | |
JP2019046096A (en) | Information processing device and method thereof | |
JP6929043B2 (en) | Image processing device, image processing method | |
JP5068711B2 (en) | Object shape recognition system and object shape recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120717 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120918 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130319 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130618 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130626 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20130809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5526465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |