JP2009236602A - Contact force vector detector and method - Google Patents

Contact force vector detector and method Download PDF

Info

Publication number
JP2009236602A
JP2009236602A JP2008081321A JP2008081321A JP2009236602A JP 2009236602 A JP2009236602 A JP 2009236602A JP 2008081321 A JP2008081321 A JP 2008081321A JP 2008081321 A JP2008081321 A JP 2008081321A JP 2009236602 A JP2009236602 A JP 2009236602A
Authority
JP
Japan
Prior art keywords
region
vector
contact force
feature
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008081321A
Other languages
Japanese (ja)
Inventor
Tatsuya Ishihara
達也 石原
Yukihiro Nakamura
幸博 中村
Nobuhiro Muto
伸洋 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008081321A priority Critical patent/JP2009236602A/en
Publication of JP2009236602A publication Critical patent/JP2009236602A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Force Measurement Appropriate To Specific Purposes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a contact force vector detector for detecting the strength and the direction of a force applied by a physical object, without utilizing deformation of a contacted element. <P>SOLUTION: This contact force vector detector is equipped with a detection part 101 for detecting a first domain of the physical object contacting with a transmitting plate and a second domain which does not contact the transmitting plate from an input image, acquired by photographing the physical object via the transmitting plate; a characteristic quantity calculating part for calculating a plurality of characteristic quantities for each of images in the first and second domains in the input image, a generating part 107, generating characteristic quantity vectors based on the plurality of characteristic quantities; and a contact-force vector calculating part 109 for calculating contact-force vectors, each showing the strength and direction of contact force, based on a correlation between the quantity vectors and the strengths and directions of contact forces applied to the transmitting plate by the physical object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、対象物の接触力の大きさ及び方向を検出する接触力ベクトル検出装置及び方法に関する。   The present invention relates to a contact force vector detection apparatus and method for detecting the magnitude and direction of a contact force of an object.

近年、触覚情報を検出する触覚センサが研究され、マンマシンインターフェースとして利用されている。従来の触覚センサは、センサ構造が複雑なため壊れやすい、配線数が多い及び触覚情報の検出面が特定の形状に限られるなどの問題がある。
また、従来の触覚センサは、実際に対象物が接触する時点まで何ら情報を取得できない問題もある。例えば、上記触覚センサを搭載したロボットに障害物回避動作を行わせる場合、当該ロボットが視覚情報を得られない領域(死角)に存在する障害物は、触覚センサと接触する時点まで認識されない。従って、上記ロボットは、死角に存在する障害物の認識が遅れ、当該障害物の回避が困難となる。
In recent years, tactile sensors that detect tactile information have been studied and used as man-machine interfaces. The conventional tactile sensor has problems such as a fragile sensor structure, a large number of wires, and a tactile information detection surface limited to a specific shape.
Further, the conventional tactile sensor has a problem that it cannot acquire any information until the time when the object actually contacts. For example, when a robot equipped with the tactile sensor performs an obstacle avoiding operation, an obstacle existing in a region (a blind spot) where the robot cannot obtain visual information is not recognized until it comes into contact with the tactile sensor. Therefore, the robot is delayed in recognizing the obstacle present in the blind spot, and it is difficult to avoid the obstacle.

非特許文献1記載の触覚センサは、触覚情報の検出面を感圧導電性ゴムで構成することによって、配線数の比較的少ない構造を実現している。また、非特許文献2記載の触覚カメラは、透明な弾性体内部に2種類のマーカーを配置し、当該マーカーの弾性体内部における位置変化の様子をカメラによって撮影し、当該位置変化に基づいて触覚情報を算出している。非特許文献2記載の触覚カメラも、比較的少ない配線数で構成可能である。非特許文献1記載の触覚センサ及び非特許文献2記載の触覚カメラはいずれも、感圧導電性ゴム及び内部にマーカーが配置された弾性体などの被接触素子の変形を利用して触覚情報を算出している。   The tactile sensor described in Non-Patent Document 1 realizes a structure with a relatively small number of wires by configuring the tactile information detection surface with pressure-sensitive conductive rubber. In addition, the tactile camera described in Non-Patent Document 2 has two types of markers arranged inside a transparent elastic body, photographs the position change of the marker inside the elastic body, and the tactile sense based on the position change. Information is calculated. The tactile camera described in Non-Patent Document 2 can also be configured with a relatively small number of wires. Both the tactile sensor described in Non-Patent Document 1 and the tactile camera described in Non-Patent Document 2 use the deformation of a contacted element such as a pressure-sensitive conductive rubber and an elastic body in which a marker is arranged to provide tactile information. Calculated.

一方、非特許文献3記載の爪装着型センサは、爪に装着可能な光学センサであり、被験者が指腹部に力を加えたときの爪下の血流変化に伴う色変化に基づいて上記指腹部に掛かる力を算出している。また、非特許文献4記載のポインティングデバイスは、指紋センサ表面に接触される指の指紋中心座標の移動量に基づいてポインタの移動量を決定している。   On the other hand, the nail-mounted sensor described in Non-Patent Document 3 is an optical sensor that can be mounted on the nail, and the finger is based on the color change accompanying the blood flow change under the nail when the subject applies force to the finger pad. The force applied to the abdomen is calculated. In the pointing device described in Non-Patent Document 4, the amount of movement of the pointer is determined based on the amount of movement of the fingerprint center coordinates of the finger touching the surface of the fingerprint sensor.

下条誠,谷保勇樹,並木明夫,石川正俊,2次元分布荷重測定方法を用いた触覚センサへの応用,第5回計測自動制御学会 システムインテグレーション部門講演会(SI2004)(つくば,2004.12.19)/講演会論文集,pp.1144-1145Makoto Shimojo, Yuki Taniho, Akio Namiki, Masatoshi Ishikawa, Application to tactile sensors using two-dimensional distributed load measurement method, 5th SICE System Integration Division Annual Conference (SI2004) (Tsukuba, December 19, 2004) / Lecture Proceedings, pp.1144-1145

神山和人,梶本裕之,稲見昌彦,川上直樹,舘▲ショウ▼,“触覚カメラ”,電学論E,Vol. 123, No. 1, pp.16-22 (2003)Kazuyama Kamiyama, Hiroyuki Enomoto, Masahiko Inami, Naoki Kawakami, Tsuji ▲ Show ▼, “Tactile Cameras”, Electrical Engineering E, Vol. 123, No. 1, pp.16-22 (2003)

安藤英由樹,渡辺淳司,杉本麻樹,前田太郎,“独立成分分析による爪装着型センサの接触力と屈曲の分離”,日本バーチャルリアリティ学会論文誌,Vol. 8, No. 4, pp. 379-387, 2003.Hideyuki Ando, Junji Watanabe, Maki Sugimoto, Taro Maeda, “Separation of contact force and bending of nail-mounted sensor by independent component analysis”, Transactions of the Virtual Reality Society of Japan, Vol. 8, No. 4, pp. 379- 387, 2003.

上田淳,池田篤俊,栗田雄一,小笠原司,“指紋変形を利用した新しいポインティングデバイスの開発”,ヒューマンインタフェースシンポジウム2003論文集,p251-254, 2003.Satoshi Ueda, Atsutoshi Ikeda, Yuichi Kurita, Tsukasa Ogasawara, “Development of a new pointing device using fingerprint deformation”, Proceedings of Human Interface Symposium 2003, p251-254, 2003.

非特許文献1記載の触覚センサは、検出面を構成する感圧導電性ゴムの特性に検出精度が大きく左右される、対象物が力を加えた時点から感圧導電性ゴムが変形するまでにタイムラグ(遅延時間)が生じるのでリアルタイムな触覚情報の検出に向かない、検出中に配線が切れやすいなどの問題がある。   In the tactile sensor described in Non-Patent Document 1, the detection accuracy is greatly influenced by the characteristics of the pressure-sensitive conductive rubber constituting the detection surface. From the time when the object applies force until the pressure-sensitive conductive rubber is deformed. Since a time lag (delay time) occurs, there is a problem that it is not suitable for real-time tactile information detection, and that wiring is easily cut during detection.

非特許文献2記載の触覚カメラは、マーカーを設けた弾性体の形状が略フラットな板状に限定される、対象物が力を加えた時点からマーカーの位置が変化するまでにタイムラグが生じるのでリアルタイムな触覚情報の検出に向かないなどの問題がある。
非特許文献3記載の爪装着型センサは、被験者の指に装着する必要がある。即ち、対象物側にセンサを装着する必要があり、更に当該対象物も指に限定されるため、例えば前述したロボットの触覚センサとしての使用は困難である。また、非特許文献4記載のポインティングデバイスは、触覚情報として対象物の移動量を検出しているものの、接触力の大きさ及び方向を検出していない。
In the tactile camera described in Non-Patent Document 2, the shape of the elastic body provided with the marker is limited to a substantially flat plate shape, and there is a time lag from the point in time when the object applies force until the position of the marker changes. There are problems such as inadequate detection of real-time tactile information.
The nail-mounted sensor described in Non-Patent Document 3 needs to be mounted on the subject's finger. That is, since it is necessary to mount a sensor on the object side and the object is also limited to fingers, it is difficult to use it as a tactile sensor for the robot described above, for example. In addition, the pointing device described in Non-Patent Document 4 detects the amount of movement of the object as tactile information, but does not detect the magnitude and direction of the contact force.

従って、本発明は被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出可能な接触力ベクトル検出装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a contact force vector detection device capable of detecting the magnitude and direction of a force applied by an object without using deformation of a contacted element.

本発明の一態様に係る接触力ベクトル検出装置は、透過板を介して対象物を撮影して得られる入力画像から、前記対象物の前記透過板に接触している第1の領域及び前記透過板に接触していない第2の領域を検出する検出部と;前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出部と;前記複数の特徴量に基づき特徴量ベクトルを生成する生成部と;前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出部と;を具備する。   The contact force vector detection device according to an aspect of the present invention includes, from an input image obtained by photographing an object through a transmission plate, the first region of the object that is in contact with the transmission plate and the transmission A detection unit that detects a second region that is not in contact with the board; and a feature amount calculation unit that calculates a plurality of feature amounts for each of the image of the first region and the image of the second region in the input image. A generating unit that generates a feature vector based on the plurality of feature values; and the contact based on a correlation between the feature vector and the magnitude and direction of a contact force applied to the transmission plate by the object. A contact force vector calculation unit that calculates a contact force vector indicating the magnitude and direction of the force.

本発明によれば、被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出可能な接触力ベクトル検出装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the contact force vector detection apparatus which can detect the magnitude | size and direction of the force which a target object applies without utilizing the deformation | transformation of a to-be-contacted element can be provided.

以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の一実施形態に係る接触力ベクトル検出装置は、輪郭抽出部101、色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105、曲率算出部106、特徴量ベクトル生成部107、マッピング部108及び接触力ベクトル算出部109を有する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, a contact force vector detection device according to an embodiment of the present invention includes a contour extraction unit 101, a color analysis unit 102, an area calculation unit 103, a center of gravity calculation unit 104, an inertia main axis calculation unit 105, and a curvature calculation. A unit 106, a feature vector generation unit 107, a mapping unit 108, and a contact force vector calculation unit 109.

図1の接触力ベクトル検出装置は、例えば図2に示すようなカメラ203透過板202に対し法線方向に透過板202を介して対象物201を撮影して得られる画像が入力画像として入力され、対象物201が透過板202に加える力(接触力)の大きさ及び方向を示す接触力ベクトルを検出する。   In the contact force vector detection device of FIG. 1, for example, an image obtained by photographing the object 201 through the transmission plate 202 in the normal direction to the camera 203 transmission plate 202 as shown in FIG. 2 is input as an input image. The contact force vector indicating the magnitude and direction of the force (contact force) applied by the object 201 to the transmission plate 202 is detected.

接触力ベクトル検出装置において、入力画像は輪郭抽出部101及び色解析部102に入力される。対象物201は、例えば指のような人体の一部であり、弾力を有する。従って、図3に示すように、接触力の増大に伴って接触領域301の面積は大きくなり、色濃度(画素値)は濃くなりエッジが鋭くなる。以降、入力画像は図2に示すように取得されたものとして説明するが、入力画像の取得手法は特に限定されない。例えば、カメラ203は透過板202に対し撮影を行う角度は法線方向に限定されないし、透過板202の形状はフラットでなくてもよい。   In the contact force vector detection device, the input image is input to the contour extraction unit 101 and the color analysis unit 102. The object 201 is a part of a human body such as a finger and has elasticity. Therefore, as shown in FIG. 3, as the contact force increases, the area of the contact region 301 increases, the color density (pixel value) becomes darker, and the edge becomes sharper. In the following description, it is assumed that the input image is acquired as shown in FIG. 2, but the method for acquiring the input image is not particularly limited. For example, the angle at which the camera 203 captures an image with respect to the transmission plate 202 is not limited to the normal direction, and the shape of the transmission plate 202 may not be flat.

輪郭抽出部101は、例えばSobelフィルタ、RobertsフィルタまたはPrewittフィルタなどのエッジ検出フィルタを含む。輪郭抽出部101は、まず、入力画像に含まれる各画素の画素値の水平方向(x軸方向)の微分fx及び垂直方向(y軸方向)の微分fyの演算を以下に示す数式(1)に従って行う。   The contour extraction unit 101 includes an edge detection filter such as a Sobel filter, Roberts filter, or Prewitt filter. The contour extraction unit 101 first calculates mathematical expression (1) below for the differential fx in the horizontal direction (x-axis direction) and the differential fy in the vertical direction (y-axis direction) of the pixel value of each pixel included in the input image. Follow the instructions.

Figure 2009236602
数式(1)において、xは入力画像におけるx軸方向の座標、yは入力画像におけるy軸方向の座標を夫々示し、f(x,y)は入力画像の座標(x,y)における画素値を示す。数式(1)において、fxの値は入力画像の座標(x,y)近傍における水平方向の画素値の変化量、fyの値は入力画像の座標(x,y)近傍における垂直方向の画素値の変化量を夫々示す。
Figure 2009236602
In Equation (1), x represents the coordinate in the x-axis direction in the input image, y represents the coordinate in the y-axis direction in the input image, and f (x, y) represents the pixel value at the coordinate (x, y) in the input image. Indicates. In Equation (1), the value of fx is the amount of change in the horizontal pixel value near the coordinates (x, y) of the input image, and the value of fy is the pixel value in the vertical direction near the coordinates (x, y) of the input image. The amount of change is shown respectively.

輪郭抽出部101は、次に、fx及びfyの絶対値和を入力画像の座標(x,y)近傍における画素値の変化量として算出する。輪郭抽出部101は、以上のように算出された画素値の変化量の大きな箇所、即ち画素値が急激に変化する箇所をエッジとして検出する。輪郭抽出部101は、エッジ検出結果に基づき対象物201が透過板202に接触する接触領域301及び接触しない非接触領域302の輪郭を抽出する。輪郭抽出部101は、抽出した接触領域301の輪郭及び非接触領域302の輪郭を色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106に渡す。   Next, the contour extraction unit 101 calculates the sum of absolute values of fx and fy as a change amount of the pixel value in the vicinity of the coordinates (x, y) of the input image. The contour extraction unit 101 detects, as an edge, a portion where the amount of change in the pixel value calculated as described above, that is, a portion where the pixel value changes rapidly. The contour extraction unit 101 extracts the contours of the contact area 301 where the object 201 contacts the transmission plate 202 and the non-contact area 302 where the object 201 does not contact based on the edge detection result. The contour extraction unit 101 passes the extracted contour of the contact region 301 and the contour of the non-contact region 302 to the color analysis unit 102, the area calculation unit 103, the centroid calculation unit 104, the inertia main axis calculation unit 105, and the curvature calculation unit 106.

色解析部102は、入力画像及び輪郭抽出部101からの接触領域301の輪郭に基づき、接触領域301の色(例えばRGB成分)を解析する。色解析部102は、上記解析結果から接触領域301中の各画素の平均画素値を算出し、特徴量ベクトル生成部107に渡す。また、色解析部102は、非接触領域302中の各画素の平均画素値も同様に算出し、特徴量ベクトル生成部107に渡す。   The color analysis unit 102 analyzes the color (for example, RGB component) of the contact region 301 based on the input image and the contour of the contact region 301 from the contour extraction unit 101. The color analysis unit 102 calculates the average pixel value of each pixel in the contact area 301 from the analysis result and passes it to the feature vector generation unit 107. In addition, the color analysis unit 102 similarly calculates the average pixel value of each pixel in the non-contact region 302 and passes it to the feature vector generation unit 107.

面積算出部103は、輪郭抽出部101からの接触領域301の輪郭に基づいて0次モーメントm00を算出し、接触領域301の面積として特徴量ベクトル生成部107に渡す。具体的には、面積算出部103は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(2)に従って0次モーメントm00を算出する。   The area calculation unit 103 calculates a zero-order moment m00 based on the contour of the contact region 301 from the contour extraction unit 101, and passes it to the feature vector generation unit 107 as the area of the contact region 301. Specifically, the area calculation unit 103 binarizes the pixel value of the pixel inside the contour of the contact region 301 to “1” and the pixel value of the pixel outside the contour to “0”, and follows the following formula (2) Calculate the 0th moment m00.

Figure 2009236602
また、面積算出部103は、非接触領域302の面積も同様に算出し、特徴量ベクトル生成部107に渡す。
重心算出部104は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の重心を示す座標を算出する。まず、重心算出部104は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(3)に従って1次モーメントm10及びm01を算出する。
Figure 2009236602
The area calculation unit 103 also calculates the area of the non-contact region 302 in the same manner, and passes it to the feature vector generation unit 107.
The center-of-gravity calculation unit 104 calculates coordinates indicating the center of gravity of the contact region 301 based on the contour of the contact region 301 from the contour extraction unit 101. First, the center-of-gravity calculation unit 104 binarizes the pixel value of the pixel inside the contour of the contact area 301 to “1” and the pixel value of the pixel outside the contour to “0”, and first moment according to the following formula (3) m10 and m01 are calculated.

Figure 2009236602
重心算出部104は、次に、上記1次モーメントm10及びm01と、面積算出部103によって算出された接触領域301の面積(=m00)とを用いて、以下の数式(4)に従って接触領域301の重心を示す座標(mx,my)を算出する。
Figure 2009236602
Next, the center-of-gravity calculation unit 104 uses the first moments m10 and m01 and the area (= m00) of the contact region 301 calculated by the area calculation unit 103 according to the following formula (4). The coordinates (mx, my) indicating the center of gravity are calculated.

Figure 2009236602
ここで、mxは重心のx軸方向の座標、myは重心のy軸方向の座標を夫々示す。
また、重心算出部104は、非接触領域302の重心の座標も同様に算出し、特徴量ベクトル生成部107に渡す。
慣性主軸算出部105は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の慣性主軸を算出する。まず、慣性主軸算出部105は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(5)に従って2次モーメントm20、m11及びm02を算出する。
Figure 2009236602
Here, mx represents the coordinate of the center of gravity in the x-axis direction, and my represents the coordinate of the center of gravity in the y-axis direction.
In addition, the center of gravity calculation unit 104 calculates the coordinates of the center of gravity of the non-contact region 302 in the same manner, and passes it to the feature quantity vector generation unit 107.
The inertia main axis calculation unit 105 calculates the inertia main axis of the contact region 301 based on the contour of the contact region 301 from the contour extraction unit 101. First, the inertial principal axis calculation unit 105 binarizes the pixel value of the pixel inside the contour of the contact area 301 to “1” and the pixel value of the pixel outside the contour to “0”, and performs quadratic according to the following formula (5). Calculate moments m20, m11 and m02.

Figure 2009236602
慣性主軸算出部105は、次に、上記2次モーメントm20、m11及びm20を用いて、以下の数式(6)に従って接触領域301の慣性主軸を与える傾きaxisを算出する。
Figure 2009236602
Next, the inertia main axis calculation unit 105 calculates the inclination axis that gives the inertia main axis of the contact region 301 according to the following equation (6) using the second moments m20, m11, and m20.

Figure 2009236602
また、慣性主軸算出部105は、非接触領域302の慣性主軸も同様に算出し、特徴量ベクトル生成部107に渡す。
曲率算出部106は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の輪郭上の各画素における曲率を算出する。具体的には、曲率算出部106は、接触領域301の輪郭上の任意の画素Piと、当該画素PiからL画素離れた輪郭上の2つ画素Pi-L及びPi+Lとが作る2つのベクトルがなす角を曲率θiとして算出する。例えば、L=12とした場合の画素Pi、画素Pi-L及び画素Pi+Lの関係は図4に示す通りである。曲率算出部106は、画素Pi及び画素Pi-Lが作るベクトルが水平方向に対しなす角をθinと、画素Pi及び画素Pi+Lが作るベクトルが水平方向に対しなす角をθoutとを、以下の数式(7)に従って算出する。
Figure 2009236602
In addition, the inertia main axis calculation unit 105 calculates the inertia main axis of the non-contact region 302 in the same manner, and passes it to the feature vector generation unit 107.
The curvature calculation unit 106 calculates the curvature of each pixel on the contour of the contact region 301 based on the contour of the contact region 301 from the contour extraction unit 101. Specifically, the curvature calculation unit 106 includes two pixels Pi that are formed by an arbitrary pixel Pi on the contour of the contact area 301 and two pixels Pi-L and Pi + L on the contour that are L pixels away from the pixel Pi. The angle formed by the vector is calculated as the curvature θi. For example, when L = 12, the relationship between the pixel Pi, the pixel Pi-L, and the pixel Pi + L is as shown in FIG. The curvature calculation unit 106 defines θin as an angle formed by the vector formed by the pixel Pi and the pixel Pi-L with respect to the horizontal direction, and θout indicates an angle formed by the vector formed by the pixel Pi and the pixel Pi + L with respect to the horizontal direction. This is calculated according to Equation (7).

Figure 2009236602
曲率算出部106は、θin及びθoutの差分を、画素Piにおける曲率θiとして特徴量ベクトル生成部107に渡す。また、曲率算出部106は、非接触領域302の輪郭上の各画素における曲率も同様に算出し、特徴量ベクトル生成部107に渡す。尚、前述した曲率の算出手法は、文献「計測自動制御学会東北支部 第181回研究集会(1999.5.21) 資料番号181−1 “画像内の人間領域の抽出”,Owei HongBin,梶川伸哉,猪岡光」に詳しい。
Figure 2009236602
The curvature calculation unit 106 passes the difference between θin and θout to the feature vector generation unit 107 as the curvature θi at the pixel Pi. Further, the curvature calculation unit 106 similarly calculates the curvature at each pixel on the contour of the non-contact region 302 and passes it to the feature vector generation unit 107. Note that the curvature calculation method described above is described in the document “The Society of Instrument and Control Engineers Tohoku Branch, 181st Research Meeting (1999.5.21), Material No. 181-1“ Extraction of Human Regions in Images ”, Owei HongBin, Shinya Ninagawa. , "Hikari Tsujioka" is familiar

尚、前述した面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106は、その他の既存の手法を用いて算出を行ってもよい。以下、重心算出部104及び慣性主軸算出部105における重心及び慣性主軸の算出の変形例を説明する。   The area calculation unit 103, the center of gravity calculation unit 104, the inertia main axis calculation unit 105, and the curvature calculation unit 106 described above may be calculated using other existing methods. Hereinafter, modified examples of the calculation of the center of gravity and the inertia main axis in the center of gravity calculation unit 104 and the inertia main axis calculation unit 105 will be described.

重心算出部104及び慣性主軸算出部105は、輪郭抽出部101からの接触領域301の輪郭に対し、楕円近似を行う。具体的には、重心算出部104及び慣性主軸算出部105は、接触領域301の輪郭上の各画素の座標(x,y)を変量とし、最小二乗法を用いて以下の数式(8)(楕円の公式)を満たす座標(X,Y)に近似する。   The center-of-gravity calculation unit 104 and the inertial principal axis calculation unit 105 perform ellipse approximation on the contour of the contact area 301 from the contour extraction unit 101. Specifically, the center-of-gravity calculation unit 104 and the inertial principal axis calculation unit 105 use the coordinates (x, y) of each pixel on the contour of the contact region 301 as a variable, and use the least square method to obtain the following formula (8) ( Approximate to the coordinates (X, Y) satisfying the ellipse formula.

Figure 2009236602
ここで、最小二乗法を用いて近似するとは、接触領域301の輪郭上の各画素の座標(x、y)と、上記楕円上の座標(X,Y)との間の誤差の二乗和が最小となるXo、Yo、a、b及びθを導出することを意味する。尚、図5に示すように、座標(Xo,Yo)が楕円の中心の座標、aおよびbが半長軸及び半短軸、θが長軸のx軸に対する傾きを夫々示す。
Figure 2009236602
Here, the approximation using the least square method means that the sum of squares of errors between the coordinates (x, y) of each pixel on the contour of the contact region 301 and the coordinates (X, Y) on the ellipse. It means deriving Xo, Yo, a, b and θ which are the minimum. As shown in FIG. 5, the coordinates (Xo, Yo) are the coordinates of the center of the ellipse, a and b are the semi-major axis and the semi-minor axis, and θ is the inclination of the major axis with respect to the x-axis.

重心算出部104は、楕円の中心の座標(Xo,Yo)を接触領域の重心を示す座標として算出する。また、慣性主軸算出部105は、楕円の長軸のx軸に対する傾きθを慣性主軸として算出する。尚、重心算出部104及び慣性主軸算出部105は、非接触領域302の重心及び慣性主軸も同様に算出できる。   The center of gravity calculation unit 104 calculates the coordinates (Xo, Yo) of the center of the ellipse as coordinates indicating the center of gravity of the contact area. The inertia main axis calculation unit 105 calculates the inclination θ of the major axis of the ellipse with respect to the x axis as the inertia main axis. The center-of-gravity calculation unit 104 and the inertial principal axis calculation unit 105 can similarly calculate the center of gravity and the inertial main axis of the non-contact region 302.

特徴量ベクトル生成部107は、前述した色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106によって得られた各種特徴量を用いて特徴量ベクトルを生成する。具体的には、特徴量ベクトルは多次元データであって、特徴量ベクトル生成部107は上記各種特徴量に基づいて特徴量ベクトルの各成分を算出する。   The feature amount vector generation unit 107 generates a feature amount vector using various feature amounts obtained by the color analysis unit 102, the area calculation unit 103, the centroid calculation unit 104, the inertia principal axis calculation unit 105, and the curvature calculation unit 106 described above. To do. Specifically, the feature quantity vector is multidimensional data, and the feature quantity vector generation unit 107 calculates each component of the feature quantity vector based on the various feature quantities.

以下、特徴量ベクトルの成分を例示する。
特徴量ベクトル生成部107は、図6に示すように、接触領域301の重心Bから曲率最大位置Cまでのベクトルを特徴量ベクトルの一成分として算出してもよい。当該成分は、接触領域301における歪みのピーク位置を示す。
Hereinafter, components of the feature vector are exemplified.
The feature vector generation unit 107 may calculate a vector from the center of gravity B of the contact area 301 to the maximum curvature position C as one component of the feature vector as shown in FIG. The component indicates a distortion peak position in the contact region 301.

また、特徴量ベクトル生成部107は、接触領域301の曲率最大値と曲率最小値の間の差分を特徴量ベクトルの一成分として算出してもよい。当該成分は、接触領域301の歪みの程度を示す。
また、特徴量ベクトル生成部107は、接触領域301の重心の座標と非接触領域302の重心の座標との間の差分を特徴量ベクトルの一成分として算出してもよい。尚、上記差分は、ベクトルであってもよいし、距離であってもよい。当該成分は、接触領域301の重心のずれの程度を示す。
The feature quantity vector generation unit 107 may calculate a difference between the maximum curvature value and the minimum curvature value of the contact area 301 as one component of the feature quantity vector. The component indicates the degree of distortion of the contact area 301.
Further, the feature quantity vector generation unit 107 may calculate a difference between the coordinates of the center of gravity of the contact area 301 and the coordinates of the center of gravity of the non-contact area 302 as one component of the feature quantity vector. The difference may be a vector or a distance. This component indicates the degree of deviation of the center of gravity of the contact area 301.

また、特徴量ベクトル生成部107は、接触領域301及び非接触領域302を楕円近似した2つの楕円の4頂点同士の距離の偏差を特徴量ベクトルの一成分として算出してもよい。具体的には、特徴量ベクトル生成部107は、図7に示す2つの楕円の4頂点同士の距離d1,d2,d3及びd4の最大値に対する最小値の比率を上記偏差とする。当該成分は、接触領域301の歪みの程度を示す。   Further, the feature quantity vector generation unit 107 may calculate the deviation of the distance between the four vertices of two ellipses obtained by ellipse approximation of the contact area 301 and the non-contact area 302 as one component of the feature quantity vector. Specifically, the feature vector generation unit 107 sets the ratio of the minimum value to the maximum value of the distances d1, d2, d3, and d4 between the four vertices of the two ellipses shown in FIG. 7 as the deviation. The component indicates the degree of distortion of the contact area 301.

また、特徴量ベクトル生成部107は、非接触領域302の面積に対する接触領域301の面積の比率を特徴量ベクトルの一成分として算出してもよい。当該成分は、対象物202が透過板203に加える力の大きさの程度を示す。
また、特徴量ベクトル生成部107は、面積算出部103及び色解析部102によって得られた接触領域301の面積及び平均画素値をそのまま特徴量ベクトルの一成分としてもよい。当該成分は、対象物202が透過板203に加える力の大きさの程度を示す。
The feature quantity vector generation unit 107 may calculate the ratio of the area of the contact area 301 to the area of the non-contact area 302 as one component of the feature quantity vector. The component indicates the magnitude of the force that the object 202 applies to the transmission plate 203.
In addition, the feature vector generation unit 107 may use the area and average pixel value of the contact region 301 obtained by the area calculation unit 103 and the color analysis unit 102 as they are as one component of the feature vector. The component indicates the magnitude of the force that the object 202 applies to the transmission plate 203.

更に、特徴量ベクトル生成部107は、接触領域301の慣性主軸と非接触領域302の慣性主軸の間の差分を特徴量ベクトルの一成分として算出してもよい。当該成分は、非接触領域302に対する接触領域301の回転の程度を示す。
特徴量ベクトル生成部107は、以上のように生成した特徴量ベクトルをマッピング部108に渡す。尚、上記特徴量ベクトルは、対象物202の接触力の大きさ及び方向と相関があり、接触力ベクトルが類似していれば、類似した特徴量ベクトルが得られる。
Further, the feature quantity vector generation unit 107 may calculate a difference between the inertia principal axis of the contact area 301 and the inertia principal axis of the non-contact area 302 as one component of the feature quantity vector. The component indicates the degree of rotation of the contact area 301 with respect to the non-contact area 302.
The feature vector generation unit 107 passes the feature vector generated as described above to the mapping unit 108. The feature vector is correlated with the magnitude and direction of the contact force of the object 202. If the contact force vectors are similar, similar feature vectors can be obtained.

マッピング部108は、自己組織化マッピング(SOM)アルゴリズムを用いて、特徴量ベクトル生成部107からの特徴量ベクトルのマッピングを行う。ここで、SOMについて説明する。
SOMによれば、マッピング部108は上記特徴量ベクトルなどの多次元データを例えば2次元空間上にマッピングすることができる。更に詳細には、マッピング部108はSOMによって、類似する特徴量ベクトル同士が近づき、類似しない特徴量ベクトルが離れるようにマッピングすることができる。
The mapping unit 108 performs mapping of the feature amount vector from the feature amount vector generation unit 107 using a self-organizing mapping (SOM) algorithm. Here, SOM will be described.
According to the SOM, the mapping unit 108 can map multidimensional data such as the feature quantity vector on a two-dimensional space, for example. More specifically, the mapping unit 108 can perform mapping so that similar feature amount vectors approach each other and dissimilar feature amount vectors are separated by SOM.

マッピング部108がマッピングを行うマッピング空間は格子状の2次元空間であり、上記特徴量ベクトルはいずれかのノード(格子点)にマッピングされる。各ノードには特徴量ベクトルと同じ次元の重みベクトルが割り当てられている。マッピング部108は、入力される特徴量ベクトルを当該特徴量ベクトルに最も近い重みベクトルを持つノードへマッピングする。ここで、ベクトル間の距離としてユークリッド距離が用いられることが多い。尚、マッピング部108は、上記各重みベクトルの初期値を任意に割り当てておき、学習によって適切な値に近づける。重みベクトルの学習は、図1の接触力ベクトル検出装置が実際に接触力ベクトルの検出を行う前に、以下のように行われている。   The mapping space in which the mapping unit 108 performs mapping is a grid-like two-dimensional space, and the feature vector is mapped to any node (grid point). Each node is assigned a weight vector having the same dimension as the feature vector. The mapping unit 108 maps the input feature vector to a node having a weight vector closest to the feature vector. Here, the Euclidean distance is often used as the distance between vectors. The mapping unit 108 arbitrarily assigns initial values of the respective weight vectors, and approximates them to appropriate values by learning. Learning of the weight vector is performed as follows before the contact force vector detection apparatus in FIG. 1 actually detects the contact force vector.

重みベクトルの学習には、教師信号が用いられる。教師信号は、複数の接触力ベクトルのパターンから得られる特徴量ベクトルである。以降の説明では、接触力の方向(上下左右のいずれか)及び大きさ(強弱いずれか)別に計8(=4×2)パターンの接触力ベクトルに応じた教師信号を用いるものとする。マッピング部108は、「上方向に強い(以下、「上強」と称する)」接触力ベクトルに対し、特徴量ベクトル生成部107によって生成される特徴量ベクトルを「上強」の教師信号として取得する。マッピング部108は、以下同様に、「上弱」、「下強」、「下弱」、「左強」、「左弱」、「右強」及び「右弱」の教師信号も取得し、学習を行う。   A teacher signal is used for weight vector learning. The teacher signal is a feature vector obtained from a plurality of contact force vector patterns. In the following description, it is assumed that teacher signals corresponding to the contact force vectors of a total of 8 (= 4 × 2) patterns are used for each direction (either up, down, left or right) and magnitude (either strong or weak). The mapping unit 108 acquires the feature vector generated by the feature vector generation unit 107 as a teacher signal of “upper strength” with respect to the contact force vector “strong in the upward direction (hereinafter referred to as“ upper strength ”). To do. Similarly, the mapping unit 108 acquires teacher signals of “upper weak”, “lower strong”, “lower weak”, “left strong”, “left weak”, “right strong”, and “right weak”, Do learning.

まず、マッピング部108は、教師信号としての特徴量ベクトルに最も近い重みベクトルを持つノードを探索する。マッピング部108によって探索されたノードの重みベクトルは、勝者ベクトルと呼ばれる。マッピング部108は、勝者ベクトルを上記特徴量ベクトルに近づける。具体的には、マッピング部108は現在の勝者ベクトルに、上記特徴量ベクトルと勝者ベクトルとの間の差分に所定の学習率係数を乗じたベクトルを加えて更新する。また、マッピング部108は上記勝者ベクトルを持つノードの近傍のノードの重みベクトルも更新する。具体的には、マッピング部108は上記学習率係数をノード間の距離に応じて減少させて、同様の演算を行う。以下、マッピング部108は、同様の処理を複数回繰り返し、重みベクトルの学習を行う。尚、上記学習率係数は、繰り返し回数に応じて減少させることが望ましい。次に、マッピング部108は、上記教師信号としての特徴量ベクトルの各々に最も近い重みベクトルを持つノードに基づき、図8に示すようにマッピング空間を上記複数のパターンを示す複数の領域に分割する。尚、マッピング空間の分割には例えばボロノイ分割が用いられる。   First, the mapping unit 108 searches for a node having a weight vector closest to the feature quantity vector as the teacher signal. The node weight vector searched by the mapping unit 108 is called a winner vector. The mapping unit 108 brings the winner vector close to the feature vector. Specifically, the mapping unit 108 updates the current winner vector by adding a vector obtained by multiplying the difference between the feature vector and the winner vector by a predetermined learning rate coefficient. The mapping unit 108 also updates the weight vectors of nodes in the vicinity of the node having the winner vector. Specifically, the mapping unit 108 performs the same calculation by reducing the learning rate coefficient according to the distance between the nodes. Hereinafter, the mapping unit 108 repeats the same processing a plurality of times to perform weight vector learning. The learning rate coefficient is desirably decreased according to the number of repetitions. Next, the mapping unit 108 divides the mapping space into a plurality of regions indicating the plurality of patterns as shown in FIG. 8 based on the node having the weight vector closest to each of the feature vector as the teacher signal. . For example, Voronoi division is used for dividing the mapping space.

マッピング部108は、図9に示すように、入力された特徴量ベクトルをボロノイ分割されたマッピング空間にマッピングする(図9において「×」で示した箇所)。マッピング部108は、マッピング位置を接触力算出部109に渡す。
接触力ベクトル算出部109は、マッピング部108からのマッピング位置に基づいて対象物202の接触力ベクトルを算出する。例えば、接触力ベクトル算出部109は、前述した図9に示すマッピング位置に対し、以下のように接触力ベクトルを算出する。
As shown in FIG. 9, the mapping unit 108 maps the input feature quantity vector to a Voronoi-divided mapping space (location indicated by “x” in FIG. 9). The mapping unit 108 passes the mapping position to the contact force calculation unit 109.
The contact force vector calculation unit 109 calculates a contact force vector of the object 202 based on the mapping position from the mapping unit 108. For example, the contact force vector calculation unit 109 calculates a contact force vector for the mapping position shown in FIG. 9 described above as follows.

まず、接触力ベクトル算出部109は、マッピング位置が属する領域から接触力ベクトルの主成分を判定する。図9に示すマッピング位置は「右強」の領域に含まれているため、接触力ベクトル算出部109は「右強」を接触力ベクトルの主成分として判定する。   First, the contact force vector calculation unit 109 determines the main component of the contact force vector from the region to which the mapping position belongs. Since the mapping position shown in FIG. 9 is included in the “strong right” region, the contact force vector calculation unit 109 determines “strong right” as the main component of the contact force vector.

次に、接触力ベクトル算出部109は、上記マッピング位置が属する領域に隣接する領域(以下、隣接領域と称する)の影響を算出する。ここで、隣接領域とは、図8及び図9において実線で示す境界線によって区切られる領域を意味する。即ち、「右強」及び「右弱」の隣接領域は「上強」及び「上弱」と「下弱」及び「下強」である。   Next, the contact force vector calculation unit 109 calculates the influence of an area adjacent to the area to which the mapping position belongs (hereinafter referred to as an adjacent area). Here, the adjacent region means a region delimited by a boundary line indicated by a solid line in FIGS. That is, the adjacent regions of “right strong” and “right weak” are “upper strong”, “upper weak”, “lower weak”, and “lower strong”.

具体的には、接触力ベクトル算出部109は、マッピング位置と、境界線との間の距離を算出する。図9の例であれば接触力ベクトル算出部109は、図10に示すように、「上強」との境界線i及びマッピング位置の間の距離li、「下強」との境界線i+1及びマッピング位置の間の距離li+1を夫々算出する。   Specifically, the contact force vector calculation unit 109 calculates the distance between the mapping position and the boundary line. In the example of FIG. 9, as shown in FIG. 10, the contact force vector calculation unit 109 has a boundary line i with “upper strength” and a distance li between mapping positions, a boundary line i + 1 with “lower strength”, and A distance l i + 1 between the mapping positions is calculated.

接触力ベクトル算出部109は、算出した距離が所定の閾値δ以上であれば、当該隣接領域の影響を無視する。一方、接触力ベクトル算出部109は、算出した距離が上記閾値δ未満であれば、当該隣接領域の影響を考慮する。前述した図10に示す例において、li<δ<li+1であれば、接触力ベクトル算出部109は、「上強」の影響を考慮し、「下強」の影響を無視する。   If the calculated distance is equal to or greater than the predetermined threshold δ, the contact force vector calculation unit 109 ignores the influence of the adjacent region. On the other hand, if the calculated distance is less than the threshold δ, the contact force vector calculation unit 109 considers the influence of the adjacent region. In the example shown in FIG. 10 described above, if li <δ <li + 1, the contact force vector calculation unit 109 considers the influence of “upper strength” and ignores the influence of “lower strength”.

接触力ベクトル算出部109は、上記距離に応じて減少する関数によって隣接領域の影響の程度を算出する。上記関数の一例を以下の数式(9)に示す。   The contact force vector calculation unit 109 calculates the degree of influence of the adjacent region by a function that decreases according to the distance. An example of the above function is shown in the following formula (9).

Figure 2009236602
数式(9)においてIiは境界線iによって区切られる隣接領域の影響の程度、α及びβは所定の係数、liは境界線iからの距離を夫々示す。接触力ベクトル算出部109は隣接領域の影響を考慮することによって、特にマッピング位置が境界線付近であった場合に、より正確な接触力ベクトルを算出できる。
Figure 2009236602
In Equation (9), Ii represents the degree of influence of the adjacent region delimited by the boundary line i, α and β represent predetermined coefficients, and l i represents the distance from the boundary line i. The contact force vector calculation unit 109 can calculate a more accurate contact force vector by considering the influence of the adjacent region, particularly when the mapping position is near the boundary line.

接触力ベクトル算出部109は、以上のように算出した隣接領域の影響を、前述した主成分に加え、接触力ベクトルとして出力する。上記例であれば、接触力ベクトル算出部109は、「「右強」+βexp(−αli)×「上強」」を接触力ベクトルとして出力する。   The contact force vector calculation unit 109 adds the influence of the adjacent region calculated as described above to the above-described main component and outputs it as a contact force vector. In the above example, the contact force vector calculation unit 109 outputs ““ right strong ”+ βexp (−αli) ד upper strength ”” as the contact force vector.

以下、図11に示すフローチャートを用いて図1の接触力ベクトル検出装置の動作の一例を説明する。尚、処理の開始前にマッピング部108の重みベクトルの学習は既に済んでおり、接触力ベクトルの複数のパターンを示す領域にマッピング空間が分割されているものとする。
まず、輪郭抽出部101が入力画像中の接触領域301の輪郭及び非接触領域302の輪郭を夫々抽出する(ステップS401)。次に、色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106は、ステップS401において抽出された輪郭に基づいて接触領域301及び非接触領域302の平均画素値、面積、重心、慣性主軸及び曲率を特徴量として夫々算出する(ステップS402)。尚、ステップS402において一部の特徴量の算出を省いてもよいし、その他の特徴量を算出してもよい。
Hereinafter, an example of the operation of the contact force vector detection device of FIG. 1 will be described using the flowchart shown in FIG. It is assumed that the weight vector of the mapping unit 108 has already been learned before the processing is started, and the mapping space is divided into regions indicating a plurality of patterns of contact force vectors.
First, the contour extraction unit 101 extracts the contour of the contact area 301 and the contour of the non-contact area 302 in the input image (step S401). Next, the color analysis unit 102, the area calculation unit 103, the center of gravity calculation unit 104, the inertia main axis calculation unit 105, and the curvature calculation unit 106 calculate the average of the contact area 301 and the non-contact area 302 based on the contour extracted in step S401. The pixel value, area, center of gravity, inertial principal axis, and curvature are respectively calculated as feature amounts (step S402). In step S402, calculation of some feature values may be omitted, or other feature values may be calculated.

次に、特徴量ベクトル生成部107は、ステップS402において算出された特徴量に基づき特徴量ベクトルを生成する(ステップS403)。特徴量ベクトルの成分は、例えば(a)接触領域301の重心から曲率最大位置までのベクトル、(b)接触領域301の曲率最大値と曲率最小値の間の差分、(c)接触領域301の重心の座標と非接触領域302の重心の座標との間の差分、(d)接触領域301及び非接触領域302を楕円近似した2つの楕円の4頂点同士の距離の偏差、(e)非接触領域302の面積に対する接触領域301の面積の比率、(f)接触領域301の面積、(g)接触領域301の平均画素値及び(h)接触領域301の慣性主軸と非接触領域302の慣性主軸の間の差分などが挙げられる。特徴量ベクトル生成部107が生成する特徴量ベクトルは、上記(a)乃至(h)を全て成分として含んでもよいし、一部を成分として含まなくてもよいし、その他の成分を含んでもよい。   Next, the feature vector generation unit 107 generates a feature vector based on the feature calculated in step S402 (step S403). The component of the feature vector is, for example, (a) a vector from the center of gravity of the contact area 301 to the maximum curvature position, (b) a difference between the maximum curvature value and the minimum curvature value of the contact area 301, and (c) the contact area 301 The difference between the coordinates of the center of gravity and the coordinates of the center of gravity of the non-contact region 302, (d) the deviation of the distance between the four vertices of two ellipses that approximate the contact region 301 and the non-contact region 302 by an ellipse, and (e) the non-contact The ratio of the area of the contact region 301 to the area of the region 302, (f) the area of the contact region 301, (g) the average pixel value of the contact region 301, and (h) the inertia principal axis of the contact region 301 and the inertia principal axis of the non-contact region 302 The difference between them. The feature vector generated by the feature vector generation unit 107 may include all of the above (a) to (h) as components, may not include some as components, or may include other components. .

次に、マッピング部108は、ステップS403において生成された特徴量ベクトルのマッピングを行う(ステップS404)。前述したように、マッピング空間は接触力ベクトルの複数のパターンを示す領域に分割されている。次に、接触力ベクトル算出部109は、ステップS404でのマッピング位置に基づき接触力ベクトルを算出し(ステップS405)、出力する。   Next, the mapping unit 108 performs mapping of the feature vector generated in step S403 (step S404). As described above, the mapping space is divided into regions indicating a plurality of patterns of contact force vectors. Next, the contact force vector calculation unit 109 calculates a contact force vector based on the mapping position in step S404 (step S405) and outputs it.

以上説明したように、本実施形態に係る接触力ベクトル検出装置は、対象物の接触領域及び非接触領域の特徴量に基づき生成した特徴量ベクトルと、当該特徴量ベクトルと上記対象物の接触力の大きさ及び方向との間の相関に基づき接触力ベクトルを算出している。より詳細には、上記相関は教師信号によってSOMの重みベクトルを学習することによって得られる。本実施形態に係る接触力ベクトル検出装置によれば、被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出できる。従って、力を加えた時点から被接触素子が変形するまでのタイムラグが問題とならない。   As described above, the contact force vector detection device according to the present embodiment includes the feature amount vector generated based on the feature amounts of the contact area and the non-contact area of the target object, and the contact force of the feature quantity vector and the target object. The contact force vector is calculated on the basis of the correlation between the size and direction. More specifically, the correlation is obtained by learning the SOM weight vector from the teacher signal. According to the contact force vector detection device according to the present embodiment, the magnitude and direction of the force applied by the object can be detected without using the deformation of the contacted element. Accordingly, there is no problem with the time lag from when the force is applied until the contacted element is deformed.

また、被接触素子としての透過板を介して対象物を撮影することにより入力画像を取得する構成であれば、検出装置本体が対象物に直接触れないため、壊れにくい。入力画像を取得するカメラの映像信号ケーブル及び電源ケーブルの他に配線が必要無く、配線数が少ない。更に、透過板の形状は平坦な板状に限定されず、検出面の形状の自由度が高い。   Further, if the input image is acquired by photographing the object through the transmission plate as the contacted element, the detection apparatus main body does not directly touch the object, and thus is not easily broken. In addition to the video signal cable and power cable of the camera that acquires the input image, no wiring is required and the number of wiring is small. Furthermore, the shape of the transmission plate is not limited to a flat plate shape, and the degree of freedom of the shape of the detection surface is high.

また、本実施形態に係る接触力ベクトル検出装置によれば、入力画像を解析することによって対象物の滑り検知を比較的容易に行ったり、対象物の接触時点よりも前の情報を取得したりできる。即ち、視覚センサ及び触覚センサの両機能が実現可能である。また、入力画像をカメラによって取得するためセンサ全体の小型化が用意である、上記カメラとしてワイヤレスカメラを使用すれば検出装置本体を分離して構成することができるなどの利点がある。   Further, according to the contact force vector detection device according to the present embodiment, it is possible to relatively easily detect the slip of the object by analyzing the input image, or to acquire information before the contact point of the object. it can. That is, both functions of a visual sensor and a tactile sensor can be realized. Further, since the input image is acquired by the camera, there is an advantage that the entire sensor can be reduced in size, and if the wireless camera is used as the camera, the detection device main body can be configured separately.

なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

一実施形態に係る接触力ベクトル検出装置を示すブロック図。The block diagram which shows the contact force vector detection apparatus which concerns on one Embodiment. 図1の接触力ベクトル検出装置における入力画像の取得の様子の説明図。Explanatory drawing of the mode of acquisition of the input image in the contact force vector detection apparatus of FIG. 図2のカメラによって取得される入力画像の対象物の接触力の増大に伴う変化の説明図。Explanatory drawing of the change accompanying the increase in the contact force of the target object of the input image acquired by the camera of FIG. 図1の曲率算出部における曲率の算出の説明図。Explanatory drawing of calculation of the curvature in the curvature calculation part of FIG. 図1の重心算出部及び慣性主軸算出部における重心及び慣性主軸の算出の説明図。FIG. 3 is an explanatory diagram of calculation of a center of gravity and an inertia main axis in a center of gravity calculation unit and an inertia main axis calculation unit in FIG. 1. 図1の特徴量ベクトル生成部によって生成される特徴量ベクトルの一成分の説明図。Explanatory drawing of one component of the feature-value vector produced | generated by the feature-value vector production | generation part of FIG. 図6の別の例の説明図。Explanatory drawing of another example of FIG. 図1のマッピング部が特徴量ベクトルをマッピングするマッピング空間の一例を示す図。The figure which shows an example of the mapping space where the mapping part of FIG. 1 maps a feature-value vector. 図1のマッピング部によるマッピング結果の一例を示す図。The figure which shows an example of the mapping result by the mapping part of FIG. 図1の接触力ベクトル算出部における接触力ベクトルの算出の説明図。Explanatory drawing of calculation of the contact force vector in the contact force vector calculation part of FIG. 図1の接触力ベクトル検出装置の動作の一例を示すフローチャート。The flowchart which shows an example of operation | movement of the contact force vector detection apparatus of FIG.

符号の説明Explanation of symbols

101・・・輪郭抽出部
102・・・色解析部
103・・・面積算出部
104・・・重心算出部
105・・・慣性主軸算出部
106・・・曲率算出部
107・・・特徴量ベクトル生成部
108・・・マッピング部
109・・・接触力ベクトル算出部
201・・・対象物
202・・・透過板
203・・・カメラ
301・・・接触領域
302・・・非接触領域
DESCRIPTION OF SYMBOLS 101 ... Contour extraction part 102 ... Color analysis part 103 ... Area calculation part 104 ... Gravity center calculation part 105 ... Inertial principal axis calculation part 106 ... Curvature calculation part 107 ... Feature-value vector Generation unit 108 ... Mapping unit 109 ... Contact force vector calculation unit 201 ... Object 202 ... Transmission plate 203 ... Camera 301 ... Contact region 302 ... Non-contact region

Claims (10)

透過板を介して対象物を撮影して得られる入力画像から、前記対象物の前記透過板に接触している第1の領域及び前記透過板に接触していない第2の領域を検出する検出部と、
前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出部と、
前記複数の特徴量に基づき特徴量ベクトルを生成する生成部と、
前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出部と
を具備することを特徴とする接触力ベクトル検出装置。
Detection that detects a first region of the object that is in contact with the transmission plate and a second region that is not in contact with the transmission plate from an input image obtained by photographing the object through the transmission plate And
A feature amount calculation unit that calculates a plurality of feature amounts for each of the first region image and the second region image in the input image;
A generating unit that generates a feature vector based on the plurality of feature values;
A contact force vector calculation unit that calculates a contact force vector indicating the magnitude and direction of the contact force based on a correlation between the feature amount vector and the magnitude and direction of the contact force applied to the transmission plate by the object. And a contact force vector detecting device.
前記特徴量算出部は、前記複数の特徴量として前記第1の領域の画像及び前記第2の領域の画像の夫々の平均画素値、面積、重心、慣性主軸及び曲率の少なくとも1つを算出することを特徴とする請求項1記載の接触力ベクトル検出装置。   The feature amount calculation unit calculates at least one of an average pixel value, an area, a center of gravity, a principal axis of inertia, and a curvature of each of the image of the first region and the image of the second region as the plurality of feature amounts. The contact force vector detection device according to claim 1. 前記接触力ベクトルの複数のパターンに応じた教師信号によって学習された重みベクトルが割り当てられた複数のノードのいずれか1つに、前記特徴量ベクトルをマッピングするマッピング部を更に備え、
前記接触力ベクトル算出部は、前記特徴量ベクトルがマッピングされたノードに基づき前記接触力ベクトルを算出することを特徴とする請求項1または2記載の接触力ベクトル検出装置。
A mapping unit that maps the feature vector to any one of a plurality of nodes to which a weight vector learned by a teacher signal corresponding to a plurality of patterns of the contact force vector is assigned;
The contact force vector detection device according to claim 1, wherein the contact force vector calculation unit calculates the contact force vector based on a node to which the feature vector is mapped.
前記特徴量ベクトルは、(a)前記第1の領域の重心から曲率最大位置までのベクトル、(b)前記第1の領域の曲率最大値と曲率最小値の間の差分、(c)前記第1の領域の重心の座標と前記第2の領域の重心の座標との間の差分、(d)前記第1の領域を楕円近似した楕円及び前記第2の領域を楕円近似した楕円の4頂点同士の距離の偏差、(e)前記第2の領域の面積に対する前記第1の領域の面積の比率、(f)前記第1の領域の面積、(g)前記第1の領域の平均画素値及び(h)前記第1の領域の慣性主軸と前記第2の領域の慣性主軸の間の差分の少なくとも1つを含むことを特徴とする請求項1乃至3のいずれか1項記載の接触力ベクトル検出装置。   The feature vector is (a) a vector from the center of gravity of the first region to the maximum curvature position, (b) a difference between the maximum curvature value and the minimum curvature value of the first region, and (c) the first region. The difference between the coordinates of the center of gravity of one region and the coordinates of the center of gravity of the second region, (d) the four vertices of an ellipse that approximates the first region to an ellipse and the ellipse that approximates the second region to an ellipse (E) the ratio of the area of the first region to the area of the second region, (f) the area of the first region, and (g) the average pixel value of the first region. And (h) at least one of the differences between the inertial principal axis of the first region and the inertial principal axis of the second region. Vector detection device. 透過板を介して対象物を撮影して得られる入力画像から、前記対象物の前記透過板に接触している第1の領域及び前記透過板に接触していない第2の領域を検出する検出ステップと、
前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出ステップと、
前記複数の特徴量に基づき特徴量ベクトルを生成する生成ステップと、
前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出ステップと
を具備することを特徴とする接触力ベクトル検出方法。
Detection that detects a first region of the object that is in contact with the transmission plate and a second region that is not in contact with the transmission plate from an input image obtained by photographing the object through the transmission plate Steps,
A feature amount calculating step of calculating a plurality of feature amounts for each of the first region image and the second region image in the input image;
Generating a feature vector based on the plurality of features;
A contact force vector calculation step of calculating a contact force vector indicating the magnitude and direction of the contact force based on a correlation between the feature vector and the magnitude and direction of the contact force applied by the object to the transmission plate. And a contact force vector detection method comprising:
前記特徴量算出ステップは、前記複数の特徴量として前記第1の領域の画像及び前記第2の領域の画像の夫々の平均画素値、面積、重心、慣性主軸及び曲率の少なくとも1つを算出することを特徴とする請求項1記載の接触力ベクトル検出方法。   The feature amount calculating step calculates at least one of an average pixel value, an area, a center of gravity, an inertia main axis, and a curvature of each of the image of the first region and the image of the second region as the plurality of feature amounts. The method of detecting a contact force vector according to claim 1. 前記接触力ベクトルの複数のパターンに応じた教師信号によって学習された重みベクトルが割り当てられた複数のノードのいずれか1つに、前記特徴量ベクトルをマッピングするマッピングステップを更に備え、
前記接触力ベクトル算出ステップは、前記特徴量ベクトルがマッピングされたノードに基づき前記接触力ベクトルを算出することを特徴とする請求項1または2記載の接触力ベクトル検出方法。
A mapping step of mapping the feature quantity vector to any one of a plurality of nodes to which a weight vector learned by a teacher signal corresponding to a plurality of patterns of the contact force vector is assigned;
3. The contact force vector detecting method according to claim 1, wherein the contact force vector calculating step calculates the contact force vector based on a node to which the feature vector is mapped.
前記特徴量ベクトルは、(a)前記第1の領域の重心から曲率最大位置までのベクトル、(b)前記第1の領域の曲率最大値と曲率最小値の間の差分、(c)前記第1の領域の重心の座標と前記第2の領域の重心の座標との間の差分、(d)前記第1の領域を楕円近似した楕円及び前記第2の領域を楕円近似した楕円の4頂点同士の距離の偏差、(e)前記第2の領域の面積に対する前記第1の領域の面積の比率、(f)前記第1の領域の面積、(g)前記第1の領域の平均画素値及び(h)前記第1の領域の慣性主軸と前記第2の領域の慣性主軸の間の差分の少なくとも1つを含むことを特徴とする請求項5乃至7のいずれか1項記載の接触力ベクトル検出方法。   The feature vector is (a) a vector from the center of gravity of the first region to the maximum curvature position, (b) a difference between the maximum curvature value and the minimum curvature value of the first region, and (c) the first region. The difference between the coordinates of the center of gravity of one region and the coordinates of the center of gravity of the second region, (d) the four vertices of an ellipse that approximates the first region to an ellipse and the ellipse that approximates the second region to an ellipse (E) the ratio of the area of the first region to the area of the second region, (f) the area of the first region, and (g) the average pixel value of the first region. And (h) at least one of the differences between the inertial principal axis of the first region and the inertial principal axis of the second region. Vector detection method. コンピュータに請求項5乃至9のいずれか1項記載の接触力ベクトル検出方法を実行させるためのプログラム。   The program for making a computer perform the contact force vector detection method of any one of Claim 5 thru | or 9. コンピュータに請求項5乃至9のいずれか1項記載の接触力ベクトル検出方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium recording a program for causing a computer to execute the contact force vector detection method according to claim 5.
JP2008081321A 2008-03-26 2008-03-26 Contact force vector detector and method Pending JP2009236602A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008081321A JP2009236602A (en) 2008-03-26 2008-03-26 Contact force vector detector and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008081321A JP2009236602A (en) 2008-03-26 2008-03-26 Contact force vector detector and method

Publications (1)

Publication Number Publication Date
JP2009236602A true JP2009236602A (en) 2009-10-15

Family

ID=41250744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008081321A Pending JP2009236602A (en) 2008-03-26 2008-03-26 Contact force vector detector and method

Country Status (1)

Country Link
JP (1) JP2009236602A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232124A (en) * 2010-04-27 2011-11-17 Honda Motor Co Ltd Edge estimation device and edge estimation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232124A (en) * 2010-04-27 2011-11-17 Honda Motor Co Ltd Edge estimation device and edge estimation method

Similar Documents

Publication Publication Date Title
KR101865655B1 (en) Method and apparatus for providing service for augmented reality interaction
JP5422735B2 (en) Computer-aided analysis method for real-time use of image sequences including variable postures
Raheja et al. Tracking of fingertips and centers of palm using kinect
US20120200486A1 (en) Infrared gesture recognition device and method
US9117138B2 (en) Method and apparatus for object positioning by using depth images
US9052780B2 (en) Optical touch screen system and sensing method for the same
JP2017191576A (en) Information processor, control method information processor and program
JP6487642B2 (en) A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger.
JP2009265809A (en) Information terminal device
CN111444764A (en) Gesture recognition method based on depth residual error network
CN114641799A (en) Object detection device, method and system
Li et al. A novel hand gesture recognition based on high-level features
JP2009288917A (en) Information processor, information processing method and program
Phadtare et al. Detecting hand-palm orientation and hand shapes for sign language gesture recognition using 3D images
JP2007241833A (en) Recognition device, recognition system, shape recognition method, program and computer readable recording medium
CN109634408A (en) A kind of extended method of Hololens gesture identification
JP2010231350A (en) Person identifying apparatus, its program, and its method
JP2009236602A (en) Contact force vector detector and method
CN103810480A (en) Method for detecting gesture based on RGB-D image
Xu et al. A novel method for hand posture recognition based on depth information descriptor
Qin et al. Real-time markerless hand gesture recognition with depth camera
KR20160023417A (en) Non-contact multi touch recognition method and system using color image analysis
US10796435B2 (en) Image processing method and image processing apparatus
Orr Computational assessment of Gabor representations
JP2018195053A (en) Image processing apparatus, image processing program, and gesture recognition system