JP2009236602A - Contact force vector detector and method - Google Patents
Contact force vector detector and method Download PDFInfo
- Publication number
- JP2009236602A JP2009236602A JP2008081321A JP2008081321A JP2009236602A JP 2009236602 A JP2009236602 A JP 2009236602A JP 2008081321 A JP2008081321 A JP 2008081321A JP 2008081321 A JP2008081321 A JP 2008081321A JP 2009236602 A JP2009236602 A JP 2009236602A
- Authority
- JP
- Japan
- Prior art keywords
- region
- vector
- contact force
- feature
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Force Measurement Appropriate To Specific Purposes (AREA)
Abstract
Description
本発明は、対象物の接触力の大きさ及び方向を検出する接触力ベクトル検出装置及び方法に関する。 The present invention relates to a contact force vector detection apparatus and method for detecting the magnitude and direction of a contact force of an object.
近年、触覚情報を検出する触覚センサが研究され、マンマシンインターフェースとして利用されている。従来の触覚センサは、センサ構造が複雑なため壊れやすい、配線数が多い及び触覚情報の検出面が特定の形状に限られるなどの問題がある。
また、従来の触覚センサは、実際に対象物が接触する時点まで何ら情報を取得できない問題もある。例えば、上記触覚センサを搭載したロボットに障害物回避動作を行わせる場合、当該ロボットが視覚情報を得られない領域(死角)に存在する障害物は、触覚センサと接触する時点まで認識されない。従って、上記ロボットは、死角に存在する障害物の認識が遅れ、当該障害物の回避が困難となる。
In recent years, tactile sensors that detect tactile information have been studied and used as man-machine interfaces. The conventional tactile sensor has problems such as a fragile sensor structure, a large number of wires, and a tactile information detection surface limited to a specific shape.
Further, the conventional tactile sensor has a problem that it cannot acquire any information until the time when the object actually contacts. For example, when a robot equipped with the tactile sensor performs an obstacle avoiding operation, an obstacle existing in a region (a blind spot) where the robot cannot obtain visual information is not recognized until it comes into contact with the tactile sensor. Therefore, the robot is delayed in recognizing the obstacle present in the blind spot, and it is difficult to avoid the obstacle.
非特許文献1記載の触覚センサは、触覚情報の検出面を感圧導電性ゴムで構成することによって、配線数の比較的少ない構造を実現している。また、非特許文献2記載の触覚カメラは、透明な弾性体内部に2種類のマーカーを配置し、当該マーカーの弾性体内部における位置変化の様子をカメラによって撮影し、当該位置変化に基づいて触覚情報を算出している。非特許文献2記載の触覚カメラも、比較的少ない配線数で構成可能である。非特許文献1記載の触覚センサ及び非特許文献2記載の触覚カメラはいずれも、感圧導電性ゴム及び内部にマーカーが配置された弾性体などの被接触素子の変形を利用して触覚情報を算出している。 The tactile sensor described in Non-Patent Document 1 realizes a structure with a relatively small number of wires by configuring the tactile information detection surface with pressure-sensitive conductive rubber. In addition, the tactile camera described in Non-Patent Document 2 has two types of markers arranged inside a transparent elastic body, photographs the position change of the marker inside the elastic body, and the tactile sense based on the position change. Information is calculated. The tactile camera described in Non-Patent Document 2 can also be configured with a relatively small number of wires. Both the tactile sensor described in Non-Patent Document 1 and the tactile camera described in Non-Patent Document 2 use the deformation of a contacted element such as a pressure-sensitive conductive rubber and an elastic body in which a marker is arranged to provide tactile information. Calculated.
一方、非特許文献3記載の爪装着型センサは、爪に装着可能な光学センサであり、被験者が指腹部に力を加えたときの爪下の血流変化に伴う色変化に基づいて上記指腹部に掛かる力を算出している。また、非特許文献4記載のポインティングデバイスは、指紋センサ表面に接触される指の指紋中心座標の移動量に基づいてポインタの移動量を決定している。 On the other hand, the nail-mounted sensor described in Non-Patent Document 3 is an optical sensor that can be mounted on the nail, and the finger is based on the color change accompanying the blood flow change under the nail when the subject applies force to the finger pad. The force applied to the abdomen is calculated. In the pointing device described in Non-Patent Document 4, the amount of movement of the pointer is determined based on the amount of movement of the fingerprint center coordinates of the finger touching the surface of the fingerprint sensor.
非特許文献1記載の触覚センサは、検出面を構成する感圧導電性ゴムの特性に検出精度が大きく左右される、対象物が力を加えた時点から感圧導電性ゴムが変形するまでにタイムラグ(遅延時間)が生じるのでリアルタイムな触覚情報の検出に向かない、検出中に配線が切れやすいなどの問題がある。 In the tactile sensor described in Non-Patent Document 1, the detection accuracy is greatly influenced by the characteristics of the pressure-sensitive conductive rubber constituting the detection surface. From the time when the object applies force until the pressure-sensitive conductive rubber is deformed. Since a time lag (delay time) occurs, there is a problem that it is not suitable for real-time tactile information detection, and that wiring is easily cut during detection.
非特許文献2記載の触覚カメラは、マーカーを設けた弾性体の形状が略フラットな板状に限定される、対象物が力を加えた時点からマーカーの位置が変化するまでにタイムラグが生じるのでリアルタイムな触覚情報の検出に向かないなどの問題がある。
非特許文献3記載の爪装着型センサは、被験者の指に装着する必要がある。即ち、対象物側にセンサを装着する必要があり、更に当該対象物も指に限定されるため、例えば前述したロボットの触覚センサとしての使用は困難である。また、非特許文献4記載のポインティングデバイスは、触覚情報として対象物の移動量を検出しているものの、接触力の大きさ及び方向を検出していない。
In the tactile camera described in Non-Patent Document 2, the shape of the elastic body provided with the marker is limited to a substantially flat plate shape, and there is a time lag from the point in time when the object applies force until the position of the marker changes. There are problems such as inadequate detection of real-time tactile information.
The nail-mounted sensor described in Non-Patent Document 3 needs to be mounted on the subject's finger. That is, since it is necessary to mount a sensor on the object side and the object is also limited to fingers, it is difficult to use it as a tactile sensor for the robot described above, for example. In addition, the pointing device described in Non-Patent Document 4 detects the amount of movement of the object as tactile information, but does not detect the magnitude and direction of the contact force.
従って、本発明は被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出可能な接触力ベクトル検出装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a contact force vector detection device capable of detecting the magnitude and direction of a force applied by an object without using deformation of a contacted element.
本発明の一態様に係る接触力ベクトル検出装置は、透過板を介して対象物を撮影して得られる入力画像から、前記対象物の前記透過板に接触している第1の領域及び前記透過板に接触していない第2の領域を検出する検出部と;前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出部と;前記複数の特徴量に基づき特徴量ベクトルを生成する生成部と;前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出部と;を具備する。 The contact force vector detection device according to an aspect of the present invention includes, from an input image obtained by photographing an object through a transmission plate, the first region of the object that is in contact with the transmission plate and the transmission A detection unit that detects a second region that is not in contact with the board; and a feature amount calculation unit that calculates a plurality of feature amounts for each of the image of the first region and the image of the second region in the input image. A generating unit that generates a feature vector based on the plurality of feature values; and the contact based on a correlation between the feature vector and the magnitude and direction of a contact force applied to the transmission plate by the object. A contact force vector calculation unit that calculates a contact force vector indicating the magnitude and direction of the force.
本発明によれば、被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出可能な接触力ベクトル検出装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the contact force vector detection apparatus which can detect the magnitude | size and direction of the force which a target object applies without utilizing the deformation | transformation of a to-be-contacted element can be provided.
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の一実施形態に係る接触力ベクトル検出装置は、輪郭抽出部101、色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105、曲率算出部106、特徴量ベクトル生成部107、マッピング部108及び接触力ベクトル算出部109を有する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, a contact force vector detection device according to an embodiment of the present invention includes a
図1の接触力ベクトル検出装置は、例えば図2に示すようなカメラ203透過板202に対し法線方向に透過板202を介して対象物201を撮影して得られる画像が入力画像として入力され、対象物201が透過板202に加える力(接触力)の大きさ及び方向を示す接触力ベクトルを検出する。
In the contact force vector detection device of FIG. 1, for example, an image obtained by photographing the
接触力ベクトル検出装置において、入力画像は輪郭抽出部101及び色解析部102に入力される。対象物201は、例えば指のような人体の一部であり、弾力を有する。従って、図3に示すように、接触力の増大に伴って接触領域301の面積は大きくなり、色濃度(画素値)は濃くなりエッジが鋭くなる。以降、入力画像は図2に示すように取得されたものとして説明するが、入力画像の取得手法は特に限定されない。例えば、カメラ203は透過板202に対し撮影を行う角度は法線方向に限定されないし、透過板202の形状はフラットでなくてもよい。
In the contact force vector detection device, the input image is input to the
輪郭抽出部101は、例えばSobelフィルタ、RobertsフィルタまたはPrewittフィルタなどのエッジ検出フィルタを含む。輪郭抽出部101は、まず、入力画像に含まれる各画素の画素値の水平方向(x軸方向)の微分fx及び垂直方向(y軸方向)の微分fyの演算を以下に示す数式(1)に従って行う。
The
輪郭抽出部101は、次に、fx及びfyの絶対値和を入力画像の座標(x,y)近傍における画素値の変化量として算出する。輪郭抽出部101は、以上のように算出された画素値の変化量の大きな箇所、即ち画素値が急激に変化する箇所をエッジとして検出する。輪郭抽出部101は、エッジ検出結果に基づき対象物201が透過板202に接触する接触領域301及び接触しない非接触領域302の輪郭を抽出する。輪郭抽出部101は、抽出した接触領域301の輪郭及び非接触領域302の輪郭を色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106に渡す。
Next, the
色解析部102は、入力画像及び輪郭抽出部101からの接触領域301の輪郭に基づき、接触領域301の色(例えばRGB成分)を解析する。色解析部102は、上記解析結果から接触領域301中の各画素の平均画素値を算出し、特徴量ベクトル生成部107に渡す。また、色解析部102は、非接触領域302中の各画素の平均画素値も同様に算出し、特徴量ベクトル生成部107に渡す。
The color analysis unit 102 analyzes the color (for example, RGB component) of the
面積算出部103は、輪郭抽出部101からの接触領域301の輪郭に基づいて0次モーメントm00を算出し、接触領域301の面積として特徴量ベクトル生成部107に渡す。具体的には、面積算出部103は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(2)に従って0次モーメントm00を算出する。
The
重心算出部104は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の重心を示す座標を算出する。まず、重心算出部104は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(3)に従って1次モーメントm10及びm01を算出する。
The center-of-
また、重心算出部104は、非接触領域302の重心の座標も同様に算出し、特徴量ベクトル生成部107に渡す。
慣性主軸算出部105は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の慣性主軸を算出する。まず、慣性主軸算出部105は、接触領域301の輪郭内側の画素の画素値を「1」、輪郭外側の画素の画素値を「0」に2値化し、以下の数式(5)に従って2次モーメントm20、m11及びm02を算出する。
In addition, the center of
The inertia main
曲率算出部106は、輪郭抽出部101からの接触領域301の輪郭に基づいて、接触領域301の輪郭上の各画素における曲率を算出する。具体的には、曲率算出部106は、接触領域301の輪郭上の任意の画素Piと、当該画素PiからL画素離れた輪郭上の2つ画素Pi-L及びPi+Lとが作る2つのベクトルがなす角を曲率θiとして算出する。例えば、L=12とした場合の画素Pi、画素Pi-L及び画素Pi+Lの関係は図4に示す通りである。曲率算出部106は、画素Pi及び画素Pi-Lが作るベクトルが水平方向に対しなす角をθinと、画素Pi及び画素Pi+Lが作るベクトルが水平方向に対しなす角をθoutとを、以下の数式(7)に従って算出する。
The
尚、前述した面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106は、その他の既存の手法を用いて算出を行ってもよい。以下、重心算出部104及び慣性主軸算出部105における重心及び慣性主軸の算出の変形例を説明する。
The
重心算出部104及び慣性主軸算出部105は、輪郭抽出部101からの接触領域301の輪郭に対し、楕円近似を行う。具体的には、重心算出部104及び慣性主軸算出部105は、接触領域301の輪郭上の各画素の座標(x,y)を変量とし、最小二乗法を用いて以下の数式(8)(楕円の公式)を満たす座標(X,Y)に近似する。
The center-of-
重心算出部104は、楕円の中心の座標(Xo,Yo)を接触領域の重心を示す座標として算出する。また、慣性主軸算出部105は、楕円の長軸のx軸に対する傾きθを慣性主軸として算出する。尚、重心算出部104及び慣性主軸算出部105は、非接触領域302の重心及び慣性主軸も同様に算出できる。
The center of
特徴量ベクトル生成部107は、前述した色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106によって得られた各種特徴量を用いて特徴量ベクトルを生成する。具体的には、特徴量ベクトルは多次元データであって、特徴量ベクトル生成部107は上記各種特徴量に基づいて特徴量ベクトルの各成分を算出する。
The feature amount
以下、特徴量ベクトルの成分を例示する。
特徴量ベクトル生成部107は、図6に示すように、接触領域301の重心Bから曲率最大位置Cまでのベクトルを特徴量ベクトルの一成分として算出してもよい。当該成分は、接触領域301における歪みのピーク位置を示す。
Hereinafter, components of the feature vector are exemplified.
The feature
また、特徴量ベクトル生成部107は、接触領域301の曲率最大値と曲率最小値の間の差分を特徴量ベクトルの一成分として算出してもよい。当該成分は、接触領域301の歪みの程度を示す。
また、特徴量ベクトル生成部107は、接触領域301の重心の座標と非接触領域302の重心の座標との間の差分を特徴量ベクトルの一成分として算出してもよい。尚、上記差分は、ベクトルであってもよいし、距離であってもよい。当該成分は、接触領域301の重心のずれの程度を示す。
The feature quantity
Further, the feature quantity
また、特徴量ベクトル生成部107は、接触領域301及び非接触領域302を楕円近似した2つの楕円の4頂点同士の距離の偏差を特徴量ベクトルの一成分として算出してもよい。具体的には、特徴量ベクトル生成部107は、図7に示す2つの楕円の4頂点同士の距離d1,d2,d3及びd4の最大値に対する最小値の比率を上記偏差とする。当該成分は、接触領域301の歪みの程度を示す。
Further, the feature quantity
また、特徴量ベクトル生成部107は、非接触領域302の面積に対する接触領域301の面積の比率を特徴量ベクトルの一成分として算出してもよい。当該成分は、対象物202が透過板203に加える力の大きさの程度を示す。
また、特徴量ベクトル生成部107は、面積算出部103及び色解析部102によって得られた接触領域301の面積及び平均画素値をそのまま特徴量ベクトルの一成分としてもよい。当該成分は、対象物202が透過板203に加える力の大きさの程度を示す。
The feature quantity
In addition, the feature
更に、特徴量ベクトル生成部107は、接触領域301の慣性主軸と非接触領域302の慣性主軸の間の差分を特徴量ベクトルの一成分として算出してもよい。当該成分は、非接触領域302に対する接触領域301の回転の程度を示す。
特徴量ベクトル生成部107は、以上のように生成した特徴量ベクトルをマッピング部108に渡す。尚、上記特徴量ベクトルは、対象物202の接触力の大きさ及び方向と相関があり、接触力ベクトルが類似していれば、類似した特徴量ベクトルが得られる。
Further, the feature quantity
The feature
マッピング部108は、自己組織化マッピング(SOM)アルゴリズムを用いて、特徴量ベクトル生成部107からの特徴量ベクトルのマッピングを行う。ここで、SOMについて説明する。
SOMによれば、マッピング部108は上記特徴量ベクトルなどの多次元データを例えば2次元空間上にマッピングすることができる。更に詳細には、マッピング部108はSOMによって、類似する特徴量ベクトル同士が近づき、類似しない特徴量ベクトルが離れるようにマッピングすることができる。
The
According to the SOM, the
マッピング部108がマッピングを行うマッピング空間は格子状の2次元空間であり、上記特徴量ベクトルはいずれかのノード(格子点)にマッピングされる。各ノードには特徴量ベクトルと同じ次元の重みベクトルが割り当てられている。マッピング部108は、入力される特徴量ベクトルを当該特徴量ベクトルに最も近い重みベクトルを持つノードへマッピングする。ここで、ベクトル間の距離としてユークリッド距離が用いられることが多い。尚、マッピング部108は、上記各重みベクトルの初期値を任意に割り当てておき、学習によって適切な値に近づける。重みベクトルの学習は、図1の接触力ベクトル検出装置が実際に接触力ベクトルの検出を行う前に、以下のように行われている。
The mapping space in which the
重みベクトルの学習には、教師信号が用いられる。教師信号は、複数の接触力ベクトルのパターンから得られる特徴量ベクトルである。以降の説明では、接触力の方向(上下左右のいずれか)及び大きさ(強弱いずれか)別に計8(=4×2)パターンの接触力ベクトルに応じた教師信号を用いるものとする。マッピング部108は、「上方向に強い(以下、「上強」と称する)」接触力ベクトルに対し、特徴量ベクトル生成部107によって生成される特徴量ベクトルを「上強」の教師信号として取得する。マッピング部108は、以下同様に、「上弱」、「下強」、「下弱」、「左強」、「左弱」、「右強」及び「右弱」の教師信号も取得し、学習を行う。
A teacher signal is used for weight vector learning. The teacher signal is a feature vector obtained from a plurality of contact force vector patterns. In the following description, it is assumed that teacher signals corresponding to the contact force vectors of a total of 8 (= 4 × 2) patterns are used for each direction (either up, down, left or right) and magnitude (either strong or weak). The
まず、マッピング部108は、教師信号としての特徴量ベクトルに最も近い重みベクトルを持つノードを探索する。マッピング部108によって探索されたノードの重みベクトルは、勝者ベクトルと呼ばれる。マッピング部108は、勝者ベクトルを上記特徴量ベクトルに近づける。具体的には、マッピング部108は現在の勝者ベクトルに、上記特徴量ベクトルと勝者ベクトルとの間の差分に所定の学習率係数を乗じたベクトルを加えて更新する。また、マッピング部108は上記勝者ベクトルを持つノードの近傍のノードの重みベクトルも更新する。具体的には、マッピング部108は上記学習率係数をノード間の距離に応じて減少させて、同様の演算を行う。以下、マッピング部108は、同様の処理を複数回繰り返し、重みベクトルの学習を行う。尚、上記学習率係数は、繰り返し回数に応じて減少させることが望ましい。次に、マッピング部108は、上記教師信号としての特徴量ベクトルの各々に最も近い重みベクトルを持つノードに基づき、図8に示すようにマッピング空間を上記複数のパターンを示す複数の領域に分割する。尚、マッピング空間の分割には例えばボロノイ分割が用いられる。
First, the
マッピング部108は、図9に示すように、入力された特徴量ベクトルをボロノイ分割されたマッピング空間にマッピングする(図9において「×」で示した箇所)。マッピング部108は、マッピング位置を接触力算出部109に渡す。
接触力ベクトル算出部109は、マッピング部108からのマッピング位置に基づいて対象物202の接触力ベクトルを算出する。例えば、接触力ベクトル算出部109は、前述した図9に示すマッピング位置に対し、以下のように接触力ベクトルを算出する。
As shown in FIG. 9, the
The contact force
まず、接触力ベクトル算出部109は、マッピング位置が属する領域から接触力ベクトルの主成分を判定する。図9に示すマッピング位置は「右強」の領域に含まれているため、接触力ベクトル算出部109は「右強」を接触力ベクトルの主成分として判定する。
First, the contact force
次に、接触力ベクトル算出部109は、上記マッピング位置が属する領域に隣接する領域(以下、隣接領域と称する)の影響を算出する。ここで、隣接領域とは、図8及び図9において実線で示す境界線によって区切られる領域を意味する。即ち、「右強」及び「右弱」の隣接領域は「上強」及び「上弱」と「下弱」及び「下強」である。
Next, the contact force
具体的には、接触力ベクトル算出部109は、マッピング位置と、境界線との間の距離を算出する。図9の例であれば接触力ベクトル算出部109は、図10に示すように、「上強」との境界線i及びマッピング位置の間の距離li、「下強」との境界線i+1及びマッピング位置の間の距離li+1を夫々算出する。
Specifically, the contact force
接触力ベクトル算出部109は、算出した距離が所定の閾値δ以上であれば、当該隣接領域の影響を無視する。一方、接触力ベクトル算出部109は、算出した距離が上記閾値δ未満であれば、当該隣接領域の影響を考慮する。前述した図10に示す例において、li<δ<li+1であれば、接触力ベクトル算出部109は、「上強」の影響を考慮し、「下強」の影響を無視する。
If the calculated distance is equal to or greater than the predetermined threshold δ, the contact force
接触力ベクトル算出部109は、上記距離に応じて減少する関数によって隣接領域の影響の程度を算出する。上記関数の一例を以下の数式(9)に示す。
The contact force
接触力ベクトル算出部109は、以上のように算出した隣接領域の影響を、前述した主成分に加え、接触力ベクトルとして出力する。上記例であれば、接触力ベクトル算出部109は、「「右強」+βexp(−αli)×「上強」」を接触力ベクトルとして出力する。
The contact force
以下、図11に示すフローチャートを用いて図1の接触力ベクトル検出装置の動作の一例を説明する。尚、処理の開始前にマッピング部108の重みベクトルの学習は既に済んでおり、接触力ベクトルの複数のパターンを示す領域にマッピング空間が分割されているものとする。
まず、輪郭抽出部101が入力画像中の接触領域301の輪郭及び非接触領域302の輪郭を夫々抽出する(ステップS401)。次に、色解析部102、面積算出部103、重心算出部104、慣性主軸算出部105及び曲率算出部106は、ステップS401において抽出された輪郭に基づいて接触領域301及び非接触領域302の平均画素値、面積、重心、慣性主軸及び曲率を特徴量として夫々算出する(ステップS402)。尚、ステップS402において一部の特徴量の算出を省いてもよいし、その他の特徴量を算出してもよい。
Hereinafter, an example of the operation of the contact force vector detection device of FIG. 1 will be described using the flowchart shown in FIG. It is assumed that the weight vector of the
First, the
次に、特徴量ベクトル生成部107は、ステップS402において算出された特徴量に基づき特徴量ベクトルを生成する(ステップS403)。特徴量ベクトルの成分は、例えば(a)接触領域301の重心から曲率最大位置までのベクトル、(b)接触領域301の曲率最大値と曲率最小値の間の差分、(c)接触領域301の重心の座標と非接触領域302の重心の座標との間の差分、(d)接触領域301及び非接触領域302を楕円近似した2つの楕円の4頂点同士の距離の偏差、(e)非接触領域302の面積に対する接触領域301の面積の比率、(f)接触領域301の面積、(g)接触領域301の平均画素値及び(h)接触領域301の慣性主軸と非接触領域302の慣性主軸の間の差分などが挙げられる。特徴量ベクトル生成部107が生成する特徴量ベクトルは、上記(a)乃至(h)を全て成分として含んでもよいし、一部を成分として含まなくてもよいし、その他の成分を含んでもよい。
Next, the feature
次に、マッピング部108は、ステップS403において生成された特徴量ベクトルのマッピングを行う(ステップS404)。前述したように、マッピング空間は接触力ベクトルの複数のパターンを示す領域に分割されている。次に、接触力ベクトル算出部109は、ステップS404でのマッピング位置に基づき接触力ベクトルを算出し(ステップS405)、出力する。
Next, the
以上説明したように、本実施形態に係る接触力ベクトル検出装置は、対象物の接触領域及び非接触領域の特徴量に基づき生成した特徴量ベクトルと、当該特徴量ベクトルと上記対象物の接触力の大きさ及び方向との間の相関に基づき接触力ベクトルを算出している。より詳細には、上記相関は教師信号によってSOMの重みベクトルを学習することによって得られる。本実施形態に係る接触力ベクトル検出装置によれば、被接触素子の変形を利用せずに対象物が加える力の大きさ及び方向を検出できる。従って、力を加えた時点から被接触素子が変形するまでのタイムラグが問題とならない。 As described above, the contact force vector detection device according to the present embodiment includes the feature amount vector generated based on the feature amounts of the contact area and the non-contact area of the target object, and the contact force of the feature quantity vector and the target object. The contact force vector is calculated on the basis of the correlation between the size and direction. More specifically, the correlation is obtained by learning the SOM weight vector from the teacher signal. According to the contact force vector detection device according to the present embodiment, the magnitude and direction of the force applied by the object can be detected without using the deformation of the contacted element. Accordingly, there is no problem with the time lag from when the force is applied until the contacted element is deformed.
また、被接触素子としての透過板を介して対象物を撮影することにより入力画像を取得する構成であれば、検出装置本体が対象物に直接触れないため、壊れにくい。入力画像を取得するカメラの映像信号ケーブル及び電源ケーブルの他に配線が必要無く、配線数が少ない。更に、透過板の形状は平坦な板状に限定されず、検出面の形状の自由度が高い。 Further, if the input image is acquired by photographing the object through the transmission plate as the contacted element, the detection apparatus main body does not directly touch the object, and thus is not easily broken. In addition to the video signal cable and power cable of the camera that acquires the input image, no wiring is required and the number of wiring is small. Furthermore, the shape of the transmission plate is not limited to a flat plate shape, and the degree of freedom of the shape of the detection surface is high.
また、本実施形態に係る接触力ベクトル検出装置によれば、入力画像を解析することによって対象物の滑り検知を比較的容易に行ったり、対象物の接触時点よりも前の情報を取得したりできる。即ち、視覚センサ及び触覚センサの両機能が実現可能である。また、入力画像をカメラによって取得するためセンサ全体の小型化が用意である、上記カメラとしてワイヤレスカメラを使用すれば検出装置本体を分離して構成することができるなどの利点がある。 Further, according to the contact force vector detection device according to the present embodiment, it is possible to relatively easily detect the slip of the object by analyzing the input image, or to acquire information before the contact point of the object. it can. That is, both functions of a visual sensor and a tactile sensor can be realized. Further, since the input image is acquired by the camera, there is an advantage that the entire sensor can be reduced in size, and if the wireless camera is used as the camera, the detection device main body can be configured separately.
なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.
101・・・輪郭抽出部
102・・・色解析部
103・・・面積算出部
104・・・重心算出部
105・・・慣性主軸算出部
106・・・曲率算出部
107・・・特徴量ベクトル生成部
108・・・マッピング部
109・・・接触力ベクトル算出部
201・・・対象物
202・・・透過板
203・・・カメラ
301・・・接触領域
302・・・非接触領域
DESCRIPTION OF
Claims (10)
前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出部と、
前記複数の特徴量に基づき特徴量ベクトルを生成する生成部と、
前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出部と
を具備することを特徴とする接触力ベクトル検出装置。 Detection that detects a first region of the object that is in contact with the transmission plate and a second region that is not in contact with the transmission plate from an input image obtained by photographing the object through the transmission plate And
A feature amount calculation unit that calculates a plurality of feature amounts for each of the first region image and the second region image in the input image;
A generating unit that generates a feature vector based on the plurality of feature values;
A contact force vector calculation unit that calculates a contact force vector indicating the magnitude and direction of the contact force based on a correlation between the feature amount vector and the magnitude and direction of the contact force applied to the transmission plate by the object. And a contact force vector detecting device.
前記接触力ベクトル算出部は、前記特徴量ベクトルがマッピングされたノードに基づき前記接触力ベクトルを算出することを特徴とする請求項1または2記載の接触力ベクトル検出装置。 A mapping unit that maps the feature vector to any one of a plurality of nodes to which a weight vector learned by a teacher signal corresponding to a plurality of patterns of the contact force vector is assigned;
The contact force vector detection device according to claim 1, wherein the contact force vector calculation unit calculates the contact force vector based on a node to which the feature vector is mapped.
前記入力画像中の前記第1の領域の画像及び前記第2の領域の画像について夫々複数の特徴量を算出する特徴量算出ステップと、
前記複数の特徴量に基づき特徴量ベクトルを生成する生成ステップと、
前記特徴量ベクトルと前記対象物が前記透過板に加える接触力の大きさ及び方向との間の相関に基づき、前記接触力の大きさ及び方向を示す接触力ベクトルを算出する接触力ベクトル算出ステップと
を具備することを特徴とする接触力ベクトル検出方法。 Detection that detects a first region of the object that is in contact with the transmission plate and a second region that is not in contact with the transmission plate from an input image obtained by photographing the object through the transmission plate Steps,
A feature amount calculating step of calculating a plurality of feature amounts for each of the first region image and the second region image in the input image;
Generating a feature vector based on the plurality of features;
A contact force vector calculation step of calculating a contact force vector indicating the magnitude and direction of the contact force based on a correlation between the feature vector and the magnitude and direction of the contact force applied by the object to the transmission plate. And a contact force vector detection method comprising:
前記接触力ベクトル算出ステップは、前記特徴量ベクトルがマッピングされたノードに基づき前記接触力ベクトルを算出することを特徴とする請求項1または2記載の接触力ベクトル検出方法。 A mapping step of mapping the feature quantity vector to any one of a plurality of nodes to which a weight vector learned by a teacher signal corresponding to a plurality of patterns of the contact force vector is assigned;
3. The contact force vector detecting method according to claim 1, wherein the contact force vector calculating step calculates the contact force vector based on a node to which the feature vector is mapped.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081321A JP2009236602A (en) | 2008-03-26 | 2008-03-26 | Contact force vector detector and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081321A JP2009236602A (en) | 2008-03-26 | 2008-03-26 | Contact force vector detector and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009236602A true JP2009236602A (en) | 2009-10-15 |
Family
ID=41250744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008081321A Pending JP2009236602A (en) | 2008-03-26 | 2008-03-26 | Contact force vector detector and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009236602A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011232124A (en) * | 2010-04-27 | 2011-11-17 | Honda Motor Co Ltd | Edge estimation device and edge estimation method |
-
2008
- 2008-03-26 JP JP2008081321A patent/JP2009236602A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011232124A (en) * | 2010-04-27 | 2011-11-17 | Honda Motor Co Ltd | Edge estimation device and edge estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101865655B1 (en) | Method and apparatus for providing service for augmented reality interaction | |
JP5422735B2 (en) | Computer-aided analysis method for real-time use of image sequences including variable postures | |
Raheja et al. | Tracking of fingertips and centers of palm using kinect | |
US20120200486A1 (en) | Infrared gesture recognition device and method | |
US9117138B2 (en) | Method and apparatus for object positioning by using depth images | |
US9052780B2 (en) | Optical touch screen system and sensing method for the same | |
JP2017191576A (en) | Information processor, control method information processor and program | |
JP6487642B2 (en) | A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger. | |
JP2009265809A (en) | Information terminal device | |
CN111444764A (en) | Gesture recognition method based on depth residual error network | |
CN114641799A (en) | Object detection device, method and system | |
Li et al. | A novel hand gesture recognition based on high-level features | |
JP2009288917A (en) | Information processor, information processing method and program | |
Phadtare et al. | Detecting hand-palm orientation and hand shapes for sign language gesture recognition using 3D images | |
JP2007241833A (en) | Recognition device, recognition system, shape recognition method, program and computer readable recording medium | |
CN109634408A (en) | A kind of extended method of Hololens gesture identification | |
JP2010231350A (en) | Person identifying apparatus, its program, and its method | |
JP2009236602A (en) | Contact force vector detector and method | |
CN103810480A (en) | Method for detecting gesture based on RGB-D image | |
Xu et al. | A novel method for hand posture recognition based on depth information descriptor | |
Qin et al. | Real-time markerless hand gesture recognition with depth camera | |
KR20160023417A (en) | Non-contact multi touch recognition method and system using color image analysis | |
US10796435B2 (en) | Image processing method and image processing apparatus | |
Orr | Computational assessment of Gabor representations | |
JP2018195053A (en) | Image processing apparatus, image processing program, and gesture recognition system |