JPH06137974A - Image analyzer for object - Google Patents

Image analyzer for object

Info

Publication number
JPH06137974A
JPH06137974A JP5000991A JP99193A JPH06137974A JP H06137974 A JPH06137974 A JP H06137974A JP 5000991 A JP5000991 A JP 5000991A JP 99193 A JP99193 A JP 99193A JP H06137974 A JPH06137974 A JP H06137974A
Authority
JP
Japan
Prior art keywords
load
image
calculating
center
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5000991A
Other languages
Japanese (ja)
Inventor
Satoshi Naoi
聡 直井
Koichi Egawa
宏一 江川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5000991A priority Critical patent/JPH06137974A/en
Publication of JPH06137974A publication Critical patent/JPH06137974A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To stably and precisely catch movement of an object even at a position difficult to see it and reduce cost with regard to an image analyzer for the object. CONSTITUTION:A pressure sensor 22 for outputting a pressure distribution of an object as a load image, a position measuring means 23A for classifying the load image in response to a concentration value of each pixel, calculating a projection value in each classified group, weighting a calculated projection value and calculating a load center as the center of gravity and an operation means 24A for calculating a major axis of a moment centering the calculated center of the gravity and finding a direction of the object and a change of the direction are equipped.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物体の画像解析装置に
関する。近年、自動検査、無人監視、運動解析などTV
カメラで捉えた画像を処理する画像処理装置が普及しつ
つある。画像から所望の物体を抽出し、物体の位置、大
きさ、色などの情報を捉えることができる。これによ
り、画像処理装置は、人手で行っていた作業を軽減する
ことができたり、人が立ち入ることのできない作業を実
現でき、さらに、人間がわからない現象を捉えたりする
など人間の目以上の役割を果たす非接触なセンサとして
着目されている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object image analysis apparatus. In recent years, TVs such as automatic inspection, unmanned monitoring, and motion analysis
Image processing devices that process images captured by cameras are becoming widespread. A desired object can be extracted from the image and information such as the position, size, and color of the object can be captured. As a result, the image processing apparatus can reduce the work manually performed, can realize the work that cannot be entered by a human, and can capture a phenomenon that the human cannot understand. It is attracting attention as a non-contact sensor that fulfills the above requirements.

【0002】これらの非接触なセンサ以外に、接触セン
サで目に見えない物体の運動状態を詳細に画像処理する
ことが要望されている。特に、接触センサとしてある領
域にかかる物体の圧力分布を捉える圧力センサが着目さ
れている。
In addition to these non-contact sensors, there is a demand for detailed image processing of motion states of invisible objects with contact sensors. In particular, attention is focused on a pressure sensor as a contact sensor that captures the pressure distribution of an object applied to a certain area.

【0003】[0003]

【従来の技術】従来の物体の画像解析装置においては、
物体の動きを抽出するために物体にマーカーを装着し、
TVカメラで捉えた画像からマーカの軌跡を抽出するこ
とによって行っていた。具体的には、マーカとして複数
の動きの判別がし易い色マーカを使用し、画像処理によ
って色抽出、投影、重心の演算処理により、所望の色マ
ーカの位置を算出することができる。たとえば、足の向
きの変化を算出する場合、足の爪先、踵にマーカを装着
し、2つのマーカの位置を上記の画像処理によって算出
することにより、足の方向を求めることができる。さら
に、上記のアルゴリズムは動画像処理しやすく、TVカ
メラのスピード(1秒間に60フィールド)で、高速処
理が可能であり、60ポイント/秒のサンプリング間隔
で足の方向の変化を細かく算出することができる。
2. Description of the Related Art In a conventional object image analysis apparatus,
Attach a marker to the object to extract the movement of the object,
This is done by extracting the locus of the marker from the image captured by the TV camera. Specifically, a plurality of color markers whose movements can be easily discriminated are used as markers, and the position of a desired color marker can be calculated by image extraction, color extraction, projection, and calculation of the center of gravity. For example, when the change in the direction of the foot is calculated, the direction of the foot can be obtained by mounting the markers on the toes and the heel of the foot and calculating the positions of the two markers by the above image processing. Furthermore, the above algorithm is easy to process moving images, can be processed at high speed at the speed of TV camera (60 fields per second), and can calculate the change of the foot direction in detail at the sampling interval of 60 points / second. You can

【0004】図13に物体の動きを解析する位置計側部
を示す。図13において、まず、色マーカ1をゴルファ
2の位置計測したい部分に付着させる。例えば、クラブ
ヘッド、体の頭、両肩、両膝、両足などにつける。A/
D変換器3では、TVカメラ4から入力した画像信号を
RGBディジタル信号に換える。
FIG. 13 shows a position measuring side portion for analyzing the movement of an object. In FIG. 13, first, the color marker 1 is attached to a portion of the golfer 2 whose position is to be measured. For example, wear it on the club head, body head, both shoulders, both knees, both feet. A /
The D converter 3 converts the image signal input from the TV camera 4 into an RGB digital signal.

【0005】色抽出回路5では、図14のようにTVカ
メラ4の出力のR,G,Bの画像データに対して、テー
ブル6を使用してデータ変換を行い、複数の特定色の画
像データのみ画素値をその色に相当する特定値にして出
力し、他の色に対しては、画素値を0にして出力する。
たとえば、特開昭63−314988号記載の「ビデオ
レート色抽出装置」を用いて色抽出回路5を実現する。
In the color extraction circuit 5, as shown in FIG. 14, the R, G, B image data output from the TV camera 4 is converted using the table 6 to obtain image data of a plurality of specific colors. Only, the pixel value is output with a specific value corresponding to that color, and for other colors, the pixel value is output with 0.
For example, the color extraction circuit 5 is realized by using the "video rate color extraction device" described in JP-A-63-314988.

【0006】雑音除去回路7では、たとえば、3×3の
論理フィルタを用いて孤立点除去を行い、4連結などド
ットが連続する連結パターンを抽出する。3×3の入力
パターンに対する出力値のテーブル8の例を図15に示
す。投影算出回路9は、図16に示すように、雑音が除
去された2値パターンに対して各行ごとの水平投影、各
列ごとの垂直投影を求める。投影算出回路9は識別する
色の数だけ用意する。投影値算出については、たとえ
ば、特開昭63−140381号記載の「ビデオレート
投影算出回路」を用いる。
The noise removing circuit 7 removes isolated points by using, for example, a 3 × 3 logical filter, and extracts a connected pattern in which dots are continuous, such as 4 connected. FIG. 15 shows an example of the output value table 8 for a 3 × 3 input pattern. As shown in FIG. 16, the projection calculation circuit 9 obtains a horizontal projection for each row and a vertical projection for each column with respect to the binary pattern from which noise has been removed. The projection calculation circuit 9 is prepared by the number of colors to be identified. For the projection value calculation, for example, the "video rate projection calculation circuit" described in JP-A-63-140381 is used.

【0007】重心算出回路は、DSP(Digital Signal
Processor)10を使って実現する。図17に、DSP
10の外部RAM11とプログラムの処理ブロックを示
す。重心算出方式については、たとえば、微小物体の位
置計測方式を用いる。図17の処理で得られた水平投
影、垂直投影の結果をDSP10の外部RAM11に格
納する。ホスト計算機12から物体の移動領域の最大値
と最小値を投影有効区間として外部RAM11に格納し
ておく。さらに、物体の大きさの2倍程度の値を区間幅
として外部RAM11の任意区間幅の領域に格納してお
く。水平投影、垂直投影、投影有効区間、任意区間幅の
値を使って順々に各区間の投影値の累積値を算出する。
The center of gravity calculating circuit is a DSP (Digital Signal).
Processor) 10 is used. In Figure 17, DSP
10 shows an external RAM 11 and processing blocks of a program. As the center of gravity calculation method, for example, a minute object position measurement method is used. The results of horizontal projection and vertical projection obtained by the processing of FIG. 17 are stored in the external RAM 11 of the DSP 10. The maximum value and the minimum value of the moving area of the object from the host computer 12 are stored in the external RAM 11 as the projection effective section. Further, a value about twice the size of the object is stored in the area of the arbitrary section width of the external RAM 11 as the section width. Using the values of horizontal projection, vertical projection, projection effective section, and arbitrary section width, the cumulative value of the projection values of each section is calculated in sequence.

【0008】次々に算出される区間投影値は、前に算出
された最大の区間投影値と比較して、もしそれ以上であ
ればその区間投影値を新たな区間最大投影値となす。同
時にその区間の開始点と終了点を記憶する。この処理の
繰り返しにより、投影値が最大の区間、その区間の開始
点、終了点が得られ、外部RAM11に格納する。図1
8に、区間最大投影値について示す。
The section projection values calculated one after another are compared with the maximum section projection value calculated previously, and if larger than that, the section projection value becomes a new section maximum projection value. At the same time, the starting point and the ending point of the section are stored. By repeating this process, the section having the maximum projection value, the start point and the end point of the section are obtained and stored in the external RAM 11. Figure 1
8 shows the maximum projection value in the section.

【0009】図18において、ホスト計算機12からの
設定値としては、開始点は10行目、終了点は97行
目、区間幅は4とする。区間最大投影値は312、開始
点は14、終了点は17である。重心算出区間の決定
は、図19に示すように投影値の累積が最大である最大
投影区間の情報をもとに、あらかじめ登録しておく任意
区間修正幅を加算して区間幅を拡張する。もし、投影有
効区間を越える場合は、投影有効区間の開始点、あるい
は、終了点を重心算出区間の端点とする。このように、
重心算出区間の決定することにより、図19の(a)で
は(2)の区間内だけで対象物Aの重心算出を行うため
に重心の精度が悪くなるが、(b)のように対象物Aが
重心算出区間におさまり精度よく重心算出を行える。
In FIG. 18, as the set values from the host computer 12, the starting point is the 10th line, the ending point is the 97th line, and the section width is 4. The maximum section projection value is 312, the start point is 14, and the end point is 17. To determine the centroid calculation section, as shown in FIG. 19, the section width is expanded by adding an arbitrary section correction width registered in advance based on the information of the maximum projection section in which the accumulated projection values are maximum. If the projection effective section is exceeded, the start point or the end point of the projection effective section is set as the end point of the centroid calculation section. in this way,
By determining the center-of-gravity calculation section, the accuracy of the center-of-gravity deteriorates because the center-of-gravity calculation of the object A is performed only within the section (2) in (a) of FIG. It is possible to accurately calculate the center of gravity by fitting A into the center of gravity calculation section.

【0010】次に、重心算出回路では、上記のように決
定した重心算出区間で重心を算出する。水平投影におい
て受信算出区間の開始点をsth、終了点をedhと
し、垂直投影において重心算出区間の開始点をstv、
終了点をedvとすると、また、各区間の投影値の累積
値をそれぞれSUMv,SUMhとすると、重心は次式
で算出できる。
Next, the center of gravity calculation circuit calculates the center of gravity in the center of gravity calculation section determined as described above. In the horizontal projection, the start point of the reception calculation section is sth, the end point is edh, and in the vertical projection, the start point of the center of gravity calculation section is stv,
If the end point is edv and the cumulative values of the projection values of each section are SUMv and SUMh, the center of gravity can be calculated by the following equation.

【0011】[0011]

【数1】 [Equation 1]

【0012】[0012]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の物体の画像解析装置にあっては、物体の動き
に応じて、マーカが隠れて見えなくなる場合が生じ、安
定に動きを捉えることができなかった。これに対して、
複数のTVカメラを様々な角度から物体の動きを観測す
る手段もあるが、トータルシステムとしてのコストが膨
大になるだけではなく、足の向きを検出する場合、ズボ
ンなどで足が隠れてしまうという問題点があった。
However, in such a conventional object image analysis apparatus, the marker may be hidden and invisible depending on the movement of the object, and the movement may be stably captured. could not. On the contrary,
There is also a means to observe the movements of objects from multiple TV cameras from various angles, but not only does the total system cost become enormous, but when detecting the foot direction, the feet are hidden by pants or the like. There was a problem.

【0013】本発明は、このような従来の問題点に鑑み
てなされたものであって、物体が見えにくい箇所でも、
その物体の動きを安定にかつ精度よく捉えることがで
き、コストも低減することができる物体の画像解析装置
を提供することを目的とする。
The present invention has been made in view of the above-mentioned problems of the prior art, and even in a place where an object is difficult to see,
An object of the present invention is to provide an image analysis device for an object, which can capture the movement of the object in a stable and accurate manner and can reduce the cost.

【0014】[0014]

【課題を解決するための手段】図1は本発明の原理説明
図である。本発明は、物体の圧力分布を荷重画像として
出力する圧力センサ22と、荷重画像を各画素の濃度値
に応じて分類し、分類した各々のグループで投影値を算
出し、算出した投影値に重みをつけて荷重中心を重心と
して算出する位置計測手段23Aと、算出した重心を中
心とするモーメントの主軸を算出し物体の向きおよび方
向の変化を求める向き演算手段24Aを備えたことを特
徴とする。
FIG. 1 is a diagram for explaining the principle of the present invention. According to the present invention, a pressure sensor 22 that outputs a pressure distribution of an object as a load image, a load image is classified according to a density value of each pixel, a projection value is calculated in each classified group, and a calculated projection value is obtained. Position measuring means 23A for weighting and calculating the center of load as the center of gravity, and orientation calculating means 24A for calculating the principal axis of the moment centered on the calculated center of gravity and determining the orientation of the object and the change in direction are characterized by being provided. To do.

【0015】また、本発明は、前記荷重画像からその総
荷重、荷重形状および荷重の広がりを算出して物体の荷
重状態を認識する荷重状態認識手段23Bを設けて、荷
重状態から荷重中心を重心として算出した後物体の向き
および方向の変化を求めるようにしたことを特徴とす
る。また、本発明は、前記荷重画像を重ね合わせた画像
を生成する重ね合わせ画像生成手段23Cを設けて、重
ね合わせた画像に基づいて物体の荷重状態を認識するよ
うにしたことを特徴とする。
In the present invention, the load state recognition means 23B for recognizing the load state of the object by calculating the total load, the load shape and the spread of the load from the load image is provided, and the load center is determined from the load center. After that, the orientation of the object and the change in the orientation are obtained. Further, the present invention is characterized in that a superimposed image generating means 23C for generating an image in which the load images are superimposed is provided, and the load state of the object is recognized based on the superimposed images.

【0016】また、本発明は、前記物体の向きを用いて
その方向ベクトルに垂直な方向の最大距離を求めて物体
の動きの幅を演算する動き幅演算手段24Bと、物体の
動き幅と予め与えられた物体の幅から物体の位置ずれを
演算する位置ずれ演算手段24Cを設けたことを特徴と
する。
Further, according to the present invention, the motion width calculating means 24B for calculating the maximum motion distance in the direction perpendicular to the direction vector of the object to calculate the motion width of the object, and the motion width of the object in advance. It is characterized in that a position shift calculating means 24C for calculating the position shift of the object from the given width of the object is provided.

【0017】[0017]

【作用】このような構成を備えた本発明の物体の画像解
析装置によれば、圧力センサ22を用いて、物体の圧力
分布を荷重画像として出力し、荷重画像を画像処理し
て、物体の位置計測を行い、荷重画像の重心を中心とす
るモーメントの主軸を算出し、物体の向き、方向の変化
を求め、物体の位置ずれを算出するようにしたため、本
来の圧力変化だけではなく、物体が見えない箇所でも安
定にかつ精度よく物体の動きを捉えることができる。
According to the object image analyzing apparatus of the present invention having such a configuration, the pressure sensor 22 is used to output the pressure distribution of the object as a load image, and the load image is image-processed to obtain the object image. By measuring the position, calculating the principal axis of the moment centered on the center of gravity of the load image, determining the change in the direction and direction of the object, and calculating the position shift of the object, not only the original pressure change but also the object It is possible to capture the movement of an object in a stable and accurate manner even in a place where is not visible.

【0018】また、複数のTVカメラなどが必要でない
ため、トータルシステムとしてコストを低減することが
できる。その結果、ゴルフフォームの診断などに有効で
ある。また、物体の向き、方向の変化を算出するとき、
荷重画像の総荷重、荷重形状、荷重の広がりを求めて物
体荷重状態を認識し、また、荷重画像を重ね合わせた画
像より、物体の荷重状態を認識するようにしたため、向
き、方向の変化の算出精度を高めることができる。
Further, since a plurality of TV cameras and the like are not necessary, the cost can be reduced as a total system. As a result, it is effective for diagnosis of golf foams. Also, when calculating the change in the direction and direction of an object,
Since the object load state is recognized by obtaining the total load, load shape, and load spread of the load image, and the load state of the object is recognized from the image in which the load images are overlaid, the change in orientation and direction The calculation accuracy can be improved.

【0019】[0019]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図2〜図12は本発明の一実施例を示す図であ
る。図2はゴルフフォーム診断に適用した例を示す。図
2において、21はゴルファ(物体)であり、ゴルファ
21の両足の直下に圧力センサ22が設けられる。圧力
センサ22はゴルファ21のスイングに応じて変化する
圧力分布を荷重画像(濃淡画像)信号(NTSC信号)
として動画像解析機23に出力する。
Embodiments of the present invention will be described below with reference to the drawings. 2 to 12 are views showing an embodiment of the present invention. FIG. 2 shows an example applied to golf foam diagnosis. In FIG. 2, reference numeral 21 denotes a golfer (object), and pressure sensors 22 are provided immediately below both feet of the golfer 21. The pressure sensor 22 displays the pressure distribution that changes according to the swing of the golfer 21 as a load image (grayscale image) signal (NTSC signal).
Is output to the moving image analyzer 23.

【0020】動画像解析機23はその位置を画像処理す
る。すなわち、動画像解析機23は、60ポイント/秒
のサンプリング間隔で細かく足の位置を計測する。24
はホスト計算機であり、ホスト計算機24は計測した足
の位置と荷重画像により足の方向、ずれを算出する。動
画像解析機23は、圧力センサ21からの画像信号をA
/D変換した後に格納する画像メモリと、A/D変換し
た画像から投影処理するビデオレートプロセッサと、投
影結果からプログラマブルに演算処理するDSPより構
成されている。
The moving image analyzer 23 performs image processing on the position. That is, the moving image analyzer 23 finely measures the foot position at a sampling interval of 60 points / second. 24
Is a host computer, and the host computer 24 calculates the direction and displacement of the foot based on the measured foot position and the load image. The moving image analyzer 23 uses the image signal from the pressure sensor 21 as A
It is composed of an image memory for storing after the / D conversion, a video rate processor for performing projection processing from the A / D converted image, and a DSP for performing programmable arithmetic processing from the projection result.

【0021】すなわち、動画像解析機23は、圧力セン
サ22からの荷重画像を各画素の濃度値に応じて分類
し、分類した各々のグループで投影値を算出し、算出し
た投影値に重みをつけて荷重中心を重心として算出する
位置計測手段23A、荷重画像からその総荷重、荷重形
状および荷重の広がりを算出して物体の荷重状態を認識
する荷重状態認識手段23Bおよび荷重画像を重ね合わ
せた画像を生成する重ね合わせ画像生成手段23Cとし
ての機能を有する。
That is, the moving image analyzer 23 classifies the load image from the pressure sensor 22 according to the density value of each pixel, calculates the projection value in each classified group, and weights the calculated projection value. The position measuring means 23A for applying the load center as the center of gravity, the load state recognizing means 23B for recognizing the load state of the object by calculating the total load, the load shape and the spread of the load from the load image and the load image are superimposed. It has a function as an overlay image generating means 23C for generating an image.

【0022】また、ホスト計算機24は、位置計測手段
23で算出した重心を中心とするモーメントの主軸を算
出し足の向きおよび方向の変化を求める向き演算手段2
4A、向き演算手段24Aで求めた足の向きを用いてそ
の方向ベクトルに垂直な方向の最大距離を求めて足の動
きの幅を演算する動き幅演算手段24Bおよび足の動き
幅と予め与えられた足の幅から足の位置ずれを演算する
位置ずれ演算手段24Cとしての機能を有する。
In addition, the host computer 24 calculates the principal axis of the moment centered on the center of gravity calculated by the position measuring means 23 to obtain the orientation and the change in the orientation of the foot.
4A, the movement width calculation means 24B for calculating the maximum distance in the direction perpendicular to the direction vector using the orientation of the foot calculated by the orientation calculation means 24A, and the width of movement of the foot, and the movement width of the foot are given in advance. It has a function as a positional deviation calculating means 24C for calculating the positional deviation of the foot from the width of the foot.

【0023】ホスト計算機24の解析結果は、モニタ2
5に表示され、また、ビデオプリンタ26で印刷され
る。まず、足の位置計測について説明する。図3は足の
位置計側部を示す図である。図3において、圧力センサ
22は、高感度感圧導電ゴムを用いて、触覚の圧力分布
を電気抵抗に変え、その大小により圧力分布を濃淡画像
としてビデオレートで出力する。濃淡画像はRGBのい
ずれかでA/D変換器27よりA/D変換する。濃淡画
像は、クラスタリング回路28で各画素の濃度値に応じ
て雑音除去回路29で雑音を除去した後に分類した各々
のグループで投影算出回路30により投影値を算出し、
その投影値に重みを付けてDSP31で荷重中心を算出
する。
The analysis result of the host computer 24 is the monitor 2
5 and is printed by the video printer 26. First, the foot position measurement will be described. FIG. 3 is a diagram showing a side portion of the foot position meter. In FIG. 3, the pressure sensor 22 uses a high-sensitivity pressure-sensitive conductive rubber to change the tactile pressure distribution into electric resistance, and outputs the pressure distribution as a grayscale image at a video rate depending on its magnitude. The grayscale image is A / D converted by the A / D converter 27 in any of RGB. For the grayscale image, the projection value is calculated by the projection calculation circuit 30 in each group that is classified after the noise is removed by the noise removal circuit 29 according to the density value of each pixel by the clustering circuit 28,
The projection value is weighted and the load center is calculated by the DSP 31.

【0024】荷重中心は、足圧濃淡画像の重心を算出し
て求める。ここで、ある画素(x,y)の濃度値をf
(x,y)とすると、重心G(gx,gy)は、一般的
に次式のように求められる。
The load center is obtained by calculating the center of gravity of the foot pressure grayscale image. Here, the density value of a certain pixel (x, y) is f
If (x, y), the center of gravity G (gx, gy) is generally obtained by the following equation.

【0025】[0025]

【数2】 [Equation 2]

【0026】すなわち、gxの分母は、Xの定義域でΣ
y f(x,y)である水平投影の結果とxとの積和演算
により算出でき、gxの分子は、水平投影の総和で計算
できる。gyについても同様である。こうすると、投影
をビデオレートプロセッサ、積和演算、総和算出/除算
をDSP31で実現することで、重心G(gx,gy)
は、一般的にビデオレートで簡単に求められる。
That is, the denominator of gx is Σ in the domain of X.
It can be calculated by multiplying and summing the result of horizontal projection that is y f (x, y) and x, and the numerator of gx can be calculated by the total sum of horizontal projection. The same applies to gy. By doing so, the projection is realized by the video rate processor, the sum of products operation, and the summation / division are realized by the DSP 31, so that the center of gravity G (gx, gy) is obtained.
Is generally easily determined at the video rate.

【0027】圧力センサ22からの濃淡画像を(1),
(2)式で計算する場合に濃度値f(x,y)にn個の
ラベルを付け、各ラベルに相当する重みをDSP31内
で行う積和演算に反映させる。具体的には、体重移動を
計測する場合、左右それぞれの重心を算出したいので、
図4で画像データA〜Cまでは、右足の重心算出用、画
像データD〜Fまでは左足の重心算出用に割り当てた。
各足で足圧画像を濃度値により3個のラベルを付け、図
5のようにDSP31で各ラベルに相当する重み付けを
して下記の重心算出を行った。
The grayscale image from the pressure sensor 22 is (1),
When the calculation is performed by the equation (2), n labels are attached to the density value f (x, y), and the weight corresponding to each label is reflected in the product-sum calculation performed in the DSP 31. Specifically, when measuring weight shift, we want to calculate the left and right center of gravity, so
In FIG. 4, image data A to C are assigned to calculate the center of gravity of the right foot, and image data D to F are assigned to calculate the center of gravity of the left foot.
The foot pressure image of each foot was given three labels according to the density value, and the DSP 31 weighted corresponding to each label as shown in FIG.

【0028】[0028]

【数3】 [Equation 3]

【0029】次に、足の向きの算出方法を説明する。足
の位置は、前記位置計測部により算出した重心である。
足の向きは、足圧力画像を足の重心を中心とする分布画
像と見なし、そのモーメントを算出して行う。足圧力画
像は、個人によってはつま先、踵、あるいは、左右の一
部しか得られない場合もあるので、それらを判定して、
信頼度を定義し、信頼度の高い正確な足の向きだけを算
出できるようにする。以下、詳細に説明する。
Next, a method of calculating the foot direction will be described. The position of the foot is the center of gravity calculated by the position measuring unit.
The direction of the foot is determined by regarding the foot pressure image as a distribution image centered on the center of gravity of the foot and calculating the moment. Depending on the individual, the foot pressure image may be obtained only on the toes, heels, or a part of the left and right sides.
Confidence is defined so that only reliable and accurate foot direction can be calculated. The details will be described below.

【0030】まず、足の向きの算出方法を示す。図6の
座標系で、重心を通る直線x=ytanΘの慣性モーメ
ントMは、次のようになる。
First, a method of calculating the foot direction will be described. In the coordinate system of FIG. 6, the moment of inertia M of the straight line x = ytan Θ passing through the center of gravity is as follows.

【0031】[0031]

【数4】 [Equation 4]

【0032】Mが最小となる慣性主軸は、(xcosΘ
−ysinΘ)2 をFM とおいて、下記に示す式におい
て、dFM /dΘ=0を満たすΘを算出する。
The principal axis of inertia that minimizes M is (xcos Θ
Let −ysin Θ) 2 be F M, and calculate Θ that satisfies dF M / d Θ = 0 in the formula shown below.

【0033】[0033]

【数5】 [Equation 5]

【0034】ここで、Mxxは、x軸回りのモーメント、
yyはy軸回りのモーメント、Mxyは、y=x軸回りの
モーメントで下記の式より算出される。
Where M xx is the moment about the x axis,
M yy is the moment about the y axis, and M xy is the moment about the y = x axis, which is calculated by the following formula.

【0035】[0035]

【数6】 [Equation 6]

【0036】dFM /dΘ=0を解くと、下記のように
なる。
Solving for dF M / dΘ = 0 gives:

【0037】[0037]

【数7】 [Equation 7]

【0038】足の向きをX軸とのなす角αとすると、角
αは次の式により算出される。
When the direction of the foot is an angle α with the X axis, the angle α is calculated by the following equation.

【0039】[0039]

【数8】 [Equation 8]

【0040】こうして、図7に示すように足の向きを各
ポイントを算出できるようになった。図7の画像は、標
準的なスイングでの足圧力画像であるが、図8に示すよ
うにつま先だけ、あるいは、踵だけなど極端な例の場合
に、足の向きを算出するには情報が欠落しており、モー
メント算出が無意味であることを認識しなくてはならな
い。そのため、モーメントの信頼度を定義し、つま先だ
け、踵だけの場合をリジェクトする。信頼度は3つの項
目から成り、1つでも条件を満足しない場合には、リジ
ェクトする。 (1) 荷重の大きさ 全荷重が大きい。すなわち、 A=ΣΣf(x,y)>th1 (2) 荷重の形 円形でない。 すなわち、 (L2 /A)×π/4>th2 但し、(MAXY−MINY)>(MAXX−MIN
X)のとき、L=MAXY−MINY,そうでなけれ
ば、L=MAXX−MINX (図9、参照) (3) 荷重の広がり 広がりが大きい。すなわち、 (MAXY−MINY)2 +(MAXX−MINX)2 >th3 各ポンイトでは、つま先、踵だけでも一連のスイングで
は、つま先、踵が混在する。そこで、各ポイントの画像
を重ね合わせた画像を生成し、その画像から荷重の中心
を重心から算出し、その重心を中心とするモーメントを
算出して一連のスイングの足の向きを算出する。図10
には、重ね合わせ画像が足の向きを算出した結果を示
す。なお、重ね合わせた画像の生成は、動画解析機にお
いて、足の動きの開始時刻から終了時刻までの各フレー
ムの濃度値を各画素ごとに加算することで行う。
Thus, it becomes possible to calculate the points of the foot direction as shown in FIG. The image in FIG. 7 is a foot pressure image in a standard swing, but in an extreme case such as only the toes or the heel as shown in FIG. 8, there is no information to calculate the foot direction. It must be recognized that it is missing and the moment calculation is meaningless. Therefore, the reliability of the moment is defined, and only the toes and the heels are rejected. The reliability consists of three items, and rejects if even one condition is not satisfied. (1) Size of load The total load is large. That is, A = ΣΣf (x, y)> th1 (2) The shape of the load is not circular. That is, (L 2 / A) × π / 4> th2, where (MAXY-MINY)> (MAXX-MIN
X), L = MAXY-MINY, otherwise L = MAXX-MINX (see FIG. 9) (3) Spread of load Large spread. That is, (MAXY-MINY) 2 + (MAXX-MINX) 2 > th3 In each point, only the toes and the heels are mixed with the toes and the heels in a series of swings. Therefore, an image in which the images of the respective points are superimposed is generated, the center of the load is calculated from the center of gravity from the images, and the moment about the center of gravity is calculated to calculate the orientation of the legs of the series of swings. Figure 10
Shows the result of calculating the foot orientation of the superimposed image. The superimposed image is generated by adding the density value of each frame from the start time to the end time of the foot movement for each pixel in the moving image analyzer.

【0041】基本的には、一連のスイングでは足の位置
ずれはなく、体重移動だけである。しかしながら、悪い
スイングでは、足の位置ずれも生じ、それを定量化して
診断する必要がある。ここでは、足の幅を算出し、その
幅が標準に比べ大きい場合に足の位置ずれが生じると判
断することにした。足の幅は、前述した重ね合わせ画像
から算出した足の向きを使って、そのベクトルと荷重画
像の画素からの距離を求め、その最大値より算出する。
具体的な方法を図11に以下に示す、図11において、
足の向きを表す直線の方程式をx=ay+Cとすると、
ある点(x1,y1)からその直線までの距離dは、次
式で示される。
Basically, in a series of swings, there is no displacement of the feet, only weight movement. However, a bad swing also causes a foot displacement, which needs to be quantified and diagnosed. Here, the width of the foot is calculated, and it is determined that the foot is displaced when the width is larger than the standard. The foot width is calculated from the maximum value of the distance between the vector and the pixel of the load image, using the orientation of the foot calculated from the above-mentioned superimposed image.
A specific method is shown below in FIG. 11, and in FIG.
If the equation of the line representing the direction of the foot is x = ay + C,
The distance d from a certain point (x1, y1) to the straight line is expressed by the following equation.

【0042】[0042]

【数9】 [Equation 9]

【0043】標準的な足の幅をLとし、足内部の各画素
は直線x=ay+C1と直線x=ay+C2の間に含ま
れるとすると、上記のdを高速に求めるため、 x1>ay1+C1 あるいは、 x1<ay1+
C2 を満たす点だけdを計算する。x1>ay1+C1を満
たす点の最大値をL1として見つけ、x1<ay1+C
2を満たす点の最大値をL2として見つけると、足の幅
はL1+L2で算出することができる。足の位置ずれ
は、下記のように求まり、ある閾値th4よりも大きい
とき足の位置ずれがあったと判断する。
If the standard foot width is L and each pixel inside the foot is included between the straight line x = ay + C1 and the straight line x = ay + C2, in order to quickly obtain the above d, x1> ay1 + C1 or x1 <ay1 +
Only d that satisfies C2 is calculated. Find the maximum value of the point satisfying x1> ay1 + C1 as L1 and calculate x1 <ay1 + C
When the maximum value of the points satisfying 2 is found as L2, the width of the foot can be calculated by L1 + L2. The displacement of the foot is obtained as follows, and when it is larger than a certain threshold value th4, it is determined that the displacement of the foot has occurred.

【0044】[0044]

【数10】 [Equation 10]

【0045】図12には、足の位置ずれのある場合とな
い場合の結果を示す。重ね合わせ画像からも足の位置ず
れが大きい場合に分布の広がりが大きいのがわかるが、
図12(b)に示すように大きければ大きいほど位置ず
れが大きくなるように定量化した。このように、圧力セ
ンサ21を用いて荷重画像を解析するようにしたため、
本来の圧力変化だけでなく、物体が見えにくい箇所でも
その物体の動きを算出することができる。
FIG. 12 shows the results with and without foot displacement. It can be seen from the overlay image that the spread of the distribution is large when the foot position shift is large,
As shown in FIG. 12B, the quantification was performed such that the larger the position, the larger the positional deviation. As described above, since the load image is analyzed using the pressure sensor 21,
Not only the original pressure change but also the movement of the object can be calculated at a place where the object is difficult to see.

【0046】この場合、物体の総荷重、荷重形状、荷重
の広がりに基づいて物体の荷重状態を認識するようにし
たため、物体の方向、ずれの計算をより正確に行うこと
ができる。また、荷重画像を重ね合わせた画像を生成
し、荷重状態を認識するようにしたため、物体の方向、
ずれの計算をより正確に行うことができる。また、物体
が見えにくい箇所に対して、さまざまな角度から複数の
TVカメラを設置して物体の動きを観測する必要がない
ため、コストを低減することができる。
In this case, since the load state of the object is recognized based on the total load of the object, the shape of the load, and the spread of the load, the direction and displacement of the object can be calculated more accurately. In addition, since an image in which the load images are superimposed is generated and the load state is recognized, the direction of the object,
The shift calculation can be performed more accurately. Further, since it is not necessary to install a plurality of TV cameras from various angles and observe the movement of the object in a place where the object is difficult to see, the cost can be reduced.

【0047】[0047]

【発明の効果】以上説明してきたように、圧力センサを
用いて荷重画像を解析するようにしたため、本来の圧力
変化だけでなく、物体が見えにくい箇所でもその物体の
方向、ずれを算出することができ、物体の動きを安定に
精度良く捉えることができる。また、複数のTVカメラ
などを必要としないため、コストを低減することができ
る。その結果、ゴルフフォームの診断などに有効であ
る。
As described above, since the load image is analyzed by using the pressure sensor, not only the original pressure change but also the direction and displacement of the object can be calculated even in a place where the object is difficult to see. Therefore, the movement of the object can be stably and accurately captured. Moreover, since a plurality of TV cameras and the like are not required, cost can be reduced. As a result, it is effective for diagnosis of golf foams.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図FIG. 1 is an explanatory view of the principle of the present invention.

【図2】本発明の一実施例を示す図FIG. 2 is a diagram showing an embodiment of the present invention.

【図3】足の位置計測部を示す図FIG. 3 is a diagram showing a foot position measuring unit.

【図4】重心算出部を示す図FIG. 4 is a diagram showing a centroid calculation unit.

【図5】濃淡画像の重心算出の説明図FIG. 5 is an explanatory diagram of calculating the center of gravity of a grayscale image.

【図6】足の向きの算出の説明図FIG. 6 is an explanatory diagram of calculation of a foot direction.

【図7】足の位置、向きを示す図FIG. 7 is a diagram showing the position and orientation of the foot

【図8】つま先荷重、踵荷重を示す図FIG. 8 is a diagram showing a toe load and a heel load.

【図9】荷重の形の説明図FIG. 9 is an explanatory diagram of the shape of load

【図10】重ね合わせ画像を示す図FIG. 10 is a diagram showing a superimposed image.

【図11】足の位置ずれ算出の説明図FIG. 11 is an explanatory diagram of foot position shift calculation.

【図12】足の位置ずれを示す図FIG. 12 is a diagram showing a foot position shift.

【図13】従来例を示す図FIG. 13 is a diagram showing a conventional example.

【図14】色抽出回路のテーブルを示す図FIG. 14 is a diagram showing a table of a color extraction circuit.

【図15】雑音除去回路のテーブルを示す図FIG. 15 is a diagram showing a table of a noise removing circuit.

【図16】色マーカの投影算出の説明図FIG. 16 is an explanatory diagram of projection calculation of color markers.

【図17】重心算出処理の説明図FIG. 17 is an explanatory diagram of a centroid calculation process.

【図18】区間最大投影値の説明図FIG. 18 is an explanatory diagram of a maximum projection value in a section.

【図19】重心算出区間の決定の説明図FIG. 19 is an explanatory diagram of determination of a centroid calculation section.

【符号の説明】[Explanation of symbols]

21:ゴルファ 22:圧力センサ 23:動画像解析機 23A:位置計測手段 23B:荷重状態認識手段 23C:重ね合わせ画像生成手段 24:ホスト計算機 24A:向き演算手段 24B:動き幅演算手段 24C:位置ずれ演算手段 25:モニタ 26:ビデオプリンタ 21: Golfer 22: Pressure sensor 23: Moving image analyzer 23A: Position measuring means 23B: Load state recognizing means 23C: Overlay image generating means 24: Host computer 24A: Orientation calculating means 24B: Motion width calculating means 24C: Position shift Computing means 25: Monitor 26: Video printer

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】物体の圧力分布を荷重画像として出力する
圧力センサ(22)と、荷重画像を各画素の濃度値に応
じて分類し、分類した各々のグループで投影値を算出
し、算出した投影値に重みをつけて荷重中心を重心とし
て算出する位置計測手段(23A)と、算出した重心を
中心とするモーメントの主軸を算出し物体の向きおよび
方向の変化を求める向き演算手段(24A)を備えたこ
とを特徴とする物体の画像解析装置。
1. A pressure sensor (22) for outputting a pressure distribution of an object as a load image, and the load image is classified according to the density value of each pixel, and a projection value is calculated in each classified group and calculated. A position measuring means (23A) for weighting the projection value and calculating the center of load as the center of gravity, and a direction calculating means (24A) for calculating the principal axis of the moment centered on the calculated center of gravity and obtaining the orientation of the object and the change in direction. An image analysis apparatus for an object, comprising:
【請求項2】前記荷重画像からその総荷重、荷重形状お
よび荷重の広がりを算出して物体の荷重状態を認識する
荷重状態認識手段(23B)を設けて、荷重状態から荷
重中心を重心として算出した後物体の向きおよび方向の
変化を求めるようにしたことを特徴とする請求項1の物
体の画像解析装置。
2. A load state recognition means (23B) for recognizing a load state of an object by calculating a total load, a load shape and a spread of the load from the load image, and calculating the load center from the load state as a center of gravity. The object image analyzing apparatus according to claim 1, wherein the direction and the change in the direction of the object are obtained after the processing.
【請求項3】前記荷重画像を重ね合わせた画像を生成す
る重ね合わせ画像生成手段(23C)を設けて、重ね合
わせた画像に基づいて物体の荷重状態を認識するように
したことを特徴とする請求項1および請求項2の物体の
画像解析装置。
3. A superimposed image generating means (23C) for generating an image in which the weighted images are superimposed is provided, and the load state of the object is recognized based on the superimposed images. An image analysis apparatus for an object according to claim 1 or 2.
【請求項4】前記物体の向きを用いてその方向ベクトル
に垂直な方向の最大距離を求めて物体の動きの幅を演算
する動き幅演算手段(24B)と、物体の動き幅と予め
与えられた物体の幅から物体の位置ずれを演算する位置
ずれ演算手段(24C)を設けたことを特徴とする請求
項1〜3の物体の画像解析装置。
4. Motion width calculation means (24B) for calculating the maximum motion distance in the direction perpendicular to the direction vector of the object to calculate the motion width of the object, and the motion width of the object given in advance. 4. The object image analyzing apparatus according to claim 1, further comprising a position deviation calculating means (24C) for calculating a position deviation of the object from the width of the object.
JP5000991A 1992-09-11 1993-01-07 Image analyzer for object Withdrawn JPH06137974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5000991A JPH06137974A (en) 1992-09-11 1993-01-07 Image analyzer for object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-242492 1992-09-11
JP24249292 1992-09-11
JP5000991A JPH06137974A (en) 1992-09-11 1993-01-07 Image analyzer for object

Publications (1)

Publication Number Publication Date
JPH06137974A true JPH06137974A (en) 1994-05-20

Family

ID=26334135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5000991A Withdrawn JPH06137974A (en) 1992-09-11 1993-01-07 Image analyzer for object

Country Status (1)

Country Link
JP (1) JPH06137974A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206018B2 (en) 1999-12-28 2007-04-17 Sony Corporation Signal processing method and apparatus and recording medium
JP2020018366A (en) * 2018-07-30 2020-02-06 花王株式会社 Walking analysis method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206018B2 (en) 1999-12-28 2007-04-17 Sony Corporation Signal processing method and apparatus and recording medium
US7525574B2 (en) 1999-12-28 2009-04-28 Sony Corporation Signal processing method and apparatus and recording medium
US7538796B2 (en) 1999-12-28 2009-05-26 Sony Corporation Signal processing method and apparatus and recording medium
US7576780B2 (en) 1999-12-28 2009-08-18 Sony Corporation Signal processing method and apparatus and recording medium
US7583292B2 (en) 1999-12-28 2009-09-01 Sony Corporation Signal processing device and method, and recording medium
JP2020018366A (en) * 2018-07-30 2020-02-06 花王株式会社 Walking analysis method

Similar Documents

Publication Publication Date Title
US9304593B2 (en) Behavior recognition system
Bobick et al. The recognition of human movement using temporal templates
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
CN110738154A (en) pedestrian falling detection method based on human body posture estimation
JPH06266840A (en) Status detector for moving object
CN113111767A (en) Fall detection method based on deep learning 3D posture assessment
Headon et al. Recognizing movements from the ground reaction force
CN108898108B (en) User abnormal behavior monitoring system and method based on sweeping robot
KR20180020123A (en) Asynchronous signal processing method
US20200279102A1 (en) Movement monitoring system
JP2000251078A (en) Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
Hachaj et al. Effectiveness comparison of Kinect and Kinect 2 for recognition of Oyama karate techniques
Kautz et al. Sensor fusion for multi-player activity recognition in game sports
AU2021203869A1 (en) Methods, devices, electronic apparatuses and storage media of image processing
Zhang et al. Visual surveillance for human fall detection in healthcare IoT
Liu et al. Automatic fall risk detection based on imbalanced data
CN110991292A (en) Action identification comparison method and system, computer storage medium and electronic device
US11521411B2 (en) System and method for providing multi-camera 3D body part labeling and performance metrics
Maldonado et al. Feature selection to detect fallen pose using depth images
JPH06137974A (en) Image analyzer for object
CN114639168B (en) Method and system for recognizing running gesture
JP4257421B2 (en) Motion body motion data segmentation processing device.
Wong et al. Enhanced classification of abnormal gait using BSN and depth
Leightley et al. Sensing behaviour using the Kinect: Identifying characteristic features of instability and poor performance during challenging balancing tasks
CN115273243B (en) Fall detection method, device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000307