JP7175045B1 - Image analysis system, image analysis device, image analysis method and image analysis program - Google Patents

Image analysis system, image analysis device, image analysis method and image analysis program Download PDF

Info

Publication number
JP7175045B1
JP7175045B1 JP2021182653A JP2021182653A JP7175045B1 JP 7175045 B1 JP7175045 B1 JP 7175045B1 JP 2021182653 A JP2021182653 A JP 2021182653A JP 2021182653 A JP2021182653 A JP 2021182653A JP 7175045 B1 JP7175045 B1 JP 7175045B1
Authority
JP
Japan
Prior art keywords
area
contact
center
image
bisector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021182653A
Other languages
Japanese (ja)
Other versions
JP2023070456A (en
Inventor
達 舩越
英毅 下田
Original Assignee
株式会社フットルック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社フットルック filed Critical 株式会社フットルック
Priority to JP2021182653A priority Critical patent/JP7175045B1/en
Application granted granted Critical
Publication of JP7175045B1 publication Critical patent/JP7175045B1/en
Publication of JP2023070456A publication Critical patent/JP2023070456A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】足裏画像等の画像情報から、演算量を抑えた簡易な方法で重心位置を求めることができる画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムを提供する。【解決手段】被測定者の部位の画像情報を読み取る画像読取装置と、画像情報を用いて部位に関する解析を行う画像解析装置と、を備える画像解析システムであって、画像読取装置が、被測定者の部位が接触する接触板と、接触板に対して、部位が接触している面の反対側の面に光を照射することにより、画像情報を取得する画像取得部と、を備え、画像解析装置が、画像情報から、部位が接触板に接触している接触領域を検出し、接触領域に関する接触情報を求める接触領域検出部と、接触情報を基に求められる、接触領域の面積を二等分する少なくとも2本の二等分線の交点より、被測定者の重心位置を求める重心検出部と、を備える。【選択図】図1An image analysis system, an image analysis apparatus, an image analysis method, and an image analysis program capable of obtaining a center-of-gravity position from image information such as a sole image by a simple method with a reduced amount of calculation are provided. Kind Code: A1 An image analysis system comprising an image reading device for reading image information of a part of a person to be measured, and an image analysis device for analyzing the part using the image information, wherein the image reading device a contact plate with which a part of a person comes into contact; and an image acquisition unit that acquires image information by irradiating a surface of the contact plate opposite to the surface with which the part is in contact with light. The analysis device detects the contact area where the part is in contact with the contact plate from the image information, and the contact area detection unit that obtains the contact information about the contact area, and the area of the contact area that is obtained based on the contact information. a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that divide equally. [Selection drawing] Fig. 1

Description

本発明は、被測定者の足の裏等の部位に関して重心位置の解析等を行う画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムに関する。 The present invention relates to an image analysis system, an image analysis apparatus, an image analysis method, and an image analysis program for analyzing the position of the center of gravity of a part such as the sole of a person's foot.

直立した状態での人の足の裏(足裏)の画像(以下、「足裏画像」とする)が、病院、靴屋等で利用されている。例えば、病院や整骨院では、足裏画像から足の裏にかかる圧力の分布や重心の位置を求めることにより、体のバランスや歪み等の診断に利用することができる。足指の角度を計算することにより、外反母趾や内反小趾の診断に利用することができる。靴屋では、足裏画像から足裏の長さや横幅等を測定することにより、顧客に適切な靴の選定を行うことができ、オーダーメイドでの靴の提供にも利用できる。 2. Description of the Related Art Images of the soles of a person's feet (soles) in an upright position (hereinafter referred to as "sole images") are used in hospitals, shoe stores, and the like. For example, in hospitals and osteopathic clinics, the distribution of pressure applied to the soles of the feet and the position of the center of gravity can be obtained from the images of the soles of the feet, which can be used for diagnosing the balance and distortion of the body. By calculating the angle of the toes, it can be used for diagnosis of hallux valgus and bunion little toe. Shoe stores can select appropriate shoes for customers by measuring the length, width, etc. of the soles from the images of the soles, and can also be used to provide custom-made shoes.

足裏画像から求められる情報の1つである重心位置については、圧力センサや荷重センサ等を使用して求める方法が多く提案されている(例えば、特開2009-254811号公報(特許文献1))。重心は、物体の各部分に働く重力の合力が作用するとみなされる点であるから、モーメント演算により重心位置を求めるべく、モーメント演算に使用する圧力を圧力センサや荷重センサ等により検出する。一方、センサを使用する方法はコストの増加や装置の複雑化等を招くとして、低コスト化や装置のコンパクト化等を図るために、足裏画像を利用して重心位置を求める方法が提案されている。 Regarding the position of the center of gravity, which is one of the information obtained from the sole image, many methods have been proposed that use pressure sensors, load sensors, and the like (for example, JP-A-2009-254811 (Patent Document 1)). ). Since the center of gravity is considered to be the point where the resultant force of gravity acting on each part of the object acts, the pressure used for moment calculation is detected by a pressure sensor, load sensor, or the like in order to obtain the position of the center of gravity by moment calculation. On the other hand, the method using a sensor increases the cost and complicates the device, so in order to reduce the cost and make the device more compact, a method of finding the center of gravity position using the sole image has been proposed. ing.

例えば、特開2009-232942号公報(特許文献2)に開示されている重心位置解析法では、足の底圧は足裏画像の接地面画像の輝度と相関していることを利用して重心位置を求めている。被測定者は内部に光を投射させたガラス板の上に足を載せ、ガラス板の下から被測定者の足を撮影する。この際、皮膚接触部分では光は乱反射するが、皮膚のガラスへの接触面積は圧力に比例して増大するので、接触面の光の量は圧力に比例して輝度値(光量)が増加することになる。よって、足裏画像の接地部領域の各画素での輝度値と座標軸(X座標、Y座標)との積の全画素の合計を輝度モーメントとして計算し、その輝度モーメントを接地部領域の全輝度値の合計で除することで、足の重心位置(重心座標)を求めている。 For example, in the center-of-gravity position analysis method disclosed in Japanese Patent Application Laid-Open No. 2009-232942 (Patent Document 2), the center of gravity is calculated by utilizing the fact that the bottom pressure of the foot is correlated with the brightness of the ground surface image of the sole image. looking for a position. A person to be measured puts his/her foot on the glass plate, which is illuminated with light, and the person's foot is photographed from under the glass plate. At this time, the light is diffusely reflected at the part in contact with the skin, but since the contact area of the skin with the glass increases in proportion to the pressure, the amount of light on the contact surface increases in brightness value (light amount) in proportion to the pressure. It will be. Therefore, the sum of the products of the luminance value of each pixel in the contact area of the foot sole image and the coordinate axis (X coordinate, Y coordinate) for all pixels is calculated as the luminance moment, and the luminance moment is the total luminance of the contact area. By dividing by the sum of the values, the position of the center of gravity of the foot (coordinates of the center of gravity) is obtained.

特開2009-254811号公報JP 2009-254811 A 特開2009-232942号公報JP 2009-232942 A

しかしながら、特許文献2の方法で重心位置を求めるためには、接地部領域の全画素での輝度値と座標軸との積和演算、接地部領域の全輝度値の加算演算等が必要であり、演算量は少なくない。 However, in order to obtain the center-of-gravity position by the method of Patent Document 2, it is necessary to perform a sum-of-products operation of the luminance values of all pixels in the ground portion region and the coordinate axes, an addition operation of all the luminance values of the ground portion region, and the like. The amount of computation is not small.

本発明は上述のような事情よりなされたものであり、本発明の目的は、足裏画像等の画像情報から、演算量を抑えた簡易な方法で重心位置を求めることができる画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the circumstances described above. An object of the present invention is to provide an image analysis device, an image analysis method, and an image analysis program.

本発明は、被測定者の部位の画像情報を読み取る画像読取装置と、前記画像情報を用いて前記部位に関する解析を行う画像解析装置と、を備える画像解析システムに関し、本発明の上記目的は、前記画像読取装置が、前記被測定者の部位が接触する接触板と、前記接触板に対して、前記部位が接触している面の反対側の面に光を照射することにより、前記画像情報を取得する画像取得部と、を備え、前記画像解析装置が、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出部と、を備えることにより達成される。 The present invention relates to an image analysis system comprising an image reading device for reading image information of a part of a person to be measured, and an image analysis device for analyzing the part using the image information. The image reading device irradiates a contact plate with which the part of the person to be measured is in contact, and a surface of the contact plate opposite to the surface with which the part is in contact, thereby reading the image information. wherein the image analysis device detects, from the image information, a contact area where the site is in contact with the contact plate, and obtains contact information regarding the contact area. and a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area, which is obtained based on the contact information. This is achieved by

また、本発明は、被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析装置に関し、本発明の上記目的は、前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力し、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出部と、を備えることにより達成される。 The present invention also relates to an image analysis apparatus that analyzes a part of a person to be measured using image information of the part. a contact area detection unit for inputting the image information, detecting a contact area where the part is in contact with the contact plate from the image information, and obtaining contact information about the contact area; a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area.

また、本発明は、被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析方法に関し、本発明の上記目的は、前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力する入力ステップと、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出ステップと、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出ステップと、を含むことにより達成される。 The present invention also relates to an image analysis method for analyzing a site using image information of a site of a person to be measured. a contact area detection step of detecting a contact area where the site is in contact with the contact plate from the image information and obtaining contact information about the contact area; and the contact information and a center-of-gravity detection step of determining the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area.

さらに、本発明の上記目的は、コンピュータに、上記の画像解析方法を実行させるための画像解析プログラムにより達成される。 Furthermore, the above object of the present invention is achieved by an image analysis program for causing a computer to execute the above image analysis method.

本発明の画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムによれば、被測定者の部位が接触板に接触している接触領域の面積を基にして重心位置を求めるので、多くの演算量を必要とする演算を用いずに、簡易な方法で画像情報から重心位置を求めることができる。 According to the image analysis system, image analysis apparatus, image analysis method, and image analysis program of the present invention, the position of the center of gravity is obtained based on the area of the contact area where the part of the subject is in contact with the contact plate. The position of the center of gravity can be obtained from the image information by a simple method without using calculations requiring a large amount of calculations.

本発明に係る画像解析システムの構成例(第1実施形態)を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the structural example (1st Embodiment) of the image-analysis system which concerns on this invention. 画像読取装置の使用例及び動作例を説明するための平面図である。FIG. 4 is a plan view for explaining a usage example and an operation example of the image reading device; 画像解析装置の構成例(第1実施形態)を示すブロック図である。It is a block diagram which shows the structural example (1st Embodiment) of an image-analysis apparatus. 重心検出部の構成例を示すブロック図である。4 is a block diagram showing a configuration example of a center-of-gravity detection unit; FIG. 探索領域の設定例を示すイメージ図である。FIG. 10 is an image diagram showing an example of setting a search area; 画像解析システムの動作例(第1実施形態)を示すフローチャートである。4 is a flowchart showing an operation example (first embodiment) of the image analysis system; 重心検出部の動作例を示すフローチャートである。5 is a flow chart showing an example of operation of a center-of-gravity detection unit; 接触情報及び重心位置の表示例を示す図である。FIG. 10 is a diagram showing a display example of contact information and a center-of-gravity position; 画像解析装置の構成例(第2実施形態)を示すブロック図である。It is a block diagram which shows the structural example (2nd Embodiment) of an image-analysis apparatus. 画像解析装置の構成例(第3実施形態)を示すブロック図である。It is a block diagram which shows the structural example (3rd Embodiment) of an image-analysis apparatus. モアレ画像の表示例を示す図である。FIG. 10 is a diagram showing a display example of a moire image;

本発明では、被測定者の足裏等の部位を接触板に接触させて撮影された画像(画像情報)から、部位が接触板に接触している領域である接触領域を検出し、接触領域の面積を基に重心位置を求める。具体的には、接触領域における各点の圧力はバラツキが少ないと推測し、接触領域の面積を二等分する二等分線を複数求め、それらの二等分線の交点から重心位置を求める。重心を通る線が必ずしも面積を二等分するとは限らないが、二等分線の中には重心を通るものがあり、少なくとも重心の近傍を通るので、二等分線の交点の位置を近似的に重心位置とする。交点が複数ある場合は、それらの交点から求められる点、例えば幾何中心(重心)等の位置を重心位置とする。 In the present invention, from an image (image information) photographed by contacting a part such as the sole of the subject's foot with the contact plate, the contact area, which is the area where the part is in contact with the contact plate, is detected, and the contact area is detected. Find the center of gravity position based on the area of . Specifically, assuming that the pressure at each point in the contact area has little variation, multiple bisectors that bisect the area of the contact area are obtained, and the position of the center of gravity is obtained from the intersection of these bisectors. . Although the lines passing through the centroids do not necessarily bisect the area, some bisectors pass through the centroids, or at least near the centroids, so approximate the location of the intersection of the bisectors. center of gravity. If there are a plurality of intersection points, the point obtained from those intersection points, for example, the position of the geometric center (center of gravity), etc., is defined as the position of the center of gravity.

以下に、本発明の実施の形態を、図面を参照して説明する。なお、各図において、同一構成要素には同一符号を付し、説明を省略することがある。また、以下では、本発明を実施するための主要な構成及び動作を中心にして説明しており、本発明を実施するために必要となる汎用的な処理、例えばデータ送受信処理、画面表示処理等については説明を簡略又は省略している。 BEST MODE FOR CARRYING OUT THE INVENTION Below, embodiments of the present invention will be described with reference to the drawings. In addition, in each figure, the same code|symbol may be attached|subjected to the same component and description may be abbreviate|omitted. Further, the following description focuses on the main configuration and operation for implementing the present invention, and general-purpose processing required for implementing the present invention, such as data transmission/reception processing, screen display processing, etc. The description of is simplified or omitted.

本発明に係る画像解析システムの構成例(第1実施形態)を図1に示す。なお、本実施形態の画像解析システムの解析対象は足裏とするが、その他の人体の部位、例えば手のひら等も解析の対象とすることができる。 FIG. 1 shows a configuration example (first embodiment) of an image analysis system according to the present invention. Note that the analysis target of the image analysis system of this embodiment is the sole, but other parts of the human body, such as the palm of the hand, can also be the analysis target.

図1に示されるように、画像解析システム1は、画像読取装置10及び画像解析装置20を備え、画像読取装置10と画像解析装置20はケーブル30で接続されている。 As shown in FIG. 1 , the image analysis system 1 includes an image reading device 10 and an image analysis device 20 , and the image reading device 10 and the image analysis device 20 are connected by a cable 30 .

画像読取装置10は一般的なコピー機が有しているスキャナ機能と同様な機能を有しており、ガラス板(接触板)11に載置された対象物をスキャンして、画像として取り込む。本実施形態では、被測定者はガラス板11の上に両足を載せて直立した状態となって足裏をスキャンされるので、ガラス板11は被測定者の体重に耐えうる強度が必要であり、例えば耐荷重200kgを持つように設計されており、被測定者の両足が載るだけの十分な面積をもつ矩形状に形成されている。 The image reading device 10 has a function similar to a scanner function that a general copier has, and scans an object placed on a glass plate (contact plate) 11 and captures it as an image. In this embodiment, the subject stands upright with both feet placed on the glass plate 11 and the soles of the feet are scanned, so the glass plate 11 must be strong enough to withstand the weight of the subject. , for example, is designed to withstand a load of 200 kg, and is formed in a rectangular shape having a sufficient area for both feet of the subject to be measured.

図2は画像読取装置10の平面図である。画像読取装置10は略直方体の形状をしており、面積が広い上面にガラス板11が嵌着されている。図2において、上面の長辺の方向(図2での縦方向)をX軸、短辺の方向(図2での横方向)をY軸とし、右下端を原点とする。被測定者は、つま先と踵を結ぶ線がY軸と略同じ方向で、両足がX軸上で並ぶように、破線で示した位置に、直立した状態で、両足をガラス板11に載せる。 FIG. 2 is a plan view of the image reading device 10. FIG. The image reading device 10 has a substantially rectangular parallelepiped shape, and a glass plate 11 is fitted on the upper surface having a large area. In FIG. 2, the direction of the long side of the upper surface (vertical direction in FIG. 2) is the X axis, the direction of the short side (horizontal direction in FIG. 2) is the Y axis, and the lower right corner is the origin. The person to be measured puts both feet on the glass plate 11 in an upright position at the position indicated by the broken line so that the line connecting the toes and heels is in the same direction as the Y axis and both feet are aligned on the X axis.

画像読取装置10は、装置内部に光源、ミラー、レンズ及び画像読取手段(図示せず)を備え、CCD(Charge Coupled Device)方式で対象物の画像を取り込む。即ち、光源として白色光を用い、ガラス板11に載せられた対象物を、対象物が載せられた面とは反対の面から光源で照らし、その反射光がミラーで反射され、レンズを通って画像読取手段に対象物の像が入力される。光源は、図2(A)に示されるY軸方向の端から端までの1行を照射するようになっており、一定の速度でX軸方向に移動する。よって、画像読取手段には縮小された光の像が帯状に順次入力されることになる。画像読取手段は光信号を電気信号に変換するCCDイメージセンサ、アナログ・デジタル変換を行うA/Dコンバータ等で構成され、順次入力される光の像を、赤(Red)、緑(Green)及び青(Blue)で表現されるRGB色空間の値(以下、「RGB値」とする)に変換し、画像情報Vdとして出力する。Y軸方向の1行分の画像情報Vdは、図2(A)において右から左の順序で出力されるので、画像読取装置10は、図2(B)に示される矢印の順序で、画素単位で画像情報Vdを出力することになる。画像情報VdであるRGB値は、R(赤)、G(緑)、B(青)の各色を256階調(0~255)で表した値となっており、画像情報Vdは画素毎のRGB値であるvr、vg及びvb(i=1,2,…,I、Iは画素数)で構成されている。なお、光源、ミラー、レンズ及び画像読取手段より画像取得部が構成される。 The image reading device 10 includes a light source, a mirror, a lens, and image reading means (not shown) inside the device, and captures an image of an object using a CCD (Charge Coupled Device) method. That is, white light is used as a light source, and the object placed on the glass plate 11 is illuminated by the light source from the opposite side to the surface on which the object is placed. An image of an object is input to the image reading means. The light source illuminates one line from end to end in the Y-axis direction shown in FIG. 2A, and moves in the X-axis direction at a constant speed. Therefore, the reduced light image is successively input to the image reading means in a strip shape. The image reading means consists of a CCD image sensor that converts optical signals into electrical signals, an A/D converter that performs analog/digital conversion, and the like. They are converted into values in the RGB color space expressed in blue (hereinafter referred to as “RGB values”) and output as image information Vd. Since the image information Vd for one row in the Y-axis direction is output in order from right to left in FIG. The image information Vd is output in units. The RGB values, which are the image information Vd, are values representing each color of R (red), G (green), and B (blue) with 256 gradations (0 to 255). It is composed of RGB values vr i , vg i and vb i (i=1, 2, . . . , I, I is the number of pixels). The light source, mirror, lens, and image reading means constitute an image acquisition section.

このように、画像読取装置10は、一般のコピー機が有する機能の内のスキャン機能のみを応用しているので、ピドスコープ等の従来の画像読取装置に比べると、コンパクトな構造となっている。 As described above, the image reading apparatus 10 uses only the scanning function among the functions of general copiers, and thus has a more compact structure than a conventional image reading apparatus such as a pedoscope.

なお、画像読取装置10は、CCD方式ではなく、CIS(Contact Image Sensor)方式で対象物の画像を取り込んでも良い。この場合、ミラーは不要となり、光源としてRGB3原色のLEDを使用し、画像読取手段ではCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを使用する。また、画像読取装置10は、対象物をスキャンして画像を取り込むのではなく、ガラス板11全体を撮影する機能を搭載し、対象物が載せられた面とは反対の面を1回撮影することにより、対象物の画像を取り込むようにしても良い。 Note that the image reading device 10 may take in the image of the object by a CIS (Contact Image Sensor) system instead of by a CCD system. In this case, no mirror is required, and LEDs of three primary colors of RGB are used as the light source, and a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used as the image reading means. Further, the image reading device 10 is equipped with a function of capturing an image of the entire glass plate 11 instead of capturing an image by scanning an object, and captures once the surface opposite to the surface on which the object is placed. By doing so, an image of the object may be captured.

画像解析装置20は、画像情報Vdから被測定者の足裏の重心位置Cdを求め、重心の相対的な位置が視覚的にわかるように表示する。 The image analysis device 20 obtains the center-of-gravity position Cd of the sole of the subject from the image information Vd, and displays it so that the relative position of the center of gravity can be visually understood.

画像解析装置20の構成例を図3に示す。画像解析装置20は、入力制御部21、画像記憶部22、接触領域検出部23、接触情報記憶部24、重心検出部25及び表示制御部26を備える。画像解析装置20としては、デスクトップ型パソコンやノートパソコン等を使用し、入力制御部21、接触領域検出部23、重心検出部25及び表示制御部26は、パソコンで動作するプログラムとして実現される。なお、図3には本実施形態で必要な構成要素のみを示しており、パソコンが有するその他のハードウェア及びソフトウェアの構成要素は示していない。また、画像解析装置20として、パソコンではなく、専用の装置を使用しても良い。 A configuration example of the image analysis device 20 is shown in FIG. The image analysis device 20 includes an input control section 21 , an image storage section 22 , a contact area detection section 23 , a contact information storage section 24 , a center of gravity detection section 25 and a display control section 26 . A desktop personal computer, a notebook personal computer, or the like is used as the image analysis device 20, and the input control unit 21, the contact area detection unit 23, the center of gravity detection unit 25, and the display control unit 26 are implemented as programs that operate on the personal computer. Note that FIG. 3 shows only the components necessary for this embodiment, and does not show other hardware and software components of the personal computer. Also, as the image analysis device 20, a dedicated device may be used instead of a personal computer.

入力制御部21は、画像読取装置10に対象物のスキャンを開始させ、画像読取装置10から送信される画像情報Vdを入力し、画像記憶部22に格納する。 The input control unit 21 causes the image reading device 10 to start scanning an object, inputs image information Vd transmitted from the image reading device 10 , and stores the information in the image storage unit 22 .

画像解析装置20を構成するパソコンの画面上に、画像読取装置10に対象物のスキャンを開始させるための動作開始ボタンを設け、パソコンに接続しているマウス等により動作開始ボタンを押すと、入力制御部21はそのことを検知し、画像読取装置10に対して動作開始信号Sgを送信する。画像読取装置10は、動作開始信号Sgを受信したら、対象物のスキャンを開始する。なお、パソコンの画面上に動作開始ボタンを設けるのではなく、パソコンに接続しているキーボードの任意のキー(例えば、Enterキー等)を動作開始ボタンとして使用しても良い。また、画像解析装置20ではなく、画像読取装置10に動作開始ボタンを設けても良い。この場合、動作開始信号Sgの送受信は不要となるが、動作開始ボタンを押す前に、画像解析装置20を起動させ、画像読取装置10から送信される画像情報Vdを受信できる状態にしておく必要がある。 An operation start button is provided on the screen of the personal computer that constitutes the image analysis device 20 to cause the image reading device 10 to start scanning the object. The control unit 21 detects this and transmits an operation start signal Sg to the image reading device 10 . Upon receiving the operation start signal Sg, the image reading device 10 starts scanning the object. Instead of providing the operation start button on the screen of the personal computer, any key (eg, Enter key, etc.) on the keyboard connected to the personal computer may be used as the operation start button. Also, the operation start button may be provided on the image reading device 10 instead of the image analyzing device 20 . In this case, it is unnecessary to transmit and receive the operation start signal Sg, but it is necessary to activate the image analysis device 20 and make it ready to receive the image information Vd transmitted from the image reading device 10 before pressing the operation start button. There is

画像読取装置10からは、図2(B)に示される矢印の順序で画像情報Vdが送信されるので、入力制御部21は、画像読取装置10でのスキャン終了まで画像情報Vdを順次入力し、その順序通りに画像情報Vdを画像記憶部22に格納する。例えば、順次出力される画像情報Vdを、アドレスの昇順で画像記憶部22に格納していく。 Since the image information Vd is transmitted from the image reading device 10 in the order of the arrow shown in FIG. , the image information Vd is stored in the image storage unit 22 in that order. For example, the image information Vd that is sequentially output is stored in the image storage unit 22 in ascending order of addresses.

画像記憶部22は、入力制御部21から出力される画像情報Vdを記憶する。画像記憶部22は、画像読取装置10での1回のスキャンにより生成される画像情報Vdを1つのファイルとして記憶しても良い。 The image storage unit 22 stores image information Vd output from the input control unit 21 . The image storage unit 22 may store the image information Vd generated by one scan by the image reading device 10 as one file.

接触領域検出部23は、画像記憶部22に記憶されている画像情報Vdから接触領域を検出し、接触領域に関する情報(接触情報)Tdとして出力する。 The contact area detection unit 23 detects a contact area from the image information Vd stored in the image storage unit 22, and outputs information (contact information) Td regarding the contact area.

接触領域検出部23は、画像解析装置20が足裏全体における重心位置を的確に把握できるような画像を表示するために、接触領域だけではなく、ガラス板11に接触していない足裏の領域(以下、「非接触領域」とする)も検出する。つまり、接触領域検出部23は、足裏画像を、接触領域、非接触領域、及びガラス板11にて足が載っていない足裏以外の領域(以下、「非足裏領域」とする)の3つの領域に区分する。そのために、接触領域検出部23は、画像情報Vdに含まれる色情報を用いて、接触領域及び非接触領域を検出する。 The contact area detection unit 23 detects not only the contact area but also the area of the sole that is not in contact with the glass plate 11 in order to display an image that allows the image analysis device 20 to accurately grasp the center of gravity of the entire sole. (hereinafter referred to as "non-contact area") is also detected. That is, the contact area detection unit 23 detects the sole image as a contact area, a non-contact area, and an area other than the sole on which the foot is not placed on the glass plate 11 (hereinafter referred to as "non-sole area"). Divide into three areas. Therefore, the contact area detection unit 23 detects the contact area and the non-contact area using the color information included in the image information Vd.

人体の表面には毛細血管が張り巡っているので、被測定者の部位を接触板に接触させて、接触した部位の皮膚に圧力を加えると、圧力が加わった箇所の毛細血管が圧迫され、血流が抑制される。人体の皮膚、特に手のひらや足裏の皮膚の色は、毛細血管内の血液の色である赤色を反映した色となっているので、皮膚に圧力が加わっていない通常の血流での皮膚の色と、皮膚に圧力が加わり抑制された血流での皮膚の色には違いが生じる。このような違いが生じる皮膚の色を反映した色情報を用いることにより、接触領域及び非接触領域を検出することができる。特に、人体の足裏の色は、病気等による異常がない場合、人種、性別、年齢に関わらず、圧力が加わっていない状態では、メラニンや毛細血管内の血液の色を反映して、肌色(うすだいだい、ペールオレンジ)となっている。足裏に圧力が加わると、上述のように毛細血管内の血流が抑制されるので、色が白色に変化する。このように圧力を加えることにより足裏の色が肌色から白色に変化する現象を利用して、接触領域検出部23は、画像情報Vdから接触領域及び非接触領域を検出する。つまり、接触領域検出部23は、接触領域及び非接触領域に対して、白色に関連する色の範囲及び肌色に関連する色の範囲をそれぞれ設定して対応付け、それら以外の色の範囲は非足裏領域に対応付ける。そして、その設定に基づいて、画像情報Vd中の各画素が属する領域を決定する。各領域に対して特定の番号(以下、「領域番号」とする)を、例えば、接触領域に1、非接触領域に2、非足裏領域に0を設定することとし、接触情報Tdは、画素毎に決定された領域番号r(以下、「領域値」とする)で構成される。 Since the surface of the human body is covered with capillaries, when the part of the person to be measured is brought into contact with the contact plate and pressure is applied to the skin of the contacting part, the capillaries at the part where the pressure is applied are compressed, Blood flow is restricted. The color of the skin of the human body, especially the skin of the palms and soles, reflects the red color of the blood in the capillaries. There is a difference between the color and the color of the skin under pressure and restricted blood flow to the skin. By using color information that reflects the skin color that causes such a difference, it is possible to detect the contact area and the non-contact area. In particular, the color of the soles of the human body reflects the color of melanin and blood in the capillaries when no pressure is applied, regardless of race, gender, or age, unless there is an abnormality due to disease, etc. It is skin color (light orange, pale orange). When pressure is applied to the sole, the blood flow in the capillaries is suppressed as described above, so the color changes to white. The contact area detection unit 23 detects the contact area and the non-contact area from the image information Vd by utilizing the phenomenon that the color of the sole changes from skin color to white by applying pressure in this way. That is, the contact area detection unit 23 sets and associates a color range related to white and a color range related to skin color with respect to the contact area and the non-contact area, respectively, and the other color ranges are non-contact areas. Correspond to the sole area. Based on the setting, the area to which each pixel in the image information Vd belongs is determined. A specific number (hereinafter referred to as "area number") is set for each area, for example, 1 is set for the contact area, 2 for the non-contact area, and 0 for the non-sole area. It is composed of a region number r i (hereinafter referred to as “region value”) determined for each pixel.

接触領域検出部23は、RGB値を入力とし、領域値を出力とする関数Fを用いて、画像情報Vdから接触情報Tdを求める。画像記憶部22に記憶されている画像情報Vd中のRGB値vr、vg及びvbを格納された順序で読み出し、関数Fを用いて領域値rを求め、接触情報Tdとして順次出力する。関数Fは条件判定も含んだ関数である。例えば、以下の(1)~(5)の処理全体を関数Fとして定義する。 The contact area detection unit 23 obtains the contact information Td from the image information Vd using the function F that receives the RGB values and outputs the area value. The RGB values vri, vg i and vb i in the image information Vd stored in the image storage unit 22 are read out in the order in which they are stored, the region value r i is obtained using the function F, and sequentially output as the contact information Td. do. Function F is a function that also includes condition determination. For example, the entire processing of (1) to (5) below is defined as a function F.

(1)RGB値vr、vg及びvbを色相(Hue)、彩度(Saturation)及び明度(Value)で表現されるHSV色空間の値(以下、「HSV値」とする)vh、vs及びvvに変換する。 (1) HSV color space values (hereinafter referred to as “HSV values” ) in which the RGB values vri, vg i and vb i are represented by Hue, Saturation and Value vh i , vs i and vv i .

(2)肌色に対応するH(色相)及びV(明度)の範囲(以下、「肌色範囲」とする)を予め設定し、vh及びvvが肌色範囲に属するか判定する。 (2) A range of H (hue) and V (brightness) corresponding to skin color (hereinafter referred to as "skin color range") is set in advance, and it is determined whether vh i and vv i belong to the skin color range.

(3)vh及びvvが肌色範囲に属する場合、S(彩度)に対して0から所定の値までを2つの範囲に分け、前半の範囲に領域番号1(接触領域)を、後半の範囲に領域番号2(非接触領域)を割り当て、vsが属する範囲を調べる。 (3) When vh i and vv i belong to the skin color range, the range from 0 to a predetermined value for S (saturation) is divided into two ranges. assign region number 2 (non-contact region) to the range of , and examine the range to which vs i belongs.

(4)vsが属する範囲がある場合、その範囲に対して設定されている領域番号を領域値rとする。 (4) If there is a range to which vs i belongs, let the region number set for that range be the region value ri .

(5)vh及びvvが肌色範囲に属さない場合、又は、vsが属する範囲がない場合、領域値rを0(非足裏領域)とする。 (5) If vh i and vv i do not belong to the skin color range, or if there is no range to which vs i belongs, the region value r i is set to 0 (non-foot sole region).

なお、関数Fとして、上記(2)及び(3)のように肌色に関連する色の範囲及び白色に関連する色の範囲(肌色範囲において、S=0は白色に相当する)を設定しての処理を行うのであれば、上記(1)~(5)以外の処理を定義しても良い。または、RGB値から算出される輝度等を用いて、関数Fを定義しても良い。 As the function F, the color range related to skin color and the color range related to white (in the skin color range, S=0 corresponds to white) are set as in (2) and (3) above. If the processing of (1) to (5) is performed, processing other than the above (1) to (5) may be defined. Alternatively, the function F may be defined using luminance or the like calculated from RGB values.

接触情報記憶部24は、接触領域検出部23から出力される接触情報Tdを記憶する。接触情報Tdは、図2(B)の矢印で示される順序と同じ順序で出力されるので、接触情報記憶部24でも、その順序を保持するように接触情報Tdが記憶される。例えば、順次出力される接触情報Tdを、アドレスの昇順で接触情報記憶部24に記憶していく。 The contact information storage unit 24 stores contact information Td output from the contact area detection unit 23 . Since the contact information Td is output in the same order as indicated by the arrow in FIG. 2B, the contact information storage unit 24 also stores the contact information Td so as to maintain that order. For example, the contact information Td that is sequentially output is stored in the contact information storage unit 24 in ascending order of addresses.

重心検出部24は、接触情報記憶部24に記憶されている接触情報Tdを用いて、重心位置Cdを検出する。重心検出部24は、接触領域の面積を基に、重心位置Cdを求める。具体的には、接触領域を含む、重心位置Cdを探索するための探索領域を設定し、その探索領域に対して接触領域の面積を二等分する、直交する2本の二等分線を求め、それらの交点の位置を重心位置Cdとする。 The center-of-gravity detection unit 24 detects the center-of-gravity position Cd using the contact information Td stored in the contact information storage unit 24 . The center-of-gravity detector 24 obtains the center-of-gravity position Cd based on the area of the contact area. Specifically, a search area for searching for the center-of-gravity position Cd, including the contact area, is set, and two orthogonal bisectors that bisect the area of the contact area are drawn with respect to the search area. and let the position of their intersection point be the center-of-gravity position Cd.

重心検出部24の構成例を図4に示す。重心検出部24は探索領域設定部251、二等分線決定部252(第1二等分線決定部)及び253(第2二等分線決定部)、並びに重心決定部254を備え、接触情報Tdは、探索領域設定部251、二等分線決定部252及び253に入力される。 A configuration example of the center-of-gravity detection unit 24 is shown in FIG. The center-of-gravity detection unit 24 includes a search area setting unit 251, a bisector determination unit 252 (first bisector determination unit) and 253 (second bisector determination unit), and a center-of-gravity determination unit 254. The information Td is input to the search area setting unit 251 and the bisector determination units 252 and 253 .

探索領域設定部251は、接触情報Tdに対して探索領域を設定する。探索領域として、接触領域及び非接触領域(以下、両領域を合わせて「足裏領域」とする)を含む矩形状の領域を設定する。探索領域の設定例を示すイメージを図5に示す。図5において、図2にて定義されたX軸及びY軸は、横方向がX軸、縦方向がY軸となり、左下端が原点となる。また、足裏領域101は接触領域と非接触領域が区別されずに一体として記載されている。接触情報Tdは、図5の実線で示される矩形状に配列された画素と同様の構成が形成される並びで、画素毎に領域値rを有する。この接触情報Tdに対して、探索領域102は、図5の破線で示されるように、外周が足裏領域101と接する矩形状の領域として設定される。即ち、足裏領域101の左右端に接してY軸と平行な縦方向の辺である縦辺102A及び102Bと、足裏領域101の上下端に接してX軸と平行な横方向の辺である横辺102C及び102Dからなる矩形内部を探索領域102とする。領域値rが1は接触領域を、2は非接触領域を表すので、領域値rから足裏領域101を判別し、足裏領域101内の各画素のX軸及びY軸上での位置(X座標、Y座標)を基に、縦辺102A及び102B並びに横辺102C及び102Dを設定する。即ち、足裏領域101内の各画素のX座標の中で最小のX座標の線を縦辺102A、最大のX座標の線を縦辺102Bとし、各画素のY座標の中で最大のY座標の線を横辺102C、最小のY座標の線を横辺102Dとする。設定された縦辺102A及び102Bは縦辺情報Svとして、横辺102C及び102Dは横辺情報Shとして出力される。縦辺情報Svは二等分線決定部252に、横辺情報Shは二等分線決定部253にそれぞれ入力される。 The search area setting unit 251 sets a search area for the contact information Td. As a search area, a rectangular area including a contact area and a non-contact area (hereinafter, both areas are collectively referred to as a “sole area”) is set. FIG. 5 shows an image showing a setting example of the search area. 5, the X axis and the Y axis defined in FIG. 2 have the X axis in the horizontal direction and the Y axis in the vertical direction, and the lower left end is the origin. In addition, the sole area 101 is described as a unit without distinguishing between the contact area and the non-contact area. The contact information Td has a region value ri for each pixel in an arrangement that forms the same configuration as the pixels arranged in a rectangular shape indicated by solid lines in FIG. For this contact information Td, the search area 102 is set as a rectangular area whose perimeter is in contact with the sole area 101, as indicated by the dashed line in FIG. That is, vertical sides 102A and 102B, which are vertical sides in contact with the left and right ends of the sole area 101 and parallel to the Y axis, and horizontal sides in contact with the upper and lower ends of the sole area 101 and parallel to the X axis. A search area 102 is defined as the inside of a rectangle formed by horizontal sides 102C and 102D. A region value r i of 1 indicates a contact region, and 2 indicates a non-contact region . Vertical sides 102A and 102B and horizontal sides 102C and 102D are set based on the position (X coordinate, Y coordinate). That is, among the X coordinates of each pixel in the sole region 101, the line of the minimum X coordinate is the vertical side 102A, the line of the maximum X coordinate is the vertical side 102B, and the maximum Y The coordinate line is the horizontal side 102C, and the minimum Y coordinate line is the horizontal side 102D. The set vertical sides 102A and 102B are output as vertical side information Sv, and the horizontal sides 102C and 102D are output as horizontal side information Sh. The vertical side information Sv and the horizontal side information Sh are input to the bisector determining section 252 and the bisector determining section 253, respectively.

二等分線決定部252は、接触情報Td及び縦辺情報Svより、縦辺102A及び102Bと平行で、接触領域の面積を二等分する二等分線(第1二等分線)を求める。縦辺102Aと102Bの間に分割線(第1分割線)を設定し、その分割線を移動させることにより、二等分線を求める。 The bisector determination unit 252 determines a bisector (first bisector) that is parallel to the vertical sides 102A and 102B and bisects the area of the contact region from the contact information Td and the vertical side information Sv. Ask. A dividing line (first dividing line) is set between the vertical sides 102A and 102B, and the bisector is obtained by moving the dividing line.

二等分線決定部252は、まず、縦辺102Aと102Bの間の中央に、縦辺102A及び102Bと平行な分割線を設定する。そして、縦辺102Aと分割線で挟まれた範囲での接触領域の面積と、分割線と縦辺102Bで挟まれた範囲での接触領域の面積を比較する。両面積が等しい場合、設定した分割線を二等分線とする。両面積が等しくない場合、面積が大きい接触領域を含む範囲の方に、分割線を所定の距離(例えば、画素の幅)だけ移動する。移動後の分割線に対して、上述のような両範囲での接触領域の面積を比較し、比較結果に応じて同様の処理を実行する。この分割線の移動と面積の比較を繰り返すことにより、二等分線を求める。分割線の移動による接触領域の面積の増減量は離散的な値であり、両面積が全く同じにならないことがあるので、その場合は、両面積の差が最小となる分割線を二等分線とする。「接触領域の面積を二等分する」とは、このように、両面積が等しい場合だけではなく、両面積の差が最小となる場合も含むものとする。求められた二等分線は二等分線Bvとして重心決定部254に入力される。なお、面積として、実際の面積だけではなく、画素数等を使用しても良い。また、二等分線を、他の方法、例えば接触領域全体の面積を求め、その半分の値を基にした方法等で求めるようにしても良い。 The bisector determination unit 252 first sets a dividing line parallel to the vertical sides 102A and 102B at the center between the vertical sides 102A and 102B. Then, the area of the contact area between the vertical side 102A and the dividing line is compared with the area of the contact area between the dividing line and the vertical side 102B. If both areas are equal, the set dividing line is the bisector. If the areas are not equal, move the dividing line a predetermined distance (eg, the width of a pixel) toward the area containing the larger area contact area. The area of the contact area in both ranges is compared with respect to the divided line after the movement, and similar processing is executed according to the comparison result. The bisector is obtained by repeating the movement of the dividing line and the comparison of the areas. The amount of increase or decrease in the area of the contact area due to the movement of the dividing line is a discrete value, and both areas may not be exactly the same. In that case, divide the dividing line that minimizes the difference between both areas line. "Dividing the area of the contact region into two equal parts" includes not only the case where both areas are equal, but also the case where the difference between both areas is minimal. The obtained bisector is input to the center-of-gravity determination unit 254 as the bisector Bv. As the area, not only the actual area but also the number of pixels or the like may be used. Alternatively, the bisector may be obtained by another method, for example, by obtaining the area of the entire contact area and using a half value thereof.

二等分線決定部253は、接触情報Td及び横辺情報Shより、横辺102C及び102Dと平行で、接触領域の面積を二等分する二等分線(第2二等分線)を求める。二等分線決定部253は、横辺102Cと102Dの間の中央に分割線(第2分割線)を設定し、二等分線決定部252と同様に、その分割線を移動させることにより、二等分線を求める。求められた二等分線は二等分線Bhとして重心決定部254に入力される。 The bisector determination unit 253 determines a bisector (second bisector) that is parallel to the horizontal sides 102C and 102D and bisects the area of the contact region from the contact information Td and the horizontal side information Sh. Ask. The bisector determining unit 253 sets a dividing line (second dividing line) in the center between the horizontal sides 102C and 102D, and similarly to the bisector determining unit 252, moves the dividing line , find the bisector. The obtained bisector is input to the center-of-gravity determination unit 254 as the bisector Bh.

重心決定部254は、二等分線Bv及びBhより重心位置Cdを求める。即ち、二等分線Bv及びBhの交点を重心として、その重心のX軸及びY軸上での位置(X座標、Y座標)を重心位置Cdとする。 The center-of-gravity determination unit 254 obtains the center-of-gravity position Cd from the bisectors Bv and Bh. That is, the intersection of the bisectors Bv and Bh is the center of gravity, and the position of the center of gravity on the X and Y axes (X coordinate, Y coordinate) is the center of gravity position Cd.

なお、重心検出部25は、直交する二等分線Bv及びBhの交点を重心として重心位置Cdを求めているが、直交していない二等分線の交点から重心位置Cdを求めても良く、3本以上の二等分線から重心位置Cdを求めても良い。後者において二等分線の交点が複数存在する場合、複数の交点から求められる幾何中心や任意の交点等の位置を重心位置Cdとする。 The center-of-gravity detection unit 25 obtains the center-of-gravity position Cd using the intersection of the orthogonal bisectors Bv and Bh as the center of gravity. , the center-of-gravity position Cd may be obtained from three or more bisectors. In the latter case, when there are a plurality of intersections of bisectors, the position of the geometric center or arbitrary intersection obtained from the plurality of intersections is defined as the barycentric position Cd.

表示制御部26は、接触情報記憶部24に記憶されている接触情報Td及び重心検出部25から出力される重心位置Cdを表示する。表示制御部26にはディスプレイが接続されており、接触情報Td及び重心位置Cdはディスプレイに表示される。具体的には、各領域番号(0、1、2)に対応した色を予め設定し、入力された接触情報Td中の領域値rに合わせて、対応する色を表示し、重心位置Cdは×印等を用いて表示する。接触情報Td中の領域値rは、図2(B)の矢印で示される順序と同じ順序で接触情報記憶部24に記憶されているので、表示制御部26は、接触情報記憶部24に記憶されている順番を基に決定される位置に、領域値rに応じた色を表示する。 The display control unit 26 displays the contact information Td stored in the contact information storage unit 24 and the center-of-gravity position Cd output from the center-of-gravity detection unit 25 . A display is connected to the display control unit 26, and the contact information Td and the center-of-gravity position Cd are displayed on the display. Specifically, a color corresponding to each area number ( 0 , 1, 2) is set in advance, the corresponding color is displayed according to the area value ri in the input contact information Td, and the center of gravity position Cd is displayed. is displayed using a cross mark or the like. Since the region values r i in the contact information Td are stored in the contact information storage unit 24 in the same order as indicated by the arrows in FIG. A color corresponding to the region value ri is displayed at a position determined based on the stored order.

ケーブル30は、画像読取装置10と画像解析装置20を接続する。ケーブル30として、USB(Universal Serial Bus)ケーブル等の有線を使用し、画像読取装置10及び画像解析装置20それぞれが装備するUSBポート等にケーブル30を接続する。画像読取装置10と画像解析装置20を、有線ではなく、無線で接続しても良く、或いは、USBメモリ等の外付け記録媒体へのデータ書き込み機能を画像読取装置10に付加し、外付け記録媒体を介して、画像読取装置10から画像解析装置20へ画像情報Vdを送るようにしても良い。後者の場合、例えば、画像読取装置10により複数の被測定者の画像情報を取得して外付け記録媒体に記録し、後日、画像解析装置20を用いて各被測定者の重心位置を求めるということも可能となる。 A cable 30 connects the image reading device 10 and the image analysis device 20 . A wired cable such as a USB (Universal Serial Bus) cable is used as the cable 30, and the cable 30 is connected to a USB port or the like provided in each of the image reading device 10 and the image analyzing device 20. FIG. The image reading device 10 and the image analysis device 20 may be connected wirelessly instead of by wire. The image information Vd may be sent from the image reading device 10 to the image analyzing device 20 via a medium. In the latter case, for example, the image reading device 10 acquires image information of a plurality of persons to be measured, records the image information on an external recording medium, and later uses the image analysis device 20 to determine the center of gravity of each person. is also possible.

このような画像解析システム1の構成において、その動作例及び使用例を図6及び図7のフローチャートを参照して説明する。図6において、破線の矢印は画像読取装置10と画像解析装置20の間でのデータの送受信を示す。 In such a configuration of the image analysis system 1, an example of its operation and an example of its use will be described with reference to the flow charts of FIGS. 6 and 7. FIG. In FIG. 6 , dashed arrows indicate transmission and reception of data between the image reading device 10 and the image analysis device 20 .

先ず、画像読取装置10及び画像解析装置20を起動する。 First, the image reading device 10 and the image analysis device 20 are activated.

被測定者は、画像読取装置10のガラス板11に裸足の状態で両足を載せ、直立した状態となる。この際、通常の状態での重心位置が得られるように、画像読取装置10は、傾きがない平坦な場所に設置し、被測定者には計測であることを意識せずにリラックスした状態で直立してもらうようにする。被測定者の姿勢が整ったら、画像読取装置10に対象物のスキャンを開始させるために、測定者は画像解析装置20に設けられた動作開始ボタンを押下する。 The person to be measured places both bare feet on the glass plate 11 of the image reading device 10 to stand upright. At this time, the image reading apparatus 10 is installed on a flat place with no inclination so that the center of gravity position in a normal state can be obtained, and the person to be measured is placed in a relaxed state without being conscious of the measurement. Have them stand up straight. When the subject's posture is adjusted, the subject presses an operation start button provided on the image analysis device 20 to cause the image reading device 10 to start scanning the object.

画像解析装置20は動作開始ボタンの押下を検知したら、入力制御部21より動作開始信号Sgを画像読取装置10に送信する(ステップS10)。 When the image analysis device 20 detects that the operation start button has been pressed, the input control unit 21 transmits an operation start signal Sg to the image reading device 10 (step S10).

画像読取装置10は、動作開始信号Sgを受信したら(ステップS20)、被測定者の足裏のスキャンを開始する(ステップS30)。被測定者には、スキャン中は動かないようにしてもらう。 When receiving the operation start signal Sg (step S20), the image reading device 10 starts scanning the sole of the person to be measured (step S30). Ask the person to be measured not to move during the scan.

画像読取装置10は、光源を一定速度で移動させることにより、ガラス板11に載せられた足裏全体を照射し、その反射光がミラー及びレンズを介して画像読取手段に到達し、画像読取手段により画像情報Vdに変換される。画像情報Vdは、図2(B)の矢印で示される順序で画像解析装置20に送信される(ステップS40)。 The image reading device 10 moves the light source at a constant speed to illuminate the entire sole placed on the glass plate 11, and the reflected light reaches the image reading means via mirrors and lenses. is converted into image information Vd. The image information Vd is transmitted to the image analysis device 20 in the order indicated by the arrow in FIG. 2B (step S40).

画像解析装置20は画像情報Vdを受信し(ステップS50)、入力制御部21が、受信した画像情報Vdを画像記憶部22に格納する(ステップS60)。 The image analysis device 20 receives the image information Vd (step S50), and the input control section 21 stores the received image information Vd in the image storage section 22 (step S60).

画像情報Vdが画像記憶部22に格納されたら、接触領域検出部23は、画像記憶部22から画像情報Vd中のRGB値vr、vg及びvbを読み出す(ステップS70)。そして、関数Fを用いて、領域値rを求め(ステップS80)、接触情報Tdとして接触情報記憶部24に格納する(ステップS90)。 After the image information Vd is stored in the image storage unit 22, the contact area detection unit 23 reads the RGB values vri, vg i and vb i in the image information Vd from the image storage unit 22 (step S70). Then, using the function F, the area value ri is obtained (step S80 ) and stored as the contact information Td in the contact information storage unit 24 (step S90).

全ての領域値rが接触情報記憶部24に格納されたら(ステップS100)、重心検出部25は、接触情報Tdを読み出し、重心位置Cdを検出する(ステップS110)。重心検出部25の動作例については、図7のフローチャートを参照して説明する。 When all the region values ri are stored in the contact information storage unit 24 (step S100), the center-of-gravity detection unit 25 reads the contact information Td and detects the center-of-gravity position Cd (step S110). An example of the operation of the center-of-gravity detector 25 will be described with reference to the flowchart of FIG.

接触情報記憶部24から読み出された接触情報Tdは探索領域設定部251並びに二等分線決定部252及び253に入力される。探索領域設定部251は、接触情報Td中の領域値rから足裏領域101を判別し、足裏領域101内の各画素の座標(X座標、Y座標)より、探索領域102の縦辺102A及び102B並びに横辺102C及び102Dを求める(ステップS111)。縦辺102A及び102Bは、縦辺情報Svとして、二等分線決定部252に入力され、横辺102C及び102Dは、横辺情報Shとして、二等分線決定部253に入力される。 The contact information Td read from the contact information storage unit 24 is input to the search area setting unit 251 and the bisector determination units 252 and 253 . The search area setting unit 251 determines the sole area 101 from the area value ri in the contact information Td , and determines the vertical side of the search area 102 from the coordinates (X coordinate, Y coordinate) of each pixel in the sole area 101. 102A and 102B and horizontal sides 102C and 102D are obtained (step S111). The vertical sides 102A and 102B are input to the bisector determining section 252 as vertical side information Sv, and the horizontal sides 102C and 102D are input to the bisector determining section 253 as horizontal side information Sh.

二等分線決定部252は、接触情報Td及び縦辺情報Svを入力したら、縦辺102A及び102Bの間の中央に分割線を設定する(ステップS112)。そして、分割線と縦辺102A及び102Bとで挟まれた2つの範囲での接触領域の面積の比較と、その比較結果に応じた分割線の移動により、接触領域の面積を二等分する二等分線Bvを求める(ステップS113)。二等分線Bvは重心決定部254に入力される。 After inputting the contact information Td and the vertical side information Sv, the bisector determination unit 252 sets a dividing line in the center between the vertical sides 102A and 102B (step S112). Then, by comparing the area of the contact area in the two ranges between the dividing line and the vertical sides 102A and 102B, and moving the dividing line according to the comparison result, the area of the contact area is divided into two equal parts. An equisecting line Bv is obtained (step S113). The bisector Bv is input to the center-of-gravity determination unit 254 .

同様に、二等分線決定部253は、接触情報Td及び横辺情報Shを入力したら、横辺102C及び102Dの間の中央に分割線を設定し(ステップS114)、分割線と横辺102C及び102Dとで挟まれた2つの範囲での接触領域の面積の比較と、その比較結果に応じた分割線の移動により、接触領域の面積を二等分する二等分線Bhを求める(ステップS115)。二等分線Bhも重心決定部254に入力される。 Similarly, after inputting the contact information Td and the horizontal side information Sh, the bisector determination unit 253 sets a dividing line in the center between the horizontal sides 102C and 102D (step S114), and divides the dividing line and the horizontal side 102C. and 102D, and the bisector Bh that bisects the area of the contact region is obtained by comparing the area of the contact region and moving the dividing line according to the comparison result (step S115). The bisector Bh is also input to the center-of-gravity determination unit 254 .

重心決定部254は、入力した二等分線Bv及びBhより重心位置Cdを求める(ステップS116)。重心位置Cdは表示制御部26に入力される。 The center-of-gravity determination unit 254 obtains the center-of-gravity position Cd from the input bisectors Bv and Bh (step S116). The center-of-gravity position Cd is input to the display control unit 26 .

なお、二等分線決定部252の動作(ステップS112及びS113)と二等分線決定部253の動作(ステップS114及びS115)は、逆の順番で実行されても、平行して実行されても良い。 Note that the operations of the bisector determining unit 252 (steps S112 and S113) and the operations of the bisector determining unit 253 (steps S114 and S115) are performed in parallel even if they are performed in reverse order. Also good.

重心位置Cdを入力した表示制御部26は、接触情報記憶部24に記憶された接触情報Tdを読み出す(ステップS120)。そして、接触情報Td中の領域値rに対応する色を、予め設定された色の中から決定し、接触情報記憶部24に記憶されている順番に応じたディスプレイ上の位置に、決定した色を表示する。また、重心位置Cdに対応するディスプレイ上の位置に、重心位置を表す×印を表示する(ステップS130)。 The display control unit 26 having received the center-of-gravity position Cd reads the contact information Td stored in the contact information storage unit 24 (step S120). Then, the color corresponding to the region value r i in the contact information Td is determined from the colors set in advance, and is determined at the position on the display according to the order stored in the contact information storage unit 24. Show colors. Also, an x mark representing the position of the center of gravity is displayed at a position on the display corresponding to the position of the center of gravity Cd (step S130).

なお、画像解析装置20に、重心位置の表示を開始するボタンを、動作開始ボタンと同様の形態で用意し、そのボタンが押されたら、ステップS70~S130を実行するようにしても良い。 A button for starting the display of the center-of-gravity position may be provided in the image analysis apparatus 20 in the same form as the operation start button, and steps S70 to S130 may be executed when the button is pressed.

接触情報Td及び重心位置Cdの表示例を図8に示す。図8には、接触情報Tdに基づいて、足裏領域101を構成する接触領域101A及び非接触領域101Bと、重心位置Cdに基づいて、重心位置103が表示されており、更に、探索領域102が表示されている。このように、足裏領域と共に重心位置を表示することにより重心位置を的確に把握することができると共に、足裏全体における重心の位置を見ることにより、被測定者の体の歪の推測等の一助とすることができる。 FIG. 8 shows a display example of the contact information Td and the center-of-gravity position Cd. In FIG. 8, the contact area 101A and the non-contact area 101B forming the sole area 101 are displayed based on the contact information Td, and the center-of-gravity position 103 is displayed based on the center-of-gravity position Cd. is displayed. In this manner, by displaying the center of gravity position together with the sole region, the position of the center of gravity can be accurately grasped, and by seeing the position of the center of gravity in the entire sole, it is possible to estimate the distortion of the body of the person to be measured. can help.

なお、重心検出部25は、外周が足裏領域101と接する矩形状の領域を探索領域102として重心位置Cdを検出しているが、外周が接触領域101Aと接する矩形状の領域を探索領域102として重心位置Cdを検出しても良い。この場合、表示制御部26が、接触領域101A及び非接触領域101Bではなく、接触領域101Aのみを表示することにすると、接触領域検出部23での非接触領域101Bの検出は不要となり、接触情報Tdは接触領域を示す番号とそれ以外を示す番号の二値の情報となる。 Note that the center-of-gravity detection unit 25 detects the center-of-gravity position Cd by using a rectangular region whose outer circumference contacts the sole region 101 as the search region 102. You may detect the center-of-gravity position Cd as . In this case, if the display control unit 26 displays only the contact area 101A instead of the contact area 101A and the non-contact area 101B, the detection of the non-contact area 101B by the contact area detection unit 23 becomes unnecessary. Td is binary information of a number indicating the contact area and a number indicating other areas.

画像読取装置10は、図2(B)に示される矢印の順序で画像情報Vdを出力し、画像解析装置20は、その順序に従って接触情報Tdの算出、記憶及び表示を行っているので、ディスプレイの画面上での接触情報Tdの表示位置は一意に決まるが、画像情報Vd及び接触情報Tdに座標等の位置情報を付加し、位置情報を基に表示位置を決めるようにしても良い。また、画像記憶部22はRGB値からなる画像情報Vdを記憶しているが、記憶容量の削減等のために、圧縮された画像情報を記憶するようにしても良い。接触情報Tdも圧縮して、接触情報記憶部24に記憶するようにしても良い。更に、画像読取装置10から画像解析装置20に送信される画像情報Vdは、画像記憶部22に格納され、接触領域検出部23は画像記憶部22内の画像情報Vdから接触情報Tdを求めているが、画像情報Vdを画像記憶部22に格納せず、画像読取装置10から送信される画像情報Vdを順次用いて接触情報Tdを求めるようにしても良い。この場合、画像記憶部22は不要となる。 The image reading device 10 outputs the image information Vd in the order of the arrow shown in FIG. Although the display position of the contact information Td on the screen is uniquely determined, position information such as coordinates may be added to the image information Vd and the contact information Td, and the display position may be determined based on the position information. Further, the image storage unit 22 stores image information Vd consisting of RGB values, but may store compressed image information in order to reduce the storage capacity. The contact information Td may also be compressed and stored in the contact information storage unit 24 . Further, the image information Vd transmitted from the image reading device 10 to the image analysis device 20 is stored in the image storage unit 22, and the contact area detection unit 23 obtains the contact information Td from the image information Vd in the image storage unit 22. However, the contact information Td may be obtained by sequentially using the image information Vd transmitted from the image reading device 10 without storing the image information Vd in the image storage unit 22 . In this case, the image storage unit 22 becomes unnecessary.

本発明の他の実施形態について説明する。 Another embodiment of the present invention will be described.

画像解析装置にプリンタ等を接続して印刷機能を付加し、接触情報及び重心位置をディスプレイに表示するだけではなく、印刷することも可能である。この場合の画像解析装置の構成例(第2実施形態)を図9に示す。第1実施形態の画像解析装置20と比べると、第2実施形態の画像解析装置40では、重心位置記憶部27及び印刷制御部28が追加されており、その他の構成は第1実施形態と同じである。 By connecting a printer or the like to the image analysis apparatus and adding a printing function, it is possible not only to display the contact information and the center of gravity position on the display but also to print them. FIG. 9 shows a configuration example (second embodiment) of an image analysis apparatus in this case. Compared to the image analysis apparatus 20 of the first embodiment, the image analysis apparatus 40 of the second embodiment has a center-of-gravity position storage unit 27 and a print control unit 28 added, and other configurations are the same as those of the first embodiment. is.

重心位置記憶部27は、重心検出部25から出力される重心位置Cdを記憶する。 The center-of-gravity position storage unit 27 stores the center-of-gravity position Cd output from the center-of-gravity detection unit 25 .

印刷制御部28にはプリンタ(図示せず)が接続されており、印刷制御部28は、接触情報記憶部24に記憶されている接触情報Td及び重心位置記憶部27に記憶された重心位置Cdを読み出し、プリンタに出力する。即ち、印刷制御部28は、接触情報Td中の領域値rを順次入力し、表示制御部26と同様の手順により領域値rに対応した色を決定し、プリンタに出力して印刷すると共に、重心位置Cdに対応する位置に×印等を印刷する。 A printer (not shown) is connected to the print control unit 28, and the print control unit 28 stores the contact information Td stored in the contact information storage unit 24 and the center-of-gravity position Cd stored in the center-of-gravity position storage unit 27. is read out and output to the printer. That is, the print control unit 28 sequentially inputs the area values ri in the contact information Td , determines the colors corresponding to the area values ri in the same procedure as the display control unit 26, and outputs them to the printer for printing. At the same time, an x mark or the like is printed at a position corresponding to the center of gravity position Cd.

なお、表示制御部26も、重心検出部25から重心位置Cdを入力するのではなく、重心位置記憶部27に記憶された重心位置Cdを使用するようにしても良い。また、表示制御部26を削除し、接触情報及び重心位置の出力をプリンタによる印刷のみに特化しても良い。この場合、重心位置記憶部27も削除可能である。 The display control unit 26 may also use the center-of-gravity position Cd stored in the center-of-gravity position storage unit 27 instead of inputting the center-of-gravity position Cd from the center-of-gravity detection unit 25 . Alternatively, the display control unit 26 may be deleted, and the contact information and the center-of-gravity position output may be specialized only for printing by a printer. In this case, the center-of-gravity position storage unit 27 can also be deleted.

第1実施形態では、画像情報Vdから重心位置のみを求めているが、画像情報Vdからはその他にも有用な情報を抽出することができるので、それらを求めることも可能である。この場合の画像解析装置の構成例(第3実施形態)を図10に示す。第1実施形態の画像解析装置20と比べると、第3実施形態の画像解析装置50では、関連情報抽出部29が追加され、表示制御部26が表示制御部56に代わっており、その他の構成は第1実施形態と同じである。 In the first embodiment, only the center-of-gravity position is obtained from the image information Vd, but other useful information can be extracted from the image information Vd, so it is also possible to obtain them. FIG. 10 shows a configuration example (third embodiment) of an image analysis apparatus in this case. Compared to the image analysis apparatus 20 of the first embodiment, the image analysis apparatus 50 of the third embodiment includes an additional related information extraction unit 29, a display control unit 56 instead of the display control unit 26, and other configurations. are the same as in the first embodiment.

関連情報抽出部29は、画像記憶部22に記憶された画像情報Vdから被測定者の足裏に関連する情報を抽出し、関連情報Rdとして表示制御部56に出力する。関連情報として、例えば、足裏の圧力分布、モアレ画像、足裏の長さ及び横幅、足指の角度等を抽出する。 The related information extraction unit 29 extracts information related to the soles of the measurement subject from the image information Vd stored in the image storage unit 22 and outputs the information to the display control unit 56 as related information Rd. As related information, for example, the pressure distribution of the sole, the moire image, the length and width of the sole, the angle of the toes, and the like are extracted.

足裏の圧力分布は、接触領域検出部23での接触領域の検出と同様に、画像情報Vdに含まれる色情報を用いて求めることができる。足裏に圧力を加えることによる足裏の色の変化の割合は、加える圧力の大きさに依存することを利用して、圧力分布を求める。接触領域検出部23は足裏領域を接触領域及び非接触領域の2つに分類しているが、この分類する数を増やし(例えば16分類)、足裏領域を圧力に応じて段階的に分類した圧力分布を求める。この圧力分布を、段階毎に設定された色を用いて表示することにより、圧力の違いを分かり易く把握することができるようになり、足の内側及び外側並びに前及び後ろに圧力がどのようにかかっているのか、足の指がそれぞれ接地しているのか等、体のバランスを容易に確認することができる。また、重心位置と圧力分布を比較することにより、体の歪み等を推測することができる。なお、足裏の圧力分布を求めるとした場合、接触領域検出部23での接触領域及び非接触領域の検出を、圧力分布を用いて行っても良い。即ち、圧力分布と接触領域及び非接触領域とを対応付けることにより、圧力分布から接触領域及び非接触領域を決定する。 The pressure distribution of the sole can be obtained using the color information included in the image information Vd, similarly to the detection of the contact area by the contact area detection unit 23 . The pressure distribution is obtained using the fact that the rate of color change of the sole due to the application of pressure to the sole depends on the magnitude of the applied pressure. The contact area detection unit 23 classifies the sole area into two areas, the contact area and the non-contact area, but the number of classifications is increased (for example, 16 classifications), and the sole area is classified step by step according to the pressure. Calculate the pressure distribution By displaying this pressure distribution using the color set for each stage, it becomes possible to easily grasp the difference in pressure, and how the pressure is applied to the inside and outside of the foot as well as to the front and back. It is possible to easily check the balance of the body, such as whether the toes are on the ground or whether the toes are on the ground. Also, by comparing the position of the center of gravity and the pressure distribution, it is possible to estimate the distortion of the body. When the pressure distribution of the sole is obtained, the contact area detection unit 23 may detect the contact area and the non-contact area using the pressure distribution. That is, by associating the pressure distribution with the contact area and the non-contact area, the contact area and the non-contact area are determined from the pressure distribution.

モアレ画像は、モアレと呼ばれる光の干渉の現象を利用して、様々な物体の等高線を描く方法であるモアレ・トポグラフィーにより生成された画像のことである。足裏のモアレ画像の例を図11に示す。モアレ画像を利用することにより、目視では確認が難しい足裏の凹凸等の足裏の形を詳細に確認することが可能となる。例えば、土踏まずの形状がどうなっているか、タコや魚の目等がないか、等を確認することができる。 A moire image is an image generated by moire topography, which is a method of drawing contour lines of various objects using a phenomenon of light interference called moire. FIG. 11 shows an example of a moiré image of a sole. By using the moire image, it is possible to confirm in detail the shape of the sole, such as unevenness of the sole, which is difficult to confirm visually. For example, it is possible to check the shape of the arch of the foot, whether there are calluses, corns, or the like.

足指の角度として、例えば親指の角度(外反母趾角)、小指の角度(内反小趾角)、開帳角(FICK角)を求める。足裏の画像にこれらの値を表示させることにより、外反母趾や内反小趾の診断に利用することができる。 As the angle of the toes, for example, the angle of the thumb (hallux valgus angle), the angle of the little finger (varus little toe angle), and the spread angle (FICK angle) are obtained. Displaying these values on the image of the sole can be used for diagnosis of hallux valgus and bunion.

上述の実施形態(第1~第3実施形態)において、画像記憶部22に記憶された画像情報、接触情報記憶部24に記憶された接触情報及び第2実施形態での重心位置記憶部27に記憶された重心位置の内の少なくとも1つを、解析が終了した後も記憶したままとするか、或いは他の外部記録媒体に記録することにより、過去の解析結果との比較を可能とすることができる。これにより、治療や施術による効果、体のバランスの経年変化等を確認することが可能となる。 In the above-described embodiments (first to third embodiments), the image information stored in the image storage unit 22, the contact information stored in the contact information storage unit 24, and the center-of-gravity position storage unit 27 in the second embodiment At least one of the stored center-of-gravity positions is kept stored even after the analysis is completed, or is recorded in another external recording medium to enable comparison with past analysis results. can be done. As a result, it is possible to check the effect of treatment or treatment, changes in body balance over time, and the like.

上述の実施形態は、画像記憶部、接触情報記憶部及び重心位置記憶部をメモリとして、それ以外の構成要素の処理を、上述のようにプログラムとして実現することにより、コンピュータとメモリの構成で実現可能である。各構成要素は専用IC(Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアでも実現可能である。また、本発明は、上述の画像読取装置及び画像解析装置を備える画像解析システムとして実現しても、画像情報は既存製品等を利用して取得するようにして、画像解析装置として実現しても良い。更に、本発明は、方法又はプログラムとしての形態を取ることも可能である。 The above-described embodiment is realized by a computer and memory configuration by using the image storage unit, the contact information storage unit, and the center-of-gravity position storage unit as memories, and realizing the processing of other components as programs as described above. It is possible. Each component can also be realized by hardware such as a dedicated IC (Integrated Circuit) or FPGA (Field Programmable Gate Array). Further, the present invention may be implemented as an image analysis system including the above-described image reading device and image analysis device, or may be implemented as an image analysis device by acquiring image information using an existing product or the like. good. Furthermore, the present invention can also take the form of a method or program.

なお、本発明は上記形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible without departing from the gist of the present invention.

1 画像解析システム
10 画像読取装置
11 ガラス板
20、40、50 画像解析装置
21 入力制御部
22 画像記憶部
23 接触領域検出部
24 接触情報記憶部
25 重心検出部
26、56 表示制御部
27 重心位置記憶部
28 印刷制御部
29 関連情報抽出部
30 ケーブル
101 足裏領域
102 探索領域
103 重心位置
251 探索領域設定部
252、253 二等分線決定部
254 重心決定部

1 image analysis system 10 image reading device 11 glass plates 20, 40, 50 image analysis device 21 input control unit 22 image storage unit 23 contact area detection unit 24 contact information storage unit 25 center of gravity detection units 26, 56 display control unit 27 center of gravity position Storage unit 28 Print control unit 29 Related information extraction unit 30 Cable 101 Sole region 102 Search region 103 Center of gravity position 251 Search region setting units 252, 253 Bisecting line determination unit 254 Center of gravity determination unit

Claims (5)

被測定者の部位の画像情報を読み取る画像読取装置と、前記画像情報を用いて前記部位に関する解析を行う画像解析装置と、を備える画像解析システムであって、
前記画像読取装置が、
前記被測定者の部位が接触する接触板と、
前記接触板に対して、前記部位が接触している面の反対側の面に光を照射することにより、前記画像情報を取得する画像取得部と、を備え、
前記画像解析装置が、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出部と、を備え
前記重心検出部が、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定部と、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線として出力する第1二等分線決定部と、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線として出力する第2二等分線決定部と、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定部と、を備えることを特徴とする画像解析システム。
An image analysis system comprising: an image reading device for reading image information of a part of a person to be measured; and an image analysis device for analyzing the part using the image information,
The image reading device
a contact plate with which the part of the person to be measured contacts;
an image acquisition unit that acquires the image information by irradiating the surface of the contact plate opposite to the surface in contact with the portion with light,
The image analysis device is
a contact area detection unit that detects a contact area where the part is in contact with the contact plate from the image information and obtains contact information about the contact area;
a center-of-gravity detection unit that obtains the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; prepared ,
The center-of-gravity detection unit
a search area setting unit that sets a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination unit for outputting a first bisector as one of the bisectors;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination unit that outputs as another bisector and outputs as a second bisector;
An image analysis system , comprising: a center of gravity determination unit that sets the position of the intersection of the first bisector and the second bisector as the position of the center of gravity .
前記部位が足裏である請求項1に記載の画像解析システム。 2. The image analysis system according to claim 1 , wherein the site is the sole. 被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析装置であって、
前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力し、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出部と、を備え
前記重心検出部が、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定部と、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線として出力する第1二等分線決定部と、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線として出力する第2二等分線決定部と、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定部と、を備えることを特徴とする画像解析装置。
An image analysis device that analyzes a part of a person to be measured using image information of the part,
inputting the image information obtained by bringing the part of the person to be measured into contact with the contact plate;
a contact area detection unit that detects a contact area where the part is in contact with the contact plate from the image information and obtains contact information about the contact area;
a center-of-gravity detection unit that obtains the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; prepared ,
The center-of-gravity detection unit
a search area setting unit that sets a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination unit for outputting a first bisector as one of the bisectors;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination unit that outputs as another bisector and outputs as a second bisector;
An image analysis apparatus , comprising: a center-of-gravity determination unit that sets the position of the intersection of the first bisector and the second bisector as the position of the center of gravity .
被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析方法であって、
前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力する入力ステップと、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出ステップと、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出ステップと、を含み、
前記重心検出ステップが、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定ステップと、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線とする第1二等分線決定ステップと、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線とする第2二等分線決定ステップと、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定ステップと、を含むことを特徴とする画像解析方法。
An image analysis method for analyzing a part of a person to be measured using image information of the part,
an input step of inputting the image information acquired by bringing the part of the person to be measured into contact with the contact plate;
a contact area detection step of detecting a contact area where the site is in contact with the contact plate from the image information and obtaining contact information about the contact area;
a center-of-gravity detection step of determining the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; including
The centroid detection step includes
a search area setting step of setting a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination step as one of the bisectors and a first bisector;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination step that is another bisector and a second bisector;
and a barycentric determination step of determining the position of the intersection of the first bisector and the second bisector as the barycentric position .
コンピュータに、請求項に記載の画像解析方法を実行させるための画像解析プログラム。 An image analysis program for causing a computer to execute the image analysis method according to claim 4 .
JP2021182653A 2021-11-09 2021-11-09 Image analysis system, image analysis device, image analysis method and image analysis program Active JP7175045B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021182653A JP7175045B1 (en) 2021-11-09 2021-11-09 Image analysis system, image analysis device, image analysis method and image analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021182653A JP7175045B1 (en) 2021-11-09 2021-11-09 Image analysis system, image analysis device, image analysis method and image analysis program

Publications (2)

Publication Number Publication Date
JP7175045B1 true JP7175045B1 (en) 2022-11-18
JP2023070456A JP2023070456A (en) 2023-05-19

Family

ID=84101919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021182653A Active JP7175045B1 (en) 2021-11-09 2021-11-09 Image analysis system, image analysis device, image analysis method and image analysis program

Country Status (1)

Country Link
JP (1) JP7175045B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117100250A (en) * 2023-07-10 2023-11-24 北京华益精点生物技术有限公司 Toe position determining method and device, electronic equipment and storage medium
CN117100250B (en) * 2023-07-10 2024-05-28 北京华益精点生物技术有限公司 Toe position determining method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232942A (en) 2008-03-26 2009-10-15 Asahi Corp Method for analyzing gravity center position
JP2016209546A (en) 2015-04-28 2016-12-15 住友理工株式会社 Balance ability measuring apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2760484B2 (en) * 1995-12-19 1998-05-28 アニマ株式会社 Floor reaction force measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232942A (en) 2008-03-26 2009-10-15 Asahi Corp Method for analyzing gravity center position
JP2016209546A (en) 2015-04-28 2016-12-15 住友理工株式会社 Balance ability measuring apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117100250A (en) * 2023-07-10 2023-11-24 北京华益精点生物技术有限公司 Toe position determining method and device, electronic equipment and storage medium
CN117100250B (en) * 2023-07-10 2024-05-28 北京华益精点生物技术有限公司 Toe position determining method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2023070456A (en) 2023-05-19

Similar Documents

Publication Publication Date Title
JP5001580B2 (en) Body measuring device
JP4485837B2 (en) Method and system for computer analysis of skin images
TW202212791A (en) Surface pressure analysis device, method, and program
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
US9317913B2 (en) Method for measuring the absorption of fluid in an absorbent product
JP6380778B2 (en) Exercise posture analysis apparatus and exercise posture analysis information generation method
JP6869002B2 (en) Measuring device
JP5417654B2 (en) Center of gravity analysis method
CN115428050A (en) Hybrid gait analysis device for fall prevention and fall prevention management system comprising same
JP7175045B1 (en) Image analysis system, image analysis device, image analysis method and image analysis program
CN115004265A (en) Information processing apparatus and determination result output method
WO2004075677A1 (en) Foot pattern measuring instrument
US20030184520A1 (en) Mouse with optical buttons
JP7133245B1 (en) Image analysis system, image analysis device, image analysis method and image analysis program
TWM501834U (en) A foot sensing and measuring system
KR20160035497A (en) Body analysis system based on motion analysis using skeleton information
WO2021256459A1 (en) Image display system and image display method
WO2021256458A1 (en) Color chart
KR102266345B1 (en) Fingernails and toenails diseases detection apparatus and method thereof
JPH10201740A (en) Apparatus for measuring and judging on the surface state of skin
US20240000374A1 (en) Skin inspection device for identifying abnormalities
JP7240014B2 (en) Biological information measuring method, biological information measuring program, and biological information measuring device
JP7241293B2 (en) Shooting method and shooting device
US20170221384A1 (en) Method and electronic apparatus for displaying reference locations for locating ecg pads and recording medium using the method
Trbalić et al. Comparative Analysis of Methodologies for Flat Foot Parameter Determination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7175045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150