JP2016123587A - Apparatus and method for acquiring body information - Google Patents

Apparatus and method for acquiring body information Download PDF

Info

Publication number
JP2016123587A
JP2016123587A JP2014266241A JP2014266241A JP2016123587A JP 2016123587 A JP2016123587 A JP 2016123587A JP 2014266241 A JP2014266241 A JP 2014266241A JP 2014266241 A JP2014266241 A JP 2014266241A JP 2016123587 A JP2016123587 A JP 2016123587A
Authority
JP
Japan
Prior art keywords
shape
cross
sectional shape
sectional
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014266241A
Other languages
Japanese (ja)
Other versions
JP6458300B2 (en
Inventor
康代 小竹
Yasuyo KOTAKE
康代 小竹
友紀 長谷川
Tomonori Hasegawa
友紀 長谷川
正道 大江
Masamichi Oe
正道 大江
慎平 開田
Shimpei Hirakida
慎平 開田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Omron Healthcare Co Ltd
Original Assignee
Omron Corp
Omron Healthcare Co Ltd
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Healthcare Co Ltd, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014266241A priority Critical patent/JP6458300B2/en
Publication of JP2016123587A publication Critical patent/JP2016123587A/en
Application granted granted Critical
Publication of JP6458300B2 publication Critical patent/JP6458300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To minutely compare differences between a shape of a body as an analysis object and a shape of a body as a comparison object.SOLUTION: A body information acquisition apparatus includes: body shape acquisition means that acquires first body shape data obtained by measuring a body of a person, representing the body shape including at least a trunk part as a three-dimensional shape, and representing a body shape of an analysis object, and second body shape data representing a body shape of a comparison object; sectional-shape acquisition means that acquires a first cross-sectional shape and a second cross-sectional shape that are obtained by cutting the body shape of the analysis object and the body shape of the comparison object at predetermined cutting surfaces on the basis of the first and second body shape data; and analysis means that compares the first cross-sectional shape with the second cross-sectional shape to generate difference information as information representing differences of the body shapes.SELECTED DRAWING: Figure 1

Description

本発明は、人の身体の形状に関わる情報を取得する技術に関する。   The present invention relates to a technique for acquiring information related to the shape of a human body.

健康の増進を目的として、人体に対して行った各種計測の結果を記録し、その変化を比較する装置が一般に普及している。例えば、特許文献1に記載の脂肪計は、体重や体脂肪率、BMIなどの値を記録し、過去の値と比較することで、変化の度合いをユーザに通知することができる。   For the purpose of promoting health, devices that record the results of various measurements performed on the human body and compare the changes are generally popular. For example, the fat scale described in Patent Literature 1 records values such as body weight, body fat percentage, and BMI, and compares them with past values to notify the user of the degree of change.

また、このような体の内部情報に加え、体の寸法や形状、ゆがみといった外部情報を計測する装置が考案されている。例えば、特許文献2に記載の体型比較装置では、デジタルカメラを用いて被検者を撮影し、当該被検者の体の輪郭を抽出したうえで、同年代の理想的な体型データと比較したデータを出力する。このように、体の形状についてのデータを提示することで、ユーザに対して健康改善に対するより強い動機づけを与えることができる。   In addition to such internal information of the body, an apparatus for measuring external information such as body dimensions, shape, and distortion has been devised. For example, in the body type comparison device described in Patent Document 2, after imaging a subject using a digital camera, extracting the contour of the body of the subject, data compared with ideal body type data of the same age Is output. Thus, by presenting data on the shape of the body, it is possible to give the user a stronger motivation for health improvement.

特開2002−177223号公報JP 2002-177223 A 特開平6−254077号公報JP-A-6-254077

特許文献2に記載の装置によると、体の輪郭についてのデータを蓄積し、比較することで、経年による体型の変化に関する情報をユーザに提供することができる。しかし、体の形状は三次元情報であるため、体重や体脂肪率、BMIのようにスカラーで表現され、単純な演算で比較できる情報と異なり、複数の計測結果同士を比較しづらいという課題がある。   According to the apparatus described in Patent Document 2, data on body contours can be provided to the user by accumulating and comparing data on body contours. However, since the shape of the body is three-dimensional information, it is difficult to compare multiple measurement results, unlike information that is expressed in scalars such as weight, body fat percentage, and BMI, and that can be compared by simple calculations. is there.

例えば、特許文献2に記載の方法では、正面や背面から撮影された身体の輪郭を取得するため、身体の細かな起伏については比較を行うことができない。例えば、身体を真横から撮影した画像を用いた場合、お腹の出っ張り度合いを比較することはできても、具体的にどの部分に肉が付いているのかを知ることはできない。   For example, in the method described in Patent Document 2, the contours of the body photographed from the front and the back are acquired, and therefore, it is not possible to compare fine undulations of the body. For example, when an image obtained by photographing the body from the side is used, it is not possible to know which part of the body has flesh, even though the degree of protrusion of the stomach can be compared.

本発明は上記の課題を考慮してなされたものであり、分析対象である身体の形状と、比較対象である身体の形状の差異を精細に比較できる身体情報取得装置を提供することを目的とする。   The present invention has been made in consideration of the above problems, and an object of the present invention is to provide a body information acquisition device capable of finely comparing the difference between the shape of the body to be analyzed and the shape of the body to be compared. To do.

本発明に係る身体情報取得装置は、分析対象である身体形状が、比較対象である身体形状に対してどの程度の差異を有するかをユーザに示す装置である。   The physical information acquisition apparatus according to the present invention is an apparatus that indicates to a user how much the body shape as an analysis target has a difference from the body shape as a comparison target.

具体的には、本発明に係る身体情報取得装置は、人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ所定の切断面で
切断して得られる、第一の断面形状および第二の断面形状を取得する断面形状取得手段と、前記第一の断面形状と、第二の断面形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する分析手段と、を有することを特徴とする。
Specifically, the body information acquisition device according to the present invention is body shape data obtained by measuring a human body and representing a body shape including at least a torso part as a three-dimensional shape, Based on the first body shape data representing the shape of the body, the body shape obtaining means for obtaining the second body shape data representing the shape of the body to be compared, and the first and second body shape data, A cross-sectional shape acquisition means for acquiring a first cross-sectional shape and a second cross-sectional shape obtained by cutting the shape of the body to be analyzed and the shape of the body to be compared with predetermined cross sections, and And analyzing means for comparing the first cross-sectional shape with the second cross-sectional shape and generating difference information, which is information representing a difference in body shape.

身体形状取得手段は、分析対象である身体の形状を表す第一の身体形状データと、比較対象である身体の形状を表す第二の身体形状データを取得する手段である。身体形状データは、身体の形状を三次元形状として表したものであれば、例えば、複数の面で構成された三次元モデルであってもよいし、体表面に位置する点を三次元空間上にプロットしたデータ(点群データ)であってもよい。また、分析対象の身体の形状と、比較対象の身体の形状は、同一人物のものであってもよいし、異なる人物のものであってもよい。また、身体形状データは、必ずしも体表面の形状のみを表すものでなくてもよい。例えば、薄手の衣服を着用した状態で計測を行い、取得したものであってもよい。   The body shape acquisition means is means for acquiring first body shape data representing the shape of the body to be analyzed and second body shape data representing the shape of the body to be compared. As long as the body shape data represents the shape of the body as a three-dimensional shape, the body shape data may be, for example, a three-dimensional model composed of a plurality of surfaces, or points located on the body surface in a three-dimensional space. Data (point cloud data) plotted on Further, the shape of the body to be analyzed and the shape of the body to be compared may be the same person or different persons. The body shape data does not necessarily represent only the shape of the body surface. For example, the measurement may be performed while thin clothing is worn.

断面形状取得手段は、分析対象である身体の形状と、比較対象である身体の形状のそれぞれに対して所定の切断面を設定し、対応する断面形状を取得する手段である。
所定の切断面は、比較を所望する部位において、身体の立体形状を切断する面である。切断面は、例えば、胸部、臀部、腹部などに対応する位置における、地面と平行な面とすることができる。切断面は、分析対象と比較対象とで、同一の位置に設定することが好ましい。例えば、分析対象の腹部に切断面を設定した場合、比較対象も同様に、腹部に切断面を設定することが好ましい。この他にも、比較を行うことが有益なものであれば、切断面はどのように設定してもよい。
The cross-sectional shape acquisition unit is a unit that sets a predetermined cut surface for each of the body shape to be analyzed and the body shape to be compared, and acquires a corresponding cross-sectional shape.
The predetermined cut surface is a surface that cuts the three-dimensional shape of the body at a site where comparison is desired. The cut surface can be, for example, a surface parallel to the ground at a position corresponding to the chest, buttocks, abdomen, and the like. The cut surface is preferably set at the same position for the analysis object and the comparison object. For example, when a cut surface is set for the abdomen to be analyzed, it is preferable that a cut surface be set for the abdomen for the comparison target as well. In addition, as long as it is beneficial to perform the comparison, the cut surface may be set in any way.

また、分析手段は、第一および第二の断面形状を比較し、比較結果である差異情報を生成する手段である。
かかる構成によると、身体の断面形状に基づいて比較を行うため、分析対象と比較対象とで、体の形状にどの程度の差異が見られるのかを精細に比較することができる。
The analysis means is means for comparing the first and second cross-sectional shapes and generating difference information as a comparison result.
According to this configuration, since the comparison is performed based on the cross-sectional shape of the body, it is possible to finely compare how much the body shape is different between the analysis target and the comparison target.

また、前記分析手段は、前記第一および第二の断面形状に対して互いに対応する基準点を設定し、前記基準点を基準として、前記第一の断面形状と、第二の断面形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成することを特徴としてもよい。   Further, the analyzing means sets a reference point corresponding to each of the first and second cross-sectional shapes, and the first cross-sectional shape and the second cross-sectional shape are set based on the reference point. Comparison may be performed to generate difference information that is information representing a difference in body shape.

断面形状に対して、比較の基準となる点である基準点を設定することで、精度の高い比較が行えるようになる。なお、人の体形は、体の中心点から外側に向かう方向に変化するため、基準点は体の中心点に設定することが好ましいが、その位置は特に限定されない。   By setting a reference point that is a reference point for comparison with respect to the cross-sectional shape, a highly accurate comparison can be performed. Since the human body shape changes in the direction from the center point of the body toward the outside, the reference point is preferably set at the center point of the body, but the position is not particularly limited.

また、前記分析手段は、前記第一の断面形状と、第二の断面形状のそれぞれについて、前記基準点から体表面までの距離を算出し、当該距離を比較した結果に基づいて前記差異情報を生成することを特徴としてもよい。   Further, the analysis means calculates a distance from the reference point to the body surface for each of the first cross-sectional shape and the second cross-sectional shape, and calculates the difference information based on a result of comparing the distances. It is good also as generating.

基準点から体表面までの距離を取得し、当該距離が、分析対象と比較対象とでどのように異なっているかを比較することで、形状の差異を定量的に表すことができる。   By acquiring the distance from the reference point to the body surface and comparing how the distance differs between the analysis target and the comparison target, the difference in shape can be expressed quantitatively.

また、本発明に係る身体情報取得装置は、前記基準点を中心として、前記第一および第二の断面形状を、所定の角度で放射状に分割する領域分割手段をさらに有し、前記分析手段は、分割された領域のうち、前記第一の断面形状に対応する領域と、前記第二の断面形状に対応する領域との対応付けを行い、対応する領域同士をそれぞれ比較した結果に基づいて、前記差異情報を生成することを特徴としてもよい。   The physical information acquisition apparatus according to the present invention further includes an area dividing unit that divides the first and second cross-sectional shapes radially at a predetermined angle around the reference point. , Among the divided areas, the area corresponding to the first cross-sectional shape and the area corresponding to the second cross-sectional shape are associated, and based on the result of comparing the corresponding areas, respectively, The difference information may be generated.

このようにすることで、基準点を中心として方位別に比較結果を割り当てることができるようになるため、ユーザが、形状の差異をより直感的に認識できるようになる。   By doing in this way, it becomes possible to assign a comparison result for each orientation around the reference point, so that the user can more intuitively recognize the difference in shape.

また、前記分析手段は、前記分割された各領域を囲う輪郭のうち、体表面に対応する部分の長さ同士を比較し、当該比較結果に基づいて前記差異情報を生成することを特徴としてもよい。
また、前記分析手段は、前記分割された各領域の面積同士を比較し、当該比較結果に基づいて前記差異情報を生成することを特徴としてもよい。
Further, the analysis means may compare the lengths of the portions corresponding to the body surface among the outlines surrounding the divided regions, and generate the difference information based on the comparison result. Good.
The analyzing unit may compare the areas of the divided regions and generate the difference information based on the comparison result.

領域を囲う輪郭のうち、体表面に対応する部分の長さは、体表面が突出するほど長くなる。同様に、分割された領域の面積は、体表面が突出するほど大きくなる。そこで、体表面に対応する部分の長さ、または、分割された領域の面積を比較することで、形状の差異を定量的に表すことができる。   Of the outline surrounding the region, the length of the portion corresponding to the body surface becomes longer as the body surface protrudes. Similarly, the area of the divided region increases as the body surface protrudes. Therefore, the difference in shape can be quantitatively expressed by comparing the length of the part corresponding to the body surface or the area of the divided region.

また、前記所定の角度は、前記分割された各領域の面積がそれぞれ同じになる角度であることを特徴としてもよく、前記所定の角度は、等角度であることを特徴としてもよい。
また、前記所定の角度は、分割を行おうとする領域の近傍における、前記基準点から体表面までの長さの逆数に比例した値であることを特徴としてもよい。
Further, the predetermined angle may be an angle at which the areas of the divided regions are the same, and the predetermined angle may be an equal angle.
The predetermined angle may be a value proportional to the reciprocal of the length from the reference point to the body surface in the vicinity of the region to be divided.

このように、領域を適切な方法で分割することで、小さな差異を把握しやすくなる。
特に、基準点から体表面までの長さの逆数に基づいて角度を設定すると、基準点から体表面までの長さが長いほど、分割を行う際の角度が小さくなる。すなわち、体表面が突出した部分であるほど、よりきめ細かく形状の差異を表せるようになる。
Thus, it becomes easy to grasp a small difference by dividing the region by an appropriate method.
In particular, when the angle is set based on the reciprocal of the length from the reference point to the body surface, the longer the length from the reference point to the body surface, the smaller the angle at which the division is performed. That is, as the body surface protrudes, the shape difference can be expressed more finely.

また、本発明に係る身体情報取得装置は、前記第一および第二の身体形状データに基づいて、または、ユーザからの入力操作に基づいて、分析対象の身体の形状と比較対象の身体の形状の比較を行う高さを設定する高さ設定手段をさらに有し、前記断面形状取得手段は、前記高さ設定手段で設定された高さで得られる切断面を、前記所定の切断面とすることを特徴としてもよい。   Further, the physical information acquisition device according to the present invention is based on the first and second body shape data or based on an input operation from the user, and the shape of the body to be analyzed and the shape of the body to be compared. A height setting means for setting a height for performing the comparison, and the cross-sectional shape acquisition means uses a cut surface obtained at the height set by the height setting means as the predetermined cut surface This may be a feature.

このようにすることで、対応する高さ位置に切断面を設定することができる。   By doing in this way, a cut surface can be set to the corresponding height position.

また、本発明に係る身体情報取得装置は、前記差異情報を表す画像を生成する画像生成手段をさらに有することを特徴としてもよい。   The physical information acquisition apparatus according to the present invention may further include image generation means for generating an image representing the difference information.

このように、比較結果を表す画像、すなわち、断面の形状にどの程度の差異があるかを表す画像を生成することで、体の形状にどの程度の差異が見られるのかをわかりやすく視覚化することができる。   In this way, by generating an image representing the comparison result, that is, an image representing how much the cross-sectional shape is different, it is easy to understand how much difference is seen in the body shape. be able to.

また、前記画像生成手段は、前記基準点を基準として前記第一の断面形状と第二の断面形状を重ね合わせた画像を生成し、前記第一の断面形状と第二の断面形状の少なくともいずれかに、前記差異情報を反映させることを特徴としてもよい。   Further, the image generation unit generates an image in which the first cross-sectional shape and the second cross-sectional shape are overlapped on the basis of the reference point, and at least one of the first cross-sectional shape and the second cross-sectional shape. In addition, the difference information may be reflected.

各断面形状を重ね合わせた画像を生成し、いずれかの断面形状に差異情報を反映させることで、画像を見たユーザが、形状の差異をより直感的に知ることができるようになる。   An image in which each cross-sectional shape is superimposed is generated, and the difference information is reflected in any cross-sectional shape, so that a user who has seen the image can know the difference in shape more intuitively.

また、本発明の第二の形態に係る身体情報取得装置は、
人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ平行する二つの切断面によって切り出して得られる、第一の立体
形状および第二の立体形状を取得する立体形状取得手段と、前記第一の立体形状と、第二の立体形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する分析手段と、を有することを特徴とする。
Moreover, the physical information acquisition apparatus according to the second aspect of the present invention is
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target Body shape acquisition means for acquiring second body shape data representing the shape of the body, and based on the first and second body shape data, the shape of the body to be analyzed and the body of the comparison target A three-dimensional shape obtaining means for obtaining a first three-dimensional shape and a second three-dimensional shape obtained by cutting out two parallel cut surfaces, and the first three-dimensional shape and the second three-dimensional shape And analyzing means for generating difference information, which is information representing a difference in body shape.

このように、断面形状同士の比較ではなく、断面形状に厚みを与えた立体形状同士を比較することで差異情報を生成するようにしてもよい。   As described above, the difference information may be generated not by comparing the cross-sectional shapes but by comparing the solid shapes obtained by adding thickness to the cross-sectional shapes.

また、本発明の第三の形態に係る身体情報取得装置は、
人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ所定の切断面で切断して得られる、第一の断面形状および第二の断面形状を取得する断面形状取得手段と、前記第一の断面形状と、第二の断面形状とを重ね合わせた画像を生成する画像生成手段と、を有することを特徴とする。
In addition, the physical information acquisition device according to the third aspect of the present invention,
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target Body shape acquisition means for acquiring second body shape data representing the shape of the body, and based on the first and second body shape data, the shape of the body to be analyzed and the body of the comparison target Cross-sectional shape acquisition means for acquiring a first cross-sectional shape and a second cross-sectional shape obtained by cutting each shape with a predetermined cut surface, and the first cross-sectional shape and the second cross-sectional shape are overlapped Image generating means for generating a combined image.

このように、第一の断面形状と、第二の断面形状とを重ね合わせた画像のみを生成してもよい。このような構成によっても、画像を見たユーザが、形状にどの程度の差異があるのかを直感的に認識することができる。   In this way, only an image in which the first cross-sectional shape and the second cross-sectional shape are superimposed may be generated. Even with such a configuration, the user who has seen the image can intuitively recognize how much the shape is different.

なお、本発明は、上記手段の少なくとも一部を含む身体情報取得装置として特定することができる。また、前記身体情報取得装置が行う身体情報取得方法や、前記身体情報取得装置を動作させるためのプログラムとして特定することもできる。
上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
In addition, this invention can be specified as a physical information acquisition apparatus containing at least one part of the said means. The physical information acquisition method performed by the physical information acquisition device or a program for operating the physical information acquisition device can also be specified.
The above processes and means can be freely combined and implemented as long as no technical contradiction occurs.

本発明によれば、分析対象である身体の形状と、比較対象である身体の形状の差異を精細に比較することができる。   ADVANTAGE OF THE INVENTION According to this invention, the difference of the shape of the body which is analysis object and the shape of the body which is comparison object can be compared finely.

第一の実施形態に係る身体情報取得装置のシステム構成図である。It is a system configuration figure of the physical information acquisition device concerning a first embodiment. 断面形状を取得するための切断面の位置を説明する図である。It is a figure explaining the position of the cut surface for acquiring cross-sectional shape. 分析対象の断面形状および比較対象の断面形状を例示する図である。It is a figure which illustrates the cross-sectional shape of an analysis object, and the cross-sectional shape of a comparison object. 第一の実施形態における、断面形状同士の比較方法を説明する図である。It is a figure explaining the comparison method of cross-sectional shapes in 1st embodiment. 第一の実施形態における、身体情報取得装置の処理フローチャートである。It is a process flowchart of the physical information acquisition apparatus in 1st embodiment. 第二の実施形態における、身体情報取得装置の処理フローチャートである。It is a process flowchart of the physical information acquisition apparatus in 2nd embodiment. 第二の実施形態における、断面形状の分割方法を説明する図である。It is a figure explaining the division method of a section shape in a second embodiment. 第五の実施形態における、断面形状の分割方法を説明する図である。It is a figure explaining the division | segmentation method of cross-sectional shape in 5th embodiment. 第五の実施形態における、断面形状の分割処理を説明するフローチャートである。It is a flowchart explaining the division | segmentation process of a cross-sectional shape in 5th embodiment.

(第一の実施形態)
<システム構成>
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
第一の実施形態に係る身体情報取得装置は、分析対象の身体の形状を表す三次元データと、比較対象の身体の形状を表す三次元データを取得し、身体の形状の差異を表す画像を生成する装置である。図1は、本実施形態に係る身体情報取得装置10のシステム構成図である。
(First embodiment)
<System configuration>
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
The physical information acquisition device according to the first embodiment acquires three-dimensional data representing the shape of a body to be analyzed and three-dimensional data representing the shape of a body to be compared, and displays an image representing a difference in body shape. It is a device to generate. FIG. 1 is a system configuration diagram of a physical information acquisition apparatus 10 according to the present embodiment.

身体情報取得装置10は、身体形状取得部11、断面形状取得部12、分析部13、画像生成部14、入出力部15から構成される。   The body information acquisition apparatus 10 includes a body shape acquisition unit 11, a cross-sectional shape acquisition unit 12, an analysis unit 13, an image generation unit 14, and an input / output unit 15.

身体形状取得部11は、対象となる身体の形状を三次元形状として表したデータである身体形状データを取得する手段である。
身体形状データとしては、人の身体の3次元形状を表現できるものであれば、どのようなフォーマットのデータを用いてもよい。例えば、身体の外形面を構成する複数のポリゴンの情報(ポリゴンの頂点座標と法線ベクトルなど)が記述されたポリゴンデータであってもよいし、身体の外形面上の複数の点の座標が記述された点群データであってもよい。本実施形態では、図2に示すように、身体に対して前後の方向にZ軸(前方が+)、左右の方向にX軸(左方が+)、上下の方向にY軸(上方が+)をとった3次元座標系を用い、身体の外形面上の複数の点の3次元座標(XYZ座標)を記述した点群データからなる身体形状データを用いる。
The body shape acquisition unit 11 is means for acquiring body shape data, which is data representing the shape of the target body as a three-dimensional shape.
As the body shape data, data in any format may be used as long as it can represent the three-dimensional shape of a human body. For example, it may be polygon data in which information on a plurality of polygons (such as vertex coordinates and normal vectors of polygons) constituting the body outer surface is described, or the coordinates of a plurality of points on the body outer surface are It may be point cloud data described. In this embodiment, as shown in FIG. 2, the Z axis (forward is +) in the front-rear direction, the X axis (+ on the left) in the left and right directions, and the Y axis (upward is in the upper and lower directions). Using a three-dimensional coordinate system taking (+), body shape data composed of point group data describing three-dimensional coordinates (XYZ coordinates) of a plurality of points on the external surface of the body is used.

身体形状取得部11は、対象者の身体の3次元形状を計測する計測装置から身体形状データを直接取得してもよいし、記憶装置やネットワーク上のサーバ(例えばクラウドサーバやネットワークストレージ)から身体形状データを取得してもよい。   The body shape acquisition unit 11 may directly acquire body shape data from a measuring device that measures the three-dimensional shape of the subject's body, or the body shape from a storage device or a server on the network (for example, a cloud server or network storage). Shape data may be acquired.

計測装置としては、例えば、アクティブ三角測量方式の非接触3次元スキャナなどを好ましく利用することができる。アクティブ三角測量方式とは、プロジェクタから所定のパターン光を計測対象(人の身体)の表面に投射し、計測対象表面上のパターンをカメラで撮影し、得られた画像からプロジェクタとカメラと計測対象表面上の点の位置関係を推定することにより、計測対象表面の3次元形状を計算する手法である。パターン光の投射の方法により、空間コード化法と時間コード化法があるが、いずれの方法を用いてもよいし、両者を組み合わせてもよい。身体の形状を測定する際には、裸の状態で体表面の形状を測定してもよいし、肌着などの衣服(薄くて身体にフィットする衣服が望ましい)を着用した状態で測定を行ってもよい。   As a measuring device, for example, an active triangulation type non-contact three-dimensional scanner can be preferably used. The active triangulation method is to project a predetermined pattern light from the projector onto the surface of the measurement target (human body), photograph the pattern on the measurement target surface with the camera, and use the obtained image for the projector, camera, and measurement target. This is a method for calculating the three-dimensional shape of the surface to be measured by estimating the positional relationship between points on the surface. There are a spatial encoding method and a temporal encoding method depending on the pattern light projection method. Either method may be used, or a combination of the two may be used. When measuring the shape of the body, the shape of the body surface may be measured in the naked state, or the measurement should be performed while wearing clothing such as underwear (preferably clothing that is thin and fits the body). Also good.

なお、身体形状取得部11が取得する身体形状データは、全身のデータであってもよいし、身体の一部のデータであってもよい。本実施形態では、胴部分(体幹部分)の3次元形状データを利用するため、胴部分のデータを少なくとも含んでいればよい。例えば、胴部分のみのデータでもよいし、上半身のみのデータでもよいし、上肢や下肢の一部又は全部を含むデータであってもよい。   The body shape data acquired by the body shape acquisition unit 11 may be whole body data or partial body data. In the present embodiment, since the three-dimensional shape data of the trunk part (trunk part) is used, it is only necessary to include at least the trunk part data. For example, data of only the torso part, data of only the upper body, or data including part or all of the upper limbs and lower limbs may be used.

また、身体形状取得部11は、分析対象である身体に対応する身体形状データと、比較対象である身体に対応する身体形状データの二種類のデータを取得する。比較対象は、例えば、分析対象と同一の人物を計測して得られた身体形状データであって、異なるタイミングで計測を行って得られた身体形状データである。この場合、時間の経過に伴う体型の変化を分析することができる。また、比較対象は、分析対象とは異なる人物を計測して得られた身体形状データや、理想的な体型を表す身体形状データであってもよい。
また、身体形状取得部11は、計測手段から取得した身体形状データを記憶し、読み出す機能を有する。例えば、過去に計測した身体形状データを、固定ディスクドライブやフラッシュメモリに格納し、必要に応じて読み出してもよい。
身体形状取得部11は、取得した二種類(分析対象と比較対象)の身体形状データを、後述する断面形状取得部12に送信する。以降、比較対象の身体に対応する身体形状データを第一の身体形状データ、分析対象の身体に対応する身体形状データを第二の身体形状データと称する。
In addition, the body shape acquisition unit 11 acquires two types of data: body shape data corresponding to the body to be analyzed and body shape data corresponding to the body to be compared. The comparison target is, for example, body shape data obtained by measuring the same person as the analysis target, and obtained by performing measurement at different timings. In this case, it is possible to analyze a change in body shape with the passage of time. Further, the comparison target may be body shape data obtained by measuring a person different from the analysis target or body shape data representing an ideal body shape.
Moreover, the body shape acquisition part 11 has a function which memorize | stores and reads the body shape data acquired from the measurement means. For example, body shape data measured in the past may be stored in a fixed disk drive or flash memory, and read as necessary.
The body shape acquisition unit 11 transmits the acquired two types of body shape data (analysis target and comparison target) to the cross-sectional shape acquisition unit 12 described later. Hereinafter, the body shape data corresponding to the comparison target body is referred to as first body shape data, and the body shape data corresponding to the analysis target body is referred to as second body shape data.

断面形状取得部12は、身体形状取得部11が取得した身体形状データが表す身体形状
を所定の切断面でスライスし、断面形状を取得する手段である。図2は、スライスを行う切断面の位置を示した図である。切断面は、XZ平面に平行な平面であり、装置のユーザが比較を所望する高さ位置に設定される。図2の例では、バスト(符号21A)、ウエスト(符号21B)、ヒップ(符号21C)に対応する位置を例示しているが、切断面はこれ以外の位置に設定してもよい。なお、切断面の高さは、入出力部15を通してユーザにその都度指定させてもよいし、指定された位置を自動的に検出して設定するようにしてもよい。例えば、計測対象者に関するデータ(身長、年齢、性別など)を取得し、予め設定された比率に基づいて、自動的に腹部、胸部、臀部などに対応する位置を設定するようにしてもよい。
The cross-sectional shape acquisition unit 12 is means for slicing the body shape represented by the body shape data acquired by the body shape acquisition unit 11 with a predetermined cut surface and acquiring the cross-sectional shape. FIG. 2 is a diagram showing the position of the cut surface for slicing. The cutting plane is a plane parallel to the XZ plane, and is set at a height position that the user of the apparatus desires to compare. In the example of FIG. 2, the positions corresponding to the bust (reference 21 </ b> A), the waist (reference 21 </ b> B), and the hips (reference 21 </ b> C) are illustrated, but the cut surface may be set to other positions. Note that the height of the cut surface may be designated by the user through the input / output unit 15 each time, or the designated position may be automatically detected and set. For example, data (height, age, sex, etc.) related to the measurement subject may be acquired, and positions corresponding to the abdomen, chest, buttocks, etc. may be automatically set based on a preset ratio.

断面形状取得部12は、取得した第一の身体形状データと、第二の身体形状データの双方について、対応する同じ位置に切断面を設定し、断面形状を取得する。なお、対応する同じ位置とは、必ずしも同じ高さである必要はなく、少なくとも切断面の高さを決定する方法が同じであればよい。例えば、切断面をバスト位置に設定する場合は、Z軸方向で最も前方に位置する点を求めて、当該点の高さをバスト位置とする方法を採用し、第一の身体形状データと第二の身体形状データのそれぞれに対して、当該方法で求めた高さに切断面を設定すればよい。
以降、第一の身体形状データに対応する断面形状を第一の断面形状、第二の身体形状データに対応する断面形状を第二の断面形状と称する。図3は、断面形状取得部12が取得した断面形状の例であり、腹部に対応する断面形状である。第一の断面形状および第二の断面形状は、分析部13に送信される。
The cross-sectional shape acquisition unit 12 sets a cut surface at the same corresponding position for both the acquired first body shape data and the second body shape data, and acquires the cross-sectional shape. The corresponding same position does not necessarily have to be the same height as long as the method for determining at least the height of the cut surface is the same. For example, when the cut surface is set to the bust position, a method is adopted in which a point positioned most forward in the Z-axis direction is determined, and the height of the point is set to the bust position. What is necessary is just to set a cut surface to the height calculated | required by the said method with respect to each of 2 body shape data.
Hereinafter, the cross-sectional shape corresponding to the first body shape data is referred to as a first cross-sectional shape, and the cross-sectional shape corresponding to the second body shape data is referred to as a second cross-sectional shape. FIG. 3 is an example of the cross-sectional shape acquired by the cross-sectional shape acquisition unit 12, and is a cross-sectional shape corresponding to the abdomen. The first cross-sectional shape and the second cross-sectional shape are transmitted to the analysis unit 13.

分析部13は、断面形状取得部12が取得した断面形状に基づいて双方の比較を行い、比較結果、すなわち、断面形状同士にどの程度の差異があるかを表す情報(本発明における差異情報)を生成する手段である。
また、画像生成部14は、比較結果を表す画像を生成する手段である。断面形状に基づいて比較を行う方法と、比較結果を画像に反映させる方法については後述する。
The analysis unit 13 compares both based on the cross-sectional shape acquired by the cross-sectional shape acquisition unit 12, and indicates the comparison result, that is, information indicating how much the cross-sectional shapes are different (difference information in the present invention). Is a means for generating
The image generation unit 14 is a unit that generates an image representing the comparison result. A method for performing the comparison based on the cross-sectional shape and a method for reflecting the comparison result in the image will be described later.

入出力部15は、ユーザが行った入力操作を受け付け、ユーザに対して情報を提示する手段である。具体的には、タッチパネルとその制御手段、液晶ディスプレイとその制御手段から構成される。タッチパネルおよび液晶ディスプレイは、本実施形態では一つのタッチパネルディスプレイからなる。   The input / output unit 15 is a unit that receives an input operation performed by the user and presents information to the user. Specifically, it comprises a touch panel and its control means, a liquid crystal display and its control means. In the present embodiment, the touch panel and the liquid crystal display are composed of one touch panel display.

身体情報取得装置10は、CPU(中央演算処理装置)、RAM(Random Access Memory)、補助記憶装置(例えば、フラッシュメモリ、ハードディスク)、入力装置(例えば、マウス、タッチパネル)、表示装置などを有するコンピュータにより構成することができる。上述した各機能は、補助記憶装置に格納されたプログラムがRAMにロードされ、CPUにより実行されることで実現されるものである。この種のコンピュータとしては、パーソナルコンピュータ、スマートフォン、タブレット端末、携帯電話、ゲーム機などを例示できる。なお、上述した機能の一部又は全部をFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などで実現してもよいし、他のコンピュータ(例えばクラウドサーバ)で処理してもよい。   The physical information acquisition device 10 is a computer having a CPU (Central Processing Unit), a RAM (Random Access Memory), an auxiliary storage device (for example, a flash memory, a hard disk), an input device (for example, a mouse, a touch panel), a display device, and the like. Can be configured. Each function described above is realized by loading a program stored in the auxiliary storage device into the RAM and executing it by the CPU. Examples of this type of computer include a personal computer, a smartphone, a tablet terminal, a mobile phone, and a game machine. Part or all of the above-described functions may be realized by an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or the like, or may be processed by another computer (for example, a cloud server).

<断面形状同士の比較方法>
次に、分析部13が行う、断面形状同士の比較方法について、図4を参照しながら説明する。第一の実施形態では、分析部13および画像生成部14が、以下に説明する各ステップを実行することによって、断面形状同士を比較し、比較結果が反映された画像を生成する。
<Method for comparing cross-sectional shapes>
Next, a method for comparing cross-sectional shapes performed by the analysis unit 13 will be described with reference to FIG. In 1st embodiment, the analysis part 13 and the image generation part 14 compare each cross-sectional shape by performing each step demonstrated below, and produce | generate the image in which the comparison result was reflected.

(1)基準点を設定
まず、分析部13が、第一の断面形状および第二の断面形状に、基準点を設定する。本実施形態では、断面形状の輪郭を取得し、当該輪郭から求めた重心を基準点とする。図4に示した符号401Aが、第一の断面形状における基準点であり、符号401Bが、第二の断面形状における基準点である。
(1) Setting a reference point First, the analysis unit 13 sets a reference point in the first cross-sectional shape and the second cross-sectional shape. In the present embodiment, a contour having a cross-sectional shape is acquired, and the center of gravity obtained from the contour is used as a reference point. Reference numeral 401A shown in FIG. 4 is a reference point in the first cross-sectional shape, and reference numeral 401B is a reference point in the second cross-sectional shape.

(2)体表面までの距離を算出
次に、分析部13が、第一の断面形状と、第二の断面形状のそれぞれについて、基準点から体表面まで(すなわち断面形状が有する輪郭まで)の距離を算出する。算出は、断面形状の輪郭上に位置する画素のそれぞれについて行われる。例えば、第一の断面形状に対応する輪郭線上にある画素402Aについて、100ポイントという距離が算出され、画素403Aについて、200ポイントという距離が算出される。なお、実施形態の説明では、距離を仮想的な単位(ポイント)によって表す。
第二の断面形状上にある画素についても、同様の処理が行われる。例えば、第二の断面形状に対応する輪郭線上にある画素402Bについて、130ポイントという距離が算出され、画素403Bについて、215ポイントという距離が算出される。
このような処理を行うことで、各断面形状が有する輪郭線上の全ての画素に、距離が割り当たった状態となる。
(2) Calculating the distance to the body surface Next, the analysis unit 13 calculates the first cross-sectional shape and the second cross-sectional shape from the reference point to the body surface (that is, up to the contour of the cross-sectional shape). Calculate the distance. The calculation is performed for each pixel located on the outline of the cross-sectional shape. For example, a distance of 100 points is calculated for the pixel 402A on the contour line corresponding to the first cross-sectional shape, and a distance of 200 points is calculated for the pixel 403A. In the description of the embodiment, the distance is represented by a virtual unit (point).
A similar process is performed for pixels on the second cross-sectional shape. For example, a distance of 130 points is calculated for the pixel 402B on the contour line corresponding to the second cross-sectional shape, and a distance of 215 points is calculated for the pixel 403B.
By performing such processing, the distance is assigned to all the pixels on the contour line of each cross-sectional shape.

(3)距離の差分を取得
次に、分析部13が、基準点から角度θの方向に延出する線を設定し、輪郭と交差した点にある画素に割り当たっている距離を取得する。なおここでは、Z軸正方向と平行な方向を0度とし、時計回りに角度を与えるものとする。また、第一の断面形状と、第二の断面形状のそれぞれについて同じ処理を行い、取得した距離の差分を演算する。例えば、θ=0°である場合、距離の差分は130−100=30ポイントとなり、θ=90°である場合、距離の差分は215−200=15ポイントとなる。
また、分析部13は、角度θを0〜359度まで1度ずつ変化させながら、距離の差分を360回取得する。
このような処理を行うことで、基準点を中心とする全方位について、距離の差分値が算出された状態となる。以降、本実施形態の説明では、ここで取得した距離の差分値を単に差分値と称する。
(3) Obtaining the Difference in Distance Next, the analysis unit 13 sets a line extending from the reference point in the direction of the angle θ, and obtains the distance assigned to the pixel at the point that intersects the contour. Here, it is assumed that the direction parallel to the positive direction of the Z-axis is 0 degree and the angle is given clockwise. Moreover, the same process is performed about each of 1st cross-sectional shape and 2nd cross-sectional shape, and the difference of the acquired distance is calculated. For example, when θ = 0 °, the difference in distance is 130-100 = 30 points, and when θ = 90 °, the difference in distance is 215-200 = 15 points.
The analysis unit 13 acquires the difference in distance 360 times while changing the angle θ from 0 to 359 degrees by 1 degree.
By performing such processing, the distance difference value is calculated for all directions centered on the reference point. Hereinafter, in the description of the present embodiment, the distance difference value acquired here is simply referred to as a difference value.

なお、基準点を中心として、断面形状を回転する補正を行ってもよい。第一の断面形状と第二の断面形状とで、角度がずれている場合、これを補正することで、差分値の算出精度を向上させることができる。   In addition, you may perform correction | amendment which rotates a cross-sectional shape centering | focusing on a reference point. When the angle is shifted between the first cross-sectional shape and the second cross-sectional shape, the calculation accuracy of the difference value can be improved by correcting this.

(4)差分値が反映された画像を生成
次に、画像生成部14が、算出された差分値が反映された画像を生成する。本実施形態では、第二の断面形状において、基準点から角度θの方向に延出する線を引き、輪郭と交差した点にある画素に、当該角度に対応する差分値を割り当て、当該差分値に対応する色で着色を行う。例えば、θ=0°である場合、対応する画素(符号402B)に、「30ポイント」という差分値に対応する色相を設定し、θ=90°である場合、対応する画素(符号403B)に、「15ポイント」という差分値に対応する色相を設定する。
また、画像生成部14は、角度θを0〜359度まで1度ずつ変化させながら、色相の設定を360回行う。なお、色相が割り当たらなかった画素については、近傍の画素に割り当てられた色相に基づいて補間を行うようにしてもよい。
(4) Generating an image in which the difference value is reflected Next, the image generation unit 14 generates an image in which the calculated difference value is reflected. In the present embodiment, in the second cross-sectional shape, a line extending from the reference point in the direction of the angle θ is drawn, a difference value corresponding to the angle is assigned to a pixel at a point intersecting the contour, and the difference value Color with the color corresponding to. For example, when θ = 0 °, a hue corresponding to a difference value of “30 points” is set in the corresponding pixel (reference numeral 402B), and when θ = 90 °, the corresponding pixel (reference numeral 403B) is set. , A hue corresponding to the difference value of “15 points” is set.
The image generation unit 14 sets the hue 360 times while changing the angle θ from 0 to 359 degrees by 1 degree. Note that for pixels for which no hue has been assigned, interpolation may be performed based on the hue assigned to neighboring pixels.

差分値と色相との関係は、予め記憶されたものを使用する。例えば、差分値が0である場合に、(R,G,B)=(0,0,255)とし、差分値が増えるにつれて、RGB値が(0,255,255),(0,255,0),(255,255,0),(255,0,0)と変化するように色相を算出する。このようにすると、差分値が増えるにつれて
、輪郭の色が青色→水色→緑色→黄色→赤色と変化し、分析対象と比較対象とで、基準点からの距離にどの程度の差異があるのかが一目でわかる画像を生成することができる。
もちろん、例示した方法以外の方法によって色相を算出してもよい。
The relationship between the difference value and the hue is stored in advance. For example, when the difference value is 0, (R, G, B) = (0, 0, 255), and as the difference value increases, the RGB values become (0, 255, 255), (0, 255). 0), (255, 255, 0), and (255, 0, 0), the hue is calculated. In this way, as the difference value increases, the color of the contour changes from blue → light blue → green → yellow → red, and how much the distance from the reference point is different between the analysis target and the comparison target. An image that can be seen at a glance can be generated.
Of course, the hue may be calculated by a method other than the exemplified method.

<処理フローチャート>
図5は、以上に説明した処理をフローチャートで表したものである。図5に示した処理は、ユーザの操作によって開始される。
<Process flowchart>
FIG. 5 is a flowchart showing the process described above. The process shown in FIG. 5 is started by a user operation.

まず、ステップS11で、身体形状取得部11が、分析対象である身体に対応する身体形状データ(第一の身体形状データ)と、比較対象である身体に対応する身体形状データ(第二の身体形状データ)を取得する。身体形状データは、例えば、ボディスキャナ等によって取得してもよいし、予め記憶されたものを読み出して取得してもよい。
次に、ステップS12で、断面形状取得部12が、第一の身体形状データと、第二の身体形状データに対応する身体形状をそれぞれ所定の切断面で切断し、第一の断面形状および第二の断面形状を取得する。なお、所定の切断面は、前述したように、装置によって自動的に設定されてもよいし、ユーザの操作によって指定されてもよい。また、前述した方法によって、取得した各断面形状にそれぞれ基準点を設定する。
First, in step S11, the body shape acquisition unit 11 performs body shape data (first body shape data) corresponding to the body to be analyzed and body shape data (second body) corresponding to the body to be compared. Shape data). The body shape data may be acquired by, for example, a body scanner, or may be acquired by reading out data stored in advance.
Next, in step S12, the cross-sectional shape acquisition unit 12 cuts the first body shape data and the body shape corresponding to the second body shape data with a predetermined cut surface, respectively, Get the second cross-sectional shape. Note that the predetermined cut surface may be automatically set by the apparatus as described above, or may be designated by a user operation. Moreover, a reference point is set for each acquired cross-sectional shape by the method described above.

次に、ステップS13で、分析部13が、前述した方法によって、第一の断面形状および第二の断面形状について、基準点から体表面までの距離を算出する。また、ステップS14で、距離の差分を算出し、差分値の集合を取得する。
次に、ステップS15で、画像生成部14が、前述した方法によって、算出した差分値を色相に変換し、当該色相が反映された画像を生成する。最後に、ステップS16で、生成した画像を入出力部15に出力し、画面を通してユーザに提供する。
Next, in step S13, the analysis unit 13 calculates the distance from the reference point to the body surface for the first cross-sectional shape and the second cross-sectional shape by the method described above. In step S14, a distance difference is calculated and a set of difference values is acquired.
Next, in step S15, the image generation unit 14 converts the calculated difference value into a hue by the method described above, and generates an image in which the hue is reflected. Finally, in step S16, the generated image is output to the input / output unit 15 and provided to the user through the screen.

以上説明したように、第一の実施形態に係る身体情報取得装置は、三次元形状データに基づいて身体の断面形状を取得し、基準点からの距離の差分を算出する。これにより、分析対象である身体と、比較対象である身体の形状の違いを定量的に求めることができる。また、比較結果を色相に反映させることにより、どの部分に差異があるかをユーザが一目で把握することができる。   As described above, the body information acquisition apparatus according to the first embodiment acquires the cross-sectional shape of the body based on the three-dimensional shape data, and calculates the difference in distance from the reference point. Thereby, the difference in the shape of the body to be analyzed and the body to be compared can be quantitatively determined. Also, by reflecting the comparison result in the hue, the user can grasp at a glance which part is different.

なお、本実施形態では、基準点からの角度を1度ずつ変化させながら差分値を360回取得したが、これ以外の方法によって差分値を取得するようにしてもよい。例えば、各断面形状が有する輪郭線上にある任意の画素についてのみ、差分値を取得するようにしてもよい。   In the present embodiment, the difference value is acquired 360 times while changing the angle from the reference point by 1 degree. However, the difference value may be acquired by other methods. For example, the difference value may be acquired only for an arbitrary pixel on the contour line of each cross-sectional shape.

(第二の実施形態)
第二の実施形態における身体情報取得装置は、断面形状取得部12が取得した断面形状に基づいて双方の比較を行い、比較結果を生成するという点では第一の実施形態と同様であるが、比較結果の算出方法が相違する。
第二の実施形態における身体情報取得装置のシステム構成図は、第一の実施形態と同様であるため、詳細な説明は省略し、処理の相違点のみを説明する。
(Second embodiment)
The body information acquisition device in the second embodiment is similar to the first embodiment in that both comparisons are made based on the cross-sectional shape acquired by the cross-sectional shape acquisition unit 12 and a comparison result is generated. The calculation method of the comparison result is different.
Since the system configuration diagram of the physical information acquisition apparatus in the second embodiment is the same as that in the first embodiment, a detailed description thereof will be omitted, and only differences in processing will be described.

図6は、第二の実施形態に係る身体情報取得装置が行う処理のフローチャート図である。破線で示したステップは、第一の実施形態と同様であるため、説明は省略する。
第二の実施形態では、ステップS131にて、分析部13が、対象の断面形状を複数の領域に分割する。具体的には、基準点を中心として、図7に示したように、断面形状を45度ずつ放射状に分割する。これにより、断面形状が等しい角度で8つの領域に分割された状態となる。領域の分割は、第一の断面形状と、第二の断面形状の双方に対して行われる。以降、分割された各領域を、分割領域と称する。
FIG. 6 is a flowchart of processing performed by the physical information acquisition apparatus according to the second embodiment. Steps indicated by broken lines are the same as those in the first embodiment, and thus description thereof is omitted.
In the second embodiment, in step S131, the analysis unit 13 divides the target cross-sectional shape into a plurality of regions. Specifically, the cross-sectional shape is radially divided by 45 degrees with the reference point as the center, as shown in FIG. As a result, the cross-sectional shape is divided into eight regions at equal angles. The division of the region is performed for both the first cross-sectional shape and the second cross-sectional shape. Hereinafter, each divided area is referred to as a divided area.

そして、ステップS132にて、分割領域ごとに、体表面に対応する部分の長さ(以下、体表面長)を算出する。例えば、図7の例では、領域701Aに対して、符号702Aで示した部分の長さが算出される。本実施形態では、断面形状を8つに分割するため、8つの体表面長が算出される。
体表面長の算出は、第一の断面形状と、第二の断面形状の双方に対して行われる。すなわち、合計16個の体表面長が算出される。
In step S132, the length of the portion corresponding to the body surface (hereinafter, the body surface length) is calculated for each divided region. For example, in the example of FIG. 7, the length of the portion indicated by reference numeral 702A is calculated for the region 701A. In this embodiment, since the cross-sectional shape is divided into eight, eight body surface lengths are calculated.
The body surface length is calculated for both the first cross-sectional shape and the second cross-sectional shape. That is, a total of 16 body surface lengths are calculated.

ステップS14では、第一の断面形状に含まれる分割領域と、第二の断面形状に含まれる分割領域とを対応付け、それぞれの体表面長を比較し、差分を算出する。本実施形態の説明では、以降、ここで取得した体表面長の差分値を単に差分値と称する。
例えば、図7の例では、符号702Aで示した体表面長と、符号702Bで示した体表面長を比較し、差分値を取得する。当該処理は、分割領域の数だけ行われる。
In step S14, the divided regions included in the first cross-sectional shape are associated with the divided regions included in the second cross-sectional shape, the respective body surface lengths are compared, and the difference is calculated. In the description of the present embodiment, hereinafter, the difference value of the body surface length acquired here is simply referred to as a difference value.
For example, in the example of FIG. 7, the body surface length indicated by reference numeral 702A is compared with the body surface length indicated by reference numeral 702B, and a difference value is obtained. This process is performed for the number of divided areas.

ステップS15では、第一の実施形態と同様に、第二の断面形状が有する輪郭に、算出した差分値に応じた色彩を与える。すなわち、体表面を表す輪郭が8つの区間に分割され、それぞれについて、差分値に応じた着色がなされた画像が生成される。   In step S15, as in the first embodiment, a color corresponding to the calculated difference value is given to the contour of the second cross-sectional shape. That is, the contour representing the body surface is divided into eight sections, and for each, an image colored according to the difference value is generated.

第二の実施形態では、このように、基準点を中心点として断面形状を複数の領域に分割し、領域ごとに、体表面の長さの違いを比較する。これにより、基準点を中心として方位別に比較結果を割り当てることができるようになるため、ユーザが、形状の差異をより直感的に認識できるようになる。   In the second embodiment, as described above, the cross-sectional shape is divided into a plurality of regions with the reference point as the center point, and the difference in length of the body surface is compared for each region. Thereby, since it becomes possible to assign a comparison result for each orientation around the reference point, the user can more intuitively recognize the difference in shape.

(第三の実施形態)
第三の実施形態は、第二の実施形態と同様に、第一および第二の断面形状を複数の領域に分割し、当該領域同士を比較する実施形態であるが、体表面長の差分ではなく、分割した領域の面積の差分を求める実施形態である。
第三の実施形態における身体情報取得装置のシステム構成図は、第二の実施形態と同様であるため、詳細な説明は省略し、第二の実施形態との処理の相違点のみを説明する。
(Third embodiment)
The third embodiment is an embodiment in which the first and second cross-sectional shapes are divided into a plurality of regions and compared with each other as in the second embodiment. In this embodiment, the difference between the areas of the divided regions is obtained.
Since the system configuration diagram of the physical information acquisition apparatus in the third embodiment is the same as that in the second embodiment, detailed description thereof is omitted, and only differences in processing from the second embodiment will be described.

具体的には、ステップS132で、分割領域ごとに面積を算出する。例えば、図7の例では、領域701Aに対して、当該領域の面積が算出される。断面形状を8つに分割する場合、8つの面積が算出される。面積の算出は、第一の断面形状と、第二の断面形状の双方に対して行われる。すなわち、合計16個の面積が算出される。   Specifically, in step S132, the area is calculated for each divided region. For example, in the example of FIG. 7, the area of the region is calculated for the region 701A. When the cross-sectional shape is divided into eight, eight areas are calculated. The area is calculated for both the first cross-sectional shape and the second cross-sectional shape. That is, a total of 16 areas are calculated.

また、ステップS14では、第一の断面形状に含まれる分割領域と、第二の断面形状に含まれる分割領域とを対応付け、それぞれの面積の差分を取得する。
例えば、図7の例では、領域701Aの面積と、領域701Bの面積を比較し、その差分を取得する。当該処理は、分割領域の数だけ行われる。
そして、前述したものと同様の方法によって、面積の差分を色相に変換し、着色がなされた画像を生成して、ユーザに提示する。このようにしても、第二の実施形態と同様に、より直感的に体型の差異を把握できるという効果を得ることができる。
In step S14, the divided areas included in the first cross-sectional shape are associated with the divided areas included in the second cross-sectional shape, and the difference between the areas is acquired.
For example, in the example of FIG. 7, the area of the region 701A is compared with the area of the region 701B, and the difference is obtained. This process is performed for the number of divided areas.
Then, by the same method as described above, the difference in area is converted into a hue, and a colored image is generated and presented to the user. Even if it does in this way, like 2nd embodiment, the effect that the difference of a body shape can be grasped | ascertained more intuitively can be acquired.

(第四の実施形態)
第二の実施形態および第三の実施形態では、角度を等分することで、断面形状を複数の領域に分割した。これに対し、第四の実施形態は、断面形状の面積を等分することで領域の分割を行う実施形態である。
第四の実施形態における身体情報取得装置のシステム構成図は、第二の実施形態と同様であるため、詳細な説明は省略し、第二の実施形態との処理の相違点のみを説明する。
(Fourth embodiment)
In the second embodiment and the third embodiment, the sectional shape is divided into a plurality of regions by equally dividing the angle. On the other hand, the fourth embodiment is an embodiment in which the area is divided by equally dividing the cross-sectional area.
Since the system configuration diagram of the physical information acquisition apparatus in the fourth embodiment is the same as that in the second embodiment, detailed description thereof is omitted, and only differences in processing from the second embodiment will be described.

第四の実施形態では、断面形状の面積をn等分するものと事前に定義し、ステップS131において、第一の断面形状および第二の断面形状の総面積をそれぞれ求めたうえで、総面積をn等分するように、基準点を中心として放射状に領域を分割する。
なお、第四の実施形態においては、領域の面積を等分するため、体表面長の差分を用いて比較結果を生成する。
In the fourth embodiment, the area of the cross-sectional shape is defined in advance as n equal parts, and the total area of the first cross-sectional shape and the second cross-sectional shape is obtained in step S131, and then the total area Divide the region radially with the reference point as the center.
In the fourth embodiment, a comparison result is generated using a difference in body surface length in order to equally divide the area of the region.

(第五の実施形態)
第五の実施形態は、第二ないし第四の実施形態と同様に、断面形状を放射状に分割する実施形態であるが、基準点から体表面までの距離を用いて、分割を行う際の角度を動的に決定するという点において各実施形態と相違する。
第五の実施形態における身体情報取得装置のシステム構成図は、第二の実施形態と同様であるため、詳細な説明は省略し、第二の実施形態との処理の相違点のみを説明する。
(Fifth embodiment)
As in the second to fourth embodiments, the fifth embodiment is an embodiment that divides the cross-sectional shape radially, but the angle at which the division is performed using the distance from the reference point to the body surface. This embodiment is different from the embodiments in that it is dynamically determined.
Since the system configuration diagram of the physical information acquisition apparatus in the fifth embodiment is the same as that in the second embodiment, detailed description thereof is omitted, and only differences in processing from the second embodiment will be described.

図8は、第五の実施形態における、断面形状の分割方法を説明する図である。また、図9は、第五の実施形態における、ステップS131の処理を詳細に示した図である。第五の実施形態では、分析部13が、ステップS131を実行する際に、図9に示した各ステップを実行することによって、対象の断面形状を複数の領域に分割する。   FIG. 8 is a diagram for explaining a sectional shape dividing method according to the fifth embodiment. FIG. 9 is a diagram showing in detail the processing in step S131 in the fifth embodiment. In the fifth embodiment, the analysis unit 13 divides the target cross-sectional shape into a plurality of regions by executing each step shown in FIG. 9 when executing step S131.

まず、基準点を始点とし、体表面を終点とする線(以下、基準線)を設定する(ステップS1311)。ここではまず、Z軸正方向と平行な方向に向けて基準線801を設定するものとする。また、以降の説明では、Z軸正方向と平行な方向を0度とし、時計回りに角度を与えるものとする。すなわち、基準線801は、基準点から0度の方向に延出する線である。   First, a line starting from the reference point and ending at the body surface (hereinafter referred to as a reference line) is set (step S1311). Here, first, the reference line 801 is set in a direction parallel to the positive Z-axis direction. In the following description, it is assumed that the direction parallel to the positive direction of the Z axis is 0 degree and the angle is given clockwise. That is, the reference line 801 is a line extending in the direction of 0 degrees from the reference point.

次に、基準線の長さを計測する(ステップS1312)。本例では、基準線801の長さが60ポイントであるものとする。   Next, the length of the reference line is measured (step S1312). In this example, it is assumed that the length of the reference line 801 is 60 points.

次に、基準線の長さに基づいて、式1によって、角度θiを算出する(ステップS13
13)。なお、rは基準線の長さであり、aは対象となる断面形状の輪郭の総延長である。また、nは所定の係数であり、1以下の実数である。
θ1=an/r ・・・式(1)
例えば、aが600ポイント、nが1であり、基準線rの長さが60ポイントである場合、θ1=10°となる。
Next, based on the length of the reference line, the angle θ i is calculated by Equation 1 (step S13).
13). Here, r is the length of the reference line, and a is the total extension of the contour of the target cross-sectional shape. N is a predetermined coefficient and is a real number of 1 or less.
θ 1 = an / r (1)
For example, if a is 600 points, n is 1, and the length of the reference line r is 60 points, θ 1 = 10 °.

次に、算出した角度θ1を用いて、対象となる断面形状を分割する(ステップS131
4)。具体的には、現在の基準線の方向に、算出した角度を加算し、新たな基準線を設定する。新旧の基準線と体表面で囲まれた領域が、新たに分割された領域となる。図8の例では、θ1が10°となり、符号802が新たな基準線となる。なお、図8は、わかりや
すくするため、角度を実際の値よりも大きく示している。
Next, the target cross-sectional shape is divided using the calculated angle θ 1 (step S131).
4). Specifically, the calculated angle is added to the current reference line direction to set a new reference line. A region surrounded by the old and new reference lines and the body surface is a newly divided region. In the example of FIG. 8, θ 1 is 10 °, and reference numeral 802 is a new reference line. FIG. 8 shows the angle larger than the actual value for the sake of clarity.

ステップS1314が終了すると、分析部13は、処理をステップS1312に遷移させ、θ1と同様の方法によってθ2を算出する。以降、以上に説明したステップを繰り返し実行する。これにより、θ1、θ2、θ3・・・θnと角度が順次算出され、領域を分割していく。
なお、処理済みの角度の合計が360度を超える場合、360度で打ち切り、処理を終了させる。例えば、処理済みの角度の合計が355度であって、算出された角度θnが1
0度である場合、θn=5°として最後の領域を分割し、処理を終了させる。
以上に説明した処理は、第一の断面形状と第二の断面形状の双方に対して行われる。
When step S1314 ends, the analysis unit 13 causes the process to transition to step S1312, and calculates θ 2 by the same method as θ 1 . Thereafter, the steps described above are repeatedly executed. Thereby, θ 1 , θ 2 , θ 3 ... Θ n and the angles are sequentially calculated, and the region is divided.
If the total of processed angles exceeds 360 degrees, the process is terminated at 360 degrees. For example, the total of processed angles is 355 degrees, and the calculated angle θ n is 1
When it is 0 degree, θ n = 5 ° is set, the last region is divided, and the process is terminated.
The processing described above is performed on both the first cross-sectional shape and the second cross-sectional shape.

ステップS132では、第二の実施形態と同様に、分割された領域ごとに体表面長を算
出する。また、ステップS14では、第二の実施形態と同様に、第一の断面形状に含まれる分割領域と、第二の断面形状に含まれる分割領域とを対応付け、それぞれの体表面長を比較し、差分を比較結果として記憶する。以降の処理は、第二の実施形態と同様である。
In step S132, the body surface length is calculated for each divided region, as in the second embodiment. In step S14, as in the second embodiment, the divided areas included in the first cross-sectional shape are associated with the divided areas included in the second cross-sectional shape, and the body surface lengths are compared. The difference is stored as a comparison result. The subsequent processing is the same as in the second embodiment.

第五の実施形態では、第一の断面形状と第二の断面形状とで、領域の分割数が異なる場合がある。すなわち、領域同士の対応付けができないケースが発生し得る。このような場合、任意の手法で領域同士を対応付けるようにしてもよい。例えば、位置的に最も近い領域同士を対応付けてもよい。また、基準点からの角度を用いて体表面長を補間し、補間後の体表面長を用いて比較を行うようにしてもよい。   In the fifth embodiment, the number of divided regions may be different between the first cross-sectional shape and the second cross-sectional shape. That is, there may occur a case where the areas cannot be associated with each other. In such a case, the regions may be associated with each other by an arbitrary method. For example, the closest regions may be associated with each other. Alternatively, the body surface length may be interpolated using the angle from the reference point, and the comparison may be performed using the interpolated body surface length.

以上説明したように、第五の実施形態では、分析部13が、領域を分割する際の角度を、基準点から体表面までの長さに反比例するように設定する。このようにすることで、より太い体であるほど、より細長い領域が生成されるため、体型の差異をより精細に表すことができるようになる。   As described above, in the fifth embodiment, the analysis unit 13 sets the angle at which the region is divided so as to be inversely proportional to the length from the reference point to the body surface. By doing in this way, the thicker the body, the more elongated region is generated, so that the difference in body shape can be expressed more precisely.

(変形例)
なお、実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。
(Modification)
It should be noted that the description of the embodiment is an example for explaining the present invention, and the present invention can be implemented with appropriate modifications or combinations without departing from the spirit of the invention.

例えば、各実施形態では、地面と平行な面(図2におけるXZ平面)を切断面としたが、切断面をこれ以外の方向に設定してもよい。例えば、YZ平面に設定してもよいし、XY平面に設定してもよい。   For example, in each embodiment, the plane parallel to the ground (XZ plane in FIG. 2) is the cut plane, but the cut plane may be set in other directions. For example, the YZ plane may be set, or the XY plane may be set.

また、各実施形態では、輪郭線の色相によって比較結果を表したが、これ以外の方法によって比較結果を表してもよい。例えば、輪郭線の太さやスタイル、輝度や明度などを用いてもよい。また、他の図形的な表現を用いてもよい。
また、比較結果(距離の差分値や面積の差分値)が所定の閾値を超えた場合にのみ、色相、輝度、明度などによって、対応する部分を強調表示するようにしてもよい。
この他にも、領域を分割する場合、比較結果に応じて、領域ごとに異なる色相、輝度、明度などを与えてもよい。
Moreover, in each embodiment, although the comparison result was represented by the hue of the outline, the comparison result may be represented by a method other than this. For example, the thickness or style of the contour line, brightness, brightness, or the like may be used. Further, other graphical expressions may be used.
Further, only when the comparison result (distance difference value or area difference value) exceeds a predetermined threshold value, the corresponding portion may be highlighted by hue, luminance, brightness, or the like.
In addition, when a region is divided, a different hue, luminance, brightness, or the like may be given to each region according to the comparison result.

また、各実施形態では、第二の断面形状に対して着色を行ったが、提示する画像は、第一の断面形状を元にしたものであってもよい。また、断面形状以外の図形を元にしたものであってもよい。この他にも、基準点を基準として、第一の断面形状と第二の断面形状との位置合わせを行い、各断面形状を重ね合わせたものを用いてもよい。
また、基準点を用いて第一の断面形状と第二の断面形状との位置合わせを行い、互いを重ね合わせた画像のみを生成するようにしてもよい。
Further, in each embodiment, the second cross-sectional shape is colored, but the presented image may be based on the first cross-sectional shape. Further, it may be based on a figure other than the cross-sectional shape. In addition, the first cross-sectional shape and the second cross-sectional shape may be aligned using the reference point as a reference, and the cross-sectional shapes may be superimposed.
In addition, the first cross-sectional shape and the second cross-sectional shape may be aligned using the reference point, and only the superimposed image may be generated.

また、各実施形態では、画像を出力したら処理を終了させるものとしたが、切断面の位置をユーザが再指定できるようにしてもよい。この場合、切断面の位置が指定されるごとに、ステップS12〜S16の処理を繰り返し行い、更新した画像を出力するようにしてもよい。このようにすることで、ユーザビリティをより向上させることができる。   In each embodiment, the process is terminated when the image is output. However, the position of the cut surface may be re-designated by the user. In this case, every time the position of the cut surface is designated, the processing in steps S12 to S16 may be repeated to output an updated image. By doing in this way, usability can be improved more.

また、各実施形態では、断面形状を取得したうえで比較を行ったが、比較を行うための情報は、必ずしも二次元平面である必要はなく、高さ方向(Y軸方向)に厚みを有するデータであってもよい。例えば、身体形状データが表す身体形状を、平行する二つの切断面によって円柱状に切り出し、切り出した後の立体形状を用いて比較を行うこともできる。
第二の実施形態に本変形例を適用する場合、例示した方法を用いてXZ平面上に基準点を設定し、円柱状の立体形状を放射状に分割することができる。また、体表面長のかわりに、体表面の面積を用いて比較を行うことができる。
また、第三の実施形態に本変形例を適用する場合、分割した領域の面積の差分ではなく、分割した立体が有する体積の差分を用いることができる。
また、第四の実施形態に本変形を適用する場合、面積を等分するのではなく、体積を等分するようにしてもよい。
Moreover, in each embodiment, although it compared after acquiring cross-sectional shape, the information for performing the comparison does not necessarily need to be a two-dimensional plane, and has thickness in a height direction (Y-axis direction). It may be data. For example, the body shape represented by the body shape data can be cut out into a cylindrical shape by two parallel cut surfaces, and the comparison can be performed using the cut-out three-dimensional shape.
When applying this modification to 2nd embodiment, a reference point can be set on XZ plane using the illustrated method, and a cylindrical solid shape can be divided radially. Moreover, a comparison can be made using the area of the body surface instead of the body surface length.
Moreover, when applying this modification to 3rd embodiment, the difference of the volume which the divided | segmented solid has can be used instead of the difference of the area of the divided | segmented area | region.
Further, when this modification is applied to the fourth embodiment, the area may not be equally divided but the volume may be equally divided.

また、各実施形態では、比較結果として、基準点から体表面までの距離の差分、分割領域に対応する体表面長の差分、分割領域の面積の差分を挙げたが、断面形状同士を比較して得られる情報であれば、どのような情報を用いてもよい。   In each embodiment, as a comparison result, the difference in the distance from the reference point to the body surface, the difference in the body surface length corresponding to the divided area, and the difference in the area of the divided area are given. Any information may be used as long as the information is obtained in this way.

また、各実施形態では、身体形状取得部11が、身体の形状を表す三次元データを取得したが、断面形状取得部12が、装置の外部もしくは記憶された情報から、第一および第二の断面形状を直接取得するようにしてもよい。   Further, in each embodiment, the body shape acquisition unit 11 acquires three-dimensional data representing the shape of the body, but the cross-sectional shape acquisition unit 12 uses the first and second information from the outside of the apparatus or stored information. You may make it acquire a cross-sectional shape directly.

また、各実施形態では、基準点を用いて断面形状同士の比較を行ったが、これ以外の手法を用いて比較を行うようにしてもよい。例えば、基準点のかわりに、基準となる線や面を用いてもよい。また、比較を行うため、任意の方法によって断面形状同士の位置合わせを行うようにしてもよい。   Moreover, in each embodiment, although cross-sectional shapes were compared using the reference point, you may make it compare using a method other than this. For example, instead of the reference point, a reference line or surface may be used. For comparison, the cross-sectional shapes may be aligned by any method.

また、各実施形態では、画像生成部14が画像を生成するものとしたが、画像を生成する手段は必ずしも必須ではない。身体の形状の違いを表す情報を何らかの手段を用いて出力することができれば、発明の目的を達成することができる。   In each embodiment, the image generation unit 14 generates an image, but means for generating an image is not necessarily required. The object of the invention can be achieved if information representing the difference in body shape can be output using any means.

10・・・身体情報取得装置
11・・・身体形状取得部
12・・・断面形状取得部
13・・・分析部
14・・・画像生成部
15・・・入出力部
DESCRIPTION OF SYMBOLS 10 ... Body information acquisition apparatus 11 ... Body shape acquisition part 12 ... Cross-sectional shape acquisition part 13 ... Analysis part 14 ... Image generation part 15 ... Input / output part

Claims (16)

人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、
前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ所定の切断面で切断して得られる、第一の断面形状および第二の断面形状を取得する断面形状取得手段と、
前記第一の断面形状と、第二の断面形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する分析手段と、
を有することを特徴とする、身体情報取得装置。
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target Body shape acquisition means for acquiring second body shape data representing the body shape of
Based on the first and second body shape data, the first cross-sectional shape and the first shape obtained by cutting the shape of the body to be analyzed and the shape of the body to be compared with predetermined cross sections, respectively. Cross-sectional shape acquisition means for acquiring a second cross-sectional shape;
An analysis means for comparing the first cross-sectional shape with the second cross-sectional shape and generating difference information that is information representing a difference in body shape;
A physical information acquisition device characterized by comprising:
前記分析手段は、前記第一および第二の断面形状に対して互いに対応する基準点を設定し、前記基準点を基準として、前記第一の断面形状と、第二の断面形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する
ことを特徴とする、請求項1に記載の身体情報取得装置。
The analyzing means sets reference points corresponding to each other for the first and second cross-sectional shapes, and compares the first cross-sectional shape with the second cross-sectional shape based on the reference point. The body information acquisition apparatus according to claim 1, wherein difference information that is information representing a difference in body shape is generated.
前記分析手段は、前記第一の断面形状と、第二の断面形状のそれぞれについて、前記基準点から体表面までの距離を算出し、当該距離を比較した結果に基づいて前記差異情報を生成する
ことを特徴とする、請求項2に記載の身体情報取得装置。
The analysis unit calculates a distance from the reference point to the body surface for each of the first cross-sectional shape and the second cross-sectional shape, and generates the difference information based on a result of comparing the distances. The physical information acquisition apparatus according to claim 2, wherein:
前記基準点を中心として、前記第一および第二の断面形状を、所定の角度で放射状に分割する領域分割手段をさらに有し、
前記分析手段は、分割された領域のうち、前記第一の断面形状に対応する領域と、前記第二の断面形状に対応する領域との対応付けを行い、対応する領域同士をそれぞれ比較した結果に基づいて、前記差異情報を生成する
ことを特徴とする、請求項2に記載の身体情報取得装置。
Centering on the reference point, the first and second cross-sectional shapes further have a region dividing means for radially dividing at a predetermined angle,
The analysis unit associates a region corresponding to the first cross-sectional shape with a region corresponding to the second cross-sectional shape among the divided regions, and compares the corresponding regions with each other. The physical information acquisition apparatus according to claim 2, wherein the difference information is generated based on the information.
前記分析手段は、前記分割された各領域を囲う輪郭のうち、体表面に対応する部分の長さ同士を比較し、当該比較結果に基づいて前記差異情報を生成する
ことを特徴とする、請求項4に記載の身体情報取得装置。
The analysis unit compares lengths of portions corresponding to a body surface among contours surrounding the divided regions, and generates the difference information based on the comparison result. Item 5. The physical information acquisition device according to Item 4.
前記分析手段は、前記分割された各領域の面積同士を比較し、当該比較結果に基づいて前記差異情報を生成する
ことを特徴とする、請求項4に記載の身体情報取得装置。
The physical information acquisition apparatus according to claim 4, wherein the analysis unit compares the areas of the divided regions and generates the difference information based on the comparison result.
前記所定の角度は、前記分割された各領域の面積がそれぞれ同じになる角度である
ことを特徴とする、請求項4または5に記載の身体情報取得装置。
The physical information acquisition apparatus according to claim 4 or 5, wherein the predetermined angle is an angle at which areas of the divided regions are the same.
前記所定の角度は、等角度である
ことを特徴とする、請求項4から6のいずれか1項に記載の身体情報取得装置。
The physical information acquiring apparatus according to claim 4, wherein the predetermined angle is an equal angle.
前記所定の角度は、分割を行おうとする領域の近傍における、前記基準点から体表面までの長さの逆数に比例した値である
ことを特徴とする、請求項4から6のいずれか1項に記載の身体情報取得装置。
The said predetermined angle is a value proportional to the reciprocal of the length from the said reference point to the body surface in the vicinity of the area | region which is going to perform division | segmentation. The physical information acquisition device described in 1.
前記第一および第二の身体形状データに基づいて、または、ユーザからの入力操作に基づいて、分析対象の身体の形状と比較対象の身体の形状の比較を行う高さを設定する高さ設定手段をさらに有し、
前記断面形状取得手段は、前記高さ設定手段で設定された高さで得られる切断面を、前記所定の切断面とする
ことを特徴とする、請求項1から9のいずれか1項に記載の身体情報取得装置。
Based on the first and second body shape data or based on an input operation from the user, a height setting for setting a height for performing comparison between the shape of the body to be analyzed and the shape of the body to be compared Further comprising means,
10. The cross-sectional shape acquisition unit according to claim 1, wherein a cut surface obtained at a height set by the height setting unit is the predetermined cut surface. 11. Body information acquisition device.
前記差異情報を表す画像を生成する画像生成手段をさらに有する
ことを特徴とする、請求項1から10のいずれか1項に記載の身体情報取得装置。
The physical information acquisition apparatus according to claim 1, further comprising an image generation unit configured to generate an image representing the difference information.
前記画像生成手段は、前記基準点を基準として前記第一の断面形状と第二の断面形状を重ね合わせた画像を生成し、前記第一の断面形状と第二の断面形状の少なくともいずれかに、前記差異情報を反映させる
ことを特徴とする、請求項11に記載の身体情報取得装置。
The image generation means generates an image in which the first cross-sectional shape and the second cross-sectional shape are overlapped on the basis of the reference point, and the image generating unit has at least one of the first cross-sectional shape and the second cross-sectional shape. The physical information acquisition apparatus according to claim 11, wherein the difference information is reflected.
分析対象である身体の形状と、比較対象である身体の形状とを比較する身体情報取得装置が行う身体情報取得方法であって、
人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得ステップと、
前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ所定の切断面で切断して得られる、第一の断面形状および第二の断面形状を取得する断面形状取得ステップと、
前記第一の断面形状と、第二の断面形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する分析ステップと、
を含むことを特徴とする、身体情報取得方法。
A body information acquisition method performed by a body information acquisition device that compares the shape of the body to be analyzed with the shape of the body to be compared,
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target A body shape acquisition step of acquiring second body shape data representing the body shape of
Based on the first and second body shape data, the first cross-sectional shape and the first shape obtained by cutting the shape of the body to be analyzed and the shape of the body to be compared with predetermined cross sections, respectively. A cross-sectional shape acquisition step of acquiring a second cross-sectional shape;
An analysis step for comparing the first cross-sectional shape with the second cross-sectional shape and generating difference information that is information representing a difference in body shape;
A body information acquisition method comprising:
請求項13に記載の身体情報取得方法の各ステップをコンピュータに実行させるプログラム。   The program which makes a computer perform each step of the physical information acquisition method of Claim 13. 人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、
前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ平行する二つの切断面によって切り出して得られる、第一の立体形状および第二の立体形状を取得する立体形状取得手段と、
前記第一の立体形状と、第二の立体形状との比較を行い、身体の形状の違いを表す情報である差異情報を生成する分析手段と、
を有することを特徴とする、身体情報取得装置。
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target Body shape acquisition means for acquiring second body shape data representing the body shape of
Based on the first and second body shape data, the first three-dimensional shape obtained by cutting the body shape of the analysis target and the shape of the comparison target body by two parallel cut planes, and Three-dimensional shape acquisition means for acquiring a second three-dimensional shape;
Analyzing means for comparing the first three-dimensional shape and the second three-dimensional shape, and generating difference information which is information representing a difference in body shape;
A physical information acquisition device characterized by comprising:
人の身体を測定して得られた、胴部分を少なくとも含む身体の形状を三次元形状として表す身体形状データであって、分析対象の身体の形状を表す第一の身体形状データと、比較対象の身体の形状を表す第二の身体形状データを取得する身体形状取得手段と、
前記第一および第二の身体形状データに基づいて、前記分析対象の身体の形状と、前記比較対象の身体の形状をそれぞれ所定の切断面で切断して得られる、第一の断面形状および第二の断面形状を取得する断面形状取得手段と、
前記第一の断面形状と、第二の断面形状とを重ね合わせた画像を生成する画像生成手段と、
を有することを特徴とする、身体情報取得装置。
Body shape data obtained by measuring a human body and representing the shape of the body including at least the torso as a three-dimensional shape, and the first body shape data representing the shape of the body to be analyzed and the comparison target Body shape acquisition means for acquiring second body shape data representing the body shape of
Based on the first and second body shape data, the first cross-sectional shape and the first shape obtained by cutting the shape of the body to be analyzed and the shape of the body to be compared with predetermined cross sections, respectively. Cross-sectional shape acquisition means for acquiring a second cross-sectional shape;
Image generating means for generating an image obtained by superimposing the first cross-sectional shape and the second cross-sectional shape;
A physical information acquisition device characterized by comprising:
JP2014266241A 2014-12-26 2014-12-26 Physical information acquisition device and physical information acquisition method Active JP6458300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266241A JP6458300B2 (en) 2014-12-26 2014-12-26 Physical information acquisition device and physical information acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266241A JP6458300B2 (en) 2014-12-26 2014-12-26 Physical information acquisition device and physical information acquisition method

Publications (2)

Publication Number Publication Date
JP2016123587A true JP2016123587A (en) 2016-07-11
JP6458300B2 JP6458300B2 (en) 2019-01-30

Family

ID=56358448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266241A Active JP6458300B2 (en) 2014-12-26 2014-12-26 Physical information acquisition device and physical information acquisition method

Country Status (1)

Country Link
JP (1) JP6458300B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428380B2 (en) 2020-06-05 2024-02-06 株式会社システック Human body shape management device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009011734A (en) * 2007-07-09 2009-01-22 Tanita Corp Body composition measuring instrument, body composition measuring system, program and body composition measuring method
US20100277571A1 (en) * 2009-04-30 2010-11-04 Bugao Xu Body Surface Imaging
US20110058725A1 (en) * 2009-09-10 2011-03-10 General Electric Company Methods and apparatus for measuring body circumference
JP2012059082A (en) * 2010-09-09 2012-03-22 Seiren Co Ltd Method and device for creating skeleton model of three-dimensional shape and method and device for measuring dimension of three-dimensional shape
JP2013228334A (en) * 2012-04-26 2013-11-07 Topcon Corp Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program
US20140340479A1 (en) * 2013-05-03 2014-11-20 Fit3D, Inc. System and method to capture and process body measurements

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009011734A (en) * 2007-07-09 2009-01-22 Tanita Corp Body composition measuring instrument, body composition measuring system, program and body composition measuring method
US20100277571A1 (en) * 2009-04-30 2010-11-04 Bugao Xu Body Surface Imaging
US20110058725A1 (en) * 2009-09-10 2011-03-10 General Electric Company Methods and apparatus for measuring body circumference
JP2012059082A (en) * 2010-09-09 2012-03-22 Seiren Co Ltd Method and device for creating skeleton model of three-dimensional shape and method and device for measuring dimension of three-dimensional shape
JP2013228334A (en) * 2012-04-26 2013-11-07 Topcon Corp Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program
US20140340479A1 (en) * 2013-05-03 2014-11-20 Fit3D, Inc. System and method to capture and process body measurements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428380B2 (en) 2020-06-05 2024-02-06 株式会社システック Human body shape management device

Also Published As

Publication number Publication date
JP6458300B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
US10897584B2 (en) In-time registration of temporally separated images acquired with image acquisition system having three dimensional sensor
KR102635541B1 (en) Systems and methods for skin condition analysis
US9386297B2 (en) Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
JP6548967B2 (en) Image processing apparatus, image processing method and program
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP2016103265A (en) Method and systems for generating three-dimensional model of subject
US11875468B2 (en) Three-dimensional (3D) image modeling systems and methods for determining respective mid-section dimensions of individuals
KR20160047702A (en) Measuring method and system for 3-dimensional position of human body
Chiu et al. Automated body volume acquisitions from 3D structured-light scanning
JP6593673B2 (en) Physical information acquisition device and physical information acquisition method
JP6458300B2 (en) Physical information acquisition device and physical information acquisition method
Ettl Introductory review on ‘Flying Triangulation’: a motion-robust optical 3D measurement principle
JP6710883B1 (en) Beauty promotion device, beauty promotion system, beauty promotion method, and beauty promotion program
JP2016123588A (en) Apparatus and method for acquiring body information
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system
JP2016123590A (en) Apparatus and method for acquiring body information
JP7147848B2 (en) Processing device, posture analysis system, processing method, and processing program
JP6593830B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
JP2018205205A (en) Stereo matching device, stereo matching method and stereo matching program
WO2023199583A1 (en) Viewer control method and information processing device
KR102165988B1 (en) Apparatus and method for analyzing body shape by depth image matching
TW201742003A (en) Measurement device and measurement method
JP2015052986A (en) Three-dimensional restoration device, program, and method
JP2016123586A (en) Apparatus and method for acquiring body information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181205

R150 Certificate of patent or registration of utility model

Ref document number: 6458300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250