JP2017012875A - Muscle area estimation system, apparatus and muscle area estimation method - Google Patents

Muscle area estimation system, apparatus and muscle area estimation method Download PDF

Info

Publication number
JP2017012875A
JP2017012875A JP2016207861A JP2016207861A JP2017012875A JP 2017012875 A JP2017012875 A JP 2017012875A JP 2016207861 A JP2016207861 A JP 2016207861A JP 2016207861 A JP2016207861 A JP 2016207861A JP 2017012875 A JP2017012875 A JP 2017012875A
Authority
JP
Japan
Prior art keywords
smartphone
contour
information
measurement
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016207861A
Other languages
Japanese (ja)
Inventor
安島 弘美
Hiromi Yasujima
弘美 安島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016207861A priority Critical patent/JP2017012875A/en
Publication of JP2017012875A publication Critical patent/JP2017012875A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a muscle area estimation system, an apparatus and a muscle area estimation method capable of easily estimating a muscle area in a cross section of a human body.SOLUTION: The muscle area estimation system includes: a gage part which has a first sensor for acquiring a piece of orientation information of the system and a device for acquiring a piece of movement information of the system; and a control unit that estimates a muscle area in a cross section of a human body on the basis of a shape characteristics which is calculated from at least a part of the human body which is calculated on the basis of the orientation information and the movement information.SELECTED DRAWING: Figure 5

Description

本発明は、筋肉面積推定システム、機器、及び筋肉面積推定方法に関する。   The present invention relates to a muscle area estimation system, a device, and a muscle area estimation method.

従来から、コンピュータ断層撮影(以下、単に「CT」という)で得た断面画像から筋肉面積を求める方法が知られている。また、生体インピーダンス法を用いた筋肉量の推定方法が知られている。例えば特許文献1には、生体インピーダンスから下肢部の筋肉量を推定し表示する体組成測定装置が示されている。   Conventionally, a method for obtaining a muscle area from a cross-sectional image obtained by computed tomography (hereinafter simply referred to as “CT”) is known. Also, a muscle mass estimation method using a bioimpedance method is known. For example, Patent Document 1 discloses a body composition measuring apparatus that estimates and displays muscle mass of the lower limb from bioelectrical impedance.

特開2007−7445号公報Japanese Patent Laid-Open No. 2007-7445

しかしながら、CT及び生体インピーダンス法を用いた測定は、測定できる施設が限られている。   However, the facilities using CT and bioimpedance methods are limited.

上記のような課題に鑑みてなされた本発明の目的は、簡易的な手法により筋肉面積を推定できる筋肉面積推定システム、機器、及び筋肉面積推定方法を提供することにある。   The objective of this invention made | formed in view of the above subjects is to provide the muscle area estimation system, apparatus, and muscle area estimation method which can estimate a muscle area with a simple method.

上述した諸課題を解決すべく、本発明に係る筋肉面積推定システムは、自機の向き情報を得る第1のセンサ部及び自機の移動情報を得るためのデバイス部を備える測定子と、前記向き情報及び前記移動情報に基づいて演算された人体の輪郭の少なくとも一部から算出された形状特徴に基づいて、前記人体の断面における筋肉面積を推定する制御部とを備える。   In order to solve the above-mentioned problems, a muscle area estimation system according to the present invention includes a first sensor unit that obtains orientation information of the own device and a measuring element that includes a device unit that obtains movement information of the own device, And a controller that estimates a muscle area in a cross section of the human body based on a shape feature calculated from at least a part of the contour of the human body calculated based on the orientation information and the movement information.

好適には、前記制御部は、前記推定された筋肉面積に対応した画像を表示部に表示してもよい。   Preferably, the control unit may display an image corresponding to the estimated muscle area on the display unit.

好適には、複数のCTサンプル画像を記憶する記憶部を備え、前記制御部は、前記複数のCTサンプル画像から、少なくとも前記推定された筋肉面積に対応する1枚のCTサンプル画像を表示部に表示してもよい。   Preferably, a storage unit that stores a plurality of CT sample images is provided, and the control unit displays at least one CT sample image corresponding to the estimated muscle area from the plurality of CT sample images on the display unit. It may be displayed.

また、上述した諸課題を解決すべく、本発明に係る機器は、自機の向き情報を得る第1のセンサ部と、自機の移動情報を得るためのデバイス部と、前記向き情報及び前記移動情報に基づいて演算された人体の輪郭の少なくとも一部から算出された形状特徴に基づいて、前記人体の断面における筋肉面積を推定する制御部とを備える。   Further, in order to solve the above-described problems, the device according to the present invention includes a first sensor unit that obtains direction information of the own device, a device unit that obtains movement information of the own device, the direction information, and the A controller that estimates a muscle area in a cross section of the human body based on a shape feature calculated from at least a part of a contour of the human body calculated based on movement information.

好適には、前記推定された筋肉面積に対応した画像が表示される表示部を備えてもよい。   Preferably, a display unit that displays an image corresponding to the estimated muscle area may be provided.

好適には、複数のCTサンプル画像を記憶する記憶部を備え、前記制御部は、前記複数のCTサンプル画像から、少なくとも前記推定された筋肉面積に対応する1枚のCTサンプル画像を表示部に表示させてもよい。   Preferably, a storage unit that stores a plurality of CT sample images is provided, and the control unit displays at least one CT sample image corresponding to the estimated muscle area from the plurality of CT sample images on the display unit. It may be displayed.

好適には、前記第1のセンサ部は方位センサ、角速度センサまたは傾きセンサを含んでもよい。   Preferably, the first sensor unit may include an azimuth sensor, an angular velocity sensor, or a tilt sensor.

好適には、前記デバイス部は、自機の移動情報を得る第2のセンサ部を含んでもよい。   Preferably, the device unit may include a second sensor unit that obtains movement information of the device itself.

好適には、前記第2のセンサ部は、加速度センサまたは電子巻尺を含んでもよい。   Preferably, the second sensor unit may include an acceleration sensor or an electronic tape measure.

好適には、前記デバイス部は、タイマーを含んでもよい。   Preferably, the device unit may include a timer.

また、上述した諸課題を解決すべく、本発明に係る筋肉面積推定方法は、自機の向き情報及び自機の移動情報を得るステップと、制御部により、前記向き情報及び前記移動情報に基づいて人体の輪郭の少なくとも一部を演算するステップと、当該演算された人体の輪郭の少なくとも一部から形状特徴を算出するステップと、当該形状特徴に基づいて前記人体の断面における筋肉面積を推定するステップとを含む。   In order to solve the above-described problems, the muscle area estimation method according to the present invention is based on the orientation information and the movement information by the step of obtaining the orientation information of the own device and the movement information of the own device, and the control unit. Calculating at least a part of the contour of the human body, calculating a shape feature from at least a part of the calculated contour of the human body, and estimating a muscle area in a cross section of the human body based on the shape feature Steps.

本発明によれば、簡易的な手法により、人体の輪郭に基づいて断面の筋肉面積を推定できる。   According to the present invention, the muscle area of the cross section can be estimated based on the outline of the human body by a simple method.

図1は、本発明の実施形態に係るスマートフォンの外観を示す斜視概略図である。FIG. 1 is a schematic perspective view showing an appearance of a smartphone according to an embodiment of the present invention. 図2は、本発明の実施形態に係るスマートフォンの外観を示す正面概略図である。FIG. 2 is a schematic front view showing the appearance of the smartphone according to the embodiment of the present invention. 図3は、本発明の実施形態に係るスマートフォンの外観を示す背面概略図である。FIG. 3 is a schematic rear view showing the appearance of the smartphone according to the embodiment of the present invention. 図4は、本発明の実施形態に係るスマートフォンの機能を示すブロック概略図である。FIG. 4 is a block schematic diagram illustrating functions of the smartphone according to the embodiment of the present invention. 図5は、本発明の実施形態に係る腹部断面の輪郭の測定の様子を示す模式図である。FIG. 5 is a schematic diagram showing a state of measurement of the contour of the abdominal section according to the embodiment of the present invention. 図6は、本発明の断面の輪郭の測定フロー図である。FIG. 6 is a measurement flow diagram of the profile of the cross section of the present invention. 図7は、本発明の実施形態に係る向きと移動量の一例を示す。FIG. 7 shows an example of the direction and the movement amount according to the embodiment of the present invention. 図8は、本発明の実施形態に係る向き情報と移動情報のレコードの一例である。FIG. 8 is an example of a record of orientation information and movement information according to the embodiment of the present invention. 図9は、本発明の実施形態に係る演算された断面の輪郭を示す図である。FIG. 9 is a diagram illustrating the contour of the calculated cross section according to the embodiment of the present invention. 図10は、本発明の実施形態に係る演算された断面の輪郭の補正を説明する図である。FIG. 10 is a diagram for explaining the correction of the calculated cross-sectional contour according to the embodiment of the present invention. 図11は、本発明の実施形態に係る実測値による補正を説明する図である。FIG. 11 is a diagram for explaining correction by actually measured values according to the embodiment of the present invention. 図12は、本発明の実施形態に係る電子巻尺を説明する概略図である。FIG. 12 is a schematic diagram illustrating an electronic tape measure according to an embodiment of the present invention. 図13は、本発明の実施形態に係る演算された腹部断面の輪郭の例である。FIG. 13 is an example of a calculated abdominal cross-sectional profile according to an embodiment of the present invention. 図14は、本発明の第2の実施形態に係るスマートフォンの機能を示すブロック概略図である。FIG. 14 is a block schematic diagram illustrating functions of a smartphone according to the second embodiment of the present invention. 図15は、本発明の第2の実施形態に係る断面の輪郭の測定フロー図である。FIG. 15 is a measurement flow diagram of the contour of a cross section according to the second embodiment of the present invention. 図16は、本発明の第2の実施形態に係る向き情報と移動情報のレコードの一例である。FIG. 16 is an example of a record of orientation information and movement information according to the second embodiment of the present invention. 図17は、本発明の第3の実施形態に係る腹部断面画像が表示されるまでの処理の流れの一例を示すフロー図である。FIG. 17 is a flowchart showing an example of a processing flow until an abdominal cross-sectional image according to the third embodiment of the present invention is displayed. 図18は、本発明の第3の実施形態に係るスマートフォン1の向きの一例である。FIG. 18 is an example of the orientation of the smartphone 1 according to the third embodiment of the present invention. 図19は、本発明の第3の実施形態に係る取得された情報から構成されたレコードの一例である。FIG. 19 is an example of a record composed of acquired information according to the third embodiment of the present invention. 図20は、本発明の第3の実施形態に係る演算及び補正された断面の輪郭を示す図である。FIG. 20 is a diagram showing a contour of a cross section that is calculated and corrected according to the third embodiment of the present invention. 図21は、本発明の第3の実施形態に係る腹部断面画像の分類表の一例である。FIG. 21 is an example of an abdominal cross-sectional image classification table according to the third embodiment of the present invention. 図22は、本発明の第3の実施形態に係る筋肉面積推定式の作成フロー図である。FIG. 22 is a flowchart for creating a muscle area estimation formula according to the third embodiment of the present invention. 図23は、腹部断面を示す図である。FIG. 23 is a diagram showing a cross section of the abdomen. 図24は、本発明の第3の実施形態に係る演算及び補正された断面の輪郭を示す図である。FIG. 24 is a diagram showing a contour of a cross section that is calculated and corrected according to the third embodiment of the present invention. 図25は、本発明のスマートフォン1に表示される腹部断面画像の例である。FIG. 25 is an example of an abdominal cross-sectional image displayed on the smartphone 1 of the present invention. 図26は、本発明の第4の実施形態に係る大腿部断面画像が表示されるまでの処理の流れの一例を示すフロー図である。FIG. 26 is a flowchart showing an example of a processing flow until a thigh cross-sectional image according to the fourth embodiment of the present invention is displayed. 図27は、本発明の第4の実施形態に係る演算された同一被験者の大腿部の輪郭の一例である。FIG. 27 is an example of the calculated thigh contour of the same subject according to the fourth embodiment of the present invention. 図28は、本発明の実施形態に係る通信手段を備える機器、及びシステムを示す概念図である。FIG. 28 is a conceptual diagram illustrating a device and a system including a communication unit according to an embodiment of the present invention.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings.

本実施形態では、機器の実施形態の一例としてスマートフォン1を採用し、人の腹部及び大腿部の筋肉面積を推定する場合について説明する。   This embodiment demonstrates the case where the smart phone 1 is employ | adopted as an example of embodiment of an apparatus, and the muscle area of a person's abdomen and thigh is estimated.

(第1の実施形態)
自機であるスマートフォン1は、向き情報を得る第1のセンサ部と、移動情報を得るためのデバイス部と、対象部の断面の輪郭を演算するコントローラ10とを少なくとも備える。本実施形態では移動情報を得るためのデバイス部は第2のセンサ部を含んでいる。
(First embodiment)
The smartphone 1 that is its own device includes at least a first sensor unit that obtains orientation information, a device unit that obtains movement information, and a controller 10 that calculates a cross-sectional contour of the target unit. In the present embodiment, the device unit for obtaining movement information includes a second sensor unit.

図1から図3を参照しながら、第1の実施形態に係るスマートフォン1の外観について説明する。   The appearance of the smartphone 1 according to the first embodiment will be described with reference to FIGS. 1 to 3.

ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。   The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence panel)、または無機ELパネル(Inorganic Electro-Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号または図形等を表示する。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A includes a display device such as a liquid crystal display, an organic EL panel (Organic Electro-Luminescence panel), or an inorganic EL panel (Inorganic Electro-Luminescence panel). The display 2A displays characters, images, symbols or figures.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、またはスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、またはスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。   The touch screen 2B detects contact of a finger or a stylus pen with the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a stylus pen, or the like contacts the touch screen 2B.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(または超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。静電容量方式では、指、またはスタイラスペン等の接触及び接近を検出することができる。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the capacitive method, contact and approach of a finger or a stylus pen can be detected.

図4は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、コネクタ14と、モーションセンサ15と、を有する。   FIG. 4 is a block diagram illustrating the configuration of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, and cameras 12 and 13. , Connector 14 and motion sensor 15.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、または図形等を表示する。タッチスクリーン2Bは、受付領域に対する接触を入力として受け付ける。つまり、タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)における操作(ジェスチャ)を検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、ディスプレイ2A(タッチスクリーンディスプレイ2)における操作(ジェスチャ)を検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B receives a contact with the reception area as an input. That is, the touch screen 2B detects contact. The controller 10 detects a gesture for the smartphone 1. The controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B. The controller 10 detects an operation (gesture) on the display 2A (touch screen display 2) by cooperating with the touch screen 2B.

ボタン3は、使用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、ロングプッシュ、及びマルチプッシュである。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button by cooperating with the button 3. The operations on the buttons are, for example, click, double click, push, long push, and multi push.

例えば、ボタン3A〜3Cは、ホームボタン、バックボタンまたはメニューボタンである。本実施形態では、ボタン3A〜3Cとしてタッチセンサ型のボタンを採用している。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。   For example, the buttons 3A to 3C are a home button, a back button, or a menu button. In the present embodiment, touch sensor type buttons are employed as the buttons 3A to 3C. For example, the button 3D is a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. For example, the buttons 3E and 3F are volume buttons.

照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. For example, the illuminance is light intensity, brightness, luminance, or the like. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.

通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格として、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy-phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC等がある。通信ユニット6は、上述した通信規格の1つまたは複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. Examples of cellular phone communication standards include LTE (Long Term Evolution), W-CDMA, CDMA2000, PDC, GSM (registered trademark), and PHS (Personal Handy-phone System). Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA, NFC, and the like. The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、使用者等の音声を音声信号へ変換してコントローラ10へ送信する。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。   The receiver 7 outputs the audio signal transmitted from the controller 10 as audio. The microphone 8 converts a user's voice into a voice signal and transmits the voice signal to the controller 10. The smartphone 1 may further include a speaker instead of the receiver 7.

ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 9 may include a plurality of types of storage devices. The storage 9 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ9に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信または記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a predetermined screen on the display 2 </ b> A, and causes the controller 10 to execute processing corresponding to the gesture detected via the touch screen 2 </ b> B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び測定アプリケーション9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。測定アプリケーション9Zは、利用者がスマートフォン1で対象部の断面の輪郭を測定する機能を提供する。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, and a measurement application 9Z. The mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail. The browser application 9C provides a WEB browsing function for displaying a WEB page. The measurement application 9 </ b> Z provides a function for the user to measure the contour of the cross section of the target portion with the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. Note that the functions provided by the control program 9A may be used in combination with functions provided by other programs such as the mail application 9B.

コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ10は、複数の集積回路を組み合わせて構成されていてもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is, for example, a CPU (Central Processing Unit). The controller 10 may be an integrated circuit such as a SoC (System-on-a-Chip) in which other components such as the communication unit 6 are integrated. The controller 10 may be configured by combining a plurality of integrated circuits. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A、通信ユニット6、及びモーションセンサ15などを制御することによって各種機能を実現する。コントローラ10は、ストレージ9に記憶されている測定アプリケーション9Zに含まれる命令を実行して各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、モーションセンサ15などの各種検出部の検出結果に応じて、制御を変更することができる。本実施形態では、コントローラ10全体が制御部として機能する。コントローラ10は、第1のセンサ部により取得された向き情報と、第2のセンサ部により取得された移動情報とに基づいて、対象部の断面の輪郭を演算する。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary, so that the display 2A, the communication unit 6, Various functions are realized by controlling the motion sensor 15 and the like. The controller 10 implements various functions by executing instructions included in the measurement application 9Z stored in the storage 9. The controller 10 can change the control according to detection results of various detection units such as the touch screen 2B, the button 3, and the motion sensor 15. In the present embodiment, the entire controller 10 functions as a control unit. The controller 10 calculates the contour of the cross section of the target portion based on the orientation information acquired by the first sensor unit and the movement information acquired by the second sensor unit.

タイマー11はあらかじめ設定された周波数のクロック信号を出力する。タイマー11はコントローラ10からタイマー動作の指示を受け、クロック信号をコントローラ10に出力する。第1のセンサ部及び第2のセンサ部は、コントローラ10を介して入力されるクロック信号に従って、向き情報及び移動情報を複数回取得する。なお、タイマー11はコントローラ10の外部に備えられていてもよいし、後述する図14で示すように、コントローラ10に含まれていてもよい。   The timer 11 outputs a clock signal having a preset frequency. The timer 11 receives a timer operation instruction from the controller 10 and outputs a clock signal to the controller 10. The first sensor unit and the second sensor unit acquire the orientation information and the movement information a plurality of times according to the clock signal input via the controller 10. The timer 11 may be provided outside the controller 10 or may be included in the controller 10 as shown in FIG.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。本実施形態のコネクタ14は、当該端子に接続される接続物を介してスマートフォン1と他の装置とが通信する通信部としても機能する。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、MHL(Mobile High-definition Link)、ライトピーク(Light Peak)、サンダーボルト(Thunderbolt)、LANコネクタ(Local Area Network connector)、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用に設計された端子でもよい。コネクタ14に接続される装置には、例えば、充電器、外部ストレージ、スピーカ、通信装置、情報処理装置が含まれる。   The connector 14 is a terminal to which another device is connected. The connector 14 of this embodiment also functions as a communication unit that communicates between the smartphone 1 and another device via a connection object connected to the terminal. The connector 14 includes USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), MHL (Mobile High-definition Link), Light Peak, Thunderbolt, LAN connector (Local A general-purpose terminal such as an area network connector or an earphone microphone connector may be used. The connector 14 may be a dedicated terminal such as a dock connector. The devices connected to the connector 14 include, for example, a charger, an external storage, a speaker, a communication device, and an information processing device.

モーションセンサ15は、モーションファクタを検出する。このモーションファクタは、自機であるスマートフォン1のコントロールファクタとして主に処理される。コントロールファクタは自機のおかれた状況を示す因子であり、コントローラ10で処理される。本実施形態のモーションセンサ15には、加速度センサ16と、方位センサ17と、角速度センサ18と、傾きセンサ19とが含まれている。加速度センサ16、方位センサ17、角速度センサ18、及び傾きセンサ19の出力は、組み合わせて利用することが可能である。モーションセンサ15の出力を組み合わせて処理することによって、自機であるスマートフォン1の動きを高度に反映させた処理を、コントローラ10によって実行することが可能となる。   The motion sensor 15 detects a motion factor. This motion factor is mainly processed as a control factor of the smartphone 1 which is its own device. The control factor is a factor indicating the situation of the device itself, and is processed by the controller 10. The motion sensor 15 of the present embodiment includes an acceleration sensor 16, an orientation sensor 17, an angular velocity sensor 18, and a tilt sensor 19. The outputs of the acceleration sensor 16, the azimuth sensor 17, the angular velocity sensor 18, and the tilt sensor 19 can be used in combination. By processing the output of the motion sensor 15 in combination, the controller 10 can execute processing that highly reflects the movement of the smartphone 1 that is the device itself.

本実施形態では、第1のセンサ部は自機であるスマートフォン1の向き情報を得る。スマートフォンの向き情報とは、第1のセンサ部から出力される情報である。スマートフォン1の向き情報とは、スマートフォン1の向いている方向に関する情報である。スマートフォン1の向き情報には、例えば地磁気の方向、地磁気に対する傾き、回転角の方向、回転角の変化、重力方向、重力方向に対する傾きが含まれる。   In the present embodiment, the first sensor unit obtains orientation information of the smartphone 1 that is its own device. The smartphone orientation information is information output from the first sensor unit. The orientation information of the smartphone 1 is information regarding the direction in which the smartphone 1 is facing. The orientation information of the smartphone 1 includes, for example, the direction of geomagnetism, the inclination with respect to the geomagnetism, the direction of the rotation angle, the change of the rotation angle, the gravity direction, and the inclination with respect to the gravity direction.

スマートフォン1の向きとは、対象部の断面の輪郭を測定する際に、対象部に対向しているハウジング20の面の法線方向を示す。対象部に対向させるハウジング20の面は、第1のセンサ部でその向きを検出できる面であればよく、フロントフェイス1A、バックフェイス1B、サイドフェイス1C1〜1C4、のいずれを対向させてもよい。   The orientation of the smartphone 1 indicates the normal direction of the surface of the housing 20 facing the target portion when measuring the contour of the cross section of the target portion. The surface of the housing 20 that faces the target portion may be a surface that can be detected by the first sensor portion, and any of the front face 1A, the back face 1B, and the side faces 1C1 to 1C4 may face each other. .

本実施形態では、第1のセンサ部に方位センサ17を用いる。方位センサ17は地磁気の向きを検出するセンサである。本実施形態では、スマートフォン1の向きを地面に平行な面上に投影した成分が、方位センサ17で取得される向き情報である。方位センサ17で取得される向き情報は、スマートフォン1の方位である。スマートフォン1の方位は、0〜360度の向き情報として取得することができる。例えば、スマートフォン1の向きが北を向いていれば0度、東を向いていれば90度、南を向いていれば180度、西を向いていれば270度、として向き情報が取得される。本実施形態では、測定対象部の断面を地面に平行にすることによって、方位センサ17は向き情報をより正確に取得することができる。本実施形態の場合、対象部は腹部であるので、起立状態で測定することが好ましい。   In the present embodiment, the orientation sensor 17 is used for the first sensor unit. The direction sensor 17 is a sensor that detects the direction of geomagnetism. In the present embodiment, a component obtained by projecting the orientation of the smartphone 1 onto a plane parallel to the ground is orientation information acquired by the orientation sensor 17. The orientation information acquired by the orientation sensor 17 is the orientation of the smartphone 1. The orientation of the smartphone 1 can be acquired as orientation information of 0 to 360 degrees. For example, the orientation information is acquired as 0 degree when the orientation of the smartphone 1 is facing north, 90 degrees when facing the east, 180 degrees when facing the south, and 270 degrees when facing the west. . In the present embodiment, the direction sensor 17 can acquire the orientation information more accurately by making the cross section of the measurement target portion parallel to the ground. In the case of this embodiment, since the target part is an abdominal part, it is preferable to measure in an upright state.

方位センサ17は、検出した地磁気の向きを出力する。例えば地磁気の向きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の向いている方位を反映したコントロールファクタとして処理に利用することが可能となる。例えば地磁気の向きの変化がモーションファクタとして出力されると、コントローラ10は、スマートフォン1の向きの変化を反映したコントロールファクタとして処理に利用することが可能となる。   The direction sensor 17 outputs the detected direction of geomagnetism. For example, when the direction of geomagnetism is output as a motion factor, the controller 10 can be used for processing as a control factor that reflects the orientation of the smartphone 1. For example, when a change in the direction of geomagnetism is output as a motion factor, the controller 10 can be used for processing as a control factor that reflects a change in the direction of the smartphone 1.

また、第1のセンサ部に角速度センサ18を用いてもよい。角速度センサ18は、スマートフォン1の角速度を検出する。角速度センサ18は、スマートフォン1の角速度を、向き情報として取得することができる。コントローラ10は、取得された角速度を1回時間積分することにより、スマートフォン1の向きを演算する。演算されたスマートフォン1の向きは、測定開始の初期値を基準とした相対角度である。   Moreover, you may use the angular velocity sensor 18 for a 1st sensor part. The angular velocity sensor 18 detects the angular velocity of the smartphone 1. The angular velocity sensor 18 can acquire the angular velocity of the smartphone 1 as orientation information. The controller 10 calculates the orientation of the smartphone 1 by integrating the acquired angular velocity once over time. The calculated orientation of the smartphone 1 is a relative angle based on the initial value at the start of measurement.

角速度センサ18は、検出した角速度を出力する。例えば角速度の向きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の回転方向を反映したコントロールファクタとして処理に利用することが可能となる。例えば角速度の大きさが出力されると、コントローラ10は、スマートフォン1の回転量を反映したコントロールファクタとして処理に利用することが可能となる。   The angular velocity sensor 18 outputs the detected angular velocity. For example, when the direction of the angular velocity is output as a motion factor, the controller 10 can be used for processing as a control factor reflecting the rotation direction of the smartphone 1. For example, when the magnitude of the angular velocity is output, the controller 10 can be used for processing as a control factor reflecting the rotation amount of the smartphone 1.

また、第1のセンサ部に傾きセンサ19を用いてもよい。傾きセンサ19は、スマートフォン1に働く重力加速度を検出する。傾きセンサ19は、スマートフォン1の重力加速度を、向き情報として取得することができる。例えば、スマートフォン1は傾きセンサ19によって、−9.8〜9.8[m/秒]の向き情報として取得することができる。例えば、図1に示すスマートフォン1のy軸方向が重力方向と同じ場合は9.8[m/秒]、逆の場合は−9.8[m/秒]、y軸方向が重力方向と垂直の場合は0[m/秒]、として向き情報が取得される。本実施形態では、測定対象物の断面を地面に垂直にすることによって、傾きセンサ19は向き情報をより正確に取得することができる。対象部が腹部の場合、横たわった状態で測定することが好ましい。 Moreover, you may use the inclination sensor 19 for a 1st sensor part. The tilt sensor 19 detects gravitational acceleration acting on the smartphone 1. The tilt sensor 19 can acquire the gravitational acceleration of the smartphone 1 as orientation information. For example, the smartphone 1 can be acquired by the tilt sensor 19 as direction information of −9.8 to 9.8 [m / sec 2 ]. For example, 9.8 when the same as the y-axis direction is the direction of gravity of the smartphone 1 shown in Figure 1 [m / sec 2], in the opposite case -9.8 [m / sec 2], the y-axis direction is the direction of gravity The direction information is acquired as 0 [m / sec 2 ] in the case of vertical. In the present embodiment, the inclination sensor 19 can acquire the orientation information more accurately by making the cross section of the measurement object perpendicular to the ground. When the target part is an abdominal part, it is preferable to measure in a lying state.

傾きセンサ19は、検出した傾きを出力する。例えば重力方向に対する傾きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の傾きを反映したコントロールファクタとして処理に利用することが可能となる。   The tilt sensor 19 outputs the detected tilt. For example, when the inclination with respect to the direction of gravity is output as a motion factor, the controller 10 can be used for processing as a control factor that reflects the inclination of the smartphone 1.

コントローラ10は、スマートフォン1の向き情報から向きを演算する場合がある。例えば、上述した角速度センサ18は向き情報として角速度を取得する。取得された角速度に基づいて、コントローラ10はスマートフォン1の向きを演算する。例えば、上述した傾きセンサ19は向き情報として重力加速度を取得する。取得された重力加速度に基づいて、コントローラ10はスマートフォン1の重力方向に対する向きを演算する。   The controller 10 may calculate the direction from the direction information of the smartphone 1. For example, the angular velocity sensor 18 described above acquires the angular velocity as the orientation information. Based on the acquired angular velocity, the controller 10 calculates the orientation of the smartphone 1. For example, the tilt sensor 19 described above acquires the gravitational acceleration as the orientation information. Based on the acquired gravitational acceleration, the controller 10 calculates the orientation of the smartphone 1 with respect to the gravitational direction.

第1のセンサ部は、上述したモーションセンサを組み合わせて利用することが可能である。複数のモーションセンサからの向き情報を組み合わせて処理することによって、自機であるスマートフォン1の向きを、コントローラ10はより正確に演算することが可能となる。   The first sensor unit can be used in combination with the motion sensor described above. By processing the direction information from a plurality of motion sensors in combination, the controller 10 can more accurately calculate the direction of the smartphone 1 as its own device.

本実施形態では、自機の移動情報を得るためのデバイス部は第2のセンサ部である。第2のセンサ部は自機であるスマートフォン1の移動情報を得る。スマートフォン1の移動情報とは、第2のセンサ部から出力される情報である。スマートフォン1の移動情報とは、スマートフォン1の移動量に関する情報である。スマートフォン1の移動情報には、例えば加速度、速度、移動量が含まれる。   In the present embodiment, the device unit for obtaining the movement information of the own device is the second sensor unit. A 2nd sensor part acquires the movement information of the smart phone 1 which is an own machine. The movement information of the smartphone 1 is information output from the second sensor unit. The movement information of the smartphone 1 is information regarding the movement amount of the smartphone 1. The movement information of the smartphone 1 includes, for example, acceleration, speed, and movement amount.

スマートフォン1の移動量とは、本実施形態では、スマートフォン1のハウジング20の基準位置の移動量である。ハウジング20の基準位置は、第2のセンサ部で検出できる位置であればどこでもよく、例えばサイドフェイス1C1の面を基準位置とする。   In this embodiment, the movement amount of the smartphone 1 is the movement amount of the reference position of the housing 20 of the smartphone 1. The reference position of the housing 20 may be any position that can be detected by the second sensor unit. For example, the surface of the side face 1C1 is set as the reference position.

本実施形態では、第2のセンサ部に加速度センサ16を用いる。加速度センサ16はスマートフォン1に働く加速度を検出するセンサである。加速度センサ16は、スマートフォン1の加速度を移動情報として取得することができる。コントローラ10は、取得された加速度を2回時間積分することにより、スマートフォン1の移動量を演算する。   In the present embodiment, the acceleration sensor 16 is used for the second sensor unit. The acceleration sensor 16 is a sensor that detects acceleration acting on the smartphone 1. The acceleration sensor 16 can acquire the acceleration of the smartphone 1 as movement information. The controller 10 calculates the movement amount of the smartphone 1 by time-integrating the acquired acceleration twice.

加速度センサ16は、検出した加速度を出力する。例えば加速度の方向が出力されると、コントローラ10は、スマートフォン1の動いている方向を反映したコントロールファクタとして処理に利用することが可能となる。例えば加速度の大きさが出力されると、コントローラ10は、スマートフォン1の動いている速度、移動量を反映したコントロールファクタとして処理に利用することが可能となる。   The acceleration sensor 16 outputs the detected acceleration. For example, when the direction of acceleration is output, the controller 10 can be used for processing as a control factor that reflects the direction in which the smartphone 1 is moving. For example, when the magnitude of acceleration is output, the controller 10 can be used for processing as a control factor that reflects the speed and amount of movement of the smartphone 1.

コントローラ10は、対象部の断面の輪郭を演算する。対象部の断面の輪郭は、第1のセンサ部、第2のセンサ部で取得された向き情報、移動情報に基づいて演算される。コントローラ10は演算の過程で向き、移動量を演算する場合がある。   The controller 10 calculates the contour of the cross section of the target portion. The contour of the cross section of the target part is calculated based on the orientation information and the movement information acquired by the first sensor part and the second sensor part. The controller 10 may calculate the amount of movement and direction in the course of calculation.

上述した各モーションセンサ15は、それぞれ3つの軸方向におけるモーションファクタの検出が可能なセンサを採用している。本実施形態のモーションセンサ15が検出する3つの軸方向は、互いに略直交している。図1〜3に示したx方向、y方向、z方向は、モーションセンサ15の3つの軸方向と対応している。3つの軸の方向は互いに直交していなくてもよい。3方向が互いに直交していないモーションセンサ15では、演算によって直交する3方向におけるモーションファクタを算出可能である。各モーションセンサ15は、基準とする方向が異なっていてもよい。本実施形態においては、各モーションセンサは必ずしも3軸でなくてもよい。コントローラ10は、1軸方向における向き情報及び1軸方向における移動情報で、断面の輪郭の演算が可能である。   Each motion sensor 15 described above employs a sensor capable of detecting motion factors in three axial directions. The three axial directions detected by the motion sensor 15 of the present embodiment are substantially orthogonal to each other. The x direction, the y direction, and the z direction shown in FIGS. The directions of the three axes do not have to be orthogonal to each other. In the motion sensor 15 in which the three directions are not orthogonal to each other, the motion factor in the three directions orthogonal to each other can be calculated by calculation. Each motion sensor 15 may have a different reference direction. In the present embodiment, each motion sensor does not necessarily have three axes. The controller 10 can calculate the contour of the cross section with the orientation information in one axis direction and the movement information in one axis direction.

第1のセンサ部、第2のセンサ部は、上述したモーションセンサ15のいずれかを用いるか、あるいは他のモーションセンサを用いてもよい。   The first sensor unit and the second sensor unit may use any of the motion sensors 15 described above, or other motion sensors.

図4においてストレージ9が記憶することとしたプログラムの一部または全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。また、図4においてストレージ9が記憶することとしたプログラムの一部または全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。また、図4においてストレージ9が記憶することとしたプログラムの一部または全部は、コネクタ14に接続される読み取り装置が読み取り可能なフラッシュメモリ、HDD(Hard Disc Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)、またはBD(Blu-ray(登録商標) Disc)などの記憶媒体に記憶されていてもよい。   4 may be downloaded from another device through wireless communication by the communication unit 6. 4 may be stored in a storage medium that can be read by a reading device included in the storage 9. Also, some or all of the programs that the storage 9 stores in FIG. 4 are a flash memory, HDD (Hard Disc Drive), CD (Compact Disc), DVD that can be read by a reader connected to the connector 14. (Digital Versatile Disc) or BD (Blu-ray (registered trademark) Disc) or other storage media.

図1〜図4に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図1の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列またはQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。照度センサ4と近接センサ5とは、1つのセンサから構成されていてもよい。図4に示した例では、自機であるスマートフォン1の向き情報及び移動情報を取得するために、4種類のセンサを備えることとしたが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよいし、他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 shown in FIGS. 1 to 4 is an example, and may be changed as appropriate within a range that does not impair the gist of the present invention. For example, the number and type of buttons 3 are not limited to the example of FIG. For example, the smartphone 1 may include buttons such as a numeric keypad arrangement or a QWERTY arrangement as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 4, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. The illuminance sensor 4 and the proximity sensor 5 may be composed of one sensor. In the example illustrated in FIG. 4, four types of sensors are provided in order to acquire orientation information and movement information of the smartphone 1 that is the own device, but the smartphone 1 does not include some of these sensors. Alternatively, other types of sensors may be provided.

次に、図5、図6を用いて、実施形態に係るスマートフォン1による腹部断面の輪郭の測定について説明する。   Next, measurement of the contour of the abdominal cross section by the smartphone 1 according to the embodiment will be described with reference to FIGS. 5 and 6.

図5は実施形態に係る腹部断面の輪郭の測定の様子を示す模式図である。   FIG. 5 is a schematic diagram showing a state of measurement of the contour of the abdominal section according to the embodiment.

図6は実施形態に係る腹部断面の輪郭の測定フロー図である。   FIG. 6 is a measurement flowchart of the contour of the abdominal section according to the embodiment.

ステップS101で、利用者は断面の輪郭測定の測定アプリケーション9Zを起動させる。次に、ステップS102で測定を開始する。測定開始時、スマートフォン1は、断面の輪郭を測定する腹部のいずれかの位置に、腹部60の表面に対して当てられる。本実施形態では、利用者のへその高さ(図5のA−Aで図示した位置)における断面の輪郭の測定を示す。断面の輪郭の測定に支障がない範囲で、スマートフォン1は、腹部60の表面へ接触させてもよいし、腹部60の表面へ着衣を介して当ててもよい。測定開始位置は腹部A−A位置のどこから開始してもよく、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。あらかじめ設定された開始アクションは、スマートフォン1のいずれかのボタン3を押すことでもよいし、タッチスクリーン2B上の特定の位置をタップするなどでもよい。スマートフォン1の腹部の表面へ当てられる対向面は、フロントフェイス1A、バックフェイス1B、サイドフェイス1C1〜1C4のどの面でもよいが、操作性を考慮し、本実施形態ではバックフェイス1Bを対向面とした。   In step S101, the user activates the measurement application 9Z for measuring the contour of the cross section. Next, measurement starts in step S102. At the start of measurement, the smartphone 1 is placed against the surface of the abdomen 60 at any position on the abdomen where the profile of the cross section is measured. In this embodiment, the measurement of the profile of the cross section at the height of the user's navel (position shown by AA in FIG. 5) is shown. The smartphone 1 may be brought into contact with the surface of the abdomen 60 or may be applied to the surface of the abdomen 60 via clothing as long as the measurement of the cross-sectional contour is not hindered. The measurement start position may be started from any position of the abdomen AA position, and a start action set in advance on the smartphone 1 is performed to start measurement. The preset start action may be by pressing any button 3 of the smartphone 1 or by tapping a specific position on the touch screen 2B. The facing surface applied to the surface of the abdomen of the smartphone 1 may be any surface of the front face 1A, the back face 1B, and the side faces 1C1 to 1C4. However, in consideration of operability, the back face 1B is defined as the facing surface in this embodiment. did.

ステップS103で、利用者は腹部60のA−A位置の表面に沿ってスマートフォン1を移動させ、腹部60を一周させる。ここで、スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させると、各情報の取得間隔が一定となり、輪郭測定の精度を高めることができる。   In step S <b> 103, the user moves the smartphone 1 along the surface of the abdomen 60 at the AA position, and makes the abdomen 60 go around. Here, if the movement of the smartphone 1 is applied to the surface of the abdomen 60 and is moved at a constant speed, the acquisition interval of each information becomes constant, and the accuracy of contour measurement can be improved.

ステップS103では、あらかじめプログラムされた条件で、方位センサ17により向き情報を取得し、加速度センサ16により移動情報を取得する。向き情報と移動情報とは複数回取得される。向き情報と移動情報は、タイマー11から出力されたクロック信号に従って取得される。各情報の取得周期は測定対象部の断面の大きさや複雑さによって、適宜選択される。情報の取得周期は、例えばサンプリング周波数5〜60Hz(ヘルツ)の中から適宜選択される。取得された向き情報と移動情報の情報は、スマートフォン1の内部に一時的に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。   In step S103, direction information is acquired by the azimuth sensor 17 and movement information is acquired by the acceleration sensor 16 under preprogrammed conditions. The direction information and the movement information are acquired a plurality of times. The direction information and the movement information are acquired according to the clock signal output from the timer 11. The acquisition period of each information is appropriately selected according to the size and complexity of the cross section of the measurement target portion. The information acquisition cycle is appropriately selected from, for example, a sampling frequency of 5 to 60 Hz (Hertz). The acquired orientation information and movement information are temporarily stored in the smartphone 1. This measurement is continuously executed from the start of step S102 to the end of step S104.

利用者は、スマートフォン1を腹部60の表面に対して当てたまま一周させたところで、スマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了する(ステップS104)。あらかじめ設定された終了アクションは、スマートフォン1のいずれかのボタン3を押すことでもよいし、タッチスクリーン2B上の特定の位置をタップすることでもよい。あるいは、スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報と一致した場合、または測定開始時の向き情報から360度変化した場合を一周と自動認識し、スマートフォン1が測定を終了させてもよい。自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。   When the user makes a round while putting the smartphone 1 against the surface of the abdomen 60, the user performs an end action set in advance on the smartphone 1 and ends the measurement (step S104). The preset end action may be by pressing any button 3 of the smartphone 1 or by tapping a specific position on the touch screen 2B. Alternatively, when the orientation information acquired by the orientation sensor 17 of the smartphone 1 coincides with the orientation information at the start of measurement, or when the orientation information changes 360 degrees from the orientation information at the start of measurement, the smartphone 1 automatically recognizes as one round. The measurement may be terminated. In the case of automatic recognition, the user does not need to perform an end action, and the measurement is further simplified.

スマートフォン1は、ステップS103にて得られた向き情報と移動情報とを、ステップS105において演算する。この演算はコントローラ10によって行われる。コントローラ10は、利用者の腹部の断面の輪郭及び腹囲を演算する。ステップS105における演算については後に詳述する。   The smartphone 1 calculates the orientation information and movement information obtained in step S103 in step S105. This calculation is performed by the controller 10. The controller 10 calculates the outline and abdominal circumference of the cross section of the user's abdomen. The calculation in step S105 will be described in detail later.

スマートフォン1は、ステップS105にて演算した結果を、ステップS106において出力する。演算した結果の出力は、例えばディスプレイ2Bへの表示、サーバへの送信など種々の方法が挙げられる。スマートフォン1は、腹部の断面の輪郭及び腹囲の演算結果の出力が終了すると、フローを終了する。   The smartphone 1 outputs the result calculated in step S105 in step S106. As the output of the calculated result, there are various methods such as display on the display 2B and transmission to the server. The smartphone 1 ends the flow when the output of the calculation result of the contour of the abdominal section and the abdominal circumference is completed.

本実施形態では、スマートフォン1はバックフェイス1Bを腹部に当て、y軸方向に移動する。このような場合、方位センサ17は、スマートフォン1のy軸方向の向きを測定できる1軸のセンサであればよい。加速度センサ16は、y軸方向の移動量が測定できる1軸のセンサであればよい。   In the present embodiment, the smartphone 1 moves in the y-axis direction with the back face 1B placed on the abdomen. In such a case, the orientation sensor 17 may be a single-axis sensor that can measure the orientation of the smartphone 1 in the y-axis direction. The acceleration sensor 16 may be a uniaxial sensor that can measure the amount of movement in the y-axis direction.

次に図7〜図9を用いて断面の輪郭の演算方法について、スマートフォン1を例に挙げて説明する。   Next, the calculation method of the outline of a cross section will be described using the smartphone 1 as an example with reference to FIGS.

図7は実施形態に係る向きと移動量との一例を示す。   FIG. 7 shows an example of the direction and the movement amount according to the embodiment.

図7(a)(b)の横軸は時間で、測定開始から測定終了までの時間を示す。時間はタイマー11が出力するクロック信号によりカウントされる。腹部の1周をTn秒で測定した場合、測定開始は0秒、測定終了はTn秒である。スマートフォン1は、0〜Tn秒の間に、あらかじめ決められた取得周期で向き情報、移動情報を取得する。nはレコード番号を表す整数である。   The horizontal axes in FIGS. 7A and 7B are time, and indicate the time from the start of measurement to the end of measurement. The time is counted by a clock signal output from the timer 11. When one round of the abdomen is measured in Tn seconds, the measurement start is 0 seconds and the measurement end is Tn seconds. The smartphone 1 acquires the direction information and the movement information at a predetermined acquisition period between 0 and Tn seconds. n is an integer representing a record number.

図7(a)は、横軸に時間、縦軸にスマートフォン1の方位を示す。横軸のスマートフォン1の方位は、方位センサ17で取得された向き情報である。第1のセンサ部として方位センサ17を採用する本実施形態では、向き情報をスマートフォン1の方位とする。スマートフォン1の方位は、0〜360度の角度で表わされる。スマートフォン1の方位は、測定の最初の向きから360度の変化した状態で、1周と判定される。本実施形態では、わかりやすくするために、測定の最初の向きを0度と設定したので、1周後の向きは360度となる。   FIG. 7A shows time on the horizontal axis and the orientation of the smartphone 1 on the vertical axis. The orientation of the smartphone 1 on the horizontal axis is the orientation information acquired by the orientation sensor 17. In the present embodiment that employs the orientation sensor 17 as the first sensor unit, the orientation information is the orientation of the smartphone 1. The orientation of the smartphone 1 is represented by an angle of 0 to 360 degrees. The orientation of the smartphone 1 is determined as one turn in a state where the orientation has changed by 360 degrees from the initial measurement direction. In this embodiment, in order to make it easy to understand, the initial direction of measurement is set to 0 degrees, so the direction after one round is 360 degrees.

図7(b)は、横軸に時間、縦軸にスマートフォン1の移動量を示す。縦軸のスマートフォン1の移動量は、加速度センサ16で取得された移動情報に基づいて演算されたものである。本実施形態のスマートフォン1の移動情報は、加速度センサ16で取得された加速度データである。移動量はコントローラ10によって演算されたものであり、加速度データを2回時間積分して演算される。加速度データのノイズが大きい場合は、デジタルフィルタ処理を行ってもよい。デジタルフィルタは、例えばローパスフィルタ、バンドパスフィルタ等がある。測定終了時のスマートフォン1の移動量は、測定対象部の周りの長さに相当し、本実施形態では腹囲である。腹囲は、スマートフォン1内での加速度センサ16の配置を考慮して演算されることが好ましい。すなわち、本実施形態では、腹部60の表面へ当てられる対向面であるバックフェイス1Bと、加速度センサ16との間隔を、あらかじめ考慮し移動量を補正し、正しい腹囲を演算する。   FIG. 7B shows time on the horizontal axis and the amount of movement of the smartphone 1 on the vertical axis. The movement amount of the smartphone 1 on the vertical axis is calculated based on the movement information acquired by the acceleration sensor 16. The movement information of the smartphone 1 according to the present embodiment is acceleration data acquired by the acceleration sensor 16. The amount of movement is calculated by the controller 10 and is calculated by integrating the acceleration data twice over time. If the acceleration data is noisy, digital filter processing may be performed. Examples of the digital filter include a low-pass filter and a band-pass filter. The movement amount of the smartphone 1 at the end of the measurement corresponds to the length around the measurement target portion, and is the abdominal circumference in the present embodiment. The waist circumference is preferably calculated in consideration of the arrangement of the acceleration sensor 16 in the smartphone 1. That is, in the present embodiment, the distance between the back face 1B, which is the facing surface applied to the surface of the abdomen 60, and the acceleration sensor 16 is considered in advance, and the amount of movement is corrected to calculate the correct abdominal circumference.

本実施形態では、方位と移動量が同一時間Tnで測定された場合を示したが、方位と移動量はそれぞれ異なる時間Ta、Tbで測定されてもよい。その場合、図7(a)の横軸はTaで規格化した規格化時間0〜1を用い、図7(b)の横軸はTbで規格化した規格化時間0〜1を用い、互いの横軸の数値をそろえておくことが好ましい。   In the present embodiment, the case where the azimuth and the movement amount are measured at the same time Tn is shown, but the azimuth and the movement amount may be measured at different times Ta and Tb, respectively. In this case, the horizontal axis in FIG. 7A uses the normalized time 0 to 1 normalized with Ta, and the horizontal axis in FIG. 7B uses the normalized time 0 to 1 normalized with Tb. It is preferable to prepare the numerical values on the horizontal axis.

図8は取得された情報から構成されたレコードの一例である。   FIG. 8 is an example of a record composed of acquired information.

測定開始時をレコード番号R0、測定終了時をレコード番号Rnとした。各レコードは、時間に対応する向き情報と移動情報とが1対で格納されている。さらに各レコードは、移動情報に基づいて演算された移動量が格納されている。方位センサを用いた本実施形態では、向き情報はスマートフォン1の向いている方位である。1対で構成された向き情報及び移動情報に基づいて演算された方位及び移動量は、図7(a)(b)の同一時間に取得された情報である。または同一規格化時間に取得された情報である。各レコードの時間間隔は等間隔でなくてもよい。また、1対のレコードは同一時間に取得された情報であることが断面の輪郭の測定の正確性から好ましいが、多少の時間のずれがあってもよい。時間のずれがある場合、コントローラ10は、時間のずれを無視してもよいし、一方のレコードから他方の時間に対応する情報を演算してもよい。   The record start time was designated as record number R0, and the measurement finish time was designated as record number Rn. Each record stores a pair of direction information and movement information corresponding to time. Further, each record stores a movement amount calculated based on the movement information. In this embodiment using an orientation sensor, the orientation information is the orientation that the smartphone 1 is facing. The azimuth | direction and the movement amount computed based on the direction information and movement information comprised by 1 pair are the information acquired at the same time of Fig.7 (a) (b). Or information acquired at the same standardization time. The time interval of each record may not be equal. Moreover, although it is preferable from the accuracy of the measurement of the outline of a cross section that a pair of records is information acquired at the same time, there may be some time lag. When there is a time lag, the controller 10 may ignore the time lag, or may calculate information corresponding to the other time from one record.

図9は演算された断面の輪郭を示す図である。   FIG. 9 is a diagram showing the contour of the calculated cross section.

取得されたレコードR0からレコードRnを、向きと移動量に従って、順にプロットしていくことにより、対象部の断面の輪郭を演算することができる。図中のR0からRnは、レコード番号である。また実線上の点は、各レコードの位置を示す。実際はより多数の点で構成されるが、図を見やすくするために点の一部を省略して図示した。   By plotting the acquired records R0 to Rn in order according to the direction and the moving amount, the contour of the cross section of the target portion can be calculated. In the figure, R0 to Rn are record numbers. A point on the solid line indicates the position of each record. Although it is actually composed of a larger number of points, some of the points are omitted in order to make the figure easier to see.

断面の輪郭の演算は次のように行っていく。まず、R0を任意の点に設定する。次に、R1の位置は、レコードR0とレコードR1の移動量の変化量と、レコードR1の向き情報とから演算される。次に、R2の位置は、レコードR1とレコードR2の移動量の変化量と、レコードR2の向き情報の変化量とから演算される。この演算をRnまで行い、R0の位置から、順にRnの位置までをつなげることで、対象部の断面の輪郭を演算し、表示をする。   The calculation of the profile of the cross section is performed as follows. First, R0 is set to an arbitrary point. Next, the position of R1 is calculated from the change amount of the movement amount of the record R0 and the record R1 and the direction information of the record R1. Next, the position of R2 is calculated from the change amount of the movement amount of the records R1 and R2 and the change amount of the direction information of the record R2. This calculation is performed up to Rn, and from the position of R0 to the position of Rn in order, the contour of the cross section of the target part is calculated and displayed.

図10は演算された断面の輪郭の補正を説明する図である。   FIG. 10 is a diagram for explaining the correction of the calculated cross-sectional contour.

方位センサ及び加速度センサには測定誤差がある。その結果、スマートフォン1の移動がA−A位置からずれてしまうことがあり、図10の点線で示すような断面の輪郭が演算される。この演算結果は、測定開始点R0と測定終了点Rnがずれていて、正確な断面の輪郭が演算できていない。このような場合に、図10の実線で示すように、測定開始点R0と測定終了点Rnとが一致するようにオフセットし、誤差を補正する。さらに、測定開始点R0と測定終了点Rnとの間の各レコードにも、微小なオフセットを加えて補正する。   There are measurement errors in the azimuth sensor and the acceleration sensor. As a result, the movement of the smartphone 1 may deviate from the AA position, and the cross-sectional contour as shown by the dotted line in FIG. 10 is calculated. As a result of the calculation, the measurement start point R0 and the measurement end point Rn are deviated, and an accurate cross-sectional contour cannot be calculated. In such a case, as indicated by the solid line in FIG. 10, the measurement start point R0 and the measurement end point Rn are offset so as to coincide with each other, thereby correcting the error. Further, each record between the measurement start point R0 and the measurement end point Rn is corrected by adding a minute offset.

図11は実施形態に係る実測値による補正を説明する図である。   FIG. 11 is a diagram for explaining correction by actually measured values according to the embodiment.

上述の実施形態では、断面の輪郭を演算するときに、加速度センサ16により取得された移動情報を用いたが、あらかじめ他の手段で測定された対象部の周りの長さの実測値があれば、より正確な断面の輪郭の演算が可能である。図11は横軸に時間、縦軸に移動量を示す。図中点線は、加速度センサ16により取得された移動情報に基づいて演算された移動量である。測定終了時の移動量は、測定対象部の周りの長さに相当し、本実施形態では腹囲となる。この測定終了時の移動量を、あらかじめ巻尺等で測定された腹囲の実測値を等しくなるように補正する。具体的には、図11に示す補正量ΔWをオフセットし、その後オフセットしたΔWにあわせてグラフの傾きを補正する。補正後のデータを実線で示す。この補正後の実線データから構成されたレコードを用いて、コントローラ10は対象部の断面の輪郭を演算する。   In the above-described embodiment, the movement information acquired by the acceleration sensor 16 is used when calculating the contour of the cross section. However, if there is a measured value of the length around the target portion measured in advance by other means, More accurate calculation of the profile of the cross section is possible. In FIG. 11, the horizontal axis represents time, and the vertical axis represents the movement amount. A dotted line in the figure is a movement amount calculated based on movement information acquired by the acceleration sensor 16. The amount of movement at the end of the measurement corresponds to the length around the measurement target portion, and in this embodiment is the abdominal circumference. The amount of movement at the end of the measurement is corrected so that the actual measurement value of the abdominal circumference measured in advance with a tape measure or the like becomes equal. Specifically, the correction amount ΔW shown in FIG. 11 is offset, and then the inclination of the graph is corrected according to the offset ΔW. The corrected data is indicated by a solid line. Using the record composed of the corrected solid line data, the controller 10 calculates the contour of the cross section of the target portion.

次に、演算された断面の輪郭の傾き及び位置の補正について説明する。測定開始時のスマートフォン1の向きを0度と設定すると、演算された断面の輪郭の対称軸は傾いている場合がある。例えば腹部断面の輪郭の場合、傾きを補正して、図9のY軸方向に腹部もしくは背中を正対させて表示したい場合がある。図9の座標軸において、傾きの補正は、断面の輪郭のX軸方向の幅、もしくは断面の輪郭のY軸方向の幅が最小もしくは最大になるように、断面の輪郭を回転させればよい。   Next, correction of the calculated inclination and position of the cross-sectional contour will be described. If the orientation of the smartphone 1 at the start of measurement is set to 0 degrees, the calculated symmetry axis of the cross-sectional contour may be inclined. For example, in the case of the outline of the abdominal section, there is a case where it is desired to correct the inclination and display the abdomen or the back in the Y-axis direction in FIG. In the coordinate axes in FIG. 9, the inclination correction may be performed by rotating the cross-sectional contour so that the cross-sectional contour width in the X-axis direction or the cross-sectional contour width in the Y-axis direction is minimized or maximized.

また、測定開始時のスマートフォン1の位置座標を図9のXY原点とすると、演算された断面の輪郭は中央からずれて表示される。腹部断面の輪郭の場合、この位置ずれ補正して、図9のXY原点と腹部断面の輪郭の中心を一致させて表示したい場合がある。この位置の補正は、断面の輪郭のX軸方向の幅の中心線と、断面の輪郭のY軸方向の幅の中心線とが交わる点を、XY原点に移動させればよい。   Further, if the position coordinates of the smartphone 1 at the start of measurement are the XY origin in FIG. 9, the calculated cross-sectional contour is displayed shifted from the center. In the case of the outline of the abdominal section, there is a case where it is desired to display the XY origin in FIG. This position correction may be performed by moving the point where the center line of the width of the cross-sectional contour in the X-axis direction intersects the center line of the cross-sectional contour of the width in the Y-axis to the XY origin.

以上説明した通り、本実施形態に係る機器においては、スマートフォン1に内蔵されたセンサにより対象部の断面の輪郭の測定ができる。スマートフォン1は、CTなどの測定装置に比べて小型である。スマートフォン1は、短時間に断面の輪郭を測定できる。スマートフォン1は、利用者自身でデータの測定ができるので、測定が簡便である。スマートフォン1は、CTなどでは困難な機器の持ち運びが容易である。スマートフォン1は、利用者自身でデータの蓄積ができるので、日々の変化が容易に確認できる。スマートフォン1は、測定時に放射線被爆の恐れが少ない。   As described above, in the device according to the present embodiment, the cross-sectional contour of the target portion can be measured by the sensor built in the smartphone 1. The smartphone 1 is smaller than a measuring device such as a CT. The smartphone 1 can measure the contour of the cross section in a short time. Since the smartphone 1 can measure data by the user himself / herself, the measurement is simple. The smartphone 1 can easily carry devices that are difficult in CT or the like. Since the smartphone 1 can store data by itself, the daily change can be easily confirmed. The smartphone 1 is less likely to be exposed to radiation during measurement.

図12は実施形態に係る電子巻尺を説明する概略図である。   FIG. 12 is a schematic diagram illustrating an electronic tape measure according to the embodiment.

電子巻尺とは、引き出した分の巻尺の長さを測定し、データを取得する機能を持つもので、加速度センサと同様に、移動情報を取得することができる。スマートフォン1に内蔵させることもできる。   The electronic tape measure has a function of measuring the length of the tape measure that is pulled out and acquiring data, and can acquire movement information in the same manner as the acceleration sensor. It can also be built into the smartphone 1.

電子巻尺71は、ハウジング70を備える。ハウジング70のフロントフェイス71Aにはタッチスクリーンディスプレイ72を備えている。ハウジング70のサイドフェイス71C2には、巻尺73が備えられている。巻尺73には寸法目盛が刻まれている。巻尺73は、通常はハウジング70の内部に巻き込まれている。巻尺73の先端には、ストッパ74が備えられている。測定前、ストッパ74はハウジング70の外部に配置され、ストッパ74のB面とサイドフェイス71C2とは接触している状態である。対象部の寸法を測る場合は、図12の矢印方向にストッパ74を引っ張り、巻尺73をハウジング70から引き出す。その時、サイドフェイス71C2を基準とした巻尺73の引き出し量Xが、タッチスクリーンディスプレイ72にデジタル表示されている。図12に示す実施形態は、X=5.00cmの場合である。   The electronic tape measure 71 includes a housing 70. A touch screen display 72 is provided on the front face 71 </ b> A of the housing 70. A tape measure 73 is provided on the side face 71 </ b> C <b> 2 of the housing 70. A dimension scale is engraved on the tape measure 73. The tape measure 73 is usually wound inside the housing 70. A stopper 74 is provided at the tip of the tape measure 73. Before the measurement, the stopper 74 is disposed outside the housing 70, and the B surface of the stopper 74 and the side face 71C2 are in contact with each other. When measuring the dimensions of the target portion, the stopper 74 is pulled in the direction of the arrow in FIG. At that time, the drawing amount X of the tape measure 73 based on the side face 71C2 is digitally displayed on the touch screen display 72. The embodiment shown in FIG. 12 is for X = 5.00 cm.

本実施形態におけるスマートフォン1の第2のセンサ部に電子巻尺71を用いる場合、測定手順、断面の輪郭の演算は図5〜図9で説明した内容と同様である。電子巻尺を用いた場合、ステップS102の測定開始で、ハウジング70を腹部の表面に当てる。ステップ103で、利用者はストッパ74を測定開始位置に保持したまま、ハウジング70を腹部60のA−A位置の表面に沿って移動させ、腹部60を一周させる。サイドフェイス71C2とストッパ74のB面が一致したとき、測定は終了となる(ステップS104)。   When the electronic tape measure 71 is used for the second sensor unit of the smartphone 1 according to the present embodiment, the measurement procedure and the calculation of the cross-sectional contour are the same as those described with reference to FIGS. When the electronic tape measure is used, the housing 70 is put on the surface of the abdomen at the start of measurement in step S102. In step 103, the user moves the housing 70 along the surface of the abdomen 60 along the AA position while holding the stopper 74 at the measurement start position, and makes the abdomen 60 go around. When the side face 71C2 and the B surface of the stopper 74 coincide with each other, the measurement ends (step S104).

第2のセンサ部に加速度センサを用いた場合は、移動情報として加速度が取得される。第2のセンサ部に電子巻尺を用いた場合は、移動情報として直接移動量を取得することができるため、より精度の高い腹囲の測定が可能となる。   When an acceleration sensor is used for the second sensor unit, acceleration is acquired as movement information. When an electronic tape measure is used for the second sensor unit, the amount of movement can be directly acquired as the movement information, so that measurement of the waist circumference can be performed with higher accuracy.

図13は実施形態に係る演算された腹部断面の輪郭の例である。   FIG. 13 is an example of the calculated contour of the abdominal section according to the embodiment.

図13(a)、図13(b)はほぼ同じ腹囲の被験者のものであるが、図13(a)は筋肉面積が小さい、図13(b)は筋肉面積が大きい被験者のものである。図13(a)は、筋肉面積が小さいことから、滑らかな円形に近い輪郭形状となっている。図13(b)は、筋肉面積が大きいことから、筋肉の発達部が数か所飛び出ているいびつな形となっている。このように、断面の輪郭は、筋肉面積によってその形状に特徴が表れる。   13 (a) and 13 (b) are for a subject with substantially the same abdominal circumference, FIG. 13 (a) is for a subject with a small muscle area, and FIG. 13 (b) is for a subject with a large muscle area. FIG. 13A has a contour shape close to a smooth circle because the muscle area is small. FIG. 13 (b) has an irregular shape with several muscles protruding out of the muscle because the muscle area is large. In this way, the cross-sectional contour is characterized by its shape depending on the muscle area.

演算された腹部断面の輪郭の形状特徴の算出、及び形状特徴に基づいて筋肉面積を推定する方法については、第3の実施形態にて詳述する。   The calculation of the shape feature of the calculated abdominal section contour and the method of estimating the muscle area based on the shape feature will be described in detail in the third embodiment.

(第2の実施形態)
図14は、第2の実施形態に係るスマートフォン1の構成を示すブロック図である。
(Second Embodiment)
FIG. 14 is a block diagram illustrating a configuration of the smartphone 1 according to the second embodiment.

本実施形態では、タイマー11及び制御部10Aはコントローラ10に含まれている。タイマー11は、スマートフォン1の移動情報を得るためのデバイス部である。タイマー11は制御部10Aからタイマー動作の指示を受け、クロック信号を出力する。方位センサ17は、タイマー11から出力されるクロック信号に従って、向き情報を複数回取得する。クロック信号に従って取得された向き情報は、クロック情報とともに、スマートフォン1の内部に一時的に記憶される。ここでクロック情報とは、向き情報が取得された時間を示す情報である。一定周期のクロック信号を用いた場合、クロック情報は取得順を示すレコード番号でもよい。クロック情報は向き情報を取得した時間でもよい。本実施形態ではタイマー11はコントローラ10に含まれており、コントローラ10の機能部であるタイマー回路をタイマー11として用いることができる。また、本発明はこれに限ることなく、前述した図4に記載した通り、タイマー11はコントローラ10の外部に備えられていてもよい。   In the present embodiment, the timer 11 and the control unit 10A are included in the controller 10. The timer 11 is a device unit for obtaining movement information of the smartphone 1. The timer 11 receives a timer operation instruction from the control unit 10A and outputs a clock signal. The direction sensor 17 acquires the orientation information a plurality of times according to the clock signal output from the timer 11. The orientation information acquired according to the clock signal is temporarily stored inside the smartphone 1 together with the clock information. Here, the clock information is information indicating the time when the direction information is acquired. When a clock signal with a fixed period is used, the clock information may be a record number indicating the acquisition order. The clock information may be the time when the orientation information is acquired. In the present embodiment, the timer 11 is included in the controller 10, and a timer circuit that is a functional unit of the controller 10 can be used as the timer 11. The present invention is not limited to this, and the timer 11 may be provided outside the controller 10 as described in FIG. 4 described above.

制御部10Aはクロック情報からスマートフォン1の移動情報を推定する。スマートフォン1の移動情報とは、スマートフォン1の移動量に関する情報であり、本実施形態では移動量である。制御部10Aは向き情報と、移動情報とに基づいて対象部の断面の輪郭を演算する。以下、第1実施形態と同じ点については説明を省略し、異なる点について説明を行う。   The control unit 10A estimates movement information of the smartphone 1 from the clock information. The movement information of the smartphone 1 is information on the movement amount of the smartphone 1, and is the movement amount in the present embodiment. 10 A of control parts compute the outline of the cross section of an object part based on direction information and movement information. Hereinafter, description of the same points as in the first embodiment will be omitted, and different points will be described.

図15は第2の実施形態に係る腹部断面の輪郭の測定フロー図である。   FIG. 15 is a measurement flowchart of the contour of the abdominal section according to the second embodiment.

ステップS101で、利用者は断面の輪郭測定の測定アプリケーション9Zを起動させる。測定アプリケーション9Zの起動後、利用者はあらかじめ巻尺等で測定された腹囲の実測値をスマートフォン1に入力する(ステップS111)。あるいは、スマートフォン1のストレージ9にあらかじめ記憶された利用者情報から、腹囲の実測値を読み込んできてもよい。また、腹囲の実測値の入力は必ずしも測定開始(ステップS102)前に行う必要はなく、測定終了(ステップS104)後に行ってもよい。   In step S101, the user activates the measurement application 9Z for measuring the contour of the cross section. After starting the measurement application 9Z, the user inputs an actual measurement value of the abdominal circumference previously measured with a tape measure or the like into the smartphone 1 (step S111). Alternatively, an actual measurement value of the abdominal circumference may be read from user information stored in advance in the storage 9 of the smartphone 1. The input of the actual measurement value of the abdominal circumference is not necessarily performed before the start of measurement (step S102), and may be performed after the end of measurement (step S104).

次に、ステップS102で測定を開始する。測定開始時、スマートフォン1は、断面の輪郭を測定する腹部のいずれかの位置に、腹部60の表面に対して当てられる。本実施形態では、利用者のへその高さ(図5のA−Aで図示した位置)における断面の輪郭の測定を示す。測定開始位置は腹部A−A位置のどこから開始してもよく、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。ステップS103で、利用者は腹部60のA−A位置の表面に沿ってスマートフォン1を移動させる。スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させる。利用者が一定速度でスマートフォンを移動することができるように、スマートフォンの移動を補助する補助具を用いてもよい。また、スマートフォン1から一定速度の補助音を出力して動作のガイダンスとしてもよい。   Next, measurement starts in step S102. At the start of measurement, the smartphone 1 is placed against the surface of the abdomen 60 at any position on the abdomen where the profile of the cross section is measured. In this embodiment, the measurement of the profile of the cross section at the height of the user's navel (position shown by AA in FIG. 5) is shown. The measurement start position may be started from any position of the abdomen AA position, and a start action set in advance on the smartphone 1 is performed to start measurement. In step S <b> 103, the user moves the smartphone 1 along the surface of the abdomen 60 at the position AA. The smartphone 1 is moved at a constant speed while being applied to the surface of the abdomen 60. You may use the auxiliary tool which assists the movement of a smart phone so that a user can move a smart phone at a fixed speed. Moreover, it is good also as operation | movement guidance by outputting the auxiliary | assistant sound of the fixed speed from the smart phone 1. FIG.

ステップS103では、スマートフォン1はあらかじめプログラムされた条件で、方位センサ17により向き情報を取得する。向き情報は、タイマー11から出力されたクロック信号に従って複数回取得される。クロック信号に従って取得された向き情報は、クロック情報とともに、スマートフォン1に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。   In step S <b> 103, the smartphone 1 acquires orientation information by the orientation sensor 17 under preprogrammed conditions. The direction information is acquired a plurality of times according to the clock signal output from the timer 11. The orientation information acquired according to the clock signal is stored in the smartphone 1 together with the clock information. This measurement is continuously executed from the start of step S102 to the end of step S104.

利用者は、スマートフォン1を腹部60の表面に対して当てたまま一定速度で一周以上移動させる。その後利用者は、スマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了させる(ステップS104)。あるいは、スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報と一致した場合を一周と認識し、利用者が操作することなく、スマートフォン1は自動で測定を終了させてもよい。スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報から360度変化した場合を一周と認識し、利用者が操作することなく、スマートフォン1は自動で測定を終了させてもよい。自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。   The user moves the smartphone 1 one or more times at a constant speed while keeping the smartphone 1 against the surface of the abdomen 60. Thereafter, the user performs an end action set in advance on the smartphone 1 to end the measurement (step S104). Alternatively, when the orientation information acquired by the orientation sensor 17 of the smartphone 1 matches the orientation information at the start of measurement, the smartphone 1 recognizes this as one round, and the smartphone 1 automatically ends the measurement without any user operation. Also good. When the orientation information acquired by the orientation sensor 17 of the smartphone 1 changes 360 degrees from the orientation information at the start of measurement, the smartphone 1 automatically terminates the measurement without any user operation. Also good. In the case of automatic recognition, the user does not need to perform an end action, and the measurement is further simplified.

ステップS105において、制御部10Aは、利用者の腹囲の実測値とステップS103にて得られたクロック情報により、スマートフォン1の移動情報である移動量を推定する。利用者の腹囲を1周するスマートフォン1の一周移動量は、ステップS111で入力された腹囲の実測値と等しく、かつ、スマートフォン1は一定速度で移動しているとみなされていることから、スマートフォン1の移動情報である移動量を演算することができる。制御部10Aは取得された向き情報と、演算された移動情報に基づいて対象部の断面の輪郭を演算する。   In step S <b> 105, the control unit 10 </ b> A estimates a movement amount that is movement information of the smartphone 1 based on the actually measured value of the user's waist and the clock information obtained in step S <b> 103. The amount of movement of the smartphone 1 that makes one round of the user's abdominal circumference is equal to the actual measurement value of the abdominal circumference input in step S111, and the smartphone 1 is considered to be moving at a constant speed. The amount of movement that is one piece of movement information can be calculated. The control unit 10A calculates the contour of the cross section of the target part based on the acquired orientation information and the calculated movement information.

スマートフォン1は、ステップS105にて演算した結果を、ステップS106において出力する。スマートフォン1は、腹部の断面の輪郭及び腹囲の演算結果の出力が終了すると、フローを終了する。なお、本実施形態のフローにおいて、詳細を記載していない他の動作は図6の記載内容に準じる。   The smartphone 1 outputs the result calculated in step S105 in step S106. The smartphone 1 ends the flow when the output of the calculation result of the contour of the abdominal section and the abdominal circumference is completed. In the flow of the present embodiment, other operations not described in detail conform to the description in FIG.

図16は第2の実施形態に係る取得された情報から構成されたレコードの一例である。   FIG. 16 is an example of a record composed of acquired information according to the second embodiment.

測定開始時をレコード番号R0、測定終了時をレコード番号Rnとした。各レコードは、時間に対応する向き情報と移動情報とが1対で格納されている。移動情報はクロック情報であるレコード番号もしくは時間から推定された移動量である。レコード番号Rnの移動情報は、利用者の腹囲の実測値が格納される。各レコードの時間間隔は等間隔であり、スマートフォン1は一定速度で移動しているとみなされているので、移動情報である各移動量の間隔も等間隔である。このように取得されたレコードは、断面の輪郭を示す図として表される。   The record start time was designated as record number R0, and the measurement finish time was designated as record number Rn. Each record stores a pair of direction information and movement information corresponding to time. The movement information is a movement amount estimated from a record number or time as clock information. The movement information of the record number Rn stores the actual measurement value of the user's abdominal circumference. Since the time interval of each record is equal and the smartphone 1 is regarded as moving at a constant speed, the interval of each movement amount as movement information is also equal. The record acquired in this way is represented as a diagram showing the outline of the cross section.

取得されたレコードR0からレコードRnを、向きと移動量に従って、順にXY座標にプロットしていくことにより、対象部の断面の輪郭を演算することができる。本実施形態では、図9に示す演算された断面の輪郭において、各プロット点が等間隔となる。測定時、スマートフォン1の移動が一定速度の場合、演算された断面の輪郭はY軸にほぼ対称の形状となる。測定時、スマートフォン1の移動が一定速度ではなかった場合、演算された断面の輪郭はY軸に非対称でいびつな形状となる。演算された断面の輪郭の形状の非対称性が大きい場合、一定速度での再測定を促すメッセージをスマートフォン1に表示させてもよい。非対称性の大きさの判定は、図9のY軸で分離された各領域におけるプロット点数の差により判断することができる。例えば、このプロット点数の差が±10%以外の場合は、断面の輪郭の非対称性が大きいと判断する。非対称性の大きさの判定方法は、これに限ることなく、例えば断面の輪郭で囲まれた面積を演算しその面積の大きさを比較する判定方法でもよい。また、判定基準も適宜設定できる。   By plotting the acquired records R0 to Rn sequentially in the XY coordinates according to the direction and the moving amount, the contour of the cross section of the target portion can be calculated. In the present embodiment, the plotted points are equally spaced in the calculated cross-sectional contour shown in FIG. At the time of measurement, when the movement of the smartphone 1 is at a constant speed, the calculated cross-sectional contour is substantially symmetrical with respect to the Y axis. At the time of measurement, if the movement of the smartphone 1 is not at a constant speed, the calculated cross-sectional profile is asymmetric and distorted with respect to the Y axis. When the asymmetry of the shape of the calculated profile of the cross section is large, a message that prompts remeasurement at a constant speed may be displayed on the smartphone 1. The magnitude of the asymmetry can be determined by the difference in the number of plot points in each region separated by the Y axis in FIG. For example, when the difference in the number of plot points is other than ± 10%, it is determined that the asymmetry of the cross-sectional contour is large. The determination method of the magnitude of asymmetry is not limited to this, and for example, a determination method of calculating the area surrounded by the outline of the cross section and comparing the sizes of the areas may be used. In addition, the criterion can be set as appropriate.

以上本実施形態では、自機の移動情報を得るためのデバイス部としてタイマーを用いることにより、第2のセンサ部を用いることなく移動情報を得ることができる。そのため、本実施形態のスマートフォン1は部品点数がさらに削減できる。さらに本実施形態のスマートフォン1は、第2のセンサ部の精度に起因する測定誤差の低減を図ることができる。   As described above, in the present embodiment, the movement information can be obtained without using the second sensor unit by using the timer as the device unit for obtaining the movement information of the own device. Therefore, the smart phone 1 of this embodiment can further reduce the number of parts. Furthermore, the smartphone 1 according to the present embodiment can reduce measurement errors due to the accuracy of the second sensor unit.

演算された腹部断面の輪郭の形状特徴の算出、及び形状特徴に基づいて筋肉面積を推定する方法については、第3の実施形態にて詳述する。   The calculation of the shape feature of the calculated abdominal section contour and the method of estimating the muscle area based on the shape feature will be described in detail in the third embodiment.

(第3の実施形態)
第3の実施形態においては、演算された断面の輪郭の一部から筋肉面積を推定する。さらに推定された筋肉面積に基づいて腹部断面画像をスマートフォン1に表示する。本実施形態のスマートフォン1は、第1の実施形態と同じく図4のブロック図の構成でもよいし、第2の実施形態と同じ図14のブロック図の構成でもよい。以下、第1の実施形態、及び第2の実施形態と同じ部分については説明を省略し、異なる点について説明を行う。
(Third embodiment)
In the third embodiment, the muscle area is estimated from a part of the calculated contour of the cross section. Furthermore, an abdominal cross-sectional image is displayed on the smartphone 1 based on the estimated muscle area. The smartphone 1 of the present embodiment may have the configuration of the block diagram of FIG. 4 as in the first embodiment, or the configuration of the block diagram of FIG. 14 that is the same as the second embodiment. Hereinafter, description of the same parts as those of the first embodiment and the second embodiment will be omitted, and different points will be described.

ストレージ9はあらかじめ作成された筋肉面積の推定式を記憶している。ストレージ9は複数の腹部断面画像を記憶している。これらの腹部断面画像は、筋肉面積と腹囲との組み合わせによって分類されている。制御部10Aは対象部の断面の輪郭の少なくとも一部を演算し、その輪郭の特徴係数を抽出する。制御部10Aはストレージ9に記憶された筋肉面積の推定式を読み出し、抽出された輪郭の特徴係数から筋肉面積を推定する。さらに、制御部10Aは、ストレージ9に記憶されている複数の腹部断面画像の中から1つの画像を抽出し、ディスプレイ2Aに表示させる。   The storage 9 stores a muscle area estimation formula created in advance. The storage 9 stores a plurality of abdominal section images. These abdominal cross-sectional images are classified by combinations of muscle area and abdominal circumference. The control unit 10A calculates at least part of the contour of the cross section of the target part, and extracts a feature coefficient of the contour. The control unit 10A reads the muscle area estimation formula stored in the storage 9, and estimates the muscle area from the extracted feature coefficient of the contour. Further, the control unit 10A extracts one image from a plurality of abdominal cross-sectional images stored in the storage 9, and displays the image on the display 2A.

なお、本実施形態では、スマートフォン1のストレージ9及び制御部10Aを用いて動作する例を示したが、本発明はこれに限らない。ネットワークに接続されたサーバに搭載されたストレージ及び制御部を用いて、上述した動作の一部または全部を行わせてもよい。   In addition, in this embodiment, although the example which operate | moves using the storage 9 and the control part 10A of the smart phone 1 was shown, this invention is not limited to this. Some or all of the operations described above may be performed using a storage and a control unit mounted on a server connected to a network.

本実施形態では、角速度センサ18はスマートフォン1の向き情報を得る。タイマー11はスマートフォン1の移動情報を得るために動作する。本発明はこれに限ることなく、向き情報を得るために方位センサまたは傾きセンサ等を用いてもよい。また移動情報を得るために加速度センサまたは電子巻尺等を用いてもよい。   In the present embodiment, the angular velocity sensor 18 obtains orientation information of the smartphone 1. The timer 11 operates to obtain movement information of the smartphone 1. The present invention is not limited to this, and an orientation sensor, an inclination sensor, or the like may be used to obtain orientation information. An acceleration sensor or an electronic tape measure may be used to obtain movement information.

図17は第3の実施形態に係る腹部断面画像が表示されるまでの処理の流れの一例を示すフロー図である。本実施形態では腹部断面の輪郭の少なくとも一部を演算する一例として、へその位置からほぼ半周部分の輪郭を演算する場合について説明する。   FIG. 17 is a flowchart illustrating an example of a processing flow until an abdominal cross-sectional image according to the third embodiment is displayed. In the present embodiment, as an example of calculating at least a part of the contour of the abdominal section, a case where the contour of a substantially half-circumferential portion is calculated from the position of the navel will be described.

ステップS101で、利用者は断面の輪郭測定の測定アプリケーション9Zを起動させる。測定アプリケーション9Zの起動後、利用者はあらかじめ巻尺等で測定された腹囲の実測値をスマートフォン1に入力する(ステップS111)。あるいは、スマートフォン1のストレージ9にあらかじめ記憶された利用者情報から、腹囲の実測値を読み込んできてもよい。ステップS111は必ずしも測定開始前に行う必要はなく、ステップS104の測定終了後に行ってもよい。この後のステップS103において、加速度センサ16を用いて移動情報を取得する場合は、ステップS111は必ずしも行う必要はない。   In step S101, the user activates the measurement application 9Z for measuring the contour of the cross section. After starting the measurement application 9Z, the user inputs an actual measurement value of the abdominal circumference previously measured with a tape measure or the like into the smartphone 1 (step S111). Alternatively, an actual measurement value of the abdominal circumference may be read from user information stored in advance in the storage 9 of the smartphone 1. Step S111 is not necessarily performed before the start of measurement, and may be performed after the end of the measurement in step S104. In the subsequent step S103, when the movement information is acquired using the acceleration sensor 16, step S111 is not necessarily performed.

次に、ステップS102で測定を開始する。測定開始時、スマートフォン1は、へその位置で、腹部60の表面に対して当てられる。測定開始位置は腹部断面のどの部分の輪郭を演算するかによって適宜選択される。測定開始位置をあらかじめ定めておくと、演算される輪郭の範囲が利用者毎に変わらなくなり、後述する輪郭の特徴係数の誤差を低減できる。本実施形態では、へその位置を測定開始位置とする。例えば、スマートフォン1のサイドフェイス1C1をへその位置に一致させて測定を開始する。利用者は、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。   Next, measurement starts in step S102. At the start of measurement, the smartphone 1 is placed against the surface of the abdomen 60 at the navel position. The measurement start position is appropriately selected depending on which part of the abdominal cross section is to be calculated. If the measurement start position is determined in advance, the range of the contour to be calculated does not change for each user, and an error in the contour feature coefficient described later can be reduced. In this embodiment, the position of the navel is set as the measurement start position. For example, the measurement is started by matching the side face 1C1 of the smartphone 1 with the position of the navel. The user performs a start action set in advance on the smartphone 1 and starts measurement.

ステップS103で、利用者は腹部60のA−A位置の表面に沿ってスマートフォン1を移動させる。スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させる。   In step S <b> 103, the user moves the smartphone 1 along the surface of the abdomen 60 at the position AA. The smartphone 1 is moved at a constant speed while being applied to the surface of the abdomen 60.

ステップS103で、スマートフォン1はあらかじめプログラムされた条件で、角速度センサ18により、向き情報である角速度(度/秒)を取得する。向き情報は、タイマー11から出力されたクロック信号に従って複数回取得される。クロック信号に従って取得された向き情報は、取得の時間情報とともに、スマートフォン1に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。移動情報として、加速度センサ16によって移動量を測定してもよい。加速度センサ16によって取得される移動情報は、第1の実施形態において説明した内容と同様であるので、ここでは省略する。   In step S <b> 103, the smartphone 1 acquires angular velocity (degrees / second), which is orientation information, by the angular velocity sensor 18 under preprogrammed conditions. The direction information is acquired a plurality of times according to the clock signal output from the timer 11. The orientation information acquired according to the clock signal is stored in the smartphone 1 together with the acquisition time information. This measurement is continuously executed from the start of step S102 to the end of step S104. As the movement information, the movement amount may be measured by the acceleration sensor 16. Since the movement information acquired by the acceleration sensor 16 is the same as the content described in the first embodiment, it is omitted here.

利用者は、スマートフォン1を腹部60の表面に対して当てたまま一定速度で半周以上移動させる。本実施形態で半周とは、へそから背中の中心までである。移動が半周に足りないと輪郭の演算が不十分となり、後述する輪郭の特徴係数に誤差が生じる場合がある。従って、スマートフォン1は利用者に半周を報知する手段を有することが好ましい。   The user moves the smartphone 1 at least a half turn at a constant speed while keeping the smartphone 1 against the surface of the abdomen 60. In this embodiment, the half circumference is from the navel to the center of the back. If the movement is less than half a circle, the contour calculation becomes insufficient, and an error may occur in the contour feature coefficient described later. Therefore, it is preferable that the smartphone 1 has a means for notifying the user of the half circumference.

スマートフォン1を半周以上移動させたら、利用者はスマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了させる(ステップS104)。あるいは、後述するステップS115が同時に実行されている場合は、スマートフォン1の向きが、測定開始から180度変化した場合をほぼ半周と認識し、自動で測定を終了させてもよい。このような自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。   When the smartphone 1 is moved more than half a circle, the user performs an end action set in advance on the smartphone 1 to end the measurement (step S104). Or when step S115 mentioned later is performed simultaneously, the case where the direction of the smart phone 1 changed 180 degree | times from the measurement start may be recognized as a half circle, and a measurement may be complete | finished automatically. In such automatic recognition, the user does not need to perform an end action, and the measurement is further simplified.

測定終了後または測定中に、制御部10Aは腹部断面の輪郭の半周部分を演算する(ステップS115)。制御部10Aは、ステップS103にて取得された角速度を1回積分することにより、スマートフォン1の向きを演算する。   After the measurement is completed or during the measurement, the control unit 10A calculates a half circumference portion of the contour of the abdominal section (step S115). The controller 10A calculates the orientation of the smartphone 1 by integrating the angular velocity acquired in step S103 once.

図18は第3の実施形態に係るスマートフォン1の向きの一例を示す。図を用いて、取得された向き情報から、半周部分の情報を抽出する方法について説明する。横軸は時間を示し、測定開始時間は0秒、測定終了時間はT(n’)秒である。n’は取得された最後のレコード番号を表す整数である。ここでn/2は半周分のレコード番号を示す整数である。縦軸はスマートフォン1の向きを示す。図中の実線は取得された情報であり、点線は取得されていない1周分の情報の仮想線である。図中曲線における向きが180度近傍の平坦部は、背中部分の情報と推定され、この平坦部の中点で背中の中心を通過したと判定し、半周を検出する。つまり、図中の0秒からT(n/2)秒を半周部分の情報として抽出する。この半周部分の情報の抽出方法は一例である。例えば、平坦部が180度からずれた位置にある場合は、平坦部を180度とする正規化を行ってもよい。また、平坦部から向きが−180度ずれた位置の情報を開始点とする正規化を行ってもよい。また、平坦部の中点ではなく、向きが180度の近傍で最も曲線の傾きが小さい位置の情報を背中の中心と判定してもよい。   FIG. 18 shows an example of the orientation of the smartphone 1 according to the third embodiment. A method for extracting information of the half-circle portion from the acquired orientation information will be described with reference to the drawings. The horizontal axis represents time, the measurement start time is 0 seconds, and the measurement end time is T (n ′) seconds. n 'is an integer representing the last record number acquired. Here, n / 2 is an integer indicating a record number for half a circle. The vertical axis indicates the orientation of the smartphone 1. The solid line in the figure is acquired information, and the dotted line is a virtual line of information for one round that is not acquired. The flat portion whose direction in the curve in the figure is near 180 degrees is estimated as information on the back portion, and it is determined that the center of the back has passed through the midpoint of this flat portion, and a half circumference is detected. That is, T (n / 2) seconds from 0 seconds in the figure are extracted as half-circle information. This method of extracting information of the half-circle portion is an example. For example, when the flat portion is at a position deviated from 180 degrees, normalization may be performed so that the flat portion is 180 degrees. In addition, normalization may be performed using information on a position whose orientation is shifted by −180 degrees from the flat portion as a starting point. Further, instead of the midpoint of the flat portion, information on a position where the inclination of the curve is the smallest in the vicinity of 180 degrees may be determined as the center of the back.

図19は第3の実施形態に係る取得及び正規化された情報から構成されたレコードの一例である。抽出された輪郭の半周部分の開始点(本実施形態ではへその位置)をレコード番号R0、半周部分(本実施形態では背中の中央部で、向きが180度のレコード)をレコードR(n/2)、取得された最後の情報をレコードR(n’)とした。各レコードは向き情報と移動情報とが一対で格納されている。移動情報は、クロック情報であるレコード番号(あるいは時間)から推定された移動量である。本実施形態では向き0〜180度のレコードを半周部分の情報として抽出する。レコード番号R(n/2)の移動情報は、利用者の腹囲の実測値の半分の値が格納される。各レコードの時間間隔は等間隔であり、スマートフォン1は一定速度で移動しているとみなされているので、移動情報である各移動量の間隔も等間隔である。このように取得されたレコードは、断面の輪郭の半周部分を示す図として表される。取得されたレコードR0からレコードR(n/2)を、向きと移動量に従って、順にXY座標にプロットしていくことにより、対象部の断面の輪郭の半周部分を演算することができる。なお、ステップS115はステップS103と並行して実行してもよい。   FIG. 19 is an example of a record composed of acquired and normalized information according to the third embodiment. The starting point (the position of the navel in the present embodiment) of the extracted half-circumferential portion is the record number R0, and the half-circular portion (the central record of the back in the present embodiment, the orientation is 180 degrees) 2) The last information acquired is defined as a record R (n ′). Each record stores a pair of orientation information and movement information. The movement information is a movement amount estimated from a record number (or time) that is clock information. In the present embodiment, a record having a direction of 0 to 180 degrees is extracted as information on a half circumference portion. As the movement information of the record number R (n / 2), a value half of the actual measurement value of the user's abdominal circumference is stored. Since the time interval of each record is equal and the smartphone 1 is regarded as moving at a constant speed, the interval of each movement amount as movement information is also equal. The record acquired in this way is represented as a diagram showing a half-circle portion of the cross-sectional outline. By plotting the acquired records R0 to R (n / 2) in order on the XY coordinates in accordance with the direction and the moving amount, it is possible to calculate the half circumference portion of the contour of the cross section of the target portion. Note that step S115 may be executed in parallel with step S103.

スマートフォン1は、ステップS115で演算した結果を、ステップS116において補正する。この補正は、次のステップS117で実行される輪郭の特徴係数抽出の前処理である。輪郭の特徴係数は、任意のXY座標系上での輪郭の向き及び輪郭の位置等によって値が変化する。本実施形態では、輪郭の向きとは後述する対称軸の向きであり、輪郭の位置とは後述する中心点の位置である。輪郭の向き補正、輪郭の位置補正等を行うことにより、測定条件によって発生する輪郭の特徴係数のばらつきを小さくすることができる。輪郭の向き補正と輪郭の位置補正は、演算された断面の輪郭の半周部分を、開始点(本実施形態ではへその位置)と終了点(本実施形態では背中の中心)を結ぶ線を対称軸として折り返した反転閉曲線に基づいて行うと補正が容易である。輪郭の向き補正は、反転閉曲線の対称軸(へそと背中の中心を結んだ線)が所定の方向を向くように反転閉曲線を回転させる。輪郭の位置補正は、反転閉曲線の中心点が座標系の原点に来るように反転閉曲線を移動させる。向き及び位置の補正は、従来周知の手法により行うことができる。   The smartphone 1 corrects the result calculated in step S115 in step S116. This correction is a pre-processing for extracting the feature coefficient of the contour executed in the next step S117. The value of the contour feature coefficient varies depending on the orientation of the contour and the position of the contour on an arbitrary XY coordinate system. In the present embodiment, the direction of the contour is the direction of the symmetry axis described later, and the position of the contour is the position of the center point described later. By performing the contour direction correction, the contour position correction, and the like, it is possible to reduce the variation in the contour feature coefficient caused by the measurement conditions. The contour direction correction and the contour position correction are performed by symmetrically calculating a line that connects the start point (the position of the navel in the present embodiment) and the end point (the center of the back in the present embodiment) with respect to the half circumference of the calculated contour of the cross section. Correction is easy if it is performed based on an inverted closed curve that is turned back as an axis. In the contour direction correction, the inverted closed curve is rotated so that the axis of symmetry of the inverted closed curve (line connecting the center of the navel and the back) faces a predetermined direction. In the contour position correction, the reverse closed curve is moved so that the center point of the reverse closed curve comes to the origin of the coordinate system. The direction and position can be corrected by a conventionally known method.

図20は第3の実施形態に係る演算及び補正された断面の輪郭を示す図である。図中実線は演算された断面の輪郭の半周部分であり、図中点線は演算された断面の輪郭の半周部分を対称軸で反転させた仮想曲線である。黒点は取得されたレコードをXY座標にプロットした点である。   FIG. 20 is a diagram showing a contour of a cross section calculated and corrected according to the third embodiment. The solid line in the figure is a half-circular portion of the calculated cross-sectional contour, and the dotted line in the figure is a virtual curve obtained by inverting the half-circular portion of the calculated cross-sectional contour with a symmetry axis. A black point is a point obtained by plotting the acquired record on the XY coordinates.

スマートフォン1はステップS116の補正の後に、断面の輪郭の特徴係数を抽出する(ステップS117)。本実施形態では、輪郭の特徴を抽出する方法は、フーリエ解析を用いる。断面の輪郭の半周部分の曲線、または反転閉曲線をフーリエ解析することで、フーリエ係数を求めることができる。周知のように、曲線をフーリエ解析したときに求められる各次数のフーリエ係数は曲線の特徴を示す係数として用いられる。何次のフーリエ係数を特徴係数とするかは、後に詳述する各推定式の作成の際に決められており、本実施形態では筋肉面積に影響するフーリエ係数Sa、Sa、Sa、Saを輪郭の特徴係数として抽出する。各推定式を作成の際に、推定式の独立変数を主成分とした場合は、主成分を特徴係数として抽出してもよい。 The smartphone 1 extracts the feature coefficient of the cross-sectional contour after the correction in step S116 (step S117). In this embodiment, the method for extracting contour features uses Fourier analysis. A Fourier coefficient can be obtained by performing a Fourier analysis on the curve of the half-circumferential portion of the profile of the cross section or the inverted closed curve. As is well known, Fourier coefficients of respective orders obtained when a curve is Fourier-analyzed are used as coefficients indicating the characteristics of the curve. The order of Fourier coefficients to be used as feature coefficients is determined at the time of creating each estimation formula described in detail later. In this embodiment, Fourier coefficients Sa 1 , Sa 2 , Sa 3 , which affect the muscle area, are determined. extracting the sa 4 as characteristic coefficient of the contour. When creating each estimation formula, if the independent variable of the estimation formula is the main component, the main component may be extracted as a feature coefficient.

スマートフォン1はあらかじめ求められた筋肉面積推定式に、ステップS117で抽出した特徴係数Sa〜Saを代入して、利用者の筋肉面積Aを推定する(ステップS118)。筋肉面積推定式の一例を数式1に示す。 The smartphone 1 estimates the muscle area A of the user by substituting the characteristic coefficients Sa 1 to Sa 4 extracted in step S117 into the muscle area estimation formula obtained in advance (step S118). An example of the muscle area estimation formula is shown in Formula 1.

Figure 2017012875
Figure 2017012875

筋肉面積推定式の作成方法については後に詳述する。   The method for creating the muscle area estimation formula will be described in detail later.

次にスマートフォン1はステップS118で推定された筋肉面積Aに基づいて、利用者の腹部断面に最も近い画像を選択する(ステップS119)。   Next, the smartphone 1 selects an image closest to the user's abdominal section based on the muscle area A estimated in step S118 (step S119).

図21は第3の実施形態に係る腹部断面画像の分類表の一例を示す。分類表は男性用であり、スマートフォン1はあらかじめ図21に示す分類表を記憶している。本実施形態では、スマートフォン1には、筋肉面積と腹囲とが異なる25種類の画像(P11〜P55)が記憶されている。25種類の画像は、CTの画像でもよいし、これらの画像を模式化した絵でもよいし、マークでもよい。この25種類の画像から、利用者の推定された筋肉面積Aと腹囲に対応する1枚の画像が選択される。   FIG. 21 shows an example of an abdominal cross-sectional image classification table according to the third embodiment. The classification table is for men, and the smartphone 1 stores the classification table shown in FIG. 21 in advance. In the present embodiment, the smartphone 1 stores 25 types of images (P11 to P55) having different muscle areas and abdominal circumferences. The 25 types of images may be CT images, pictures schematically representing these images, or marks. One image corresponding to the estimated muscle area A and abdominal circumference of the user is selected from the 25 types of images.

選択された画像は、スマートフォン1のディスプレイ2Aに表示される(ステップS110)。   The selected image is displayed on the display 2A of the smartphone 1 (step S110).

本発明の第3の実施形態によれば、すべてのステップをスマートフォン1で実行する形態について説明したが、本発明はこれに限定されるものではなく、ネットワークで接続されたサーバ等で各ステップの少なくとも一部を実行してもよい。例えば、測定ステップS102〜S104と表示ステップS110はスマートフォン1で実行し、その他のステップはネットワークで接続されたサーバで実行してもよい。複雑な演算をサーバで実行させることにより、スタートからエンドまでの処理スピードを向上させることができる。   According to the third embodiment of the present invention, the form in which all the steps are executed by the smartphone 1 has been described. However, the present invention is not limited to this, and each step is performed by a server or the like connected via a network. At least a part may be executed. For example, the measurement steps S102 to S104 and the display step S110 may be executed by the smartphone 1, and the other steps may be executed by a server connected via a network. By executing complicated operations on the server, the processing speed from the start to the end can be improved.

また、本発明の第3の実施形態によれば、画像を表示するので、腹部CTを測定することなく利用者の筋肉の蓄積状態をわかりやすく伝えることができる。腹部CTの画像を表示した場合は、推定される利用者の腹部断面形状がよりリアルに視覚化でき、例えばトレーニングの指導に有効である。また、画像の表示と共に筋肉面積の数字を表示すれば、具体的に筋肉の蓄積状態を利用者に知らせることができる。また、利用者本人が日常的に測定することができるので、トレーニングの効果の認識に有効である。   Further, according to the third embodiment of the present invention, since an image is displayed, it is possible to easily convey the accumulation state of the user's muscle without measuring the abdominal CT. When an image of the abdominal CT is displayed, the estimated abdominal cross-sectional shape of the user can be visualized more realistically, which is effective for training training, for example. Further, if the number of muscle area is displayed together with the display of the image, the user can be specifically informed of the muscle accumulation state. In addition, since the user himself / herself can make daily measurements, it is effective for recognizing the effect of training.

図22は、第3の実施形態に係る筋肉面積推定式の作成フロー図である。図22を用いて、筋肉面積推定式を作成する手順について説明する。なお、これら推定式の作成は、スマートフォン1で行う必要はなく、事前に別のコンピュータ等を用いて計算してもよい。作成された推定式は、あらかじめアプリケーションに組み込まれているため、利用者は直接推定式を作成、変更しなくてもよい。   FIG. 22 is a flowchart for creating a muscle area estimation formula according to the third embodiment. The procedure for creating the muscle area estimation formula will be described with reference to FIG. The estimation formulas need not be created by the smartphone 1 and may be calculated in advance using another computer or the like. Since the created estimation formula is incorporated in the application in advance, the user need not directly create or change the estimation formula.

ステップS121で、作成者は推定式の作成を実行する。ステップS122で、推定式の作成者は事前に取得された所定の人数分のサンプルデータをコンピュータに入力する。サンプルデータは所定の人数のサンプル被験者から取得されたデータである。一人の被験者のサンプルデータは、CTで得た筋肉面積、巻尺等で測定された腹囲、スマートフォン1で取得された向き情報、移動情報から少なくとも構成される。所定の人数とは、統計的に十分な人数であればよい。被験者は、例えば性別、人種、年齢層等の条件を一定にすると、より推定の精度が向上する。   In step S121, the creator creates an estimation formula. In step S122, the creator of the estimation formula inputs sample data for a predetermined number of people acquired in advance to the computer. Sample data is data obtained from a predetermined number of sample subjects. Sample data of one subject includes at least a muscle area obtained by CT, an abdominal circumference measured with a tape measure, orientation information obtained with the smartphone 1, and movement information. The predetermined number of people may be a statistically sufficient number. For example, the accuracy of estimation is further improved when the test subject makes conditions such as sex, race, and age group constant.

次に、コンピュータは入力された腹囲、向き情報、移動情報から断面の輪郭の半周部分を演算する(ステップS123)。さらに演算された断面の輪郭の半周部分の補正を行う(ステップS124)。ステップS123及びステップS124は、前述のステップS115及びステップS116と同じ処理であるので、詳細の説明は省略する。   Next, the computer calculates a half circumference portion of the contour of the cross section from the inputted waist circumference, orientation information, and movement information (step S123). Further, the half-round portion of the calculated cross-sectional contour is corrected (step S124). Since step S123 and step S124 are the same processes as the above-mentioned step S115 and step S116, detailed description is abbreviate | omitted.

次に、演算、補正された断面の輪郭の半周部分曲線、または反転閉曲線のフーリエ解析を行う(ステップS125)。断面の輪郭をフーリエ解析することで、複数のフーリエ係数を求めることができる。周知のように、曲線をフーリエ解析して得られる各次数のフーリエ係数は、曲線の特徴を表す係数として用いられる。本実施形態では、所定の人数分のサンプルデータのフーリエ解析を行い、X軸、Y軸、及びそれらの1〜k次(kは任意の整数)のフーリエ係数を求める。さらに、フーリエ係数は、周知の主成分分析を行い、その次元数を削減しておいてもよい。なお、主成分分析とは、多変量データ(本実施形態では複数のフーリエ係数)に共通な成分を探って、一種の合成変数(主成分)を作り出す分析手法であり、さらに少ない変数で曲線の特徴を表現することができる。   Next, Fourier analysis is performed on the half-circular partial curve of the contour of the calculated and corrected cross section or the inverted closed curve (step S125). A plurality of Fourier coefficients can be obtained by performing Fourier analysis on the contour of the cross section. As is well known, the Fourier coefficient of each order obtained by Fourier analysis of a curve is used as a coefficient representing the characteristic of the curve. In the present embodiment, Fourier analysis is performed on sample data for a predetermined number of people, and the X-axis, Y-axis, and 1st to kth order (k is an arbitrary integer) Fourier coefficient are obtained. Furthermore, the Fourier coefficient may be reduced by performing well-known principal component analysis. Principal component analysis is an analysis method that creates a kind of composite variable (principal component) by searching for common components in multivariate data (a plurality of Fourier coefficients in the present embodiment). Features can be expressed.

次に、ステップS125で求められた複数のフーリエ係数(または主成分)とCTで得た筋肉面積とで回帰分析を行う(ステップS126)。回帰分析とは、結果となる数値と要因となる数値の関係を調べて、それぞれの関係を明らかにする統計的手法の一つである。フーリエ係数(または主成分)を独立変数として、CTで得た筋肉面積を従属変数として、所定の人数のサンプル被験者のデータを用いて回帰分析を行い、筋肉面積推定式を作成する。   Next, regression analysis is performed using the plurality of Fourier coefficients (or principal components) obtained in step S125 and the muscle area obtained by CT (step S126). Regression analysis is one of the statistical methods that examines the relationship between numerical values that are the result and numerical values that are factors, and clarifies each relationship. Using a Fourier coefficient (or principal component) as an independent variable and a muscle area obtained by CT as a dependent variable, regression analysis is performed using data of a predetermined number of sample subjects, and a muscle area estimation formula is created.

作成された推定式の一例は、前述の数式1である。数式1の独立変数Sa、Sa、Sa、Saは、利用者の筋肉面積を推定する特徴係数である。このように、筋肉面積の推定式は、上述の統計的手段(主成分分析、回帰分析等)により作成することができる。 An example of the created estimation formula is Formula 1 described above. Independent variables Sa 1 , Sa 2 , Sa 3 , Sa 4 in Equation 1 are feature coefficients for estimating the user's muscle area. As described above, the muscle area estimation formula can be created by the above-described statistical means (principal component analysis, regression analysis, etc.).

なお、ステップS122で、作成者はCTで得た内臓脂肪面積及び皮下脂肪面積を筋肉面積と共に入力してもよい。その際、入力された内臓脂肪面積及び皮下脂肪面積は、ステップS125で求められた形状の特徴を表す係数と共に独立変数として用いられる。作成者は、これらの独立変数と、CTで得た筋肉面積を従属変数とで回帰分析を行い、筋肉面積推定式を作成してもよい。CTで得た内臓脂肪面積及び皮下脂肪面積を独立変数として加えることにより、筋肉面積の推定精度は向上することがある。   In step S122, the creator may input the visceral fat area and the subcutaneous fat area obtained by CT together with the muscle area. At this time, the input visceral fat area and subcutaneous fat area are used as independent variables together with a coefficient representing the feature of the shape obtained in step S125. The creator may perform a regression analysis using these independent variables and the muscle area obtained by CT with the dependent variable to create a muscle area estimation formula. By adding the visceral fat area and subcutaneous fat area obtained by CT as independent variables, the estimation accuracy of the muscle area may be improved.

以上説明した通り、本実施形態に係るスマートフォン1によると、腹部の断面の輪郭の半周部分を簡便に精度よく測定することができるから、筋肉面積を短時間で精度よく推定することができる。   As described above, according to the smartphone 1 according to the present embodiment, the half-circle portion of the contour of the abdominal cross section can be easily and accurately measured, so that the muscle area can be accurately estimated in a short time.

また、本実施形態に係るスマートフォン1によると、人の腹部断面の輪郭はほぼ左右対称なので、断面の輪郭の少なくとも半周部分を演算するだけで、腹部断面の筋肉面積を推定することができる。そのため利用者は、スマートフォン1を少なくとも腹部周りに半周移動させればよく、より測定時間が短くなる。あわせて、スマートフォン1を測定途中で左右の手でもちかえる動作がなくなるので、スマートフォン1を一定速度での移動させやすくなり、より測定精度を高めることができる。   In addition, according to the smartphone 1 according to the present embodiment, the contour of the human abdominal section is almost bilaterally symmetric, so that the muscle area of the abdominal section can be estimated only by calculating at least a half-circle portion of the contour of the section. Therefore, the user only has to move the smartphone 1 around the abdomen at least half a cycle, and the measurement time is further shortened. In addition, since the operation of changing the smartphone 1 between the left and right hands during measurement is eliminated, the smartphone 1 can be easily moved at a constant speed, and the measurement accuracy can be further improved.

なお、本発明は半周より少ない特定の部分の輪郭を演算してもよい。例えば、体を支える重要な筋肉である脊柱起立筋の後ろの部分の輪郭を演算して、特徴係数を抽出して、脊柱起立筋の筋肉面積を推定することができる。   Note that the present invention may calculate the contour of a specific part that is less than a half circumference. For example, the muscle area of the spine standing muscle can be estimated by calculating the contour of the portion behind the spine standing muscle, which is an important muscle that supports the body, and extracting the feature coefficient.

図23は、成人の腹部断面図を示している。図23には、筋肉100、脊柱の背側に位置する筋肉である脊柱起立筋100a、背骨101、皮下脂肪102、内臓脂肪103、及び臓器104を示している。   FIG. 23 shows a cross-sectional view of an adult abdomen. FIG. 23 shows a muscle 100, a spine standing muscle 100a which is a muscle located on the dorsal side of the spine, a spine 101, a subcutaneous fat 102, a visceral fat 103, and an organ 104.

図23から分かるように、脊柱起立筋100aは、背中の中央両側にほぼ対象に存在している。脊柱起立筋100aは、本願発明の、腹部の輪郭形状の特徴から筋肉面積を推定することができる。脊柱起立筋100aは、脊柱起立筋が存在する部分の輪郭、例えばスマートフォン1の向きが90度から180度までの1/4周部分の輪郭を演算して、輪郭の特徴係数を抽出し、筋肉面積を推定することができる。   As can be seen from FIG. 23, the spinal column standing muscle 100a is substantially present on both sides of the center of the back. The spine standing muscle 100a can estimate the muscle area from the feature of the abdominal contour shape of the present invention. The spine erect muscle 100a calculates a contour of a portion where the spine erect muscle exists, for example, a contour of a quarter circumference portion where the orientation of the smartphone 1 is 90 degrees to 180 degrees, and extracts a feature coefficient of the contour, The area can be estimated.

例えば、脊柱起立筋100aの後ろの1/4周部分を演算する場合について説明する。処理の流れは、前述の図17に示すフロー図のステップS115において、断面の輪郭の1/4周部分を演算すればよい。例えばスマートフォン1の向きが、90度から180度変化したところまでをほぼ1/4周と判定して、1/4周部分の輪郭の演算は行われる。具体的には、前述の図18に示すスマートフォン1の向きのグラフにおいて、図中の向き90度から180度を1/4周部分の情報を抽出する。すなわち、前述の図19において、向き90度から180度のレコードを1/4周部分の情報として抽出する。   For example, the case where the quarter circumference part behind the spine standing muscle 100a is calculated will be described. For the processing flow, in step S115 of the flowchart shown in FIG. 17 described above, a ¼ circumference portion of the cross-sectional contour may be calculated. For example, when the orientation of the smartphone 1 is changed from 90 degrees to 180 degrees, it is determined as approximately 1/4 turn, and the contour of the 1/4 turn portion is calculated. Specifically, in the graph of the orientation of the smartphone 1 shown in FIG. 18 described above, information of a quarter circumference portion is extracted from 90 degrees to 180 degrees in the drawing. That is, in FIG. 19 described above, a record having a direction of 90 degrees to 180 degrees is extracted as information of a quarter circumference portion.

図24は抽出された1/4周部分の向き情報及び移動情報に基づいて演算された断面の輪郭を示す図である。図中太線の実線は演算された1/4周部分の断面の輪郭であり、図中点線は、演算された1/4周部分の断面の輪郭を、閉曲線となるように補正した部分である。例えば補正は、座標系のY軸及びX軸を対称軸として折り返した反転閉曲線に基づいて行ってもよいし、Y軸を対称軸として折り返した反転曲線を所定の曲線でつないだ閉曲線に基づいて行ってもよい。   FIG. 24 is a diagram showing the contour of the cross section calculated based on the extracted direction information and movement information of the quarter circumference. The solid line in the figure is the contour of the cross section of the calculated ¼ circumference portion, and the dotted line in the figure is the portion obtained by correcting the contour of the cross section of the ¼ circumference portion so that it becomes a closed curve. . For example, the correction may be performed based on an inverted closed curve that is folded with the Y axis and X axis of the coordinate system as symmetric axes, or based on a closed curve that is formed by connecting an inverted curve that is folded with the Y axis as the symmetric axis. You may go.

本実施形態に係るスマートフォン1によると、断面の輪郭の少なくとも一部を演算するだけで、腹部断面の筋肉面積を推定することができる。そのためより測定時間は短くなる。さらに、スマートフォン1を背中より先に回す動作がなくなるので、スマートフォン1を一定速度での移動させやすくなり、より測定精度を高めることができる。   According to the smartphone 1 according to the present embodiment, the muscle area of the abdominal cross section can be estimated only by calculating at least a part of the cross section outline. Therefore, the measurement time becomes shorter. Furthermore, since the operation | movement which turns the smart phone 1 ahead of a back is lose | eliminated, it becomes easy to move the smart phone 1 at a fixed speed, and can improve a measurement precision more.

なお、本実施形態では半周部分及び1/4周部分の演算例を示したが、本発明はこれに限ることなく、任意の部分の断面輪郭の演算を行い、筋肉面積を推定することができる。   In this embodiment, the calculation example of the half-circumference portion and the quarter-circumference portion is shown. However, the present invention is not limited to this, and the cross-sectional contour of an arbitrary portion can be calculated to estimate the muscle area. .

次に本実施形態について確認実験を行い、本発明の効果を確認した。測定は京セラ製スマートフォン(型番WX10K)を用いた。筋肉面積の推定は、断面の輪郭の半周部分を演算し、反転閉曲線で補正した輪郭の特徴係数を用いて行った。筋肉面積の推定式は、輪郭の形状特徴を表す係数を独立変数として求めた。第1集団(20歳〜60歳代、男性、25名)について、推定された筋肉面積とCTで得た筋肉面積との相関を、相関係数により評価した。その結果、相関係数は0.96であり、高い相関が確認され、本願発明の効果が確認された。さらに、第2集団(20歳代〜60歳代、男性、41名)について、同様の評価を行った。その結果、相関係数は0.70であり、相関は認められたが、第1集団より低い結果となった。第2集団は、皮下脂肪面積のばらつきが第1集団より大きく、その点が相関係数の低下の要因であると考えた。そこで、輪郭の形状特徴を表す係数と共に皮下脂肪面積を独立変数として求めた推定式により、筋肉面積の推定を行った。その結果、相関係数は0.88となり、より高い相関が確認され、本願発明の効果が確認された。   Next, a confirmation experiment was performed on this embodiment, and the effect of the present invention was confirmed. The measurement used the Kyocera smart phone (model number WX10K). The estimation of the muscular area was performed by calculating the half-circle portion of the contour of the cross section and using the contour feature coefficient corrected by the inverted closed curve. The muscle area estimation formula was obtained by using a coefficient representing the shape feature of the contour as an independent variable. The correlation between the estimated muscle area and the muscle area obtained by CT was evaluated by the correlation coefficient for the first group (20 to 60 years old, male, 25 persons). As a result, the correlation coefficient was 0.96, a high correlation was confirmed, and the effect of the present invention was confirmed. Furthermore, the same evaluation was performed on the second group (20 to 60 years old, male, 41 people). As a result, the correlation coefficient was 0.70, and a correlation was recognized, but the result was lower than that of the first group. In the second group, the variation in the subcutaneous fat area was larger than that in the first group, and this point was considered to be a cause of the decrease in the correlation coefficient. Therefore, the muscle area was estimated by an estimation formula that determined the subcutaneous fat area as an independent variable together with a coefficient representing the shape feature of the contour. As a result, the correlation coefficient was 0.88, higher correlation was confirmed, and the effect of the present invention was confirmed.

図25は、スマートフォン1に表示される腹部断面画像の例を示す。図25(a)は、腹囲101cm以上、筋肉面積101〜150cmで分類された画像(図21のP35)である。図25(b)は、腹囲81〜90cm、筋肉面積201cm以上で分類された画像(図21のP53)である。スマートフォン1は推定された筋肉面積及び腹囲に基づいて、これらのCT画像もしくはCT画像の模式図を表示する。CT画像もしくはCT画像の模式図を表示することにより、利用者の腹部断面形状がよりリアルに視覚化でき、筋肉トレーニングの指導に有効である。 FIG. 25 shows an example of an abdominal cross-sectional image displayed on the smartphone 1. FIG. 25A is an image (P35 in FIG. 21) classified by an abdominal circumference of 101 cm or more and a muscle area of 101 to 150 cm 2 . FIG. 25B is an image (P53 in FIG. 21) classified by an abdominal circumference of 81 to 90 cm and a muscle area of 201 cm 2 or more. The smartphone 1 displays these CT images or schematic diagrams of CT images based on the estimated muscle area and abdominal circumference. By displaying a CT image or a schematic diagram of a CT image, the user's abdominal cross-sectional shape can be visualized more realistically, which is effective for muscle training instruction.

本実施形態では、推定された筋肉面積及び腹囲に基づいて1枚の画像が選択される例を示したが、本発明はこれに限らない。例えば、筋肉面積の推定と同様の手法を用いて、腹部輪郭の特徴係数から内臓脂肪面積及び皮下脂肪面積を推定し、推定された筋肉面積、内臓脂肪面積及び皮下脂肪面積に基づいて1枚の画像が選択されてもよい。図25(c)の画像は、図25(b)の画像と比べて、腹囲、筋肉面積、皮下脂肪面積はとほぼ同じであるが、内臓肪面積が大きいものである。推定された筋肉面積、内臓脂肪面積、及び皮下脂肪面積に基づいて、CT画像もしくはCT画像の模式図を表示することにより、利用者の腹部断面形状がさらにリアルに視覚化でき、利用者の健康意識の向上に有効である。   In the present embodiment, an example is shown in which one image is selected based on the estimated muscle area and abdominal circumference, but the present invention is not limited to this. For example, the visceral fat area and the subcutaneous fat area are estimated from the characteristic coefficient of the abdominal contour using a method similar to the estimation of the muscle area, and one piece of paper is calculated based on the estimated muscle area, visceral fat area and subcutaneous fat area. An image may be selected. The image of FIG. 25C has substantially the same abdominal circumference, muscle area, and subcutaneous fat area as the image of FIG. 25B, but has a larger visceral fat area. Based on the estimated muscle area, visceral fat area, and subcutaneous fat area, a CT image or a schematic diagram of a CT image can be displayed, so that the user's abdominal cross-sectional shape can be visualized more realistically and the user's health It is effective for raising awareness.

(第4の実施形態)
第4の実施形態においては、大腿部断面における筋肉面積を推定する。本実施形態のスマートフォン1は、第1の実施形態と同じく図4のブロック図構成でもよいし、第2の実施形態と同じ図14のブロック図の構成でもよい。以下、第1〜第3の実施形態と同じ部分については説明を省略し、異なる点について説明を行う。
(Fourth embodiment)
In the fourth embodiment, the muscle area in the thigh cross section is estimated. The smartphone 1 of the present embodiment may have the configuration of the block diagram of FIG. 4 as in the first embodiment, or the configuration of the block diagram of FIG. 14 as in the second embodiment. Hereinafter, description of the same parts as those in the first to third embodiments will be omitted, and different points will be described.

図14のストレージ9は、あらかじめ作成された大腿部筋肉面積の推定式を記憶している。ストレージ9は複数の大腿部断面画像を記憶している。これらの大腿部断面画像は、筋肉面積によって分類されている。制御部10Aは大腿部の輪郭を演算し、その輪郭の特徴係数を抽出する。制御部10Aはストレージ9に記憶された大腿部筋肉面積の推定式を読み出し、抽出された輪郭の特徴係数から大腿部筋肉面積を推定する。さらに、制御部10Aは、ストレージ9に記憶されている複数の大腿部断面画像の中から1つの画像を抽出し、ディスプレイ2Aに表示させる。   The storage 9 in FIG. 14 stores a thigh muscle area estimation formula created in advance. The storage 9 stores a plurality of thigh cross-sectional images. These thigh cross-sectional images are classified according to muscle area. The control unit 10A calculates the thigh contour and extracts a feature coefficient of the contour. 10 A of control parts read the estimation formula of the thigh muscle area memorize | stored in the storage 9, and estimate a thigh muscle area from the feature parameter of the extracted outline. Further, the control unit 10A extracts one image from a plurality of thigh cross-sectional images stored in the storage 9, and displays the image on the display 2A.

図23は第4の実施形態に係る大腿部断面画像が表示されるまでの処理の流れの一例を示すフロー図である。本実施形態では一例として、股下約15cmの位置の大腿部輪郭を演算する。但し、本願発明者の検討によると、大腿部に力が入った状態での測定は、大腿部に力が入っていない状態での測定と比べて、より高い精度で筋肉面積が推定できることが分かった。そこで本実施形態では、大腿部に力を入れた状態で大腿部の輪郭情報を取得した。   FIG. 23 is a flowchart illustrating an example of a processing flow until a thigh cross-sectional image according to the fourth embodiment is displayed. In this embodiment, as an example, a thigh contour at a position of about 15 cm in the crotch is calculated. However, according to the study of the present inventor, the measurement with the force applied to the thigh can estimate the muscle area with higher accuracy than the measurement with the force not applied to the thigh. I understood. Thus, in the present embodiment, the thigh contour information is acquired in a state where force is applied to the thigh.

ステップS101で、利用者は断面の輪郭測定の測定アプリケーション9Zを起動させる。測定アプリケーション9Zの起動後、利用者はあらかじめ巻尺等で測定された大腿部の周りの長さの実測値をスマートフォン1に入力する(ステップS111)。あるいは、スマートフォン1のストレージ9にあらかじめ記憶された利用者情報から、大腿部の周りの長さの実測値を読み込んできてもよい。ステップS111は必ずしも測定開始前に行う必要はなく、ステップS104の測定終了後に行ってもよい。ステップS111は、ステップS103において加速度センサ16により移動情報を取得する場合は、必ずしも行う必要はない。   In step S101, the user activates the measurement application 9Z for measuring the contour of the cross section. After starting the measurement application 9Z, the user inputs an actual measurement value of the length around the thigh measured in advance with a tape measure or the like into the smartphone 1 (step S111). Alternatively, an actual measurement value of the length around the thigh may be read from user information stored in advance in the storage 9 of the smartphone 1. Step S111 is not necessarily performed before the start of measurement, and may be performed after the end of the measurement in step S104. Step S111 is not necessarily performed when the movement information is acquired by the acceleration sensor 16 in step S103.

次に、ステップS102で測定を開始する。本実施形態では、大腿部前面を測定開始位置とする。利用者は、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。   Next, measurement starts in step S102. In the present embodiment, the front surface of the thigh is set as the measurement start position. The user performs a start action set in advance on the smartphone 1 and starts measurement.

ステップS103で、利用者は大腿部表面に沿ってスマートフォン1を移動させる。スマートフォン1の移動は、大腿部の表面に対して当てたままで、一定速度で移動させる。   In step S103, the user moves the smartphone 1 along the thigh surface. The smartphone 1 is moved at a constant speed while being applied to the surface of the thigh.

ステップS103で、スマートフォン1はあらかじめプログラムされた条件で、角速度センサ18により、向き情報である角速度(度/秒)を取得する。向き情報は、タイマー11から出力されたクロック信号に従って複数回取得される。クロック信号に従って取得された向き情報は、取得の時間情報とともに、スマートフォン1に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。移動情報として、加速度センサ16によって移動量を測定してもよい。加速度センサ16によって取得される移動情報は、第1の実施形態において説明した内容と同様であるので、ここでは省略する。   In step S <b> 103, the smartphone 1 acquires angular velocity (degrees / second), which is orientation information, by the angular velocity sensor 18 under preprogrammed conditions. The direction information is acquired a plurality of times according to the clock signal output from the timer 11. The orientation information acquired according to the clock signal is stored in the smartphone 1 together with the acquisition time information. This measurement is continuously executed from the start of step S102 to the end of step S104. As the movement information, the movement amount may be measured by the acceleration sensor 16. Since the movement information acquired by the acceleration sensor 16 is the same as the content described in the first embodiment, it is omitted here.

なお、制御部10Aは、ステップ103の実行過程において、スマートフォン1のレシーバ7等から一定時間間隔で音を発生させてもよい。利用者は、この一定時間間隔の音を聞きながらスマートフォン1を移動させることにより、一定速度で大腿部周りに移動させることが容易になる。   Note that the control unit 10 </ b> A may generate sound at regular time intervals from the receiver 7 of the smartphone 1 or the like in the execution process of step 103. The user can easily move the smartphone 1 around the thigh at a constant speed by moving the smartphone 1 while listening to the sound at regular time intervals.

利用者は、スマートフォン1を大腿部の表面に対して当てたまま一定速度で1周以上移動させる。スマートフォン1は、1周分のデータを取得した旨を利用者に通知することが好ましい。   The user moves the smartphone 1 one or more times at a constant speed while keeping the smartphone 1 against the surface of the thigh. The smartphone 1 preferably notifies the user that one round of data has been acquired.

スマートフォン1を1周以上移動させたら、利用者はスマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了させる(ステップS104)。また、制御部10Aは、スマートフォン1の向きが、測定開始から360度変化した場合をほぼ1周と認識し、自動で測定を終了させてもよい。このような自動認識の場合、利用者は終了アクションを行う必要がなく、測定がより簡略化される。   If the smart phone 1 is moved 1 round or more, a user will perform the end action preset to the smart phone 1, and will complete | finish a measurement (step S104). Moreover, 10 A of control parts may recognize the case where the direction of the smart phone 1 changes 360 degree | times from the measurement start as substantially 1 round, and may complete | finish a measurement automatically. In the case of such automatic recognition, the user does not need to perform an end action, and the measurement is further simplified.

また、利用者は、スマートフォン1からの通知により360度分(1周分)のデータ取得があったと認識した場合には、終了アクション等を行って測定を終了させてもよい。   In addition, when the user recognizes that there has been 360 degrees (one round) of data acquisition from the notification from the smartphone 1, the user may perform an end action or the like to end the measurement.

なお、制御部10Aは、スマートフォン1の移動が1周未満の場合でも、向き情報が一定時間変化しない場合や、向きの増減が反転した場合など、異常を検知した場合には自動で測定を終了させてもよい。   Note that the control unit 10A automatically ends the measurement when an abnormality is detected, such as when the direction information does not change for a certain period of time or when the direction increase / decrease is reversed, even when the movement of the smartphone 1 is less than one turn. You may let them.

測定が終了すると(ステップS104)、制御部10Aは、1周以上の情報が取得されたか否かを判定する(ステップS201)。この判定は、例えば図7において、測定終了時の向き情報が360度以上であるか否かによって行うことができる。また、制御部10Aは、ステップS104で測定が終了した時間によって、1周以上のデータが取得されたか否かの判定を行ってもよい。   When the measurement ends (step S104), the control unit 10A determines whether or not information of one or more rounds has been acquired (step S201). This determination can be made, for example, based on whether or not the orientation information at the end of measurement is 360 degrees or more in FIG. Further, the control unit 10A may determine whether or not one or more rounds of data have been acquired based on the time when the measurement is completed in step S104.

ステップS201において1周以上の情報が取得されたと判定すると、制御部10Aは、第2の実施形態と同様に、大腿部断面の輪郭の1周部分を演算する(ステップS115)。制御部10Aは、ステップS103にて取得された角速度を1回積分することにより、スマートフォン1の向きを演算する。   If it is determined in step S201 that one or more rounds of information have been acquired, the control unit 10A calculates one round portion of the thigh cross-sectional contour as in the second embodiment (step S115). The controller 10A calculates the orientation of the smartphone 1 by integrating the angular velocity acquired in step S103 once.

ステップS103において1周分以上の情報を取得した場合のスマートフォン1の向き情報の一例は、先に図7に示したとおりである。制御部10Aは、ステップS115において大腿部断面の輪郭の1周部分を演算した後、輪郭の特徴係数の抽出(ステップS217)を行う。   An example of the orientation information of the smartphone 1 when the information for one round or more is acquired in step S103 is as shown in FIG. The control unit 10A calculates a contour portion of the thigh cross section in step S115, and then extracts a contour feature coefficient (step S217).

なお、制御部10Aは、図7において、利用者が開始ボタンの押下等あらかじめ設定された開始アクションを行ったときの向き情報及び移動情報を測定開始時(時間0秒)における情報とすることができる。また、スマートフォン1が所定の姿勢になったときの向き情報及び移動情報を測定開始時(時間0秒)における情報としてもよい。すなわち、スマートフォン1のバックフェイス1Bが大腿部に押し当てられている姿勢を傾きセンサが検出したときを時間0として、それ以降の取得データを用いて大腿部の輪郭を演算するように構成してもよい。   In FIG. 7, the control unit 10 </ b> A may set the orientation information and the movement information when the user performs a preset start action such as pressing the start button as information at the start of measurement (time 0 second). it can. Moreover, it is good also as information at the time of a measurement start (time 0 second) when the smart phone 1 becomes a predetermined attitude | position and movement information. That is, the configuration is such that the time when the tilt sensor detects the posture in which the back face 1B of the smartphone 1 is pressed against the thigh is time 0, and the contour of the thigh is calculated using the acquired data thereafter. May be.

一方、ステップS201において、取得された情報が1周未満であると判定すると、制御部10Aは、大腿部断面画像を非表示として(ステップS204)、処理を終了する。精度が十分ではないデータを表示して利用者を混乱させることがないようにするためである。   On the other hand, if it is determined in step S201 that the acquired information is less than one round, the control unit 10A hides the thigh cross-sectional image (step S204) and ends the process. This is to prevent the user from being confused by displaying data with insufficient accuracy.

スマートフォン1はステップS115の輪郭の演算の後に、演算された輪郭から特徴係数を抽出する(ステップS217)。本実施形態では、第3の実施形態と同様の手法で、筋肉面積に影響するフーリエ係数Sa1、Sa2、Sa3、Sa4を輪郭の特徴係数として抽出する。   The smartphone 1 extracts a feature coefficient from the calculated contour after the calculation of the contour in step S115 (step S217). In the present embodiment, Fourier coefficients Sa1, Sa2, Sa3, and Sa4 that affect the muscle area are extracted as contour feature coefficients in the same manner as in the third embodiment.

スマートフォン1はあらかじめ求められた筋肉面積推定式に、ステップS217で抽出した特徴係数を代入して、利用者の大腿部断面における筋肉面積を推定する(ステップS218)。なお、筋肉面積推定式は先に図22で示したものと同様の手法によりに求めることができる。   The smartphone 1 estimates the muscle area in the thigh cross section of the user by substituting the feature coefficient extracted in step S217 into the muscle area estimation formula obtained in advance (step S218). The muscle area estimation formula can be obtained by the same method as that shown in FIG.

次にスマートフォン1はステップS218で推定された筋肉面積に基づいて、ストレージ9に記憶されている複数の大腿部断面画像の中から利用者の大腿部断面に最も近い画像を選択する(ステップS119)。選択された画像は、第3の実施形態と同様にスマートフォン1のディスプレイ2Aに表示される(ステップS110)。このように、本実施形態によれば、大腿部の筋肉面積について推定することができる。   Next, the smartphone 1 selects an image closest to the user's thigh cross section from a plurality of thigh cross section images stored in the storage 9 based on the muscle area estimated in step S218 (step S218). S119). The selected image is displayed on the display 2A of the smartphone 1 as in the third embodiment (step S110). Thus, according to this embodiment, it is possible to estimate the thigh muscle area.

なお、本実施形態では、タイマー11から移動情報を得るように構成したが、この態様には限定されない。例えば、第1実施形態と同様に第2のセンサ部に加速度センサ16を用い、取得された加速度情報を2回時間積分することによりスマートフォン1の移動量を演算するように構成してもよい。   In addition, in this embodiment, although it comprised so that movement information might be acquired from the timer 11, it is not limited to this aspect. For example, similarly to the first embodiment, the acceleration sensor 16 may be used for the second sensor unit, and the movement amount of the smartphone 1 may be calculated by integrating the acquired acceleration information twice over time.

また、本実施形態によれば、向き情報及び移動情報を取得する際に、スマートフォンから一定時間間隔で音を発生させるように構成した。これにより利用者は、スマートフォンを一定速度で大腿部周りに移動させることが容易になる。   Moreover, according to this embodiment, when acquiring direction information and movement information, it comprised so that a sound might be generated from a smart phone at fixed time intervals. This makes it easy for the user to move the smartphone around the thigh at a constant speed.

また、本実施形態によれば、大腿部の輪郭の測定が1周未満である場合に大腿部断面画像を非表示とするように構成した。これにより、精度が十分ではないデータを表示して利用者を混乱させることがないようにすることができる。   Further, according to the present embodiment, the thigh cross-sectional image is hidden when the measurement of the thigh contour is less than one round. As a result, it is possible to prevent the user from being confused by displaying data with insufficient accuracy.

また、本実施形態によれば、スマートフォン1が所定の姿勢になったとき以降の向き情報及び移動情報を用いて大腿部の輪郭の一部を演算するように構成した。これによりスマートフォン1は常に一定の正しい姿勢から測定を開始することができる。   Moreover, according to this embodiment, it comprised so that a part of thigh outline might be calculated using direction information and movement information after the smart phone 1 became a predetermined attitude | position. Thereby, the smartphone 1 can always start measurement from a certain correct posture.

なお、本実施形態では、被験者が大腿部に力を入れたときの輪郭から形状特徴を算出したが、本発明はこれに限らない。例えば、同一被験者で大腿部に力を入れていないとき、及び力を入れているときの両者の輪郭を用いて形状特徴を算出してもよい。その際、両者の輪郭の特徴を表す係数を独立変数として、CTで得た筋肉面積を従属変数として回帰分析を行い、筋肉面積推定式を作成してもよい。   In the present embodiment, the shape feature is calculated from the contour when the subject puts force on the thigh, but the present invention is not limited to this. For example, the shape feature may be calculated using the contours of the same subject when no force is applied to the thigh and when the force is applied. At that time, a regression analysis may be performed using a coefficient representing the feature of the contour of both as an independent variable and a muscle area obtained by CT as a dependent variable to create a muscle area estimation formula.

図27は、スマートフォン1により演算された同一被験者の右足大腿部の輪郭の一例を示す図である。図27(a)は大腿部に力を入れていない状態、図27(b)は大腿部に力を入れている状態での輪郭の例である。   FIG. 27 is a diagram illustrating an example of the contour of the right foot thigh of the same subject calculated by the smartphone 1. FIG. 27A shows an example of the contour when no force is applied to the thigh, and FIG. 27B shows an example of the contour when the force is applied to the thigh.

被験者は椅子に座り、足が地面に水平になるように足先を台にのせた状態で、大腿部の輪郭を測定された。図の輪郭は、右足を足先から観察したものである。図の上側は大腿部前側、下側は大腿部後側、右側は大腿部内側、左側は大腿部外側を示す。例えば、大腿部に力を入れていない状態(図27a)では、大腿部の輪郭は後外側が直線に近い楕円形である。例えば、大腿部に力を入れている状態(図27b)では、大腿部の輪郭は円形に近い形である。このような、力の入れ方で異なる2つの輪郭から形状特徴を算出し、筋肉面積を推定することにより、筋肉面積の推定精度は向上することがある。   The subject was seated on a chair and the thigh contour was measured with the feet on the base so that the feet were level with the ground. The contour in the figure is the right foot observed from the foot tip. The upper side of the figure shows the front side of the thigh, the lower side shows the rear side of the thigh, the right side shows the inner side of the thigh, and the left side shows the outer side of the thigh. For example, in a state where no force is applied to the thigh (FIG. 27a), the thigh contour is an ellipse whose rear outer side is close to a straight line. For example, in a state where a force is applied to the thigh (FIG. 27b), the thigh outline has a nearly circular shape. By calculating the shape feature from two contours that differ depending on how the force is applied and estimating the muscle area, the estimation accuracy of the muscle area may be improved.

なお、本発明は上記実施形態のみに限定されるものではなく、幾多の変形または変更が可能である。例えば、力を入れている状態もしくは力を入れていない状態のいずれか一方を用いて演算及び推定してもよい。   In addition, this invention is not limited only to the said embodiment, Many deformation | transformation or a change is possible. For example, the calculation and estimation may be performed using either one of a state where force is applied or a state where force is not applied.

次に本発明の実施形態に係るシステムを、図面を参照しつつ詳細に説明する。   Next, a system according to an embodiment of the present invention will be described in detail with reference to the drawings.

図28に示した実施形態のシステムは、サーバ80と、スマートフォン1と、通信ネットワークを含んで構成される。図28に示したように、スマートフォン1で測定された断面の輪郭の演算結果を、通信ネットワークを通じてサーバ80に送信し、サーバ80では、断面の輪郭の分類、判定を行い、画像及びアドバイスを利用者に返信する。そして、スマートフォン1は、サーバ80から送信された画像等をディスプレイ2Aに表示することができる。スマートフォン1の通信手段を利用することで、サーバ80には複数の利用者からの情報を収集することができるため、さらに分類、判定の精度が上がる。また、取得された向き情報、移動情報及び周囲長を当該サーバ80に送信する形態を採用してもよい。この場合、断面の輪郭の演算をサーバ80で行うため、利用者が使うスマートフォン1のコントローラ10への演算の負担を軽減することができ、スマートフォン1の小型化、簡略化が可能となる。また、演算の処理速度も向上する。   The system of the embodiment shown in FIG. 28 includes a server 80, a smartphone 1, and a communication network. As shown in FIG. 28, the calculation result of the cross-sectional contour measured by the smartphone 1 is transmitted to the server 80 through the communication network, and the server 80 classifies and determines the cross-sectional contour and uses the image and the advice. Reply to the person. Then, the smartphone 1 can display the image transmitted from the server 80 on the display 2A. By using the communication means of the smartphone 1, information from a plurality of users can be collected in the server 80, thereby further improving the accuracy of classification and determination. Moreover, you may employ | adopt the form which transmits the acquired orientation information, movement information, and perimeter to the said server 80. FIG. In this case, since the calculation of the contour of the cross section is performed by the server 80, the calculation burden on the controller 10 of the smartphone 1 used by the user can be reduced, and the smartphone 1 can be reduced in size and simplified. In addition, the processing speed of calculation is improved.

本実施形態に係るシステムはスマートフォン1とサーバ80を通信ネットワークで接続した構成を示したが、本発明のシステムはこれに限定されるものではない。人体に沿って移動させる測定子と、測定子の向き情報を得る第1のセンサ部と、測定子の移動情報を得るためのデバイス部と、人体の断面の輪郭を演算する制御部と、を備えていればよい。また、それぞれが通信手段で接続されていてもよい。   Although the system according to the present embodiment shows a configuration in which the smartphone 1 and the server 80 are connected via a communication network, the system of the present invention is not limited to this. A measuring element that moves along the human body, a first sensor unit that obtains orientation information of the measuring element, a device unit that obtains movement information of the measuring element, and a control unit that calculates the contour of the cross section of the human body. It only has to have. Moreover, each may be connected by a communication means.

本発明を完全かつ明瞭に開示するために特徴的な実施例に関し記載してきた。しかし、添付の請求項は、上記実施例に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The exemplary embodiments have been described in order to fully and clearly disclose the present invention. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

例えば、上述の実施形態においては、機器としてスマートフォン1の場合について説明したが、本発明の機器はこれに限ることなく、第1のセンサ部と、デバイス部と、制御部を備えていればよい。さらには、自機の内部に、第1のセンサ部とデバイス部と制御部を備えている必要もなく、それぞれが個別に分かれていてもよい。   For example, in the above-described embodiment, the case of the smartphone 1 has been described as the device. However, the device of the present invention is not limited to this, and may include the first sensor unit, the device unit, and the control unit. . Furthermore, it is not necessary to include the first sensor unit, the device unit, and the control unit inside the device itself, and each of them may be individually separated.

また、上述の実施形態においては、腹部及び大腿部の筋肉面積を推定する場合について説明したが、他の断面の輪郭の測定にも適用できる。   In the above-described embodiment, the case of estimating the muscle area of the abdomen and thigh has been described, but the present invention can also be applied to the measurement of the contours of other cross sections.

また、上述の実施形態においては、第1のセンサ部として方位センサ及び角速度センサを用いる場合について説明したが、第1のセンサ部は自機の向き情報を取得できるものであれば他のものでもよく、例えば、傾きセンサ等を用いてもよい。   Moreover, in the above-mentioned embodiment, although the case where an azimuth | direction sensor and an angular velocity sensor were used as a 1st sensor part was demonstrated, as long as the 1st sensor part can acquire direction information of an own machine, another thing may be used. For example, an inclination sensor or the like may be used.

また、第2のセンサ部として加速度センサまたは電子巻尺を用いる場合について説明したが、第2のセンサ部は自機の移動情報を取得できるものであれば他のものでもよく、車輪の回転数を検出することによって移動情報を取得する電子ローラー距離計等、を用いてもよい。   Moreover, although the case where an acceleration sensor or an electronic tape measure is used as the second sensor unit has been described, the second sensor unit may be any other unit as long as it can acquire movement information of the own device, and the number of rotations of the wheel can be determined. You may use the electronic roller distance meter etc. which acquire movement information by detecting.

また、上述の実施形態においては、対象物を1周、半周、1/4周して断面の輪郭を測定する例を示したが、本発明はこれに限らない。例えば2周の断面の輪郭を測定してそのデータを平均化することで、よりばらつきの少ない高精度な測定が可能となる。   Moreover, in the above-mentioned embodiment, although the example which measures the outline of a cross section by making 1 turn, a half turn, and 1/4 turn of the target object was shown, this invention is not limited to this. For example, by measuring the contour of the cross section of two rounds and averaging the data, it is possible to perform highly accurate measurement with less variation.

本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、たとえば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作は、プログラム命令(ソフトウェア)で実装された専用回路(たとえば、特定機能を実行するために相互接続された個別の論理ゲート)や、一以上のプロセッサにより実行される論理ブロックやプログラムモジュール等により実行されることに留意されたい。論理ブロックやプログラムモジュール等を実行する一以上のプロセッサには、たとえば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置及び/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、たとえば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信及び/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。   Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. Computer systems and other hardware include, for example, general-purpose computers, PCs (personal computers), dedicated computers, workstations, PCS (Personal Communications System), mobile (cellular) telephones, data processing functions Mobile phones, RFID receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, the various operations are performed by dedicated circuitry implemented with program instructions (software) (eg, individual logic gates interconnected to perform a specific function) or one or more processors. Note that it is executed by a logic block, a program module, or the like. One or more processors that execute logic blocks, program modules, etc. include, for example, one or more microprocessors, CPU (Central Processing Unit), ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), PLD (Programmable Includes Logic Devices), FPGAs (Field Programmable Gate Array), processors, controllers, microcontrollers, microprocessors, electronics, other devices designed to perform the functions described here, and / or any combination of these It is. The embodiments shown here are implemented, for example, by hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .

ここで用いられるネットワークには、他に特段の断りがない限りは、インターネット、アドホックネットワーク、LAN(Local Area Network)、WAN(Wide Area Network)、MAN(Metropolitan Area Network)、セルラーネットワーク、WWAN(Wireless Wide Area Network)、WPAN(Wireless Personal Area Network )、PSTN(Public Switched Telephone Network)、地上波無線ネットワーク(Terrestrial Wireless Network)もしくは他のネットワークまたはこれらいずれかの組合せが含まれる。無線ネットワークの構成要素には、たとえば、アクセスポイント(たとえば、Wi-Fiアクセスポイント)やフェムトセル等が含まれる。さらに、無線通信器機は、Wi-Fi、Bluetooth(登録商標)、セルラー通信技術(たとえばCDMA(Code Division Multiple Access)、TDMA(Time Division Multiple Access)、FDMA(Frequency Division Multiple Access)、OFDMA(Orthogonal Frequency Division Multiple Access)、SC-FDMA(Single-Carrier Frequency Division Multiple Access)またはその他の無線技術及び/または技術標準を用いた無線ネットワークに接続することができる。ネットワークには、一つ以上の技術を採用することができ、かかる技術には、たとえば、UTMS(Universal Mobile Telecommunications System)、LTE(Long Term Evolution)、EV-DO(Evolution-Data Optimized or Evolution-Data Only)、GSM(登録商標)(Global System for Mobile communications)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA-2000(Code Division Multiple Access-2000)またはTD-SCDMA(Time Division Synchronous Code Division Multiple Access)が含まれる。   Unless otherwise specified, the network used here is the Internet, ad hoc network, LAN (Local Area Network), WAN (Wide Area Network), MAN (Metropolitan Area Network), cellular network, WWAN (Wireless A wide area network (WPAN), a wireless personal area network (WPAN), a public switched telephone network (PSTN), a terrestrial wireless network (Terrestrial Wireless Network) or other network, or any combination thereof. Examples of the components of the wireless network include an access point (for example, a Wi-Fi access point), a femto cell, and the like. Furthermore, wireless communication devices include Wi-Fi, Bluetooth (registered trademark), cellular communication technology (for example, CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), FDMA (Frequency Division Multiple Access), OFDMA (Orthogonal Frequency). Division Multiple Access), SC-FDMA (Single-Carrier Frequency Division Multiple Access), or other wireless technologies and / or technology standards can be connected to the network using one or more technologies Such technologies include, for example, UTMS (Universal Mobile Telecommunications System), LTE (Long Term Evolution), EV-DO (Evolution-Data Optimized or Evolution-Data Only), GSM (registered trademark) (Global System) for mobile communications), WiMAX (Worldwide Interoperability for Microwave Access), CDMA-2000 (Code Division Multiple Access-2000) or TD-SCDMA (Time Division Synchronous Code Division Multiple Access).

通信ユニット等の回路構成は、たとえば、WWAN、WLAN、WPAN、等の種々の無線通信ネットワークを用いることで、機能性を提供する。WWANは、CDMAネットワーク、TDMAネットワーク、FDMAネットワーク、OFDMAネットワーク、SC-FDMAネットワーク等とすることができる。CDMAネットワークは、CDMA2000、Wideband-CDMA(W-CDMA)等、一つ以上のRAT(Radio Access Technology)を実装することができる。CDMA2000は、IS-95、IS-2000及びIS-856標準を含む。TDMAネットワークは、GSM(登録商標)、D-AMPS(Digital Advanced Phone System)またはその他のRATを実装することができる。GSM(登録商標)及びW-CDMAは、3rd Generation Partnership Project(3GPP)と称するコンソーシアムから発行される文書に記載されている。CDMA2000は、3rd Generation Partnership Project 2(3GPP2)と称するコンソーシアムから発行される文書に記載されている。WLANは、IEEE802.11xネットワークとすることができる。WPANは、Bluetooth(登録商標)ネットワーク、IEEE802.15xまたはその他のタイプのネットワークとすることができる。CDMAは、UTRA(Universal Terrestrial Radio Access)もしくはCDMA2000といった無線技術として実装することができる。TDMAは、GSM(登録商標)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM(登録商標) Evolution)といった無線技術により実装することができる。OFDMAは、IEEE(Institute of Electrical and Electronics Engineers)802.11(Wi-Fi)、IEEE802.16(WiMAX)、IEEE802.20、E-UTRA(Evolved UTRA)等の無線技術により実装することができる。こうした技術は、WWAN、WLAN及び/またはWPANのいずれかの組合せに用いることができる。また、こうした技術は、UMB(Ultra Mobile Broadband)ネットワーク、HRPD(High Rate Packet Data)ネットワーク、CDMA20001Xネットワーク、GSM(登録商標)、LTE(Long-Term Evolution)等を使用するために実装することができる。   The circuit configuration of the communication unit or the like provides functionality by using various wireless communication networks such as WWAN, WLAN, WPAN, and the like. The WWAN can be a CDMA network, a TDMA network, an FDMA network, an OFDMA network, an SC-FDMA network, or the like. A CDMA network can implement one or more RATs (Radio Access Technology) such as CDMA2000, Wideband-CDMA (W-CDMA). CDMA2000 includes IS-95, IS-2000 and IS-856 standards. The TDMA network can implement GSM (registered trademark), D-AMPS (Digital Advanced Phone System) or other RAT. GSM (registered trademark) and W-CDMA are described in documents issued by a consortium called 3rd Generation Partnership Project (3GPP). CDMA2000 is described in documents issued by a consortium called 3rd Generation Partnership Project 2 (3GPP2). The WLAN can be an IEEE 802.11x network. The WPAN can be a Bluetooth® network, IEEE 802.15x or other type of network. CDMA can be implemented as a radio technology such as UTRA (Universal Terrestrial Radio Access) or CDMA2000. TDMA can be implemented by a radio technology such as GSM (registered trademark) / GPRS (General Packet Radio Service) / EDGE (Enhanced Data Rates for GSM (registered trademark) Evolution). OFDMA can be implemented by a wireless technology such as IEEE (Institute of Electrical and Electronics Engineers) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE802.20, E-UTRA (Evolved UTRA). Such techniques can be used for any combination of WWAN, WLAN and / or WPAN. These technologies can also be implemented to use UMB (Ultra Mobile Broadband) network, HRPD (High Rate Packet Data) network, CDMA20001X network, GSM (registered trademark), LTE (Long-Term Evolution), etc. .

ここで用いられるストレージは、さらに、ソリッドステートメモリ、磁気ディスク及び光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができ、かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュールなどのコンピュータ命令の適宜なセットや、データ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(たとえば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM、EEPROMもしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサ/プロセッシングユニットの内部及び/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性その他のメモリを意味し、特定の種類やメモリの数または記憶が格納される媒体の種類は限定されない。   The storage used herein can be further configured as a computer readable tangible carrier (medium) comprised of solid state memory, magnetic disks and optical disks, such media being disclosed herein. An appropriate set of computer instructions, such as program modules, that cause the processor to execute the technique, and data structures are stored. Computer readable media include electrical connections with one or more wires, magnetic disk storage media, magnetic cassettes, magnetic tapes, and other magnetic and optical storage devices (eg, CD (Compact Disk), laser disks ( Registered trademark), DVD (registered trademark) (Digital Versatile Disc), floppy (registered trademark) disk and Blu-ray Disc (registered trademark)), portable computer disk, RAM (Random Access Memory), ROM (Read-Only Memory), It includes a rewritable and programmable ROM such as EPROM, EEPROM or flash memory or other tangible storage medium capable of storing information or any combination thereof. The memory can be provided inside and / or outside the processor / processing unit. As used herein, the term “memory” means any type of long-term storage, short-term storage, volatile, non-volatile, or other memory in which a particular type or number of memories or storage is stored. The type of medium is not limited.

なお、ここでは、特定の機能を実行する種々のモジュール及び/またはユニットを有するものとしてのシステムを開示しており、これらのモジュール及びユニットは、その機能性を簡略に説明するために模式的に示されたものであって、必ずしも、特定のハードウェア及び/またはソフトウェアを示すものではないことに留意されたい。その意味において、これらのモジュール、ユニット、その他の構成要素は、ここで説明された特定の機能を実質的に実行するように実装されたハードウェア及び/またはソフトウェアであればよい。異なる構成要素の種々の機能は、ハードウェア及び/もしくはソフトウェアのいかなる組合せまたは分離したものであってもよく、それぞれ別々に、またはいずれかの組合せにより用いることができる。また、キーボード、ディスプレイ、タッチスクリーン、ポインティングデバイス等を含むがこれらに限られない入力/出力もしくはI/Oデバイスまたはユーザインターフェースは、システムに直接にまたは介在するI/Oコントローラを介して接続することができる。このように、本開示内容の種々の側面は、多くの異なる態様で実施することができ、それらの態様はすべて本開示内容の範囲に含まれる。   It should be noted that here, a system having various modules and / or units that perform a specific function is disclosed, and these modules and units are schematically illustrated in order to briefly explain the functionality. It should be noted that the descriptions are not necessarily indicative of specific hardware and / or software. In that sense, these modules, units, and other components may be hardware and / or software implemented to substantially perform the specific functions described herein. The various functions of the different components may be any combination or separation of hardware and / or software, each used separately or in any combination. Also, input / output or I / O devices or user interfaces, including but not limited to keyboards, displays, touch screens, pointing devices, etc., must be connected directly to the system or via an intervening I / O controller. Can do. Thus, the various aspects of the present disclosure can be implemented in many different ways, all of which are within the scope of the present disclosure.

1 スマートフォン
1A フロントフェイス
1B バックフェイス
1C1〜4,71C2 サイドフェイス
2,72 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 測定アプリケーション
10 コントローラ
10A 制御部
11 タイマー
12,13 カメラ
14 コネクタ
15 モーションセンサ
16 加速度センサ
17 方位センサ
18 角速度センサ
19 傾きセンサ
20,70 ハウジング
60 腹部
71 電子巻尺
73 巻尺
74 ストッパ
80 サーバ
100 筋肉
100a 脊柱起立筋
101 背骨
102 皮下脂肪
103 内臓脂肪
104 臓器
DESCRIPTION OF SYMBOLS 1 Smart phone 1A Front face 1B Back face 1C1-4, 71C2 Side face 2,72 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9Z Measurement application 10 Controller 10A Control unit 11 Timer 12, 13 Camera 14 Connector 15 Motion sensor 16 Acceleration sensor 17 Direction sensor 18 Angular velocity sensor 19 Tilt sensor 20, 70 Housing 60 Abdominal part 71 Electronic tape measure 73 Tape measure 74 Stopper 80 Server 100 Muscle 100a Spine standing muscle 101 Spine 102 Subcutaneous fat 103 Visceral fat 104 Organ

Claims (8)

人体の輪郭を測定する測定子と、
測定された前記人体の輪郭の少なくとも一部から算出された形状特徴に基づいて、前記人体の断面における筋肉面積を推定する制御部と
を備える筋肉面積推定システム。
A measuring element for measuring the contour of the human body;
A muscle area estimation system comprising: a control unit that estimates a muscle area in a cross section of the human body based on a shape feature calculated from at least a part of the measured contour of the human body.
前記制御部は、前記推定された筋肉面積に対応した画像を表示部に表示する、請求項1に記載の筋肉面積推定システム。   The muscle area estimation system according to claim 1, wherein the control unit displays an image corresponding to the estimated muscle area on a display unit. 複数のCTサンプル画像を記憶する記憶部を備え、
前記制御部は、前記複数のCTサンプル画像から、少なくとも前記推定された筋肉面積に対応する1枚のCTサンプル画像を表示部に表示する、請求項2に記載の筋肉面積推定システム。
A storage unit for storing a plurality of CT sample images;
The muscle area estimation system according to claim 2, wherein the control unit displays at least one CT sample image corresponding to the estimated muscle area from the plurality of CT sample images on a display unit.
人体の輪郭を測定するセンサ部と、
測定された前記人体の輪郭の少なくとも一部から算出された形状特徴に基づいて、前記人体の断面における筋肉面積を推定する制御部と
を備える機器。
A sensor unit for measuring the contour of the human body;
An apparatus comprising: a control unit that estimates a muscle area in a cross section of the human body based on a shape feature calculated from at least a part of the measured contour of the human body.
前記推定された筋肉面積に対応した画像が表示される表示部を備える、請求項4に記載の機器。   The apparatus according to claim 4, further comprising a display unit that displays an image corresponding to the estimated muscle area. 複数のCTサンプル画像を記憶する記憶部を備え、
前記制御部は、前記複数のCTサンプル画像から、少なくとも前記推定された筋肉面積に対応する1枚のCTサンプル画像を表示部に表示する、請求項5に記載の機器。
A storage unit for storing a plurality of CT sample images;
The device according to claim 5, wherein the control unit displays at least one CT sample image corresponding to the estimated muscle area on the display unit from the plurality of CT sample images.
前記センサ部は方位センサ、角速度センサ、傾きセンサ、加速度センサ、または電子巻尺を少なくとも含む、請求項4乃至6のいずれか一項に記載の機器。   The apparatus according to any one of claims 4 to 6, wherein the sensor unit includes at least an azimuth sensor, an angular velocity sensor, an inclination sensor, an acceleration sensor, or an electronic tape measure. 人体の輪郭を測定するステップと、
制御部により、測定された前記人体の輪郭の少なくとも一部を演算するステップと、
当該演算された人体の輪郭の少なくとも一部から形状特徴を算出するステップと、
当該形状特徴に基づいて前記人体の断面における筋肉面積を推定するステップと
を含む筋肉面積推定方法。
Measuring the contour of the human body;
Calculating at least a part of the contour of the human body measured by the control unit;
Calculating a shape feature from at least a part of the calculated contour of the human body;
Estimating a muscle area in a cross section of the human body based on the shape feature.
JP2016207861A 2016-10-24 2016-10-24 Muscle area estimation system, apparatus and muscle area estimation method Pending JP2017012875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016207861A JP2017012875A (en) 2016-10-24 2016-10-24 Muscle area estimation system, apparatus and muscle area estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207861A JP2017012875A (en) 2016-10-24 2016-10-24 Muscle area estimation system, apparatus and muscle area estimation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014258585A Division JP6039641B2 (en) 2014-12-22 2014-12-22 Muscle area estimation system, device, and muscle area estimation method

Publications (1)

Publication Number Publication Date
JP2017012875A true JP2017012875A (en) 2017-01-19

Family

ID=57829491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207861A Pending JP2017012875A (en) 2016-10-24 2016-10-24 Muscle area estimation system, apparatus and muscle area estimation method

Country Status (1)

Country Link
JP (1) JP2017012875A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212111A (en) * 1999-11-25 2001-08-07 Mitsubishi Electric Corp Visceral fat measuring apparatus
JP2002528734A (en) * 1998-11-04 2002-09-03 イディアグ Measurement structure for detecting body surface lines
JP2003339694A (en) * 2002-05-22 2003-12-02 Aloka Co Ltd Tomographic image processor
JP2004008659A (en) * 2002-06-11 2004-01-15 Tanita Corp Biometric device
JP2004344348A (en) * 2003-05-21 2004-12-09 Tanita Corp Method and device for estimating quantity of muscle
JP2007068845A (en) * 2005-09-08 2007-03-22 Aloka System Engineering Co Ltd X-ray ct apparatus and image processing method
JP2009207764A (en) * 2008-03-05 2009-09-17 Space Vision:Kk Visceral fat amount estimation system
JP2010042129A (en) * 2008-08-12 2010-02-25 Aloka Co Ltd Image processor
JP2014018444A (en) * 2012-07-19 2014-02-03 Tanita Corp Organism measuring apparatus and body image creating program
JP2015051101A (en) * 2013-09-06 2015-03-19 花王株式会社 Muscle mass measurement device
JP2016118953A (en) * 2014-12-22 2016-06-30 京セラ株式会社 Muscle area estimation system, apparatus and muscle area estimation method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002528734A (en) * 1998-11-04 2002-09-03 イディアグ Measurement structure for detecting body surface lines
JP2001212111A (en) * 1999-11-25 2001-08-07 Mitsubishi Electric Corp Visceral fat measuring apparatus
JP2003339694A (en) * 2002-05-22 2003-12-02 Aloka Co Ltd Tomographic image processor
JP2004008659A (en) * 2002-06-11 2004-01-15 Tanita Corp Biometric device
JP2004344348A (en) * 2003-05-21 2004-12-09 Tanita Corp Method and device for estimating quantity of muscle
JP2007068845A (en) * 2005-09-08 2007-03-22 Aloka System Engineering Co Ltd X-ray ct apparatus and image processing method
JP2009207764A (en) * 2008-03-05 2009-09-17 Space Vision:Kk Visceral fat amount estimation system
JP2010042129A (en) * 2008-08-12 2010-02-25 Aloka Co Ltd Image processor
JP2014018444A (en) * 2012-07-19 2014-02-03 Tanita Corp Organism measuring apparatus and body image creating program
JP2015051101A (en) * 2013-09-06 2015-03-19 花王株式会社 Muscle mass measurement device
JP2016118953A (en) * 2014-12-22 2016-06-30 京セラ株式会社 Muscle area estimation system, apparatus and muscle area estimation method

Similar Documents

Publication Publication Date Title
JP5992985B2 (en) Body fat estimation method, device, and system
KR102348489B1 (en) Electronic device and method for analyzing body components recognizable body measuring region automatically
JP6039641B2 (en) Muscle area estimation system, device, and muscle area estimation method
CN107249441B (en) Electronic device and method for measuring biological information
CN108024740B (en) Blood pressure measuring method, blood pressure measuring device and terminal
JPWO2016035350A1 (en) Portable information terminal, control method thereof, and control program
WO2018198765A1 (en) Electronic apparatus, generation method, and generation system
WO2018123227A1 (en) Terminal device
WO2017175607A1 (en) Abdominal cross-sectional image generating device and abdominal cross-sectional image generating system
WO2018198764A1 (en) Electronic apparatus, display method, and display system
JP2017012875A (en) Muscle area estimation system, apparatus and muscle area estimation method
WO2024007780A1 (en) Blood pressure measurement method and apparatus, electronic device and storage medium
EP4324386A1 (en) Method and system for measuring physiological parameters, and electronic device
JP6210536B2 (en) Electronic equipment and measurement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180709

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180907