JP6712965B2 - 電子機器、生成方法及び生成システム - Google Patents

電子機器、生成方法及び生成システム Download PDF

Info

Publication number
JP6712965B2
JP6712965B2 JP2017086610A JP2017086610A JP6712965B2 JP 6712965 B2 JP6712965 B2 JP 6712965B2 JP 2017086610 A JP2017086610 A JP 2017086610A JP 2017086610 A JP2017086610 A JP 2017086610A JP 6712965 B2 JP6712965 B2 JP 6712965B2
Authority
JP
Japan
Prior art keywords
smartphone
contour
information
dimensional image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017086610A
Other languages
English (en)
Other versions
JP2018183372A (ja
Inventor
安島 弘美
弘美 安島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017086610A priority Critical patent/JP6712965B2/ja
Priority to PCT/JP2018/015130 priority patent/WO2018198765A1/ja
Priority to US16/605,481 priority patent/US11051719B2/en
Publication of JP2018183372A publication Critical patent/JP2018183372A/ja
Application granted granted Critical
Publication of JP6712965B2 publication Critical patent/JP6712965B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ, muscle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4869Determining body composition
    • A61B5/4872Body fat
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B3/00Measuring instruments characterised by the use of mechanical techniques
    • G01B3/10Measuring tapes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本開示は、電子機器、生成方法及び生成システムに関する。
従来、腹部断面の内臓脂肪面積を測定する方法として、コンピュータ断層撮影(以下、単に「CT」という)が知られている。さらに、従来、CTにより測定された内臓脂肪面積を視覚的に表示する方法が知られている。例えば特許文献1には、脂肪面積を、円を用いて表示する装置が開示されている。
特開2002−191563号公報
しかしながら、特許文献1に開示された装置は円を用いて脂肪面積を表示するものであるため、利用者(被検者)が腹部の形状を視覚的に把握しにくい。
上記のような課題に鑑みてなされた本開示の目的は、利用者が簡易的に腹部の形状を視覚的に把握しやすい電子機器、生成方法及び生成システムを提供することにある。
一実施形態に係る電子機器は、体の表面に沿って自機を移動させることにより前記体の輪郭を測定する測定部と、前記輪郭に基づいて前記体の三次元画像を生成する制御部と、を備える。前記制御部は、第1方向に沿って測定された第1の輪郭を複数並べることにより前記三次元画像を生成する。
一実施形態に係る生成方法は、電子機器により実行される生成方法であって、体の表面に沿って前記電子機器を移動させることにより前記体の輪郭を測定するステップと、第1方向に沿って測定された第1の輪郭を複数並べることにより前記体の三次元画像を生成するステップと、を含む。
一実施形態に係る生成システムは、体の表面に沿って自機を移動させることにより前記体の輪郭を測定する測定部と、前記輪郭に基づいて前記体の三次元画像を生成する制御部と、を備える。前記制御部は、第1方向に沿って測定された第1の輪郭を複数並べることにより前記三次元画像を生成する。
本開示に係る電子機器、生成方法及び生成システムによれば、利用者が簡易的に腹部の形状を視覚的に把握しやすくなる。
図1は、第1実施形態に係るスマートフォンの外観を示す斜視概略図である。 図2は、第1実施形態に係るスマートフォンの外観を示す正面概略図である。 図3は、第1実施形態に係るスマートフォンの外観を示す背面概略図である。 図4は、第1実施形態に係るスマートフォンの機能を示すブロック概略図である。 図5は、第1実施形態に係る対象物の輪郭の測定の様子を示す模式図である。 図6は、第1実施形態に係る対象物の輪郭の測定の様子を示す模式図である。 図7は、第1実施形態に係る対象物の輪郭の測定フロー図である。 図8A,図8Bは、第1実施形態に係る向きと移動量の一例を示す。 図9は、第1実施形態に係る向き情報と移動情報のレコードの一例である。 図10は、第1実施形態に係る演算された対象物の輪郭を示す図である。 図11は、第1実施形態に係る実測値による補正を説明する図である。 図12は、第1実施形態に係る三次元画像の出力フロー図である。 図13は、第1実施形態において生成される三次元画像の一例を示す図である。 図14は、第1実施形態において生成される三次元画像の他の一例を示す図である。 図15は、第1実施形態に係る電子巻尺を説明する概略図である。 図16は、第1実施形態に係るスマートフォンのストレージに記憶されるデータの一例を示す図である。 図17は、内臓脂肪面積推定式及び皮下脂肪面積推定式の作成フロー図である。 図18A〜図18Cは、第1実施形態に係る第1の輪郭の分類例を示す概略図である。 図19は、第1実施形態に係るスマートフォンによる表示の一例を示す図である。 図20は、第1実施形態に係るスマートフォンによる処理全体のフロー図である。 図21は、第2実施形態に係るスマートフォンの機能を示すブロック概略図である。 図22は、第2実施形態に係る対象物の輪郭の測定フロー図である。 図23は、第2実施形態に係る向き情報と移動情報のレコードの一例である。 図24は、第3実施形態に係る対象物の輪郭の測定フロー図である。 図25は、第3実施形態に係るスマートフォンの向きの一例を示す。 図26は、第3実施形態に係る取得された情報から構成されたレコードの一例である。 図27は、第3実施形態に係る演算及び補正された第1の輪郭を示す図である。 図28は、第3実施形態に係るスマートフォンによる表示の一例を示す図である。 図29は、一実施形態に係る通信手段を備える機器、及びシステムを示す概念図である。 図30は、三次元画像の一変形例を示す図である。
いくつかの実施形態について、図面を参照しつつ詳細に説明する。
本実施形態では、電子機器の実施形態の一例としてスマートフォン1を採用し、対象物の一例として人の体を測定した場合について説明する。電子機器は、スマートフォン1に限られるものではなく、対象物は人の体でなくてもよい。対象物は、動物の体であってもよい。人の体は、例えば人の腹部を含んでいてよい。動物の体は、例えば動物の胴体を含んでいてよい。
(第1実施形態)
自機であるスマートフォン1は、向き情報を得る第1のセンサ部と、移動情報を得るためのデバイス部と、対象物の輪郭を演算するコントローラ10とを少なくとも備える。本実施形態では移動情報を得るためのデバイス部は第2のセンサ部を含んでいる。
図1から図3を参照しながら、第1の実施形態に係るスマートフォン1の外観について説明する。
ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence panel)、または無機ELパネル(Inorganic Electro-Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号または図形等を表示する表示部として機能する。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、またはスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、またはスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(または超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。静電容量方式では、指、またはスタイラスペン等の接触及び接近を検出することができる。
図4は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、タイマー11と、カメラ12及び13と、コネクタ14と、モーションセンサ15と、を有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、または図形等を表示する。タッチスクリーン2Bは、受付領域に対する接触を入力として受け付ける。つまり、タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)における操作(ジェスチャ)を検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、ディスプレイ2A(タッチスクリーンディスプレイ2)における操作(ジェスチャ)を検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、ロングプッシュ、及びマルチプッシュである。
例えば、ボタン3A〜3Cは、ホームボタン、バックボタンまたはメニューボタンである。本実施形態では、ボタン3A〜3Cとしてタッチセンサ型のボタンを採用している。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。
照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格として、LTE(Long TermEvolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy-phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC等がある。通信ユニット6は、上述した通信規格の1つまたは複数をサポートしていてもよい。
レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。
ストレージ9は、記憶部としてプログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する記憶部としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信または記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び測定アプリケーション9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。測定アプリケーション9Zは、利用者がスマートフォン1で対象物の輪郭を測定して三次元画像を生成する機能を提供する。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ10は、複数の集積回路を組み合わせて構成されていてもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する制御部として機能する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照する。コントローラ10は、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A、通信ユニット6、及びモーションセンサ15などを制御することによって各種機能を実現する。コントローラ10は、ストレージ9に記憶されている測定アプリケーション9Zに含まれる命令を実行して各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、モーションセンサ15などの各種検出部の検出結果に応じて、制御を変更することができる。本実施形態では、コントローラ10全体が制御部として機能する。コントローラ10は、第1のセンサ部により取得された向き情報と、第2のセンサ部により取得された移動情報とに基づいて、対象物の輪郭を演算する。
タイマー11はあらかじめ設定された周波数のクロック信号を出力する。タイマー11はコントローラ10からタイマー動作の指示を受け、クロック信号をコントローラ10に出力する。第1のセンサ部及び第2のセンサ部は、コントローラ10を介して入力されるクロック信号に従って、向き情報及び移動情報を複数回取得する。なお、タイマー11はコントローラ10の外部に備えられていてもよいし、後述する図21で示すように、コントローラ10に含まれていてもよい。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。本実施形態のコネクタ14は、当該端子に接続される接続物を介してスマートフォン1と他の装置とが通信する通信部としても機能する。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、MHL(Mobile High-definition Link)、ライトピーク(Light Peak)、サンダーボルト(Thunderbolt)、LANコネクタ(Local Area Network connector)、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用に設計された端子でもよい。コネクタ14に接続される装置には、例えば、充電器、外部ストレージ、スピーカ、通信装置、情報処理装置が含まれる。
モーションセンサ15は、モーションファクタを検出する。このモーションファクタは、自機であるスマートフォン1のコントロールファクタとして主に処理される。コントロールファクタは自機のおかれた状況を示す因子であり、コントローラ10で処理される。モーションセンサ15は、利用者の体の輪郭を測定する測定部として機能する。本実施形態のモーションセンサ15には、加速度センサ16と、方位センサ17と、角速度センサ18と、傾きセンサ19とが含まれている。加速度センサ16、方位センサ17、角速度センサ18、及び傾きセンサ19の出力は、組み合わせて利用することが可能である。モーションセンサ15の出力を組み合わせて処理することによって、自機であるスマートフォン1の動きを高度に反映させた処理を、コントローラ10によって実行することが可能となる。
本実施形態では、第1のセンサ部は自機であるスマートフォン1の向き情報を得る。スマートフォン1の向き情報とは、第1のセンサ部から出力される情報である。スマートフォン1の向き情報とは、スマートフォン1の向いている方向に関する情報である。スマートフォン1の向き情報には、例えば地磁気の方向、地磁気に対する傾き、回転角の方向、回転角の変化、重力方向、重力方向に対する傾きが含まれる。
スマートフォン1の向きとは、対象物の輪郭を測定する際に、対象物に対向しているハウジング20の面の法線方向を示す。対象物に対向させるハウジング20の面は、第1のセンサ部でその向きを検出できる面であればよく、フロントフェイス1A、バックフェイス1B、サイドフェイス1C1〜1C4、のいずれを対向させてもよい。
本実施形態では、第1のセンサ部として、方位センサ17、角速度センサ18及び傾きセンサ19のいずれかを用いてよい。後述するように、スマートフォン1は、第1方向及び第2方向という2つの異なる方向で体の輪郭を測定する。輪郭を測定する方向に応じて、第1のセンサとして、それぞれ異なるセンサが用いられてもよい。
方位センサ17は地磁気の向きを検出するセンサである。方位センサ17が第1のセンサ部として用いられる場合、スマートフォン1の向きを地面に平行な面上に投影した成分が、方位センサ17で取得される向き情報である。方位センサ17で取得される向き情報は、スマートフォン1の方位である。スマートフォン1の方位は、0〜360度の向き情報として取得することができる。例えば、スマートフォン1の向きが北を向いていれば0度、東を向いていれば90度、南を向いていれば180度、西を向いていれば270度、として向き情報が取得される。方位センサ17が第1のセンサとして用いられる場合、測定対象物の輪郭が地面に平行であると、向き情報がより正確に取得されうる。例えば、起立状態で、対象物である体の腹部を周方向(後述する第1方向)で測定する場合、方位センサ17を第1のセンサとして用いることができる。
方位センサ17は、検出した地磁気の向きを出力する。例えば地磁気の向きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の向いている方位を反映したコントロールファクタとして処理に利用することが可能となる。例えば地磁気の向きの変化がモーションファクタとして出力されると、コントローラ10は、スマートフォン1の向きの変化を反映したコントロールファクタとして処理に利用することが可能となる。
角速度センサ18は、スマートフォン1の角速度を検出する。角速度センサ18は、スマートフォン1の角速度を、向き情報として取得することができる。コントローラ10は、取得された角速度を1回時間積分することにより、スマートフォン1の向きを演算する。演算されたスマートフォン1の向きは、測定開始の初期値を基準とした相対角度である。
角速度センサ18は、検出した角速度を出力する。例えば角速度の向きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の回転方向を反映したコントロールファクタとして処理に利用することが可能となる。例えば角速度の大きさが出力されると、コントローラ10は、スマートフォン1の回転量を反映したコントロールファクタとして処理に利用することが可能となる。
傾きセンサ19は、スマートフォン1に働く重力加速度を検出する。傾きセンサ19は、スマートフォン1の重力加速度を、向き情報として取得することができる。例えば、スマートフォン1は傾きセンサ19によって、−9.8〜9.8[m/秒]の向き情報として取得することができる。例えば、図1に示すスマートフォン1のy軸方向が重力方向と同じ場合は9.8[m/秒]、逆の場合は−9.8[m/秒]、y軸方向が重力方向と垂直の場合は0[m/秒]、として向き情報が取得される。傾きセンサ19が第1のセンサとして用いられる倍、測定対象物の輪郭が地面に対して略垂直であると、向き情報がより正確に取得され得る。例えば、起立状態で、対象物である体を高さ方向(後述する第2方向)で測定する場合、傾きセンサ19を第1のセンサとして用いることができる。
傾きセンサ19は、検出した傾きを出力する。例えば重力方向に対する傾きがモーションファクタとして出力されると、コントローラ10は、スマートフォン1の傾きを反映したコントロールファクタとして処理に利用することが可能となる。
コントローラ10は、スマートフォン1の向き情報から向きを演算する場合がある。例えば、上述した角速度センサ18は向き情報として角速度を取得する。取得された角速度に基づいて、コントローラ10はスマートフォン1の向きを演算する。例えば、上述した傾きセンサ19は向き情報として重力加速度を取得する。取得された重力加速度に基づいて、コントローラ10はスマートフォン1の重力方向に対する向きを演算する。
第1のセンサ部は、上述したモーションセンサ15を組み合わせて利用することが可能である。複数のモーションセンサからの向き情報を組み合わせて処理することによって、自機であるスマートフォン1の向きを、コントローラ10はより正確に演算することが可能となる。
本実施形態では、自機の移動情報を得るためのデバイス部は第2のセンサ部である。第2のセンサ部は自機であるスマートフォン1の移動情報を得る。スマートフォン1の移動情報とは、第2のセンサ部から出力される情報である。スマートフォン1の移動情報とは、スマートフォン1の移動量に関する情報である。スマートフォン1の移動情報には、例えば加速度、速度、移動量が含まれる。
スマートフォン1の移動量とは、本実施形態では、スマートフォン1のハウジング20の基準位置の移動量である。ハウジング20の基準位置は、第2のセンサ部で検出できる位置であればどこでもよく、例えばサイドフェイス1C1の面を基準位置とする。
本実施形態では、第2のセンサ部に加速度センサ16を用いることができる。加速度センサ16はスマートフォン1に働く加速度を検出するセンサである。加速度センサ16は、スマートフォン1の加速度を移動情報として取得することができる。コントローラ10は、取得された加速度を2回時間積分することにより、スマートフォン1の移動量を演算する。
加速度センサ16は、検出した加速度を出力する。例えば加速度の方向が出力されると、コントローラ10は、スマートフォン1の動いている方向を反映したコントロールファクタとして処理に利用することが可能となる。例えば加速度の大きさが出力されると、コントローラ10は、スマートフォン1の動いている速度、移動量を反映したコントロールファクタとして処理に利用することが可能となる。
コントローラ10は、対象物の輪郭を演算することにより、対象物のワイヤフレーム画像を生成する。対象物の輪郭は、第1のセンサ部、第2のセンサ部で取得された向き情報、移動情報に基づいて演算される。コントローラ10は演算の過程で向き、移動量を演算する場合がある。コントローラ10は、生成したワイヤフレーム画像に基づいて、対象物の三次元画像を生成する。三次元画像は、例えば三次元ワイヤフレーム画像として生成される。
上述した各モーションセンサ15は、それぞれ3つの軸方向におけるモーションファクタの検出が可能なセンサを採用している。本実施形態のモーションセンサ15が検出する3つの軸方向は、互いに略直交している。図1〜3に示したx方向、y方向、z方向は、モーションセンサ15の3つの軸方向と対応している。3つの軸の方向は互いに直交していなくてもよい。3方向が互いに直交していないモーションセンサ15では、演算によって直交する3方向におけるモーションファクタを算出可能である。各モーションセンサ15は、基準とする方向が異なっていてもよい。本実施形態においては、各モーションセンサ15は必ずしも3軸でなくてもよい。コントローラ10は、1軸方向における向き情報及び1軸方向における移動情報で、輪郭の演算が可能である。
第1のセンサ部、第2のセンサ部は、上述したモーションセンサ15のいずれかを用いるか、あるいは他のモーションセンサを用いてもよい。
図4においてストレージ9が記憶するプログラムの一部または全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。また、図4においてストレージ9が記憶するプログラムの一部または全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。また、図4においてストレージ9が記憶するプログラムの一部または全部は、コネクタ14に接続される読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。記憶媒体としては、例えばフラッシュメモリ、HDD(登録商標)(Hard Disc Drive)、CD(Compact Disc)、DVD(登録商標)(Digital Versatile Disc)、またはBD(Blu-ray(登録商標) Disc)などを用いることができる。
図1〜図4に示したスマートフォン1の構成は一例であり、本開示の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図1の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列またはQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。照度センサ4と近接センサ5とは、1つのセンサから構成されていてもよい。図4に示した例では、自機であるスマートフォン1の向き情報及び移動情報を取得するために、4種類のセンサを備える。スマートフォン1は、このうちいくつかのセンサを備えなくてもよいし、他のセンサを備えてもよい。
次に、本実施形態に係るスマートフォン1を用いた対象物の測定方法について説明する。利用者は、測定アプリケーション9Zにおいて、測定機能が起動された状態で、スマートフォン1を、対象物に沿って移動させる。利用者は、スマートフォン1を、第1方向、及び第1方向とは異なる第2方向に移動させてよい。本実施形態において、第1方向は、体(胴体)の周方向である。本実施形態において、第2方向は、体の高さ方向である。
図5及び図6は、本実施形態に係る対象物の輪郭の測定の様子を示す模式図である。図5は、第1方向に輪郭を測定する様子を示す模式図である。利用者は、図5に示すように、体の周方向に沿ってスマートフォン1を移動(走査)させることにより、対象物の第1方向の輪郭を測定する。第1方向に沿って測定された輪郭を、本明細書において、以下、「第1の輪郭」とも称する。利用者は、図5に示すように、第1方向の輪郭を、高さを変えて、複数測定することができる。利用者は、例えば、体のへそを通る高さにおける第1の輪郭を測定させ、当該へそを通る高さから、所定の高さ(例えば5cmまたは10cm等)ずつ高さを変えて、第1方向にスマートフォン1を移動させることにより、複数の第1の輪郭を測定できる。
図6は、第2方向に輪郭を測定する様子を示す模式図である。利用者は、図6に示すように、体の高さ方向に沿ってスマートフォン1を移動させることにより、対象物の第2方向の輪郭を測定する。利用者は、例えば、体の正中に沿ってスマートフォン1を移動させてよい。第2方向に沿って測定された輪郭を、本明細書において、以下、「第2の輪郭」とも称する。
図5及び図6から理解されるように、第1方向と第2方向とは、略直交していてよい。ここでいう略直交とは、胴体の周方向と高さ方向との交差の程度を含む。また、複数の第1の輪郭のうちのいずれか1つと、第2の輪郭とは、へそを通る輪郭である。従って、当該1つの第1の輪郭と、第2の輪郭とは、へそにおいて略直交する。
図7は実施形態に係る対象物の輪郭の測定フロー図である。ここでは、第1の輪郭の測定を行う場合のフローについて説明する。
ステップS101で、利用者は測定アプリケーション9Zにおける測定機能を起動させる。次に、ステップS102で測定を開始する。測定開始時、スマートフォン1は、対象物の輪郭を測定する腹部のいずれかの位置に、腹部60の表面に対して当てられる。例えば、スマートフォン1は、利用者のへその高さ(図5のA−Aで図示した位置)において腹部60の表面に対して当てられる。対象物の輪郭の測定に支障がない範囲で、スマートフォン1は、腹部60の表面へ接触させてもよいし、腹部60の表面へ着衣を介して当ててもよい。測定開始位置は腹部A−A位置のどこから開始してもよく、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。あらかじめ設定された開始アクションは、スマートフォン1のいずれかのボタン3を押すことでもよいし、タッチスクリーン2B上の特定の位置をタップするなどでもよい。スマートフォン1の腹部の表面へ当てられる対向面は、フロントフェイス1A、バックフェイス1B、サイドフェイス1C1〜1C4のどの面でもよいが、操作性を考慮し、本実施形態ではバックフェイス1Bを対向面とした。
ステップS103で、利用者は腹部60のA−A位置の表面に沿ってスマートフォン1を移動させ、腹部60を一周させる。ここで、スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させると、各情報の取得間隔が一定となり、輪郭測定の精度を高めることができる。
ステップS103では、あらかじめプログラムされた条件で、方位センサ17により向き情報を取得し、加速度センサ16により移動情報を取得する。向き情報と移動情報とは複数回取得される。向き情報と移動情報は、タイマー11から出力されたクロック信号に従って取得される。各情報の取得周期は測定対象物の輪郭の大きさ(つまり周の長さ)及び/または複雑さによって、適宜選択される。情報の取得周期は、例えばサンプリング周波数5〜60Hz(ヘルツ)の中から適宜選択される。取得された向き情報と移動情報の情報は、スマートフォン1の内部に一時的に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。
利用者は、スマートフォン1を腹部60の表面に対して当てたまま一周させたところで、スマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了する(ステップS104)。あらかじめ設定された終了アクションは、スマートフォン1のいずれかのボタン3を押すことでもよいし、タッチスクリーン2B上の特定の位置をタップすることでもよい。あるいは、スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報と一致した場合、または測定開始時の向き情報から360度変化した場合を一周と自動認識し、スマートフォン1が測定を終了させてもよい。自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。
ステップS103にて得られた向き情報と移動情報とを、ステップS105において演算する。この演算はコントローラ10によって行われる。コントローラ10は、対象物の輪郭及び腹囲を演算する。ステップS105における演算については後に詳述する。
スマートフォン1は、ステップS106において、ステップS105にて演算した結果をストレージ9に記憶する。
スマートフォン1は、ステップS107において、利用者の操作入力に基づいて輪郭の測定を継続するか否かを判定する。スマートフォン1は、輪郭の測定を継続する場合(ステップS107のYES)、ステップS102に移行する。この場合、利用者は、異なる高さにおいて、腹部60に対してスマートフォン1を当てて第1方向に動かすことにより、第1の輪郭を測定することができる。利用者は、へその高さにおける第1の輪郭を測定した後、当該へその高さよりも所定の距離高い位置における第1の輪郭を測定し、これを繰り返すことによって、それぞれ異なる高さにおける複数の第1の輪郭を測定することができる。スマートフォン1は、測定された順序に応じて、複数の第1の輪郭それぞれの、へそからの距離(高さ方向の変位)を推定することができる。
スマートフォン1は、輪郭の測定を継続しない場合(ステップS107のNO)、フローを終了する。
なお、スマートフォン1は、図7に示すフローと同様の要領で、第2の輪郭を測定できる。この場合、例えば利用者は、スマートフォン1を、へそに当てた状態から、正中に沿って第2方向に移動させることにより、第2の輪郭を測定できる。これにより、スマートフォン1は、第2の輪郭の測定における測定開始位置を、へその位置として認識することができる。なお、利用者は、第1の輪郭を測定した後、第2の輪郭を測定する前に、第2の輪郭を測定することをスマートフォン1に入力してもよい。これにより、スマートフォン1は、当該入力後に測定された輪郭を、第2の輪郭として処理することができる。
本実施形態では、スマートフォン1はバックフェイス1Bを腹部に当て、y軸方向に移動する。このような場合、方位センサ17は、スマートフォン1のy軸方向の向きを測定できる1軸のセンサであってよい。加速度センサ16は、y軸方向の移動量が測定できる1軸のセンサであってよい。
次に図8〜図10を用いて対象物の輪郭の演算方法について、スマートフォン1を例に挙げて説明する。ここでは、第1の輪郭の演算方法について説明するが、第2の輪郭についても、同様の方法により演算されてよい。
図8は実施形態に係る向きと移動量との一例を示す。
図8A,図8Bの横軸は時間で、測定開始から測定終了までの時間を示す。時間はタイマー11が出力するクロック信号によりカウントされる。腹部の1周をTn秒で測定した場合、測定開始は0秒、測定終了はTn秒である。スマートフォン1は、0〜Tn秒の間に、あらかじめ決められた取得周期で向き情報、移動情報を取得する。
図8Aは、横軸に時間、縦軸にスマートフォン1の方位を示す。横軸のスマートフォン1の方位は、方位センサ17で取得された向き情報である。第1のセンサ部として方位センサ17を採用する本実施形態では、向き情報をスマートフォン1の方位とする。スマートフォン1の方位は、0〜360度の角度で表される。スマートフォン1の方位は、測定の最初の向きから360度の変化した状態で、1周と判定される。本実施形態では、わかりやすくするために、測定の最初の向きを0度と設定したので、1周後の向きは360度となる。
図8Bは、横軸に時間、縦軸にスマートフォン1の移動量を示す。縦軸のスマートフォン1の移動量は、加速度センサ16で取得された移動情報に基づいて演算されたものである。本実施形態のスマートフォン1の移動情報は、加速度センサ16で取得された加速度データである。移動量はコントローラ10によって演算されたものであり、加速度データを2回時間積分して演算される。加速度データのノイズが大きい場合は、デジタルフィルタ処理を行ってもよい。デジタルフィルタは、例えばローパスフィルタ、バンドパスフィルタ等がある。測定終了時のスマートフォン1の移動量は、測定対象物の周りの長さに相当し、本実施形態では腹囲である。腹囲は、スマートフォン1内での加速度センサ16の配置を考慮して演算されてもよい。すなわち、本実施形態では、腹部60の表面へ当てられる対向面であるバックフェイス1Bと、加速度センサ16との間隔を考慮して移動量を補正し、正しい腹囲を演算してもよい。
本実施形態では、方位と移動量が同一時間Tnで測定された場合を示したが、方位と移動量はそれぞれ異なる時間Ta、Tbで測定されてもよい。その場合、図8Aの横軸はTaで規格化した規格化時間0〜1を用い、図8Bの横軸はTbで規格化した規格化時間0〜1を用い、互いの横軸の数値をそろえてもよい。
図9は取得された情報から構成されたレコードの一例である。
測定開始時をレコード番号R0、測定終了時をレコード番号Rnとした。各レコードは、時間に対応する向き情報と移動情報とが1対で格納されている。さらに各レコードは、移動情報に基づいて演算された移動量が格納されている。方位センサ17を用いた本実施形態では、向き情報はスマートフォン1の向いている方位である。1対で構成された向き情報及び移動情報に基づいて演算された方位及び移動量は、図8A,図8Bの同一時間に取得された情報である。または同一規格化時間に取得された情報である。各レコードの時間間隔は等間隔でなくてもよい。また、1対のレコードは同一時間に取得された情報であってもよいし、取得時間にずれがあってもよい。取得時間にずれがある場合、コントローラ10は、時間のずれを考慮しなくてもよい。
図10は演算された対象物の第1の輪郭を示す図である。
取得されたレコードR0からレコードRnを、向きと移動量に従って、順にプロットしていくことにより、対象物の第1の輪郭を演算することができる。図中のR0からRnは、対応するレコード番号を表している。また実線上の点は、各レコードの位置を示す。実際はより多数の点で構成されるが、図を見やすくするために点の一部を省略して図示した。
第1の輪郭の演算は次のように行っていく。まず、R0を任意の点に設定する。次に、R1の位置は、レコードR0とレコードR1の移動量の変化量と、レコードR1の向き情報とから演算される。次に、R2の位置は、レコードR1とレコードR2の移動量の変化量と、レコードR2の向き情報の変化量とから演算される。この演算をRnまで行い、R0の位置から、順にRnの位置までをつなげることで、対象物の第1の輪郭を演算し、表示をする。
図11は実施形態に係る実測値による補正を説明する図である。
上述の実施形態では、第1の輪郭を演算するときに、加速度センサ16により取得された移動情報を用いたが、あらかじめ他の手段で測定された対象物の周りの長さの実測値を用いてもよい。図11は横軸に時間、縦軸に移動量を示す。図中点線は、加速度センサ16により取得された移動情報に基づいて演算された移動量である。測定終了時の移動量は、測定対象物の周りの長さに相当し、本実施形態では腹囲となる。この測定終了時の移動量を、あらかじめ巻尺等で測定された腹囲の実測値を等しくなるように補正する。具体的には、図11に示す補正量ΔWをオフセットし、その後オフセットしたΔWにあわせてグラフの傾きを補正する。補正後のデータを実線で示す。この補正後の実線データから構成されたレコードを用いて、コントローラ10は対象物の第1の輪郭を演算する。
次に、演算された第1の輪郭の傾き及び位置の補正について説明する。測定開始時のスマートフォン1の向きを0度と設定すると、演算された第1の輪郭の対称軸は傾いている場合がある。例えば第1の輪郭の場合、傾きを補正して、図10のY軸方向に腹部もしくは背中を正対させて表示したい場合がある。図10の座標軸において、傾きの補正は、第1の輪郭のX軸方向の幅、もしくは第1の輪郭のY軸方向の幅が最小もしくは最大になるように、第1の輪郭を回転させればよい。
また、測定開始時のスマートフォン1の位置座標を図10のXY原点とすると、演算された第1の輪郭は中央からずれて表示される。第1の輪郭を表示する場合、図10のXY原点と第1の輪郭の中心とを一致させたい場合がある。第1の輪郭の中心は、第1の輪郭のX軸方向の最大幅の中心線と、第1の輪郭のY軸方向の最大幅の中心線とが交わる点としてもよい。さらに、第1の輪郭の断面の中心を図10のXY原点に移動してもよい。また、スマートフォン1は、第1の輪郭と、Y軸との交点(図10に示す例では、Y軸正方向における交点)を、利用者のへその位置と決定してよい。
以上説明した通り、本実施形態に係る機器においては、スマートフォン1に内蔵されたセンサにより対象物の輪郭の測定ができる。測定された対象物の輪郭は、三次元画像を生成するためのワイヤフレームとして使用される。スマートフォン1は、CTなどの測定装置に比べて小型である。スマートフォン1は、短時間に対象物の輪郭を測定できる。スマートフォン1は、利用者自身でデータの測定ができるので、測定が簡便である。スマートフォン1は、CTなどでは困難な機器の持ち運びが容易である。スマートフォン1は、利用者自身でデータの蓄積ができるので、日々の変化が容易に確認できる。スマートフォン1は、測定時に放射線被爆の恐れが少ない。
次に、スマートフォン1による三次元画像の生成方法の詳細について説明する。図12は、第1実施形態に係る三次元画像の生成フロー図である。
ステップS111で、利用者は測定アプリケーション9Zを起動させる。
次に、利用者はスマートフォン1に、身体の寸法情報を入力する。身体の寸法情報は、例えば、身長、座高及び腹囲のいずれかを含んでよい。スマートフォン1は、ステップS112において、利用者の操作入力に基づく、身体の寸法情報の入力を受け付ける。なお、例えば身体の寸法情報が予め入力されてストレージ9に記憶されている場合には、ステップS112は省略されてもよい。
次に、スマートフォン1は、ステップS113において、第1の輪郭を測定する。また、スマートフォン1は、ステップS114において、第2の輪郭を測定する。スマートフォン1による第1の輪郭の測定及び第2の輪郭の測定方法の詳細は、図7等を参照して説明したとおりである。
スマートフォン1は、測定した第1の輪郭及び第2の輪郭に基づき、ステップS115において、三次元画像を生成する。
図13は、第1実施形態において生成される三次元画像の一例を示す図である。図13には、4つの第1の輪郭HF1、HF2、HF3及びHF4と、1つの第2の輪郭VFとが記載されている。第1の輪郭HF1、HF2、HF3及びHF4、並びに第2の輪郭VFは、ワイヤフレーム画像として生成されたものである。スマートフォン1は、ワイヤフレーム画像を組み合わせることにより、三次元画像としての三次元ワイヤフレーム画像を生成する。
1つの第1の輪郭HF1と、第2の輪郭VFとは、へそ部Nを含む。すなわち、図13に示す例では、第1の輪郭HF1は、へそを含む胴体の周方向に沿って測定された輪郭であり、第2の輪郭VFは、胴体の正中に沿って測定された輪郭である。第1の輪郭HF1、HF2、HF3及びHF4は、それぞれ利用者が、スマートフォン1を対象物に当てる高さを変えて、順次測定した輪郭である。第1の輪郭HF1、HF2、HF3及びHF4は、この順で測定された位置が低い。
コントローラ10は、図13に示すように、第1の輪郭HF1、HF2、HF3及びHF4のそれぞれと、第2の輪郭VFとを交差させることにより三次元画像を生成する。このとき、コントローラ10は、へそ部Nを含む第1の輪郭HF1のへそ部Nと、第2の輪郭VFのへそ部Nとが一致するように、第1の輪郭HF1と、第2の輪郭VFとを交差させる。へそ部Nを含まない第1の輪郭HF2、HF3及びHF4は、へそ部Nを含む第1の輪郭HF1とともに互いに平行に並べられる。4つの第1の輪郭HF1、HF2、HF3及びHF4は、測定した場合と同様にこの順で並べられる。このようにして、図13に示すような三次元画像が生成される。
図12に戻ると、スマートフォン1は、ステップS116において、ステップS115で生成した三次元画像を出力する。三次元画像の出力は、例えばディスプレイ2Aへの表示、サーバへの送信など種々の方法が挙げられる。スマートフォン1は、例えば図13に示す三次元画像を、ディスプレイ2Aに表示する。スマートフォン1は、三次元画像の出力が終了すると、フローを終了する。表示された三次元画像を見た利用者は、腹部の形状を視覚的に把握しやすくなる。
ステップS115における三次元画像の生成において、コントローラ10は、例えば図14に一例として示すように、第1の輪郭HF1、HF2、HF3及びHF4それぞれの背面側の点を結んで曲線VF2を描画することにより、背面側の仮想的な輪郭を含む三次元画像を生成してもよい。背面側の点は、第1の輪郭HF1、HF2、HF3及びHF4のそれぞれにおいて、第2の輪郭VFと交差する位置の反対の位置の点であってよい。この場合、スマートフォン1は、図14に示す三次元画像をディスプレイ2Aに表示できる。背面側の仮想的な輪郭を含む三次元画像を表示することにより、利用者は、腹部の形状をより視覚的に把握しやすくなる。
図15は実施形態に係る電子巻尺を説明する概略図である。
電子巻尺とは、引き出した分の巻尺の長さを測定し、データを取得する機能を持つもので、加速度センサ16と同様に、移動情報を取得することができる。スマートフォン1に内蔵させることもできる。
電子巻尺71は、ハウジング70を備える。ハウジング70のフロントフェイス71Aにはタッチスクリーンディスプレイ72を備えている。ハウジング70のサイドフェイス71C2には、巻尺73が備えられている。巻尺73には寸法目盛が刻まれている。巻尺73は、通常はハウジング70の内部に巻き込まれている。巻尺73の先端には、ストッパ74が備えられている。測定前、ストッパ74はハウジング70の外部に配置され、ストッパ74のB面とサイドフェイス71C2とは接触している状態である。対象物の寸法を測る場合は、図15の矢印方向にストッパ74を引っ張り、巻尺73をハウジング70から引き出す。その時、サイドフェイス71C2を基準とした巻尺73の引き出し量Xが、タッチスクリーンディスプレイ72にデジタル表示されている。図15に示す実施形態は、X=5.00cmの場合である。
本実施形態におけるスマートフォン1の第2のセンサ部に電子巻尺71を用いる場合、測定手順、対象物の輪郭の演算は図5〜図10で説明した内容に準じる。以下、電子巻尺71を用いた場合の測定手順について説明する。ステップS102の測定開始で、ハウジング70を腹部の表面に当てる。ステップ103で、利用者はストッパ74を測定開始位置に保持したまま、ハウジング70を腹部60のA−A位置の表面に沿って移動させ、腹部60を一周させる。サイドフェイス71C2とストッパ74のB面が一致したとき、測定は終了となる(ステップS104)。
第2のセンサ部に加速度センサ16を用いた場合は、移動情報として加速度が取得される。これに対して、第2のセンサ部に電子巻尺71を用いた場合は、移動情報として直接長さを取得することができる。従って、第2のセンサ部に電子巻尺71を用いた場合、より精度の高い腹囲の測定が可能となる。
本実施形態に係るスマートフォン1は、ステップS115で三次元画像を生成したときに、三次元画像と、三次元画像を生成した時刻とを対応付けて、ストレージ9に記憶してもよい。例えば、スマートフォン1は、三次元画像を生成した時刻に関する情報(以下、本明細書において「時刻情報」とも称する)を取得する。スマートフォン1は、例えば、リアルタイムクロック(RTC)等の時計機能により、時刻情報を取得する。時刻情報は、必ずしもステップS115で三次元画像を生成したときに取得されなくてもよい。時刻情報は、例えば、ステップS111におけるアプリケーションの起動後等、三次元画像の生成に関連する任意のタイミングで取得されてよい。
ストレージ9には、スマートフォン1が生成した三次元画像及びその時刻情報に加え、腹部の形状に関係し得る他の情報が記憶されてもよい。ここで、ストレージ9が記憶する情報の一例について説明する。
例えば、スマートフォン1のストレージ9は、利用者が摂取した飲食物に関する情報を、当該飲食物を摂取した時刻に対応付けて記憶してよい。飲食物に関する情報は、例えば、飲食物の種類、量及びカロリーの少なくとも1つを含んでよい。飲食物に関する情報は、例えば、飲食物の料理名、飲食物に含まれる原材料及び成分(例えば栄養素等)の少なくとも1つを含んでよい。また、ここでいう飲食物は、一般食品、健康機能食品及び医薬品のいずれかを含んでよい。
スマートフォン1は、多様な方法で飲食物に関する情報を取得することができる。例えば、スマートフォン1は、利用者によるタッチスクリーン2B及び/またはボタン3への入力を受け付けることにより、飲食物に関する情報を取得できる。この場合、利用者は、タッチスクリーン2B及び/またはボタン3を用いて、飲食物に関する情報をスマートフォン1に直接入力する。利用者は、例えば飲食物を摂取するときに、飲食物に関する情報を入力する。スマートフォン1のコントローラ10は、飲食物に関する情報が入力された時刻を、飲食物に関する情報に対応付けてストレージ9に記憶する。
スマートフォン1は、例えば、飲食物のパッケージに含まれる情報に基づいて、飲食物に関する情報を取得してもよい。飲食物のパッケージに含まれる情報は、例えばバーコード(JAN(Japanese Article Number)ともいう)を含む。例えば、飲食物のパッケージにバーコードが記載されている場合、利用者は、スマートフォン1のカメラ13を用いて、バーコードを撮影する。スマートフォン1のコントローラ10は、撮影されたバーコードを読み取り、当該バーコードに対応付けられた商品に関する情報を、飲食物に関する情報として、ストレージ9に記憶する。このとき、コントローラ10は、例えば外部の情報処理装置と通信を行うことにより、バーコードに対応付けられた商品に関する情報を取得してもよい。利用者は、例えば飲食物を摂取するときに、スマートフォン1を用いてバーコードを読み取らせる。スマートフォン1のコントローラ10は、バーコードを読み取った時刻を、飲食物に関する情報に対応付けてストレージ9に記憶する。飲食物のパッケージに、バーコード以外の他のコード(例えば、1次元コード又は2次元コード等)が含まれる場合には、スマートフォン1は、これらのコードを読み取ることにより、飲食物に関する情報を取得してもよい。
飲食物に関する情報は、例えば、RFID(radio frequency identifier)を含む。例えば、飲食物のパッケージに当該飲食物に関する情報を有するRFIDタグが備えられ、スマートフォン1がRFID対応の電子機器である場合、利用者は、スマートフォン1に、飲食物のパッケージに備えられるRFIDタグから飲食物に関する情報を取得させる。スマートフォン1のコントローラ10は、取得した飲食物に関する情報をストレージ9に記憶する。スマートフォン1のコントローラ10は、RFID通信により飲食物に関する情報を取得した時刻を、飲食物に関する情報に対応付けてストレージ9に記憶する。
飲食物に関する情報は、例えば、パッケージに記載された栄養成分表示に関する情報を含む。例えば、飲食物のパッケージに栄養成分表示に関する情報が記載されている場合、利用者は、スマートフォン1のカメラ13を用いて、パッケージに記載された栄養成分表示の欄を撮影する。スマートフォン1のコントローラ10は、撮影された栄養成分表示の欄を読み取り、栄養成分表示として記載された情報(この場合、カロリー及び食品に含まれる栄養成分及びその量等)を、飲食物に関する情報として、ストレージ9に記憶する。このとき、コントローラ10は、例えば外部の情報処理装置と通信を行って、外部の情報処理装置に撮影した画像を送信してもよい。この場合、当該外部の情報処理装置が、撮影された栄養成分表示の欄を読み取り、栄養成分表示として記載された情報を、スマートフォン1に送信する。スマートフォン1は、取得した情報を、飲食物に関する情報として、ストレージ9に記憶する。スマートフォン1のコントローラ10は、栄養成分表示の欄を撮影した時刻を、飲食物に関する情報に対応付けてストレージ9に記憶する。
飲食物に関する情報は、飲食物の画像に基づいて推定されてもよい。例えば、利用者は、スマートフォン1のカメラ13を用いて、摂取前の飲食物の画像を撮影する。コントローラ10は、撮影された画像を画像分析することにより、飲食物に関する情報を推定する。例えば、コントローラ10は、画像分析により、飲食物の体積に基づいて飲食物の量を推定できる。例えば、コントローラ10は、画像分析により、飲食物の色に基づいて飲食物が含む栄養素を推定できる。飲食物に含まれる食材の色は、必ずしも食材が含む栄養素に対応するものではないが、食材の色によって、その食材が含む栄養素を推定できる。コントローラ10は、撮像された画像に基づき、飲食物に含まれるカロリーを推定してもよい。コントローラ10は、推定した情報を、飲食物に関する情報として、ストレージ9に記憶する。コントローラ10は、飲食物の画像を撮影した時刻を、飲食物に関する情報に対応付けてストレージ9に記憶する。
撮影された飲食物の画像に基づく飲食物に関する情報の推定は、必ずしもスマートフォン1のコントローラ10によって実行されなくてもよい。例えば、スマートフォン1のコントローラ10は、撮影された飲食物の画像を外部の情報処理装置に送信し、当該外部の情報処理装置が飲食物の画像に基づいて飲食物に関する情報を推定してもよい。外部の情報処理装置は、推定した飲食物に関する情報を、スマートフォン1に送信する。スマートフォン1は、外部の情報処理装置から取得した飲食物に関する情報をストレージ9に記憶する。
利用者は、摂取前の飲食物の画像に加え、スマートフォン1のカメラ13を用いて、摂取後の飲食物の画像も撮影してもよい。この場合、コントローラ10または外部の情報処理装置は、摂取後の飲食物の画像に基づいて、利用者の食べ残した飲食物の内容を推定できる。そのため、コントローラ10または外部の情報処理装置は、利用者が実際に摂取した飲食物について、飲食物に関する情報を推定しやすくなる。
スマートフォン1のストレージ9は、利用者の身体活動に関する情報を、当該身体活動を行った時刻に対応付けて記憶してもよい。本明細書において、身体活動に関する情報は、利用者が生活において行う活動をいう。身体活動に関する情報は、例えば、運動に関する情報と、睡眠に関する情報とを含んでよい。運動に関する情報は、運動量及び消費カロリーの少なくとも1つを含んでよい。本明細書において、運動量は、運動の内容及び運動時間を含んでよい。睡眠に関する情報は、睡眠時間を含んでよい。
スマートフォン1は、多様な方法で運動に関する情報を取得することができる。例えば、スマートフォン1は、利用者によるタッチスクリーン2B及び/またはボタン3への入力を受け付けることにより、運動に関する情報を取得できる。この場合、利用者は、タッチスクリーン2B及び/またはボタン3を用いて、運動に関する情報をスマートフォン1に直接入力する。利用者は、例えば運動を行う前または運動を行った後に、運動に関する情報を入力する。スマートフォン1のコントローラ10は、利用者による入力に基づいて、利用者が運動を行った時刻を、運動に関する情報に対応付けてストレージ9に記憶する。
スマートフォン1は、自機が備えるセンサにより取得した情報に基づいて、運動に関する情報を推定してもよい。例えば、利用者が運動を行う際にスマートフォン1を身につける場合、スマートフォン1のコントローラ10は、モーションセンサ15により検出された利用者の体動の大きさに基づいて、運動の強度及び運動時間等の運動に関する情報を推定する。例えば、コントローラ10は、体動の大きさが所定の体動閾値を超えている場合に利用者が運動を行っていると判断する。コントローラ10は、体動の大きさが所定の体動閾値を継続して超えている時間を利用者の運動時間として推定する。コントローラ10は、体動の大きさが所定の体動閾値を超えた時刻及び下回った時刻を、それぞれ運動時間の開始時刻及び終了時刻として推定できる。コントローラ10は、所定の体動閾値を複数設定し、複数の強度レベルの運動に対応する運動時間の開始時刻及び終了時刻を推定してもよい。コントローラ10は、利用者の体動に基づいて歩数を計測し、歩数から消費カロリーを算出してもよい。
スマートフォン1が、例えば利用者の脈拍及び体温等の生体情報を検出可能なセンサを備える場合、コントローラ10は、生体情報に基づいて運動に関する情報を推定してもよい。人は、運動中に脈拍が増加し、体温が上昇する。コントローラ10は、脈拍及び体温について、あらかじめ設定された、利用者が運動をしているか否かを判定するための所定の運動判定閾値に基づき、脈拍及び体温が所定の運動判定閾値よりも大きくなった時刻を、運動を開始した時刻と推定できる。コントローラ10は、脈拍及び体温の変化に基づいて、利用者の運動強度を推定することもできる。
コントローラ10は、運動に関する情報を推定した場合、利用者が運動を行った時刻を、推定した運動に関する情報に対応付けてストレージ9に記憶する。運動を行った時刻は、運動開始時刻及び運動終了時刻の一方または双方であってよい。
運動に関する情報の推定は、必ずしもスマートフォン1のコントローラ10により実行されなくてもよい。例えば、スマートフォン1の外部の情報処理装置が、運動に関する情報を推定し、推定した運動に関する情報を、スマートフォン1に送信してもよい。スマートフォン1のコントローラ10は、外部の情報処理装置から取得した運動に関する情報を、ストレージ9に記憶することができる。
運動に関する情報を推定するために用いられる情報は、必ずしもスマートフォン1により取得されなくてもよい。例えば、利用者の体動を検出可能なモーションセンサまたは利用者の生体情報を取得可能な生体センサを備える、スマートフォン1とは異なる専用の電子機器により、利用者からの情報が取得されてよい。この場合、当該専用の電子機器により取得された情報は、スマートフォン1または外部の情報処理装置に送信され、スマートフォン1または外部の情報処理装置において、運動に関する情報が推定されてよい。
スマートフォン1は、多様な方法で睡眠に関する情報を取得することができる。例えば、スマートフォン1は、利用者によるタッチスクリーン2B及び/またはボタン3への入力を受け付けることにより、睡眠に関する情報を取得できる。この場合、利用者は、タッチスクリーン2B及び/またはボタン3を用いて、睡眠に関する情報をスマートフォン1に直接入力する。利用者は、例えば就寝前及び起床後にスマートフォン1を操作することにより、睡眠に関する情報を入力できる。スマートフォン1のコントローラ10は、利用者による入力に基づいて、利用者の睡眠に関する時刻(例えば入眠時刻)を、睡眠に関する情報に対応付けてストレージ9に記憶する。
スマートフォン1は、自機が備えるセンサにより取得した情報に基づいて、睡眠に関する情報を推定してもよい。例えば、利用者が睡眠時にスマートフォン1を身につける場合、スマートフォン1のコントローラ10は、モーションセンサ15により検出された利用者の体動に基づいて、睡眠に関する情報を推定する。ここで、コントローラ10による睡眠に関する情報の推定について具体的に説明する。人は、睡眠中に、ほぼ一定のサイクルでレム睡眠とノンレム睡眠との2つの睡眠状態を繰り返すことが知られている。睡眠状態がレム睡眠の場合、人は寝返りをうちやすい傾向にあり、ノンレム睡眠の場合、人は寝返りをうちにくい傾向にある。この傾向を利用して、コントローラ10は、利用者の寝返りに起因する体動に基づき、利用者の睡眠状態を推定する。すなわち、所定のサイクルで体動が検出される時間帯をノンレム睡眠と推定し、所定のサイクルで体動が検出されない時間帯をレム睡眠と推定する。2つの睡眠状態は、ほぼ一定のサイクルで繰り返される。そのため、コントローラ10は、2つの睡眠状態のサイクルを決定した後、2つの睡眠状態の時間帯に基づいて、遡って利用者が入眠した時刻、すなわち実際に眠りに入った時刻を推定する。
スマートフォン1が、例えば利用者の脈拍及び体温等の生体情報を検出可能なセンサを備える場合、コントローラ10は、生体情報に基づいて運動に関する情報を推定してもよい。人は、睡眠中に、脈拍が減少し体温が低下する。コントローラ10は、脈拍及び体温についてあらかじめ所定の睡眠判定閾値を設定し、脈拍及び体温が所定の睡眠判定閾値よりも低くなった時刻を、実際に入眠時刻と推定できる。
運動に関する情報の推定と同様に、睡眠に関する情報の推定も、外部の情報処理装置により実行されてもよい。運動に関する情報の推定と同様に、睡眠に関する情報の推定も、専用の電子機器により取得された情報に基づいて推定されてよい。
図16は、スマートフォン1のストレージ9に記憶されるデータの一例を示す図である。図16に示すように、ストレージ9には、時刻(日時)に対応付けて、多様な情報が記憶される。例えば、ストレージ9には、時刻に対応付けて、スマートフォン1により生成された三次元画像及びこれに関連する情報が記憶される。三次元画像に関連する情報は、例えば第1の輪郭及び第2の輪郭に関する情報を含んでよい。三次元画像に関連する情報は、例えば、複数の第1の輪郭のうち、へそ部Nを含む第1の輪郭に関連する情報であってよい。三次元画像に関連する情報は、へそ部Nを含む第1の輪郭に関する情報として、図16に示すように、腹囲、内臓脂肪面積、皮下脂肪面積、縦/横の長さ、及び、縦横比を含んでよい。
腹囲は、図7を参照して説明した方法により、算出される。腹囲は、利用者が入力してもよい。
内臓脂肪面積及び皮下脂肪面積は、例えば、演算された、へそ部Nを含む第1の輪郭に基づいて推定される。ここで、スマートフォン1による、内臓脂肪面積及び皮下脂肪面積の推定方法について説明する。例えば、ストレージ9はあらかじめ作成された内臓脂肪面積及び皮下脂肪面積の推定式を記憶している。コントローラ10は、上述のようにして演算した対象物の第1の輪郭の特徴係数を抽出する。コントローラ10は、ストレージ9に記憶された内臓脂肪面積及び皮下脂肪面積の推定式を読み出し、抽出された輪郭の特徴係数から内臓脂肪面積及び皮下脂肪面積を推定する。
具体的には、スマートフォン1は、例えば第1の輪郭の補正を行った後に、第1の輪郭の特徴係数を抽出する。曲線の形状の特徴を抽出する方法は、曲率関数を求める方法等があるが、本実施形態ではフーリエ解析を用いる方法について説明する。コントローラ10は、第1の輪郭の一周分の曲線をフーリエ解析することで、フーリエ係数を求めることができる。周知のように、曲線をフーリエ解析したときに求められる各次数のフーリエ係数は形状の特徴を示す係数として用いられる。何次のフーリエ係数を特徴係数とするかは、後に詳述する各推定式の作成の際に決められており、本実施形態では内臓脂肪面積に影響するフーリエ係数Sa、Sa、Sa、Saを内臓脂肪の特徴係数として抽出する。また、皮下脂肪面積に影響するフーリエ係数Sb、Sb、Sb、Sbを皮下脂肪の特徴係数として抽出する。各推定式を作成する際に、推定式の独立変数を主成分とした場合は、主成分を特徴係数として抽出してもよい。
スマートフォン1はあらかじめ求められた内臓脂肪面積推定式及び皮下脂肪面積推定式に、抽出した特徴係数Sa〜Sa及びSb〜Sbを代入して、利用者の内臓脂肪面積及び皮下脂肪面積を推定する。内臓脂肪面積推定式及び皮下脂肪面積推定式の一例を数式1及び数式2に示す。
Figure 0006712965
Figure 0006712965
ここで、内臓脂肪面積推定式及び皮下脂肪面積推定式の作成方法について説明する。図17は、内臓脂肪面積推定式及び皮下脂肪面積推定式の作成フロー図である。図17を用いて、数式1及び数式2を作成する手順について説明する。なお、これら推定式の作成は、スマートフォン1で行う必要はなく、事前に別のコンピュータ等を用いて計算してもよい。作成された推定式は、あらかじめアプリケーションに組み込まれているため、利用者は直接推定式を作成、変更しなくてもよい。
ステップS121で、作成者は推定式の作成を実行する。ステップS122で、作成者は事前に取得された所定の人数分のサンプルデータをコンピュータに入力する。サンプルデータは所定の人数のサンプル被験者から取得されたデータである。一人の被験者のサンプルデータは、CTで得た内臓脂肪面積、皮下脂肪面積、巻尺等で測定された腹囲長、スマートフォン1で取得された向き情報、移動情報から少なくとも構成される。所定の人数のサンプル被験者は、推定式の精度向上のため、統計的に十分な人数であり、かつ、メタボリックシンドローム(以下、単に「MS」という)診断を行う対象者の内臓脂肪分布と同様の分布を有する集団であってよい。
次に、コンピュータは入力された腹囲長、向き情報、移動情報から、へそ部Nを含む第1の輪郭を演算する(ステップS123)。さらに演算された第1の輪郭の補正を行う(ステップS124)。
次に、演算、補正された第1の輪郭の曲線のフーリエ解析を行う(ステップS125)。第1の輪郭の曲線をフーリエ解析することで、複数のフーリエ係数を求めることができる。周知のように、曲線をフーリエ解析して得られる各次数のフーリエ係数は、形状の特徴を表す係数として用いられる。本実施形態では、所定の人数分のサンプルデータのフーリエ解析を行い、X軸、Y軸、及びそれらの1〜k次(kは任意の整数)のフーリエ係数を求める。さらに、フーリエ係数は、周知の主成分分析を行い、その次元数を削減しておいてもよい。なお、主成分分析とは、多変量データ(本実施形態では複数のフーリエ係数)に共通な成分を探って、一種の合成変数(主成分)を作り出す分析手法であり、さらに少ない変数で曲線の特徴を表現することができる。
次に、ステップS125で求められた複数のフーリエ係数(または主成分)とあらかじめ入力された内臓脂肪面積とで回帰分析を行う(ステップS126)。回帰分析とは、結果となる数値と要因となる数値の関係を調べて、それぞれの関係を明らかにする統計的手法の一つである。フーリエ係数(または主成分)を独立変数とし、CTで得た内臓脂肪面積を従属変数として、所定の人数のサンプル被験者のデータを用いて回帰分析を行い、内臓脂肪面積推定式を作成する(ステップS127)。また、皮下脂肪面積についても、同様の計算を行い、皮下脂肪面積推定式を作成する。
このように作成された推定式の一例は、前述の数式1及び数式2である。数式1及び数式2の独立変数Sa、Sa2、Sa、Sa及びSb、Sb、Sb、Sbは、利用者の内臓脂肪面積及び皮下脂肪面積を推定する特徴係数である。内臓脂肪面積推定式の特徴係数Sa〜Saと皮下脂肪面積の特徴係数Sb〜Sbとは、一部または全部が同じフーリエ係数の場合がある。このように、内臓脂肪面積及び皮下脂肪面積の推定式は、上述の統計的手段(主成分分析、回帰分析等)により作成することができる。
なお、ステップS126では、内臓脂肪面積及び皮下脂肪面積について回帰分析をおこなうことによりそれぞれの推定式を作成したが、同様の手法により、第1の輪郭の長さ(腹部断面における周りの長さ)についても推定式を作成することができる。すなわち、ステップS125で求められた複数のフーリエ係数(または主成分)とあらかじめ入力された腹囲長とで回帰分析を行う。フーリエ係数(または主成分)を独立変数とし、巻尺等で測定された腹囲長を従属変数として、所定の人数のサンプル被験者のデータを用いて回帰分析を行い、第1の輪郭の長さ推定式を作成することができる。
上記説明した方法により、本実施形態に係るスマートフォン1は、第1の輪郭を簡便に精度よく測定することができる。そのため、スマートフォン1は、内臓脂肪面積及び皮下脂肪面積を短時間で精度よく推定することができる。
再び図16を参照すると、第1の輪郭に関連する情報は、例えば、縦及び横の長さ(幅)、並びに、縦横比を含んでよい。縦及び横の長さ、並びに縦横比は、例えば、演算された第1の輪郭に基づいて推定される。第1の輪郭の横の長さは、人の正面視における第1の輪郭の幅の長さである。第1の輪郭の横の長さは、図10においてX軸方向における第1の輪郭の幅の長さである。第1の輪郭の縦の長さは、人の側面視における第1の輪郭の幅の長さであり、第1の輪郭の横の幅に直交する方向の幅の長さである。第1の輪郭の縦の長さは、図10においてY軸方向における第1の輪郭の幅の長さである。第1の輪郭の縦横比は、第1の輪郭の横の長さに対する縦の長さの比である。
スマートフォン1にはあらかじめへそ部Nを含む第1の輪郭の分類が記憶されていてもよい。図18は、第1の輪郭の分類の一例を示す概略図である。図18に示す第1の輪郭の分類は、A 内臓肥満型、B 皮下脂肪型、C 標準型、である。利用者は、測定されたへそ部Nを含む第1の輪郭の縦横比(図14のd2/d1)によって、上述のA〜Cに分類される。例えば、縦横比0.8以上でA 内臓肥満型、縦横比0.6以上0.8未満でB 皮下脂肪型、縦横比0.6未満でC 標準型、と分類される。この場合、図7に示したフロー図のステップS105の後に、[分類]のステップが追加されてもよい。分類された内容に従って、利用者は判定結果及び/またはアドバイスを入手することもできる。分類された内容は、第1の輪郭の縦及び横の長さ並びに縦横比とともに、ストレージ9に記憶されてよい。
利用者は、スマートフォン1による対象物の輪郭の測定を、例えば定期的に且つ継続的に行ってよい。対象物の輪郭の測定は、例えば毎日、1週間毎に、又は1ヶ月毎に行われてよい。対象物の輪郭の測定は、1日のうちの同時間帯に行われてよい。例えば、対象物の輪郭の測定は、午前7時の食前に行われてよい。対象物の輪郭の測定が同時間帯に行われることにより、同条件のデータが取得されやすくなる。
再び図16を参照すると、例えば、ストレージ9には、時刻に対応付けて、飲食物に関する情報及び身体活動に関する情報が記憶される。
飲食物に関する情報は、食事メニュー、利用者の摂取カロリー、飲料、健康機能食品及び医薬品を含んでよい。ストレージ9には、飲食物に関する情報として、例えば飲食物の内容とその量とが記憶される。
身体活動に関する情報は、利用者の消費カロリー及び睡眠時間を含んでよい。
スマートフォン1は、飲食物に関する情報及び身体活動に関する情報を、例えば上述した方法により取得できる。
スマートフォン1は、ディスプレイ2Aに、ストレージ9に記憶された2つの三次元画像を表示できる。スマートフォン1は、それぞれ異なる時刻に生成された三次元画像を並べて表示してよい。つまり、スマートフォン1は、第1の時刻に測定された第1の三次元画像と、第2の時刻に測定された第2の三次元画像とを並べて表示してよい。
図19は、スマートフォン1による表示の一例を示す図である。図19の例において、第1の三次元画像は、第1の時刻である2017年1月1日午前7時に生成された三次元画像であり、第2の三次元画像は、第2の時刻である2017年1月7日午前7時に生成された三次元画像である。2つの三次元画像を並べて表示することにより、利用者は対象物の形状の経時的な変化を視覚的に把握することができる。
並べて表示される2つの三次元画像は、例えばコントローラ10により自動的に決定されてよい。例えば、コントローラ10は、三次元画像を生成したときに、生成した三次元画像と、所定期間前(例えば、前日、1週間前または1ヶ月前等)に生成した三次元画像とを並べて表示すると決定してよい。並べて表示される2つの三次元画像は、例えば利用者の選択に基づいて決定されてもよい。この場合、利用者は希望する2つの時期(日時)における対象物の形状の変化を知ることができる。
スマートフォン1が並べて表示する三次元画像の数は、必ずしも2つでなくてもよい。スマートフォン1は、3つ以上の三次元画像を並べて表示してもよい。この場合にも、利用者は、対象物の形状の経時的な変化を把握することができる。
スマートフォン1は、図19に示すように、2つの三次元画像に加えて、当該2つの三次元画像を生成した時刻の間(第1の時刻と第2の時刻との間)における飲食物に関する情報及び/または身体活動に関する情報を表示してもよい。図19に示す例では、2つの三次元画像を生成した時刻の間において利用者が摂取したカロリーの合計値と消費したカロリーの合計値とが表示されている。また、図15に示す例では、2つの三次元画像を測定した時刻の間において利用者が摂取した健康機能食品の名称及びその量が表示されている。表示される飲食物に関する情報及び身体活動に関する情報は、図19に表示された例に限られない。例えば、図16に一例として示したストレージ9に記憶されたデータの全部または一部が、2つの三次元画像とともに表示されてもよい。2つの三次元画像を生成した時刻の間における飲食物に関する情報及び/または身体活動に関する情報を表示することにより、利用者は、飲食物及び/または身体活動と、対象物の形状の変化との関係を推測しやすくなる。例えば、利用者は、飲食物に関する情報が表示される場合、どのような食生活により対象物の形状がどのように変化したかを把握しやすくなる。
図20は、本実施形態に係るスマートフォン1が実行する処理全体のフロー図である。ステップS131で、スマートフォン1は、利用者からの操作入力に基づき、情報の入力または三次元画像の生成のいずれを実行するかを決定する。
スマートフォン1は、ステップS131で情報の入力を実行すると決定した場合、ステップS132で、利用者の操作入力に基づき、飲食物に関する情報または身体活動に関する情報の入力を受け付ける。飲食物に関する情報または身体活動に関する情報の入力の受付の詳細は、上述した通りであり、例えば、飲食物の画像を撮影したり、摂取カロリーの入力を受け付けたりすることを含む。
スマートフォン1は、ステップS132で情報の入力を受け付けた後、ステップS134において、利用者により、処理の終了が入力されたか否かを判定する。スマートフォン1は、処理の終了が入力されたと判定した場合、図20に示すフローを終了する。一方、スマートフォン1は、処理の終了が入力されていないと判定した場合(例えば処理の継続が入力された場合)、ステップS131に移行する。
スマートフォン1は、ステップS131で輪郭の測定を実行すると決定した場合、ステップS133で三次元画像の生成を行う。ステップS133の詳細は、図7を参照して説明したとおりである。スマートフォン1は、輪郭の測定を実行した後、測定した輪郭を表示してもよい。
スマートフォン1は、ステップS133で輪郭の測定を実行した後、ステップS134において、利用者により、処理の終了が入力されたか否かを判定する。スマートフォン1は、処理の終了が入力されたと判定した場合、図20に示すフローを終了する。一方、スマートフォン1は、処理の終了が入力されていないと判定した場合(例えば処理の継続が入力された場合)、ステップS131に移行する。
(第2実施形態)
図21は、第2実施形態に係るスマートフォン1の構成を示すブロック図である。
本実施形態では、タイマー11及び制御部10Aはコントローラ10に含まれている。タイマー11は、スマートフォン1の移動情報を得るためのデバイス部である。タイマー11は制御部10Aからタイマー動作の指示を受け、クロック信号を出力する。方位センサ17は、タイマー11から出力されるクロック信号に従って、向き情報を複数回取得する。クロック信号に従って取得された向き情報は、クロック情報とともに、スマートフォン1の内部に一時的に記憶される。ここでクロック情報とは、向き情報が取得された時間を示す情報である。例えば、一定周期のクロック信号を用いた場合、クロック情報は取得順を示すレコード番号でもよい。クロック情報は向き情報を取得した時間でもよい。本実施形態ではタイマー11はコントローラ10に含まれており、コントローラ10の機能部であるタイマー回路をタイマー11として用いることができる。また、本開示はこれに限ることなく、前述した図4に記載した通り、タイマー11はコントローラ10の外部に備えられていてもよい。
制御部10Aはクロック情報からスマートフォン1の移動情報を推定する。スマートフォン1の移動情報とは、スマートフォン1の移動量に関する情報であり、本実施形態では移動量である。制御部10Aは向き情報と、移動情報とに基づいて対象物の輪郭を演算し、輪郭に基づいて三次元画像を生成する。以下、第1実施形態と同じ点については説明を省略し、異なる点について説明を行う。
図22は第2実施形態に係る対象物の輪郭の測定フロー図である。
ステップS101で、利用者は測定アプリケーション9Zにおける測定機能を起動させる。測定アプリケーション9Zにおける測定機能の起動後、利用者はあらかじめ巻尺等で測定された腹囲の実測値をスマートフォン1に入力する(ステップS141)。あるいは、スマートフォン1のストレージ9にあらかじめ記憶された利用者情報から、腹囲の実測値を読み込んできてもよい。また、腹囲の実測値の入力は必ずしも測定開始(ステップS102)前に行う必要はなく、測定終了(ステップS104)後に行ってもよい。
次に、ステップS102で測定を開始する。測定開始時、スマートフォン1は、対象物の輪郭を測定する腹部のいずれかの位置に、腹部60の表面に対して当てられる。例えば、第1の輪郭を測定する場合、スマートフォン1は、利用者のへその高さ(図5のA−Aで図示した位置)において腹部60の表面に対して当てられる。測定開始位置は腹部A−A位置のどこから開始してもよく、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。ステップS103で、利用者は腹部60のA−A位置の表面に沿ってスマートフォン1を移動させる。スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させる。利用者が一定速度でスマートフォン1を移動することができるように、スマートフォン1の移動を補助する補助具を用いてもよい。また、スマートフォン1から一定速度の補助音を出力して動作のガイダンスとしてもよい。
ステップS103では、スマートフォン1はあらかじめプログラムされた条件で、方位センサ17により向き情報を取得する。向き情報は、タイマー11から出力されたクロック信号に従って複数回取得される。クロック信号に従って取得された向き情報は、クロック情報とともに、スマートフォン1に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。
利用者は、スマートフォン1を腹部60の表面に対して当てたまま一定速度で一周以上移動させる。その後利用者は、スマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了させる(ステップS104)。あるいは、スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報と一致した場合を一周と認識し、利用者が操作することなく、スマートフォン1は自動で測定を終了させてもよい。スマートフォン1の方位センサ17で取得された向き情報が、測定開始時の向き情報から360度変化した場合を一周と認識し、利用者が操作することなく、スマートフォン1は自動で測定を終了させてもよい。自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。
ステップS105において、制御部10Aは、利用者の腹囲の実測値とステップS103にて得られたクロック情報により、スマートフォン1の移動情報である移動量を推定する。利用者の腹囲を1周するスマートフォン1の一周移動量は、ステップS141で入力された腹囲の実測値と等しく、かつ、スマートフォン1は一定速度で移動しているとみなされていることから、スマートフォン1の移動情報である移動量を演算することができる。制御部10Aは取得された向き情報と、演算された移動情報に基づいて対象物の輪郭を演算する。
スマートフォン1は、ステップS106において、ステップS105にて演算した結果を、ストレージ9に記憶する。
スマートフォン1は、ステップS107において、利用者の操作入力に基づいて輪郭の測定を継続するか否かを判定する。スマートフォン1は、輪郭の測定を継続する場合(ステップS107のYES)、ステップS102に移行する。この場合、利用者は、異なる高さにおいて、腹部60に対してスマートフォン1を当てて第1方向に動かすことにより、第1の輪郭を測定することができる。利用者は、へその高さにおける第1の輪郭を測定した後、当該へその高さよりも所定の距離高い位置における第1の輪郭を測定し、これを繰り返すことによって、それぞれ異なる高さにおける複数の第1の輪郭を測定することができる。
スマートフォン1は、輪郭の測定を継続しない場合(ステップS107のNO)、フローを終了する。なお、本実施形態のフローにおいて、詳細を記載していない他の動作は図7の記載内容に準じる。
図23は第2実施形態に係る取得された情報から構成されたレコードの一例である。
測定開始時をレコード番号R0、測定終了時をレコード番号Rnとした。各レコードは、時間に対応する向き情報と移動情報とが1対で格納されている。移動情報はクロック情報であるレコード番号(あるいは時間)から推定された移動量である。レコード番号Rnの移動情報は、利用者の腹囲の実測値が格納される。各レコードの時間間隔は等間隔であり、スマートフォン1は一定速度で移動しているとみなされているので、移動情報である各移動量の間隔も等間隔である。このように取得されたレコードは、第1の輪郭を示す図として表される。
取得されたレコードR0からレコードRnを、向きと移動量に従って、順にXY座標にプロットしていくことにより、第1の輪郭を演算することができる。本実施形態では、図10に示す演算された第1の輪郭において、各プロット点が等間隔となる。測定時、スマートフォン1の移動が一定速度の場合、演算された第1の輪郭はY軸にほぼ対称の形状となる。測定時、スマートフォン1の移動が一定速度ではなかった場合、演算された第1の輪郭はY軸に非対称でいびつな形状となる。演算された第1の輪郭の形状の非対称性が大きい場合、一定速度での再測定を促すメッセージをスマートフォン1に表示させてもよい。非対称性の大きさの判定は、図10のY軸で分離された各領域におけるプロット点数の差により判断することができる。例えば、このプロット点数の差が±10%以外の場合は、第1の輪郭の非対称性が大きいと判断する。非対称性の大きさの判定方法は、これに限ることなく、例えば第1の輪郭で囲まれた面積を演算しその面積の大きさを比較する判定方法でもよい。また、判定基準も適宜設定できる。
第2の輪郭についても、同様の要領で測定されてよい。
以上、本実施形態では、自機の移動情報を得るためのデバイス部としてタイマー11を用いることにより、第2のセンサ部を用いることなく移動情報を得ることができる。そのため、本実施形態のスマートフォン1は部品点数がさらに削減できる。さらに本実施形態のスマートフォン1は、第2のセンサ部の精度に起因する測定誤差の低減を図ることができる。
本実施形態に係るスマートフォン1による、三次元画像の生成方法及び表示方法は、第1実施形態と同様であってよい。本実施形態に係るスマートフォン1によっても、利用者は、三次元画像を視覚的に把握しやすくなる。
(第3実施形態)
第3実施形態においては、演算された第1の輪郭の一部から第1の輪郭全体を推定する。さらにその推定値から三次元画像を生成し、生成した三次元画像をスマートフォン1に表示する。本実施形態のスマートフォン1は、第2実施形態と同じ図22のブロック図の構成であってよい。以下、第1実施形態及び第2実施形態と同じ部分については説明を省略し、異なる点について説明を行う。
図24は、第3実施形態に係る対象物の第1の輪郭の測定フロー図である。本実施形態では、第1の輪郭の少なくとも一部を演算する一例として、体の正中の位置からほぼ半周部分の第1の輪郭を演算する場合について説明する。
ステップS101で、利用者は測定アプリケーション9Zにおける測定機能を起動させる。測定アプリケーション9Zにおける測定機能の起動後、利用者はあらかじめ巻尺等で測定された腹囲の実測値をスマートフォン1に入力する(ステップS141)。あるいは、スマートフォン1のストレージ9にあらかじめ記憶された利用者情報から、腹囲の実測値を読み込んできてもよい。ステップS141は必ずしも測定開始前に行う必要はなく、ステップS104の測定終了後に行ってもよい。
次に、ステップS102で測定を開始する。測定開始時、例えば、スマートフォン1は、正中の位置で、腹部60の表面に対して当てられる。測定開始位置は第1の輪郭においてどの部分を演算するかによって適宜選択される。測定開始位置をあらかじめ定めておくと、演算される第1の輪郭の範囲が利用者毎に変わらなくなり、後述する輪郭の特徴係数の誤差を低減できる。本実施形態では、正中の位置を測定開始位置とする。例えば、スマートフォン1のサイドフェイス1C1を正中の位置に一致させて測定を開始する。利用者は、スマートフォン1にあらかじめ設定された開始アクションを行い、測定を開始する。
ステップS103で、利用者は腹部60の表面に沿って第1方向にスマートフォン1を移動させる。スマートフォン1の移動は、腹部60の表面に対して当てたままで、一定速度で移動させる。
ステップS103で、スマートフォン1はあらかじめプログラムされた条件で、角速度センサ18により、向き情報である角速度(度/秒)を取得する。向き情報は、タイマー11から出力されたクロック信号に従って複数回取得される。クロック信号に従って取得された向き情報は、取得の時間情報とともに、スマートフォン1に記憶される。この測定はステップS102の開始から、ステップS104の終了まで連続して実行される。
利用者は、スマートフォン1を腹部60の表面に対して当てたまま一定速度で半周以上移動させる。本実施形態で半周とは、正中から背中の中心までである。スマートフォン1は利用者に半周を報知する手段を有していてもよい。
スマートフォン1を半周以上移動させたら、利用者はスマートフォン1にあらかじめ設定された終了アクションを行い、測定を終了させる(ステップS104)。あるいは、後述するステップS151が同時に実行されている場合は、スマートフォン1の向きが、測定開始から180度変化した場合をほぼ半周と認識し、自動で測定を終了させてもよい。このような自動認識の場合、利用者は終了アクションを行う必要がなく、測定はより簡略化される。
測定終了後または測定中に、制御部10Aは第1の輪郭の半周部分を演算する(ステップS151)。制御部10Aは、ステップS103にて取得された角速度を1回積分することにより、スマートフォン1の向きを演算する。
図25は第3実施形態に係るスマートフォン1の向きの一例を示す。図を用いて、取得された向き情報から、半周部分の情報を抽出する方法について説明する。横軸は時間を示し、測定開始時間は0秒、測定終了時間はT(n/2+a)秒である。ここでnは1周の360度を示し、aは測定終了時の向きから半周の180度を引いた角度を示す。縦軸はスマートフォン1の向きを示す。図中の実線は取得された情報であり、点線は取得されていない1周分の情報の仮想線である。向き180度近傍の図中曲線の平坦部は、背中部分の情報と推定され、この平坦部の中点で背中の中心を通過したと判定し、半周を検出する。つまり、図中の0秒からT(n/2)秒を半周部分の情報として抽出する。この半周部分の情報の抽出方法は一例である。例えば、平坦部が180度からずれた位置にある場合は、平坦部を180度とする正規化を行ってもよい。また、平坦部から向きが−180度ずれた位置の情報を開始点とする正規化を行ってもよい。また、平坦部の中点ではなく、向きが180度の近傍で最も曲線の傾きが小さい位置の情報を背中の中心と判定してもよい。
図26は第3実施形態に係る取得及び正規化された情報から構成されたレコードの一例である。抽出された輪郭の半周部分の開始点(本実施形態ではへその位置)をレコード番号R0、半周部分の終了点(本実施形態では背中の中央部で、向きが180度のレコード)をレコードR(n/2)、取得された最終の情報をレコードR(n/2+a)とした。各レコードは向き情報と移動情報とが一対で格納されている。移動情報は、クロック情報であるレコード番号(あるいは時間)から推定された移動量である。本実施形態では向き0〜180度のレコードを半周部分の情報として抽出する。レコード番号R(n/2)の移動情報は、利用者の腹囲の実測値の半分の値が格納される。各レコードの時間間隔は等間隔であり、スマートフォン1は一定速度で移動しているとみなされているので、移動情報である各移動量の間隔も等間隔である。このように取得されたレコードは、第1の輪郭の半周部分を示す図として表される。取得されたレコードR0からレコードR(n/2)を、向きと移動量に従って、順にXY座標にプロットしていくことにより、対象物の第1の輪郭の半周部分を演算することができる。なお、ステップS151はステップS103と並行して実行してもよい。
スマートフォン1は、ステップS151で演算した結果を、ステップS152において補正する。輪郭の向き補正と輪郭の位置補正は、演算された第1の輪郭の半周部分を、開始点(本実施形態では正中の位置)と終了点(本実施形態では背中の中心)を結ぶ線を対称軸として折り返した反転閉曲線に基づいて行ってもよい。輪郭の向き補正は、反転閉曲線の対称軸(正中と背中の中心を結んだ線)が所定の方向を向くように反転閉曲線を回転させてもよい。輪郭の位置補正は、反転閉曲線の中心点が座標系の原点に来るように反転閉曲線を移動させてもよい。向き及び位置の補正は、従来周知の手法により行ってもよい。
図27は第3実施形態に係る演算及び補正された第1の輪郭を示す図である。図中実線は演算された第1の輪郭の半周部分であり、図中点線は演算された第1の輪郭の半周部分を対称軸で反転させた仮想曲線である。黒点は取得されたレコードをXY座標にプロットした点である。コントローラ10は、このようにして、第1の輪郭を導出することができる。
スマートフォン1は、ステップS153において、ステップS151及びS152にて演算及び補正した結果をストレージ9に記憶する。
スマートフォン1は、ステップS107において、利用者の操作入力に基づいて輪郭の測定を継続するか否かを判定する。スマートフォン1は、輪郭の測定を継続する場合(ステップS107のYES)、ステップS102に移行する。この場合、利用者は、異なる高さにおいて、腹部60に対してスマートフォン1を当てて第1方向に動かすことにより、第1の輪郭を測定することができる。
スマートフォン1は、輪郭の測定を継続しない場合(ステップS107のNO)、フローを終了する。
第2の輪郭については、第1実施形態で説明した方法と同様の要領で測定されてよい。また、本実施形態に係るスマートフォン1による、三次元画像の生成方法及び表示方法は、第1実施形態と同様であってよい。本実施形態に係るスマートフォン1によっても、利用者は、三次元画像を視覚的に把握しやすくなる。
また、本実施形態に係るスマートフォン1によると、人の第1の輪郭はほぼ左右対称なので、第1の輪郭の少なくとも半周部分を演算するだけで、第1の輪郭全体を推定することができる。そのため利用者は、スマートフォン1を少なくとも腹部周りに半周移動させればよく、より測定時間が短くなる。あわせて、スマートフォン1を測定途中で左右の手でもちかえる動作がなくなるので、スマートフォン1を一定速度での移動させやすくなり、より測定精度を高めることができる。
なお、スマートフォン1は半周部分から第1の輪郭を演算するのではなく、1/4周部分から第1の輪郭を演算してもよい。例えば正中から脇腹までの1/4周部分から第1の輪郭を演算する場合について説明する。処理の流れは、前述の図24に示すフロー図の説明において、半周部分を1/4周部分と置き換えればよい。ステップS151の1/4周部分の演算は、例えばスマートフォン1の向きが、測定開始から90度変化した場合をほぼ1/4周と判定し、情報の抽出を行う。前述の図25に示すスマートフォン1の向きのグラフにおいて、図中の向き90度で1/4周通過したと判定し、1/4周を検出する。つまり、図中の0秒からT(n/4)秒を1/4周部分の情報として抽出する。前述の図26において、向き0〜90度のレコードを1/4周部分の情報として抽出する。図26に示すレコードの一例において、1/4周部分の終了点はレコードR(n/4)となる。レコード番号R(n/4)の移動情報は、利用者の腹囲の実測値の1/4の値が格納される。スマートフォン1の移動は一定速度であるので、移動情報である移動量の間隔は等間隔である。このように取得されたレコードR0からレコードR(n/4)を、向きと移動量に従って、順にプロットしていくことにより、対象物の第1の輪郭の1/4周部分を演算することができる。ステップS152における輪郭の向き補正と輪郭の位置補正は、演算された輪郭の1/4周部分を、座標系のY軸及びX軸を対称軸として折り返した反転閉曲線に基づいて行うと補正が容易である。この場合、前述の図17に示す推定式の作成は、半周部分を1/4周部分に変更して作成を行ってよい。この1/4周部分の抽出方法は一例であり、例えば向き180度となる時間がT(n/2)秒であるとき、その半分の時間のレコードを1/4周部分の情報として抽出してもよい。
この場合、スマートフォン1は、第1の輪郭の少なくとも1/4周部分を演算することにより、第1の輪郭を推定することができる。そのため利用者は、スマートフォン1を少なくとも腹部周りに1/4周移動させればよく、より測定時間が短くなる。あわせて、スマートフォン1を測定途中で背中側に回す動作がなくなるので、スマートフォン1を一定速度での移動させやすくなり、より測定精度を高めることができる。
なお、本実施形態では正中から脇腹の1/4周部分の例を示したが、本開示はこれに限ることなく、脇腹付近から背中にむけて1/4周部分の演算を行い、第1の輪郭を推定することもできる。
スマートフォン1は、正中から脇腹までの1/4周部分から第1の輪郭を演算する場合、必ずしも第1の輪郭全体を演算しなくてもよい。スマートフォン1は、例えば、利用者の第1の輪郭のうち前面側のみを演算してもよい。この場合、スマートフォン1は、演算された輪郭の1/4周部分を、座標系のY軸を対称軸として折り返した反転曲線に基づいて補正を行うことができる。この場合、スマートフォン1は、例えば、前面側のみを示す第1の輪郭と、第2の輪郭とに基づいて、三次元画像を生成してもよい。この場合、スマートフォン1は、例えば図28に示す三次元画像を生成し、ディスプレイ2Aに出力する。このように、スマートフォン1は、対象物の前面側のみの三次元画像を表示できる。対象物が体の腹部である場合、背面側よりも前面側の方が変化しやすいため、前面側のみを表示することによっても、利用者に三次元画像を視覚的に把握させることができる。
本実施形態において、スマートフォン1は、向き情報及び移動情報の取得が腹部の半周分に満たない場合にも、第1の輪郭を推定できる。例えば、スマートフォン1は、正中の位置から135度分(3/8周分)の輪郭情報に基づいて、第1の輪郭を推定してもよい。
次に本開示の実施形態に係るシステムを、図面を参照しつつ詳細に説明する。
図29に示した実施形態のシステムは、サーバ80と、スマートフォン1と、通信ネットワークを含んで構成される。図29に示したように、スマートフォン1は、測定した第1の輪郭及び第2の輪郭の演算結果を、通信ネットワークを通じてサーバ80に送信する。サーバ80は、第1の輪郭及び第2の輪郭に基づいて、三次元画像を生成し、生成した三次元画像のデータをスマートフォン1に送信する。スマートフォン1は、サーバ80から送信された三次元画像をディスプレイ2Aに表示することができる。この場合、サーバ80で三次元画像が生成されるため、利用者が使うスマートフォン1のコントローラ10への演算の負担を軽減することができ、スマートフォン1の小型化、簡略化が可能となる。また、取得された向き情報、移動情報及び腹囲を当該サーバ80に送信する形態を採用してもよい。この場合、第1の輪郭及び第2の輪郭の演算をサーバ80で行うため、利用者が使うスマートフォン1のコントローラ10への演算の負担をさらに軽減することができる。また、演算の処理速度も向上する。
サーバ80は、測定した第1の輪郭及び第2の輪郭と、第1の輪郭及び第2の輪郭に基づいて生成された三次元画像を記憶していてもよい。サーバ80は、第1の三次元画像が測定された第1の時刻と、第2の三次元画像が測定された第2の時刻と、第1の時刻及び第2の時刻の間に利用者が摂取した飲食物の種類、量及びカロリー、並びに利用者の運動量、消費カロリー及び睡眠時間の少なくとも1つのデータを記憶してもよい。サーバ80は、スマートフォン1からの要求に従い、所定の期間に記憶された三次元画像及びデータをスマートフォン1に送信してもよい。スマートフォン1は、サーバ80から送信された三次元画像及びデータをスマートフォン1に表示してもよい。
本実施形態に係るシステムはスマートフォン1とサーバ80を通信ネットワークで接続した構成を示したが、本開示のシステムはこれに限定されるものではない。対象物の表面に沿って移動させる測定子と、測定子の向き情報を得る第1のセンサ部と、測定子の移動情報を得るためのデバイス部と、対象物の輪郭を演算して三次元画像を生成する制御部と、を備えていればよい。また、それぞれが通信手段で接続されていてもよい。
本開示を完全かつ明瞭に開示するために特徴的な実施例に関し記載してきた。しかし、添付の請求項は、上記実施例に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
例えば、上述の実施形態においては、スマートフォン1は、第1の輪郭と第2の輪郭とに基づいて三次元画像を生成すると説明したが、第2の輪郭を用いずに、三次元画像を生成してもよい。この場合、スマートフォン1は、第1の輪郭を並べることにより、三次元画像を生成する。
図30は、三次元画像の一変形例を示す図であり、第1の輪郭を並べることにより生成された三次元画像の一例を示す図である。第1の輪郭を並べることにより三次元画像を生成する場合、スマートフォン1は、複数の第1の輪郭を、測定された高さの順で(図30に示す例では、下からHF1、HF2、HF3及びHF4の順で)並べる。この場合、スマートフォン1は、三次元画像を見やすくするために、3つの軸(x軸、y軸及びz軸)を表示してもよい。
スマートフォン1は、第1の輪郭を並べることにより三次元画像を生成する場合、複数の第1の輪郭を、当該複数の第1の輪郭の中心がz軸方向において一致するように並べてよい。スマートフォン1は、第1の輪郭を並べることにより三次元画像を生成する場合、複数の第1の輪郭を、当該複数の第1の輪郭の背中の中心がz軸方向において一致するように並べてもよい。
また、上述の実施形態においては、機器としてスマートフォン1の場合について説明したが、本開示の機器はこれに限ることなく、第1のセンサ部と、デバイス部と、制御部を備えていればよい。さらには、自機の内部に、第1のセンサ部とデバイス部と制御部を備えている必要もなく、それぞれが個別に分かれていてもよい。
また、上述の実施形態においては、体の三次元画像生成の場合について説明したが、体だけでなく、例えば大腿部等の三次元画像を生成してもよい。人の体だけでなく、動物の体、脚部等の輪郭を測定してもよい。異なる時間に生成された三次元画像が比較できるように、並べて表示されてもよい。
また、上述の実施形態においては、第1のセンサ部として方位センサ17及び角速度センサ18を用いる場合について説明したが、第1のセンサ部は自機の向き情報を取得できるものであれば他のものでもよく、例えば、傾きセンサ等を用いてもよい。
また、第2のセンサ部として加速度センサ16または電子巻尺71を用いる場合について説明したが、第2のセンサ部は自機の移動情報を取得できるものであれば他のものでもよく、車輪の回転数を検出することによって移動情報を取得する電子ローラー距離計等、を用いてもよい。
また、上述の実施形態においては、対象物を1周、半周、1/4周して第1の輪郭を測定する例を示したが、それ以外でも良く、例えば2周の第1の輪郭を測定してそのデータを平均化することで、よりばらつきの少ない高精度な測定が可能となる。
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、または一以上のプロセッサにより実行される論理ブロックもしくはプログラムモジュール等により実行されることに留意されたい。論理ブロックまたはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置及び/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信及び/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。
ここで用いられるネットワークには、他に特段の断りがない限りは、インターネット、アドホックネットワーク、LAN(Local Area Network)、WAN(Wide Area Network)、MAN(Metropolitan Area Network)、セルラーネットワーク、WWAN(Wireless Wide Area Network)、WPAN(Wireless Personal Area Network)、PSTN(Public Switched Telephone Network)、地上波無線ネットワーク(Terrestrial Wireless Network)もしくは他のネットワークまたはこれらいずれかの組合せが含まれる。無線ネットワークの構成要素には、例えば、アクセスポイント(例えば、Wi-Fiアクセスポイント)またはフェムトセル等が含まれる。さらに、無線通信器機は、Wi-Fi、Bluetooth(登録商標)、セルラー通信技術、例えばCDMA(Code Division Multiple Access)、TDMA(Time Division Multiple Access)、FDMA(Frequency Division Multiple Access)、OFDMA(Orthogonal Frequency Division Multiple Access)、SC-FDMA(Single-Carrier Frequency Division Multiple Access)またはその他の無線技術及び/または技術標準を用いた無線ネットワークに接続することができる。ネットワークには、一つ以上の技術を採用することができ、かかる技術には、例えば、UTMS(Universal Mobile Telecommunications System)、LTE(Long Term Evolution)、EV-DO(Evolution-Data Optimized or Evolution-Data Only)、GSM(登録商標)(Global System for Mobile communications)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA-2000(Code Division Multiple Access-2000)またはTD-SCDMA(Time Division Synchronous Code Division Multiple Access)が含まれる。
通信ユニット等の回路構成は、例えば、WWAN、WLAN、WPAN、等の種々の無線通信ネットワークを用いることで、機能性を提供する。WWANは、CDMAネットワーク、TDMAネットワーク、FDMAネットワーク、OFDMAネットワーク、SC-FDMAネットワーク等とすることができる。CDMAネットワークは、CDMA2000、Wideband-CDMA(W-CDMA)等、一つ以上のRAT(Radio Access Technology)を実装することができる。CDMA2000は、IS-95、IS-2000及びIS-856標準を含む。TDMAネットワークは、GSM(登録商標)、D-AMPS(Digital Advanced Phone System)またはその他のRATを実装することができる。GSM(登録商標)及びW-CDMAは、3rd Generation Partnership Project(3GPP)と称するコンソーシアムから発行される文書に記載されている。CDMA2000は、3rd Generation Partnership Project 2(3GPP2)と称するコンソーシアムから発行される文書に記載されている。WLANは、IEEE802.11xネットワークとすることができる。WPANは、Bluetooth(登録商標)ネットワーク、IEEE802.15xまたはその他のタイプのネットワークとすることができる。CDMAは、UTRA(Universal Terrestrial Radio Access)もしくはCDMA2000といった無線技術として実装することができる。TDMAは、GSM(登録商標)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM(登録商標) Evolution)といった無線技術により実装することができる。OFDMAは、IEEE(Institute of Electrical and Electronics Engineers)802.11(Wi-Fi)、IEEE802.16(WiMAX)、IEEE802.20、E-UTRA(Evolved UTRA)等の無線技術により実装することができる。こうした技術は、WWAN、WLAN及び/またはWPANのいずれかの組合せに用いることができる。また、こうした技術は、UMB(Ultra Mobile Broadband)ネットワーク、HRPD(High Rate Packet Data)ネットワーク、CDMA20001Xネットワーク、GSM(登録商標)、LTE(Long-Term Evolution)等を使用するために実装することができる。
ここで用いられるストレージ9は、さらに、ソリッドステートメモリ、磁気ディスク及び光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができ、かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュールなどのコンピュータ命令の適宜なセット、またはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM、EEPROMもしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサ/プロセッシングユニットの内部及び/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性その他のメモリを意味し、特定の種類またはメモリの数または記憶が格納される媒体の種類は限定されない。
なお、ここでは、特定の機能を実行する種々のモジュール及び/またはユニットを有するものとしてのシステムを開示しており、これらのモジュール及びユニットは、その機能性を簡略に説明するために模式的に示されたものであって、必ずしも、特定のハードウェア及び/またはソフトウェアを示すものではないことに留意されたい。その意味において、これらのモジュール、ユニット、その他の構成要素は、ここで説明された特定の機能を実質的に実行するように実装されたハードウェア及び/またはソフトウェアであればよい。異なる構成要素の種々の機能は、ハードウェア及び/もしくはソフトウェアのいかなる組合せまたは分離したものであってもよく、それぞれ別々に、またはいずれかの組合せにより用いることができる。また、キーボード、ディスプレイ、タッチスクリーン、ポインティングデバイス等を含むがこれらに限られない入力/出力もしくはI/Oデバイスまたはユーザインターフェースは、システムに直接にまたは介在するI/Oコントローラを介して接続することができる。このように、本開示内容の種々の側面は、多くの異なる態様で実施することができ、それらの態様はすべて本開示内容の範囲に含まれる。
1 スマートフォン
1A,71A フロントフェイス
1B バックフェイス
1C1〜4,71C2 サイドフェイス
2,72 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 測定アプリケーション
10 コントローラ
10A 制御部
11 タイマー
12,13 カメラ
14 コネクタ
15 モーションセンサ
16 加速度センサ
17 方位センサ
18 角速度センサ
19 傾きセンサ
20,70 ハウジング
60 腹部
71 電子巻尺
73 巻尺
74 ストッパ
80 サーバ

Claims (11)

  1. 体の表面に沿って自機を移動させることにより前記体の輪郭を測定する測定部と、
    前記輪郭に基づいて前記体の三次元画像を生成する制御部と、を備え、
    前記制御部は、第1方向に沿って測定された第1の輪郭を複数並べることにより前記三次元画像を生成する、電子機器。
  2. 前記制御部は、前記第1の輪郭と、前記第1方向とは異なる第2方向に沿って取得された第2の輪郭とを交差させることにより前記三次元画像を生成する、請求項1に記載の電子機器。
  3. 前記第1方向と前記第2方向とは略直交する、請求項2に記載の電子機器。
  4. 前記第1の輪郭及び前記第2の輪郭はへそ部を含み、
    前記制御部は、前記第1の輪郭のへそ部と前記第2の輪郭のへそ部とを交差させることにより前記三次元画像を生成する、
    請求項2または請求項3のいずれか一項に記載の電子機器。
  5. 前記三次元画像は、三次元ワイヤフレーム画像を含む、請求項1乃至請求項4のいずれか一項に記載の電子機器。
  6. 前記制御部は、それぞれ異なる時刻に測定された輪郭に基づいて生成した第1の三次元画像と第2の三次元画像とを並べて表示部に表示する、請求項1乃至請求項5のいずれか一項に記載の電子機器。
  7. 前記制御部は、利用者の選択に基づき、前記表示部に表示させる前記第1の三次元画像及び前記第2の三次元画像を決定する、請求項6に記載の電子機器。
  8. 前記測定部は、加速度センサ、方位センサ、角速度センサ及び傾きセンサの少なくとも1つを含む、請求項1乃至請求項7のいずれか一項に記載の電子機器。
  9. 前記体は腹部を含む、請求項1乃至請求項8のいずれか一項に記載の電子機器。
  10. 電子機器により実行される生成方法であって、
    体の表面に沿って前記電子機器を移動させることにより前記体の輪郭を測定するステップと、
    第1方向に沿って測定された第1の輪郭を複数並べることにより前記体の三次元画像を生成するステップと、
    を含む生成方法。
  11. 体の表面に沿って自機を移動させることにより前記体の輪郭を測定する測定部と、
    前記輪郭に基づいて前記体の三次元画像を生成する制御部と、を備え、
    前記制御部は、第1方向に沿って測定された第1の輪郭を複数並べることにより前記三次元画像を生成する、生成システム。
JP2017086610A 2017-04-25 2017-04-25 電子機器、生成方法及び生成システム Active JP6712965B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017086610A JP6712965B2 (ja) 2017-04-25 2017-04-25 電子機器、生成方法及び生成システム
PCT/JP2018/015130 WO2018198765A1 (ja) 2017-04-25 2018-04-10 電子機器、生成方法及び生成システム
US16/605,481 US11051719B2 (en) 2017-04-25 2018-04-10 Electronic device, generation method, and generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086610A JP6712965B2 (ja) 2017-04-25 2017-04-25 電子機器、生成方法及び生成システム

Publications (2)

Publication Number Publication Date
JP2018183372A JP2018183372A (ja) 2018-11-22
JP6712965B2 true JP6712965B2 (ja) 2020-06-24

Family

ID=63918332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086610A Active JP6712965B2 (ja) 2017-04-25 2017-04-25 電子機器、生成方法及び生成システム

Country Status (3)

Country Link
US (1) US11051719B2 (ja)
JP (1) JP6712965B2 (ja)
WO (1) WO2018198765A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428874B2 (ja) * 2019-11-25 2024-02-07 ミツミ電機株式会社 体型を判別するための演算デバイス、プロセッサー実施方法、および体型判別システム
JP7429416B2 (ja) * 2019-12-05 2024-02-08 株式会社Agama-X 情報処理装置及びプログラム
CH717307B1 (de) * 2020-04-14 2022-10-31 Sigvaris Ag Elektronisches Massband.

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002091302A2 (en) * 2001-05-04 2002-11-14 Legend Films, Llc Image sequence enhancement system and method
GB9818790D0 (en) * 1998-08-28 1998-10-21 Univ Montfort Apparatus and method for detecting abnormalities in bodily matter
US7239908B1 (en) * 1998-09-14 2007-07-03 The Board Of Trustees Of The Leland Stanford Junior University Assessing the condition of a joint and devising treatment
US6546356B1 (en) * 2000-05-01 2003-04-08 Genovation Inc. Body part imaging method
AU2001296873A1 (en) * 2000-09-14 2002-03-26 Leland Stanford Junior University Technique for manipulating medical images
JP3910795B2 (ja) 2000-12-26 2007-04-25 株式会社タニタ 体脂肪面積を求める装置
JP4780106B2 (ja) * 2005-06-07 2011-09-28 ソニー株式会社 情報処理装置及び情報処理方法、画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
CN101466998B (zh) * 2005-11-09 2015-09-16 几何信息学股份有限公司 三维绝对坐标表面成像的方法和装置
DE102008047248A1 (de) * 2008-09-10 2010-03-11 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Coburg Spindelantrieb für eine Lordosenstütze in der Rückenlehnenstruktur eines Kraftfahrzeugsitzes
JP5360989B2 (ja) * 2009-09-29 2013-12-04 株式会社日立ソリューションズ 地理情報生成システム及び地理情報生成方法
US20140121564A1 (en) * 2012-05-03 2014-05-01 Aliphcom Estimating body fat in a user
JP5832966B2 (ja) * 2012-07-17 2015-12-16 富士フイルム株式会社 放射線画像撮影装置、放射線画像撮影システム、放射線の照射開始の検出感度制御方法およびプログラム
US9129398B2 (en) * 2013-03-15 2015-09-08 Qualcomm Incorporated Edgel sampling for edge-based tracking
JP6039641B2 (ja) * 2014-12-22 2016-12-07 京セラ株式会社 筋肉面積推定システム、機器、及び筋肉面積推定方法

Also Published As

Publication number Publication date
WO2018198765A1 (ja) 2018-11-01
US20200121223A1 (en) 2020-04-23
US11051719B2 (en) 2021-07-06
JP2018183372A (ja) 2018-11-22

Similar Documents

Publication Publication Date Title
JP5992985B2 (ja) 体脂肪推定方法、機器、及びシステム
EP3079090B1 (en) Method for processing data and electronic device thereof
JP6712965B2 (ja) 電子機器、生成方法及び生成システム
EP3042606A1 (en) Method and electronic device to display measured health related information
US10175247B2 (en) Physical change evaluation device, method, and recording medium stored with program
EP3231362A1 (en) Meal intake estimation program, meal intake estimation method, and meal intake estimation device
EP3238618B1 (en) Muscle area estimation system and method for estimating muscle area
JP2015225460A (ja) 食事管理方法、食事管理システム及び食事管理端末
JP6712964B2 (ja) 電子機器、表示方法及び表示システム
KR102424353B1 (ko) 혈당량의 변화율에 기초한 혈당 측정 방법 및 이를 위한 혈당 측정 장치
JP6815636B2 (ja) ケトン体濃度推定装置、方法、及びプログラム
JP6656058B2 (ja) 腹部断面画像の生成装置及び腹部断面画像の生成システム
KR20170081911A (ko) 위치에 대응하는 전자 장치의 기능 제공 장치 및 방법
JP7178370B2 (ja) 適合可能な標的グルコースレベルを用いる基礎タイトレーション
JP2017012875A (ja) 筋肉面積推定システム、機器、及び筋肉面積推定方法
CN105380595B (zh) 活动状态信息运算系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6712965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150