JP6424293B1 - ボディの画像化 - Google Patents

ボディの画像化 Download PDF

Info

Publication number
JP6424293B1
JP6424293B1 JP2018147992A JP2018147992A JP6424293B1 JP 6424293 B1 JP6424293 B1 JP 6424293B1 JP 2018147992 A JP2018147992 A JP 2018147992A JP 2018147992 A JP2018147992 A JP 2018147992A JP 6424293 B1 JP6424293 B1 JP 6424293B1
Authority
JP
Japan
Prior art keywords
user
representation
skeleton
image
program instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018147992A
Other languages
English (en)
Other versions
JP2019012532A (ja
Inventor
キャサリン・イスコー
ブラド・ボサナック
アマール・エル−サラーム
Original Assignee
マイフィジーク リミテッド
マイフィジーク リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2014904940A external-priority patent/AU2014904940A0/en
Application filed by マイフィジーク リミテッド, マイフィジーク リミテッド filed Critical マイフィジーク リミテッド
Application granted granted Critical
Publication of JP6424293B1 publication Critical patent/JP6424293B1/ja
Publication of JP2019012532A publication Critical patent/JP2019012532A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1073Measuring volume, e.g. of limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6888Cabins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/028Microscale sensors, e.g. electromechanical sensors [MEMS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Rheumatology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)

Abstract

1つの態様では、ボディを画像化する装置が開示される。1つの配置では、前記装置は、コントローラと;前記コントローラを制御するための電子プログラム命令を記憶する記憶装置と;ユーザインタフェースを表示するためのディスプレイと;入力手段とを含む。1つの形態では、前記コントローラは、前記入力手段を介して、前記ボディの第1の表現を含む入力を受信し、前記第1の表現を処理し、前記第1の表現の処理に基づいて前記ボディの第2の表現を作成し、作成された前記第2の表現をディスプレイを介して表示するように前記電子プログラム命令の制御下で操作可能である。【選択図】図1

Description

本発明は、一般的に、ボディの画像化に関する。
パーソナルフィットネスの目標を含む目的の達成を促進するために、特に人体の画像化を参照して本発明を説明するが、他のボディに関して、また、更なる及び/又は別の目的のために本発明を用いてもよいことが理解される。
ヒトの肥満は、世界中に蔓延していることが明らかになっている。非特許文献1及び2によれば、過体重に分類されるヒトの数は、推定で1980年の8億5700万人から2013年には21億に増加しており、2030年には40億人が過体重になると予測されている。
これには、経済的なコストがかかる。例えば、英国では、2007年に、男性の42%及び女性の32%が過体重であると推定され、その経済的なコストは推定260億米ドルであった。米国では、2010年に、男性の74%及び女性の64%が過体重であると推定され、その経済的なコストは推定1,470億米ドルであった。オーストラリアでは、2012年に、男性の42%及び女性の28%が過体重であると推定され、その経済的なコストは推定530億米ドルであった[国立保健医療研究委員会(NHMRC)、オーストラリア心臓財団:疾病管理センター(CDC);国民健康栄養調査(NHANES);保健・社会医療情報センター(HSCIC)]。
更に、オーストラリア人(55.7%)及びアメリカ人(51%)の半分以上が減量を試みており、健康体重範囲の女性の45%及び男性の23%が、自身を過体重であると考えており、女性の約91%が自身の身体に不満を抱いており、そして、肥満は主に20歳〜40歳で増加していると報告されている[非特許文献3〜6]。
これら統計値に鑑みて、多くの人々が、体重の減少、増加、若しくは維持/モニタリング、及び/又は身体サイズ若しくは体形の改善というパーソナルフィットネスの目標を有していることは驚くことではない。
例えば、体重測定及び/又は周囲長の測定等のセルフモニタリングを頻繁に行うことは、体重の減少又は増加、及び他のフィットネスの目標において決定的ではないにしても、重要な役割を果たしていることが研究によって繰り返し示されている。
体重をモニタリングするための現在の方法としては、以下が挙げられる:
・ 計量器(即ち、物体の重量又は質量を求めるための測定機器)の使用。この技術は、安価且つ迅速であるという利点を有するが、体形の変化を示すことができない。
・ 測定テープの使用。安価であるが、この技術は、ユーザエラーが生じやすく、実用的ではなく、時間もかかる。
・ 二重エネルギーX線吸収測定法(DXA又はDEXA)の使用。この技術は、正確な体組成特定を容易にするが、身体の胴囲/周囲長測定値が得られず、高価であり、時間がかかるという不利点を有する。更に、健康への影響を伴う可能性がある。この点について、この技術において用いられる放射線の量は、典型的には、極めて少なく、標準的な胸部レントゲンの線量の10分の1未満であり、自然放射線への1日の曝露量よりも少ないが、臨床的及び商業的使用については、健康への影響のため個体をスキャンするのは年間2回だけにすべきであると推奨されている。
・ 例えば、商標名Image Twin(商標)及びmPort(商標)として供給されている三次元(3D)ボディスキャナー及びマッパーの使用。Image Twin(商標)システムによって身体の正確な3Dアバター表現を作成することができるようになるが、高価であり、典型的には検査室に設置される特殊な設備の使用を必要とする。mPort(商標)システムによって身体の正確な3Dアバター表現を作成し、周囲長測定値を得ることができるようになる。しかし、これも高価であり、規定の場所で特殊な設備を使用する必要があり、体重変化のグラフデータしか得られない。
・ 例えば、商標名Model My Diet(商標)、Change in Seconds(商標)、及びVirtual Weight Loss Model Lite(商標)(ソフトウェアアプリ)として供給されているバーチャル重量減少シミュレータの使用。これらシステムは、典型的には、「前」及び「後」のボディのアニメーションアバター表現の作成が可能である。これらは、コンピュータ、例えば、デスクトップで実行される実行可能ファイルとして入手することしかできず、基本的な身体計測データを用いることでしか基本推定値が得られない。
・ 例えば、商標名Optitex(商標)として供給されているバーチャルプロダクトシミュレータの使用。Optitex(商標)システムは、単一のボディのアニメーションアバター表現の作成が可能である。これらは、コンピュータ、例えば、デスクトップで実行される実行可能ファイルとして入手することしかできず、基本的な身体計測データを用いることでしか基本推定値が得られない。
・ 例えば、商標名Good Housekeeping(商標)として供給されているもの等の写真の使用。Good Housekeeping(商標)システムは、写真ベースであるが、画像操作/処理ソフトウェア(例えば、photoshop(登録商標))で用いられる画像モーフィングアプローチの基本型である二次元(2D)空間においてアップロードされた写真を単に縮小及び拡大することしかできない。
(非特許文献7に公開されている)研究によって、アバターベースのプログラムにおける高い関心レベルが明らかになっており、造形作業が有望であることが示されている。インビボにおける曝露及び実行に関連する高コストを前提として、この研究は、体重減少挙動をモデリングするためのツールとしてアバターベースの技術を使用する可能性を証明するものである。
本発明はこのような背景の下で開発された。
World Health Organisation 2008 Global Burden of Disease Study 2013,The Lancet Jeffery RW,Sherwood NE,Brelje K,et al.Mail and phone interventions for weight loss in a managed−care setting:Weigh−To−Be one−year outcomes.Int J Obes Related Metab Disord. 2003;27(12):1584−1592 Linde JA,Jeffery RW,French SA,Pronk NP,Boyle RG.Selfweighing in weight gain prevention and weight loss trials.Ann Behav Med.2005;30(3):210−216 Butryn ML,Phelan S,Hill JO,Wing RR.Consistent self monitoring of weight:a key component of successful weight loss maintenance.Obesity.2007;15(12):3091−3096 The Technology Boom:A New Era in Obesity Management.Gilmore,Duhe’,Frost,Redman.J Diabetes Sci Technol.2014 Feb 27;8(3):596−608. J Diabetes Sci Technol.2013 Jul 1;7(4):1057−65.Using avatars to model weight loss behaviors:participant attitudes and technology development
本発明の目的は、上述の関連技術の問題点のうちの1以上を克服若しくは少なくとも改善するか、又は有用若しくは商業的な選択肢を消費者に与えることにある。
本発明の他の目的及び利点は、例証及び実例として本発明の好ましい実施形態が開示される添付図面に関連する以下の記載から明らかになるであろう。
本発明の広い態様によれば、ボディを画像化する装置であって、
コントローラと;
前記コントローラを制御するための電子プログラム命令を記憶する記憶装置と;
ユーザインタフェースを表示するためのディスプレイと;
入力手段と
を含み、
前記コントローラが、
前記入力手段を介して、前記ボディの分類及び前記ボディの第1の表現(representation)を含む入力を受信し、
前記ボディの分類を考慮して前記第1の表現を処理し、
前記第1の表現の処理に基づいて前記ボディの第2の表現を作成し、
作成された前記第2の表現をディスプレイを介して表示するように前記電子プログラム命令の制御下で操作可能である装置が提供される。
本発明の第1の広い態様によれば、ボディを画像化する装置であって、
コントローラと;
前記コントローラを制御するための電子プログラム命令を記憶する記憶装置と;
ユーザインタフェースを表示するためのディスプレイと;
入力手段と
を含み、
前記コントローラが、
前記入力手段を介して、前記ボディの第1の表現を含む入力を受信し、
前記第1の表現を処理し、
前記第1の表現の処理に基づいて前記ボディの第2の表現を作成し、
作成された前記第2の表現をディスプレイを介して表示するように前記電子プログラム命令の制御下で操作可能である装置が提供される。
実施形態では、コントローラは、ボディの第1の表現をセグメンテーションして、前記ボディの実質的に真の三次元スキャンの単純な形態の投影シャドウで表される複数のシルエットを得ることによって前記ボディの前記第1の表現を処理し;前記シルエットに基づいて前記ボディの第2の表現を作成するように電子プログラム命令の制御下で操作可能である。
1つの実施形態では、シルエットは、例えば、投影及び人体の動きの基本を含んでいてよい。
好ましくは、コントローラは、また、入力が受信されたらディスプレイ上に現れるユーザ特有のスケルトンを作成し;第1の表現のセグメンテーションのプロセス中、ユーザが、前記第1の表現におけるボディを前記ユーザ特有のスケルトンと位置合わせできるようにするように電子プログラム命令の制御下で操作可能である。
有利なことに、前記コントローラは、また、
可聴音/単語/セリフを介して、表示されたユーザ特有のスケルトンにボディの部分を位置合わせするようにユーザに指示するように前記電子プログラム命令の制御下で操作可能であり、前記電子プログラム命令は、様々なデータを用いて及び/又は作成されたスケルトン及びボディのリアルタイムに捕捉された画像から抽出した形状外観、並びにばらつきの特徴、姿勢の特徴、及び時空間的特徴を含む特性間で計算される誤差によって位置合わせプロセスを制御するように電子プログラム命令の制御下で操作可能である。
好ましくは、コントローラは、また、
送信されたユーザの高さ情報、画像サイズ(画像の高さ及び幅(ピクセル))に基づいて、二値画像のユーザブロブ解析、投影理論、及びカメラモデルを用いて、
ポーズPとして定義される、各画像におけるカメラの位置及び姿勢を含む捕捉センサ又はカメラの固有及び外部パラメータの初期推定値、並びに
スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む、JKとして定義される、ボディのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値
を計算するように電子プログラム命令の制御下で操作可能である。
この実施形態では、コントローラは、また、
送信されたユーザの高さ及び重量及び性別の情報、又はユーザの高さ及び性別の情報のみに基づいて、一般的にユーザが入力した高さ、重量、又は分かっている場合他のボディ測定値によって異なる、Avとして定義される、初期平均アバターを予測し、
前記平均アバターAvを、参照ポーズにおける公知のスケルトンモデルJK及びWとして定義されるボーンの重量/熱マトリクスを有するサイズNのジョイントの参照スケルトンにリギングするように電子プログラム命令の制御下で操作可能である。
好ましくは、マトリクスWは、ヒトの形状のオフライン機械学習プロセス中に一度だけオフラインで計算され、次いで、それまで学習されていない他のアバター又はヒトの形状の予測又は作成に用いられる参照スケルトンモデルJKと共に保存され、Wの幾つかの目的は、ヒトの皮膚に対して自然に生じる変形を含むジョイント、ボーン、及び実際の3Dアバター表面又は3Dトポロジーの間の関係をコンストレイン、制御、及びモデリングすることである。表面又は3Dトポロジーは、独自にモデリングされ、その頂点V、エッジE、及び面Fによって表され得る。
有利には、初期平均アバターAvを予測するプロセスは、複雑な多変量系機械学習アプローチに従う。好ましくは、多変量系機械学習アプローチは、様々な年齢、民族、及び様々なボディポーズの現実のヒト(男性及び女性)の複数のリギング及びレンダリングされた三次元スキャンから抽出された独自の顕著な3D特徴を用いるヒト形状の3D形状のオフライン学習を含む。典型的には、多変量系機械学習アプローチは、更に、ベクトルM=(m1,m2,...,mL)(Lは、異なる測定値の数である)として定義される異なるボディ測定値間の様々な統計的関係を含み、使用中に、1以上の異なる測定値を考慮して1以上の測定値を予測することができ、これら測定値のうちの1以上を考慮して平均アバターAvを予測することができる。
好ましくは、新たな第1の表現において表される通り、アバターを変形させるか又は単にアニメーション化してボディのAv1として定義される新たなアバターにするために、参照又は平均アバターデータ(V、E、F、JK、W)、及び新たな第1の表現のJK1として定義されるユーザのジョイント運動の公知値又は推定値を、Avを公知であるか又は自然なヒトの動きから学習された多数の物理コンストレイントに基づいてAv1に最適化及び変形させる、£として定義されるコスト関数に供給し、ここでは、使用中、新たにアニメーション化されたアバターAv1を、単純にするために平均アバターAvと同じボディ測定値を有すると仮定して、参照又は平均アバターデータの非線形関数、即ち、Av1=f(Av,W,JK,JK1)としてモデリングすることができる。典型的には、コスト関数£の実行は、2以上の重み付けされたエネルギー最小化関数を合わせることによって行われる:
例えば、V、F、及びEを使用するラプラシアンコタンジェントマトリクスを利用する表面平滑度関数、並びに
アバター頂点とそのスケルトン構造との間の対応を確実にコンストレインするために、V、F、及びWを使用するボーン結合関数。
好ましくは、実際のボディの3D表現、3Dアバターを作成するために、シルエット又はその表現のうちの1以上に対して適応的非線形最適化を用いてAv1の1以上の表現をマッチングし、比較する。プロセスは、マッチングが行われるまで、Av1データ及びM、JKを含む測定値の最初の推定値を調整する。
更なる実施形態では、入力は、ボディの分類を含み、コントローラは、電子プログラム命令の制御下で、ボディの分類に基づいて、ボディの分類に対応するデータを得;第1の表現と得られたデータとを比較することによって第1の表現を処理し;比較に基づいてボディの第2の表現を作成するように操作可能である。
実施形態では、入力は、ボディの細目を含む。細目は、ボディに関連するデータ及び/又は情報を含み得る。
本発明の実施形態では、1以上のソースからそれの検索、受信、抽出、及び同定のうちの1以上を行うことによってデータを得ることができる。実施形態では、得られたデータは、テンプレート;ボディの以前の表現、この場合、ボディの分類は、ボディの同定を含み得る;ボディの1以上の以前の表現及び/又は他のボディの積分又はボディの1以上の以前の表現及び/又は他のボディのデータ若しくは関連するデータの積分のうちの少なくとも1つを含む。
実施形態では、ボディの第1の表現は、ボディの分類を含む。
実施形態では、ボディは、人体又はその1以上の部分である。かかる場合、ボディは、人体測定学に従って分類し得る。実施形態では、装置は、複数のテンプレートを含み、各テンプレートは、標準的な平均人体測定学的測定値を有する人体の三次元モデルを含むテンプレートデータに関連付けられている。これは、平均ボディモデルと称される場合もある。標準的な平均人体測定学的測定値は、性別、サイズ(例えば、ヒトの衣類のサイズ)、重量、高さ、年齢、及び民族のばらつきについての測定値を含む、1以上の測定値に関するものであってよい。
実施形態では、ボディは、生物のボディ又はその1以上の部分である。
実施形態では、ボディは、非生物のボディ若しくはその1以上の部分である。
入力手段は、少なくとも1つのセンサを含んでいてよく、これは、センサシステム又はセンサのセットの一部であってよい。
実施形態では、第1の表現は、ボディの視覚的表現を含む。かかる実施では、少なくとも1つのセンサは、ボディの視覚的表現を捕捉するように操作可能である画像化手段を含んでいてよい。画像化手段は、デジタルカメラであってよい。
センサのセット内の個々のセンサは、運動センサ、赤外線センサ、深さセンサ、三次元イメージングセンサ、慣性センサ、及びマイクロエレクトロメカニカル(MEMS)センサ、画像化手段、加速度センサ、姿勢センサ、方位センサ、及び位置センサを含んでいてよい。
実施形態では、第1の表現は、ボディの1以上の視覚的表現を含む。かかる実施形態では、1以上のセンサ(提供される場合)は、ボディの1以上の視覚的表現を捕捉するように操作可能である画像化手段を含んでいてよい。更に、1以上のセンサは、平面への位置合わせを促進して精度を高めるためにボディの1以上の視覚的表現の捕捉中に使用するための姿勢データを提供するように操作可能である姿勢センサを含んでいてよい。
実施形態では、ボディの1以上の視覚的表現は、ボディの少なくとも1つの正面及び少なくとも1つの側面の写真を含む。写真は、本発明の実施形態では、標準的な二次元(2D)の二値、グレー、又はカラー画像;色及び/又はテクスチャを有するか又は有しない奥行き画像;色及び/又はテクスチャを有するか又は有しないボディの完全三次元(3D)点群又は多数の不完全点群;及び/又は色及び/又はテクスチャを有するか又は有しないボディの三次元(3D)メッシュを含んでいてよい。
実施形態では、コントローラは、更に、
第1の表現のボディの1以上の視覚的表現のボディを含む少なくとも1つの前景をセグメンテーションする;
第1の表現の1以上の視覚的表現の1以上のセグメンテーションされた前景をそれぞれのシルエットに変換し;
1以上のセグメンテーションされた前景及びそのそれぞれのシルエットを用いてボディの形状の3Dビジュアルハルを構築し、及び/又は特徴を抽出し、及び/又はキーポイントの測定値を抽出し;そして、
ハル及び/又は特徴及び/又はキーポイントの測定値のうちの1以上を使用して、選択されたテンプレートのボディの3Dモデル(平均ボディモデル)に対して修正、リギング、及びモーフィングのうちの1以上を行い、第2の表現である修正済の対象特有の3Dモデル画像を作成するように電子プログラム命令の制御下で操作可能である。
実施形態では、色及び/又はテクスチャを有するか又は有しない奥行き画像、点群、及びメッシュの場合、コントローラは、ボディの三次元対象特有の形状を再構築するように電子プログラム命令の制御下で操作可能である。実施形態では、コントローラは、更に、第1の表現の1以上の視覚的表現を削除するように電子プログラム命令の制御下で操作可能である。
ディスプレイ、ユーザインタフェース、及び入力手段は、例えば、タッチスクリーンに統合されていてよい。或いは、これらは、別個であってもよい。
実施形態では、入力は、入力手段を介してユーザによって入力されるユーザの命令を含む。ユーザの命令は、動作を実施するためのコマンドを含んでいてよく、この場合、コントローラは、受信したユーザの命令に従って動作を実施するように電子プログラム命令の制御下で操作可能である。
動作は、相互作用動作を含んでいてよく、以下のうちの1以上を含んでいてよい:作成される第2の表現の領域又は部分を選択してその測定値の詳細を得る。
テンプレートは、装置の記憶装置から、又は装置から離れた記憶装置から検索してよい。
実施形態では、第1の表現、テンプレート、及び第2の表現のうちの1以上は、1以上のデータベースに又は1以上のデータベースにまたがって記憶されていてよい。
実施形態では、電子プログラム命令は、ソフトウェアを含む。装置は、移動通信装置であってよく、この場合、それは、ソフトウェアがインストールされているスマートフォン、ノートパソコン/タブレット/デスクトップコンピュータ、カメラ、又は携帯用メディア装置を含んでいてよい。ソフトウェアは、装置にダウンロードすることができるソフトウェアアプリケーションとして提供され得る。
好ましくは、装置によって実施される操作は、ヒトの介入を必要とすることなしに自動的に行われる。
本発明の第2の広い態様によれば、ボディを画像化する方法であって、
コントローラを制御するための電子プログラム命令を記憶することと、
前記電子プログラム命令を介してコントローラを制御して、
前記ボディの第1の表現を含む入力を、入力手段を介して受信し、
前記第1の表現を処理し、
前記第1の表現の処理に基づいて、ボディの第2の表現を作成することと
を含む方法が提供される。
実施形態では、前記方法は、作成された第2の表現を通信することを更に含んでいてよい。通信は、作成された第2の表現をディスプレイを介して表示することを含んでいてよい。
実施形態では、前記方法は、電子プログラム命令を介してコントローラを制御して、ボディの第1の表現をセグメンテーションすることによって前記ボディの第1の表現を処理して、ボディの実質的に真の三次元スキャンの単純な形態の投影シャドウで表される複数のシルエットを得;前記シルエットに基づいて前記ボディの第2の表現を作成することを更に含む。好ましくは、前記方法は、電子プログラム命令を介してコントローラを制御して、入力が受信されたらディスプレイ上に現れるユーザ特有のスケルトンを作成し;第1の表現をセグメンテーションするプロセス中、ユーザに前記第1の表現におけるボディをユーザ特有のスケルトンと位置合わせさせることを更に含む。
好ましくは、ユーザに位置合わせさせる工程は、可聴音/単語/セリフを介して、表示されたユーザ特有のスケルトンにボディの部分を位置合わせするようにユーザに指示することを含み、前記電子プログラム命令は、作成されたスケルトン及びボディのリアルタイムで捕捉された画像から抽出した形状外観、並びにばらつきの特徴、姿勢の特徴、及び時空間的特徴を含む様々なものを用いて、これらの間で計算される誤差によって位置合わせプロセスを制御するように操作可能である。
有利には、前記方法は、更に、
送信されたユーザの高さ情報、画像サイズ(画像の高さ及び幅(ピクセル))に基づいて、二値画像のユーザブロブ解析、投影理論、及びカメラモデルを用いて、
ポーズPとして定義される、各画像におけるカメラの位置及び姿勢を含む捕捉カメラの固有及び外部パラメータの初期推定値、並びに
スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む、JKとして定義される、ボディのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値
を計算するように電子プログラム命令を介してコントローラを制御することを含む。
有利には、前記方法は、更に、
送信されたユーザの高さ情報、画像サイズ(画像の高さ及び幅(ピクセル))に基づいて、二値画像のユーザブロブ解析、投影理論、及びカメラモデルを用いて、
ポーズPとして定義される、各画像におけるカメラの位置及び姿勢を含む捕捉センサ又はカメラの固有及び外部パラメータの初期推定値、並びに
スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む、JKとして定義される、ボディのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値
を計算するように電子プログラム命令を介してコントローラを制御することを含む。
典型的には、前記方法は、更に、
送信されたユーザの高さ及び重量及び性別の情報、又はユーザの高さ及び性別の情報のみに基づいて、ユーザが入力した高さ、重量、又は分かっている場合他のボディ測定値によって異なる、Avとして定義される、初期平均アバターを予測し、
前記平均アバターAvを、参照ポーズにおける公知のスケルトンモデルJK及びWとして定義されるボーンの重量/高さマトリクスを有するサイズNのジョイントの参照スケルトンにリギングするように電子プログラム命令を介してコントローラを制御することを含む。好ましくは、マトリクスWは、予測プロセスの学習プロセス中に1回だけオフラインで計算され、次いで、他のアバターの予測又は作成のために用いられる参照スケルトンモデルJKと共に保存され、Wの目的は、その頂点V、エッジE、及び面Fによって表される、ジョイント、ボーン、及び実際の3Dアバター表面間の関係をコンストレイン、制御、及びモデリングすることである。
典型的には、前記方法は、更に、
送信されたユーザの高さ及び重量及び性別の情報、又はユーザの高さ及び性別の情報のみに基づいて、ユーザが入力した高さ、重量、又は分かっている場合他のボディ測定値によって異なる、Avとして定義される、初期平均アバターを予測し、
前記平均アバターAvを、参照ポーズにおける公知のスケルトンモデルJK及びWとして定義されるボーンの重量/熱マトリクスを有するサイズNのジョイントの参照スケルトンにリギングするように電子プログラム命令を介してコントローラを制御することを含む。好ましくは、マトリクスWは、ヒト形状のオフライン機械学習プロセス中に1回だけオフラインで計算され、次いで、他のアバターの予測又は作成のために用いられる参照スケルトンモデルJKと共に保存され、Wの幾つかの目的は、ヒトの皮膚に対して自然に生じる変形を含むジョイント、ボーン、及び実際の3Dアバター表面又は3Dトポロジーの間の関係をコンストレイン、制御、及びモデリングすることである。表面又は3Dトポロジーは、その頂点V、エッジE、及び面Fによって独自に表され得る。
好ましくは、初期平均アバターAvを予測するプロセスは、複雑な多変量系機械学習アプローチに従う。典型的には、多変量系機械学習アプローチは、様々な年齢及びポーズの現実のヒト(男性及び女性)の複数のリギング及びレンダリングされた三次元スキャンから抽出された独自かつ顕著な3D特徴を用いるヒト形状の3D形状のオフライン学習を含む。
有利には、多変量系機械学習アプローチは、更に、ベクトルM=(m1,m2,...,mL)(Lは、異なる測定値の数である)として定義される異なるボディ測定値間の様々な統計的関係の機械知能学習を含み、使用中に、1以上の異なる測定値を考慮して1以上の測定値を予測することができ、これら測定値のうちの1以上を考慮して平均アバターAvを予測することができる。
この実施形態では、新たな第1の表現において表される通り、アバターを変形させるか又は単にアニメーション化してボディのAv1として定義される新たなアバターにするために、参照又は平均アバターデータ(V、E、F、JK、W)、及び新たな第1の表現のJK1として定義されるユーザのジョイント運動の公知値又は推定値を、Avを公知であるか又は自然なヒトの動きから学習された多数の物理コンストレイントに基づいてAv1に最適化及び変形させる、£として定義されるコスト関数に供給し、ここでは、使用中、新たにアニメーション化されたアバターAv1を、単純にするために平均アバターAvと同じボディ測定値を有すると仮定して、参照又は平均アバターデータの非線形関数、即ち、Av1=f(Av,W,JK,JK1)としてモデリングすることができる。典型的には、コスト関数£の実行は、2以上の重み付けされたエネルギー最小化関数を合わせることによって行われる:
例えば、V、F、及びEを使用するラプラシアンコタンジェントマトリクスを利用する表面平滑度関数、並びに
アバター頂点とそのボーンとの間の対応を確実にコンストレインするために、V、F、及びWを使用するボーン結合関数。
更なる実施形態では、実際のボディの3D表現、3Dアバターを作成するために、シルエット又はその表現のうちの1以上に対して適応的非線形最適化を用いてAv1の1以上の表現をマッチングし、比較する。プロセスは、マッチングが行われるまで、Av1データ及びM、JKを含む測定値の最初の推定値を調整する。
更なる実施形態では、入力は、ボディの分類を含み、前記方法は、更に、
ボディの分類に基づいて、ボディの分類に対応するデータを得;
第1の表現と得られたデータとを比較することによって第1の表現を処理し;
比較に基づいてボディの第2の表現を作成するように電子プログラム命令を介してコントローラを制御することを含む。
本発明の第3の広い態様によれば、演算手段によって実行されるときに、上記の通り本発明の第2の広い態様に係る方法を演算手段に実施させる命令が記憶されているコンピュータ可読記憶媒体が提供される。
本発明の第4の広い態様によれば、上記の通り本発明の第2の広い態様に係る方法を実行するようプログラムされている演算手段が提供される。
本発明の第5の広い態様によれば、演算システムによって受信及び解釈することができる少なくとも1つの命令を含むデータ信号であって、前記命令が、上記の通り本発明の第2の広い態様に係る方法を実行するデータ信号が提供される。
本発明の第6の態様によれば、上記の通り本発明の第1の広い態様に係る装置を含む、ボディを画像化するシステムが提供される。
本発明の第7の広い態様によれば、目標を達成する方法であって、上記の通り本発明の第1の広い態様に係る装置を用いて、ディスプレイを介してボディの1以上の第2の表現を作成し、表示して、目的を達成するためのモチベーションを与えることを含む方法が提供される。
実施形態では、ボディは、人体であり、目的は、人体のパーソナルフィットネスの目標を含む。
次に、本発明をより深く理解し、実現できるようにするために、添付図面を参照してその好ましい実施形態について説明する。
図1は、本発明の態様に係るシステムの第1の実施形態を用いて、方法の第1の実施形態のユーザが完了した動作のフローチャートを示す。 図2は、本発明の態様に係る装置の実施形態の概略図を示す。 図3は、図1のシステムの簡易システム図を示す。 図4は、本発明の態様に係るシステムの第2の実施形態を用いて、方法の第2の実施形態のユーザが完了した動作のフローチャートを示す。 図5は、方法及びシステムの第2の実施形態の使用中の画像における、可能性の高いユーザボディを標識するプロセスを示す。
本発明は、以下の特定の実施形態によって範囲が限定されるものではない。この詳細な記載は、例示のみを目的とすることを意図する。機能的に等価な製品、組成物、及び方法は、本明細書に記載する本発明の範囲内である。この立場と一致して、当業者は、本明細書に記載する本発明に対して、具体的に記載するもの以外の変更及び改変を行いやすいことを理解するであろう。本発明は、全てのかかる変更及び改変を含むと理解すべきである。また、本発明は、本明細書に個別に又は集合的に言及されるか又は指定される工程、特徴、組成物、及び化合物の全て、並びに前記工程又は特徴のいずれか及び全ての組合せ又はいずれか2以上も含む。
本発明の更なる特徴について本明細書の実施例においてより詳細に記載する。しかし、この詳細な説明は、本発明を例示する目的のためだけに含まれることを理解すべきであり、如何なる方法であっても上述の本発明のより広い説明を限定すると理解すべきではない。
本明細書に引用する全ての刊行物(特許、特許出願、論文、研究室マニュアル、書籍、又は他の文書)の開示全体を参照によって本明細書に援用する。参照文献はいずれも、先行技術を構成したり、本発明が関連する分野における研究の技術常識の一部であったりすることを認めるものではない。
本明細書全体を通して、特に必要としない限り、用語「含む」又は「含み」若しくは「含んでいる」等の変形は、記載されている整数又は整数群を含むことを意味するが、任意の他の整数又は整数群を除外するものではないことが理解される。
本明細書で使用する選択された用語の他の定義は、本発明の詳細な説明内に見出すことができ、明細書全体に適用される。特に定義しない限り、本明細書で使用する全ての他の科学用語及び技術用語は、本発明が属する分野の当業者に一般的に理解されているのと同じ意味を有する。
本明細書に記載する発明は、1以上の値の範囲(例えば、サイズ、置換、及び場の強度等)を含み得る。値の範囲は、範囲を規定する値、及び範囲の境界を規定する値に直ぐ隣接する値と同じか又は実質的に同じ結果を導く範囲に隣接する値を含む、範囲内の全ての値を含むと理解される。例えば、範囲の上限又は下限における10%の変動が全体として適切であり得、本発明に包含されることを当業者は理解するであろう。より具体的には、範囲の上限又は下限における変動は、5%であるか又は当技術分野において一般的に認識されている通りであるか、いずれか大きい方である。
本明細書全体を通して、用語「約」及び「略」等の相対的な用語を用いる。この用語は、指定の数又は範囲に対して少なくとも10%の変動を組み込もうとする。その変動は、指定される具体的な数字プラス10%又はマイナス10%であってよい。
図面では、類似の特徴は、類似の参照番号で参照されている。
図1では、本発明の態様にかかる装置12を用いてボディを画像化するシステム10の第1の実施形態の使用中に実施される動作について記載する。
記載する実施形態では、ボディは、重量の減少、増加、若しくは維持/モニタリング、及び/又はボディのサイズ若しくは形状の改善というパーソナルフィットネスの目標を含む目的を達成することを望んでいるヒト16(システム10のユーザである)のボディ14である。このように、特に、16歳〜48歳の女性、新婦/新郎、運動選手、及びボディービルダーによって;妊娠前/後に;並びに医学的モニタリングにおいて使用するのに適用可能である。更に詳細に記載する通り、システム10は、ヒト16の正確な個別化された対象特有の画像を提供して、ボディ14の有効且つ正確なモニタリングを通してパーソナルフィットネスの目標の達成を促進及び支援するように操作可能である。提供される画像は、アバターと称されることがある。
本発明は、人体を画像化してパーソナルフィットネスの目標を達成するモチベーションを促進及び提供することに特に関連して説明されるが、特にボディに関して、そして、更なる及び/又は別の意図若しくは目的のために用いてもよいことが理解される。
本発明は、画像化されるボディ又は画像化する意図に関して限定されないことが理解され、別の実施形態では、本発明は、更なる及び/又は別のもののボディの画像化に、そして、更なる及び/又は別の意図のために記載するものに適用してもよい。実行に依存して、ボディは、生物のボディ若しくはその1以上の部分、又は非生物のボディ若しくはその1以上の部分であってよい。本発明の実施形態は、特に、家畜を含む動物及び自然状態の食品等、あるボディと別のボディとの間にばらつきが存在するもののボディの画像化に適用できる。
装置12は、ユーザ16であるヒトによって持ち運ばれる。
装置12は、適切な回路及び/又は連結を介して操作可能に接続されて装置12が本明細書に記載の機能及び操作を実施できるようにする複数のコンポーネント、サブシステム、及び/又はモジュールを含む。装置12は、本発明の実施形態に係るボディを画像化する方法及び目的を達成する方法等の適切なコンピュータ命令を受信、記憶、及び実行するのに必要な好適なコンポーネントを含む。
特に、図2に示す通り、装置12は、この実施形態では、コントローラ18と、コントローラ18を制御するための電子プログラム命令、並びに情報及び/又はデータを記憶するための記憶装置20とを含む演算手段と;ユーザインタフェース24を表示するためのディスプレイ22と;入力手段26とを含み、これらは全て容器又は筐体28内に収容される。
更に詳細に記載する通り、コントローラ18は、ボディ14の第1の表現を含む入力を入力手段を介して受信し;前記第1の表現を処理し;前記処理に基づいてボディ14の第2の表現を作成し;作成された第2の表現をディスプレイ22を介して表示するように、電子プログラム命令の制御下で操作可能である。
更に、第1の実施形態では、入力は、ボディ14の分類も含み、そして、コントローラ18は、ボディ14の分類に基づいて、ボディの分類に対応するデータを得;第1の表現と得られたデータとを比較することによって第1の表現を処理し;前記比較に基づいてボディ14の第2の表現を作成するように、電子プログラム命令の制御下で操作可能である。
本発明の実施形態では、データは、1以上のソースから検索、受信、抽出、及び同定のうちの1以上を行うことによって得ることができる。データの1以上のソースは、記憶装置20に存在していてもよく、及び/又は装置12から離れた他の場所に存在していてもよい。
記載する実施形態では、得られたデータは、ボディ14の分類に基づいて検索されるテンプレートの形態で提供され、ボディ14を分類するために形態測定が用いられる。
複数のテンプレートが提供され、各テンプレートは、それに関連して、性別及び民族のばらつきを含むアイテムの標準的な平均人体測定値を有する人体の三次元(3D)モデルを含むテンプレートデータを有する。テンプレートは、全てのボディ要素の高さ及び幅について全次元の平均3Dデジタルモデルである。この実施形態では、装置は、表示又は計算され得る測定数値としてこれらのサブセットを抽出するように操作可能である。更に詳細に記載する通り、これら特定のデータ点を使用して、入力画像を比較し、画像サイズデータに関連付けるためにテンプレートを修正できるようにする。
本発明の実施形態では、得られたデータは、ボディの以前の表現を含んでいてよく、この場合、ボディの分類は、ボディの同定を含み得る。
他の実施形態では、得られたデータは、ボディの1以上の以前の表現及び/又は他のボディの統合を含むか、又はこれらのデータ若しくはこれらに関連するデータを含んでいてよい。かかるデータは、装置12の操作を介して作成されてもよく、及び/又は例えば、1以上の他の装置12等の1以上の他のソース若しくはDEXA技術から得られてもよい。
コントローラ18は、プロセッサの形態の処理手段を含む。
記憶装置20は、読み出し専用メモリ(ROM)及びランダムアクセスメモリ(RAM)を含む。
装置12は、ROM又はRAMに保持され得る命令を受信することができ、プロセッサによって実行することができる。プロセッサは、以下に更に詳細に記載する通り、命令の処理/実行、及び装置12を通じたデータ及び情報の流れの管理を含む動作を電子プログラム命令の制御下で実施するように操作可能である。
この実施形態では、装置12のための電子プログラム命令は、単一のソフトウェアアプリケーション(アプリ)又はイメージングアプリと呼ばれることがあるモジュールを介して提供される。記載する実施形態では、前記アプリは、商標名MYFIZIQ(商標)として販売されており、ウェブサイト(又は他の好適な電子装置プラットフォーム)からダウンロードするか又は他の方法でデバイス12の記憶装置20に保存若しくは記憶することができる。
本発明の好ましい実施形態では、装置12は、モバイル通信装置であり、商標名IPHONE(登録商標)としてApple Incによって、又はAndroid、WEBOS、Windows(登録商標)、若しくは他の携帯アプリプラットフォームを有するNokia Corporation若しくはSamsung Group等の他のプロバイダによって販売されているもの等のスマートフォンを含む。或いは、装置10は、商標名IPAD(登録商標)若しくはIPOD TOUCH(登録商標)としてApple Incによって、又はHewlett−Packard Company若しくはDell,Inc等の他のプロバイダによって販売されているパソコン、ノートパソコン、又はタブレット等の他の演算手段、或いは他の好適な装置を含んでいてよい。
また、装置12は、コマンドを発行することができるオペレーティグシステムを含み、アプリと相互作用して本明細書に記載する本発明の実施形態に係るそれぞれの工程、機能、及び/又は手順を装置12が実行するように配置される。オペレーティグシステムは、装置12に適したものであってよい。例えば、装置12がIPHONE(登録商標)スマートフォンを含む場合、オペレーティグシステムはiOSであってよい。
図3に示す通り、装置12は、サーバ、パソコン、端子、ワイヤレス若しくはハンドヘルド演算装置、有線通信装置、又は携帯電話等のモバイル通信装置等の1以上の遠隔装置32に様々に接続し得る1以上の通信リンク30を介して通信するように操作可能である。複数の通信リンク30のうちの少なくとも1つは、電気通信ネットワークを通じて外部演算ネットワークに接続され得る。
記載する実施形態では、遠隔装置32は、管理者が所有及び操作する演算システム34に加えて、他人が所有及び/又は操作する他の装置12を含む。
管理者の演算システム34は、実施形態ではサーバ36の形態を有する。サーバ36を用いて、本発明の実施形態に係るボディを画像化するシステム及び方法、並びに目的を達成する方法等のアプリケーション及び/又はシステムサービスを実行することができる。
この実施形態では、サーバ36は、一元管理されるアドミニストレーションセンタに物理的に位置する。別の実施形態では、クラウドベースのプラットフォームで保持されていてもよい。
装置12と同様に、サーバ36は、適切な電子プログラム命令を受信、記憶、及び実行するのに必要な好適なコンポーネントを含む。前記コンポーネントは、サーバプロセッサ、リードオンリーメモリ(ROM)及びランダムアクセスメモリ(RAM)を含むサーバストレージ、1以上のサーバ入力/出力装置、例えば、ディスクドライブ、並びに関連するサーバユーザインタフェースの形態の処理手段を含む。遠隔通信装置32(装置12を含む)は、1以上の通信リンク30を介してサーバ36と通信するように配置される。
サーバ32は、ROM、RAM、又はディスクドライブに保持され得る命令を受信することができ、サーバプロセッサによって実行することができる。サーバプロセッサは、以下に更に詳細に記載する通り、演算システム34を通じた命令の処理/実行並びにデータ及び情報のフローの管理を含む動作を電子プログラム命令の制御下で実施するように操作可能である。
サーバ36は、その記憶装置に存在する複数のデータベース又はデータバンクにアクセスするためのコマンドを発行することができるサーバオペレーティングシステムを含む。この実施形態では、2つのかかるデータベース又はデータバンクが提供され、1つは、RUデータベース38と称されることがある、システム10の登録ユーザ(RU)のデータベースであり;1つは、テンプレートデータベース40と称されることがある、テンプレートデータを含む下記テンプレートのデータベースである。オペレーティングシステムは、データベース38及び40並びにサーバーソフトウェアのセット/スイートの1以上のコンピュータプログラムと相互作用して、本明細書に記載する本発明の実施形態に係るそれぞれの工程、機能、及び/又は手順をサーバ36に実行させるように配置される。
アプリ、サーバソフトウェアセットのコンピュータプログラム、並びに装置12及びサーバ36の演算コンポーネントのための他の電子命令又はプログラムは、当業者に周知である通り、任意の好適な言語で書かれていてよい。例えば、IPHONE(登録商標)スマートフォンを含む装置12において操作する場合、画像化アプリは、Objective−C言語で書かれていてよい。本発明の実施形態では、電子プログラム命令は、実行又は実施形態の要件に応じて、スタンドアロンアプリケーションとして、一式又は複数のアプリケーションとして、ネットワークを介して提供されてもよく、又はミドルウェアとして追加してもよい。
本発明の別の実施形態では、ソフトウェアは、1以上のモジュールを含んでいてよく、ハードウェアで実行され得る。かかる場合、例えば、モジュールは、それぞれ当技術分野において周知である以下の技術:データシグナルに対する論理関数を実行するための論理ゲートを有する離散論理回路、適切な組合せ論理ゲートを有する特定用途向け集積回路(ASIC)、プログラム可能ゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等のうちのいずれか1つ又は組合せを用いて実行してよい。
それぞれの演算手段は、プログラム可能論理コントローラ(PLC)、デジタル信号プロセッサ(DSP)、マイクロコントローラ、パソコン、ノートパソコン、若しくはタブレット、又は専用サーバ若しくはネットワークサーバを含む任意の好適な種類のシステムであってよい。
それぞれのプロセッサは、演算手段に関連する幾つかのプロセッサの中でも、任意の特別注文又は市販のプロセッサ、中央処理装置(CPU)、データシグナルプロセッサ(DSP)、又は補助プロセッサであってよい。本発明の実施形態では、処理手段は、例えば、半導体ベースのマイクロプロセッサ(マイクロチップの形態)又はマクロプロセッサであってよい。
本発明の実施形態では、それぞれの記憶装置は、揮発性メモリ素子(例えば、ランダムアクセスメモリ(RAM)、例えば、動的ランダムアクセスメモリ(DRAM)、静的ランダムアクセスメモリ(SRAM))、及び不揮発性メモリ素子(例えば、読取り専用メモリ(ROM)、消去及びプログラム可能読取り専用メモリ(EPROM)、電子的消去及びプログラム可能読取り専用メモリ(EEPROM)、プログラム可能読取り専用メモリ(PROM)、テープ、コンパクトディスク読み取り専用メモリ(CD−ROM)等)のうちのいずれか1つ又は組合せを含んでいてよい。それぞれの記憶装置には、電子、磁気、光学、及び/又は他の種類の記憶媒体が組み込まれていてよい。更に、それぞれの記憶装置は、分散構成を有していてよく、この場合、様々なコンポーネントは互いに離れて位置しているが、処理手段によってアクセスすることができる。例えば、ROMは、装置12の操作を制御するために処理手段によって実行される様々な命令、プログラム、ソフトウェア、又はアプリケーションを記憶し得、RAMは、操作の変数又は結果を一時的に記憶し得る。
ソフトウェアアプリケーションを用いるコンピュータの使用及び操作は、当業者に周知であるので、本発明に関連する場合を除いて本明細書に更に詳細に記載する必要はない。
更に、任意の好適な通信プロトコルを用いて装置12の任意のサブシステム又はコンポーネント、サーバ36の任意のサブシステム又はコンポーネント、並びに装置12及びサーバ36及び他の装置又はシステム(有線及び無線を含む)の間の接続及び通信を容易にすることができるが、これは当業者に周知であるので、本発明に関連する場合を除いて本明細書に更に詳細に記載する必要はない。
用語「記憶する」、「保持する」、及び「保存する」、又は類似の用語が本発明に関連して用いられる場合、これらは、後で検索するために記憶手段、装置、又は媒体において永続的に及び/又は一時的に、また、例えば実行される処理操作の一部として瞬間的に又は即時的に、データ又は情報を保管する又は保持することに対する言及を含むと理解すべきである。
更に、用語「システム」、「装置」、及び「機器」が本発明に関連して用いられる場合、互いに近接、分離、統合、又は離散して位置し得る、機能的に関連するか、又は相互作用する、相互関連する、相互依存する、若しくは関連するコンポーネント又はエレメントの任意の群に対する言及を含むと理解すべきである。
更に、本発明の実施形態では、用語「決定する」は、関連するデータ又は情報を受信するか又はアクセスすることを含むと理解される。
本発明の実施形態では、ユーザインタフェース24及びユーザ入力手段26を表示するためのディスプレイ22がタッチスクリーン42に統合されている。別の実施形態では、これらコンポーネントは、離散エレメント又はアイテムとして提供され得る。
タッチスクリーン42は、装置12のディスプレイ領域内におけるタッチの存在及び位置を感知又は検出するように操作可能である。タッチスクリーン42の感知された「タッチ」は、コマンド又は命令として装置12に入力され、コントローラ18に通信される。ユーザ入力手段26はタッチスクリーンを含むことには限定されず、本発明の別の実施形態では、入力、コマンド、又は命令を受信し、制御された相互作用を提供するための任意の適切な装置、システム、又は機器、例えば、キーパッド若しくはキーボード、ポインティングデバイス、又は複合デバイス、並びにボイスアクチベーション、音声及び/又は思想制御、及び/又はホログラフィー/投影イメージングを含むシステムを用いてよいことを理解すべきである。
また、装置12のセンサシステム又はセンサのセット44の一部である少なくとも1つのセンサを介して入力を受信してもよい。センサのセット44内の個々のセンサは、装置12、周囲環境、又はこれらに関連若しくは接続しているコンポーネント、システム、若しくは装置の1以上の特徴、特性、及びパラメータに関連又は関係するセンサデータ及び/又は情報をモニタリング、感知、及び収集又は測定するように操作可能である。例えば、センサのセット44は、装置12の状態及び/又は装置12の周囲環境の状態に関係するセンサデータを感知及び収集するように操作可能である。実施形態では、装置12の状態は、装置12の位置を含む。実施形態では、装置12の状態は、更に、装置12の速力及び/又は速度を含む。センサのセット44は、加速度センサ及び姿勢センサ、方位センサ及び位置センサを含む慣性センサシステムを含む。本発明の別の実施形態は、運動センサ、赤外線センサ、深さセンサ、三次元イメージングセンサ、慣性センサ、及びマイクロエレクトロメカニカル(MEMS)センサを含む、追加及び/又は別のセンサを含んでいてよい。
加速度センサは、装置12の加速度を測定し、加速度データを作成するように操作可能である。例えば、加速度センサは、加速度計であってよい。姿勢センサは、装置12の姿勢の変化速度(即ち、角速度)を測定し、姿勢データを作成するように操作可能である。例えば、姿勢センサは、ジャイロスコープであってよい。方位センサは、地球の磁極に対する方位を求め、方位データを作成するように操作可能である。例えば、方位センサは、電子コンパスであってよい。位置センサは、装置12の位置を求め、位置データを作成するように操作可能である。例えば、位置センサは、全地球測位システム(GPS)であってよい。かかるセンサの使用及び操作は、当業者に周知であるので、本発明に関連する場合を除いて本明細書に更に詳細に記載する必要はない。
第1の表現は、ボディ14の1以上の視覚的表現を含んでいてよい。記載する実施形態では、第1の表現は、ボディ14の視覚的表現のセットを含む。したがって、センサのセット44は、視覚的表現を含む画像を捕捉するように操作可能であるデジタルカメラの形態の画像化手段を含む。カメラは、実施形態において装置12と統合されている。画像化手段は、静止画及び/又は動画の取得を容易にする任意の好適なシステム又は装置を含んでいてよい。例えば、装置12がIPHONE(登録商標)スマートフォンを含む場合、画像化手段は、iSight(商標)カメラであってよい。カメラの使用及び操作は、当業者に周知であるので、本発明に関連する場合を除いて本明細書に更に詳細に記載する必要はない。
装置12は、用いられる知覚技術に適切なコンピュータチップ(集積回路)、トランシーバ/レシーバアンテナ、及びソフトウェアを含む、記載の通りパフォーマンスを促進にする動作可能に連結/接続されたコンポーネントを含む。
センサのセット44の1以上のセンサは、装置12と統合されていてよく、場合によっては、IPHONE(登録商標)スマートフォンを含む。或いは、装置12は、上記センサのセット44のうちの1以上と操作可能に接続されていてもよい。
テンプレートデータベース40に記憶されることに加えて、この実施形態では、テンプレートの細目の少なくとも一部が、記憶装置20に存在するデータベース46又はデータバンクに記憶又は保存され、アプリの制御下でコントローラ18によってアクセス可能である。これらは、アプリの一部としてインストールされ得る。コントローラ18は、データベース46と相互作用して、本明細書に記載する本発明の実施形態に係るそれぞれの工程、機能、及び/又は手順を装置12に実行させるように配置される。
テンプレートの残りの細目は、離れて、例えば、サーバ36のテンプレートデータベース40等、1以上の遠隔システム又は装置32のそれぞれの記憶装置に存在する1以上の遠隔データベースモジュールに記憶又は保存され、1以上の通信リンク30を介して装置12によってアクセス可能である。コントローラ18は、必要なときに使用するために利用可能な離れて記憶されているコンテンツを作成するために1以上の遠隔データベースとのユーザインタラクションを容易にするように配置される。
データベースは、任意の好適な記憶装置に存在してよく、前記記憶装置は、ソリッドステートドライブ、ハードディスクドライブ、光学ドライブ、又は磁気テープドライブを包含し得ることが理解される。データベースは、単一の物理記憶装置に存在していてもよく、複数の記憶装置又はモジュールにまたがって広がっていてもよい。
当業者に周知である通り、情報及びデータをデータベース46に読み込むか又は前記データベースから読み出すことができるようにするために、データベース46をコントローラ18に接続し、データ通信させる。任意の好適なデータベース構造を用いてよく、1以上のデータベースが存在していてよい。本発明の実施形態では、データベース46は、収集及び/又は提示される電子プログラム命令及び任意の他のデータ又は情報と同様に、(例えば、記憶装置20における)装置12のコンポーネントとしてローカルに、又は遠隔サーバ等において離れて提供され得る。
同様に、当業者に周知である通り、データをRUデータベース38及びテンプレートデータベース40に読み込むか又は前記データベースから読み出すことができるようにするために、RUデータベース38及びテンプレートデータベース40の両方をサーバ36に接続し、データ通信させる。任意の好適なデータベース構造を用いてよい。RUデータベース38及びテンプレートデータベース40のいずれか一方又は両方は、ソフトウェアのサーバセットと同様に、(例えば、記憶装置における)サーバ36のコンポーネントとしてローカルに、又は遠隔サーバ等において離れて提供され得る。実施形態では、ネットワーククライアントサーバアプリケーションを有するために幾つかのコンピュータをこのようにセットアップしてよい。記載する実施形態では、RUデータベース38及びテンプレートデータベース40のそれぞれを、シングルデータベース構造のパーティションとしてサーバ36の記憶装置内部に記憶する。本発明の別の実施形態では、より多い又はより少ないデータベースが存在していてもよい。
アプリを装置12にインストールすると、コントローラ18は、カメラを介して捕捉される画像等のセンサのセット44のセンサを介して感知されるデータ及び/又は情報を含む情報及び/又はデータ、装置12及びシステム10の操作に関する命令及びコマンドを入力又は捕捉できるようにするナビゲーション可能な電子ページ、スクリーン、及びフォームのシーケンスを、タッチスクリーン42を介して装置12のユーザ16に提示するように、アプリの制御下で操作可能になる。
記載する実施形態では、サーバ36のサーバソフトウェアセットは、ウェブサーバアプリケーション、レジストレーション及びリクエストアプリケーション、画像処理アプリケーション、通信アプリケーション、インボイス/請求書作成アプリケーション、及び支払処理アプリケーションを含む。
更に詳細に記載する通り、サーバソフトウェアセットのそれぞれのアプリケーションを介して、サーバ36は、以下を含む機能を実行するように操作可能である:ユーザデータの登録及び共有;データの抽出、データの変換、及びアプリを介して受信されるデータとの結合;並びにアプリインタフェースを通過する全てのリアルタイムデータ。
ウェブサーバアプリケーションは、ウェブページ又は他の電子ページ若しくは画面等の専用ウェブサイトを介して、システム10の既存のユーザ又は潜在ユーザにシステム10に関するコンテンツを配信するように操作可能である。このウェブサイトは、通信ネットワークを介してシステム10とデータ通信するように操作可能に連結される、ノートパソコン又はスマートフォン(実施形態における装置12を含む)等のインターネット接続可能なモバイル通信装置のウェブブラウザを介してアクセス可能である。記載する実施形態では、データ通信の手段は、インターネットを介しているが、本発明の他の実施形態では他の手段、例えば、直接接続を使用してもよい。
コンテンツは、フィットネスの目標に関する一般的な情報、例えば、商標名YouTube(登録商標)、Facebook(商標)、及び/又はTwitter(商標)として提供されているサービスを含む、フォーラム又は媒体のうちの適切な1つ又は組合せを介して配信される公告及び販促又は広報情報を含み得る。
アクセス可能なウェブページは、ユーザによってシステム10の初回使用時に完了されるオンライン登録ページ110、及びリクエストページ112を含む。ウェブサイトアプリケーションは、システムの潜在ユーザがユーザとして手動で自身を登録するか又は記録して、パーソナルアカウントを作成し、アバターをリクエストすることができるように操作可能である。これは、それぞれ、ユーザ登録及びリクエスト情報を含む電子登録及びリクエストフォームの形態でユーザが通信を完了し、登録ページ110及びリクエストページ112を介してサーバ36に送信することによって容易になる。
ユーザ登録情報は、以下を含む、ユーザ及びそのボディに関する情報及び/又はデータを含む細目を含む:
1) ユーザの同定及び連絡先の詳細:ユーザの同定及び通信を容易にする細目。これら細目は、ユーザの非公開フルネーム、システム10を使用するときのためのユーザネーム、非公開の自宅住所、転送対応のために用いられる物理アドレス及び/又は電子メールアドレス、連絡先電話番号、認証情報(例えば、パスワード)、並びに適用可能な場合、任意の他の固有の及び/又は関連する識別情報を含んでいてよい。システム10を用いて作成されるアバターに関する対応及び請求書作成を含む情報は、ユーザと通信するためのシステム10によって用いられる。
2) ユーザのボディの細目:ユーザのボディに関する情報及び/又はデータ。記載する実施形態では、これは、性別、高さ、重量、衣類サイズ(例えば、数例を挙げると、S、M、L、XL、又はXXL)、年齢、及び民族を含むボディの形態計測データを含む。本発明の別の実施形態では、ユーザのボディに関連及び/又は関係する追加の及び/又は別の細目をリクエストしてもよい。
3) 請求書作成及び支払細目:請求書を作成し、ユーザがシステム10を使用するための支払を行う責任がある債務者(人)から支払を受け取るのを容易にする細目。請求書作成の細目は、例えば、処理及び支払のための課金通知を含む転送対応のために用いられる物理アドレス及び/又は電子メールアドレスを含んでいてよい。支払細目は、実施形態におけるアバターの作成等のシステム10を介して実行される動作に関連するアイテムを購入するために記憶及び使用される、債務者のクレジットカードアカウント等の金融口座の細目を含んでいてよい。例えば、本発明の実施形態において、PayPal及びBitcoin(BTC)サービスが挙げられるがこれらに限定されない、追加の及び/又は別の支払処理プラットフォームを使用することもできる。
リクエスト情報は、第1の表現を含む。既に記載した通り、この実施形態では、第1の表現は、ボディ14の視覚的表現のセットを含む。好ましくは、視覚的表現のセット内の視覚的表現は、ボディ14の様々な図を含み、これらは、対照的な実質的にクラッタ/ノイズを含まない(即ち、非ビジーな)背景の前に位置するボディ14で捕捉される。特に、記載する実施形態では、視覚的表現のセットは、非限定的な例として、ボディ14の2枚の写真を含み、第1の写真はボディ14の正面であり、第2の写真はボディ14の側面である。2枚の写真の捕捉及びアップロードを容易にするために、リクエストページ112を介して、ユーザ16は、画像捕捉画面114にアクセスすることができる。画像捕捉画面によって、アップロードする前に写真を捕捉し、再吟味することができるようになり、前記画面は、プロセスを通してユーザを導くための1以上のサブ画面を含んでいてよい。記載する実施形態では、装置12は、画像化アプリの制御下でコントローラ18を介して、精度を高めるために画像を確実に垂直面で撮影するために(装置12の姿勢を計算する姿勢センサの)内部ジャイロスコープを介して作成される姿勢データを含むデータを使用するように操作可能である。
本発明の実施形態では、視覚的表現(例えば、写真)のセットは、カラー、グレー、又は二値(例えば、シルエット)画像を含む標準的な二次元(2D)画像;色及び/又はテクスチャを有するか又は有しない奥行き画像;色及び/又はテクスチャを有するか又は有しないボディのMRI、DEXA(DXA)、X線、CTスキャン、完全三次元(3D)点群、又は複数の不完全点群;並びに色及び/又はテクスチャを有するか又は有しない三次元(3D)メッシュを含んでいてよい。視覚的表現のセットは、対象の物理的三次元(3D)表面又はハルの再構築を可能にするレベルまで対象の形状(例えば、記載する実施形態では、ヒトの形状)を表す任意の形態のデータ又は特徴を感知し、出力することができる画像化(感知)装置を用いて捕捉される任意の画像のうちの1つ又は組合せを含んでいてよい。
本発明の実施形態では、プライバシーを高めるために、視覚的表現のセットにおけるユーザの顔及び/又は他の識別できる特徴を隠すように操作可能である正規化/ぼかし機能を提供してもよい。視覚的表現を更にプライバシー保護してもよい。
本発明の別の実施形態では、ユーザ登録及びリクエスト情報は、別の又は追加の細目、情報、及び/又はデータを含んでいてよい。
ウェブサーバアプリケーション及び登録アプリケーションを含むサーバソフトウェアセットのアプリケーションを介して収集された全てのデータ及び情報は、本明細書に記載する通り使用するためにシステム34内で分配される。
RUデータベース38は、複数のRUレコードを有する。各RUレコードは、そのために作成されるアバター等のRUに関連する他の情報と共に、上記の登録及びリクエスト情報を含むシステム10のRUのアカウントに関係するRU情報のセットを含む。
サーバ36は、(専用ウェブサイト又は本明細書に記載する他の手段を介して送信される)ユーザ登録及びリクエスト情報を含む通信のレシートを感知又は検出するように操作可能である感知手段を有する。このような情報のレシートを感知したとき、サーバ36は、データベースマネジメントモジュール又はアプリケーションを含む、サーバソフトウェアセットの関連するアプリケーションの制御下で、そのプロセッサを介して、RUデータベース38における記録(及びテンプレートデータベース40における記録)を作成し、追加し、管理するように、また、受信されたデータ及び情報に従って本明細書に記載する動作を実行するように操作可能である。
また、潜在ユーザは、例えば、サーバーソフトウェアのセットのソフトウェアの動作によって自動で捕捉し、RUデータベース38に入力するためにeメール、ファックス、若しくは他の通信(Facebook(商標)又はTwitter(商標)等のソーシャルネットワーキングサービスを介していてよい)を介してユーザ登録情報を提供することによって、又はデータ入力担当者若しくは管理者の他の従業員によって、自身をユーザとして登録又は記録することができる。
登録成功後、RUは、続いて、オンラインアクセス又は「ログイン」ページ116を介してシステム10にアクセスし、ユーザが適切な識別及びセキュリティ承認(例えば、ユーザネーム及び関連するパスワード)を入力すると、システム10にアクセスできるようになることに留意すべきである。
画像処理アプリケーションは、送信されたユーザボディの細目及びボディ16の第1の表現を受信及び処理して、第2の表現を作成するように操作可能である。
記載する実施形態では、2D画像であろうと3D奥行き画像であろうと、画像を送信したとき、(ユーザボディの細目の)登録から初期設定が使用されるが、これは、フォトスクリーン117の形態を介して、必要に応じてユーザがアップデートすることができる(ユーザのボディの細目は、例えば、目標に向かって進行するにつれて経時的に変化するため)。これによって、有利なことに、データ入力時間が短縮される。
特に、送信された性別、高さ、重量、サイズの有り無し、及び民族情報の有り無しに基づいて、画像処理アプリケーションは、ボディ14を分類し、複数のテンプレートの中からそれに最も近い3Dモデルを有するテンプレートを決定し、選択するように操作可能である。
これが行われたら、画像処理アプリケーションは、
2枚の写真から前景(人体)をセグメンテーションし、第1の表現を2つのそれぞれのシルエットに変換し;
セグメンテーションされた前景及びそのそれぞれのシルエットを使用して、特徴並びにキーポイント及び/又はディスクリプタ及び/又は特徴の測定値を抽出し;
抽出された特徴及びキーポイントの測定値を用いて、選択されたテンプレートの3Dモデルを修正し、修正済の対象特有の3Dモデル画像(第2の表現である)を作成し;
修正済の3Dモデル画像をユーザアカウントに関連付け;そして、
第1の表現の2枚の写真を削除/破壊するように操作可能である。
有利なことに、この実施形態では、作成された第2の画像は、対象(即ち、画像化されるボディ)に特有であり、その所望の特徴を正確に表す。
本発明の実施形態では、画像処理アプリケーションは、第1の表現のボディの1以上の視覚的表現のボディを含む少なくとも1つの前景をセグメンテーションし;第1の表現の1以上の視覚的表現の1以上のセグメンテーションされた前景をそれぞれのシルエットに変換し;1以上のセグメンテーションされた前景及びそのそれぞれのシルエットを使用して、ボディの形状のハルを構築し、及び/又は特徴を抽出し、及び/又はキーポイントの測定値を抽出し;ハル及び/又は特徴及び/又はキーポイントの測定値のうちの1以上を用いて、選択されたテンプレートのボディの3Dモデル(平均的なボディモデル)の修正、リギング、及びモーフィングのうちの1以上を行って、第2の表現である修正済の対象特有の3Dモデル画像を作成するように操作可能である。
実施形態では、奥行き画像、点群、及びメッシュ(いずれも、色及び/又はテクスチャを有するか又は有しない)の場合、画像処理アプリケーションは、ボディの対象特有の三次元形状を再構築するように操作可能である。
通信アプリケーションは、サーバ36とそれと通信する装置との間の通信を可能にするように操作可能である。かかる通信は、本明細書に記載する通信を含み、eメール、ポップアップ通知、及びSMSメッセージを含む任意の適切な種類であってよく、セキュリティを高めるために暗号化してもよい。
通信アプリケーションを介して行われる通信は、アップロードされた画像が消去されたことを確認する通知及びユーザの3Dアバターを作成するためにシルエットが用いられていることを示す通知等、ユーザへの状態通知を含んでいてよい。
通信アプリケーションを介して、修正済の3Dモデル画像を装置12に通信し(適切な通知メッセージと共に)、そこで、主画像画面118に表示することができる。この実施形態で作成される修正済の3Dモデル画像は、ワーキングモデルであり、ユーザのボディ14の形状及び測定値を正確に反映しており、この点から、ユーザは、ユーザインタフェース24を介して1以上の相互作用を実施することができる。1以上の相互作用は、モデルの領域又は部分を選択してその正確な周囲長の詳細を得ることを含み得る。特に、記載する実施形態では、ユーザは、3Dモデルの一部を「クリックする」か又は他の方法で選択し、選択された部分に関連する数値を(ディスプレイ22を介して)見ることができる。ユーザがユーザインタフェース24を介して3Dモデルを回転させ、ズームすることができるようにする機能も提供される。
本発明の実施形態では、ユーザがリクエスト情報を送信してから、修正済の3Dモデル画像が作成され、装置12に通信されるまでに約90秒間経過し得る。
この実施形態では、性別に基づいてモデルを着色する:女性はピンク、男性は青。
ユーザは、作成された電子画面及びページ上に提供されるそれぞれのナビゲーションインタフェースエレメントボタンの実行を介して、前記電子画面及びページに進んだり戻ったりすることを含むナビゲートを行うことができる。特に、その特定の測定値及び要件に基づいてパーソナルフィットネスの目標のサポートにアクセスすることを含む動作を実行するために、それを介してユーザがシステム10を制御することができるインタフェースエレメントボタンを有するナビゲーションバー120が提供される。記載する実施形態では、かかるサポートとしては、摂取することによってユーザがパーソナルフィットネスの目標を達成するのを支援する食事のレシピ;測定値;ユーザに合わせて作成し得る栄養学的計画及び運動プログラムを含む計画;新たな画像の撮影(新たな修正済の3Dモデル画像を作成);及びシステム10からのサインアウト/退出にアクセスすることを含む。
本発明の実施形態では、装置12は、作成された修正済の3Dモデル画像(第2の表現である)を保存し、それを次にユーザがボディ14の新たな画像を作成するために装置12を使用するときに比較のためのテンプレートとして使用するように操作可能である。即ち、装置12の初回使用後、ボディ14の新たな画像を作成するためにユーザが装置12を使用する毎に、その前回の装置12の使用中に作成された修正済の3Dモデル画像を新たな画像の作成において使用する。したがって、かかる実施形態では、作成されたボディ14の第2の表現に基づいてボディ14の第3の表現を作成し、作成されたボディ14の第3の表現に基づいてボディ14の第4の表現を作成し、以下同様である。
実施形態では、サポートは、例えば、DEXAスキャンの統合等、1以上の他のシステムとの統合を含み得る。かかる場合では、ユーザインタフェース24を介して実施され得る1以上の相互作用は、3Dモデル上に表示されるオーバーレイとしてDEXAスキャンから得られたデータ及び/又は情報にアクセスし、3Dモデルの一部を選択し、選択された部分に関連するDEXAスキャンデータ及び/又は情報を(ディスプレイ22を介して)見ることを含み得る。
インボイス/請求書作成アプリケーションは、システム10の使用に従って支払うべき量を含む、各登録されたユーザに対するインボイスを作成するように操作可能である。
支払処理アプリケーションは、各インボイスについての支払を受領するように操作可能である。
本発明の実施形態では、システム10によって実施される記載した操作、追加の操作、及び/又は別の操作のうちの1以上は、ヒトの介入を必要とすることなしに自動的に行われる。
次に、本発明の実施形態の上記及び他の特徴及び利点について、図1に示すフローチャートを参照し、使用中のシステム10を参照して更に説明する。
対象となるヒトは、上記の通りの登録プロセスを介してシステム10のユーザとして登録され、その結果、ユーザアカウントが与えられる。
その後、(ここで登録された)ユーザは、上記の通りシステム10にアクセスし、前記システムを使用して、そのボディの1以上の修正済の3Dモデル画像を作成し、ユーザを支援してパーソナルフィットネスの目標を達成するための他の提供されているサポートにアクセスする。
経時的に、ユーザは、体内の変化を示す、ボディの修正済の3Dモデル画像のシーケンスを作成することができる。かかるセルフモニタリングを頻繁に行うことを介して、ユーザは、パーソナルフィットネスの目標への進展を評価することができるので、前記目標を達成する可能性が高くなる。
図4及び5は、本発明の態様に従って装置212を用いてボディを画像化するためのシステム210の第2の実施形態の使用中に実施される動作を示す。第2の実施形態におけるシステム210の類似の又は同じ特徴は、第1の実施形態と同一の参照番号を用いて記載される。
更に詳細に記載する通り、第2の実施形態は、生態学的に有効なシステム、及び三次元人体モデル(アバター)を再構築する方法を提供する。更に詳細に記載する通り、前記システム及び前記方法は、その高さ及び/又は重量(例えば、個人の場合であるが、普遍性が失われることはない)が与えられた対象の1以上の画像を利用する。
第2の実施形態では、装置212のコントローラは、ボディ14の実質的に真の三次元スキャンの投影シャドウを単純な形態で表す複数のシルエットを得るためにボディ14の第1の表現をセグメンテーションすることによってボディ14の第1の表現を処理し;前記シルエットに基づいてボディ14の第2の表現を作成するように電子プログラム命令の制御下で操作可能である。
また、コントローラは、入力が受信されたら装置212のディスプレイ上に現れるユーザ特有のスケルトンを作成し;第1の表現をセグメンテーションするプロセス中、ユーザが第1の表現におけるボディ14をユーザ特有のスケルトンと位置合わせできるようにするように電子プログラム命令の制御下で操作可能である。
特に、第2の実施形態では、システム210は、ユーザの3Dアバターを作成又は構築するために以下の逐次タスク(1〜6)を実行するようにアプリの電子プログラム命令の制御下で操作可能である。
タスク1:ユーザの真の3Dスキャンの投影シャドウを単純な形態で表す二値画像(シルエット、Sと定義)を得るために、各画像においてユーザを自動的にセグメンテーションする。第2の実施形態では、セグメンテーションは、以下のいずれか又は両方の後に行われる:
a. ボディ14の正面の第1の写真を捕捉し始めたら、ユーザは、作成され、装置12のディスプレイ22を介して表示されるユーザ特有のスケルトンとボディとを位置合わせする。この操作は、最適な画像を確実に捕捉するために装置212を介して配信される視覚的及び/又は聴覚的フィードバックを伴い得る。
b. ユーザは、確実に、ボディの正面の第1の写真において顔、手、及び足が見えており、覆われていないようにする。ボディの側面図の第2の写真では、第2の実施形態に従って顔と足の一方又は両方とのみが見えていればよい。
タスク2:セグメンテーションされたシルエットから様々な種類の特徴を抽出し、抽出された特徴を合わせて表現(データベクトル)を形成する。1シルエット当たり1表現。
タスク3:送信されたユーザの高さ情報、画像サイズ(画像の高さ及び幅(ピクセル))に基づき、二値画像のブロブ解析、投影理論、及びカメラモデルを用いて、以下を計算する:
a. 各画像におけるカメラの位置及び姿勢を含む、捕捉カメラの固有及び外部パラメータの初期推定値(ポーズとも称され得る);Pと定義。
b. ユーザのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値、JKと定義。これは、スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む。
タスク4:送信されたユーザの高さ及び重量の情報に基づいて、又はユーザの高さ情報のみに基づいて、平均アバター(Avと定義)を予測するが、これは、知られている場合、ユーザが入力した高さ、重量、又は更なるボディ測定値に応じて変動する。また、Avは、サイズNのジョイントの参照スケルトンにリギングされ、参照ポーズの公知のJK及びボーン重量/高さマトリクス(Wと定義)を有する。
第2の実施形態では、マトリクスWは、予測モジュールの学習プロセス中に一度だけオフラインで計算され、次いで、他のアバターの予測又は作成のために用いられる参照スケルトンJKと共に画像化アプリに保存される。Wの目的は、ジョイントと、ボーンと、頂点V、エッジE、及び面Fによって表される実際の3Dアバター表面との関係をコンストレインし、制御し、モデリングすることである。言い換えれば、画像化アプリに送信された画像におけるユーザのアバターを新たなアバター(Av1と定義)に変形又は単にアニメーション化する。参照又は平均アバターデータ(V、E、F、JK、W)及び送信された画像のユーザジョイント運動(JK1と定義)の公知値又は推定値は、公知であるか又は自然なヒトの動きから学習された多数の物理コンストレイントに依存してAvをAv1に最適化及び変形させるコスト関数に供給される。コンストレイントとしては、例えば、数例を挙げると、骨盤ジョイントが有し得る最大回転、又はジョイントの別のジョイントに対する3D位置及び姿勢、ジョイントのヒエラルキー、及び他の動きに影響を与えるものを挙げることができる。言い換えれば、平均アバターと同じボディ測定値を有する新たにアニメーション化されたアバターAv1は、参照/平均データの関数である;即ち、Av1=f(Av,W,JK,JK1)。第2の実施形態の技術では、2つの重み付けされたエネルギー最小化関数を合わせた関数に由来する:
a. V、F、及びEを使用するラプラシアンコタンジェントマトリクスを利用する表面平滑度関数、並びに
b. アバターの頂点とそのボーンとの間の対応を確実にコンストレインするために(V、F、及びW)を使用するボーン結合関数。
初期アバターAvの予測(例えば、ベイジアン多変量を使用する)は、複雑な多変量系機械学習アプローチに従う。第2の実施形態では、これは、様々な年齢及びポーズの現実の人間(男性及び女性)の20,000枚を越えるリギング及びレンダリング済の三次元スキャンから抽出された3D特徴を用いるヒトの形状の機械知能学習(オフラインで行われる)を含む(したがって、本明細書で用いられるこの用語は生態学的に妥当である)。また、異なるボディ測定値間の様々な統計的関係の機械知能学習も含む(ベクトルM=(m1,m2,...,mL)と定義、Lは異なる測定値の数である)。例として、m1は、胸囲であってよい。開発された技術は、1以上の異なる測定値を考慮して1以上の測定値を予測することができ、これら測定値のうちの1以上を考慮してアバターを予測する。学習プロセスは、各実際の3Dスキャンから抽出される様々な三次元形状(表面)の特徴を使用することを含む。
人工知能及び機械学習は、この点に限定されず、本発明の別の実施形態では、画像化することを意図するボディ又は物体、及び行われるか又は分類される決定に従って、更なる及び/又は別のトレーニング、試験、及び検証を用いることができる。
タスク5:
前提
a. ユーザの高さ、又は高さ及び重量及び性別、Mにおける残りの測定値を予測し、次いで、ユーザの初期平均アバターAvを作成(予測する)。したがって、Av自体は、測定値Mの関数である、即ち、Av=fa(m1,m2,...,mL)=fa(M)、
b. 投影マトリクスPの初期推定値、
c. Avの参照ポーズジョイント運動JK及びそのボーンマトリクスW、
d. セグメンテーションされたシルエットは、第1の表現のSを定義する。
問題:
上記を前提として、アバターAv1及びその正確な測定値を見つけ、ユーザのM1を定義する?
解決法:
a− Mを用いてM1を初期化する。
b− ユーザが参照ポーズとは異なるボディポーズを有するとき、そのジョイント運動をJK1であると推定し、参照オフラインポーズJKを用いてそれを初期化する。
c− Pを用いてP1を初期化し、P1は、正確なカメラパラメータとなる。
d− 関数Av1=f(V,F,E,M1,JK1,W)を形成する。
次いで、適応性及び反復するコンストレインされた凸最適化技術を用いて、ユーザのシルエットS、ユーザのシルエットから抽出された表現又は顕著な特徴、及びアバターAv1の投影シルエットを比較するか又は一致させるコスト関数を最小化する。即ち、S対Av1のシルエット。
Av1のシルエットは、Av1=P1(Av1)の投影を用いて評価され、続いて、画像モーフィングプロセス(例えば、スムージング、エッジ検出、エロージョン、拡大、ホールフィリング、孤立点の除去、及び連結成分解析を用いるスモールブロブを含む)が行われる。画像化技術の開発された最適化プロセスは、適応的に及び自動的に、(i)最初に予測された測定値Mを新たなボディ特有の値M1に達するように、(ii)最初に推定された投影マトリクスPを新たな実際のマトリクスP1に達するように、及び(iii)最初に推定されたジョイント運動JKを実際の3D用語におけるボディの新たな且つ実際の値JK1に調整する。それが極小に達し、ユーザのシルエット(又はその特徴若しくは表現)がアバターのAv1投影シルエットに一致するまで、全て単一の反復するコンストレインされた方法で。コンストレイントとしては、例えば、最大値及び最小値が挙げられ、ヒトの臀部、腰等は、現実的に、JKが有し得る中でも特定のジョイントの位置及び姿勢の最大値及び最小値であってもよく;又はカメラが有し得る最大回転角及び転換(オフセット)であってもよい。
関連技術のシステムとは異なり、第2の実施形態のシステム及び方法は、ユーザのアバター又はシルエットに一致する最も近いシルエット又はアバターを見出すために別個の原理成分解析(PCA)ベースのLOOKUPテーブルを必要としない。開発されたモデルベースの多変量系機械学習アプローチは、学習された3Dスキャンのそれぞれを高次元超空間における点として(例えば、Remainen、Grassmann多様体、又はLie群)表す。捕捉された画像における何らかの手動調整も参照物体も必要としない。更に、最適化プロセス全体が、完全に自動的であり、正確なユーザ特有のアバターを作成し、各画像におけるユーザのポーズを自動的に推定し、カメラの固有及び外部パラメータを自動的に推定することが可能である。
タスク6:5におけるシルエットを一致させるために、様々な特徴及び表現を試験し、最適なものを選択した。例えば、特徴は、数例を挙げると、直接コサイン変換(DCT)、角/縁、配向勾配のヒストグラム(HOG)、スピードアップロバスト特徴(SURF)、スケール不変特徴変換(SIFT)、及びカールベット特徴に基づく。
第2の実施形態のシステム10の電子プログラム命令は、登録モジュール(フロントアプリ)、画像捕捉モジュール、画像検査及び前処理モジュール、前景(ユーザのシルエット)セグメンテーションモジュール、並びにアバター及びシルエットマッチングモジュールを含む複数のソフトウェアモジュールを含む。
登録モジュール(フロントアプリ)
第2の実施形態の登録モジュール(フロントアプリ)は、第1の実施形態のウェブサイトアプリケーションと同様に動作し、ボディに関する情報及び/又はデータをユーザが入力するのを容易にする。第2の実施形態では、これは、ユーザの高さ及び重量、又は高さのみを含み得る。それは、また、システム10の試験フェーズ又は学習フェーズにこれらデータを与えることを望んでいるかどうかについての指示をユーザから受信するように動作可能であり、これは、例えば、受信された画像をぼかしたり暗号化したりする程度を求めることができる。
第2の実施形態では、ユーザデータをクラウドオーバーSSLに記憶させ、プライベートなデータを暗号化する。
画像捕捉モジュール
画像捕捉モジュールは、クラシックオプション及びスマートオプションを含む、画像をシステムに入力するためのオプションをユーザに提供するように操作可能である。
クラシックオプションを介して、ユーザは、自身のデジタルカメラを用いて1枚若しくは複数の画像を捕捉するか、又は任意の種類の画像(例えば、本明細書に記載するもの)を捕捉し、パソコン、ノートパソコン、ipad、タブレット、又は類似の装置を用いて画像をアップロードするよう誘導される。
スマートオプションを介して(スマートフォン、パソコン、ノートパソコン、タブレット、又は類似の装置を用いるときに適用可能)、ユーザは、スマートフォン、ノートパソコンに接続又は内蔵されているカメラ、パソコン、又は捕捉装置(例えば、カメラ)が一体化している任意の装置を用いて画像を捕捉し、プログラム、スクリプト、アプリ、又は類似のものを実行することができる。
画像捕捉モジュールは、ユーザ自身が画像を捕捉するか又は別の人物が画像を捕捉するかに応じて、最適な画像を捕捉するようユーザを誘導するために、視覚的及び聴覚的補助を提供するように操作可能である。
普遍性を失うことなしに、リアルタイムヒトトラッカー及び/又はヒト顔トラッカー等の視覚的補助を始動させ、次いで、捕捉プロセス中に開始して、最良の最適画像を捕捉するために第三者を支援する。
これに関して、画像捕捉モジュールは、カラー画像又はグレースケール画像のいずれかにおいて独自のキーポイント及び独特の顔特徴、並びに時空間的特徴を合わせてヒトの顔を検出及び追跡する方法を学習する適応的カーネル系トラッカーを含む。眼、鼻、耳、及び口のディテクター及びトラッカーは、主な顔トラッカー内でも網羅される間接的サブモダリティである。開発されたトラッカーは、決定論的単変量及び多変量確率モデルを使用する。
ヒトトラッカーは、顔トラッカーと同じ技術的側面に従うが、本明細書に記載する独特のヒトの形状及び動きの特徴を用いる。
上記の通り、画像捕捉モジュールは、独自の対象(ユーザ)特有のヒトスケルトンを作成し、最適な画像を捕捉するようユーザを誘導するように操作可能である。この目的のために、多変量データ解析を含む最新の人工知能及び機械学習技術を用いて、対象の高さ及び重量、又は重量のみが与えられたスケルトンジョイントの三次元位置の作成に関与するモデルを学習する。第2の実施形態では、学習プロセスは、20,000人を超える実際のヒト対象の3Dスキャンに属するグラウンドトルース(実際の)解剖学的データによってコンストレインされるので、この用語は生態学的に妥当である。凸最適化及びフィッティングのプロセス、形状収縮は、また、3Dスキャンをその曲線スケルトン、解剖学的スケルトンにスキニング、リギングし、これらのうちの2つのそれぞれの間の対応を得るために開発された。
人工知能及び機械学習は、この点に限定されず、本発明の別の実施形態では、追加の及び/又は別のモデルを学習し、画像化することを意図するボディ又は物体に従ってスケルトンを作成できることを理解すべきである。学習プロセスのコンストレインは、本発明の実施に適切な場合、第2の実施形態よりもより多い又はより少ないデータ、並びに追加の及び/又は別の種類のデータを含み得る。
捕捉プロセス中、システム210によって実行される上記アプローチは、多数のボーン及びジョイントを含むリアルタイムオンスクリーンヒトスケルトンを作成し、(装置212のタッチスクリーン142に)示す。次いで、(システム210の操作によって作成され、装置212を介して出力される)可聴音/単語/セリフを介して、ボディの部分(例えば、胸、腕、脚、及び頭)を画面上のヒトスケルトンのボーンと位置合わせするようにユーザに指示する。画像捕捉モジュールは、作成されたスケルトン及びユーザのリアルタイムで捕捉される画像から抽出した形状外観及びばらつきの特徴、ポーズの特徴、時空間的(又は、数例を挙げると、光学フローの特徴若しくは他の運動データベクトル)を含む様々なデータと特性の間で計算される誤差によって位置合わせプロセスを制御するように操作可能である。装置212のセンサのセットのセンサからの出力、例えば、そのジャイロスコープによって捕捉される三次元姿勢ジャイロスコープ角も、最適な直線画像捕捉を更に保証するためにこのモジュールで利用される。
次いで、画像におけるスケルトンポーズとユーザポーズとの間の誤差の分類及び種類をフィードバックモジュールに供給又は入力して、ユーザが最適な画像(写真)を画像化するように誘導する。
位置合わせプロセス並びに視覚的及び聴覚的フィードバックモジュールは、図4に示す通り、ユーザ画像とスケルトンとの間で許容可能な位置合わせが行われるまで、同時に作動する。
画像検査及び前処理モジュール
画像検査及び前処理モジュールは、正確なヒトアバターの再構築に影響を与える1以上の問題、好ましくは如何なる問題についても、捕捉された画像を十分に検査するように操作可能である。かかる問題としては、ユーザエラー、画像品質に起因するエラー、固有及び外部ノイズに起因するエラー、外来対象、複数の対象の存在、並びにカメラレンズに起因する歪みを挙げることができるが、これらに限定されない。これは、第2の実施形態では、2つのレベルで行われる。
a. 検査の第1のレベルは、アプリレベルである。この場合、(i)アプリは、関心対象(第2の実施形態における対象の例として、ヒトユーザを含む)の存在についてチェックするように操作可能である。このタスクのために、単純であるが効率的な顔及びヒトのディテクター及びトラッカーが開発されており、これは、検査に基づいて画像を検査し、承認又は拒絶するように操作可能である。(ii)また、アプリは、装置212の内臓ジャイロスコープデータを使用して、最適な画像を捕捉するようユーザを誘導し、所定のポーズ閾値のセットに従って画像を承認又は拒絶するように操作可能である。(iii)また、アプリは、規定の基準が満たされているかどうか及び画像を承認可能であるかどうかを判定するために、例えば、フォーマット、サイズ(寸法(ピクセル)及び必要な記憶容量)を含む画像の詳細をチェックするように操作可能である。承認される場合、アプリは、次いで、元の承認された品質の99%以上で品質を維持しながら、画像のサイズを低減するように操作可能である。これら工程のいずれにおいても、聴覚的及び視覚的フィードバックを作成し、提示して、ユーザを導くことができる(上記の通り)。
b. 検査の第2のレベルは、クラウドにおいて動作する高度画像前処理(AIPP)モジュール内で生じ、且つ以下の通り動作する綿密なレベルである。
i. AIPPは、画像におけるノイズを最小化し、次に行われるプロセスであるセグメンテーションのために画像を調製するために、様々なサイズ及び分散のガウス分布カーネルを用いて、捕捉された画像をフィルタリングする。
ii. また、AIPPは、ピクセルカラー値又はその強度、及びその画像位置を用いて推定される確率及び結合確率関数に基づいて統計検定を構築する。次いで、照明及び明暗に関連するばらつき又は影について補正する。次いで、統計検定は、大きな画像データベースのオフライン検定を通して同定される所定の閾値に基づいて画像を承認するか拒絶するかを判定する。
iii. AIPPは、複数の顔を有する画像、不規則に反転しているか又は歪んだ画像、完全/不完全な複数の人/1人の人の画像、主な対象(ユーザ)に干渉する特性を有する任意の外来対象又は背景を有する画像、ユーザが肢切断者であることが示され且つ追加のデータが提供されている場合又は2枚以上の画像を用いる場合(2枚の画像の場合、ユーザの正面の完全なキャプチャを提示しなければならない)を除いて、ユーザのボディの不完全なキャプチャを有する画像を検査し、拒絶する。この目的/タスクのために、機械学習アプローチが用いられ、1人以上の人を含むか又は全く含まないビデオを含む大きな画像データセットから抽出した様々な融合した多様式の顕著な画像特徴、ディスクリプタ、及びキーポイントによって駆動される。(数例を挙げると)ヒトの皮膚、顔、鼻、口、耳、腕、上半身、下半身、脚、足に属する特徴、ディスクリプタ、及びキーポイントも、この検査モジュールにおける機械学習のトレーニング、試験、及び検証のために用いられる。
人工知能及び機械学習は、この点に限定されず、本発明の別の実施形態では、画像化することを意図するボディ又は物体及び行われる決定に従って、追加の及び/又は別のトレーニング、試験、及び検証を用いてもよいことを理解すべきである。
前景(ユーザのシルエット)セグメンテーションモジュール
単一画像から前景−背景セグメンテーションに対して行われる大部分の関連技術の作業は、TV番組で用いられるクロマキースクリーン等、公知の又は半公知の背景特性を推測するものである。他のものは、ユーザに、画像を手動でデジタル化するか又は画像中のボディを同定させる。しかし、画像中のユーザのボディの外形又はユーザ若しくは背景に属する独特な特徴(公知である場合、判定/入力されるか又は推定することができる)は、ボディの形状の正確なシルエットのセグメンテーションに強い制約を加える。
本発明者らは、完全に自動的な方法において用いられる、画像中のヒトのシルエットをセグメンテーションするために「グラフカット」原理による最適化に基づく反復アプローチを開発した。本発明のアプローチは、多数の態様における最大フロー最小カット定理、ベイズ−マッティング(トリマップを含む)、及び確率的カラーモデル等の標準的なグラフカットにおいて用いられる原則を拡大し、最も重要なことに、第2の実施形態では、本発明者らの確率モデルは、ピクセル強度だけでなく、ヒトの形状の構造(グラフ)に対するその位置及び関連性/接続(密着)も含むので、それは、完全に自動的であり、そして、前景及び背景の色分布が十分に分離されないときロバストである。第2の実施形態のシステム210が実施するように操作可能である、開発されたアプローチの工程は、以下の通り要約することができる。
前記アプローチは、画像からユーザのシルエットをセグメンテーションするために、以下の入力のうちの一部又は全てを必要とする。
i. ユーザのボディを含む画像における境界ボックス若しくは領域又はブロブ。これは、「ハード」セグメンテーショングラフカットシナリオとして知られているものについて用いられる。
ii. 確実に、略確実に、恐らく/多分ユーザのボディである、画像中の前景領域又は特徴。
iii. 確実に、略確実に、恐らく/多分ユーザのボディではない、画像中の背景領域又は特徴。
言い換えれば、画像中の各ピクセルには、前景又は背景に属する可能性を示す確率値が与えられる。
ユーザは上述の画面上のスケルトンとボディとを位置合わせするように求められるので、
iv. スケルトンを包含する境界ボックス(領域)は、上記(i)において必要なものを厳密に規定する。しかし、不確実性エラーを考慮するために、第2の実施形態における5%の不確実性因子を領域位置に追加する、即ち、5%増加させる。
v. スケルトンボーンに沿った(重なるか又は同時登録される)画像ピクセルは、確実に又は略確実に人体の一部であり、これは上記(ii)を満たす。システム210は、可変サイズのカーネルによって重なった画像−スケルトン領域を広げることにより、これら「確実な」ボディ部分画像領域を更に拡張及び拡大するように操作可能である。サイズは、ボディ部分に比例していてよい。例えば、背骨に沿った領域は、図2に示す通り、腕の一方よりも大きなサイズのカーネルによって広げられる。
vi. 境界ボックス外のピクセルは、背景に属する可能性が非常に高く、上記(iii)を満たす。
vii. 下記の通り、別のアプローチによってチェックされるまで、前景又は背景のいずれとしてもマークされていない境界ボックス内のピクセルには、等しい確率が与えられる。
このサブモジュールは、正確なシルエットのセグメンテーションを更に強化するように操作可能である。また、皮膚色を有する可能性が高い画像におけるピクセルを同定するベイジアン系皮膚色ディテクターも学習され、開発された。これは、ユーザの顔、手、及び足(最悪の場合、ボディの残りが覆われる)、並びに他の不必要な皮膚様対象の検出及びセグメンテーション(同定ではない)を可能にするように操作可能である。システム210は、セグメンテーションされた皮膚ブロブを解析し、半スケルトンリンクを作成するために連結成分分析及びフィッティング、曲率分析を使用するように操作可能である。次いで、隣接データ(マトリクス)を再構築及び解析して、ヒトスケルトンリンク(ボーン様)の一部ではないブロブを除去する。次いで、残りのブロブを、ユーザのボディである可能性が非常に高いと分類する。
次いで、学習された顔ディテクターを用いて、ユーザの顔を検出することによって上述のアプローチを更に改良する。顔又は顔の輪郭が検出されたら、次いで、予め規定したマスクを適用して、ヒトの皮膚の色合いのみを有する顔領域を切り取る。即ち、眼、眉毛、及び口を検出し、除去する。次いで、切り取られた顔マスクの色ヒストグラムに基づく逆投影アルゴリズムを適用して、顔マスクと同じ統計値を有する画像中のピクセルを同定する。第2の実施形態におけるこのサブモジュールの出力は、記載の反復グラフカットアプローチに必要なピクセル及び領域に更に追加し、改良するユーザ特有の皮膚の色合いを有するブロブを含む。
最後に、ピクセルの色、その位置、及びその分類を、提案された反復グラフカットに供給して、ユーザのシルエットをセグメンテーションする。これに続いて、画像及びエッジの平滑化、穴及び欠損データの充填、並びに小さな離散ブロブの除去等をシステム210が実施するように操作可能である多数の画像処理及びモーフィングプロセスを実施する。
アバター及びシルエットマッチングモジュール
アバター及びシルエットマッチングモジュールは、本明細書に記載する通り、タスク4、5、及び6に従ってアバター及びシルエットマッチングプロセスを実施するように操作可能である。
要約すると、本発明の第2の実施形態は、3D多関節モデル(スケルトンにリグされるヒトモデル/アバター)を用いる。グラフマッチタイプの前景セグメンテーション(シルエット)を使用し、赤い(infammed)スケルトンに重なっている画像データによってコンストレインされる。皮膚、顔、鼻、口、及び耳のディテクター及びトラッカーを用いて、これを更に改善/コンストレインする。スマートマスクを用いて、ユーザ特有の皮膚の色合いを得る。次いで、逆投影技術を用いて、ユーザ独自の皮膚ブロブを分類し、如何にして人体の部分が連結され、それらが互いに対して関連しているかに関する、決定された連結性解析とは一致もせず適合もしないものを拒絶する。また、主測地線分析(PGA)及び一般的なマニホールドも用いられる。幾何学的データ分析及び統計的形状解析では、主測地線分析は、主成分分析を形状ディスクリプタ及び表現と共に用いるのに好適なマニホールドの非ユークリッド非線形設定に一般化したものである。
本発明に記載された実施形態は、幾つかの利点を提供することが理解される。
本発明の実施形態の主な利点は、重量減少/重量増加/重量維持の努力の結果である事実データがユーザに提供される点であり、これに関して、本発明の実施形態は、教育ツールとして機能することが分かる。ユーザからデータを集めるとき、本発明の実施形態は、ユーザに対する潜在的な健康上の利益を推定するように操作可能である1以上の予測アルゴリズムを含み得る。これに関して、本明細書に記載するとき、本発明の実施形態では、反復データは、ボディの1以上の以前の表現及び/又は他のボディの積分又はボディの1以上の以前の表現及び/又は他のボディのデータ若しくは関連するデータの積分を含み得、データは、装置12の操作を介して作成され得る及び/又は1以上の他のソース、例えば、1以上の他の装置12又はDEXA技術から得られ得る。長期にわたるユーザのカロリー摂取及び運動を含み得るかかるデータに基づいて、1以上の予測アルゴリズムを介して、装置12は、かかるレジメが維持される場合、ユーザのボディ14がどうように見える可能性があるのかを示す1以上の予測アバターを作成し、提示するように操作可能である。
本発明の実施形態の装置12は、かかる他のソースを探し、配置し、通信を確立するように操作可能であり得る。
本発明の実施形態は、有効且つ正確なモニタリングを介して重量減少(及び/又は他のパーソナルフィットネスの目標)を促進するために正確なカスタマイズされたアバターの作成を提供する。アバターは、即時に及び非侵襲的手順を介して作成し得る。作成されたアバター及び関連するデータを記憶することによって、経時比較を行うことができるようになるので、ボディの変化の正確なモニタリングが可能になる。
本発明の実施形態を用いて、健康上の変化を更に促進するためのフィードバックを提供することができる。システムを介して、経時的にユーザのボディ変化を示すアバターのシーケンスを作成することができる。アバターのシーケンスは、ユーザの努力の歴史的事例研究を作成する。ユーザは、(観察者バイアスを有する写真の使用に対して)結果を定量的に見ることができる。
小さな範囲の標準的なテンプレート及びシルエットを用いることによって、不良画像から生じる誤差が低減されるが、それは、処理要件であるためである。その結果、プロセスをより速く且つより低コストにすることによって、ユーザの経験が改善される。
更に、セグメンテーションされた前景及びシルエットの特徴によって、ユーザが送信した画像を、個人の写真画像データと一緒には保存しないようにすることができる。記載する実施形態では、ユーザの写真画像は破壊され、それによって、ユーザのプライバシー保護が強化される。
本明細書に記載する本発明の変形及び変更は、その趣旨及び範囲から逸脱することなしに明らかになることを当業者は理解するであろう。当業者に明らかになる変形及び変更は、本明細書に記載する発明の広い範囲及び範疇内であるとみなされる。

Claims (27)

  1. ユーザのボディを画像化する装置であって、
    コントローラと;
    前記コントローラを制御するための電子プログラム命令を記憶する記憶装置と;
    ユーザインタフェースを表示するためのディスプレイと;
    視覚的な画像を捕捉するように構成された画像捕捉装置と;
    を含み、
    前記コントローラが、
    前記画像捕捉装置を介して、前記ボディの第1の表現を含む入力を少なくとも一部受信し、前記第1の表現が1以上の視覚的表現を含み、
    前記第1の表現を前記ディスプレイを介して表示し、
    前記入力が受信されたら、(i)スケルトンジョイント位置のモデルと、(ii)前記ユーザの少なくとも重量とを用いて、前記ディスプレイ上に現れるユーザ特有のスケルトンを作成し、
    前記ユーザが、少なくとも一部(i)前記ユーザ特有のスケルトンを、前記ボディの1以上のリアルタイムに捕捉された画像と共に表示することと、(ii)前記表示されたボディが前記表示されたユーザ特有のスケルトンに位置合わせされるように動くように、前記ユーザに指示することにより、前記第1の表現における前記ボディを前記ユーザ特有のスケルトンと位置合わせできるようにし、
    前記表示されたボディが、前記表示されたユーザ特有のスケルトンと位置合わせされたときに、前記ボディの前記第1の表現をセグメンテーションして、前記ボディの実質的に真の三次元スキャンの投影シャドウに対応する複数のシルエットを得ることによって前記第1の表現を処理し;
    前記複数のシルエットに基づいて前記ボディの第2の表現を作成し、
    作成された前記第2の表現を前記ディスプレイを介して表示するように前記電子プログラム命令の制御下で操作可能であることを特徴とする装置。
  2. 前記コントローラが、
    前記複数のシルエット及び知能機械学習技術を用いてオフラインで学習される数千の公知のヒトの形状に基づいて前記ボディの前記第2の表現を作成するように前記電子プログラム命令の制御下で操作可能である請求項1に記載の装置。
  3. 前記コントローラが、また、
    可聴音、単語、又はセリフを介して、表示された前記ユーザ特有のスケルトンに表示されたボディの部分を位置合わせするように前記ユーザに指示するように前記電子プログラム命令の制御下で操作可能であり、前記電子プログラム命令が、作成された前記スケルトン及び前記ボディの前記1つ以上のリアルタイムに捕捉された画像から抽出した形状の特徴、ポーズの特徴、及び時空間的特徴を含む特性間で計算される誤差によって位置合わせプロセスを制御するように操作可能である請求項1に記載の装置。
  4. 前記コントローラが、また、
    送信されたユーザの高さ情報、並びに画像の高さ及びピクセルにおける幅に基づいて、二値画像のユーザブロブ解析、投影理論、及びカメラモデルを用いて、
    ポーズPとして定義される、各画像におけるカメラの位置及び姿勢を含む捕捉カメラの固有及び外部パラメータの初期推定値、並びに
    スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む、JKとして定義される、前記ボディのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値
    を計算するように前記電子プログラム命令の制御下で操作可能である請求項3に記載の装置。
  5. 前記コントローラが、また、
    送信されたユーザの高さ及び重量の情報、又は前記ユーザの高さの情報のみに基づいて、前記ユーザが入力した高さ、重量、又は分かっている場合他のボディ測定値によって異なる、Avとして定義される、初期平均アバターを予測し、
    前記平均アバターAvを、参照ポーズにおける公知のスケルトンモデルJK、及びWとして定義されるボーンの重量/高さマトリクスを有するサイズNのジョイントの参照スケルトンにリギングするように前記電子プログラム命令の制御下で操作可能である請求項3に記載の装置。
  6. 前記マトリクスWが、前記予測プロセスの学習プロセス中に一度だけオフラインで計算され、次いで、他のアバターの予測又は作成に用いられる前記参照スケルトンモデルJKと共に保存され、Wを用いて、ジョイント、ボーン、並びに頂点V、エッジE、及び面Fによって表される実際の3Dアバター表面の関係をコンストレイン、制御、及びモデリングすることである請求項5に記載の装置。
  7. 前記初期平均アバターAvを予測するプロセスが、多変量系機械学習アプローチに従う請求項6に記載の装置。
  8. 前記入力が、前記ボディの分類を更に含み、前記コントローラが、
    前記ボディの分類に基づいて、前記ボディの分類に対応するデータを得;
    更に前記第1の表現と得られたデータとを比較することによって前記第1の表現を処理し;
    更に前記比較に基づいて前記ボディの前記第2の表現を作成するように前記電子プログラム命令の制御下で操作可能である請求項1に記載の装置。
  9. 得られた前記データが、テンプレート;前記ボディの以前の表現;並びに(i)前記ボディ及び(ii)他のボディの一方又は両方の1以上の以前の表現の積分又は前記1以上の以前の表現に関連するデータの積分のうちの少なくとも1つを含む請求項8に記載の装置。
  10. 前記入力が、運動センサ、赤外線センサ、深さセンサ、三次元イメージングセンサ、慣性センサ、マイクロエレクトロメカニカル(MEMS)センサ、加速度センサ、姿勢センサ、方位センサ、及び位置センサのうちの1以上を介して、一部受信される請求項1に記載の装置。
  11. 前記入力が、平面への位置合わせを促進して精度を高めるために前記ボディの前記1以上の視覚的表現の捕捉中に使用するための姿勢データを提供するように操作可能である姿勢センサを介して、一部受信される請求項10に記載の装置。
  12. 前記ボディの前記1以上の視覚的表現が、前記ボディの少なくとも1つの正面の写真及び前記ボディの少なくとも1つの側面の写真を含み、前記写真が、標準的な二次元(2D)の二値、グレー、又はカラー画像;色及びテクスチャの1つ又は両方を有するか又は有しない奥行き画像;色及びテクスチャの1つ又は両方を有するか又は有しないボディの完全三次元(3D)点群又は多数の不完全点群;又は色及びテクスチャの1つ又は両方を有するか又は有しないボディの三次元(3D)メッシュのうちの少なくとも1つを含む請求項11に記載の装置。
  13. 前記コントローラが、更に、
    可聴音、単語、セリフを介して、表示された前記ユーザ特有のスケルトンに前記ボディの部分を位置合わせするように前記ユーザに指示し、前記電子プログラム命令が、作成された前記スケルトン及び前記ボディの1以上のリアルタイムに捕捉された画像から抽出した形状特徴、ポーズ特徴、及び時空間的特徴を含む特性及び各種データ間で計算される誤差によって位置合わせプロセスを制御するように操作可能であり、
    確実に、略確実に、又は恐らく/多分前記ボディである、前記ボディの1以上の視覚的表現の1以上の前景領域又は特徴をセグメンテーションし;
    前記1以上の視覚的表現の前記1以上の前景領域又は特徴を、前記複数のシルエットのそれぞれに変換し;
    前記1以上のセグメンテーションされた前景領域又は特徴及びそのそれぞれのシルエットを、(i)前記ボディの形状のハルの構築、(ii)特徴の抽出、又は(iii)キーポイントの測定値の抽出の1以上に用い;
    前記ハル、前記特徴、又は前記キーポイントの測定値のうちの1以上を使用して、選択されたテンプレートの平均ボディの3Dモデルに対して修正、リギング、及びモーフィングのうちの1以上を行い、前記第2の表現である修正済の対象特有の3Dモデル画像を作成するように前記電子プログラム命令の制御下で操作可能である請求項12に記載の装置。
  14. 色及びテクスチャの一方又は両方を有するか又は有しない奥行き画像、点群、及びメッシュの場合、前記コントローラが、前記ボディの三次元の対象特有の形状を再構築するように前記電子プログラム命令の制御下で操作可能である請求項13に記載の装置。
  15. ユーザのボディを画像化する方法であって、
    コントローラを制御するための電子プログラム命令を記憶することと、
    前記電子プログラム命令を介して前記コントローラを制御し、
    前記ボディの第1の表現を含む入力を、視覚的な画像を捕捉するように構成された画像捕捉装置を介して受信し、前記第1の表現が前記ボディの1以上の視覚的表現を含み、
    前記第1の表現をユーザディスプレイ上に表示し、
    前記入力が受信されたら、(i)スケルトンジョイント位置のモデルと、(ii)前記ユーザの少なくとも重量とを用いて、前記ディスプレイ上に現れるユーザ特有のスケルトンを作成し、
    前記ユーザが、少なくとも一部(i)前記ユーザ特有のスケルトンを、前記ボディの1以上のリアルタイムに捕捉された画像と共に表示することと、(ii)前記表示されたボディが前記表示されたユーザ特有のスケルトンに位置合わせされるように動くように、前記ユーザに指示することにより、前記第1の表現における前記ボディを前記ユーザ特有のスケルトンと位置合わせできるようにし、
    前記表示されたボディが、前記表示されたユーザ特有のスケルトンと位置合わせされたときに、前記ボディの前記第1の表現をセグメンテーションして、前記ボディの実質的に真の三次元スキャンの投影シャドウに対応する複数のシルエットを得ることによって前記第1の表現を処理し;
    前記複数のシルエットに基づいて前記ボディの第2の表現を作成し、
    作成された前記第2の表現を表示することとを含むことを特徴とする方法。
  16. 前記ユーザが、前記ボディを前記ユーザ特有のスケルトンに位置合わせできるようにすることが、可聴音、単語、又はセリフを介して、表示された前記ユーザ特有のスケルトンに前記ボディの部分を位置合わせするように前記ユーザに指示することを含み、前記電子プログラム命令が、作成された前記スケルトン及び前記ボディの前記1以上のリアルタイムに捕捉された画像から抽出した形状特徴、ポーズ特徴、及び時空間的特徴を含む特性間で計算される誤差によって位置合わせプロセスを制御するように操作可能である請求項15に記載の方法。
  17. 前記電子プログラム命令を介して前記コントローラを制御して、
    送信されたユーザの高さ情報、並びに画像の高さ及びピクセルにおける幅に基づいて、二値画像のユーザブロブ解析、投影理論、及びカメラモデルを用いて、
    ポーズPとして定義される、各画像におけるカメラの位置及び姿勢を含む捕捉カメラの固有及び外部パラメータの初期推定値、並びに
    スケルトンモデルの各ジョイントの3D位置及び3D姿勢を含む、JKとして定義される、前記ボディのスケルトンを表すスケルトンモデルのジョイント運動の初期推定値
    を計算することを更に含む請求項16に記載の方法。
  18. 前記電子プログラム命令を介して前記コントローラを制御して、
    送信されたユーザの高さ及び重量の情報、又は前記ユーザの高さの情報のみに基づいて、前記ユーザが入力した高さ、重量、又は分かっている場合他のボディ測定値によって異なる、Avとして定義される、初期平均アバターを予測し、
    前記平均アバターAvを、参照ポーズにおける公知のスケルトンモデルJK、及びWとして定義されるボーンの重量/高さマトリクスを有するサイズNのジョイントの参照スケルトンにリギングすることを更に含む請求項17に記載の方法。
  19. 前記マトリクスWが、前記予測プロセスの学習プロセス中に一度だけオフラインで計算され、次いで、他のアバターの予測又は作成に用いられる前記参照スケルトンモデルJKと共に保存され、Wを用いて、ジョイント、ボーン、並びに頂点V、エッジE、及び面Fによって表される実際の3Dアバター表面の関係をコンストレイン、制御、及びモデリングすることである請求項18に記載の方法。
  20. 前記初期平均アバターAvを予測するプロセスが、多変量系機械学習アプローチに従う請求項19に記載の方法。
  21. 前記多変量系機械学習アプローチが、様々な年齢及びポーズの現実のヒトの複数のリギング及びレンダリングされた三次元スキャンから抽出された3D特徴を用いてヒト形状のオフライン機械知能学習することを含む請求項20に記載の方法。
  22. 前記多変量系機械学習アプローチが、更に、ベクトルM=(m1,m2,...,mL)(Lは、異なる測定値の数である)として定義される異なるボディ測定値間の様々な統計的関係の機械知能学習することを含み、使用中に、1以上の異なる測定値を考慮して1以上の測定値を予測することができ、これら測定値のうちの1以上を考慮して平均アバターAvを予測することができる請求項21に記載の方法。
  23. 新たな第1の表現において表される通り、アバターを変形させるか又は単にアニメーション化して前記ボディのAv1として定義される新たなアバターにするために、前記参照又は平均アバターデータ(V、E、F、JK、W)、及び前記新たな第1の表現のJK1として定義されるユーザのジョイント運動の公知値又は推定値を、Avを公知であるか又は自然なヒトの動きから学習された多数の物理コンストレイントに基づいてAv1に最適化及び変形させるコスト関数に供給し、使用中、前記平均アバターAvと同じボディ測定値を有する新たにアニメーション化されたアバターAv1が、前記参照又は平均データの関数、Av1=f(Av,W,JK,JK1)である請求項22に記載の方法。
  24. 関数が、以下の2つの重み付けされたエネルギー最小化関数:
    V、F、及びEを使用するラプラシアンコタンジェントマトリクスを利用する表面平滑度関数と、
    アバター頂点とそのスケルトン構造との間の対応を確実にコンストレインするために、V、F、及びWを使用するボーン結合関数と
    を合わせることによって得られる請求項23に記載の方法。
  25. 前記入力が、前記ボディの分類を更に含み、前記電子プログラム命令を介して前記コントローラを制御して、
    前記ボディの分類に基づいて、前記ボディの分類に対応するデータを得;
    更に前記第1の表現と得られたデータとを比較することによって前記第1の表現を処理し;
    更に前記比較に基づいて前記ボディの前記第2の表現を作成することを更に含む請求項15に記載の方法。
  26. 1以上のプロセッサによって実行されるとき、前記1以上のプロセッサに、
    視覚的な画像を捕捉するように構成された画像捕捉装置を介して、ボディの第1の表現を含む入力を受信させ、前記第1の表現は1以上の視覚的表現を含む、
    前記第1の表現を前記ディスプレイを介して表示させ、
    前記入力が受信されたら、(i)スケルトンジョイント位置のモデルと、(ii)前記ユーザの少なくとも重量とを用いて、前記ディスプレイ上に現れるユーザ特有のスケルトンを作成させ、
    前記ユーザが、少なくとも一部(i)前記ユーザ特有のスケルトンを、前記ボディの1以上のリアルタイムに捕捉された画像と共に表示することと、(ii)前記表示されたボディが前記表示されたユーザ特有のスケルトンに位置合わせされるように動くように、前記ユーザに指示することにより、前記第1の表現における前記ボディを前記ユーザ特有のスケルトンと位置合わせできるようにさせ、
    前記表示されたボディが、前記表示されたユーザ特有のスケルトンと位置合わせされたときに、前記ボディの前記第1の表現をセグメンテーションして、前記ボディの実質的に真の三次元スキャンの投影シャドウに対応する複数のシルエットを得ることによって前記第1の表現を処理させ、
    前記複数のシルエットに基づいて前記ボディの第2の表現を作成し、
    前記作成された第2の表現を表示させる命令が記憶されていることを特徴とする非一過性コンピュータ可読記憶媒体。
  27. 画像捕捉装置を介して、前記ボディの第1の表現を含む入力を少なくとも一部受信し、前記第1の表現が1以上の視覚的表現を含み、
    前記第1の表現を前記ディスプレイを介して表示し、
    前記入力が受信されたら、(i)スケルトンジョイント位置のモデルと、(ii)前記ユーザの少なくとも重量とを用いて、前記ディスプレイ上に現れるユーザ特有のスケルトンを作成し、
    前記ユーザが、少なくとも一部(i)前記ユーザ特有のスケルトンを、前記ボディの1以上のリアルタイムに捕捉された画像と共に表示することと、(ii)前記表示されたボディが前記表示されたユーザ特有のスケルトンに位置合わせされるように動くように、前記ユーザに指示することにより、前記第1の表現における前記ボディを前記ユーザ特有のスケルトンと位置合わせできるようにし、
    前記表示されたボディが、前記表示されたユーザ特有のスケルトンと位置合わせされたときに、前記ボディの前記第1の表現をセグメンテーションして、前記ボディの実質的に真の三次元スキャンの投影シャドウに対応する複数のシルエットを得ることによって前記第1の表現を処理し;
    前記複数のシルエットに基づいて前記ボディの第2の表現を作成し、
    作成された前記第2の表現を前記ディスプレイを介して表示する、
    処理をコンピュータに実行させることを特徴とするプログラム。
JP2018147992A 2014-12-05 2018-08-06 ボディの画像化 Active JP6424293B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AU2014904940 2014-12-05
AU2014904940A AU2014904940A0 (en) 2014-12-05 Imaging a Body

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017527800A Division JP6434623B2 (ja) 2014-12-05 2015-12-04 ボディの画像化

Publications (2)

Publication Number Publication Date
JP6424293B1 true JP6424293B1 (ja) 2018-11-14
JP2019012532A JP2019012532A (ja) 2019-01-24

Family

ID=56090732

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017527800A Active JP6434623B2 (ja) 2014-12-05 2015-12-04 ボディの画像化
JP2018147992A Active JP6424293B1 (ja) 2014-12-05 2018-08-06 ボディの画像化
JP2018210699A Active JP6559317B2 (ja) 2014-12-05 2018-11-08 ボディの画像化

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017527800A Active JP6434623B2 (ja) 2014-12-05 2015-12-04 ボディの画像化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018210699A Active JP6559317B2 (ja) 2014-12-05 2018-11-08 ボディの画像化

Country Status (13)

Country Link
US (1) US9949697B2 (ja)
EP (1) EP3226763B1 (ja)
JP (3) JP6434623B2 (ja)
KR (4) KR102394593B1 (ja)
CN (2) CN106999107B (ja)
AU (1) AU2015358289B2 (ja)
CA (1) CA2969762C (ja)
DE (1) DE15864375T1 (ja)
ES (1) ES2647340T1 (ja)
MA (1) MA41117A (ja)
NZ (1) NZ761690A (ja)
SG (3) SG10202001239PA (ja)
WO (1) WO2016086266A1 (ja)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
MA41117A (fr) * 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US10521429B2 (en) * 2015-06-09 2019-12-31 Microsoft Technology Licensing, Llc. Interactive graphical system for estimating body measurements
US10665019B2 (en) * 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
WO2017187641A1 (ja) * 2016-04-28 2017-11-02 富士通株式会社 骨格推定装置、骨格推定方法および骨格推定プログラム
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR101851303B1 (ko) 2016-10-27 2018-04-23 주식회사 맥스트 3차원 공간 재구성 장치 및 방법
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
EP3387997B1 (en) * 2017-04-13 2020-02-26 Siemens Healthcare GmbH Medical imaging device and method controlling one or more parameters of a medical imaging device
KR102439054B1 (ko) 2017-05-16 2022-09-02 애플 인크. 이모지 레코딩 및 전송
US10311624B2 (en) * 2017-06-23 2019-06-04 Disney Enterprises, Inc. Single shot capture to animated vr avatar
JP1607361S (ja) * 2017-06-23 2018-06-25
CN110832553B (zh) * 2017-06-29 2024-05-14 索尼公司 图像处理装置和图像处理方法
CN111183456A (zh) * 2017-10-03 2020-05-19 富士通株式会社 识别程序、识别方法以及识别装置
US10657709B2 (en) * 2017-10-23 2020-05-19 Fit3D, Inc. Generation of body models and measurements
WO2019089645A1 (en) 2017-10-31 2019-05-09 Swanson James Martin Systems and methods to estimate human length
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
US20190163270A1 (en) * 2017-11-27 2019-05-30 Fitbit, Inc. Methods and systems for fitness-monitoring device displaying biometric sensor data-based interactive applications
US10706262B2 (en) * 2018-01-08 2020-07-07 3DLOOK Inc. Intelligent body measurement
CN108171792A (zh) * 2018-01-15 2018-06-15 深圳市云之梦科技有限公司 一种基于语义参数的人体三维模型恢复技术的方法及系统
US10321728B1 (en) 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
KR102030040B1 (ko) * 2018-05-09 2019-10-08 한화정밀기계 주식회사 빈 피킹을 위한 빈 모델링 방법 및 그 장치
WO2020049358A2 (en) 2018-09-06 2020-03-12 Prohibition X Pte Ltd Clothing having one or more printed areas disguising a shape or a size of a biological feature
JP7437327B2 (ja) * 2018-07-02 2024-02-22 マジック リープ, インコーポレイテッド 異種入力の補間のための方法およびシステム
KR102668240B1 (ko) * 2018-07-25 2024-05-22 삼성전자주식회사 사용자의 신체 상태를 추정하기 위한 방법 및 디바이스
US10810432B2 (en) 2018-08-02 2020-10-20 Motorola Solutions, Inc. Methods and systems for differentiating one or more objects in a video
JP2021182175A (ja) * 2018-08-10 2021-11-25 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム
US12080425B1 (en) * 2020-01-28 2024-09-03 C/Hca, Inc. Event triggering utilizing segment assignments
KR102044237B1 (ko) * 2018-10-23 2019-11-13 연세대학교 산학협력단 2차원 음영 영상 기반 기계학습을 이용한 자동 3차원 랜드마크 검출 방법 및 장치
US10984609B2 (en) 2018-11-21 2021-04-20 Electronics And Telecommunications Research Institute Apparatus and method for generating 3D avatar
US11507781B2 (en) 2018-12-17 2022-11-22 Bodygram, Inc. Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US11010896B2 (en) 2018-12-17 2021-05-18 Bodygram, Inc. Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
US10489683B1 (en) 2018-12-17 2019-11-26 Bodygram, Inc. Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
AU2019412503A1 (en) * 2018-12-24 2021-07-08 Body Composition Technologies Pty Ltd Analysing a body
US11375922B2 (en) * 2019-01-03 2022-07-05 Lg Electronics Inc. Body measurement device and method for controlling the same
US20220078339A1 (en) * 2019-01-03 2022-03-10 Idiction Co., Ltd. Method for obtaining picture for measuring body size and body size measurement method, server, and program using same
US10909709B2 (en) 2019-01-03 2021-02-02 Lg Electronics Inc. Body measurement device and method for controlling the same
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
GB2581167A (en) * 2019-02-06 2020-08-12 Arbroath Capital Uk Risk Man Consulting Limited Video processing apparatus
FR3093215B1 (fr) * 2019-02-22 2021-08-27 Fogale Nanotech Procédé et dispositif de surveillance de l’environnement d’un robot
USD918932S1 (en) * 2019-03-12 2021-05-11 Hologic, Inc. Electronic display screen with graphical user interface with patient orientation element
US10953334B2 (en) * 2019-03-27 2021-03-23 Electronic Arts Inc. Virtual character generation from image or video data
CN113994396A (zh) 2019-04-01 2022-01-28 陈健 基于增强现实和/或姿势检测技术的用户引导系统
CN110148212B (zh) * 2019-05-17 2023-01-31 北京市商汤科技开发有限公司 一种动作序列生成方法及装置、电子设备和存储介质
EP3770809A4 (en) 2019-06-14 2022-03-09 Korea University Research and Business Foundation METHOD AND APPARATUS FOR ESTIMATING A USER'S POSE USING A VIRTUAL THREE-DIMENSIONAL SPACE MODEL
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
US11903730B1 (en) * 2019-09-25 2024-02-20 Amazon Technologies, Inc. Body fat measurements from a two-dimensional image
JP7527773B2 (ja) * 2019-11-18 2024-08-05 キヤノン株式会社 放射線撮影システム、放射線撮影方法、画像処理装置およびプログラム
USD997180S1 (en) * 2019-11-26 2023-08-29 Siemens Healthcare Gmbh Display screen or portion thereof with a graphical user interface
US11657513B2 (en) 2019-11-29 2023-05-23 Samsung Electronics Co., Ltd. Method and system for generating a tri-map for image matting
CN111008966A (zh) * 2019-12-02 2020-04-14 深圳市繁维医疗科技有限公司 基于rgbd的单视角人体测量方法、装置以及计算机可读存储介质
CN111127495A (zh) * 2019-12-04 2020-05-08 深圳市图郅创新科技有限公司 一种关于图像关键点检测的神经网络模型建立方法
CN111105348A (zh) * 2019-12-25 2020-05-05 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
US12099997B1 (en) 2020-01-31 2024-09-24 Steven Mark Hoffberg Tokenized fungible liabilities
US11631288B2 (en) * 2020-02-12 2023-04-18 The Boeing Company Maintenance prediction system for a vehicle
TWI798655B (zh) * 2020-03-09 2023-04-11 美商奈米創尼克影像公司 缺陷偵測系統
KR102160556B1 (ko) * 2020-03-11 2020-09-28 이대권 신체 정보 제공 장치 및 방법
CN113397526B (zh) * 2020-03-17 2024-09-13 苹果公司 人体高度估计
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
CN111724784A (zh) * 2020-06-28 2020-09-29 北京小米松果电子有限公司 设备控制方法及装置
WO2022094670A1 (en) * 2020-11-06 2022-05-12 Evolt Ip Pty Ltd Nutrition management system and method
CN113040984B (zh) * 2020-11-21 2022-01-14 陕西立博源科技有限公司 智能化腿部分区域构造系统及方法
JPWO2022138585A1 (ja) * 2020-12-21 2022-06-30
CN114697539B (zh) * 2020-12-31 2024-10-15 深圳市万普拉斯科技有限公司 拍照推荐方法、装置、电子设备以及存储介质
CN112802031B (zh) * 2021-01-06 2023-05-05 浙江工商大学 一种基于三维人头跟踪的实时虚拟试发方法
US20220301682A1 (en) * 2021-03-16 2022-09-22 Adobe Inc. Dynamically Adaptable Health Experience based on Data Triggers
US12039732B2 (en) * 2021-04-14 2024-07-16 The Procter & Gamble Company Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
WO2022240745A1 (en) * 2021-05-11 2022-11-17 Tam Technologies, Inc. Methods and systems for representing a user
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11854146B1 (en) 2021-06-25 2023-12-26 Amazon Technologies, Inc. Three-dimensional body composition from two-dimensional images of a portion of a body
US11887252B1 (en) 2021-08-25 2024-01-30 Amazon Technologies, Inc. Body model composition update from two-dimensional face images
US20230065288A1 (en) * 2021-08-30 2023-03-02 Apple Inc. Electronic Devices with Body Composition Analysis Circuitry
CN113887311B (zh) 2021-09-03 2023-05-02 中山大学中山眼科中心 一种保护眼科患者隐私的方法、装置及存储介质
US11861860B2 (en) 2021-09-29 2024-01-02 Amazon Technologies, Inc. Body dimensions from two-dimensional body images
KR102587911B1 (ko) * 2021-10-13 2023-10-12 호전실업 주식회사 가상 의류시스템의 활용을 위한 인체 이미지 획득 방법 및 이를 위한 애플리케이션 프로그램
CN114035683B (zh) * 2021-11-08 2024-03-29 百度在线网络技术(北京)有限公司 用户捕捉方法、装置、设备、存储介质及计算机程序产品
KR102646272B1 (ko) * 2021-11-18 2024-03-12 동국대학교 산학협력단 사용자 단말기 및 사용자의 신체 부위 별 체형 정보를 제공하는 방법
KR102652121B1 (ko) * 2022-01-11 2024-03-29 (주)헬스허브 가상공간과 현실공간이 공존하는 메타버스 환경에서의 개인식별 장치 및 그 방법
KR102532848B1 (ko) * 2022-06-08 2023-05-17 아이디어링크 주식회사 바디 쉐입 기반의 아바타 생성 방법 및 장치
CN114821006B (zh) * 2022-06-23 2022-09-20 盾钰(上海)互联网科技有限公司 交互式间接推理的孪生体态检测方法及系统
EP4303824A1 (en) * 2022-07-06 2024-01-10 Cyberhuman Limited System and method for monitoring a body pose of a user
US20240020901A1 (en) * 2022-07-13 2024-01-18 Fd Ip & Licensing Llc Method and application for animating computer generated images
WO2024069911A1 (ja) * 2022-09-30 2024-04-04 三菱電機株式会社 姿態改善支援システム、処理装置、姿態改善支援方法、及び処理方法
CN115458128B (zh) * 2022-11-10 2023-03-24 北方健康医疗大数据科技有限公司 一种基于关键点生成数字人体影像的方法、装置及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11192214A (ja) * 1998-01-05 1999-07-21 Sony Corp 脊椎動物若しくはこれを模倣したロボットに関する数値モデルの作成方法
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
US20090124866A1 (en) * 2007-11-09 2009-05-14 The Quantum Group, Inc. Intelligent personal health profile
WO2010027015A1 (ja) * 2008-09-05 2010-03-11 国立大学法人東京大学 モーションキャプチャ装置
US20120271143A1 (en) * 2010-11-24 2012-10-25 Nike, Inc. Fatigue Indices and Uses Thereof
US20130325493A1 (en) * 2012-05-29 2013-12-05 Medical Avatar Llc System and method for managing past, present, and future states of health using personalized 3-d anatomical models
US20140100464A1 (en) * 2012-10-09 2014-04-10 Bodies Done Right Virtual avatar using biometric feedback

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
JP3668168B2 (ja) 2001-09-14 2005-07-06 株式会社東芝 動画像処理装置
GB0226787D0 (en) 2002-11-18 2002-12-24 Qinetiq Ltd Measurement of mitotic activity
GB0520829D0 (en) 2005-10-13 2005-11-23 Univ Cambridge Tech Image processing methods and apparatus
PL1993443T3 (pl) 2006-02-27 2016-06-30 Select Res Ltd Wskaźnik stanu zdrowia
DE602006014602D1 (de) 2006-12-01 2010-07-08 Panasonic Corp Iterative Bewegungs-Segmentierung
GB2452944B8 (en) 2007-09-19 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
KR101589711B1 (ko) 2007-10-12 2016-01-28 도요타 모터 유럽 비디오 데이터의 처리 방법 및 시스템
US8437549B2 (en) 2008-03-14 2013-05-07 Panasonic Corporation Image processing method and image processing apparatus
US9189886B2 (en) * 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
GB2464453B8 (en) 2008-10-10 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
JP5404918B2 (ja) * 2010-03-15 2014-02-05 パナソニック株式会社 移動軌跡算出方法およびその装置、ならびに領域分割方法
EP2395456A1 (en) 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Methods and systems for semantic label propagation
GB2484133B (en) 2010-09-30 2013-08-14 Toshiba Res Europ Ltd A video analysis method and system
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
GB2490872B (en) 2011-05-09 2015-07-29 Toshiba Res Europ Ltd Methods and systems for capturing 3d surface geometry
US11133096B2 (en) * 2011-08-08 2021-09-28 Smith & Nephew, Inc. Method for non-invasive motion tracking to augment patient administered physical rehabilitation
GB201209382D0 (en) * 2012-05-25 2012-07-11 Poikos Ltd Body measurement
US8913809B2 (en) * 2012-06-13 2014-12-16 Microsoft Corporation Monitoring physical body changes via image sensor
SG11201503974SA (en) * 2012-11-22 2015-06-29 Agency Science Tech & Res Method, apparatus and system for virtual clothes modelling
CN103049852B (zh) * 2012-12-19 2015-12-09 武汉世纪炎龙网络科技有限公司 虚拟试衣系统
CN104103090A (zh) * 2013-04-03 2014-10-15 北京三星通信技术研究有限公司 图像处理方法、个性化人体显示方法及其图像处理系统
JP6173984B2 (ja) * 2014-08-08 2017-08-02 ソフトバンク株式会社 3dモデリング情報作成支援システム、3dモデリング情報作成支援方法、及び3dモデリング情報作成支援プログラム
MA41117A (fr) * 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11192214A (ja) * 1998-01-05 1999-07-21 Sony Corp 脊椎動物若しくはこれを模倣したロボットに関する数値モデルの作成方法
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
US20090124866A1 (en) * 2007-11-09 2009-05-14 The Quantum Group, Inc. Intelligent personal health profile
WO2010027015A1 (ja) * 2008-09-05 2010-03-11 国立大学法人東京大学 モーションキャプチャ装置
US20120271143A1 (en) * 2010-11-24 2012-10-25 Nike, Inc. Fatigue Indices and Uses Thereof
US20130325493A1 (en) * 2012-05-29 2013-12-05 Medical Avatar Llc System and method for managing past, present, and future states of health using personalized 3-d anatomical models
US20140100464A1 (en) * 2012-10-09 2014-04-10 Bodies Done Right Virtual avatar using biometric feedback

Also Published As

Publication number Publication date
EP3226763A1 (en) 2017-10-11
JP2019076733A (ja) 2019-05-23
KR20180057734A (ko) 2018-05-30
AU2015358289A1 (en) 2017-06-01
SG10202001239PA (en) 2020-03-30
US9949697B2 (en) 2018-04-24
DE15864375T1 (de) 2018-02-22
NZ761693A (en) 2021-08-27
CN106999107B (zh) 2019-05-21
WO2016086266A1 (en) 2016-06-09
KR102290040B1 (ko) 2021-08-17
EP3226763A4 (en) 2018-07-04
US20170273639A1 (en) 2017-09-28
JP2018504663A (ja) 2018-02-15
CA2969762C (en) 2019-07-30
JP2019012532A (ja) 2019-01-24
CN110223272A (zh) 2019-09-10
KR20170091730A (ko) 2017-08-09
EP3226763B1 (en) 2024-08-28
CA2969762A1 (en) 2016-06-09
KR20190007535A (ko) 2019-01-22
NZ731721A (en) 2021-05-28
KR101980503B1 (ko) 2019-08-28
ES2647340T1 (es) 2017-12-21
KR101894686B1 (ko) 2018-09-04
CN106999107A (zh) 2017-08-01
JP6559317B2 (ja) 2019-08-14
JP6434623B2 (ja) 2018-12-05
AU2015358289B2 (en) 2017-07-27
SG10201806180VA (en) 2018-08-30
NZ761690A (en) 2021-07-30
KR20210047377A (ko) 2021-04-29
SG11201703993RA (en) 2017-06-29
KR102394593B1 (ko) 2022-05-06
MA41117A (fr) 2017-10-10

Similar Documents

Publication Publication Date Title
JP6424293B1 (ja) ボディの画像化
JP6799302B2 (ja) 全身測定値抽出のためのシステムおよび方法
CN110310285B (zh) 一种精确的基于三维人体重建的烧伤面积计算方法
JP2009020761A (ja) 画像処理装置及びその方法
US11861860B2 (en) Body dimensions from two-dimensional body images
NZ761693B2 (en) Imaging a Body
NZ731721B2 (en) Imaging a body
US20240087266A1 (en) Deforming real-world object using image warping
KR20230080211A (ko) 자세 추정을 위한 서버 및 그 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180810

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6424293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250