WO2019111521A1 - 情報処理装置、プログラム - Google Patents

情報処理装置、プログラム Download PDF

Info

Publication number
WO2019111521A1
WO2019111521A1 PCT/JP2018/037557 JP2018037557W WO2019111521A1 WO 2019111521 A1 WO2019111521 A1 WO 2019111521A1 JP 2018037557 W JP2018037557 W JP 2018037557W WO 2019111521 A1 WO2019111521 A1 WO 2019111521A1
Authority
WO
WIPO (PCT)
Prior art keywords
score
subject
parameter
information processing
beauty
Prior art date
Application number
PCT/JP2018/037557
Other languages
English (en)
French (fr)
Inventor
真紀 白土
平尾 直靖
Original Assignee
株式会社 資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 資生堂 filed Critical 株式会社 資生堂
Priority to JP2019558034A priority Critical patent/JP7162613B2/ja
Publication of WO2019111521A1 publication Critical patent/WO2019111521A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present invention relates to an information processing apparatus and program.
  • Japanese Patent Application Laid-Open No. 2017-6305 discloses a technique for evaluating the physical strength of a subject based on walking parameters indicating a walking state.
  • the object of the present invention is to assess the beauty of motion from walking motion.
  • One aspect of the present invention is An information processing apparatus for evaluating the beauty of movement of a subject, A means for acquiring a moving image of a walking object; A means for extracting a walking speed, a walking posture, and a motion frequency by analyzing the moving image; Means for calculating a first parameter based on the correlation between the walking speed and the beauty; Means for calculating a second parameter based on the correlation between the walking posture and the beauty; Means for calculating a third parameter based on the correlation between the motion frequency and the beauty; An information processing apparatus comprising: means for calculating a beauty score of the movement using the first parameter to the third parameter.
  • FIG. 1 is a schematic view of an information processing system of the present embodiment.
  • FIG. 2 is a block diagram showing the configuration of the information processing system of FIG.
  • the information processing system 1 includes a client device 10 and a server 30.
  • the client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • NW a network
  • the client device 10 is an example of an information processing device that transmits a request to the server 30.
  • the client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the server 30 is an example of an information processing apparatus that provides the client apparatus 10 with a response to the request sent from the client apparatus 10.
  • the server 30 is, for example, a web server.
  • the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, and a camera 15.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a read only memory (ROM), a random access memory (RAM), and a storage (for example, a flash memory or a hard disk).
  • ROM read only memory
  • RAM random access memory
  • storage for example, a flash memory or a hard disk
  • the programs include, for example, the following programs.
  • Program of OS Operating System
  • Program of application for example, web browser
  • the data includes, for example, the following data.
  • ⁇ Database referenced in information processing ⁇ Data obtained by executing information processing (that is, execution result of information processing)
  • the processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11.
  • the processor 12 is an example of a computer.
  • the input / output interface 13 is configured to obtain a user's instruction from an input device connected to the client device 10 and to output information to an output device connected to the client device 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • Communication interface 14 is configured to control communication between client device 10 and server 30.
  • the camera 15 is configured to capture a moving image and generate moving image data of the captured moving image (hereinafter referred to as “captured moving image”).
  • the camera 15 has, for example, a complementary metal oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal oxide semiconductor
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs. ⁇ Program of OS ⁇ Program of application executing information processing
  • the data includes, for example, the following data. ⁇ Database referenced in information processing ⁇ Execution result of information processing
  • the processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31.
  • the processor 32 is an example of a computer.
  • the input / output interface 33 is configured to obtain a user's instruction from an input device connected to the server 30, and to output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • Communication interface 34 is configured to control communication between server 30 and client device 10.
  • FIG. 3 is an explanatory view of the outline of the present embodiment.
  • the client device 10 captures a moving image of the object OBJ while walking, and generates moving image data of the captured moving image.
  • the client device 10 transmits moving image data to the server 30.
  • the server 30 calculates a motion beauty score by performing image analysis on the moving image data transmitted from the client device 10.
  • the server 30 evaluates the beauty of the movement of the object OBJ from the moving image of the object OBJ while walking. In this way, it is possible to obtain an evaluation index of the beauty of the movement of the object OBJ simply by photographing the state of walking.
  • FIG. 4 is a view showing the data structure of the subject information database of the present embodiment.
  • Subject information related to the subject is stored in the subject information database of FIG.
  • the subject information database includes a "subject ID” field, a "subject name” field, and a "subject attribute” field. Each field is associated with each other.
  • a subject ID for identifying the subject OBJ is stored in the "subject ID" field.
  • the subject ID is arbitrarily determined by the server 30.
  • the “object name” field stores information (for example, text) on the name of the object OBJ.
  • Subject attribute information relating to the attribute of the subject OBJ is stored in the “subject attribute” field.
  • the "subject attribute” field includes a “sex” field, an "age” field, and a “professional” field.
  • the "age” field stores information on the age of the object OBJ.
  • FIG. 5 is a diagram showing the data structure of the calculation formula master database of the present embodiment.
  • the formula master database includes an “object attribute” field and a “formula” field. Each field is associated with each other.
  • the "subject attribute” field is the same as the "subject attribute” field in FIG.
  • the first calculation formula (formula 1) for calculating the speed score S1 (an example of the “first score”) and the posture score S2 (an example of the “second score”) are calculated
  • a fourth calculation formula (Formula 4) for the purpose is stored.
  • Formula 1 is an example of a first calculation formula.
  • the coefficients w11 to w13 are determined according to the subject attribute information.
  • the factor w11 is larger than the factors w12 and w13.
  • the walking speed depends on the mental state.
  • the mental state is reflected in, for example, a stress level or a measurement value of movement of a mouth corner at the time of smile, or a state evaluated by the measurement value. Since the coefficient w11 is larger than the coefficients w12 and w13, the speed score S1 can also be said to be a "score regarding the mental state of the subject". The higher the speed score S1, the more negative psychological state (e.g., depressed state).
  • Formula 2 is an example of a second calculation formula.
  • the coefficients w21 to w23 are determined according to the subject attribute information.
  • the factor w22 is larger than the factors w21 and w23.
  • the walking posture depends on the body composition.
  • the body composition is reflected in, for example, a measurement value of body fat percentage or a state evaluated by the measurement value. Since the coefficient w22 is larger than the coefficients w21 and w23, the posture score S2 can also be said to be a "score relating to the body composition of the subject.” The higher the posture score S2, the more negative the body composition (for example, the state where the fat is above the average).
  • w22 second weighting factor for walking posture for calculating posture score S2
  • w23 walking technology for calculating posture score S2
  • Formula 3 is an example of a third calculation formula.
  • the coefficients w31 to w33 are determined according to the subject attribute information.
  • the factor w33 is larger than the factors w31 and w32.
  • walking techniques are known to depend on motion control.
  • the movement control is reflected in, for example, a measurement value of a skeletal muscle index or a state evaluated by the measurement value.
  • the technology score S3 can also be said to be a "score relating to motion control of the subject". As the technology score S3 is larger, it indicates negative motor control (for example, a state in which the rhythm of the movement is not constant).
  • W31 a first weighting coefficient relating to the walking speed for calculating the technical score S3 w32 a second weighting coefficient relating to the walking posture for calculating the technical score S3 w33 relating to the walking technology for calculating the technical score S3 Third weighting factor
  • Formula 4 is an example of a fourth calculation formula.
  • the coefficients wm1 to wm3 are determined according to the subject attribute information.
  • Wm1 a first weighting factor relating to the walking speed for calculating the beauty score Sm of movement
  • wm2 a second weighting coefficient relating to the walking posture for calculating the score Sm of beauty for the movement
  • wm3 beauty of the movement
  • FIG. 6 is a diagram showing the data structure of the evaluation master database of the present embodiment.
  • the evaluation master database In the evaluation master database of FIG. 6, information on the evaluation according to the score is stored.
  • the evaluation master database includes the "score” field and the "evaluation” field. Each field is associated with each other.
  • the “evaluation” field stores an evaluation message indicating an evaluation according to each of the speed score, the posture score, and the technology score.
  • FIG. 7 is a diagram showing a data structure of the solution master database of the present embodiment.
  • the solution master database of FIG. 7 stores solution information according to the score.
  • the solution master database includes a "score" field and a "solution” field. Each field is associated with each other.
  • the “solution” field stores solution information according to a combination of the beauty score of the motion, the speed score, the posture score, and the technology score.
  • the “solution” field includes an “advice” field and a “recommended product” field.
  • an advice message indicating advice on lifestyle is stored.
  • the lifestyle includes, for example, the following. ⁇ Exercise ⁇ Meal ⁇ Sleep
  • the “recommended product” field stores product information on the product (for example, a product name, a URL (Uniform Resource Locator) of a website for purchasing a product, or a combination thereof).
  • the goods include, for example: ⁇ Cosmetics ⁇ exercise equipment ⁇ food ⁇ supplements
  • FIG. 8 is a diagram showing the data structure of the score log information database of the present embodiment.
  • Score log information is stored in the score log information database of FIG.
  • the score log information database includes a "score log ID” field, a "date” field, and a "score” field. Each field is associated with each other.
  • the score log information database is associated with the subject ID.
  • score log ID a score log ID for identifying a score log is stored.
  • the score log ID is arbitrarily determined by the server 30.
  • the "date” field stores information on the date when the score log was acquired.
  • the “score” field includes a "speed score” field, a "posture score” field, a “technology score” field, and a “motion beauty score” field.
  • the "speed” field stores a speed score.
  • Posture scores are stored in the “posture score” field.
  • a technical score is stored in the "technical score" field.
  • the "beauty of movement score” field stores the beauty of movement score.
  • FIG. 9 is a sequence diagram of information processing of the embodiment.
  • FIG. 10 is a view showing an example of a screen displayed in the information processing of FIG.
  • FIG. 11 is a detailed flowchart of the score calculation of FIG.
  • the client device 10 executes moving image acquisition (S100). Specifically, processor 12 displays screen P100 (FIG. 11) on the display.
  • the screen P100 includes button objects B100a to B100b, an input field object F100, and an image object IMG100.
  • the input field object F100 is an object that receives the input of the subject ID of the subject OBJ.
  • the button object B100a is an object that receives a user instruction for video recording.
  • the button object B100b is an object that receives a user instruction to request an evaluation of the beauty of movement.
  • the image object IMG 100 corresponds to a moving image captured by the camera 15.
  • the processor 12 activates the camera 15.
  • the camera 15 captures a moving image of the object OBJ while walking, and generates moving image data of the captured moving image.
  • step S100 the client device 10 executes an evaluation request (S101). Specifically, when the user operates the button object B 100 b (FIG. 9), the processor 12 sends evaluation request data to the server 30. Evaluation request data includes the following information. ⁇ Subject ID The moving image data generated in step S100 Information on the execution date of step S101
  • step S101 the server 30 executes score calculation (S300) based on the moving image data included in the evaluation request data. Step S300 will be described with reference to FIG.
  • the server 30 executes calculation of the speed parameter (S3000).
  • the processor 32 executes feature amount analysis on the moving image data included in the evaluation request data to obtain a pixel (for example, “first reference” of a part (for example, a foot) having a high correlation with the walking speed. Identify the pixel).
  • the processor 12 calculates the amount of change of the coordinates of the first reference pixel in a plurality of frames constituting the moving image data. The amount of change is a speed parameter related to the walking speed.
  • the server 30 executes calculation of posture parameters (S3001). Specifically, the processor 32 executes feature amount analysis on the moving image data included in the evaluation request data to obtain a site having a high correlation with the walking posture (for example, the spine, trunk, pelvis, and body). At least one of the entire pixels (hereinafter referred to as "second reference pixel") is specified. The processor 32 calculates the anteversion angle of the portion with reference to the second reference pixel. This forward lean angle is a posture parameter related to the walking posture.
  • the anteversion angle includes at least one of the following angles: Anteroposterior angle of cervical spine with respect to perpendicular, Anterior inclination angle of body with respect to perpendicular, Anteroposterior inclination angle of pelvis with respect to horizontal line, Anterior inclination of whole body with respect to perpendicular, Angle of hip joint (for example, at least one of movable angle and bending angle ) ⁇ Angle of ankle joint (for example, at least one of movable angle and flexion angle)
  • the server 30 executes calculation of technical parameters (S3002). Specifically, the processor 32 executes feature amount analysis on the moving image data included in the evaluation request data to obtain pixels of a portion (for example, the whole body) of a portion (for example, whole body) having a high correlation with the walking motion. Identify the reference pixel. The processor 32 calculates the frequency of displacement of the third reference pixel in a plurality of frames making up the moving image data (hereinafter referred to as “motion frequency”). This motion frequency is a technical parameter related to walking technology (especially, smoothness of walking).
  • the server 30 executes calculation formula determination (S3003).
  • the processor 32 refers to the subject information master database (FIG. 4) to specify subject attribute information associated with the subject ID included in the evaluation request data.
  • the processor 32 specifies a calculation formula (first calculation formula to fourth calculation formula) associated with the specified subject attribute information with reference to the calculation formula master database (FIG. 5).
  • the server 30 executes calculation of the speed score (S3004). Specifically, the processor 32 calculates the parameters (speed parameter p1, attitude parameter p2, and technical parameter p3) calculated in steps S3000 to S3002 in the first calculation equation (equation 1) specified in step S3003. Calculate the speed score S1 by applying.
  • the server 30 executes calculation of a posture score (S3005). Specifically, the processor 32 calculates the parameters (speed parameter p1, attitude parameter p2, and technical parameter p3) calculated in steps S3000 to S3002 in the second calculation equation (equation 2) specified in step S3003. Calculate the attitude score S2 by applying.
  • step S3005 the server 30 executes technology score calculation (S3006). Specifically, the processor 32 calculates the parameters (speed parameter p1, attitude parameter p2, and technical parameter p3) calculated in steps S3000 to S3002 in the third calculation equation (equation 3) specified in step S3003. Calculate technical score S3 by applying.
  • step S3006 the server 30 executes motion beauty score calculation (S3007). Specifically, the processor 32 calculates the scores (speed score S1, posture score S2, and technical score S3) calculated in steps S3004 to S3006 in the fourth calculation formula (equation 4) specified in step S3003. Calculate the beauty score of the movement Sm by applying.
  • the server 30 executes database update (S301). Specifically, the processor 32 adds a new record to the evaluation log information database (FIG. 8) associated with the subject ID included in the evaluation request data.
  • the processor 32 stores the following information in each field of the new record.
  • the “score log ID” field a new score log ID is stored.
  • the “date” field stores information on the execution date included in the evaluation request data.
  • the speed score S1 calculated in step S3004 is stored.
  • the posture score S2 calculated in step S3005 is stored.
  • the technical score S3 calculated in step S3006 is stored in the "technical score” field.
  • the “motion beauty score” field stores the beauty score Sm of the motion calculated in step S3007.
  • the server 30 executes an evaluation (S302).
  • processor 32 refers to the evaluation master database (FIG. 6) to specify information (evaluation message) stored in the “evaluation” field associated with each score calculated in steps S3004 to S3007. Do.
  • the server 30 executes specification of solution information (S303). Specifically, the processor 32 refers to the solution master database (FIG. 7) and stores the information (advice message, and the like) stored in the “solution” field associated with each score calculated in steps S3004 to S3007. Identify product information).
  • the processor 32 refers to the solution master database (FIG. 7) and stores the information (advice message, and the like) stored in the “solution” field associated with each score calculated in steps S3004 to S3007. Identify product information).
  • the server 30 executes an evaluation response (S304). Specifically, the processor 32 transmits the evaluation response data to the client device 10.
  • the evaluation response data contains the following information.
  • the scores obtained in step S300 speed score S1, posture score S2, technology score S3, and score of beauty of movement Sm
  • Evaluation message identified in step S302 Solution information identified in step S303 (advice message and product information)
  • the client device 10 executes screen display (S102). Specifically, the processor 12 displays a screen P102 (FIG. 10) based on the evaluation response data on the display.
  • the screen P102 includes display objects A101a to A101b.
  • the display object A 101 a includes an advice message included in the evaluation response data.
  • the display object A 101 b includes solution information included in the evaluation response data.
  • the beauty of the movement is obtained using the parameters extracted from the specific part (specifically, the walking speed, the walking posture, and the part having a high correlation with the walking technique) included in the moving image. Calculate the score Sm of the pain. Thereby, the beauty of movement can be evaluated from the walking motion.
  • the first aspect of the present embodiment is An information processing apparatus (for example, the server 30) for evaluating the beauty of the movement of a subject, A means for acquiring a moving image of a walking subject (for example, a processor 32 that executes the process of step S300); A means for extracting the walking speed, the walking posture, and the movement frequency by analyzing the moving image (for example, the processor 32 which executes the process of step S300); Means for calculating the first parameter p1 based on the correlation between the walking speed and the beauty (for example, the processor 32 that executes the process of step S3000); A unit that calculates a second parameter p2 based on the correlation between the walking posture and the beauty (for example, the processor 32 that executes the process of step S3001); A unit that calculates a third parameter p3 based on the correlation between the motion frequency and the beauty (for example, the processor 32 that executes the process of step S3002);
  • the information processing apparatus is provided with a unit (for example, the processor 32 that executes the process
  • the score Sm of the beauty of the motion is calculated using the first to third parameters extracted by analyzing the moving image of the object being walked. Thereby, the beauty of movement can be evaluated from the walking motion.
  • the second aspect of the present embodiment is A unit that calculates a first score S1 related to the mental state of the subject using the first parameter p1 to the third parameter p3 and the first weighting factor related to the walking speed (for example, the processor 32 that executes the processing of step S3004)
  • An information processing apparatus comprising:
  • the second aspect it is possible to obtain the first score S1 regarding the mental state of the subject by using the first parameter to the third parameter and the first weighting factor regarding the walking speed that is correlated with the mental state. it can.
  • the third aspect of the present embodiment is A unit that calculates a second score S2 related to the body composition of the subject using the first parameter p1 to the third parameter p3 and the second weighting factor related to the walking posture (for example, the processor 32 that executes the processing of step S3005)
  • An information processing apparatus comprising:
  • the third aspect it is possible to obtain the second score S2 regarding the body composition of the subject by using the first to third parameters and the second weighting factor regarding the walking posture having a correlation with the body composition. it can.
  • the fourth aspect of the present embodiment is Means for calculating a third score S3 relating to motion control of the subject using the first parameter p1 to the third parameter p3 and the third weighting factor relating to walking technology (for example, the processor 32 that executes the processing of step S3006)
  • An information processing apparatus comprising:
  • the fourth aspect it is possible to obtain the third score S3 relating to the motion control of the subject by using the first parameter to the third parameter and the second weighting factor relating to the walking technique having a correlation with the motion control. it can.
  • the fifth aspect of the present embodiment is It is an information processor provided with a means (for example, processor 32 which performs processing of Step S304) which presents at least one of a calculated score.
  • the user can be made to recognize the score.
  • the sixth aspect of the present embodiment is It is an information processing apparatus provided with a means (for example, processor 32 which performs processing of Step S304) which presents solution information according to at least one of a calculated score.
  • a means for example, processor 32 which performs processing of Step S304
  • the seventh aspect of the present embodiment is The solution information is an information processing apparatus including an appropriate lifestyle and advice on at least one of appropriate products.
  • the seventh aspect it is possible to provide the user with useful lifestyles and useful information about at least one of the proper products.
  • the eighth aspect of the present embodiment is A unit (for example, the storage device 31) for associating and storing subject attribute information relating to the attribute of a subject and a calculation formula (Expression 4) of the score Sm of the beauty of movement;
  • the acquiring means further acquires subject attribute information of the subject,
  • the means for calculating is an information processing apparatus that calculates the beauty score Sm of the movement using a calculation formula associated with the acquired subject attribute information.
  • the eighth aspect since the calculation formula corresponding to the attribute of the subject is used, it is possible to obtain a highly accurate score in which the attribute of the subject is considered.
  • the ninth aspect of the present embodiment is The information processing apparatus is provided with means (for example, a processor 32 that executes the process of step S301) that associates and stores subject identification information for identifying a subject, and at least one of the calculated scores.
  • means for example, a processor 32 that executes the process of step S301
  • a log of the score can be stored.
  • a tenth aspect of the present embodiment is a program for causing a computer (for example, the processor 32) to function as the above-described means.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • Each step of the above information processing can be executed by either the client device 10 or the server 30.
  • the server 30 that executes the information processing (FIG. 9) based on the moving image data acquired by the client device 10 in step S100 has been shown.
  • the server 30 of the present embodiment may execute information processing (FIG. 9) based on the moving image data stored in the storage device 31. In this case, step S100 is omitted.
  • the posture parameter includes at least one of the anteversion angle of the cervical spine with respect to the perpendicular, the anteversion angle of the trunk with respect to the perpendicular, the anteversion angle of the pelvis with respect to the horizon, and the anteversion angle of the entire body with respect to the perpendicular.
  • An example is shown.
  • the posture parameter of the present embodiment is not limited to this.
  • the posture parameter may include at least one of the following. ⁇ Angle of hip joint (at least one of movable angle and flexion angle) ⁇ Knee angle (at least one of movable angle and flexion angle) ⁇ Stride
  • Information processing system 10 Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Camera 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

被写体の動きの美しさを評価する情報処理装置は、歩行している被写体の動画像を取得する手段を備え、動画像を解析することにより、歩行速度と、歩行姿勢と、動き周波数と、を抽出する手段を備え、歩行速度と美しさとの相関に基づいて、第1パラメータを計算する手段を備え、歩行姿勢と美しさとの相関に基づいて、第2パラメータを計算する手段を備え、動き周波数と美しさとの相関に基づいて、第3パラメータを計算する手段を備え、第1パラメータ~第3パラメータを用いて、動きの美しさに関する指標である動きの美しさのスコアを計算する手段を備える。

Description

情報処理装置、プログラム
 本発明は、情報処理装置及びプログラムに関する。
 歩行動作と人体の特性との間には相関があることが知られている。つまり、歩行動作を見れば、人体の特性を知ることができる。例えば、特開2017-6305号公報には、歩行状態を示す歩行パラメータに基づいて、対象者の体力を評価する技術が開示されている。
 近年の研究により、人間の歩行動作と、人間の動きの美しさとの間にも相関があることが分かってきた。
 しかし、特開2017-6305号公報の技術では、体力を評価するものに過ぎないので、動きの美しさを評価することはできない。
 つまり、従来技術では、歩行動作から動きの美しさを評価することはできない。
 本発明の目的は、歩行動作から動きの美しさを評価することである。
 本発明の一態様は、
 被写体の動きの美しさを評価する情報処理装置であって、
 歩行している被写体の動画像を取得する手段を備え、
 前記動画像を解析することにより、歩行速度と、歩行姿勢と、動き周波数と、を抽出する手段を備え、
 前記歩行速度と美しさとの相関に基づいて、第1パラメータを計算する手段を備え、
 前記歩行姿勢と美しさとの相関に基づいて、第2パラメータを計算する手段を備え、
 前記動き周波数と美しさとの相関に基づいて、第3パラメータを計算する手段を備え、
 前記第1パラメータ~前記第3パラメータを用いて、前記動きの美しさのスコアを計算する手段を備える、情報処理装置である。
 本発明によれば、歩行動作から動きの美しさを評価することができる。
本実施形態の情報処理システムの概略図である。 図1の情報処理システムの構成を示すブロック図である。 本実施形態の概要の説明図である。 本実施形態の被写体情報データベースのデータ構造を示す図である。 本実施形態の計算式マスタデータベースのデータ構造を示す図である。 本実施形態の評価マスタデータベースのデータ構造を示す図である。 本実施形態のソリューションマスタデータベースのデータ構造を示す図である。 本実施形態のスコアログ情報データベースのデータ構造を示す図である。 実施形態の情報処理のシーケンス図である。 図9の情報処理において表示される画面例を示す図である。 図9のスコア計算の詳細なフローチャートである。
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
 情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。
 図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、を備える。
 クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
(1-1)クライアント装置の構成
 クライアント装置10の構成について説明する。
 図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
 入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
 カメラ15は、動画像を撮像し、且つ、撮像した動画像(以下「撮像動画像」という)の動画データを生成するように構成される。カメラ15は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。
(1-2)サーバの構成
 サーバ30の構成について説明する。
 図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(2)本実施形態の概要
 本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
 図3に示すように、クライアント装置10は、歩行中の被写体OBJの動画像を撮像し、且つ、撮像動画像の動画データを生成する。
 クライアント装置10は、動画データをサーバ30に送信する。
 サーバ30は、クライアント装置10から送信された動画データに対して画像解析を実行することにより、動きの美しさのスコアを計算する。
 このように、本実施形態のサーバ30は、歩行中の被写体OBJの動画像から、被写体OBJの動きの美しさを評価する。これにより、歩行の様子を撮影するだけで、被写体OBJの動きの美しさの評価指標を得ることができる。
(3)データベース
 本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-1)被写体情報データベース
 本実施形態の被写体情報データベースについて説明する。図4は、本実施形態の被写体情報データベースのデータ構造を示す図である。
 図4の被写体情報データベースには、被写体に関する被写体情報が格納される。
 被写体情報データベースは、「被写体ID」フィールドと、「被写体名」フィールドと、「被写体属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「被写体ID」フィールドには、被写体OBJを識別する被写体IDが格納される。被写体IDは、サーバ30によって任意に決められる。
 「被写体名」フィールドには、被写体OBJの名称に関する情報(例えば、テキスト)が格納される。
 「被写体属性」フィールドには、被写体OBJの属性に関する被写体属性情報が格納される。「被写体属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
 「性別」フィールドには、被写体OBJの性別に関する情報が格納される。
 「年齢」フィールドには、被写体OBJの年齢に関する情報が格納される。
 「職業」フィールドには、被写体OBJの職業に関する情報が格納される。
(3-2)計算式マスタデータベース
 本実施形態の計算式マスタデータベースについて説明する。図5は、本実施形態の計算式マスタデータベースのデータ構造を示す図である。
 図5の計算式マスタデータベースには、被写体属性情報に応じた計算式が格納される。
 計算式マスタデータベースは、「被写体属性」フィールドと、「計算式」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「被写体属性」フィールドは、図4の「被写体属性」フィールドと同様である。
 「計算式」フィールドには、速さスコアS1(「第1スコア」の一例)を計算するための第1計算式(式1)と、姿勢スコアS2(「第2スコア」の一例)を計算するための第2計算式(式2)と、技術スコアS3(「第3スコア」の一例)を計算するための第3計算式(式3)と、動きの美しさのスコアSmを計算するための第4計算式(式4)と、が格納される。
 式1は、第1計算式の一例である。係数w11~w13は、被写体属性情報に応じて決まる。係数w11は、係数w12及びw13より大きい。一般に、歩行速度は心理状態に依存することが知られている。心理状態は、例えば、ストレスレベル、又は、笑顔の時の口角の動きの計測値、若しくは、当該計測値によって評価される状態に反映される。係数w11は、係数w12及びw13より大きいので、速さスコアS1は、「被写体の心理状態に関するスコア」とも言える。速さスコアS1が大きいほど、ネガティブな心理状態(例えば、落ち込んでいる状態)を表す。
Figure JPOXMLDOC01-appb-M000001
・p1…被写体の歩行速度に関する第1パラメータ
・w11…速さスコアS1を算出するための歩行速度に関する第1重み付け係数
・p2…被写体の歩行姿勢に関する第2パラメータ
・w12…速さスコアS1を算出するための歩行姿勢に関する第2重み付け係数
・p3…被写体の歩行技術に関する第3パラメータ
・w13…速さスコアS1を算出するための歩行技術に関する第3重み付け係数
 式2は、第2計算式の一例である。係数w21~w23は、被写体属性情報に応じて決まる。係数w22は、係数w21及びw23より大きい。一般に、歩行姿勢は体組成に依存することが知られている。体組成は、例えば、体脂肪率の計測値、又は、当該計測値によって評価される状態に反映される。係数w22は、係数w21及びw23より大きいので、姿勢スコアS2は、「被写体の体組成に関するスコア」とも言える。姿勢スコアS2が大きいほど、ネガティブな体組成(例えば、脂肪が平均以上である状態)を表す。
Figure JPOXMLDOC01-appb-M000002
・w21…姿勢スコアS2を算出するための歩行速度に関する第1重み付け係数
・w22…姿勢スコアS2を算出するための歩行姿勢に関する第2重み付け係数
・w23…姿勢スコアS2を算出するための歩行技術に関する第3重み付け係数
 式3は、第3計算式の一例である。係数w31~w33は、被写体属性情報に応じて決まる。係数w33は、係数w31及びw32より大きい。一般に、歩行技術は、運動制御に依存することが知られている。運動制御は、例えば、骨格筋指数の計測値、又は、当該計測値によって評価される状態に反映される。係数w33は、係数w31及びw32より大きいので、技術スコアS3は、「被写体の運動制御に関するスコア」とも言える。技術スコアS3が大きいほど、ネガティブな運動制御(例えば、運動のリズムが一定しない状態)を表す。
Figure JPOXMLDOC01-appb-M000003
・w31…技術スコアS3を算出するための歩行速度に関する第1重み付け係数
・w32…技術スコアS3を算出するための歩行姿勢に関する第2重み付け係数
・w33…技術スコアS3を算出するための歩行技術に関する第3重み付け係数
 式4は、第4計算式の一例である。係数wm1~wm3は、被写体属性情報に応じて決まる。
Figure JPOXMLDOC01-appb-M000004
・wm1…動きの美しさのスコアSmを算出するための歩行速度に関する第1重み付け係数
・wm2…動きの美しさのスコアSmを算出するための歩行姿勢に関する第2重み付け係数
・wm3…動きの美しさのスコアSmを算出するための歩行技術に関する第3重み付け係数
(3-3)評価マスタデータベース
 本実施形態のマスタデータベースについて説明する。図6は、本実施形態の評価マスタデータベースのデータ構造を示す図である。
 図6の評価マスタデータベースには、スコアに応じた評価に関する情報が格納される。
 評価マスタデータベースは、「スコア」フィールドと、「評価」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「評価」フィールドには、速さスコア、姿勢スコア、及び、技術スコアのそれぞれに応じた評価を示す評価メッセージが格納される。
(3-4)ソリューションマスタデータベース
 本実施形態のソリューションマスタデータベースについて説明する。図7は、本実施形態のソリューションマスタデータベースのデータ構造を示す図である。
 図7のソリューションマスタデータベースには、スコアに応じたソリューション情報が格納される。
 ソリューションマスタデータベースは、「スコア」フィールドと、「ソリューション」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「ソリューション」フィールドには、動きの美しさのスコア、速さスコア、姿勢スコア、及び、技術スコアの組合せに応じたソリューション情報が格納される。
 「ソリューション」フィールドは、「アドバイス」フィールドと、「推奨商品」フィールドと、を含む。
 「アドバイス」フィールドには、生活習慣に関するアドバイスを示すアドバイスメッセージが格納される。生活習慣は、例えば、以下を含む。
・運動
・食事
・睡眠
 「推奨商品」フィールドには、商品に関する商品情報(例えば、商品名、商品を購入するためのウェブサイトのURL(Uniform Resource Locator)、又は、それらの組合せ)が格納される。商品は、例えば、以下を含む。
・化粧品
・運動器具
・食品
・サプリメント
(3-5)スコアログ情報データベース
 本実施形態のスコアログ情報データベースについて説明する。図8は、本実施形態のスコアログ情報データベースのデータ構造を示す図である。
 図8のスコアログ情報データベースには、スコアログ情報が格納される。
 スコアログ情報データベースは、「スコアログID」フィールドと、「日付」フィールドと、「スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 スコアログ情報データベースは、被写体IDに関連付けられる。
 「スコアログID」フィールドには、スコアログを識別するスコアログIDが格納される。スコアログIDは、サーバ30によって任意に決められる。
 「日付」フィールドには、スコアログが取得された日付に関する情報が格納される。
 「スコア」フィールドは、「速さスコア」フィールドと、「姿勢スコア」フィールドと、「技術スコア」フィールドと、「動きの美しさのスコア」フィールドと、を含む。
 「速さ」フィールドには、速さスコアが格納される。
 「姿勢スコア」フィールドには、姿勢スコアが格納される。
 「技術スコア」フィールドには、技術スコアが格納される。
 「動きの美しさのスコア」フィールドには、動きの美しさのスコアが格納される。
(4)情報処理
 本実施形態の情報処理について説明する。図9は、実施形態の情報処理のシーケンス図である。図10は、図9の情報処理において表示される画面例を示す図である。図11は、図9のスコア計算の詳細なフローチャートである。
 図9に示すように、クライアント装置10は、動画像の取得(S100)を実行する。
 具体的には、プロセッサ12は、画面P100(図11)をディスプレイに表示する。
 図9に示すように、画面P100は、ボタンオブジェクトB100a~B100bと、入力フィールドオブジェクトF100と、画像オブジェクトIMG100と、を含む。
 入力フィールドオブジェクトF100は、被写体OBJの被写体IDの入力を受け付けるオブジェクトである。
 ボタンオブジェクトB100aは、動画の録画のためのユーザ指示を受け付けるオブジェクトである。
 ボタンオブジェクトB100bは、動きの美しさの評価を要求するためのユーザ指示を受け付けるオブジェクトである。
 画像オブジェクトIMG100は、カメラ15によって撮影された動画像に対応する。
 クライアント装置10のユーザがボタンオブジェクトB100aを操作すると、プロセッサ12は、カメラ15を起動させる。
 カメラ15は、歩行中の被写体OBJの動画像を撮影し、且つ、撮影した動画像の動画データを生成する。
 ステップS100の後、クライアント装置10は、評価リクエスト(S101)を実行する。
 具体的には、ユーザがボタンオブジェクトB100b(図9)を操作すると、プロセッサ12は、評価リクエストデータをサーバ30に送信する。
 評価リクエストデータは、以下の情報を含む。
・被写体ID
・ステップS100で生成された動画データ
・ステップS101の実行日に関する情報
 ステップS101の後、サーバ30は、評価リクエストデータに含まれる動画データに基づいて、スコアの計算(S300)を実行する。
 図11を参照して、ステップS300について説明する。
 図11に示すように、サーバ30は、速さパラメータの計算(S3000)を実行する。
 具体的には、プロセッサ32は、評価リクエストデータに含まれる動画データに対して特徴量解析を実行することにより、歩行速度との相関が強い部位(例えば、足)の画素(以下「第1参照画素」という)を特定する。
 プロセッサ12は、動画データを構成する複数フレームにおける第1参照画素の座標の変化量を計算する。この変化量が、歩行速度に関する速さパラメータである。
 ステップS3000の後、サーバ30は、姿勢パラメータの計算(S3001)を実行する。
 具体的には、プロセッサ32は、評価リクエストデータに含まれる動画データに対して特徴量解析を実行することにより、歩行姿勢との相関が強い部位(例えば、脊椎、体幹、骨盤、及び、体全体の少なくとも1つ)の画素(以下「第2参照画素」という)を特定する。
 プロセッサ32は、第2参照画素を参照して、当該部位の前傾角度を計算する。この前傾角度が、歩行姿勢に関する姿勢パラメータである。
 前傾角度は、以下の少なくとも1つの角度を含む。
・垂線に対する頚椎の前傾角度
・垂線に対する体幹部の前傾角度
・水平線に対する骨盤の前後傾角度
・垂線に対する体全体の前傾角度
・股関節の角度(例えば、可動角度及び屈曲角度の少なくとも1つ)
・足関節の角度(例えば、可動角度及び屈曲角度の少なくとも1つ)
 ステップS3001の後、サーバ30は、技術パラメータの計算(S3002)を実行する。
 具体的には、プロセッサ32は、評価リクエストデータに含まれる動画データに対して特徴量解析を実行することにより、歩行動作との相関が強い部位(例えば、体全体)の画素(以下「第3参照画素」という)を特定する。
 プロセッサ32は、動画データを構成する複数フレームにおける第3参照画素の変位の周波数(以下「動き周波数」という)を計算する。この動き周波数は、歩行技術(特に、歩行の滑らかさ)に関する技術パラメータである。
 ステップS3002の後、サーバ30は、計算式の決定(S3003)を実行する。
 具体的には、プロセッサ32は、被写体情報マスタデーベース(図4)を参照して、評価リクエストデータに含まれる被写体IDに関連付けられた被写体属性情報を特定する。
 プロセッサ32は、計算式マスタデーベース(図5)を参照して、特定した被写体属性情報に関連付けられた計算式(第1計算式~第4計算式)を特定する。
 ステップS3003の後、サーバ30は、速さスコアの計算(S3004)を実行する。
 具体的には、プロセッサ32は、ステップS3003で特定された第1計算式(式1)に、ステップS3000~S3002で計算されたパラメータ(速さパラメータp1、姿勢パラメータp2、及び、技術パラメータp3)を適用することにより、速さスコアS1を計算する。
 ステップS3004の後、サーバ30は、姿勢スコアの計算(S3005)を実行する。
 具体的には、プロセッサ32は、ステップS3003で特定された第2計算式(式2)に、ステップS3000~S3002で計算されたパラメータ(速さパラメータp1、姿勢パラメータp2、及び、技術パラメータp3)を適用することにより、姿勢スコアS2を計算する。
 ステップS3005の後、サーバ30は、技術スコアの計算(S3006)を実行する。
 具体的には、プロセッサ32は、ステップS3003で特定された第3計算式(式3)に、ステップS3000~S3002で計算されたパラメータ(速さパラメータp1、姿勢パラメータp2、及び、技術パラメータp3)を適用することにより、技術スコアS3を計算する。
 ステップS3006の後、サーバ30は、動きの美しさのスコアの計算(S3007)を実行する。
 具体的には、プロセッサ32は、ステップS3003で特定された第4計算式(式4)に、ステップS3004~S3006で計算されたスコア(速さスコアS1、姿勢スコアS2、及び、技術スコアS3)を適用することにより、動きの美しさのスコアSmを計算する。
 図9に示すように、ステップS300の後、サーバ30は、データベースの更新(S301)を実行する。
 具体的には、プロセッサ32は、評価リクエストデータに含まれる被写体IDに関連付けられた評価ログ情報データベース(図8)に新規レコードを追加する。
 プロセッサ32は、新規レコードの各フィールドに、以下の情報を格納する。
・「スコアログID」フィールドには、新規スコアログIDが格納される。
・「日付」フィールドには、評価リクエストデータに含まれる実行日に関する情報が格納される。
・「速さスコア」フィールドには、ステップS3004で計算された速さスコアS1が格納される。
・「姿勢スコア」フィールドには、ステップS3005で計算された姿勢スコアS2が格納される。
・「技術スコア」フィールドには、ステップS3006で計算された技術スコアS3が格納される。
・「モーションビューティスコア」フィールドには、ステップS3007で計算された動きの美しさのスコアSmが格納される。
 ステップS301の後、サーバ30は、評価(S302)を実行する。
 具体的には、プロセッサ32は、評価マスタデータベース(図6)を参照して、ステップS3004~S3007で計算された各スコアに関連付けられた「評価」フィールドに格納された情報(評価メッセージ)を特定する。
 ステップS302の後、サーバ30は、ソリューション情報の特定(S303)を実行する。
 具体的には、プロセッサ32は、ソリューションマスタデータベース(図7)を参照して、ステップS3004~S3007で計算された各スコアに関連付けられた「ソリューション」フィールドに格納された情報(アドバイスメッセージ、及び、商品情報)を特定する。
 ステップS303の後、サーバ30は、評価レスポンス(S304)を実行する。
 具体的には、プロセッサ32は、評価レスポンスデータをクライアント装置10に送信する。
 評価レスポンスデータは、以下の情報を含む。
・ステップS300で得られたスコア(速さスコアS1、姿勢スコアS2、技術スコアS3、及び、動きの美しさのスコアSm)
・ステップS302で特定された評価メッセージ
・ステップS303で特定されたソリューション情報(アドバイスメッセージ、及び、商品情報)
 ステップS304の後、クライアント装置10は、画面表示(S102)を実行する。
 具体的には、プロセッサ12は、評価レスポンスデータに基づく画面P102(図10)をディスプレイに表示する。
 図10に示すように、画面P102は、表示オブジェクトA101a~A101bを含む。
 表示オブジェクトA101aは、評価レスポンスデータに含まれるアドバイスメッセージを含む。
 表示オブジェクトA101bは、評価レスポンスデータに含まれるソリューション情報を含む。
 本実施形態によれば、動画像に含まれる特定の部位(具体的には、歩行速度、歩行姿勢、及び、歩行技術との相関が強い部位)から抽出されたパラメータを用いて、動きの美しさのスコアSmを計算する。これにより、歩行動作から動きの美しさを評価することができる。
(5)本実施形態の小括
 本実施形態について小括する。
 本実施形態の第1態様は、
 被写体の動きの美しさを評価する情報処理装置(例えば、サーバ30)であって、
 歩行している被写体の動画像を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
 動画像を解析することにより、歩行速度と、歩行姿勢と、動き周波数と、を抽出する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
 歩行速度と美しさとの相関に基づいて、第1パラメータp1を計算する手段(例えば、ステップS3000の処理を実行するプロセッサ32)を備え、
 歩行姿勢と美しさとの相関に基づいて、第2パラメータp2を計算する手段(例えば、ステップS3001の処理を実行するプロセッサ32)を備え、
 動き周波数と美しさとの相関に基づいて、第3パラメータp3を計算する手段(例えば、ステップS3002の処理を実行するプロセッサ32)を備え、
 第1パラメータp1~第3パラメータp3を用いて、動きの美しさのスコアSmを計算する手段(例えば、ステップS3007の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第1態様によれば、歩行している被写体の動画像を解析することにより抽出された第1パラメータ~第3パラメータを用いて、動きの美しさのスコアSmを計算する。これにより、歩行動作から動きの美しさを評価することができる。
 本実施形態の第2態様は、
 第1パラメータp1~第3パラメータp3と、歩行速度に関する第1重み付け係数と、を用いて、被写体の心理状態に関する第1スコアS1を計算する手段(例えば、ステップS3004の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第2態様によれば、第1パラメータ~第3パラメータと、心理状態との相関がある歩行速度に関する第1重み付け係数と、を用いることにより、被写体の心理状態に関する第1スコアS1を得ることができる。
 本実施形態の第3態様は、
 第1パラメータp1~第3パラメータp3と、歩行姿勢に関する第2重み付け係数と、を用いて、被写体の体組成に関する第2スコアS2を計算する手段(例えば、ステップS3005の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第3態様によれば、第1パラメータ~第3パラメータと、体組成との相関がある歩行姿勢に関する第2重み付け係数と、を用いることにより、被写体の体組成に関する第2スコアS2を得ることができる。
 本実施形態の第4態様は、
 第1パラメータp1~第3パラメータp3と、歩行技術に関する第3重み付け係数と、を用いて、被写体の運動制御に関する第3スコアS3を計算する手段(例えば、ステップS3006の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第4態様によれば、第1パラメータ~第3パラメータと、運動制御との相関がある歩行技術に関する第2重み付け係数と、を用いることにより、被写体の運動制御に関する第3スコアS3を得ることができる。
 本実施形態の第5態様は、
 計算されたスコアの少なくとも1つを提示する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第5態様によれば、ユーザにスコアを認知させることができる。
 本実施形態の第6態様は、
 計算されたスコアの少なくとも1つに応じたソリューション情報を提示する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第6態様によれば、ユーザにソリューションに有用な情報をユーザに提供することができる。
 本実施形態の第7態様は、
 ソリューション情報は、適切な生活習慣、及び、適切な商品の少なくとも1つに関するアドバイスを含む、情報処理装置である。
 第7態様によれば、適切な生活習慣、及び、適切な商品の少なくとも1つについて有用な情報をユーザに提供することができる。
 本実施形態の第8態様は、
 被写体の属性に関する被写体属性情報と、動きの美しさのスコアSmの計算式(式4)と、を関連付けて記憶する手段(例えば、記憶装置31)を備え、
 取得する手段は、更に、被写体の被写体属性情報を取得し、
 計算する手段は、取得された被写体属性情報に関連付けられた計算式を用いて、動きの美しさのスコアSmを計算する、情報処理装置である。
 第8態様によれば、被写体の属性に応じた計算式を用いるので、被写体の属性が考慮された高精度なスコアを得ることができる。
 本実施形態の第9態様は、
 被写体を識別する被写体識別情報と、計算されたスコアの少なくとも1つと、を関連付けて記憶する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備える、情報処理装置である。
 第9態様によれば、被写体識別情報とスコアとを関連付けて記憶するので、スコアのログを保存することができる。
 本実施形態の第10態様は、コンピュータ(例えば、プロセッサ32)を、上記各手段として機能させるためのプログラムである。
(6)その他の変形例
 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
 上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
 本実施形態では、ステップS100においてクライアント装置10によって取得された動画データに基づいて情報処理(図9)を実行するサーバ30の例を示した。しかし、本実施形態はこれに限られない。
 本実施形態のサーバ30は、記憶装置31に記憶された動画データに基づいて情報処理(図9)を実行してもよい。この場合、ステップS100は省略される。
 本実施形態では、姿勢パラメータが、垂線に対する頚椎の前傾角度、垂線に対する体幹部の前傾角度、水平線に対する骨盤の前後傾角度、及び、垂線に対する体全体の前傾角度の少なくとも1つを含む例を示した。しかし、本実施形態の姿勢パラメータはこれに限られない。
 姿勢パラメータは、以下の少なくとも1つを含んでもよい。
・股関節の角度(可動角度及び屈曲角度の少なくとも1つ)
・膝の角度(可動角度及び屈曲角度の少なくとも1つ)
・歩幅
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1      :情報処理システム
10     :クライアント装置
11     :記憶装置
12     :プロセッサ
13     :入出力インタフェース
14     :通信インタフェース
15     :カメラ
30     :サーバ
31     :記憶装置
32     :プロセッサ
33     :入出力インタフェース
34     :通信インタフェース

 
 

Claims (10)

  1.  被写体の動きの美しさを評価する情報処理装置であって、
     歩行している被写体の動画像を取得する手段を備え、
     前記動画像を解析することにより、歩行速度と、歩行姿勢と、動き周波数と、を抽出する手段を備え、
     前記歩行速度と美しさとの相関に基づいて、第1パラメータを計算する手段を備え、
     前記歩行姿勢と美しさとの相関に基づいて、第2パラメータを計算する手段を備え、
     前記動き周波数と美しさとの相関に基づいて、第3パラメータを計算する手段を備え、
     前記第1パラメータ~前記第3パラメータを用いて、前記動きの美しさのスコアを計算する手段を備える、情報処理装置。
  2.  前記第1パラメータ~前記第3パラメータと、歩行速度に関する第1重み付け係数と、を用いて、前記被写体の心理状態に関する第1スコアを計算する手段を備える、請求項1に記載の情報処理装置。
  3.  前記第1パラメータ~前記第3パラメータと、歩行姿勢に関する第2重み付け係数と、を用いて、前記被写体の体組成に関する第2スコアを計算する手段を備える、請求項1又は2に記載の情報処理装置。
  4.  前記第1パラメータ~前記第3パラメータと、歩行技術に関する第3重み付け係数と、を用いて、前記被写体の運動制御に関する第3スコアを計算する手段を備える、請求項1~3の何れかに記載の情報処理装置。
  5.  前記計算されたスコアの少なくとも1つを提示する手段を備える、請求項1~4の何れかに記載の情報処理装置。
  6.  前記計算されたスコアの少なくとも1つに応じたソリューション情報を提示する手段を備える、請求項1~5の何れかに記載の情報処理装置。
  7.  前記ソリューション情報は、適切な生活習慣、及び、適切な商品の少なくとも1つに関するアドバイスを含む、請求項6に記載の情報処理装置。
  8.  被写体の属性に関する被写体属性情報と、前記動きの美しさのスコアの計算式と、を関連付けて記憶する手段を備え、
     前記取得する手段は、更に、前記被写体の被写体属性情報を取得し、
     前記計算する手段は、前記取得された被写体属性情報に関連付けられた計算式を用いて、前記動きの美しさのスコアを計算する、請求項1~7の何れかに記載の情報処理装置。
  9.  前記被写体を識別する被写体識別情報と、前記計算されたスコアの少なくとも1つと、を関連付けて記憶する手段を備える、請求項1~8の何れかに記載の情報処理装置。
  10.  コンピュータを、請求項1~9の何れかに記載の各手段として機能させるためのプログラム。

     
PCT/JP2018/037557 2017-12-06 2018-10-09 情報処理装置、プログラム WO2019111521A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019558034A JP7162613B2 (ja) 2017-12-06 2018-10-09 情報処理装置、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-233909 2017-12-06
JP2017233909 2017-12-06

Publications (1)

Publication Number Publication Date
WO2019111521A1 true WO2019111521A1 (ja) 2019-06-13

Family

ID=66750994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037557 WO2019111521A1 (ja) 2017-12-06 2018-10-09 情報処理装置、プログラム

Country Status (3)

Country Link
JP (1) JP7162613B2 (ja)
TW (1) TW201926238A (ja)
WO (1) WO2019111521A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078715A (ja) * 2019-11-19 2021-05-27 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム
WO2022030439A1 (ja) * 2020-08-07 2022-02-10 ハイパーダイン株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI740795B (zh) * 2019-11-04 2021-09-21 華南商業銀行股份有限公司 基於人體足態類型之金融商品行銷系統
TWI740794B (zh) * 2019-11-04 2021-09-21 華南商業銀行股份有限公司 基於攝像機及壓力感測器判斷人體足態類型之商品行銷系統
TWI724607B (zh) * 2019-11-04 2021-04-11 華南商業銀行股份有限公司 基於人體足態類型之商品行銷系統

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004358229A (ja) * 2003-04-10 2004-12-24 Matsushita Electric Ind Co Ltd 身体運動解析装置および身体運動解析システム
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置
WO2014181602A1 (ja) * 2013-05-10 2014-11-13 オムロンヘルスケア株式会社 歩行姿勢計およびプログラム
WO2014181603A1 (ja) * 2013-05-10 2014-11-13 オムロンヘルスケア株式会社 歩行姿勢計およびプログラム
JP2015066155A (ja) * 2013-09-27 2015-04-13 花王株式会社 歩行特徴の解析方法
JP2016144598A (ja) * 2015-02-09 2016-08-12 国立大学法人鳥取大学 運動機能診断装置及び方法、並びにプログラム
US20170273616A1 (en) * 2014-08-14 2017-09-28 Wearable Healthcare Inc. System for guiding correction of walking gait and control method thereof
JP2018069035A (ja) * 2016-10-27 2018-05-10 株式会社アシックス 歩行解析システム及び方法
JP2018121930A (ja) * 2017-02-01 2018-08-09 花王株式会社 歩容の評価方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569188B2 (ja) 2000-02-14 2004-09-22 日本電信電話株式会社 ウォーキング判定装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004358229A (ja) * 2003-04-10 2004-12-24 Matsushita Electric Ind Co Ltd 身体運動解析装置および身体運動解析システム
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置
WO2014181602A1 (ja) * 2013-05-10 2014-11-13 オムロンヘルスケア株式会社 歩行姿勢計およびプログラム
WO2014181603A1 (ja) * 2013-05-10 2014-11-13 オムロンヘルスケア株式会社 歩行姿勢計およびプログラム
JP2015066155A (ja) * 2013-09-27 2015-04-13 花王株式会社 歩行特徴の解析方法
US20170273616A1 (en) * 2014-08-14 2017-09-28 Wearable Healthcare Inc. System for guiding correction of walking gait and control method thereof
JP2016144598A (ja) * 2015-02-09 2016-08-12 国立大学法人鳥取大学 運動機能診断装置及び方法、並びにプログラム
JP2018069035A (ja) * 2016-10-27 2018-05-10 株式会社アシックス 歩行解析システム及び方法
JP2018121930A (ja) * 2017-02-01 2018-08-09 花王株式会社 歩容の評価方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078715A (ja) * 2019-11-19 2021-05-27 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム
JP7241004B2 (ja) 2019-11-19 2023-03-16 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム
WO2022030439A1 (ja) * 2020-08-07 2022-02-10 ハイパーダイン株式会社 情報処理装置、情報処理方法及びプログラム
JP2022030683A (ja) * 2020-08-07 2022-02-18 ハイパーダイン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7162613B2 (ja) 2022-10-28
JPWO2019111521A1 (ja) 2020-12-03
TW201926238A (zh) 2019-07-01

Similar Documents

Publication Publication Date Title
WO2019111521A1 (ja) 情報処理装置、プログラム
Andersen et al. A computationally efficient optimisation-based method for parameter identification of kinematically determinate and over-determinate biomechanical systems
Bonnechere et al. Determination of the precision and accuracy of morphological measurements using the Kinect™ sensor: comparison with standard stereophotogrammetry
Eskofier et al. Marker-based classification of young–elderly gait pattern differences via direct PCA feature extraction and SVMs
Skals et al. A musculoskeletal model driven by dual Microsoft Kinect Sensor data
Eltoukhy et al. Validation of the Microsoft Kinect® camera system for measurement of lower extremity jump landing and squatting kinematics
US11403882B2 (en) Scoring metric for physical activity performance and tracking
JP2008242963A (ja) 健康分析表示方法及び健康分析表示装置
JP2021026527A (ja) 情報処理装置及びプログラム
Wang et al. The accuracy of a 2D video-based lifting monitor
JP2019175321A (ja) 画像評価装置、画像評価方法及びコンピュータプログラム
Liu et al. Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures
Cort et al. Accuracy of postures predicted using a digital human model during four manual exertion tasks, and implications for ergonomic assessments
Mullineaux et al. Error and anomaly detection for intra-participant time-series data
Li et al. MOPED25: A multimodal dataset of full-body pose and motion in occupational tasks
Young et al. Internet-of-Things-Enabled Markerless Running Gait Assessment from a Single Smartphone Camera
Chen et al. The accuracy of conventional 2D video for quantifying upper limb kinematics in repetitive motion occupational tasks
Su et al. Machine learning approach to determine the decision rules in ergonomic assessment of working posture in sewing machine operators
JP2018082766A (ja) 診断装置、診断方法、プログラム
JP2023056010A (ja) 情報処理装置、クライアント装置、及び、プログラム
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
Nahavandi et al. A low cost anthropometric body scanning system using depth cameras
Geßler et al. openTSST–An Open Web Platform for Large-Scale, Video-Based Motion Analysis During Acute Psychosocial Stress
Egeonu et al. A systematic literature review of computer vision-based biomechanical models for physical workload estimation
Alvarado-Rodríguez et al. Biomark: A Toolbox for Visualization and Kinematic Gait Analysis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18886747

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019558034

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18886747

Country of ref document: EP

Kind code of ref document: A1