JP7454326B1 - Condition evaluation method, condition evaluation system and condition evaluation program - Google Patents

Condition evaluation method, condition evaluation system and condition evaluation program Download PDF

Info

Publication number
JP7454326B1
JP7454326B1 JP2023104773A JP2023104773A JP7454326B1 JP 7454326 B1 JP7454326 B1 JP 7454326B1 JP 2023104773 A JP2023104773 A JP 2023104773A JP 2023104773 A JP2023104773 A JP 2023104773A JP 7454326 B1 JP7454326 B1 JP 7454326B1
Authority
JP
Japan
Prior art keywords
subject
standing
sitting
evaluation
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023104773A
Other languages
Japanese (ja)
Inventor
興明 蛭田
正春 酒向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2023104773A priority Critical patent/JP7454326B1/en
Application granted granted Critical
Publication of JP7454326B1 publication Critical patent/JP7454326B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】 対象者の立ち座り動画から対象者の状態を評価する。【解決手段】一実施形態に係る状態評価方法は、状態評価システムが実行する状態評価方法であって、対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、を含む。【選択図】図8[Problem] Evaluate the condition of a subject from a video of the subject standing and sitting. A state evaluation method according to an embodiment is a state evaluation method executed by a state evaluation system, and includes an acquisition step of obtaining a standing and sitting video of a subject standing and sitting from the side of the subject. and an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video, and an evaluation step of evaluating the condition of the subject based on the plurality of feature points. [Selection diagram] Figure 8

Description

本発明は、状態評価方法、状態評価システム及び状態評価プログラムに関する。 The present invention relates to a condition evaluation method, a condition evaluation system, and a condition evaluation program.

高齢者の健康状態を評価する方法として、立ち座りを繰り返し行う方法が知られている。この方法では、所定回数の立ち座りに要した時間を測定することにより、高齢者の健康状態を評価するのが一般的である。 A known method for evaluating the health status of elderly people is to repeatedly sit and stand. In this method, the health condition of an elderly person is generally evaluated by measuring the time it takes to stand up and sit down a predetermined number of times.

一方で、近年、対象者の動作を撮影した動画をAIで解析し、動作の良し悪しや対象者の状態を評価する技術が開発されている。例えば、引用文献1には、対象者の立位体前屈を撮影した動画から、立位体前屈の良し悪しを評価する技術が開示されている。 On the other hand, in recent years, technology has been developed that uses AI to analyze videos of a subject's movements and evaluate the quality of the movements and the condition of the subject. For example, Cited Document 1 discloses a technique for evaluating the quality of a subject's standing body forward bending based on a video of the subject's standing body bending.

特開2023-72656号公報JP2023-72656A

高齢者の立ち座りの動画から、高齢者の健康状態を評価する技術の開発が望まれている。 There is a desire to develop technology that can evaluate the health status of elderly people based on videos of them standing and sitting.

本発明は、上記の課題を鑑みてなされたものであり、対象者の立ち座り動画から対象者の状態を評価することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to evaluate the condition of a subject based on videos of the subject standing and sitting.

一実施形態に係る状態評価方法は、状態評価システムが実行する状態評価方法であって、対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、を含む。 A condition evaluation method according to one embodiment is a condition evaluation method executed by a condition evaluation system, and includes an acquisition step of acquiring a standing and sitting video of a subject standing and sitting from the side of the subject; The method includes an extraction step of extracting a plurality of feature points of the subject from a sitting video, and an evaluation step of evaluating the condition of the subject based on the plurality of feature points.

一実施形態によれば、対象者の立ち座り動画から対象者の状態を評価することができる。 According to one embodiment, the condition of the subject can be evaluated from a video of the subject standing and sitting.

状態評価システム1000の構成の一例を示す図である。1 is a diagram showing an example of the configuration of a condition evaluation system 1000. FIG. 状態評価装置1のハードウェア構成の一例を示す図である。1 is a diagram showing an example of a hardware configuration of a condition evaluation device 1. FIG. ユーザ端末2のハードウェア構成の一例を示す図である。2 is a diagram showing an example of a hardware configuration of a user terminal 2. FIG. 状態評価装置1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of a condition evaluation device 1. FIG. ユーザ端末2の機能構成の一例を示す図である。2 is a diagram showing an example of a functional configuration of a user terminal 2. FIG. 状態評価システム1000が実行する処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing executed by the condition evaluation system 1000. 立ち座り動画121を模式的に示す図である。It is a figure which shows the standing-and-sitting animation 121 typically. 立ち座り動画121から抽出される特徴点pの一例を示す図である。It is a figure which shows an example of the feature point p extracted from the standing-and-sitting video 121. 立位の安定性の評価方法の一例を示すフローチャートである。1 is a flowchart showing an example of a method for evaluating stability in a standing position. 立位時の体の傾きaを説明する図である。It is a figure explaining the inclination a of a body at the time of a standing position. 立位の姿勢の評価方法の一例を示すフローチャートである。3 is a flowchart illustrating an example of a method for evaluating standing posture. 立位時の股関節の伸びeを説明する図である。It is a figure explaining the extension e of the hip joint in a standing position. 着座時の圧迫骨折リスクの評価方法の一例を示すフローチャートである。It is a flowchart which shows an example of the evaluation method of the compression fracture risk when sitting. 補助具Aの一例を示す図である。It is a figure showing an example of auxiliary tool A. 評価結果表示画面scの一例を示す図である。It is a figure which shows an example of evaluation result display screen sc.

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment of the present invention will be described with reference to the accompanying drawings. Note that in the descriptions of the specifications and drawings related to each embodiment, the same reference numerals are given to the constituent elements having substantially the same functional configuration to omit redundant explanation.

<システム構成>
まず、本実施形態に係る状態評価システム1000の概要について説明する。状態評価システム1000は、対象者の立ち座りを対象者の側方から撮影した立ち座り動画から、対象者の状態を評価する情報処理システムである。
<System configuration>
First, an overview of the condition evaluation system 1000 according to this embodiment will be explained. The condition evaluation system 1000 is an information processing system that evaluates the condition of a subject based on a video of the subject standing and sitting taken from the side of the subject.

対象者は、状態の評価対象となる人であり、例えば、高齢者である。 The subject is a person whose condition is to be evaluated, for example, an elderly person.

立ち座りは、椅子に座った対象者が、椅子から立ち上がった後、再び椅子に座るまでの一連の動作である。 Standing up and sitting down is a series of movements in which a subject sitting on a chair stands up from the chair and then sits down on the chair again.

側方は、椅子に座った対象者の右側方又は左側方である。 The lateral side is the right side or left side of the subject sitting on the chair.

対象者の状態は、対象者の立位の安定性、対象者の筋力、対象者の立位の姿勢及び対象者の着座時の圧迫骨折リスクを含む。圧迫骨折とは、上下方向から力が加わることによる背骨の骨折のことである。これらの状態は、対象者のADL(Activities of Daily Living)を評価するための指標として有効である。 The condition of the subject includes the stability of the subject's standing position, the subject's muscular strength, the subject's standing posture, and the risk of compression fracture when the subject is seated. A compression fracture is a fracture of the spine caused by force applied from above and below. These conditions are effective as indicators for evaluating the subject's ADL (Activities of Daily Living).

図1は、状態評価システム1000の構成の一例を示す図である。図1に示すように、状態評価システム1000は、ネットワークNを介して相互に通信可能に接続された、状態評価装置1と、ユーザ端末2と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。図1の例では、状態評価システム1000は、状態評価装置1及びユーザ端末2をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。 FIG. 1 is a diagram showing an example of the configuration of a condition evaluation system 1000. As shown in FIG. 1, the condition evaluation system 1000 includes a condition evaluation device 1 and a user terminal 2, which are communicably connected to each other via a network N. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination thereof. In the example of FIG. 1, the condition evaluation system 1000 includes one condition evaluation device 1 and one user terminal 2, but may include a plurality of each.

状態評価装置1は、対象者の立ち座り動画に基づいて、対象者の状態を評価する情報処理装置である。状態評価装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。状態評価装置1について、詳しくは後述する。 The condition evaluation device 1 is an information processing device that evaluates the condition of a subject based on videos of the subject standing and sitting. The state evaluation device 1 is, for example, a PC (Personal Computer), a smartphone, a tablet terminal, a server device, or a microcomputer, but is not limited thereto. The condition evaluation device 1 will be described in detail later.

ユーザ端末2は、状態評価システム1000のユーザが利用する情報処理装置である。以下では、ユーザが、立ち座り動画を撮影し、その立ち座り動画に基づく評価結果を取得する場合を想定するが、評価結果を取得するユーザと、立ち座り動画を撮影する撮影者と、は異なる人であってもよい。ユーザ端末2は、例えば、PC、スマートフォン又はタブレット端末であるが、これに限られない。 The user terminal 2 is an information processing device used by a user of the condition evaluation system 1000. In the following, it is assumed that a user shoots a standing video and obtains an evaluation result based on the standing video, but the user who obtains the evaluation result and the photographer who shoots the standing video are different. It can be a person. The user terminal 2 is, for example, a PC, a smartphone, or a tablet terminal, but is not limited thereto.

<状態評価装置1のハードウェア構成>
次に、状態評価装置1のハードウェア構成について説明する。図2は、状態評価装置1のハードウェア構成の一例を示す図である。図2に示すように、状態評価装置1は、バスB1を介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入力装置105と、出力装置106と、ドライブ装置107と、を備える。
<Hardware configuration of condition evaluation device 1>
Next, the hardware configuration of the condition evaluation device 1 will be explained. FIG. 2 is a diagram showing an example of the hardware configuration of the condition evaluation device 1. As shown in FIG. 2, the state evaluation device 1 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input device 105, and an output device 106, which are interconnected via a bus B1. and a drive device 107.

プロセッサ101は、ストレージ103に記憶されたOS(Operating System)及び状態評価プログラムを含む各種のプログラムをメモリ102に展開して実行することにより、状態評価装置1の各構成を制御し、状態評価装置1の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)又はDSP(Digital Signal Processor)であるが、これに限られない。 The processor 101 controls each configuration of the condition evaluation device 1 by expanding various programs including the OS (Operating System) and the condition evaluation program stored in the storage 103 into the memory 102 and executing them. Achieve function 1. The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or a DSP (Digital Signal Processor), but is not limited thereto. .

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)又はSRAM(Static RAM)であるが、これに限られない。 The memory 102 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or a combination thereof. The ROM is, for example, a PROM (Programmable ROM), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), or a combination thereof. The RAM is, for example, DRAM (Dynamic RAM) or SRAM (Static RAM), but is not limited thereto.

ストレージ103は、OS及び状態評価プログラムを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はSCM(Storage Class Memories)であるが、これに限られない。 The storage 103 stores various programs and data including an OS and a status evaluation program. The storage 103 is, for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an SCM (Storage Class Memories), but is not limited thereto.

通信I/F104は、状態評価装置1を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。 The communication I/F 104 is an interface for connecting the state evaluation device 1 to an external device via the network N and controlling communication. The communication I/F 104 is, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or Ethernet (registered trademark), but is not limited thereto.

入力装置105は、状態評価装置1に情報を入力するための装置である。入力装置105は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。 The input device 105 is a device for inputting information to the condition evaluation device 1. The input device 105 is, for example, a mouse, a keyboard, a touch panel, a microphone, a scanner, a photographing device (camera), various sensors, or an operation button, but is not limited thereto.

出力装置106は、状態評価装置1から情報を出力するための装置である。出力装置106は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。 The output device 106 is a device for outputting information from the condition evaluation device 1. The output device 106 is, for example, a display, a projector, a printer, a speaker, or a vibrator, but is not limited thereto.

ドライブ装置107は、記録メディア108のデータを読み書きする装置である。ドライブ装置107は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア108は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disc)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ又はSDカードであるが、これに限られない。 The drive device 107 is a device that reads and writes data on the recording medium 108. The drive device 107 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader, but is not limited thereto. The recording medium 108 is, for example, a CD (Compact Disc), a DVD (Digital Versatile Disc), an FD (Floppy Disc), an MO (Magneto-Optical disk), a BD (Blu-ray (registered trademark) Disc), or a USB (registered trademark). ) memory or SD card, but is not limited to this.

なお、本実施形態において、状態評価プログラムは、状態評価装置1の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して状態評価装置1に提供されてもよいし、記録メディア108などの非一時的でコンピュータ読み取り可能な記録媒体を介して状態評価装置1に提供されてもよい。 In this embodiment, the condition evaluation program may be written into the memory 102 or the storage 103 at the manufacturing stage of the condition evaluation device 1, or may be provided to the condition evaluation device 1 via the network N. The information may be provided to the condition evaluation device 1 via a non-transitory computer-readable recording medium such as the recording medium 108 .

<ユーザ端末2のハードウェア構成>
次に、ユーザ端末2のハードウェア構成について説明する。図3は、ユーザ端末2のハードウェア構成の一例を示す図である。図3に示すように、ユーザ端末2は、バスB2を介して相互に接続された、プロセッサ201と、メモリ202と、ストレージ203と、通信I/F204と、入力装置205と、出力装置206と、を備える。
<Hardware configuration of user terminal 2>
Next, the hardware configuration of the user terminal 2 will be explained. FIG. 3 is a diagram showing an example of the hardware configuration of the user terminal 2. As shown in FIG. As shown in FIG. 3, the user terminal 2 includes a processor 201, a memory 202, a storage 203, a communication I/F 204, an input device 205, and an output device 206, which are interconnected via a bus B2. , is provided.

プロセッサ201は、ストレージ203に記憶されたOS及び状態評価プログラムを含む各種のプログラムをメモリ202に展開して実行することにより、ユーザ端末2の各構成を制御し、ユーザ端末2の機能を実現する。プロセッサ201は、例えば、CPU、MPU、GPU、ASIC又はDSPであるが、これに限られない。 The processor 201 controls each configuration of the user terminal 2 and realizes the functions of the user terminal 2 by expanding various programs including the OS and the status evaluation program stored in the storage 203 into the memory 202 and executing them. . The processor 201 is, for example, a CPU, MPU, GPU, ASIC, or DSP, but is not limited thereto.

メモリ202は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM又はSRAMであるが、これに限られない。 Memory 202 is, for example, ROM, RAM, or a combination thereof. The ROM is, for example, a PROM, an EPROM, an EEPROM, or a combination thereof. RAM is, for example, DRAM or SRAM, but is not limited thereto.

ストレージ203は、OS及び状態評価プログラムを含む各種のプログラム及びデータを記憶する。ストレージ203は、例えば、フラッシュメモリ、HDD、SSD又はSCMであるが、これに限られない。 The storage 203 stores various programs and data including an OS and a status evaluation program. The storage 203 is, for example, a flash memory, an HDD, an SSD, or an SCM, but is not limited thereto.

通信I/F204は、ユーザ端末2を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F204は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。 The communication I/F 204 is an interface for connecting the user terminal 2 to an external device via the network N and controlling communication. The communication I/F 204 is, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or Ethernet (registered trademark), but is not limited thereto.

入力装置205は、ユーザ端末2に情報を入力するための装置である。入力装置205は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。ユーザ端末2は、入力装置205として、撮影装置205Cを備える。 The input device 205 is a device for inputting information to the user terminal 2. The input device 205 is, for example, a mouse, a keyboard, a touch panel, a microphone, a scanner, a photographing device (camera), various sensors, or an operation button, but is not limited thereto. The user terminal 2 includes a photographing device 205C as the input device 205.

出力装置206は、ユーザ端末2から情報を出力するための装置である。出力装置206は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。ユーザ端末2は、出力装置206として、表示装置206Dを備える。 The output device 206 is a device for outputting information from the user terminal 2. The output device 206 is, for example, a display, a projector, a printer, a speaker, or a vibrator, but is not limited thereto. The user terminal 2 includes a display device 206D as the output device 206.

ドライブ装置207は、記録メディア208のデータを読み書きする装置である。ドライブ装置207は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア208は、例えば、CD、DVD、FD、MO、BD、USB(登録商標)メモリ又はSDカードであるが、これに限られない。 The drive device 207 is a device that reads and writes data on the recording medium 208. The drive device 207 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader, but is not limited thereto. The recording medium 208 is, for example, a CD, DVD, FD, MO, BD, USB (registered trademark) memory, or SD card, but is not limited thereto.

なお、本実施形態において、状態評価プログラムは、ユーザ端末2の製造段階でメモリ202又はストレージ203に書き込まれてもよいし、ネットワークNを介してユーザ端末2に提供されてもよいし、記録メディア208などの非一時的でコンピュータ読み取り可能な記録媒体を介してユーザ端末2に提供されてもよい。 In addition, in this embodiment, the condition evaluation program may be written into the memory 202 or the storage 203 at the manufacturing stage of the user terminal 2, may be provided to the user terminal 2 via the network N, or may be provided to the user terminal 2 via the recording medium. The information may be provided to the user terminal 2 via a non-transitory computer-readable recording medium such as 208.

<状態評価装置1の機能構成>
次に、状態評価装置1の機能構成について説明する。図4は、状態評価装置1の機能構成の一例を示す図である。図4に示すように、状態評価装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration of condition evaluation device 1>
Next, the functional configuration of the condition evaluation device 1 will be explained. FIG. 4 is a diagram showing an example of the functional configuration of the condition evaluation device 1. As shown in FIG. 4, the condition evaluation device 1 includes a communication section 11, a storage section 12, and a control section 13.

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。通信部11は、ユーザ端末2から立ち座り動画121を受信し、ユーザ端末2に評価結果123を送信する。 The communication unit 11 is realized by the communication I/F 104. The communication unit 11 transmits and receives information to and from the user terminal 2 via the network N. The communication unit 11 receives the standing/sitting video 121 from the user terminal 2 and transmits the evaluation result 123 to the user terminal 2.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、立ち座り動画121と、抽出モデル122と、評価結果123と、を記憶する。 The storage unit 12 is realized by a memory 102 and a storage 103. The storage unit 12 stores a standing and sitting video 121, an extracted model 122, and an evaluation result 123.

立ち座り動画121は、ユーザ(撮影者)が撮影した対象者の立ち座り動画の動画データである。立ち座り動画121は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。 The standing/sitting video 121 is video data of a standing/sitting video of the subject photographed by a user (photographer). The standing and sitting video 121 is stored in association with subject information, user information, terminal information, photographing information, and the like.

対象者情報は、立ち座り動画121を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。 The subject information is information regarding the subject whose standing and sitting video 121 was shot. The target person information includes, for example, the target person's name, age, gender, and date of birth, but is not limited thereto.

ユーザ情報は、立ち座り動画121を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。 The user information is information regarding the user (photographer) who shot the standing and sitting video 121. The user information includes, for example, the user's name, age, gender, date of birth, affiliation, and position, but is not limited thereto.

端末情報は、立ち座り動画121を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。 The terminal information is information regarding the user terminal 2 that transmitted the standing/sitting video 121. The terminal information includes, for example, the model of the user terminal 2, the user, and the manufacturing date, but is not limited thereto.

撮影情報は、立ち座り動画121の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。 The shooting information is information regarding shooting of the standing and sitting video 121. The photographing information includes, for example, the photographing date and time, the brightness at the time of photographing, the model of the photographing device 205C, the tilt of the photographing device 205C, and the zoom magnification, but is not limited thereto.

抽出モデル122は、骨格推定モデル、骨格抽出モデル、骨格検出モデル又は姿勢推定モデルなどと称される、動画像から人の特徴点pを抽出可能なように学習された、学習済みの機械学習モデルである。抽出モデル122として、人の特徴点pを抽出可能な任意の機械学習モデルを利用できる。特徴点pは、例えば、つま先、踵、膝、腰(尻)、腹、胸、首、肩、肘、手首、指、頭、目、耳、口、鼻であるが、これに限られない。 The extraction model 122 is a trained machine learning model called a skeleton estimation model, skeleton extraction model, skeleton detection model, posture estimation model, etc., which has been trained to be able to extract human feature points p from a video image. It is. As the extraction model 122, any machine learning model that can extract the feature points p of a person can be used. Feature points p include, but are not limited to, for example, toes, heels, knees, hips (buttocks), abdomen, chest, neck, shoulders, elbows, wrists, fingers, head, eyes, ears, mouth, and nose. .

評価結果123は、立ち座り動画121に基づく対象者の状態の評価結果を示す情報である。評価結果123について、詳しくは後述する。 The evaluation result 123 is information indicating the evaluation result of the subject's condition based on the standing and sitting video 121. The evaluation result 123 will be described in detail later.

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、状態評価装置1の動作全体を制御する。制御部13は、取得部131と、抽出部132と、評価部133と、を備える。 The control unit 13 is realized by the processor 101 reading a program from the memory 102, executing it, and cooperating with other hardware configurations. The control unit 13 controls the entire operation of the condition evaluation device 1 . The control unit 13 includes an acquisition unit 131, an extraction unit 132, and an evaluation unit 133.

取得部131は、ユーザ端末2から立ち座り動画121を取得し、記憶部12に保存する。 The acquisition unit 131 acquires the standing and sitting video 121 from the user terminal 2 and stores it in the storage unit 12 .

抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出する。 The extraction unit 132 uses the extraction model 122 to extract a plurality of feature points p of the subject from the standing and sitting video 121.

評価部133は、抽出部132が抽出した対象者の特徴点pに基づいて、対象者の状態を評価し、評価結果123を記憶部12に保存する。 The evaluation unit 133 evaluates the condition of the subject based on the feature points p of the subject extracted by the extraction unit 132 and stores the evaluation result 123 in the storage unit 12.

<状態評価装置1の機能構成>
次に、状態評価装置1の機能構成について説明する。図4は、状態評価装置1の機能構成の一例を示す図である。図4に示すように、状態評価装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration of condition evaluation device 1>
Next, the functional configuration of the condition evaluation device 1 will be explained. FIG. 4 is a diagram showing an example of the functional configuration of the condition evaluation device 1. As shown in FIG. 4, the condition evaluation device 1 includes a communication section 11, a storage section 12, and a control section 13.

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。通信部11は、ユーザ端末2から立ち座り動画121を受信し、ユーザ端末2に評価結果123を送信する。 The communication unit 11 is realized by the communication I/F 104. The communication unit 11 transmits and receives information to and from the user terminal 2 via the network N. The communication unit 11 receives the standing/sitting video 121 from the user terminal 2 and transmits the evaluation result 123 to the user terminal 2.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、立ち座り動画121と、抽出モデル122と、特徴点情報123と、評価結果124と、を記憶する。 The storage unit 12 is realized by a memory 102 and a storage 103. The storage unit 12 stores a standing and sitting video 121, an extraction model 122, feature point information 123, and an evaluation result 124.

立ち座り動画121は、ユーザ端末2から取得した対象者の立ち座り動画の動画データである。立ち座り動画121は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。 The standing/sitting video 121 is video data of a standing/sitting video of the subject acquired from the user terminal 2. The standing and sitting video 121 is stored in association with subject information, user information, terminal information, photographing information, and the like.

対象者情報は、立ち座り動画121を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。 The subject information is information regarding the subject whose standing and sitting video 121 was shot. The target person information includes, for example, the target person's name, age, gender, and date of birth, but is not limited thereto.

ユーザ情報は、立ち座り動画121を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。 The user information is information regarding the user (photographer) who shot the standing and sitting video 121. The user information includes, for example, the user's name, age, gender, date of birth, affiliation, and position, but is not limited thereto.

端末情報は、立ち座り動画121を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。 The terminal information is information regarding the user terminal 2 that transmitted the standing/sitting video 121. The terminal information includes, for example, the model of the user terminal 2, the user, and the manufacturing date, but is not limited thereto.

撮影情報は、立ち座り動画121の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。 The shooting information is information regarding shooting of the standing and sitting video 121. The photographing information includes, for example, the photographing date and time, the brightness at the time of photographing, the model of the photographing device 205C, the tilt of the photographing device 205C, and the zoom magnification, but is not limited thereto.

抽出モデル122は、骨格推定モデル、骨格抽出モデル、骨格検出モデル又は姿勢推定モデルなどと称される、動画像から人の特徴点を抽出可能なように学習された、学習済みの機械学習モデルである。抽出モデル122は、画像を入力されると、その画像に映った人の特徴点情報を出力する。特徴点情報は、人の特徴点pに関する情報であり、特徴点pの種類及び座標を示す情報を含む。人が映った画像を入力すると、1又は複数の特徴点の特徴点情報が出力される。抽出モデル122として、人の特徴点を抽出可能な任意の機械学習モデルを利用できる。特徴点pは、例えば、つま先、踵、膝、腰(尻)、腹、胸、首、肩、肘、手首、指、頭、目、耳、口、鼻であるが、これに限られない。 The extraction model 122 is a trained machine learning model called a skeleton estimation model, skeleton extraction model, skeleton detection model, posture estimation model, etc., which has been trained to be able to extract human feature points from video images. be. When the extraction model 122 receives an image, it outputs feature point information of a person appearing in the image. The feature point information is information regarding the feature point p of a person, and includes information indicating the type and coordinates of the feature point p. When an image showing a person is input, feature point information of one or more feature points is output. As the extraction model 122, any machine learning model that can extract human feature points can be used. Feature points p include, but are not limited to, for example, toes, heels, knees, hips (buttocks), abdomen, chest, neck, shoulders, elbows, wrists, fingers, head, eyes, ears, mouth, and nose. .

特徴点情報123は、立ち座り動画121から抽出された対象者の特徴点pの特徴点情報である。特徴点情報123は、特徴点pの抽出元となった立ち座り動画121と対応づけて保存される。記憶部12には、1の立ち座り動画121に対して、特徴点情報123の時系列データが保存される。 The feature point information 123 is feature point information of the target person's feature point p extracted from the standing and sitting video 121. The feature point information 123 is stored in association with the standing and sitting video 121 from which the feature point p is extracted. The storage unit 12 stores time-series data of feature point information 123 for one standing and sitting video 121.

評価結果124は、立ち座り動画121に基づく対象者の状態の評価結果を示す情報である。評価結果124について、詳しくは後述する。 The evaluation result 124 is information indicating the evaluation result of the subject's condition based on the standing and sitting video 121. The evaluation result 124 will be described in detail later.

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、状態評価装置1の動作全体を制御する。制御部13は、取得部131と、抽出部132と、評価部133と、を備える。 The control unit 13 is realized by the processor 101 reading a program from the memory 102, executing it, and cooperating with other hardware configurations. The control unit 13 controls the entire operation of the condition evaluation device 1 . The control unit 13 includes an acquisition unit 131, an extraction unit 132, and an evaluation unit 133.

取得部131は、ユーザ端末2から立ち座り動画121を取得し、記憶部12に保存する。 The acquisition unit 131 acquires the standing and sitting video 121 from the user terminal 2 and stores it in the storage unit 12 .

抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出する。具体的には、抽出部132は、立ち座り動画121を構成する画像を抽出モデル122に入力し、抽出モデル122が出力した特徴点情報123を取得し、記憶部12に保存する。抽出部132は、立ち座り動画121を構成する全ての画像から特徴点pを抽出してもよいし、所定フレームごとの画像から特徴点pを抽出してもよい。いずれにせよ、記憶部12には、特徴点情報123の時系列データが保存される。 The extraction unit 132 uses the extraction model 122 to extract a plurality of feature points p of the subject from the standing and sitting video 121. Specifically, the extraction unit 132 inputs the images forming the standing and sitting video 121 to the extraction model 122, acquires the feature point information 123 output by the extraction model 122, and stores it in the storage unit 12. The extraction unit 132 may extract the feature points p from all the images making up the standing and sitting video 121, or may extract the feature points p from images for each predetermined frame. In any case, the storage unit 12 stores time-series data of the feature point information 123.

評価部133は、抽出部132が抽出した対象者の特徴点pに基づいて、対象者の状態を評価し、評価結果123を記憶部12に保存する。 The evaluation unit 133 evaluates the condition of the subject based on the feature points p of the subject extracted by the extraction unit 132 and stores the evaluation result 123 in the storage unit 12.

なお、状態評価装置1の機能構成は、上記の例に限られない。例えば、状態評価装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、状態評価装置1は、上記以外の機能構成を備えてもよい。また、状態評価装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the condition evaluation device 1 is not limited to the above example. For example, the condition evaluation device 1 may include a part of the above functional configuration, and the user terminal 2 may include the rest. Moreover, the condition evaluation device 1 may be provided with functional configurations other than those described above. Further, each functional configuration of the condition evaluation device 1 may be realized by software as described above, or by hardware such as an IC chip, SoC (System on Chip), LSI (Large Scale Integration), or microcomputer. may be done.

<ユーザ端末2の機能構成>
次に、ユーザ端末2の機能構成について説明する。図5は、ユーザ端末2の機能構成の一例を示す図である。図5に示すように、ユーザ端末2は、通信部21と、記憶部22と、制御部23と、を備える。
<Functional configuration of user terminal 2>
Next, the functional configuration of the user terminal 2 will be explained. FIG. 5 is a diagram showing an example of the functional configuration of the user terminal 2. As shown in FIG. As shown in FIG. 5, the user terminal 2 includes a communication section 21, a storage section 22, and a control section 23.

通信部21は、通信I/F204により実現される。通信部21は、ネットワークNを介して、状態評価装置1との間で情報の送受信を行う。通信部21は、状態評価装置1に立ち座り動画221を送信し、状態評価装置1から評価結果222を受信する。 The communication unit 21 is realized by the communication I/F 204. The communication unit 21 transmits and receives information to and from the condition evaluation device 1 via the network N. The communication unit 21 transmits the standing/sitting video 221 to the condition evaluation device 1 and receives the evaluation result 222 from the condition evaluation device 1 .

記憶部22は、メモリ202及びストレージ203により実現される。記憶部22は、立ち座り動画221と、評価結果222と、を記憶する。 The storage unit 22 is realized by a memory 202 and a storage 203. The storage unit 22 stores a standing/sitting video 221 and an evaluation result 222.

立ち座り動画221は、ユーザ端末2から状態評価装置1に送信する対象者の立ち座り動画の動画データである。立ち座り動画221は、ユーザがユーザ端末2の撮影装置205Cにより撮影した動画であってもよいし、ネットワークNを介して取得した、ユーザ端末2以外の撮影装置が撮影した動画であってもよい。立ち座り動画221は、立ち座り動画221は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。 The standing/sitting video 221 is video data of a standing/sitting video of the subject transmitted from the user terminal 2 to the condition evaluation device 1 . The standing/sitting video 221 may be a video captured by the user using the imaging device 205C of the user terminal 2, or may be a video captured via the network N by a imaging device other than the user terminal 2. . The standing and sitting video 221 is stored in association with subject information, user information, terminal information, photographing information, and the like.

対象者情報は、立ち座り動画221を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。 The subject information is information regarding the subject whose standing and sitting video 221 was shot. The target person information includes, for example, the target person's name, age, gender, and date of birth, but is not limited thereto.

ユーザ情報は、立ち座り動画221を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。 The user information is information regarding the user (photographer) who shot the standing and sitting video 221. The user information includes, for example, the user's name, age, gender, date of birth, affiliation, and position, but is not limited thereto.

端末情報は、立ち座り動画221を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。 The terminal information is information regarding the user terminal 2 that transmitted the standing/sitting video 221. The terminal information includes, for example, the model of the user terminal 2, the user, and the manufacturing date, but is not limited thereto.

撮影情報は、立ち座り動画221の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。 The shooting information is information regarding shooting of the standing and sitting video 221. The photographing information includes, for example, the photographing date and time, the brightness at the time of photographing, the model of the photographing device 205C, the tilt of the photographing device 205C, and the zoom magnification, but is not limited thereto.

評価結果222は、状態評価装置1から取得した、立ち座り動画221に基づく対象者の状態の評価結果を示す情報である。評価結果222について、詳しくは後述する。 The evaluation result 222 is information indicating the evaluation result of the subject's condition based on the standing/sitting video 221 obtained from the condition evaluation device 1 . The evaluation result 222 will be described in detail later.

制御部23は、プロセッサ201がメモリ202からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部23は、ユーザ端末2の動作全体を制御する。制御部23は、取得部231と、撮影制御部232と、表示制御部233と、を備える。 The control unit 23 is realized by the processor 201 reading a program from the memory 202, executing it, and cooperating with other hardware configurations. The control unit 23 controls the entire operation of the user terminal 2. The control unit 23 includes an acquisition unit 231, a shooting control unit 232, and a display control unit 233.

取得部231は、状態評価装置1から評価結果222を取得し、記憶部22に保存する。 The acquisition unit 231 acquires the evaluation result 222 from the condition evaluation device 1 and stores it in the storage unit 22.

撮影制御部232は、撮影装置205Cによる立ち座り動画221の撮影を制御する。 The photographing control unit 232 controls the photographing of the standing and sitting video 221 by the photographing device 205C.

表示制御部233は、表示装置206Dに表示される画面を制御する。 The display control unit 233 controls the screen displayed on the display device 206D.

なお、ユーザ端末2の機能構成は、上記の例に限られない。例えば、ユーザ端末2は、上記の機能構成の一部を備え、残りを状態評価装置1が備えてもよい。また、ユーザ端末2は、上記以外の機能構成を備えてもよい。また、ユーザ端末2の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC、LSI、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the user terminal 2 is not limited to the above example. For example, the user terminal 2 may include a part of the above functional configuration, and the state evaluation device 1 may include the rest. Further, the user terminal 2 may have a functional configuration other than the above. Further, each functional configuration of the user terminal 2 may be realized by software as described above, or may be realized by hardware such as an IC chip, SoC, LSI, or microcomputer.

<状態評価システム1000が実行する処理>
次に、状態評価システム1000が実行する処理について説明する。図6は、状態評価システム1000が実行する処理の一例を示すフローチャートである。以下では、ユーザがユーザ端末2を利用して立ち座り動画221を撮影する場合を例に説明する。
<Processing executed by condition evaluation system 1000>
Next, the processing executed by the condition evaluation system 1000 will be explained. FIG. 6 is a flowchart illustrating an example of processing executed by the condition evaluation system 1000. In the following, a case where the user uses the user terminal 2 to shoot a standing video 221 will be described as an example.

(ステップS101)
まず、ユーザが対象者の立ち座り動画221を撮影する(ステップS101)。具体的には、ユーザの操作に応じて、撮影制御部232が撮影装置205Cを制御して対象者の立ち座りを撮影し、得られた立ち座り動画221を対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて記憶部22に保存する。ここでは、対象者は、上限を50回として、可能な回数だけ立ち座りを繰り返し行うものとする。なお、上限回数は任意に設定可能である。また、立ち座りの回数は、予め決められていてもよい。
(Step S101)
First, a user shoots a standing and sitting video 221 of a subject (step S101). Specifically, in response to a user's operation, the photographing control unit 232 controls the photographing device 205C to photograph the subject standing and sitting, and uses the obtained standing and sitting video 221 as subject information, user information, and terminal information. , photographing information, etc., and are stored in the storage unit 22. Here, it is assumed that the subject repeatedly stands and sits as many times as possible, with an upper limit of 50 times. Note that the upper limit number of times can be set arbitrarily. Further, the number of times of standing and sitting may be determined in advance.

(ステップS102)
次に、ユーザ端末2は、記憶部22に保存された立ち座り動画221を対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて状態評価装置1に送信する(ステップS102)。
(Step S102)
Next, the user terminal 2 transmits the standing/sitting video 221 stored in the storage unit 22 to the condition evaluation device 1 in association with subject information, user information, terminal information, photographing information, etc. (step S102).

(ステップS103)
状態評価装置1の取得部131は、ユーザ端末2が送信した立ち座り動画221を取得し、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて立ち座り動画121として記憶部12に保存する。
(Step S103)
The acquisition unit 131 of the condition evaluation device 1 acquires the standing and sitting video 221 transmitted by the user terminal 2, and stores it in the storage unit 12 as the standing and sitting video 121 in association with subject information, user information, terminal information, shooting information, etc. Save to.

図7は、立ち座り動画121を模式的に示す図である。図7には、立ち座り動画121のうち、1回分の立ち座りに相当する部分(対象者が座った状態から立ち上がり、再び座るまでの部分)を構成する画像im1~im5が示されている。画像im1は対象者が座った状態、画像im2は対象者が立ち上がりかけた状態、画像im3は対象者が立ち上がった状態、画像im4は対象者が座りかけた状態、画像im5は対象者が再び座った状態を撮影したものである。 FIG. 7 is a diagram schematically showing the standing/sitting video 121. FIG. 7 shows images im1 to im5 that constitute a portion of the sit-to-stand video 121 that corresponds to one sit-to-stand (a portion in which the subject stands up from a sitting position and sits down again). Image im1 is a state where the subject is sitting, image im2 is a state where the subject is about to stand up, image im3 is a state where the subject is standing up, image im4 is a state where the subject is about to sit down, and image im5 is a state where the subject is sitting down again. This is a photograph of the situation.

(ステップS104)
記憶部12に立ち座り動画121が保存されると、抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出し、特徴点情報123を記憶部22に保存する(ステップS104)。
(Step S104)
When the standing and sitting video 121 is stored in the storage unit 12, the extraction unit 132 uses the extraction model 122 to extract a plurality of feature points p of the subject from the standing and sitting video 121, and stores the feature point information 123. 22 (step S104).

図8は、立ち座り動画121から抽出される特徴点pの一例を示す図である。図8では、図7の画像im1~im5に特徴点p1~p8が重畳して表示されている。特徴点p1~p8は、それぞれ踵、膝、腰、手首、肘、肩、首、頭の特徴点pである。図8に示すように、画像im1~im5からそれぞれ特徴点p1~p8が抽出される。以下、特徴点p1~p8を、それぞれ踵p1、膝p2、腰p3、手首p4、肘p5、肩p6、首p7、頭p8と称する。なお、上述の通り、抽出される特徴点pの種類及び座標は、図8の例に限られない。 FIG. 8 is a diagram showing an example of feature points p extracted from the standing and sitting video 121. In FIG. 8, feature points p1 to p8 are displayed superimposed on images im1 to im5 of FIG. 7. The feature points p1 to p8 are feature points p of the heel, knee, waist, wrist, elbow, shoulder, neck, and head, respectively. As shown in FIG. 8, feature points p1 to p8 are extracted from images im1 to im5, respectively. Hereinafter, the feature points p1 to p8 will be referred to as a heel p1, a knee p2, a waist p3, a wrist p4, an elbow p5, a shoulder p6, a neck p7, and a head p8, respectively. Note that, as described above, the type and coordinates of the extracted feature point p are not limited to the example shown in FIG. 8 .

(ステップS105)
評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の立位の安定性を評価する(ステップS105)。より詳細には、評価部133は、複数回の立ち座りにおける対象者の立位時の体の傾きaに基づいて、立位の安定性の評価値v1を算出する。
(Step S105)
The evaluation unit 133 evaluates the stability of the subject's standing position based on the feature point information 123 stored in the storage unit 12 (step S105). More specifically, the evaluation unit 133 calculates the evaluation value v1 of the stability of the standing position based on the body inclination a during the standing position of the subject in multiple standing and sitting positions.

図9は、評価部133による立位の安定性の評価方法の一例を示すフローチャートである。図9の処理は、ステップS105の内部処理に相当する。 FIG. 9 is a flowchart illustrating an example of a method for evaluating standing stability by the evaluation unit 133. The process in FIG. 9 corresponds to the internal process in step S105.

(ステップS201)
まず、評価部133は、立ち座り動画121から対象者の立位を検出する(ステップS201)。以下、立位の検出方法として、3つ検出方法について説明する。評価部133は、どの評価方法を利用してもよい。
(Step S201)
First, the evaluation unit 133 detects the standing position of the subject from the standing/sitting video 121 (step S201). Hereinafter, three detection methods will be described as methods for detecting standing position. The evaluation unit 133 may use any evaluation method.

(1)第1の検出方法
立ち座り動作を行うと、膝より上の体の部分は、立位時に最も高い位置にくる(図8参照)。このため、例えば、対象者がx回の立ち座りを行なった場合、膝より上の特徴点pの高さ(特徴点の鉛直方向の座標)には、ほぼ同じ高さのx回の最大値(ピーク)があらわれる。そこで、評価部133は、膝より上の特徴点pの高さが最大となった各時点を、立位時として検出する。膝より上の特徴点pは、例えば、腹、胸、首、肩、肘、手首、指、頭、目、耳、口又は鼻であるが、これに限られない。
(1) First detection method When a person stands up or sits down, the part of the body above the knees is at the highest position when standing (see FIG. 8). For this reason, for example, if the subject stands and sits x times, the height of the feature point p above the knees (vertical coordinates of the feature point) will be the maximum value of x times at approximately the same height. (peak) appears. Therefore, the evaluation unit 133 detects each time point at which the height of the feature point p above the knee becomes the maximum as the time of standing. The feature point p above the knee is, for example, the abdomen, chest, neck, shoulder, elbow, wrist, finger, head, eyes, ear, mouth, or nose, but is not limited thereto.

(2)第2の検出方法
立ち座り動作を行うと、膝の角度は立位時に最も大きくなる(図8参照)。このため、例えば、対象者がx回の立ち座りを行なった場合、膝の角度(踵p1及び膝p2を結ぶ直線と、膝p2及び腰p3を結ぶ直線と、のなす角)には、ほぼ同じ大きさのx回の最大値(ピーク)があらわれる。そこで、評価部133は、膝の角度が最大値となった各時点を、立位時として検出する。
(2) Second detection method When the user stands up and sits down, the angle of the knees is greatest in the standing position (see FIG. 8). Therefore, for example, if a subject stands and sits x times, the angle of the knees (the angle between the straight line connecting heel p1 and knee p2 and the straight line connecting knee p2 and hip p3) will be approximately the same. x maximum values (peaks) of magnitude appear. Therefore, the evaluation unit 133 detects each time point at which the knee angle reaches its maximum value as a standing position.

(3)第3の検出方法
立ち座り動作を行うと、体の傾きaは立位時に最も小さくなる(図8参照)。ここでいう体の傾きaは、鉛直軸に対する体軸の傾きのことである。このため、例えば、対象者がx回の立ち座りを行なった場合、体の傾きaには、ほぼ同じ大きさのx回の最小値(ボトム)があらわれる。そこで、評価部133は、体の傾きaが最小値となった各時点を、立位時として検出する。
(3) Third detection method When the user stands up and sits down, the body inclination a becomes the smallest in the standing position (see FIG. 8). The body inclination a here refers to the inclination of the body axis with respect to the vertical axis. For this reason, for example, when the subject stands and sits x times, the minimum value (bottom) of the x times of approximately the same magnitude appears in the body inclination a. Therefore, the evaluation unit 133 detects each time point when the body inclination a becomes the minimum value as the time of standing.

(ステップS202)
次に、評価部133は、ステップS201で検出した立位時の体の傾きaを算出する(ステップS202)。例えば、対象者がx回の立ち座りを行なった場合、x回分の立位時の体の傾きa1~axが算出される。
(Step S202)
Next, the evaluation unit 133 calculates the body inclination a in the standing position detected in step S201 (step S202). For example, if the subject stands up and sits down x times, body inclinations a1 to ax during standing up x times are calculated.

図10は、図8の画像im3を利用して立位時の体の傾きaを説明する図である。図10に示すように、立位時の体の傾きaは、例えば、鉛直線L1と、踵p1及び首p7を結ぶ線L2と、のなす角θ1である。線L2は、踵p1及び肩p8を結ぶ線であってもよい。 FIG. 10 is a diagram illustrating the body inclination a in a standing position using the image im3 of FIG. As shown in FIG. 10, the inclination a of the body when standing is, for example, the angle θ1 between the vertical line L1 and the line L2 connecting the heel p1 and the neck p7. The line L2 may be a line connecting the heel p1 and the shoulder p8.

(ステップS203)
続いて、評価部133は、ステップS202で算出されたx回分の立位時の体の傾きa1~axに基づいて、対象者の立位の安定性の評価値v1を算出する(ステップS203)。一般に、立位時の体の傾きaが小さい(角θ1が0に近い)ほど、立位は安定すると考えられる。そこで、例えば、評価部133は、立位時の体の傾きa1~axの代表値arが小さい(角θ1の絶対値が小さい)ほど立位の安定性を高く評価する。立位の安定性が高いほど評価値v1が高い場合、評価部133は、立位時の体の傾きa1~axの代表値arが小さい(角θ1の絶対値が小さい)ほど立位の安定性の評価値v1を高く算出する。代表値arは、例えば、傾きa1~axの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v1は、代表値arと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(Step S203)
Subsequently, the evaluation unit 133 calculates the evaluation value v1 of the stability of the standing position of the subject based on the x times of body inclinations a1 to ax during standing that were calculated in step S202 (step S203). . Generally, it is considered that the smaller the inclination a of the body when standing (the angle θ1 is closer to 0), the more stable the standing position is. Therefore, for example, the evaluation unit 133 evaluates the stability of the standing position higher as the representative value ar of the body inclinations a1 to ax during standing is smaller (the absolute value of the angle θ1 is smaller). If the evaluation value v1 is higher as the stability of the standing position is higher, the evaluation unit 133 determines that the smaller the representative value ar of the body inclinations a1 to ax during standing is (the smaller the absolute value of the angle θ1), the more stable the standing position is. The evaluation value v1 of gender is calculated to be high. The representative value ar is, for example, the minimum value, average value, median value, or average value of the top X% of the slopes a1 to ax, but is not limited thereto. Note that the evaluation value v1 may be a multilevel rank obtained by comparing the representative value ar and a preset threshold value.

以上の処理により、立ち座り動画121から対象者の立位の安定性が評価され、評価値v1が算出される。評価部133は、評価値v1を評価結果124として記憶部12に保存する。 Through the above processing, the stability of the subject's standing position is evaluated from the standing/sitting video 121, and the evaluation value v1 is calculated. The evaluation unit 133 stores the evaluation value v1 in the storage unit 12 as the evaluation result 124.

(ステップS106)
ここで、図6に戻る。評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の筋力を評価する(ステップS106)。より詳細には、評価部133は、対象者が行った立ち座りの回数又は時間に基づいて、対象者の筋力の評価値v2を算出する。立ち座りの回数は、立位の回数と同様であるため、上述の立位の検出方法のいずれかにより計測すればよい。以下、筋力の評価方法として、2つ評価方法について説明する。評価部133は、どの評価方法を利用してもよい。
(Step S106)
Now, return to FIG. 6. The evaluation unit 133 evaluates the subject's muscle strength based on the feature point information 123 stored in the storage unit 12 (step S106). More specifically, the evaluation unit 133 calculates the evaluation value v2 of the subject's muscle strength based on the number of times or time the subject has stood up and sat down. Since the number of times of standing and sitting is the same as the number of times of standing, it may be measured by any of the above-mentioned methods of detecting standing. Two methods for evaluating muscle strength will be described below. The evaluation unit 133 may use any evaluation method.

(1)第1の評価方法
対象者が上限をX回として、可能な回数だけ立ち座りを繰り返し行う場合、一般に、対象者が多くの立ち座りを行うほど、対象者の筋力は高いと考えられる。そこで、評価部133は、対象者が行った立ち座りの回数が多いほど、対象者の筋力を高く評価する。対象者の筋力が高いほど評価値v2が大きい場合、評価部133は、対象者が立ち座りを行なった回数xが多いほど評価値v2を大きく算出する。なお、評価値v2は、回数xであってもよいし、回数xと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(2)第2の評価方法
予め決められた所定回数Xだけ立ち座りを繰り返し行う場合、一般に、対象者が短い時間で所定回数Xの立ち座りを行うほど、対象者の筋力は高いと考えられる。そこで、評価部133は、対象者が所定回数Xの立ち座りを行うのに要した所要時間Tが短いほど、対象者の筋力を高く評価する。対象者の筋力が高いほど評価値v2が大きい場合、評価部133は、対象者が所定回数Xの立ち座りを行なうのに要した所要時間Tが短いほど評価値v2を大きく算出する。なお、評価値v2は、時間Tであってもよいし、所要時間Tと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(1) First evaluation method When a subject repeatedly stands and sits as many times as possible with a maximum of X times, it is generally considered that the more the subject stands and sits, the higher the subject's muscle strength is . Therefore, the evaluation unit 133 evaluates the subject's muscle strength higher as the number of times the subject stands and sits increases. If the evaluation value v2 is larger as the subject's muscle strength is higher, the evaluation unit 133 calculates the evaluation value v2 to be larger as the number of times x that the subject stands up and sits increases. Note that the evaluation value v2 may be the number of times x, or may be a multilevel rank obtained by comparing the number of times x with a preset threshold.
(2) Second evaluation method When a subject repeatedly stands and sits a predetermined number of times . Therefore, the evaluation unit 133 evaluates the subject's muscle strength higher as the time T required for the subject to stand and sit a predetermined number of times X is shorter. If the evaluation value v2 is larger as the subject's muscle strength is higher, the evaluation unit 133 calculates the evaluation value v2 to be larger as the required time T required for the subject to stand up and sit down a predetermined number of times X is shorter. Note that the evaluation value v2 may be the time T, or may be a multilevel rank obtained by comparing the required time T and a preset threshold value.

ここで、所要時間Tは、1回目の立ち座り開始前の座位から、X回目の立ち座り終了後の座位まで、の所要時間である。評価部133は、1回目の立ち座り開始前の座位と、X回目の立ち座り終了後の座位と、を検出し、両者の間の時間を所要時間Tとして算出すればよい。 Here, the required time T is the time required from the sitting position before starting the first sitting/standing position to the sitting position after the end of the Xth sitting/standing position. The evaluation unit 133 detects the sitting position before the first standing/sitting start and the sitting position after the X-th standing/sitting, and calculates the time between the two as the required time T.

以下、座位の検出方法として、3つ検出方法について説明する。評価部133は、どの検出方法を利用してもよい。 Hereinafter, three detection methods will be described as methods for detecting sitting positions. The evaluation unit 133 may use any detection method.

(1)第1の検出方法
立ち座り動作を行うと、膝より上の体の部分は、座位時に最も低い位置にくる(図8参照)。このため、例えば、対象者がX回の立ち座りを行なった場合、膝より上の特徴点pの高さ(特徴点pの鉛直方向の座標)には、ほぼ同じ高さのX回の最小値(ボトム)があらわれる。そこで、評価部133は、膝より上の特徴点pの高さが最小となった各時点を、座位時として検出する。膝より上の特徴点pは、例えば、腹、胸、首、肩、肘、手首、指、頭、目、耳、口又は鼻であるが、これに限られない。
(1) First detection method When a person stands or sits, the body part above the knees is at the lowest position when sitting (see FIG. 8). For this reason, for example, if a subject stands and sits X times, the height of the feature point p above the knee (vertical coordinates of the feature point p) is the minimum of the X times at approximately the same height. The value (bottom) appears. Therefore, the evaluation unit 133 detects each time point at which the height of the feature point p above the knee becomes the minimum as a time when the person is in a sitting position. The feature point p above the knee is, for example, the abdomen, chest, neck, shoulder, elbow, wrist, finger, head, eyes, ear, mouth, or nose, but is not limited thereto.

(2)第2の検出方法
立ち座り動作を行うと、膝の角度は座位時に最も小さくなる(図8参照)。このため、例えば、対象者がX回の立ち座りを行なった場合、膝の角度(踵p1及び膝p2を結ぶ直線と、膝p2及び腰p3を結ぶ直線と、のなす角)には、ほぼ同じ大きさのX回の最小値(ボトム)があらわれる。そこで、評価部133は、膝の角度が最小値となった各時点を、座位時として検出する。
(2) Second detection method When standing and sitting, the angle of the knees is the smallest when sitting (see FIG. 8). For this reason, for example, if a subject stands and sits X times, the angle of the knees (the angle between the straight line connecting heel p1 and knee p2 and the straight line connecting knee p2 and hip p3) will be approximately the same. The minimum value (bottom) of the X times of magnitude appears. Therefore, the evaluation unit 133 detects each time point when the knee angle becomes the minimum value as a time when the person is in a sitting position.

(3)第3の検出方法
立ち座り動作を行うと、体の傾きtは立位時に最も大きくなる(図8参照)。ここでいう体の傾きtは、鉛直軸に対する体軸の傾きのことである。このため、例えば、対象者がX回の立ち座りを行なった場合、体の傾きtには、ほぼ同じ大きさのX回の最大値(ピーク)があらわれる。そこで、評価部133は、体の傾きtが最大値となった各時点を、座位時として検出する。
(3) Third detection method When a person stands up or sits down, the body inclination t is greatest in the standing position (see FIG. 8). The body inclination t here refers to the inclination of the body axis with respect to the vertical axis. For this reason, for example, when a subject stands up and sits down X times, a maximum value (peak) of approximately the same magnitude for the X times appears in the body inclination t. Therefore, the evaluation unit 133 detects each time point when the body inclination t reaches the maximum value as the time of sitting.

以上の処理により、立ち座り動画121から対象者の筋力が評価され、評価値v2が算出される。評価部133は、評価値v2を評価結果124として記憶部12に保存する。 Through the above processing, the subject's muscle strength is evaluated from the standing/sitting video 121, and an evaluation value v2 is calculated. The evaluation unit 133 stores the evaluation value v2 in the storage unit 12 as the evaluation result 124.

(ステップS107)
評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の立位の姿勢を評価する(ステップS107)。より詳細には、評価部133は、複数回の立ち座りにおける対象者の立位時の股関節の伸びeに基づいて、立位の姿勢の評価値v3を算出する。
(Step S107)
The evaluation unit 133 evaluates the standing posture of the subject based on the feature point information 123 stored in the storage unit 12 (step S107). More specifically, the evaluation unit 133 calculates the evaluation value v3 of the standing posture based on the elongation e of the hip joint of the subject in the standing position during a plurality of standing and sitting positions.

図11は、評価部133による立位の姿勢の評価方法の一例を示すフローチャートである。図11の処理は、ステップS107の内部処理に相当する。 FIG. 11 is a flowchart illustrating an example of a method for evaluating standing posture by the evaluation unit 133. The process in FIG. 11 corresponds to the internal process in step S107.

(ステップS301)
まず、評価部133は、立ち座り動画121から対象者の立位を検出する(ステップS301)。立位の検出方法は、上述の通りである。
(Step S301)
First, the evaluation unit 133 detects the standing position of the subject from the standing/sitting video 121 (step S301). The method for detecting the standing position is as described above.

(ステップS302)
次に、評価部133は、ステップS301で検出した立位時の股関節の伸びeを算出する(ステップS302)。例えば、対象者がx回の立ち座りを行なった場合、x回分の立位時の股関節の伸びe1~exが算出される。
(Step S302)
Next, the evaluation unit 133 calculates the elongation e of the hip joint in the standing position detected in step S301 (step S302). For example, if the subject stands up and sits down x times, the extensions e1 to ex of the hip joint during standing up to x times are calculated.

図12は、図8の画像im3を利用して立位時の股関節の伸びeを説明する図である。図12に示すように、立位時の股関節の伸びeは、例えば、首p7及び腰p3を結ぶ線L3と、腰p3及び膝p2を結ぶ線L4と、のなす角θ2である。線L3は、肩p6及び腰p3を結ぶ線であってもよい。線L4は、腰p3及び踵p1を結ぶ線であってもよい。 FIG. 12 is a diagram illustrating the extension e of the hip joint in a standing position using the image im3 of FIG. 8. As shown in FIG. 12, the extension e of the hip joint during standing is, for example, the angle θ2 formed by a line L3 connecting the neck p7 and the waist p3 and a line L4 connecting the waist p3 and the knee p2. The line L3 may be a line connecting the shoulder p6 and the waist p3. The line L4 may be a line connecting the waist p3 and the heel p1.

(ステップS303)
続いて、評価部133は、ステップS302で算出されたx回分の立位時の股関節の伸びe1~exに基づいて、対象者の立位の姿勢の評価値v3を算出する(ステップS303)。一般に、立位時の股関節の伸びeが小さい(角θ2が0に近い)ほど、立位の姿勢は良いと考えられる。そこで、例えば、評価部133は、立位時の股関節の伸びe1~txの代表値trが小さい(角θ2の絶対値が小さい)ほど立位の姿勢を高く評価する。立位の姿勢が良いほど評価値v3が高い場合、評価部133は、立位時の股関節の伸びe1~exの代表値trが小さい(角θ2の絶対値が小さい)ほど立位の姿勢の評価値v3を高く算出する。代表値erは、例えば、伸びe1~exの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v3は、代表値erと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(Step S303)
Subsequently, the evaluation unit 133 calculates an evaluation value v3 of the subject's standing posture based on the hip joint extensions e1 to ex during the x times of standing calculated in step S302 (step S303). Generally, it is considered that the smaller the extension e of the hip joint during standing (the angle θ2 is closer to 0), the better the standing posture. Therefore, for example, the evaluation unit 133 evaluates the standing posture more highly as the representative value tr of the hip joint extensions e1 to tx during standing is smaller (the absolute value of angle θ2 is smaller). If the evaluation value v3 is higher as the standing posture is better, the evaluation unit 133 determines that the smaller the representative value tr of the hip joint extension e1 to ex during standing is (the smaller the absolute value of the angle θ2), the better the standing posture is. Calculate a high evaluation value v3. The representative value er is, for example, the minimum value, average value, median value, or average value of the top X% of the elongations e1 to ex, but is not limited thereto. Note that the evaluation value v3 may be a multilevel rank obtained by comparing the representative value er with a preset threshold value.

以上の処理により、立ち座り動画121から対象者の立位の姿勢が評価され、評価値v3が算出される。評価部133は、評価値v3を評価結果124として記憶部12に保存する。 Through the above processing, the standing posture of the subject is evaluated from the standing/sitting video 121, and an evaluation value v3 is calculated. The evaluation unit 133 stores the evaluation value v3 in the storage unit 12 as the evaluation result 124.

(ステップS108)
ここで、図6に戻る。評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の着座時の圧迫骨折リスクを評価する(ステップS108)。より詳細には、評価部133は、対象者の起立所要時間tu及び着座所要時間tdに基づいて、対象者の着座時の圧迫骨折のリスクの評価値v4を算出する。起立所要時間tuは、対象者が立ち上がるのに要した時間である。着座所要時間tdは、対象者が座るのに要した時間である。
(Step S108)
Now, return to FIG. 6. The evaluation unit 133 evaluates the compression fracture risk of the subject while sitting, based on the feature point information 123 stored in the storage unit 12 (step S108). More specifically, the evaluation unit 133 calculates an evaluation value v4 of the risk of compression fracture when the subject is seated, based on the time tu required for standing up and the time td required for sitting. The standing up time tu is the time required for the subject to stand up. The required sitting time td is the time required for the subject to sit.

図13は、評価部133による着座時の圧迫骨折リスクの評価方法の一例を示すフローチャートである。図13の処理は、ステップS108の内部処理に相当する。 FIG. 13 is a flowchart illustrating an example of a method for evaluating the risk of compression fracture during sitting by the evaluation unit 133. The process in FIG. 13 corresponds to the internal process in step S108.

(ステップS401)
まず、評価部133は、立ち座り動画121から対象者の立位及び座位を検出する(ステップS401)。立位及び座位の検出方法は、上述の通りである。
(Step S401)
First, the evaluation unit 133 detects the standing and sitting positions of the subject from the standing and sitting video 121 (step S401). The method for detecting standing and sitting positions is as described above.

(ステップS402)
次に、評価部133は、ステップS401で検出した立位及び座位のタイミングに基づいて、それぞれの立ち座りにおける起立所要時間tu及び座位所要時間td(図8参照)を算出する(ステップS402)。例えば、対象者がx回の立ち座りを行なった場合、x回分の起立所要時間tu1~tux及び座位所要時間td1~tdxが算出される。
(Step S402)
Next, the evaluation unit 133 calculates the required time tu for standing and the required time td for sitting (see FIG. 8) for each of standing and sitting based on the timings of the standing and sitting positions detected in step S401 (step S402). For example, if the subject stands up and sits down x times, the required standing times tu1 to tux and the required sitting times td1 to tdx for x times are calculated.

(ステップS403)
続いて、評価部133は、各立ち座りにおける座位/起立時間比rを算出する。座位/起立時間比rは、起立所要時間tuに対する座位所要時間tdの割合である(r=td/tu)。
(Step S403)
Subsequently, the evaluation unit 133 calculates the sitting/standing time ratio r for each sitting/standing position. The sitting/standing time ratio r is the ratio of the required sitting time td to the required standing time tu (r=td/tu).

(ステップS404)
その後、評価部133は、ステップS403で算出されたx回分の座位/起立時間比r1~rxに基づいて、対象者の着座時の圧迫骨折リスクの評価値v4を算出する(ステップS404)。一般に、立ち上がるより座る方が早い、すなわち、起立所要時間tuに対する座位所要時間tdの割合が小さい(座位/起立時間比rが小さい)ほど、着座時の圧迫骨折リスクは高いと考えられる。そこで、例えば、評価部133は、座位/起立時間比r1~rxの代表値rrが小さいほど着座時の圧迫骨折リスクを高く評価する。着座時の圧迫骨折リスクが高いほど評価値v4が低い場合、評価部133は、座位/起立時間比r1~rxの代表値rrが小さいほど着座時の圧迫骨折リスクの評価値v4を低く算出する。代表値rrは、例えば、座位/起立時間比r1~rxの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v4は、代表値rrと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(Step S404)
Thereafter, the evaluation unit 133 calculates an evaluation value v4 of the compression fracture risk when the subject is seated, based on the sitting/standing time ratios r1 to rx for x times calculated in step S403 (step S404). In general, it is considered that the risk of compression fracture during sitting is higher as it is faster to sit down than to stand up, that is, the smaller the ratio of the required sitting time td to the required standing time tu (the smaller the sitting/standing time ratio r). Therefore, for example, the evaluation unit 133 evaluates the compression fracture risk while sitting higher as the representative value rr of the sitting/standing time ratios r1 to rx is smaller. If the evaluation value v4 is lower as the risk of compression fracture when sitting is higher, the evaluation unit 133 calculates the evaluation value v4 of the risk of compression fracture when sitting to be lower as the representative value rr of the sitting/standing time ratios r1 to rx is smaller. . The representative value rr is, for example, the minimum value, average value, median value, or average value of the top X% of the sitting/standing time ratios r1 to rx in ascending order, but is not limited thereto. Note that the evaluation value v4 may be a multilevel rank obtained by comparing the representative value rr and a preset threshold value.

以上の処理により、立ち座り動画121から対象者の着座時の圧迫骨折リスクが評価され、評価値v4が算出される。評価部133は、評価値v4を評価結果124として記憶部12に保存する。 Through the above processing, the risk of compression fracture when the subject is seated is evaluated from the standing/sitting video 121, and an evaluation value v4 is calculated. The evaluation unit 133 stores the evaluation value v4 in the storage unit 12 as the evaluation result 124.

(ステップS109)
評価部133は、対象者の立位の安定性、対象者の筋力、対象者の立位の姿勢及び対象者の着座時の圧迫骨折リスクの評価結果に基づいて、対象者の状態を総合評価する(ステップS109)。具体的には、評価部133は、評価値v1~v4に基づいて、対象者の状態の総合的な評価値v5を算出する。評価値v5は、例えば、評価値v1~v4の平均値又は合計値であるが、これに限られない。評価部133は、評価値v5を評価結果124として記憶部12に保存する。
(Step S109)
The evaluation unit 133 comprehensively evaluates the condition of the subject based on the evaluation results of the stability of the subject's standing position, the muscle strength of the subject, the standing posture of the subject, and the risk of compression fracture when the subject is seated. (Step S109). Specifically, the evaluation unit 133 calculates a comprehensive evaluation value v5 of the condition of the subject based on the evaluation values v1 to v4. The evaluation value v5 is, for example, the average value or the total value of the evaluation values v1 to v4, but is not limited thereto. The evaluation unit 133 stores the evaluation value v5 in the storage unit 12 as the evaluation result 124.

(ステップS110)
評価部133は、対象者が補助具Aを使用しているか判定する(ステップS110)。補助具Aは、対象者の立ち座りを補助する任意の道具である。補助具Aは、例えば、手すり、テーブル、椅子の肘掛けであるが、これに限られない。
(Step S110)
The evaluation unit 133 determines whether the subject is using the auxiliary tool A (step S110). Auxiliary tool A is any tool that assists the subject in standing up or sitting down. Examples of the auxiliary tools A include, but are not limited to, handrails, tables, and armrests of chairs.

図14は、補助具Aの一例を示す図である。図14の例では、補助具Aは手すりであり、対象者は、補助具Aを使用して立ち座りを行っている。 FIG. 14 is a diagram showing an example of the auxiliary tool A. In the example of FIG. 14, the aid A is a handrail, and the subject is using the aid A to sit and stand.

対象者が補助具Aを使用しているか否かは、ユーザにより登録され、立ち座り画像121と対応づけてその旨の情報がユーザ端末2から状態評価装置1に送信されてもよいし、評価部133が立ち座り画像221を解析することにより判定されてもよい。判定方法は補助具Aの種類に応じて任意に選択できる。 Whether or not the subject is using the assistive device A may be registered by the user, and information to that effect may be sent from the user terminal 2 to the condition evaluation device 1 in association with the standing and sitting images 121, or the evaluation The determination may be made by the unit 133 analyzing the standing/sitting image 221. The determination method can be arbitrarily selected depending on the type of auxiliary tool A.

対象者が補助具Aを使用している場合(ステップS110:YES)、処理はステップS111に進む。対象者が補助具Aを使用していない場合(ステップS110:NO)、処理はステップS112に進む。 If the subject is using auxiliary tool A (step S110: YES), the process advances to step S111. If the subject is not using assistive device A (step S110: NO), the process proceeds to step S112.

(ステップS111)
対象者が補助具Aを使用している場合、評価部133は、記憶部12に保存された評価結果124を、評価が下がるように修正する(ステップS111)。すなわち、評価部133は、対象者が補助具Aを使用している場合、対象者が補助具Aを使用していない場合と比べて、対象者の状態を低く評価する。具体的には、評価部133は、評価値v1~v5を、それぞれの評価が下がるように修正する。評価部133は、評価値v1~v5に所定の倍率をかけてもよいし、所定の値を加算又は減算してもよい。評価値vの修正量は、評価の種類ごとに異なってもよい。評価値133は、修正した評価値v1~v5を評価結果124として記憶部12に保存する。
(Step S111)
If the subject is using assistive device A, the evaluation unit 133 modifies the evaluation result 124 stored in the storage unit 12 so that the evaluation is lowered (step S111). That is, when the subject is using the assistive device A, the evaluation unit 133 evaluates the condition of the subject lower than when the subject is not using the assistive device A. Specifically, the evaluation unit 133 modifies the evaluation values v1 to v5 so that the respective evaluations decrease. The evaluation unit 133 may multiply the evaluation values v1 to v5 by a predetermined multiplier, or may add or subtract a predetermined value. The amount of modification of the evaluation value v may differ depending on the type of evaluation. The evaluation value 133 stores the corrected evaluation values v1 to v5 in the storage unit 12 as the evaluation result 124.

(ステップS112)
その後、評価部133は、評価値v1~v5に基づいて、対象者へのメッセージmを生成する(ステップS112)。メッセージmは、例えば、評価値v1~v5の値ごとに予め用意されたものの中から、評価値v1~v5の値に応じて選択したものを組み合わせることにより生成される。評価部133は、メッセージmを評価結果124として記憶部12に保存する。
(Step S112)
After that, the evaluation unit 133 generates a message m to the target person based on the evaluation values v1 to v5 (step S112). The message m is generated, for example, by combining messages selected according to the evaluation values v1 to v5 from among those prepared in advance for each of the evaluation values v1 to v5. The evaluation unit 133 stores the message m in the storage unit 12 as the evaluation result 124.

(ステップS113)
ここで、図6に戻る。状態評価装置1は、ユーザ端末2からの要求に応じて、評価値v1~v5及びメッセージmを含む評価結果124を立ち座り動画121と対応づけてユーザ端末2に送信する(ステップS113)。
(Step S113)
Now, return to FIG. 6. In response to a request from the user terminal 2, the condition evaluation device 1 transmits the evaluation result 124 including the evaluation values v1 to v5 and the message m to the user terminal 2 in association with the standing and sitting video 121 (step S113).

(ステップS114)
ユーザ端末2の取得部231は、状態評価装置1が送信した評価結果124を取得し、対象動画221と対応づけて評価結果222として記憶部22に保存する(ステップS114)。
(Step S114)
The acquisition unit 231 of the user terminal 2 acquires the evaluation result 124 transmitted by the state evaluation device 1, and stores it in the storage unit 22 as the evaluation result 222 in association with the target video 221 (step S114).

(ステップS115)
表示制御部233は、ユーザの操作に応じて、表示装置206Dに立ち座り動画221の評価結果222を表示する(ステップS115)。
(Step S115)
The display control unit 233 displays the evaluation result 222 of the standing and sitting video 221 on the display device 206D in response to the user's operation (step S115).

図15は、評価結果表示画面scの一例を示す図である。評価結果表示画面scは、評価結果222を表示する画面である。図15の評価結果表示画面scは、立ち座り動画221と、その評価値v1~v5と、メッセージmと、を表示している。図15の例では、各評価値vは5段階の点数で評価されており、評価値v1は5点、評価値v2は2点、評価値v3は4点、評価値v4は2点、評価値v5は13点である。これは、立ち座り動画221を撮影された対象者の立位の安定性が高く、筋力が低く、立位の姿勢が良く、着座時の圧迫骨折リスクが高いことを意味している。また、メッセージmとして、「真っ直ぐ立つことができています。筋力トレーニングを頑張りましょう!」というメッセージが生成されている。 FIG. 15 is a diagram showing an example of the evaluation result display screen sc. The evaluation result display screen sc is a screen that displays the evaluation results 222. The evaluation result display screen sc in FIG. 15 displays a standing/sitting video 221, its evaluation values v1 to v5, and a message m. In the example shown in FIG. 15, each evaluation value v is evaluated with a score in five stages, and the evaluation value v1 is 5 points, the evaluation value v2 is 2 points, the evaluation value v3 is 4 points, the evaluation value v4 is 2 points, and the evaluation value v4 is 2 points. The value v5 is 13 points. This means that the subject whose standing-and-sitting video 221 was photographed has a high stability in the standing position, low muscle strength, good posture in the standing position, and a high risk of compression fracture when sitting. In addition, as message m, the message ``I am able to stand up straight. Let's do our best in strength training!'' is generated.

対象者及びユーザは、評価結果表示画面scを参照することにより、対象者の状態を容易に把握することができる。 The subject and the user can easily understand the condition of the subject by referring to the evaluation result display screen sc.

<まとめ>
以上説明した通り、本実施形態によれば、状態評価システム1000が実行する状態評価方法であって、対象者の立ち座りを対象者の側方から撮影した立ち座り動画121を取得する取得ステップと、立ち座り動画121から対象者の複数の特徴点pを抽出する抽出ステップと、複数の特徴点pに基づいて、対象者の状態を評価する評価ステップと、を含む状態評価方法が実現できる。
<Summary>
As explained above, according to the present embodiment, the condition evaluation method executed by the condition evaluation system 1000 includes the acquisition step of acquiring the standing and sitting video 121 of the subject standing and sitting, which is shot from the side of the subject. , a state evaluation method including an extraction step of extracting a plurality of feature points p of the subject from the sitting/standing video 121, and an evaluation step of evaluating the state of the subject based on the plurality of feature points p can be realized.

これにより、状態評価システム1000は、対象者の立ち座り動画121から対象者の状態を評価することができる。この状態評価システム1000を利用することにより、ユーザは、対象者の立ち座り動画221を撮影するだけで、対象者の種々の状態を容易に把握することができる。 Thereby, the condition evaluation system 1000 can evaluate the condition of the subject based on the standing and sitting video 121 of the subject. By using this condition evaluation system 1000, the user can easily grasp various conditions of the subject simply by photographing the standing and sitting video 221 of the subject.

<付記>
本実施形態は、以下の開示を含む。
<Additional notes>
This embodiment includes the following disclosure.

(付記1)
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法。
(Additional note 1)
A condition evaluation method performed by a condition evaluation system, comprising:
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
condition assessment methods including;

(付記2)
前記評価ステップは、前記対象者の立位の安定性を評価する
付記1に記載の状態評価方法。
(Additional note 2)
The condition evaluation method according to supplementary note 1, wherein the evaluation step evaluates the stability of the standing position of the subject.

(付記3)
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
付記2に記載の状態評価方法。
(Additional note 3)
The condition evaluation method according to supplementary note 2, wherein the evaluation step evaluates the stability based on the inclination of the subject's body when standing.

(付記4)
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
付記3に記載の状態評価方法。
(Additional note 4)
The condition evaluation method according to appendix 3, wherein the inclination in the standing position is an angle formed by a vertical line and a line connecting the subject's heel and neck.

(付記5)
前記評価ステップは、前記対象者の筋力を評価する
付記1に記載の状態評価方法。
(Appendix 5)
The condition evaluation method according to supplementary note 1, wherein the evaluation step evaluates the muscle strength of the subject.

(付記6)
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
付記5に記載の状態評価方法。
(Appendix 6)
The condition evaluation method according to supplementary note 5, wherein the evaluation step evaluates the muscle strength based on the number of times or the required time of the subject to stand and sit.

(付記7)
前記評価ステップは、前記対象者の立位の姿勢を評価する
付記1に記載の状態評価方法。
(Appendix 7)
The condition evaluation method according to supplementary note 1, wherein the evaluation step evaluates the standing posture of the subject.

(付記8)
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
付記7に記載の状態評価方法。
(Appendix 8)
The condition evaluation method according to supplementary note 7, wherein the evaluation step evaluates the posture based on the extension of the hip joint of the subject while standing.

(付記9)
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
付記8に記載の状態評価方法。
(Appendix 9)
The condition evaluation method according to appendix 8, wherein the extension of the hip joint is the angle formed by a line connecting the neck and waist of the subject and a line connecting the waist and knees.

(付記10)
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
付記1に記載の状態評価方法。
(Appendix 10)
The condition evaluation method according to supplementary note 1, wherein the evaluation step evaluates the risk of compression fracture of the subject while sitting.

(付記11)
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
付記10に記載の状態評価方法。
(Appendix 11)
The condition evaluation method according to appendix 10, wherein the evaluation step evaluates the compression fracture risk based on the time required for standing up and the time required for sitting of the subject.

(付記12)
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
付記1に記載の状態評価方法。
(Appendix 12)
The condition evaluation method according to supplementary note 1, in which, in the evaluation step, the condition of the subject is evaluated lower when the subject is using an auxiliary device, compared to when the subject is not using the auxiliary device.

(付記13)
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備える状態評価システム。
(Appendix 13)
an acquisition unit that acquires a standing and sitting video of a subject standing and sitting taken from a side of the subject;
an extraction unit that extracts a plurality of feature points of the subject from the standing and sitting video;
an evaluation unit that evaluates the condition of the subject based on the plurality of feature points;
A condition evaluation system equipped with.

(付記14)
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法を実行させる状態評価プログラム。
(Appendix 14)
to the computer,
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
A condition evaluation program that executes a condition evaluation method including.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims rather than the above-mentioned meaning, and is intended to include meanings equivalent to the claims and all changes within the scope. Furthermore, the present invention is not limited to the embodiments described above, and can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. The embodiments are also included in the technical scope of the present invention.

1:状態評価装置
2:ユーザ端末
121:立ち座り動画
122:抽出モデル
123:特徴点情報
124:評価結果
131:取得部
132:抽出部
133:評価部
1: Status evaluation device 2: User terminal 121: Standing/sitting video 122: Extraction model 123: Feature point information 124: Evaluation result 131: Acquisition unit 132: Extraction unit 133: Evaluation unit

Claims (19)

状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法。
A condition evaluation method performed by a condition evaluation system, comprising:
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a state evaluation method for evaluating the stability of the standing position of the subject.
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法。
A condition evaluation method performed by a condition evaluation system, comprising:
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a state evaluation method of evaluating the standing posture of the subject.
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法。
A condition evaluation method performed by a condition evaluation system, comprising:
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a condition evaluation method for evaluating the risk of compression fracture when the subject is seated.
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法。
A condition evaluation method performed by a condition evaluation system, comprising:
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
In the evaluation step, when the subject is using an auxiliary device, the condition of the subject is evaluated lower than when the subject is not using the auxiliary device.
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
請求項1に記載の状態評価方法。
The condition evaluation method according to claim 1 , wherein the evaluation step evaluates the stability based on the inclination of the subject's body when standing.
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
請求項5に記載の状態評価方法。
6. The condition evaluation method according to claim 5, wherein the inclination during standing is an angle between a vertical line and a line connecting the subject's heel and neck.
前記評価ステップは、前記対象者の筋力を評価する
請求項1から4のいずれかに記載の状態評価方法。
5. The condition evaluation method according to claim 1, wherein the evaluation step evaluates the muscle strength of the subject.
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
請求項7に記載の状態評価方法。
8. The condition evaluation method according to claim 7, wherein the evaluation step evaluates the muscle strength based on the number of times or the time required for the subject to stand up and sit down.
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
請求項2に記載の状態評価方法。
3. The condition evaluation method according to claim 2, wherein the evaluation step evaluates the posture based on extension of the hip joint of the subject while standing.
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
請求項9に記載の状態評価方法。
10. The condition evaluation method according to claim 9, wherein the extension of the hip joint is an angle formed by a line connecting the neck and waist of the subject and a line connecting the waist and knees.
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
請求項3に記載の状態評価方法。
4. The condition evaluation method according to claim 3, wherein the evaluation step evaluates the compression fracture risk based on the time required for standing up and the time required for sitting of the subject.
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の安定性を評価する
状態評価システム。
an acquisition unit that acquires a standing and sitting video of a subject standing and sitting taken from a side of the subject;
an extraction unit that extracts a plurality of feature points of the subject from the standing and sitting video;
an evaluation unit that evaluates the condition of the subject based on the plurality of feature points;
Equipped with
The evaluation unit is a condition evaluation system that evaluates the stability of the standing position of the subject.
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の姿勢を評価する
状態評価システム。
an acquisition unit that acquires a standing and sitting video of a subject standing and sitting taken from a side of the subject;
an extraction unit that extracts a plurality of feature points of the subject from the standing and sitting video;
an evaluation unit that evaluates the condition of the subject based on the plurality of feature points;
Equipped with
The evaluation unit is a state evaluation system that evaluates the standing posture of the subject.
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価システム。
an acquisition unit that acquires a standing and sitting video of a subject standing and sitting taken from a side of the subject;
an extraction unit that extracts a plurality of feature points of the subject from the standing and sitting video;
an evaluation unit that evaluates the condition of the subject based on the plurality of feature points;
Equipped with
The evaluation unit is a condition evaluation system that evaluates the risk of compression fracture when the subject is seated.
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価システム。
an acquisition unit that acquires a standing and sitting video of a subject standing and sitting taken from a side of the subject;
an extraction unit that extracts a plurality of feature points of the subject from the standing and sitting video;
an evaluation unit that evaluates the condition of the subject based on the plurality of feature points;
Equipped with
The evaluation unit is a condition evaluation system that evaluates the condition of the subject lower when the subject is using an auxiliary device than when the subject is not using the auxiliary device.
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法を実行させる状態評価プログラム。
to the computer,
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a condition evaluation program that executes a condition evaluation method for evaluating the stability of the standing position of the subject.
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法を実行させる状態評価プログラム。
to the computer,
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a state evaluation program that executes a state evaluation method for evaluating the standing posture of the subject.
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法を実行させる状態評価プログラム。
to the computer,
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a condition evaluation program that executes a condition evaluation method for evaluating the risk of compression fracture when the subject is seated.
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法を実行させる状態評価プログラム。
to the computer,
an acquisition step of acquiring a standing and sitting video of a subject standing and sitting taken from the side of the subject;
an extraction step of extracting a plurality of feature points of the subject from the standing and sitting video;
an evaluation step of evaluating the condition of the subject based on the plurality of feature points;
including;
The evaluation step is a condition evaluation program that executes a condition evaluation method that evaluates the condition of the subject lower when the subject is using an auxiliary device than when the subject is not using the auxiliary device.
JP2023104773A 2023-06-27 2023-06-27 Condition evaluation method, condition evaluation system and condition evaluation program Active JP7454326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023104773A JP7454326B1 (en) 2023-06-27 2023-06-27 Condition evaluation method, condition evaluation system and condition evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023104773A JP7454326B1 (en) 2023-06-27 2023-06-27 Condition evaluation method, condition evaluation system and condition evaluation program

Publications (1)

Publication Number Publication Date
JP7454326B1 true JP7454326B1 (en) 2024-03-22

Family

ID=90273360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023104773A Active JP7454326B1 (en) 2023-06-27 2023-06-27 Condition evaluation method, condition evaluation system and condition evaluation program

Country Status (1)

Country Link
JP (1) JP7454326B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085427A (en) 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
CN115211846A (en) 2022-03-14 2022-10-21 北京中科睿医信息科技有限公司 Repeated seat standing test quantitative evaluation method and device based on depth sensor
JP7169718B1 (en) 2021-11-12 2022-11-11 株式会社エクサウィザーズ Information processing method, device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085427A (en) 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP7169718B1 (en) 2021-11-12 2022-11-11 株式会社エクサウィザーズ Information processing method, device and program
CN115211846A (en) 2022-03-14 2022-10-21 北京中科睿医信息科技有限公司 Repeated seat standing test quantitative evaluation method and device based on depth sensor

Similar Documents

Publication Publication Date Title
JP6675462B2 (en) Motion information processing device
JP6013669B1 (en) Human body model providing system, human body model transformation method, and computer program
US8878922B2 (en) Video image information processing apparatus and video image information processing method
JP6181373B2 (en) Medical information processing apparatus and program
US20100312143A1 (en) Human body measurement system and information provision method using the same
JP6836038B2 (en) Human body model providing system, human body model transformation method, and computer program
WO2019069864A1 (en) Medical information processing system
WO2021090921A1 (en) System, program, and method for measuring jaw movement of subject
JP6407521B2 (en) Medical support device
CN112070031A (en) Posture detection method, device and equipment
KR20170107416A (en) Method for recommending a mattress automatically
JP7454326B1 (en) Condition evaluation method, condition evaluation system and condition evaluation program
JP2021180904A (en) Measuring apparatus
JP6598422B2 (en) Medical information processing apparatus, system, and program
JP7169718B1 (en) Information processing method, device and program
JP2017073108A (en) Image processing device, image processing method, and image processing program
JP6577150B2 (en) Human body model display system, human body model display method, communication terminal device, and computer program
JP7169213B2 (en) Physical health video analysis device, method and system
Nahavandi et al. A low cost anthropometric body scanning system using depth cameras
WO2014104357A1 (en) Motion information processing system, motion information processing device and medical image diagnosis device
KR20170072707A (en) Method for recommending a mattress automatically
JP2023127639A (en) Information processing method, device, and program
JP7397282B2 (en) Stationary determination system and computer program
JP6804781B1 (en) Information processing system, information processing method and computer program
EP4331483A1 (en) Emotion estimating device, emotion estimating system, and emotion estimating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230802

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240309

R150 Certificate of patent or registration of utility model

Ref document number: 7454326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150