JP6320702B2 - Medical information processing apparatus, program and system - Google Patents

Medical information processing apparatus, program and system Download PDF

Info

Publication number
JP6320702B2
JP6320702B2 JP2013166702A JP2013166702A JP6320702B2 JP 6320702 B2 JP6320702 B2 JP 6320702B2 JP 2013166702 A JP2013166702 A JP 2013166702A JP 2013166702 A JP2013166702 A JP 2013166702A JP 6320702 B2 JP6320702 B2 JP 6320702B2
Authority
JP
Japan
Prior art keywords
information
subject
unit
target person
leader
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013166702A
Other languages
Japanese (ja)
Other versions
JP2015035171A (en
Inventor
茂如 石井
茂如 石井
池田 智
智 池田
弘祐 坂上
弘祐 坂上
和樹 宇都宮
和樹 宇都宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2013166702A priority Critical patent/JP6320702B2/en
Publication of JP2015035171A publication Critical patent/JP2015035171A/en
Application granted granted Critical
Publication of JP6320702B2 publication Critical patent/JP6320702B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、医用情報処理装置、プログラム及びシステムに関する。   Embodiments described herein relate generally to a medical information processing apparatus, a program, and a system.

従来、リハビリテーション(rehabilitation)においては、疾病や外傷、老化現象などの様々な原因により生じた心身の障害や、先天的な障害を有する者がより良い生活を送ることを目的として、多数の専門家による連携した支援が行われている。例えば、リハビリテーションは、リハビリテーション専門医、リハビリテーション看護師、理学療法士、作業療法士、言語聴覚士、臨床心理士、義肢装具士、ソーシャルワーカーなどの多数の専門家によって連携した支援が行われている。   Traditionally, in rehabilitation, many specialists aim to lead better lives for those with mental and physical disabilities caused by various causes such as illness, trauma, and aging, and congenital disabilities. Support that cooperated by is performed. For example, rehabilitation is supported by a number of specialists such as rehabilitation specialists, rehabilitation nurses, physical therapists, occupational therapists, speech therapists, clinical psychologists, prosthetic braces, and social workers.

一方、近年、人物や物体の動きをデジタル的に記録するモーションキャプチャ(motion capture)技術の開発が進んでいる。モーションキャプチャ技術の方式としては、例えば、光学式、機械式、磁気式、カメラ式などが知られている。一例を挙げると、人物にマーカを装着させて、カメラなどのトラッカーによってマーカを検出し、検出したマーカを処理することにより人物の動きをデジタル的に記録するカメラ方式が知られている。また、マーカ及びトラッカーを用いない方式としては、赤外線センサを利用して、センサから人物までの距離を計測し、該人物の大きさや骨格のさまざまな動きを検出することで人物の動きをデジタル的に記録する方式が知られている。このような方式を利用したセンサとしては、例えば、Kinect(登録商標)が知られている。   On the other hand, in recent years, development of a motion capture technique for digitally recording the movement of a person or an object has progressed. As a method of motion capture technology, for example, an optical type, a mechanical type, a magnetic type, a camera type and the like are known. For example, a camera system is known in which a marker is attached to a person, the marker is detected by a tracker such as a camera, and the movement of the person is digitally recorded by processing the detected marker. In addition, as a method that does not use markers and trackers, an infrared sensor is used to measure the distance from the sensor to a person, and the movement of the person is digitally detected by detecting various movements of the person's size and skeleton. The recording method is known. As a sensor using such a method, for example, Kinect (registered trademark) is known.

特開平9−56697号公報Japanese Patent Laid-Open No. 9-56697

本発明が解決しようとする課題は、複数の対象者をそれぞれ指導する指導者によって行われる指導の質を高めることができる医用情報処理装置、プログラム及びシステムを提供することである。   The problem to be solved by the present invention is to provide a medical information processing apparatus, a program, and a system capable of improving the quality of instruction performed by an instructor who instructs each of a plurality of subjects.

実施形態に係る医用情報処理装置は、取得部と、算出部と、出力制御部とを備える。取得部は、それぞれ所定動作を行う複数の対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに取得する。算出部は、前記対象者ごとの前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する。出力制御部は、前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を出力する。 The medical information processing apparatus according to the embodiment includes an acquisition unit, a calculation unit, and an output control unit. An acquisition part acquires the operation | movement information showing the coordinate change of each part of the said subject person for every said subject person about the some subject person who respectively performs predetermined operation | movement. A calculation part calculates the index value which shows the implementation condition of the said predetermined operation | movement for every said subject based on the said motion information for every said subject. The output control unit determines, for each target person, a teaching priority indicating which target person is to be prioritized based on the index value for each target person, and based on the determined teaching priority. Then, support information for supporting the instructor instructing the plurality of subjects is output.

図1は、第1の実施形態に係る医用情報処理装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a medical information processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る動作情報収集部の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the motion information collection unit according to the first embodiment. 図3Aは、第1の実施形態に係る動作情報生成部の処理を説明するための図である。FIG. 3A is a diagram for explaining processing of the motion information generation unit according to the first embodiment. 図3Bは、第1の実施形態に係る動作情報生成部の処理を説明するための図である。FIG. 3B is a diagram for explaining processing of the motion information generation unit according to the first embodiment. 図3Cは、第1の実施形態に係る動作情報生成部の処理を説明するための図である。FIG. 3C is a diagram for explaining processing of the motion information generation unit according to the first embodiment. 図4は、第1の実施形態に係る動作情報生成部によって生成される骨格情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of skeleton information generated by the motion information generation unit according to the first embodiment. 図5は、第1の実施形態に係る医用情報処理装置の構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of the configuration of the medical information processing apparatus according to the first embodiment. 図6は、第1の実施形態に係る動作情報記憶部によって記憶される動作情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of operation information stored by the operation information storage unit according to the first embodiment. 図7は、第1の実施形態に係る実施メニュー記憶部に記憶される情報の一例を示す図である。FIG. 7 is a diagram illustrating an example of information stored in the implementation menu storage unit according to the first embodiment. 図8は、第1の実施形態に係る実施メニュー記憶部に記憶される情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of information stored in the implementation menu storage unit according to the first embodiment. 図9は、第1の実施形態に係る怠慢動作記憶部に記憶される情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of information stored in the negligence operation storage unit according to the first embodiment. 図10は、第1の実施形態に係る関与情報記憶部に記憶される情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of information stored in the participation information storage unit according to the first embodiment. 図11は、第1の実施形態に係る警告条件記憶部に記憶される情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of information stored in the warning condition storage unit according to the first embodiment. 図12は、第1の実施形態に係る決定部の処理を説明するための図である。FIG. 12 is a diagram for explaining processing of the determination unit according to the first embodiment. 図13は、第1の実施形態に係る出力制御部によって表示される表示画面について説明するための図である。FIG. 13 is a diagram for explaining a display screen displayed by the output control unit according to the first embodiment. 図14は、第1の実施形態に係る医用情報処理装置による全体的な処理の手順を示すフローチャートである。FIG. 14 is a flowchart illustrating an overall processing procedure performed by the medical information processing apparatus according to the first embodiment. 図15は、第1の実施形態に係る習熟度算出処理の手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a procedure of proficiency level calculation processing according to the first embodiment. 図16は、第1の実施形態に係る危険度算出処理の手順を示すフローチャートである。FIG. 16 is a flowchart illustrating a procedure of risk degree calculation processing according to the first embodiment. 図17は、第1の実施形態に係る怠慢度算出処理の手順を示すフローチャートである。FIG. 17 is a flowchart illustrating a procedure of a laziness calculation process according to the first embodiment. 図18は、第1の実施形態に係る関与度算出処理の手順を示すフローチャートである。FIG. 18 is a flowchart illustrating a procedure of the degree of participation calculation process according to the first embodiment. 図19は、第2の実施形態に係る個人情報記憶部に記憶される情報の一例を示す図である。FIG. 19 is a diagram illustrating an example of information stored in the personal information storage unit according to the second embodiment. 図20Aは、第2の実施形態に係る算出部の処理を説明するための図である。FIG. 20A is a diagram for explaining processing of the calculation unit according to the second embodiment. 図20Bは、第2の実施形態に係る算出部の処理を説明するための図である。FIG. 20B is a diagram for explaining processing of the calculation unit according to the second embodiment. 図21は、その他の実施形態に係る出力制御部の処理を説明するための図である。FIG. 21 is a diagram for explaining processing of the output control unit according to another embodiment. 図22Aは、その他の実施形態に係る出力制御部の処理を説明するための図である。FIG. 22A is a diagram for explaining processing of the output control unit according to another embodiment. 図22Bは、その他の実施形態に係る出力制御部の処理を説明するための図である。FIG. 22B is a diagram for explaining processing of the output control unit according to another embodiment. 図23は、その他の実施形態に係る出力制御部の処理を説明するための図である。FIG. 23 is a diagram for explaining processing of the output control unit according to another embodiment. 図24は、その他の実施形態に係る危険生体情報記憶部に記憶される情報の一例を示す図である。FIG. 24 is a diagram illustrating an example of information stored in the dangerous biological information storage unit according to another embodiment. 図25は、その他の実施形態に係る医用情報処理装置の構成の一例を示す図である。FIG. 25 is a diagram illustrating an example of a configuration of a medical information processing apparatus according to another embodiment. 図26は、その他の実施形態に係る実施メニュー記憶部に記憶される情報の一例を示す図である。FIG. 26 is a diagram illustrating an example of information stored in the implementation menu storage unit according to another embodiment. 図27は、サービス提供装置に適用される場合の一例を説明するための図である。FIG. 27 is a diagram for explaining an example when applied to a service providing apparatus.

以下、図面を参照して、実施形態に係る医用情報処理装置、プログラム及びシステムを説明する。なお、以下で説明する医用情報処理装置は、医用情報処理装置単体として用いられてもよく、或いは、例えば、カルテシステムや、リハビリ部門システムなどのシステムに組み込まれて用いられる場合であってもよい。   Hereinafter, a medical information processing apparatus, a program, and a system according to an embodiment will be described with reference to the drawings. The medical information processing apparatus described below may be used as a single medical information processing apparatus, or may be used by being incorporated in a system such as a medical record system or a rehabilitation department system. .

(第1の実施形態)
図1は、第1の実施形態に係る医用情報処理装置100の構成例を示すブロック図である。第1の実施形態に係る医用情報処理装置100は、例えば、医療機関や自宅、職場等において行われるリハビリテーションを支援する装置である。ここで、「リハビリテーション」とは、障害、慢性疾患、老年病など、治療期間が長期にわたる患者の潜在能力を高めて、生活機能ひいては、社会的機能を回復、促進するための技術や方法を指す。かかる技術や方法としては、例えば、生活機能、社会的機能を回復、促進するための機能訓練などが含まれる。ここで、機能訓練としては、例えば、歩行訓練や関節可動域訓練などが挙げられる。また、リハビリテーションの対象となる者を「対象者」と表記する。この対象者は、例えば、病人やけが人、高齢者、障害者等である。また、リハビリテーションが行われる際に、対象者を介助する者を「介助者」と表記する。この介助者は、例えば、医療機関に従事する医師、理学療法士、看護師等の医療従事者や、対象者を自宅で介護する介護士、家族、友人等である。また、リハビリテーションは、「リハビリ」とも略記する。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of the medical information processing apparatus 100 according to the first embodiment. The medical information processing apparatus 100 according to the first embodiment is an apparatus that supports rehabilitation performed in, for example, a medical institution, a home, or a workplace. Here, “rehabilitation” refers to techniques and methods for improving the potential of patients with long-term treatment periods, such as disabilities, chronic diseases, geriatric diseases, etc., and restoring and promoting life functions and thus social functions. . Such techniques and methods include, for example, function training for restoring and promoting life functions and social functions. Here, examples of the functional training include walking training and joint range-of-motion training. In addition, a person who is a target of rehabilitation is referred to as a “subject”. The target person is, for example, a sick person, an injured person, an elderly person, a disabled person, or the like. In addition, when rehabilitation is performed, a person who assists the subject is referred to as “assistant”. This assistant is, for example, a medical worker such as a doctor, a physical therapist, or a nurse engaged in a medical institution, a caregiver who cares for the subject at home, a family member, a friend, or the like. Rehabilitation is also abbreviated as “rehabilitation”.

図1に示すように、第1の実施形態において、医用情報処理装置100は、動作情報収集部10A、動作情報収集部10B、動作情報収集部10C及び動作情報収集部10Dに接続される。なお、図1においては、医用情報処理装置100に4つの動作情報収集部10A〜10Dが接続される場合を例示したが、実施形態はこれに限定されるものではなく、例えば、医用情報処理装置100に任意数の動作情報収集部が接続されて良い。また、以下において、動作情報収集部10A〜10Dを区別無く総称する場合に、「動作情報収集部10」と表記する。また、動作情報収集部10及び医用情報処理装置100は、ネットワークを介して接続されても良い。この場合、例えば、動作情報収集部10と医用情報処理装置100とがそれぞれ異なる部屋に配置されても良いし、それぞれ異なる施設に配置されても良い。   As shown in FIG. 1, in the first embodiment, the medical information processing apparatus 100 is connected to a motion information collection unit 10A, a motion information collection unit 10B, a motion information collection unit 10C, and a motion information collection unit 10D. In FIG. 1, the case where four motion information collection units 10 </ b> A to 10 </ b> D are connected to the medical information processing apparatus 100 is illustrated, but the embodiment is not limited to this, for example, the medical information processing apparatus An arbitrary number of operation information collection units may be connected to 100. In the following description, the operation information collection units 10A to 10D are collectively referred to as “operation information collection unit 10”. Further, the operation information collection unit 10 and the medical information processing apparatus 100 may be connected via a network. In this case, for example, the motion information collection unit 10 and the medical information processing apparatus 100 may be arranged in different rooms or in different facilities.

図2は、第1の実施形態に係る動作情報収集部10の構成の一例を示す図である。動作情報収集部10は、リハビリテーションが行われる空間における人物や物体等の動作を検知し、人物や物体等の動作を表す動作情報を収集する。なお、動作情報については、後述の動作情報生成部14の処理を説明する際に詳述する。また、動作情報収集部10としては、例えば、Kinect(登録商標)が用いられる。   FIG. 2 is a diagram illustrating an example of the configuration of the motion information collection unit 10 according to the first embodiment. The motion information collection unit 10 detects the motion of a person or an object in a space where rehabilitation is performed, and collects motion information representing the motion of the person or the object. Note that the operation information will be described in detail when the processing of the operation information generation unit 14 described later is described. For example, Kinect (registered trademark) is used as the operation information collection unit 10.

図2に示すように、動作情報収集部10は、カラー画像収集部11と、距離画像収集部12と、音声認識部13と、動作情報生成部14とを有する。なお、図2に示す動作情報収集部10の構成は、あくまでも一例であり、実施形態はこれに限定されるものではない。   As illustrated in FIG. 2, the motion information collection unit 10 includes a color image collection unit 11, a distance image collection unit 12, a voice recognition unit 13, and a motion information generation unit 14. Note that the configuration of the operation information collection unit 10 illustrated in FIG. 2 is merely an example, and the embodiment is not limited thereto.

カラー画像収集部11は、リハビリテーションが行われる空間における人物や物体等の被写体を撮影し、カラー画像情報を収集する。例えば、カラー画像収集部11は、被写体表面で反射される光を受光素子で検知し、可視光を電気信号に変換する。そして、カラー画像収集部11は、その電気信号をデジタルデータに変換することにより、撮影範囲に対応する1フレーム分のカラー画像情報を生成する。この1フレーム分のカラー画像情報には、例えば、撮影時刻情報と、この1フレームに含まれる各画素にRGB(Red Green Blue)値が対応付けられた情報とが含まれる。カラー画像収集部11は、次々に検知される可視光から連続する複数フレームのカラー画像情報を生成することで、撮影範囲を動画撮影する。なお、カラー画像収集部11によって生成されるカラー画像情報は、各画素のRGB値をビットマップに配置したカラー画像として出力されても良い。また、カラー画像収集部11は、受光素子として、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)を有する。   The color image collection unit 11 photographs a subject such as a person or an object in a space where rehabilitation is performed, and collects color image information. For example, the color image collection unit 11 detects light reflected from the subject surface with a light receiving element, and converts visible light into an electrical signal. Then, the color image collection unit 11 generates color image information for one frame corresponding to the shooting range by converting the electrical signal into digital data. The color image information for one frame includes, for example, shooting time information and information in which RGB (Red Green Blue) values are associated with each pixel included in the one frame. The color image collection unit 11 shoots a moving image of the shooting range by generating color image information of a plurality of continuous frames from visible light detected one after another. The color image information generated by the color image collection unit 11 may be output as a color image in which the RGB values of each pixel are arranged in a bitmap. Further, the color image collection unit 11 includes, for example, a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) as a light receiving element.

距離画像収集部12は、リハビリテーションが行われる空間における人物や物体等の被写体を撮影し、距離画像情報を収集する。例えば、距離画像収集部12は、赤外線を周囲に照射し、照射波が被写体表面で反射された反射波を受光素子で検知する。そして、距離画像収集部12は、照射波とその反射波との位相差や、照射から検知までの時間に基づいて、被写体と距離画像収集部12との距離を求め、撮影範囲に対応する1フレーム分の距離画像情報を生成する。この1フレーム分の距離画像情報には、例えば、撮影時刻情報と、撮影範囲に含まれる各画素に、その画素に対応する被写体と距離画像収集部12との距離が対応付けられた情報とが含まれる。距離画像収集部12は、次々に検知される反射波から連続する複数フレームの距離画像情報を生成することで、撮影範囲を動画撮影する。なお、距離画像収集部12によって生成される距離画像情報は、各画素の距離に応じた色の濃淡をビットマップに配置した距離画像として出力されても良い。また、距離画像収集部12は、受光素子として、例えば、CMOSやCCDを有する。この受光素子は、カラー画像収集部11で用いられる受光素子と共用されても良い。また、距離画像収集部12によって算出される距離の単位は、例えば、メートル[m]である。   The distance image collection unit 12 photographs a subject such as a person or an object in a space where rehabilitation is performed, and collects distance image information. For example, the distance image collection unit 12 irradiates the surrounding area with infrared rays, and detects a reflected wave obtained by reflecting the irradiation wave on the surface of the subject with the light receiving element. Then, the distance image collection unit 12 obtains the distance between the subject and the distance image collection unit 12 based on the phase difference between the irradiation wave and the reflected wave and the time from irradiation to detection, and corresponds to the shooting range. The distance image information for the frame is generated. The distance image information for one frame includes, for example, shooting time information and information in which each pixel included in the shooting range is associated with the distance between the subject corresponding to the pixel and the distance image collection unit 12. included. The distance image collection unit 12 captures a moving image of the shooting range by generating distance image information of a plurality of continuous frames from reflected waves detected one after another. The distance image information generated by the distance image collection unit 12 may be output as a distance image in which color shades corresponding to the distance of each pixel are arranged in a bitmap. The distance image collection unit 12 includes, for example, a CMOS or a CCD as a light receiving element. This light receiving element may be shared with the light receiving element used in the color image collection unit 11. The unit of the distance calculated by the distance image collection unit 12 is, for example, meters [m].

音声認識部13は、周囲の音声を集音し、音源の方向特定及び音声認識を行う。音声認識部13は、複数のマイクを備えたマイクアレイを有し、ビームフォーミングを行う。ビームフォーミングは、特定の方向からの音声を選択的に集音する技術である。例えば、音声認識部13は、マイクアレイを用いたビームフォーミングによって、音源の方向を特定する。また、音声認識部13は、既知の音声認識技術を用いて、集音した音声から単語を認識する。すなわち、音声認識部13は、例えば、音声認識技術によって認識された単語、その単語が発せられた方向及びその単語を認識した時刻が対応付けられた情報を、音声認識結果として生成する。   The voice recognition unit 13 collects surrounding voices, performs sound source direction specification and voice recognition. The voice recognition unit 13 has a microphone array including a plurality of microphones, and performs beam forming. Beam forming is a technique for selectively collecting sound from a specific direction. For example, the voice recognition unit 13 specifies the direction of the sound source by beam forming using a microphone array. The voice recognition unit 13 recognizes a word from the collected voice using a known voice recognition technique. That is, the speech recognition unit 13 generates, as a speech recognition result, for example, information associated with a word recognized by the speech recognition technology, a direction in which the word is emitted, and a time at which the word is recognized.

動作情報生成部14は、人物や物体等の動作を表す動作情報を生成する。この動作情報は、例えば、人物の動作(ジェスチャー)を複数の姿勢(ポーズ)の連続として捉えることにより生成される。概要を説明すると、動作情報生成部14は、まず、人体パターンを用いたパターンマッチングにより、距離画像収集部12によって生成される距離画像情報から、人体の骨格を形成する各関節の座標を得る。距離画像情報から得られた各関節の座標は、距離画像の座標系(以下、「距離画像座標系」と呼ぶ)で表される値である。このため、動作情報生成部14は、次に、距離画像座標系における各関節の座標を、リハビリテーションが行われる3次元空間の座標系(以下、「世界座標系」と呼ぶ)で表される値に変換する。この世界座標系で表される各関節の座標が、1フレーム分の骨格情報となる。また、複数フレーム分の骨格情報が、動作情報である。以下、第1の実施形態に係る動作情報生成部14の処理を具体的に説明する。   The motion information generation unit 14 generates motion information representing the motion of a person or an object. This motion information is generated by, for example, capturing a human motion (gesture) as a series of a plurality of postures (poses). In brief, the motion information generation unit 14 first obtains the coordinates of each joint forming the skeleton of the human body from the distance image information generated by the distance image collection unit 12 by pattern matching using a human body pattern. The coordinates of each joint obtained from the distance image information are values represented by a distance image coordinate system (hereinafter referred to as “distance image coordinate system”). Therefore, the motion information generation unit 14 then represents the coordinates of each joint in the distance image coordinate system in a three-dimensional space coordinate system in which rehabilitation is performed (hereinafter referred to as a “world coordinate system”). Convert to The coordinates of each joint represented in this world coordinate system become the skeleton information for one frame. Further, the skeleton information for a plurality of frames is the operation information. Hereinafter, processing of the motion information generation unit 14 according to the first embodiment will be specifically described.

図3Aから図3Cは、第1の実施形態に係る動作情報生成部14の処理を説明するための図である。図3Aには、距離画像収集部12によって生成される距離画像の一例を示す。なお、図3Aにおいては、説明の便宜上、線画で表現された画像を示すが、実際の距離画像は、距離に応じた色の濃淡で表現された画像等である。この距離画像において、各画素は、距離画像の左右方向における「画素位置X」と、距離画像の上下方向における「画素位置Y」と、当該画素に対応する被写体と距離画像収集部12との「距離Z」とを対応付けた3次元の値を有する。以下では、距離画像座標系の座標の値を、この3次元の値(X,Y,Z)で表記する。   3A to 3C are diagrams for explaining processing of the motion information generation unit 14 according to the first embodiment. FIG. 3A shows an example of a distance image generated by the distance image collection unit 12. In FIG. 3A, for convenience of explanation, an image expressed by a line drawing is shown. However, an actual distance image is an image expressed by shading of colors according to the distance. In this distance image, each pixel has a “pixel position X” in the left-right direction of the distance image, a “pixel position Y” in the up-down direction of the distance image, and a subject corresponding to the pixel and the distance image collection unit 12. It has a three-dimensional value associated with “distance Z”. Hereinafter, the coordinate value of the distance image coordinate system is expressed by the three-dimensional value (X, Y, Z).

第1の実施形態において、動作情報生成部14は、様々な姿勢に対応する人体パターンを、例えば、学習により予め記憶している。動作情報生成部14は、距離画像収集部12によって距離画像情報が生成されるごとに、生成された各フレームの距離画像情報を取得する。そして、動作情報生成部14は、取得した各フレームの距離画像情報に対して人体パターンを用いたパターンマッチングを行う。   In the first embodiment, the motion information generation unit 14 stores in advance human body patterns corresponding to various postures by learning, for example. Each time the distance image collection unit 12 generates distance image information, the motion information generation unit 14 acquires the generated distance image information of each frame. Then, the motion information generation unit 14 performs pattern matching using a human body pattern on the acquired distance image information of each frame.

ここで、人体パターンについて説明する。図3Bには、人体パターンの一例を示す。第1の実施形態において、人体パターンは、距離画像情報とのパターンマッチングに用いられるパターンであるので、距離画像座標系で表現され、また、距離画像に描出される人物と同様、人体の表面の情報(以下、「人体表面」と呼ぶ)を有する。例えば、人体表面は、その人物の皮膚や衣服の表面に対応する。更に、人体パターンは、図3Bに示すように、人体の骨格を形成する各関節の情報を有する。すなわち、人体パターンにおいて、人体表面と各関節との相対的な位置関係は既知である。   Here, the human body pattern will be described. FIG. 3B shows an example of a human body pattern. In the first embodiment, since the human body pattern is a pattern used for pattern matching with distance image information, it is expressed in the distance image coordinate system, and is similar to the person depicted in the distance image, on the surface of the human body. Information (hereinafter referred to as “human body surface”). For example, the human body surface corresponds to the skin or clothing surface of the person. Furthermore, as shown in FIG. 3B, the human body pattern includes information on each joint forming the skeleton of the human body. That is, in the human body pattern, the relative positional relationship between the human body surface and each joint is known.

図3Bに示す例では、人体パターンは、関節3aから関節3tまでの20点の関節の情報を有する。このうち、関節3aは、頭部に対応し、関節3bは、両肩の中央部に対応し、関節3cは、腰に対応し、関節3dは、臀部の中央部に対応する。また、関節3eは、右肩に対応し、関節3fは、右肘に対応し、関節3gは、右手首に対応し、関節3hは、右手に対応する。また、関節3iは、左肩に対応し、関節3jは、左肘に対応し、関節3kは、左手首に対応し、関節3lは、左手に対応する。また、関節3mは、右臀部に対応し、関節3nは、右膝に対応し、関節3oは、右足首に対応し、関節3pは、右足の足根に対応する。また、関節3qは、左臀部に対応し、関節3rは、左膝に対応し、関節3sは、左足首に対応し、関節3tは、左足の足根に対応する。   In the example shown in FIG. 3B, the human body pattern includes information on 20 joints from the joint 3a to the joint 3t. Of these, the joint 3a corresponds to the head, the joint 3b corresponds to the center of both shoulders, the joint 3c corresponds to the waist, and the joint 3d corresponds to the center of the buttocks. The joint 3e corresponds to the right shoulder, the joint 3f corresponds to the right elbow, the joint 3g corresponds to the right wrist, and the joint 3h corresponds to the right hand. The joint 3i corresponds to the left shoulder, the joint 3j corresponds to the left elbow, the joint 3k corresponds to the left wrist, and the joint 3l corresponds to the left hand. Further, the joint 3m corresponds to the right hip, the joint 3n corresponds to the right knee, the joint 3o corresponds to the right ankle, and the joint 3p corresponds to the right foot. Further, the joint 3q corresponds to the left hip, the joint 3r corresponds to the left knee, the joint 3s corresponds to the left ankle, and the joint 3t corresponds to the foot foot of the left foot.

なお、図3Bでは、人体パターンが20点の関節の情報を有する場合を説明したが、実施形態はこれに限定されるものではなく、関節の位置及び数は操作者が任意に設定して良い。例えば、四肢の動きの変化のみを捉える場合には、関節3aから関節3dまでのうち、関節3b及び関節3cの情報は取得しなくても良い。また、右手の動きの変化を詳細に捉える場合には、関節3hのみならず、右手の指の関節を新たに設定して良い。なお、図3Bの関節3a、関節3h、関節3l、関節3p、関節3tは、骨の末端部分であるためいわゆる関節とは異なるが、骨の位置及び向きを表す重要な点であるため、説明の便宜上、ここでは関節として説明する。   In addition, although FIG. 3B demonstrated the case where the human body pattern had information of 20 joints, the embodiment is not limited to this, and the position and number of joints may be arbitrarily set by the operator. . For example, when only the movement change of the limbs is captured, the information on the joints 3b and 3c among the joints 3a to 3d may not be acquired. In addition, when capturing changes in the movement of the right hand in detail, not only the joint 3h but also the joint of the finger of the right hand may be newly set. The joint 3a, the joint 3h, the joint 3l, the joint 3p, and the joint 3t in FIG. 3B are different from so-called joints because they are the end portions of the bones, but are important points that represent the position and orientation of the bones. For the sake of convenience, it is described here as a joint.

動作情報生成部14は、かかる人体パターンを用いて、各フレームの距離画像情報とのパターンマッチングを行う。例えば、動作情報生成部14は、図3Bに示す人体パターンの人体表面と、図3Aに示す距離画像とをパターンマッチングすることで、距離画像情報から、ある姿勢の人物を抽出する。こうして、動作情報生成部14は、距離画像に描出された人物の人体表面の座標を得る。また、上述したように、人体パターンにおいて、人体表面と各関節との相対的な位置関係は既知である。このため、動作情報生成部14は、距離画像に描出された人物の人体表面の座標から、当該人物内の各関節の座標を算出する。こうして、図3Cに示すように、動作情報生成部14は、距離画像情報から、人体の骨格を形成する各関節の座標を取得する。なお、ここで得られる各関節の座標は、距離座標系の座標である。   The motion information generation unit 14 performs pattern matching with the distance image information of each frame using the human body pattern. For example, the motion information generation unit 14 extracts a person with a certain posture from the distance image information by pattern matching the human body surface of the human body pattern shown in FIG. 3B and the distance image shown in FIG. 3A. In this way, the motion information generation unit 14 obtains the coordinates of the human body surface depicted in the distance image. Further, as described above, in the human body pattern, the relative positional relationship between the human body surface and each joint is known. Therefore, the motion information generation unit 14 calculates the coordinates of each joint in the person from the coordinates of the human body surface depicted in the distance image. In this way, as shown in FIG. 3C, the motion information generation unit 14 acquires the coordinates of each joint forming the skeleton of the human body from the distance image information. Note that the coordinates of each joint obtained here are the coordinates of the distance coordinate system.

なお、動作情報生成部14は、パターンマッチングを行う際、各関節の位置関係を表す情報を補助的に用いても良い。各関節の位置関係を表す情報には、例えば、関節同士の連結関係(例えば、「関節3aと関節3bとが連結」等)や、各関節の可動域が含まれる。関節は、2つ以上の骨を連結する部位である。姿勢の変化に応じて骨と骨とがなす角は変化するものであり、また、関節に応じてその可動域は異なる。例えば、可動域は、各関節が連結する骨同士がなす角の最大値及び最小値等で表される。例えば、動作情報生成部14は、人体パターンを学習する際に、各関節の可動域も学習し、各関節に対応付けてこれを記憶する。   In addition, the motion information generation part 14 may use the information showing the positional relationship of each joint supplementarily when performing pattern matching. The information representing the positional relationship between the joints includes, for example, the joint relationship between the joints (for example, “joint 3a and joint 3b are coupled”) and the movable range of each joint. A joint is a site that connects two or more bones. The angle between the bones changes according to the change in posture, and the range of motion differs depending on the joint. For example, the range of motion is represented by the maximum and minimum values of the angles formed by the bones connected by each joint. For example, when learning the human body pattern, the motion information generation unit 14 also learns the range of motion of each joint and stores it in association with each joint.

続いて、動作情報生成部14は、距離画像座標系における各関節の座標を、世界座標系で表される値に変換する。世界座標系とは、リハビリテーションが行われる3次元空間の座標系であり、例えば、動作情報収集部10の位置を原点とし、水平方向をx軸、鉛直方向をy軸、xy平面に直交する方向をz軸とする座標系である。なお、このz軸方向の座標の値を「深度」と呼ぶことがある。   Subsequently, the motion information generation unit 14 converts the coordinates of each joint in the distance image coordinate system into values represented in the world coordinate system. The world coordinate system is a coordinate system in a three-dimensional space where rehabilitation is performed. For example, the position of the motion information collection unit 10 is the origin, the horizontal direction is the x axis, the vertical direction is the y axis, and the direction is orthogonal to the xy plane. Is a coordinate system with z as the z-axis. The coordinate value in the z-axis direction may be referred to as “depth”.

ここで、距離画像座標系から世界座標系へ変換する処理について説明する。第1の実施形態において、動作情報生成部14は、距離画像座標系から世界座標系へ変換するための変換式を予め記憶しているものとする。例えば、この変換式は、距離画像座標系の座標、及び当該座標に対応する反射光の入射角を入力として、世界座標系の座標を出力する。例えば、動作情報生成部14は、ある関節の座標(X1,Y1,Z1)、及び、当該座標に対応する反射光の入射角をこの変換式に入力して、ある関節の座標(X1,Y1,Z1)を世界座標系の座標(x1,y1,z1)に変換する。なお、距離画像座標系の座標と、反射光の入射角との対応関係は既知であるので、動作情報生成部14は、座標(X1,Y1,Z1)に対応する入射角を変換式に入力することができる。また、ここでは、動作情報生成部14が距離画像座標系の座標を世界座標系の座標に変換する場合を説明したが、世界座標系の座標を距離座標系の座標に変換することも可能である。   Here, the process of converting from the distance image coordinate system to the world coordinate system will be described. In the first embodiment, it is assumed that the motion information generation unit 14 stores in advance a conversion formula for converting from the distance image coordinate system to the world coordinate system. For example, this conversion formula receives the coordinates of the distance image coordinate system and the incident angle of the reflected light corresponding to the coordinates, and outputs the coordinates of the world coordinate system. For example, the motion information generation unit 14 inputs the coordinates (X1, Y1, Z1) of a certain joint and the incident angle of reflected light corresponding to the coordinates to the conversion formula, and coordinates (X1, Y1) of the certain joint , Z1) are converted into coordinates (x1, y1, z1) in the world coordinate system. Since the correspondence relationship between the coordinates of the distance image coordinate system and the incident angle of the reflected light is known, the motion information generation unit 14 inputs the incident angle corresponding to the coordinates (X1, Y1, Z1) into the conversion equation. can do. Although the case has been described here in which the motion information generation unit 14 converts the coordinates of the distance image coordinate system to the coordinates of the world coordinate system, it is also possible to convert the coordinates of the world coordinate system to the coordinates of the distance coordinate system. is there.

そして、動作情報生成部14は、この世界座標系で表される各関節の座標から骨格情報を生成する。図4は、動作情報生成部14によって生成される骨格情報の一例を示す図である。各フレームの骨格情報は、当該フレームの撮影時刻情報と、各関節の座標とを含む。例えば、動作情報生成部14は、図4に示すように、関節識別情報と座標情報とを対応付けた骨格情報を生成する。なお、図4において、撮影時刻情報は図示を省略する。関節識別情報は、関節を識別するための識別情報であり、予め設定されている。例えば、関節識別情報「3a」は、頭部に対応し、関節識別情報「3b」は、両肩の中央部に対応する。他の関節識別情報についても同様に、各関節識別情報は、それぞれ対応する関節を示す。また、座標情報は、各フレームにおける各関節の座標を世界座標系で示す。   Then, the motion information generation unit 14 generates skeleton information from the coordinates of each joint represented in the world coordinate system. FIG. 4 is a diagram illustrating an example of skeleton information generated by the motion information generation unit 14. The skeleton information of each frame includes shooting time information of the frame and coordinates of each joint. For example, as illustrated in FIG. 4, the motion information generation unit 14 generates skeleton information in which joint identification information and coordinate information are associated with each other. In FIG. 4, the shooting time information is not shown. The joint identification information is identification information for identifying a joint and is set in advance. For example, joint identification information “3a” corresponds to the head, and joint identification information “3b” corresponds to the center of both shoulders. Similarly for the other joint identification information, each joint identification information indicates a corresponding joint. The coordinate information indicates the coordinates of each joint in each frame in the world coordinate system.

図4の1行目には、関節識別情報「3a」と、座標情報「(x1,y1,z1)」とが対応付けられている。つまり、図4の骨格情報は、あるフレームにおいて頭部が座標(x1,y1,z1)の位置に存在することを表す。また、図4の2行目には、関節識別情報「3b」と、座標情報「(x2,y2,z2)」とが対応付けられている。つまり、図4の骨格情報は、あるフレームにおいて両肩の中央部が座標(x2,y2,z2)の位置に存在することを表す。また、他の関節についても同様に、あるフレームにおいてそれぞれの関節がそれぞれの座標で表される位置に存在することを表す。   In the first line of FIG. 4, joint identification information “3a” and coordinate information “(x1, y1, z1)” are associated. That is, the skeleton information in FIG. 4 represents that the head is present at the coordinates (x1, y1, z1) in a certain frame. Also, in the second row of FIG. 4, joint identification information “3b” and coordinate information “(x2, y2, z2)” are associated. That is, the skeleton information in FIG. 4 indicates that the center of both shoulders exists at the position of coordinates (x2, y2, z2) in a certain frame. Similarly, other joints indicate that each joint exists at a position represented by each coordinate in a certain frame.

このように、動作情報生成部14は、距離画像収集部12から各フレームの距離画像情報を取得するごとに、各フレームの距離画像情報に対してパターンマッチングを行い、距離画像座標系から世界座標系に変換することで、各フレームの骨格情報を生成する。そして、動作情報生成部14は、生成した各フレームの骨格情報を、医用情報処理装置100へ出力し、後述の動作情報記憶部131へ格納する。   In this way, every time the distance image information of each frame is acquired from the distance image collection unit 12, the motion information generation unit 14 performs pattern matching on the distance image information of each frame, and the world coordinate from the distance image coordinate system. By converting into a system, skeleton information of each frame is generated. Then, the motion information generation unit 14 outputs the generated skeleton information of each frame to the medical information processing apparatus 100 and stores it in the later-described motion information storage unit 131.

なお、動作情報生成部14の処理は、上述した手法に限られるものではない。例えば、上述では、動作情報生成部14が人体パターンを用いてパターンマッチングを行う手法を説明したが、実施形態はこれに限られるものではない。例えば、人体パターンに替えて、若しくは人体パターンとともに、部位別のパターンを用いてパターンマッチングを行う手法でも良い。   Note that the processing of the motion information generation unit 14 is not limited to the above-described method. For example, in the above description, the method in which the motion information generation unit 14 performs pattern matching using a human body pattern has been described, but the embodiment is not limited thereto. For example, instead of the human body pattern or together with the human body pattern, a pattern matching method using a pattern for each part may be used.

また、例えば、上述では、動作情報生成部14が距離画像情報から各関節の座標を得る手法を説明したが、実施形態はこれに限られるものではない。例えば、動作情報生成部14が、距離画像情報とともにカラー画像情報を用いて各関節の座標を得る手法でも良い。この場合、例えば、動作情報生成部14は、カラー画像の座標系で表現された人体パターンとカラー画像情報とでパターンマッチングを行い、カラー画像情報から人体表面の座標を得る。このカラー画像の座標系には、距離画像座標系でいう「距離Z」の情報は含まれない。そこで、動作情報生成部14は、例えば、この「距離Z」の情報については距離画像情報から得て、これら2つの情報を用いた計算処理によって、各関節の世界座標系の座標を得る。   For example, in the above description, the method in which the motion information generation unit 14 obtains the coordinates of each joint from the distance image information has been described, but the embodiment is not limited thereto. For example, the motion information generation unit 14 may obtain a coordinate of each joint using color image information together with distance image information. In this case, for example, the motion information generation unit 14 performs pattern matching between the human body pattern expressed in the color image coordinate system and the color image information, and obtains the coordinates of the human body surface from the color image information. The coordinate system of this color image does not include the “distance Z” information referred to in the distance image coordinate system. Therefore, for example, the motion information generation unit 14 obtains the information of “distance Z” from the distance image information, and obtains the coordinates of the world coordinate system of each joint by calculation processing using these two pieces of information.

また、動作情報生成部14は、カラー画像収集部11によって生成されたカラー画像情報、距離画像収集部12によって生成された距離画像情報及び音声認識部13によって出力された音声認識結果を、必要に応じて医用情報処理装置100へ適宜出力し、後述の動作情報記憶部131へ格納する。なお、カラー画像情報の画素位置及び距離画像情報の画素位置は、カラー画像収集部11及び距離画像収集部12の位置及び撮影方向に応じて予め対応付けが可能である。このため、カラー画像情報の画素位置及び距離画像情報の画素位置は、動作情報生成部14によって算出される世界座標系とも対応付けが可能である。更に、この対応付けと距離画像収集部12により算出される距離[m]を用いることで、身長や体の各部の長さ(腕の長さや腹部の長さ)を求めたり、カラー画像上で指定された2ピクセル間の距離を求めたりすることが可能である。また、同様に、カラー画像情報の撮影時刻情報及び距離画像情報の撮影時刻情報も、予め対応付けが可能である。また、動作情報生成部14は、音声認識結果と距離画像情報とを参照し、ある時刻に音声認識された単語が発せられた方向の付近に関節3aがあれば、その関節3aを含む人物が発した単語として出力可能である。更に、動作情報生成部14は、各関節の位置関係を表す情報についても、必要に応じて医用情報処理装置100へ適宜出力し、後述の動作情報記憶部131へ格納する。   Further, the motion information generation unit 14 needs the color image information generated by the color image collection unit 11, the distance image information generated by the distance image collection unit 12, and the voice recognition result output by the voice recognition unit 13. Accordingly, the information is appropriately output to the medical information processing apparatus 100 and stored in the operation information storage unit 131 described later. The pixel position of the color image information and the pixel position of the distance image information can be associated in advance according to the positions of the color image collection unit 11 and the distance image collection unit 12 and the shooting direction. For this reason, the pixel position of the color image information and the pixel position of the distance image information can be associated with the world coordinate system calculated by the motion information generation unit 14. Furthermore, by using this correspondence and the distance [m] calculated by the distance image collection unit 12, the height and the length of each part of the body (the length of the arm and the length of the abdomen) can be obtained, or on the color image. It is possible to obtain a distance between two designated pixels. Similarly, the shooting time information of the color image information and the shooting time information of the distance image information can be associated in advance. In addition, the motion information generation unit 14 refers to the speech recognition result and the distance image information, and if there is a joint 3a in the vicinity of the direction in which the speech-recognized word is issued at a certain time, the person including the joint 3a is displayed. It can be output as an emitted word. Furthermore, the motion information generation unit 14 also appropriately outputs information indicating the positional relationship between the joints to the medical information processing apparatus 100 as necessary, and stores the information in the later-described motion information storage unit 131.

また、動作情報生成部14は、世界座標系のz軸方向の座標の値である深度を用いて、撮影範囲に対応する1フレーム分の深度画像情報を生成する。この1フレーム分の深度画像情報には、例えば、撮影時刻情報と、撮影範囲に含まれる各画素に、その画素に対応する深度が対応付けられた情報とが含まれる。言い換えると、深度画像情報は、距離画像情報の各画素に対応付けられた距離情報に代えて深度情報を対応付けたものであり、距離画像情報と同様の距離画像座標系で各画素位置を表すことができる。動作情報生成部14は、生成した深度画像情報を医用情報処理装置100へ出力し、後述の動作情報記憶部131に格納する。なお、深度画像情報は、各画素の深度に応じた色の濃淡をビットマップに配置した深度画像として出力されても良い。   In addition, the motion information generation unit 14 generates depth image information for one frame corresponding to the imaging range, using the depth which is a coordinate value in the z-axis direction of the world coordinate system. The depth image information for one frame includes, for example, shooting time information and information in which each pixel included in the shooting range is associated with a depth corresponding to the pixel. In other words, the depth image information is obtained by associating depth information in place of the distance information associated with each pixel of the distance image information, and representing each pixel position in the same distance image coordinate system as the distance image information. be able to. The motion information generation unit 14 outputs the generated depth image information to the medical information processing apparatus 100 and stores it in the motion information storage unit 131 described later. It should be noted that the depth image information may be output as a depth image in which color shades corresponding to the depth of each pixel are arranged in a bitmap.

なお、ここでは、動作情報収集部10によって一人の人物の動作が検知される場合を説明したが、実施形態はこれに限定されるものではない。動作情報収集部10の撮影範囲に含まれていれば、動作情報収集部10は、複数人の人物の動作を検知しても良い。なお、同一フレームの距離画像情報に複数人の人物が撮影される場合には、動作情報収集部10は、同一フレームの距離画像情報から生成される複数人の人物の骨格情報を対応付けて、これを動作情報として医用情報処理装置100へ出力する。   Although the case where the motion information collecting unit 10 detects the motion of a single person has been described here, the embodiment is not limited to this. If it is included in the shooting range of the motion information collection unit 10, the motion information collection unit 10 may detect the motions of a plurality of persons. When a plurality of persons are photographed in the distance image information of the same frame, the motion information collection unit 10 associates the skeleton information of the plurality of persons generated from the distance image information of the same frame, This is output to the medical information processing apparatus 100 as operation information.

また、動作情報収集部10の構成は、上記の構成に限定されるものではない。例えば、光学式、機械式、磁気式等、他のモーションキャプチャによって人物の動作を検出することで動作情報を生成する場合には、動作情報収集部10は、必ずしも距離画像収集部12を有していなくても良い。かかる場合、動作情報収集部10は、モーションセンサとして、人物の動作を検知するために人体に装着させるマーカと、マーカを検出するセンサとを有する。そして、動作情報収集部10は、モーションセンサを用いて人物の動作を検知して動作情報を生成する。また、動作情報収集部10は、カラー画像収集部11によって撮影した画像に含まれるマーカの位置を用いて、カラー画像情報の画素位置と動作情報の座標とを対応付けた上で、必要に応じて医用情報処理装置100へ適宜出力する。また、例えば、動作情報収集部10は、音声認識結果を医用情報処理装置100へ出力しない場合には、音声認識部13を有していなくても良い。   Further, the configuration of the operation information collection unit 10 is not limited to the above configuration. For example, when motion information is generated by detecting the motion of a person by other motion capture, such as optical, mechanical, magnetic, etc., the motion information collection unit 10 does not necessarily include the distance image collection unit 12. It does not have to be. In such a case, the motion information collection unit 10 includes, as motion sensors, a marker that is worn on the human body in order to detect a human motion, and a sensor that detects the marker. Then, the motion information collection unit 10 detects motion of a person using a motion sensor and generates motion information. Further, the motion information collecting unit 10 associates the pixel position of the color image information with the coordinates of the motion information using the position of the marker included in the image photographed by the color image collecting unit 11, and if necessary, Output to the medical information processing apparatus 100 as appropriate. For example, the motion information collection unit 10 may not include the speech recognition unit 13 when the speech recognition result is not output to the medical information processing apparatus 100.

更に、上述した実施形態において、動作情報収集部10は、骨格情報として世界座標系の座標を出力したが、実施形態はこれに限られるものではない。例えば、動作情報収集部10は、変換前の距離画像座標系の座標を出力し、距離画像座標系から世界座標系への変換は、必要に応じて、医用情報処理装置100側で行ってもよい。   Furthermore, in the embodiment described above, the motion information collection unit 10 outputs the coordinates of the world coordinate system as the skeleton information, but the embodiment is not limited to this. For example, the motion information collection unit 10 outputs the coordinates of the distance image coordinate system before conversion, and the conversion from the distance image coordinate system to the world coordinate system may be performed on the medical information processing apparatus 100 side as necessary. Good.

図1の説明に戻る。医用情報処理装置100は、動作情報収集部10から出力される動作情報を用いて、リハビリテーションを支援するための処理を行う。医用情報処理装置100は、例えば、コンピュータ、ワークステーション等の情報処理装置であり、図1に示すように、出力部110と、入力部120と、記憶部130と、制御部140とを有する。   Returning to the description of FIG. The medical information processing apparatus 100 performs processing for supporting rehabilitation using the motion information output from the motion information collection unit 10. The medical information processing apparatus 100 is an information processing apparatus such as a computer or a workstation, for example, and includes an output unit 110, an input unit 120, a storage unit 130, and a control unit 140, as shown in FIG.

出力部110は、リハビリテーションを支援するための各種情報を出力する。例えば、出力部110は、医用情報処理装置100を操作する操作者が入力部120を用いて各種要求を入力するためのGUI(Graphical User Interface)を表示したり、医用情報処理装置100において生成された出力画像等を表示したり、或いは警告音を出力したりする。例えば、出力部110は、モニタ、スピーカー、ヘッドフォン、ヘッドセットのヘッドフォン部分等である。また、出力部110は、メガネ型ディスプレイやヘッドマウントディスプレイ等、利用者の身体に装着させる方式のディスプレイであってもよい。   The output unit 110 outputs various types of information for supporting rehabilitation. For example, the output unit 110 displays a GUI (Graphical User Interface) for an operator operating the medical information processing apparatus 100 to input various requests using the input unit 120, or is generated in the medical information processing apparatus 100. The output image or the like is displayed, or a warning sound is output. For example, the output unit 110 is a monitor, a speaker, headphones, a headphone portion of a headset, or the like. Further, the output unit 110 may be a display of a system that is worn on the user's body, such as a glasses-type display or a head-mounted display.

入力部120は、リハビリテーションを支援するための各種情報の入力を受け付ける。例えば、入力部120は、医用情報処理装置100の操作者から各種要求の入力を受け付け、受け付けた各種要求を医用情報処理装置100に転送する。例えば、入力部120は、マウス、キーボード、タッチコマンドスクリーン、トラックボール、マイク、ヘッドセットのマイク部分等である。また、入力部120は、血圧計、心拍計、体温計等の生体情報を取得するセンサであっても良い。   The input unit 120 accepts input of various information for supporting rehabilitation. For example, the input unit 120 receives input of various requests from an operator of the medical information processing apparatus 100 and transfers the received various requests to the medical information processing apparatus 100. For example, the input unit 120 is a mouse, a keyboard, a touch command screen, a trackball, a microphone, a microphone portion of a headset, or the like. The input unit 120 may be a sensor that acquires biological information such as a sphygmomanometer, a heart rate monitor, or a thermometer.

記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク装置や光ディスク装置等の記憶装置である。また、制御部140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路、或いはCPU(Central Processing Unit)が所定のプログラムを実行することで実現することができる。   The storage unit 130 is, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk device or an optical disk device. The control unit 140 can be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA) or a central processing unit (CPU) executing a predetermined program.

以上、第1の実施形態に係る医用情報処理装置100の構成について説明した。かかる構成のもと、第1の実施形態に係る医用情報処理装置100は、複数の対象者をそれぞれ指導する指導者によって行われる指導の質を高めることができる。なお、指導者は、例えば、医療機関に従事する医師、理学療法士、看護師等の医療従事者や、スポーツ施設に従事するスポーツトレーナー等である。   The configuration of the medical information processing apparatus 100 according to the first embodiment has been described above. Based on such a configuration, the medical information processing apparatus 100 according to the first embodiment can improve the quality of instruction performed by an instructor who instructs each of a plurality of subjects. The instructor is, for example, a medical worker such as a doctor, a physical therapist, or a nurse engaged in a medical institution, or a sports trainer engaged in a sports facility.

例えば、対象者がリハビリを行う場合に、リハビリを安全かつ効果的に行うために、リハビリの指導者が対象者を指導することが行われている。具体例を挙げると、指導者は、正しいリハビリの動作(フォーム)を対象者に教えたり、対象者の身体を支えたり、対象者を励ましたりするなど、対象者一人一人に対して支援を行う。   For example, when a subject performs rehabilitation, in order to perform rehabilitation safely and effectively, a rehabilitation leader guides the subject. For example, the instructor provides support to each target person, such as teaching the correct rehabilitation action (form) to the target person, supporting the target person's body, and encouraging the target person. .

ところで、リハビリを要する対象者が増える一方で指導者が不足しているため、一人の指導者が一度に複数の対象者を指導することが求められている。一例としては、医療機関では、リハビリを行う部屋ごとに数人の指導者を配置しておき、その部屋でリハビリを行う複数の対象者を必要に応じて適宜指導するという形式で、リハビリの指導が行われている。   By the way, since the number of subjects requiring rehabilitation increases and the number of leaders is insufficient, one leader is required to teach a plurality of subjects at once. As an example, in a medical institution, several instructors are assigned to each room where rehabilitation is performed, and rehabilitation instruction is provided in such a way that a plurality of target persons who perform rehabilitation in that room are appropriately instructed as necessary. Has been done.

しかしながら、一人の指導者が一度に複数の対象者を指導する場合には、必ずしも質の高い指導が行われていなかった。例えば、指導者が、ある対象者を指導している間に他の対象者が転倒してしまう場合や、一人一人の対象者に平等に関与することができない結果、一部の対象者のモチベーションが低下してしまう場合があった。そこで、第1の実施形態に係る医用情報処理装置100は、以下に説明する処理により、指導者を支援することで、複数の対象者をそれぞれ指導する指導者によって行われる指導の質を高めることができる。   However, when one instructor taught a plurality of subjects at once, high-quality instruction was not always provided. For example, some instructors may be motivated as a result of an instructor instructing one subject while another subject falls, or as a result of being unable to participate equally in each subject. May fall. Therefore, the medical information processing apparatus 100 according to the first embodiment improves the quality of guidance performed by a leader who individually guides a plurality of subjects by supporting the leader by the process described below. Can do.

以下、第1の実施形態では、一人の指導者が、対象者A(Aさん)、対象者B(Bさん)、対象者C(Cさん)、対象者D(Dさん)の4人の対象者がスクワット訓練を行う場合に、この4人の対象者をそれぞれ指導する場合を説明する。この場合、図1に例示した動作情報収集部10A〜10Dがそれぞれの対象者A〜Dを撮影し、動作情報を生成する。なお、実施形態はこれに限定されるものではなく、例えば、対象者の人数や対象者が行うリハビリの種目は任意に変更されて良い。また、ここでは、4人の対象者が同じ種目のリハビリを行う場合を説明するが、これに限らず、それぞれの対象者が異なる種目を行う場合であっても良い。また、一つの動作情報収集部10によって複数の対象者を撮影する場合であっても良い。   Hereinafter, in the first embodiment, one instructor has four persons, a target person A (Mr. A), a target person B (Mr. B), a target person C (Mr. C), and a target person D (Mr. D). A case where each of the four subjects is instructed when the subject performs squat training will be described. In this case, the motion information collection units 10A to 10D illustrated in FIG. 1 capture the target persons A to D and generate motion information. In addition, embodiment is not limited to this, For example, the number of subjects and the rehabilitation item which a subject performs may be changed arbitrarily. In addition, here, a case where four subjects perform the same type of rehabilitation will be described, but the present invention is not limited to this, and each subject may perform a different event. Further, a case where a plurality of subjects are photographed by one motion information collecting unit 10 may be used.

図5は、第1の実施形態に係る医用情報処理装置100の構成の一例を示す図である。図5に示すように、医用情報処理装置100においては、記憶部130が動作情報記憶部131と、実施メニュー記憶部132と、危険動作記憶部133と、怠慢動作記憶部134と、関与情報記憶部135と、警告条件記憶部136とを有する。   FIG. 5 is a diagram illustrating an example of the configuration of the medical information processing apparatus 100 according to the first embodiment. As shown in FIG. 5, in the medical information processing apparatus 100, the storage unit 130 includes an operation information storage unit 131, an execution menu storage unit 132, a dangerous operation storage unit 133, a negligence operation storage unit 134, and a participation information storage. Unit 135 and a warning condition storage unit 136.

動作情報記憶部131は、動作情報収集部10によって収集された各種情報を記憶する。具体的には、動作情報記憶部131は、動作情報生成部14によって生成された動作情報を記憶する。より具体的には、動作情報記憶部131は、動作情報生成部14によって生成されたフレームごとの骨格情報を記憶する。ここで、動作情報記憶部131、動作情報生成部14によって出力されたカラー画像情報、距離画像情報及び音声認識結果をフレームごとにさらに対応付けて記憶することも可能である。   The motion information storage unit 131 stores various information collected by the motion information collection unit 10. Specifically, the motion information storage unit 131 stores the motion information generated by the motion information generation unit 14. More specifically, the motion information storage unit 131 stores skeleton information for each frame generated by the motion information generation unit 14. Here, it is also possible to store the color image information, the distance image information, and the speech recognition result output by the motion information storage unit 131 and the motion information generation unit 14 in association with each other for each frame.

図6は、第1の実施形態に係る動作情報記憶部131によって記憶される動作情報の一例を示す図である。動作情報記憶部131は、図6に示すように、氏名ごとに、氏名番号と、実施日と、動作情報とを対応付けた動作情報を記憶する。ここで、「氏名」とは、対象者の氏名を示す。「対象者番号」とは、対象者を一意に特定するための識別子であり、対象者ごとに付与される。「実施日」とは、対象者がスクワット訓練を実施した日時を示す。「動作情報」とは、動作情報収集部10によって収集された情報を示す。   FIG. 6 is a diagram illustrating an example of operation information stored in the operation information storage unit 131 according to the first embodiment. As illustrated in FIG. 6, the motion information storage unit 131 stores motion information in which a name number, an implementation date, and motion information are associated with each other for each name. Here, the “name” indicates the name of the target person. The “target person number” is an identifier for uniquely specifying the target person, and is assigned to each target person. “Implementation date” indicates the date and time when the subject performed the squat training. “Operation information” indicates information collected by the operation information collection unit 10.

図6に示すように、動作情報記憶部131は、「氏名:A」、「氏名番号:1」、「実施日:20120801_1」、「動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報」、などを記憶する。上記した情報は、「氏名番号」が「1」である「氏名:A」の人物が「2012年」の「8月1日」に実施した「1回目」のスクワット訓練における動作情報として、「カラー画像情報」と、「距離画像情報」と、「音声認識結果」と、「骨格情報」とを含む動作情報が記憶されていることを示す。   As illustrated in FIG. 6, the operation information storage unit 131 includes “name: A”, “name number: 1”, “implementation date: 20120801_1”, “operation information: color image information, distance image information, speech recognition result, “Skeleton information”, etc. are stored. The above information includes the operation information in the “first” squat training conducted on “August 1” of “2012” by a person of “name: A” whose “name number” is “1”. It indicates that operation information including “color image information”, “distance image information”, “voice recognition result”, and “skeleton information” is stored.

ここで、図6に示す動作情報において、スクワット訓練を実行している際に撮影された全てのフレームごとの「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」が時系列順に時間に対応付けて記憶される。   Here, in the motion information shown in FIG. 6, “color image information”, “distance image information”, “speech recognition result”, and “skeleton information” for every frame captured when the squat training is executed. Are stored in association with time in chronological order.

また、動作情報記憶部131は、図6に示すように、「氏名:A」、「氏名番号:1」、「実施日:20120801_2」、「動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報」、などを記憶する。すなわち、動作情報記憶部131は、「氏名:A」の人物が「2012年」の「8月1日」に実施した「2回目」のスクワット訓練における動作情報も同様に記憶する。   Further, as shown in FIG. 6, the motion information storage unit 131 includes “name: A”, “name number: 1”, “implementation date: 20120802”, “motion information: color image information, distance image information, voice recognition”. Results, skeleton information, etc. are stored. In other words, the motion information storage unit 131 similarly stores motion information in the “second” squat training performed by the person of “name: A” on “August 1” of “2012”.

また、動作情報記憶部131は、図6に示すように、「氏名:B」、「氏名番号:2」の人物についても、「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」を含む動作情報を記憶する。このように、動作情報記憶部131は、対象者ごとに収集されたスクワット訓練の動作情報を、それぞれの対象者に対応付けて記憶する。なお、図6に示す動作情報はあくまでも一例である。すなわち、動作情報記憶部131は、図6に示す「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」以外の情報をさらに対応付けて記憶することができ、また、例えば、動作情報収集部10が音声認識部13を有さない場合には、音声認識結果を含まれないものとして記憶することとなる。   Further, as illustrated in FIG. 6, the motion information storage unit 131 also performs “color image information”, “distance image information”, and “speech recognition result” for a person with “name: B” and “name number: 2”. And motion information including “skeleton information” is stored. As described above, the motion information storage unit 131 stores the squat training motion information collected for each subject in association with each subject. Note that the operation information shown in FIG. 6 is merely an example. That is, the motion information storage unit 131 can further store information other than “color image information”, “distance image information”, “speech recognition result”, and “skeleton information” shown in FIG. For example, when the motion information collection unit 10 does not have the voice recognition unit 13, the voice recognition result is stored as not included.

また、動作情報に含まれる「カラー画像情報」及び「距離画像情報」には、ビットマップ(bitmap)、JPEG、その他バイナリ形式の画像データ、または、当該画像データへのリンク等が含まれる。また、動作情報に含まれる「音声認識結果」には、上述した認識情報の他、音声データそのものや、認識情報或いは音声データへのリンクであってもよい。   The “color image information” and “distance image information” included in the operation information include bitmap (bitmap), JPEG, other binary format image data, or a link to the image data. In addition to the above-described recognition information, the “voice recognition result” included in the operation information may be voice data itself or a link to the recognition information or voice data.

実施メニュー記憶部132は、対象者の所定動作に関する習熟の度合いを表す習熟度を算出するための情報を記憶する。例えば、実施メニュー記憶部132は、後述の習熟度算出部142Aによって参照される。また、例えば、実施メニュー記憶部132は、医用情報処理装置100の操作者によって予め登録される。   The implementation menu storage unit 132 stores information for calculating a proficiency level indicating a proficiency level related to the predetermined motion of the target person. For example, the implementation menu storage unit 132 is referred to by a proficiency level calculation unit 142A described later. For example, the execution menu storage unit 132 is registered in advance by an operator of the medical information processing apparatus 100.

図7は、第1の実施形態に係る実施メニュー記憶部132に記憶される情報の一例を示す図である。実施メニュー記憶部132は、図7に示すように、実施メニューと、未習熟動作情報と、加算習熟度とを対応付けた情報を記憶する。ここで、「実施メニュー」とは、対象者が行うリハビリの種目である。「未習熟動作情報」とは、該当する実施メニューを未習熟の者が行う動作を表す動作情報である。「加算習熟度」とは、習熟度算出部142Aによって習熟度が算出される場合に、習熟度に加算される値である。なお、リハビリの種類は、所定動作の一例である。   FIG. 7 is a diagram illustrating an example of information stored in the implementation menu storage unit 132 according to the first embodiment. As illustrated in FIG. 7, the execution menu storage unit 132 stores information in which the execution menu, the unskilled operation information, and the addition skill level are associated with each other. Here, the “execution menu” is a rehabilitation event performed by the subject. “Unexperienced operation information” is operation information representing an operation performed by an unskilled person on the corresponding execution menu. The “added proficiency level” is a value added to the proficiency level when the proficiency level is calculated by the proficiency level calculation unit 142A. The type of rehabilitation is an example of a predetermined operation.

図7に示すように、実施メニュー記憶部132は、実施メニュー「スクワット訓練」と、未習熟動作情報「膝が足首よりも5cm以上前方に出ている」と、加算習熟度「−1」とを対応付けた情報を記憶する。つまり、実施メニュー記憶部132は、対象者がスクワット訓練を行う場合に、対象者の膝が足首よりも5cm以上前方に出ていると、習熟度算出部142Aによって対象者の加算習熟度に「−1」が加算されることを記憶する。この未習熟動作情報「膝が足首よりも5cm以上前方に出ている」は、例えば、対象者が動作情報収集部10に正対する場合には、対象者の膝(関節3n又は3r)のz座標の値が足首(関節3o又は3s)のz座標の値より5cm以上小さい値になるか否かに応じて判定される。また、実施メニュー記憶部132は、実施メニュー「ジャンプ訓練」と、未習熟動作情報「ジャンプ着地後1秒以内に膝が内側に5cm以上入り込んでいる(内股)。又はジャンプ着地後1秒以内に膝が外側に5cm以上出ている(がに股)」と、加算習熟度「−1」とを対応付けた情報を記憶する。つまり、実施メニュー記憶部132は、対象者がジャンプ訓練を行う場合に、ジャンプ着地後1秒以内に対象者の膝が内側に5cm以上入り込む動作、又は、ジャンプ着地後1秒以内に対象者の膝が外側に5cm以上出る動作が行われると、習熟度算出部142Aによって対象者の習熟度に「−1」が加算されることを記憶する。この未習熟動作情報「ジャンプ着地後1秒以内に膝が内側に5cm以上入り込む(内股)。又はジャンプ着地後1秒以内に膝が外側に5cm以上出る(がに股)」は、例えば、対象者が動作情報収集部10に正対する場合には、対象者の足根(関節3p又は3t)のz座標の値が0(床面のz座標)になった時点の膝(関節3n又は3r)のx座標の値と、その1秒後の膝(関節3n又は3r)のx座標の値とを比較することで判定される。具体的には、右膝(関節3n)を用いる場合には、x座標の値が5cm以上大きい値になると内股、5cm以上小さい値になるとがに股と判定される。また、実施メニュー記憶部132は、他の実施メニューについても同様に、実施メニューと、未習熟動作情報と、加算習熟度とを対応付けた情報を記憶する。   As illustrated in FIG. 7, the execution menu storage unit 132 includes an execution menu “squat training”, unskilled movement information “knees appearing more than 5 cm ahead of the ankle”, and additional learning level “−1”. Is stored. That is, when the subject performs squat training, if the subject's knees are more than 5 cm ahead of the ankle when the subject performs squat training, the skill level calculation unit 142A sets the subject's additional skill level to “ It stores that "-1" is added. For example, when the subject faces the motion information collecting unit 10, z of the subject's knee (joint 3 n or 3 r) The determination is made according to whether or not the coordinate value is 5 cm or more smaller than the z-coordinate value of the ankle (joint 3o or 3s). In addition, the execution menu storage unit 132 includes an execution menu “jump training” and unfamiliar movement information “within 1 second after jump landing, the knee has entered 5 cm or more inside (inner thigh). Or within 1 second after jump landing. If the knee is 5 cm or more outside (the crotch) ”, the information associated with the additional proficiency“ −1 ”is stored. That is, when the subject performs jump training, the execution menu storage unit 132 moves the subject's knees inward by 5 cm or more within 1 second after the jump landing, or the subject's knee within 1 second after the jump landing. When the movement of the knees going out by 5 cm or more is performed, it is stored that “−1” is added to the proficiency level of the subject by the proficiency level calculation unit 142A. This inexperienced movement information “the knee enters 5 cm or more inward (inner thigh) within 1 second after jump landing” or “the knee comes out 5 cm or more outside in 1 second after jump landing” When facing the motion information collection unit 10, the knee (joint 3n or 3r) at the time when the z coordinate value of the subject's foot (joint 3p or 3t) becomes 0 (z coordinate on the floor surface). This is determined by comparing the value of the x coordinate with the value of the x coordinate of the knee (joint 3n or 3r) one second after that. Specifically, when the right knee (joint 3n) is used, when the value of the x coordinate is a value larger by 5 cm or more, it is determined that the inner crotch is a value smaller by 5 cm or more. Similarly, the execution menu storage unit 132 stores information that associates the execution menu, the unskilled operation information, and the addition proficiency level with respect to the other execution menus.

なお、図7に示した実施メニュー記憶部132は一例であり、実施形態はこれに限定されるものではない。例えば、実施メニュー記憶部132に記憶される未習熟動作情報は、操作者によって任意の項目が登録されて良い。また、実施メニュー記憶部132に記憶される加算習熟度は、操作者によって任意の値が登録されて良い。   The implementation menu storage unit 132 illustrated in FIG. 7 is an example, and the embodiment is not limited thereto. For example, as the unskilled operation information stored in the execution menu storage unit 132, an arbitrary item may be registered by the operator. Further, an arbitrary value may be registered by the operator as the addition proficiency level stored in the execution menu storage unit 132.

危険動作記憶部133は、対象者の所定動作における危険の度合いを表す危険度を算出するための情報を記憶する。例えば、危険動作記憶部133は、後述の危険度算出部142Bによって参照される。また、例えば、実施メニュー記憶部132は、医用情報処理装置100の操作者によって予め登録される。   The dangerous action storage unit 133 stores information for calculating a degree of danger that represents the degree of danger in the predetermined action of the subject person. For example, the dangerous motion storage unit 133 is referred to by a risk level calculation unit 142B described later. For example, the execution menu storage unit 132 is registered in advance by an operator of the medical information processing apparatus 100.

図8は、第1の実施形態に係る実施メニュー記憶部132に記憶される情報の一例を示す図である。危険動作記憶部133は、図8に示すように、危険動作情報と、加算危険度とを対応付けた情報を記憶する。ここで、「危険動作情報」とは、対象者が危険な状況に陥る可能性を示唆する対象者の動作を表す動作情報であり、例えば、対象者が転倒しそうな状態や対象者が過度に疲労している状態を表す動作情報である。「加算危険度」とは、危険度算出部142Bによって危険度が算出される場合に、危険度に加算される値である。   FIG. 8 is a diagram illustrating an example of information stored in the implementation menu storage unit 132 according to the first embodiment. As illustrated in FIG. 8, the dangerous action storage unit 133 stores information in which dangerous action information is associated with an addition risk level. Here, the “dangerous motion information” is motion information indicating the motion of the target person who suggests that the target person may fall into a dangerous situation. For example, the state in which the target person is likely to fall or the target person is excessive This is operation information indicating a state of fatigue. The “addition risk level” is a value added to the risk level when the risk level is calculated by the risk level calculation unit 142B.

図8に示すように、危険動作記憶部133は、危険動作情報「足の接地点と体の重心点が横方向に大きくズレている」と、加算危険度「+3」とを対応付けた情報を記憶する。つまり、危険動作記憶部133は、対象者の足の接地点と体の重心点が横方向に大きくズレていると、危険度算出部142Bによって対象者の危険度に「+3」が加算されることを記憶する。この危険動作情報「足の接地点と体の重心点が横方向に大きくズレている」は、例えば、対象者の足根(関節3p又は3t)のz座標の値が0(床面のz座標)である場合に、足根と腰(関節3d)の水平距離が30cm以上離れているか否かに応じて判定される。また、危険動作記憶部133は、危険動作情報「膝が小刻みに振動する」と、加算危険度「+1」とを対応付けた情報を記憶する。つまり、危険動作記憶部133は、対象者の膝が小刻みに振動するという動作が行われると、危険度算出部142Bによって対象者の危険度に「+1」が加算されることを記憶する。この危険動作情報「膝が小刻みに振動する」は、例えば、対象者が動作情報収集部10に正対する場合には、対象者の膝(関節3n又は3r)のx座標の値の変位が閾値以上であるか否かに応じて判定される。また、危険動作記憶部133は、他の危険動作情報についても同様に、危険動作情報と、加算危険度とを対応付けた情報を記憶する。   As illustrated in FIG. 8, the dangerous motion storage unit 133 associates the dangerous motion information “the ground contact point of the foot and the center of gravity of the body are greatly shifted in the horizontal direction” and the added risk “+3”. Remember. That is, the dangerous motion storage unit 133 adds “+3” to the risk level of the subject by the risk level calculation unit 142B when the ground contact point of the subject's foot and the center of gravity of the body are greatly shifted in the horizontal direction. Remember that. This dangerous motion information “the ground contact point of the foot and the center of gravity of the body are greatly shifted in the lateral direction” means that the z coordinate value of the subject's foot (joint 3p or 3t) is 0 (z on the floor surface), for example. In the case of (coordinate), the determination is made according to whether or not the horizontal distance between the foot sole and the waist (joint 3d) is 30 cm or more. Further, the dangerous motion storage unit 133 stores information that associates the dangerous motion information “knee vibrates in small increments” with the addition risk “+1”. In other words, the dangerous motion storage unit 133 stores that “+1” is added to the risk level of the subject by the risk level calculation unit 142B when an operation that the subject's knee vibrates in small increments is performed. This dangerous motion information “the knee vibrates in small increments” is, for example, when the subject faces the motion information collecting unit 10 and the displacement of the x coordinate value of the subject's knee (joint 3n or 3r) is a threshold value. It is determined according to whether or not it is above. Similarly, the dangerous action storage unit 133 stores information that associates the dangerous action information with the addition risk level for the other dangerous action information.

なお、図8に示した危険動作記憶部133は一例であり、実施形態はこれに限定されるものではない。例えば、危険動作記憶部133に記憶される危険動作情報は、操作者によって任意の項目が登録されて良い。また、危険動作記憶部133に記憶される加算危険度は、操作者によって任意の値が登録されて良い。   Note that the dangerous motion storage unit 133 illustrated in FIG. 8 is an example, and the embodiment is not limited thereto. For example, as the dangerous motion information stored in the dangerous motion storage unit 133, any item may be registered by the operator. Further, an arbitrary value may be registered by the operator as the addition risk stored in the dangerous motion storage unit 133.

怠慢動作記憶部134は、対象者が所定動作をいい加減に行っている度合いを表す怠慢度を算出するための情報を記憶する。例えば、怠慢動作記憶部134は、後述の怠慢度算出部142Cによって参照される。また、例えば、怠慢動作記憶部134は、医用情報処理装置100の操作者によって予め登録される。   The laziness action storage unit 134 stores information for calculating a degree of laziness that represents the degree to which the subject performs a predetermined action. For example, the negligence operation storage unit 134 is referred to by a later-described neglect level calculation unit 142C. Further, for example, the negligence operation storage unit 134 is registered in advance by an operator of the medical information processing apparatus 100.

図9は、第1の実施形態に係る怠慢動作記憶部134に記憶される情報の一例を示す図である。怠慢動作記憶部134は、図9に示すように、実施メニューと、怠慢動作情報と、加算怠慢度とを対応付けた情報を記憶する。ここで、「怠慢動作情報」とは、該当する実施メニューを対象者が正しい動作(フォーム)で行わずに、手抜きをしている場合の動作を表す動作情報である。「加算怠慢度」とは、怠慢度算出部142Cによって怠慢度が算出される場合に、怠慢度に加算される値である。   FIG. 9 is a diagram illustrating an example of information stored in the negligence operation storage unit 134 according to the first embodiment. As shown in FIG. 9, the laziness operation storage unit 134 stores information in which the execution menu, the laziness operation information, and the addition laziness level are associated with each other. Here, the “lazy action information” is action information that represents an action when the subject does not perform the corresponding action menu with the correct action (form) and is omitted. The “additional negligence level” is a value added to the negligence level when the negligence level calculation unit 142C calculates the negligence level.

図9に示すように、怠慢動作記憶部134は、実施メニュー「スクワット訓練」と、怠慢動作情報「10秒間の腰の高さが20cm以上変化していない」と、加算怠慢度「+1」とを対応付けた情報を記憶する。つまり、怠慢動作記憶部134は、対象者がスクワット訓練を行う場合に、対象者の腰の高さが20cm以上変化していなければ、怠慢度算出部142Cによって対象者の怠慢度に「+1」が加算されることを記憶する。この怠慢動作情報「腰の高さが20cm以上変化していない」は、例えば、10秒間に対象者の腰(関節3d)のy座標の値が20cm以上変化しているか否かに応じて判定される。また、怠慢動作記憶部134は、実施メニュー「ジャンプ訓練」と、怠慢動作情報「足が床面から離れていない」と、加算怠慢度「+1」とを対応付けた情報を記憶する。つまり、怠慢動作記憶部134は、対象者がジャンプ訓練を行う場合に、対象者の足が床面から離れていなければ、怠慢度算出部142Cによって対象者の怠慢度に「+1」が加算されることを記憶する。この怠慢動作情報「足が床面から離れていない」は、例えば、10秒間に対象者の足根(関節3p又は3t)のy座標の値が床面から10cm以上大きい値になっているか否かに応じて判定される。また、怠慢動作記憶部134は、他の実施メニューについても同様に、実施メニューと、怠慢動作情報と、加算怠慢度とを対応付けた情報を記憶する。   As shown in FIG. 9, the lazy action storage unit 134 includes an execution menu “squat training”, lazy action information “the waist height for 10 seconds has not changed by 20 cm or more”, and the added negligence level “+1”. Is stored. That is, when the subject performs squat training, if the subject's waist height has not changed by 20 cm or more, the negligence calculating unit 142C adds “+1” to the subject's neglect. Is stored. This negligence action information “the waist height has not changed by 20 cm or more” is determined, for example, depending on whether the y coordinate value of the subject's waist (joint 3d) has changed by 20 cm or more in 10 seconds. Is done. Further, the negligence action storage unit 134 stores information in which the execution menu “jump training”, the negligence action information “the foot is not separated from the floor surface”, and the addition neglect degree “+1” are associated with each other. That is, in the case where the subject performs jump training, the negligence motion storage unit 134 adds “+1” to the subject's negligence by the neglect level calculation unit 142C if the subject's feet are not separated from the floor surface. I remember that. This negligence action information “the foot is not separated from the floor surface” is, for example, whether the y coordinate value of the subject's foot (joint 3p or 3t) is greater than the floor surface by 10 cm or more in 10 seconds. It is determined according to Similarly, for the other implementation menus, the negligence operation storage unit 134 stores information in which the implementation menu, the negligence operation information, and the addition negligence level are associated with each other.

なお、図9に示した怠慢動作記憶部134は一例であり、実施形態はこれに限定されるものではない。例えば、怠慢動作記憶部134に記憶される怠慢動作情報は、操作者によって任意の項目が登録されて良い。また、怠慢動作記憶部134に記憶される加算怠慢度は、操作者によって任意の値が登録されて良い。   Note that the negligent action storage unit 134 illustrated in FIG. 9 is an example, and the embodiment is not limited thereto. For example, arbitrary items may be registered by the operator as the idle action information stored in the idle action storage unit 134. In addition, an arbitrary value may be registered by the operator for the addition negligence stored in the negligence operation storage unit 134.

関与情報記憶部135は、指導者から対象者への関与の度合いを表す関与度を算出するための情報を記憶する。ここで言う関与とは、指導者が対象者を指導することに限らず、指導者が対象者と雑談して対象者をリラックスさせることや、指導者が対象者の肩を軽くたたいて激励すること等も含む。例えば、関与情報記憶部135は、後述の関与度算出部142Dによって参照される。また、例えば、関与情報記憶部135は、医用情報処理装置100の操作者によって予め登録される。   The involvement information storage unit 135 stores information for calculating the degree of involvement representing the degree of involvement from the leader to the subject. The involvement mentioned here is not limited to the guidance of the instructor by the instructor, but the instructor chats with the instructor to relax the instructor, or the instructor encourages the subject by tapping the subject's shoulder. To do. For example, the participation information storage unit 135 is referred to by an after-mentioned participation degree calculation unit 142D. For example, the participation information storage unit 135 is registered in advance by an operator of the medical information processing apparatus 100.

図10は、第1の実施形態に係る関与情報記憶部135に記憶される情報の一例を示す図である。関与情報記憶部135は、図10に示すように、関与条件と、加算関与度とを対応付けた情報を記憶する。ここで、「関与情報」とは、指導者が対象者に関与したことを表す情報である。「加算関与度」とは、関与度算出部142Dによって関与度が算出される場合に、関与度に加算される値である。   FIG. 10 is a diagram illustrating an example of information stored in the participation information storage unit 135 according to the first embodiment. As illustrated in FIG. 10, the participation information storage unit 135 stores information in which the participation condition is associated with the addition participation degree. Here, “participation information” is information indicating that the leader is involved in the target person. The “additional participation degree” is a value added to the participation degree when the participation degree is calculated by the participation degree calculation unit 142D.

図10に示すように、関与情報記憶部135は、関与情報「対象者の名前を呼ぶ」と、加算関与度「+1」とを対応付けた情報を記憶する。つまり、関与情報記憶部135は、対象者の名前が呼ばれると、関与度算出部142Dによって対象者の関与度に「+1」が加算されることを記憶する。この関与情報「対象者の名前を呼ぶ」は、対象者の名前が単語として認識された音声認識結果が取得されたか否かに応じて判定される。また、関与情報記憶部135は、関与情報「対象者に対して10秒以上の声かけを行う」と、加算関与度「+3」とを対応付けた情報を記憶する。つまり、関与情報記憶部135は、対象者に対して10秒以上の声かけが行われると、関与度算出部142Dによって対象者の関与度に「+3」が加算されることを記憶する。この関与情報「対象者に対して10秒以上の声かけを行う」は、対象者の名前が単語として認識された音声認識結果の所要時間が10秒以上あるか否かに応じて判定される。また、関与情報記憶部135は、関与情報「対象者に指導者が近づく」と、加算関与度「+3」とを対応付けた情報を記憶する。つまり、関与情報記憶部135は、対象者に指導者が近づくと、関与度算出部142Dによって対象者の関与度に「+3」が加算されることを記憶する。この関与情報「対象者に指導者が近づく」は、対象者を撮影する動作情報収集部10の撮影領域に、白衣を着た人物(白衣をパターンマッチングで検出する)が検出されたか否かに応じて判定される。また、関与情報記憶部135は、関与情報「対象者に直接指導する(指導者が対象者に接触する)」と、加算関与度「+5」とを対応付けた情報を記憶する。つまり、関与情報記憶部135は、指導者が対象者に直接指導する(指導者が対象者に接触する)と、関与度算出部142Dによって対象者の関与度に「+5」が加算されることを記憶する。この関与情報「対象者に直接指導する(指導者が対象者に接触する)」は、例えば、白衣を着た人物の手(関節3h又は3l)が対象者のいずれかの関節から10cm以内に近づいたか否かに応じて判定される。また、関与情報記憶部135は、他の関与情報についても同様に、関与情報と、加算関与度とを対応付けた情報を記憶する。   As illustrated in FIG. 10, the participation information storage unit 135 stores information in which the participation information “call the name of the subject” is associated with the addition participation degree “+1”. That is, the participation information storage unit 135 stores that “+1” is added to the degree of participation of the subject by the degree-of-interest calculation unit 142D when the name of the subject is called. This participation information “call the name of the subject” is determined depending on whether or not a speech recognition result in which the name of the subject is recognized as a word has been acquired. Further, the participation information storage unit 135 stores information in which the participation information “performs the target person for 10 seconds or more” and the added participation degree “+3” are associated with each other. That is, the participation information storage unit 135 stores that “+3” is added to the degree of participation of the subject by the degree-of-interest calculation unit 142D when the subject is called for 10 seconds or more. This participation information “call the subject for 10 seconds or more” is determined depending on whether the time required for the speech recognition result in which the name of the subject is recognized as a word is 10 seconds or more. . In addition, the participation information storage unit 135 stores information in which the participation information “the leader approaches the subject” is associated with the added participation degree “+3”. In other words, the participation information storage unit 135 stores that “+3” is added to the degree of participation of the subject by the degree of involvement calculation unit 142D when the instructor approaches the subject. This participation information “the leader approaches the target person” is whether or not a person wearing a white coat (detecting the white coat by pattern matching) is detected in the shooting area of the motion information collection unit 10 that takes a picture of the target person. It is determined accordingly. In addition, the participation information storage unit 135 stores information in which the participation information “directly instruct the subject (the instructor contacts the subject)” is associated with the additional degree of participation “+5”. In other words, the participation information storage unit 135 adds “+5” to the degree of participation of the subject by the degree-of-interest calculation unit 142D when the leader directly instructs the subject (the leader contacts the subject). Remember. This participation information “directly instruct the subject (the instructor contacts the subject)” means, for example, that the hand (joint 3h or 3l) of a person wearing a white coat is within 10 cm from any joint of the subject Judgment is made according to whether or not it is approaching. In addition, the participation information storage unit 135 similarly stores information in which the participation information is associated with the addition participation degree for the other pieces of participation information.

なお、図10に示した関与情報記憶部135は一例であり、実施形態はこれに限定されるものではない。例えば、関与情報記憶部135に記憶される関与情報は、操作者によって任意の項目が登録されて良い。また、関与情報記憶部135に記憶される加算関与度は、操作者によって任意の値が登録されて良い。   Note that the participation information storage unit 135 illustrated in FIG. 10 is an example, and the embodiment is not limited thereto. For example, as the participation information stored in the participation information storage unit 135, any item may be registered by the operator. In addition, an arbitrary value may be registered by the operator for the addition participation degree stored in the participation information storage unit 135.

警告条件記憶部136は、指導者に対する警告の要否を判定するための警告条件を記憶する。この警告は、ある対象者に対する指導が必要である旨を指導者に通知するために行われるものである。例えば、警告条件記憶部136は、後述の決定部143によって参照される。また、例えば、警告条件記憶部136は、医用情報処理装置100の操作者によって予め登録される。   The warning condition storage unit 136 stores a warning condition for determining whether or not a warning is required for the instructor. This warning is given to notify the leader that guidance for a certain subject is necessary. For example, the warning condition storage unit 136 is referred to by the determination unit 143 described later. Further, for example, the warning condition storage unit 136 is registered in advance by an operator of the medical information processing apparatus 100.

図11は、第1の実施形態に係る警告条件記憶部136に記憶される情報の一例を示す図である。警告条件記憶部136は、図11に示すように、パラメータと、警告条件とを対応付けた情報を記憶する。ここで、「パラメータ」とは、対象者に対する指導が不要か否かを判定するためパラメータであり、例えば、習熟度、危険度、怠慢度及び関与度等である。「警告条件」とは、対象者に対する指導が不要か否かを判定するために設定される該当のパラメータの閾値である。   FIG. 11 is a diagram illustrating an example of information stored in the warning condition storage unit 136 according to the first embodiment. As shown in FIG. 11, the warning condition storage unit 136 stores information in which parameters and warning conditions are associated with each other. Here, the “parameter” is a parameter for determining whether or not guidance to the subject is unnecessary, and is, for example, a proficiency level, a risk level, a negligence level, and an involvement level. The “warning condition” is a threshold value of a corresponding parameter set to determine whether or not guidance for the subject is unnecessary.

図11に示すように、警告条件記憶部136は、パラメータ「習熟度」と、警告条件「−10未満」とを対応付けた情報を記憶する。つまり、警告条件記憶部136は、対象者ごとに算出される習熟度が−10未満になると、該当の対象者に対する指導が必要であると判定することを記憶する。また、警告条件記憶部136は、パラメータ「危険度」と、警告条件「+10以上」とを対応付けた情報を記憶する。つまり、警告条件記憶部136は、対象者ごとに算出される危険度が+10以上になると、該当の対象者に対する指導が必要であると判定することを記憶する。また、警告条件記憶部136は、パラメータ「怠慢度」と、警告条件「+10以上」とを対応付けた情報を記憶する。つまり、警告条件記憶部136は、対象者ごとに算出される怠慢度が+10以上になると、該当の対象者に対する指導が必要であると判定することを記憶する。また、警告条件記憶部136は、パラメータ「関与度」と、警告条件「−10未満」とを対応付けた情報を記憶する。つまり、警告条件記憶部136は、対象者ごとに算出される関与度が−10未満になると、該当の対象者に対する指導が必要であると判定することを記憶する。なお、警告条件記憶部136は、他の指標値が用いられる場合には、その指標値と、指標値に応じた警告条件とを記憶しても良い。   As illustrated in FIG. 11, the warning condition storage unit 136 stores information in which a parameter “skill level” is associated with a warning condition “less than −10”. That is, the warning condition storage unit 136 stores that it is determined that guidance for the subject person is necessary when the proficiency level calculated for each subject person is less than −10. Further, the warning condition storage unit 136 stores information in which the parameter “risk level” is associated with the warning condition “+10 or more”. That is, the warning condition storage unit 136 stores that it is determined that guidance for the target person is necessary when the degree of risk calculated for each target person is +10 or more. Further, the warning condition storage unit 136 stores information in which the parameter “degree of neglect” is associated with the warning condition “+10 or more”. That is, the warning condition storage unit 136 stores that it is determined that guidance for the target person is necessary when the degree of laziness calculated for each target person is +10 or more. Further, the warning condition storage unit 136 stores information in which the parameter “degree of participation” is associated with the warning condition “less than −10”. That is, the warning condition storage unit 136 stores that it is determined that guidance for the subject person is necessary when the degree of participation calculated for each subject person is less than −10. In addition, when other index values are used, the warning condition storage unit 136 may store the index value and a warning condition according to the index value.

なお、図11に示した警告条件記憶部136は一例であり、実施形態はこれに限定されるものではない。例えば、警告条件記憶部136に記憶されるパラメータは、操作者によって任意の項目が登録されて良い。また、関与情報記憶部135に記憶される警告条件は、操作者によって任意の値が登録されて良い。   Note that the warning condition storage unit 136 illustrated in FIG. 11 is an example, and the embodiment is not limited thereto. For example, as the parameters stored in the warning condition storage unit 136, any item may be registered by the operator. Further, an arbitrary value may be registered by the operator as the warning condition stored in the participation information storage unit 135.

図5の説明に戻る。医用情報処理装置100において、制御部140は、取得部141と、算出部142と、決定部143と、出力制御部144とを有する。   Returning to the description of FIG. In the medical information processing apparatus 100, the control unit 140 includes an acquisition unit 141, a calculation unit 142, a determination unit 143, and an output control unit 144.

取得部141は、それぞれ所定動作を行う複数の対象者について、対象者の動作を表す動作情報を対象者ごとに取得する。例えば、取得部141は、動作情報収集部10によって収集され、動作情報記憶部131によって記憶された動作情報を取得する。例えば、取得部141は、動作情報記憶部131によってフレームごとに記憶されたカラー画像情報、距離画像情報、音声認識結果及び骨格情報などを取得する。一例を挙げると、取得部141は、対象者のスクワット訓練における一連の動作にかかる全てのカラー画像情報、距離画像情報及び骨格情報を取得する。   The acquisition unit 141 acquires, for each target person, motion information representing the motion of the target person for a plurality of target persons who perform predetermined actions. For example, the acquisition unit 141 acquires the operation information collected by the operation information collection unit 10 and stored in the operation information storage unit 131. For example, the acquisition unit 141 acquires color image information, distance image information, voice recognition results, skeleton information, and the like stored for each frame by the motion information storage unit 131. For example, the acquisition unit 141 acquires all color image information, distance image information, and skeleton information related to a series of operations in squat training of the subject.

算出部142は、対象者ごとの動作情報に基づいて、所定動作の実施状況を示す指標値を対象者ごとに算出する。例えば、算出部142は、指標値として、対象者の前記所定動作に関する習熟の度合いを表す習熟度、対象者の所定動作における危険の度合いを表す危険度、及び、対象者が所定動作をいい加減に行っている度合いを表す怠慢度のうち少なくとも一つを算出する。また、例えば、算出部142は、更に、指導者から対象者への関与の度合いを表す関与度を対象者ごとに算出する。   The calculation unit 142 calculates an index value indicating the implementation status of the predetermined action for each target person based on the action information for each target person. For example, as the index value, the calculation unit 142 adjusts the proficiency level indicating the level of proficiency of the target person regarding the predetermined motion, the risk level indicating the degree of danger in the target user's predetermined motion, and the target person appropriately adjusting the predetermined motion. At least one of the negligence levels indicating the degree of going is calculated. In addition, for example, the calculation unit 142 further calculates the degree of involvement representing the degree of involvement from the leader to the subject for each subject.

例えば、算出部142は、動作情報記憶部131に記憶された情報を用いて、習熟度、危険度、怠慢度及び関与度を対象者ごとに算出する。具体的には、算出部142は、対象者A〜Dの動作情報を用いて、対象者A〜Dそれぞれについて、習熟度、危険度、怠慢度及び関与度を算出する。   For example, the calculation unit 142 calculates the proficiency level, the risk level, the negligence level, and the participation level for each target person using the information stored in the motion information storage unit 131. Specifically, the calculation unit 142 calculates the proficiency level, the risk level, the negligence level, and the participation level for each of the target people A to D using the motion information of the target people A to D.

例えば、算出部142は、図5に示すように、習熟度算出部142Aと、危険度算出部142Bと、怠慢度算出部142Cと、関与度算出部142Dとを有する。   For example, as illustrated in FIG. 5, the calculation unit 142 includes a proficiency level calculation unit 142A, a risk level calculation unit 142B, a neglect level calculation unit 142C, and an involvement level calculation unit 142D.

習熟度算出部142Aは、対象者ごとに習熟度を算出する。例えば、習熟度算出部142Aは、対象者が行う実施メニューを指定するための指定操作を、操作者から入力部120を介して受け付ける。そして、習熟度算出部142Aは、実施メニュー記憶部132を参照し、指定された実施メニューに対応する未習熟動作情報を取得する。そして、習熟度算出部142Aは、取得部141によって取得された各対象者の動作情報が未習熟動作情報に該当するか否かを判定する。そして、習熟度算出部142Aは、対象者の動作情報が未習熟動作情報に該当する場合には、その対象者の習熟度に未習熟動作情報に対応する加算習熟度を加算する。そして、習熟度算出部142Aは、各対象者の習熟度を決定部143に出力する。   The proficiency level calculation unit 142A calculates the proficiency level for each target person. For example, the proficiency level calculation unit 142 </ b> A accepts a designation operation for designating an execution menu performed by the target person from the operator via the input unit 120. Then, the proficiency level calculation unit 142A refers to the execution menu storage unit 132 and acquires unskilled operation information corresponding to the specified execution menu. Then, the proficiency level calculating unit 142A determines whether or not the motion information of each subject acquired by the acquiring unit 141 corresponds to unskilled motion information. Then, when the motion information of the subject person corresponds to the unskilled motion information, the skill level calculation unit 142A adds the addition skill level corresponding to the unskilled motion information to the skill level of the subject person. Then, the proficiency level calculation unit 142A outputs the proficiency level of each subject to the determination unit 143.

一例として、対象者Aがスクワット訓練を行う場合を説明する。この場合、習熟度算出部142Aは、対象者Aがスクワット訓練を行う旨を指定する指定操作を受け付ける。そして、習熟度算出部142Aは、実施メニュー記憶部132を参照し、スクワット訓練に対応する未習熟動作情報「膝が足首よりも5cm以上前方に出ている」を取得する。そして、習熟度算出部142Aは、取得部141によって対象者Aの動作情報が取得されるごとに、取得された各対象者の動作情報が未習熟動作情報に該当するか否かを判定する。具体的には、習熟度算出部142Aは、対象者が動作情報収集部10に正対する場合には、対象者Aの右膝(関節3n)のz座標の値が右足首(関節3o)のz座標の値より5cm以上小さい値になるか否かを判定する。そして、習熟度算出部142Aは、対象者Aの右膝のz座標の値が右足首のz座標の値より5cm以上小さい値になると、スクワットの加算習熟度「−1」を対象者Aの習熟度に加算する。そして、習熟度算出部142Aは、対象者Aの習熟度を決定部143に出力する。なお、習熟度算出部142Aには、各対象者の習熟度の初期値として「0」が設定されている。また、ここでは、対象者の右膝と右足首のz座標の値を用いる場合を例示したが、実施形態はこれに限定されるものではなく、例えば、習熟度算出部142Aは、左膝と左足首のz座標の値を用いても良い。また、例えば、習熟度算出部142Aは、両足の膝と足首のz座標の値を用いても良い。この場合、習熟度算出部142Aは、いずれか一方の膝が足首よりも5cm以上前方に出ている場合に、加算習熟度を加算しても良いし、両足の膝が足首よりも5cm以上前方に出ている場合に、加算習熟度を加算しても良い。   As an example, the case where the subject A performs squat training will be described. In this case, the proficiency level calculation unit 142A accepts a designation operation for designating that the subject person A performs squat training. Then, the proficiency level calculation unit 142A refers to the implementation menu storage unit 132, and acquires the unskilled operation information “knee comes out 5 cm or more ahead of the ankle” corresponding to the squat training. The proficiency level calculating unit 142A determines whether or not the acquired motion information of each subject corresponds to the unskilled motion information every time the motion information of the subject A is acquired by the acquiring unit 141. Specifically, the proficiency level calculating unit 142A determines that the z coordinate value of the right knee (joint 3n) of the subject A is the right ankle (joint 3o) when the subject faces the motion information collecting unit 10. It is determined whether or not the value is 5 cm or more smaller than the z coordinate value. When the z-coordinate value of the subject's A right knee is smaller than the z-coordinate value of the right ankle by 5 cm or more, the proficiency level calculating unit 142A sets the squat addition proficiency “−1” to the subject A's. Add to proficiency. Then, the proficiency level calculation unit 142A outputs the proficiency level of the subject A to the determination unit 143. In the proficiency level calculation unit 142A, “0” is set as the initial value of proficiency level of each subject person. Moreover, although the case where the value of the z coordinate of the subject's right knee and right ankle is used is illustrated here, the embodiment is not limited to this. For example, the proficiency level calculation unit 142A may The value of the z coordinate of the left ankle may be used. Further, for example, the proficiency level calculation unit 142A may use the values of the z coordinates of the knees and ankles of both feet. In this case, the proficiency level calculating unit 142A may add the additional proficiency level when one of the knees is 5 cm or more ahead of the ankle, and the knees of both legs are 5 cm or more ahead of the ankle. If you are out, you may add additional proficiency.

危険度算出部142Bは、対象者ごとに危険度を算出する。例えば、危険度算出部142Bは、危険動作記憶部133を参照し、取得部141によって取得された各対象者の動作情報が危険動作情報に該当するか否かを判定する。そして、危険度算出部142Bは、対象者の動作情報が危険動作情報に該当する場合には、その対象者の危険度に危険動作情報に対応する加算危険度を加算する。そして、危険度算出部142Bは、各対象者の危険度を決定部143に出力する。   The risk level calculation unit 142B calculates the risk level for each target person. For example, the risk level calculation unit 142B refers to the dangerous motion storage unit 133 and determines whether the motion information of each subject acquired by the acquisition unit 141 corresponds to the dangerous motion information. Then, when the motion information of the target person corresponds to the dangerous motion information, the risk level calculation unit 142B adds the addition risk level corresponding to the dangerous motion information to the risk level of the target person. Then, the risk level calculation unit 142B outputs the risk level of each subject person to the determination unit 143.

一例として、危険度算出部142Bは、危険動作記憶部133を参照し、危険動作記憶部133に記憶された全ての危険動作情報を取得する。そして、危険度算出部142Bは、取得部141によって対象者Aの動作情報が取得されるごとに、取得された対象者Aの動作情報が危険動作情報に該当するか否かをそれぞれ判定する。具体的に、危険度算出部142Bは、対象者Aの足根(関節3p又は3t)のz座標の値が0(床面のz座標)である場合に、足根と腰(関節3d)との水平距離を算出する。そして、危険度算出部142Bは、算出した水平距離が30cm以上離れていると、その危険動作情報に対応する加算危険度「+3」を対象者Aの危険度に加算する。そして、危険度算出部142Bは、対象者Aの習熟度を決定部143に出力する。なお、危険度算出部142Bには、各対象者の危険度の初期値として「0」が設定されている。また、危険度算出部142Bは、上記の例に限定されるものではなく、例えば、危険動作記憶部133に記憶される他の危険動作情報についても同様に、取得された対象者Aの動作情報がそれぞれの危険動作情報に該当するか否かを判定し、判定結果に応じて対象者Aの危険度を算出する。   As an example, the risk level calculation unit 142B refers to the dangerous action storage unit 133 and acquires all dangerous action information stored in the dangerous action storage unit 133. Then, every time the acquisition unit 141 acquires the motion information of the subject person A, the risk level calculation unit 142B determines whether or not the acquired motion information of the subject person A corresponds to the dangerous motion information. Specifically, when the z-coordinate value of the foot (joint 3p or 3t) of the subject A is 0 (the z-coordinate of the floor surface), the risk level calculation unit 142B determines the foot and waist (joint 3d). And calculate the horizontal distance. Then, when the calculated horizontal distance is 30 cm or more, the risk level calculation unit 142B adds the addition risk level “+3” corresponding to the dangerous motion information to the risk level of the subject person A. Then, the risk level calculation unit 142B outputs the proficiency level of the subject A to the determination unit 143. Note that “0” is set as the initial value of the risk level of each subject person in the risk level calculation unit 142B. Further, the risk level calculation unit 142B is not limited to the above example. For example, the other person's motion information stored in the dangerous motion storage unit 133 is acquired in the same manner. Is determined to correspond to each dangerous motion information, and the risk level of the subject person A is calculated according to the determination result.

怠慢度算出部142Cは、対象者ごとに怠慢度を算出する。例えば、怠慢度算出部142Cは、対象者が行う実施メニューを指定するための指定操作を、操作者から入力部120を介して受け付ける。そして、怠慢度算出部142Cは、怠慢動作記憶部134を参照し、指定された実施メニューに対応する怠慢動作情報を取得する。そして、怠慢度算出部142Cは、取得部141によって取得された各対象者の動作情報が怠慢動作情報に該当するか否かを判定する。そして、怠慢度算出部142Cは、対象者の動作情報が怠慢動作情報に該当する場合には、その対象者の怠慢度に怠慢動作情報に対応する加算怠慢度を加算する。そして、怠慢度算出部142Cは、各対象者の怠慢度を決定部143に出力する。   The negligence level calculation unit 142C calculates the neglect level for each target person. For example, the laziness calculation unit 142 </ b> C receives a designation operation for designating an execution menu performed by the target person from the operator via the input unit 120. Then, the laziness calculation unit 142C refers to the laziness operation storage unit 134, and acquires laziness operation information corresponding to the designated execution menu. Then, the laziness calculation unit 142C determines whether or not the motion information of each subject acquired by the acquisition unit 141 corresponds to the laziness motion information. Then, when the target person's motion information corresponds to the negligent motion information, the negligence level calculation unit 142C adds an addition negligence level corresponding to the negligent motion information to the target person's neglect level. Then, the laziness calculation unit 142C outputs the laziness level of each subject to the determination unit 143.

一例として、対象者Aがスクワット訓練を行う場合を説明する。この場合、怠慢度算出部142Cは、対象者Aがスクワット訓練を行う旨を指定する指定操作を受け付ける。そして、怠慢度算出部142Cは、実施メニュー記憶部132を参照し、スクワット訓練に対応する怠慢動作情報「腰の高さが20cm以上変化していない」を取得する。そして、怠慢度算出部142Cは、取得部141によって対象者Aの動作情報が取得されるごとに、取得された各対象者の動作情報が怠慢動作情報に該当するか否かを判定する。具体的に、怠慢度算出部142Cは、対象者が動作情報収集部10に正対する場合には、取得された対象者の動作情報のフレームから10秒前までのフレーム群を動作情報記憶部131から取得する。そして、怠慢度算出部142Cは、10秒の間における対象者Aの腰(関節3d)のy座標の最大値と最小値との差分が20cm以上あるか否かを判定する。そして、怠慢度算出部142Cは、対象者Aの腰のy座標の最大値と最小値との差分が20cm以上ないと、スクワットの加算怠慢度「+1」を対象者Aの怠慢度に加算する。そして、怠慢度算出部142Cは、対象者Aの怠慢度を決定部143に出力する。なお、怠慢度算出部142Cには、各対象者の怠慢度の初期値として「0」が設定されている。   As an example, the case where the subject A performs squat training will be described. In this case, the laziness calculation unit 142C accepts a designation operation that designates that the subject person A performs squat training. Then, the laziness calculation unit 142C refers to the implementation menu storage unit 132, and acquires laziness action information “the waist height has not changed by 20 cm or more” corresponding to the squat training. Then, each time the acquisition unit 141 acquires the motion information of the subject person A, the negligence level calculation unit 142C determines whether or not the acquired motion information of each subject person corresponds to the negligence motion information. Specifically, when the subject faces the motion information collection unit 10, the laziness calculation unit 142 </ b> C selects a frame group from the acquired subject motion information frame to 10 seconds before the motion information storage unit 131. Get from. Then, the laziness calculation unit 142C determines whether or not the difference between the maximum value and the minimum value of the y coordinate of the waist (joint 3d) of the subject A is 10 cm or more in 10 seconds. Then, if the difference between the maximum value and the minimum value of the y-coordinate of the waist of the subject A is not more than 20 cm, the laziness calculation unit 142C adds the squat addition laziness “+1” to the laziness of the subject A. . Then, the laziness calculation unit 142C outputs the laziness level of the subject A to the determination unit 143. In addition, “0” is set as an initial value of each subject's neglect level in the neglect level calculating unit 142C.

関与度算出部142Dは、対象者ごとに関与度を算出する。例えば、関与度算出部142Dは、関与情報記憶部135を参照し、取得部141によって取得された各対象者の動作情報が関与情報に該当するか否かを判定する。そして、関与度算出部142Dは、対象者の動作情報が関与情報に該当する場合には、その対象者の関与度に関与情報に対応する加算関与度を加算する。そして、関与度算出部142Dは、各対象者の関与度を決定部143に出力する。   The participation degree calculation unit 142D calculates the participation degree for each target person. For example, the participation degree calculation unit 142D refers to the participation information storage unit 135 and determines whether or not the motion information of each subject acquired by the acquisition unit 141 corresponds to the participation information. Then, when the motion information of the target person corresponds to the participation information, the participation degree calculation unit 142D adds the addition participation degree corresponding to the participation information to the participation degree of the target person. Then, the degree of participation calculation unit 142D outputs the degree of participation of each subject to the determination unit 143.

一例として、関与度算出部142Dは、関与情報記憶部135を参照し、関与情報記憶部135に記憶された全ての関与情報を取得する。そして、関与度算出部142Dは、取得部141によって対象者Aの動作情報が取得されるごとに、取得された対象者Aの動作情報が関与情報に該当するか否かをそれぞれ判定する。具体的に、関与度算出部142Dは、対象者Aの名前「Aさん」が単語として認識された音声認識結果が取得された場合に、その関与情報「対象者の名前を呼ぶ」に対応する加算関与度「+1」を対象者Aの関与度に加算する。また、関与度算出部142Dは、対象者Aのカラー画像情報から白衣を着た人物がパターンマッチングによって検出された場合に、関与情報「対象者に指導者が近づく」に対応する加算関与度「+3」を対象者Aの関与度に加算する。そして、関与度算出部142Dは、対象者Aの関与度を決定部143に出力する。なお、関与度算出部142Dには、各対象者の関与度の初期値として「0」が設定されている。また、関与度算出部142Dは、上記の例に限定されるものではなく、例えば、危険動作記憶部133に記憶される他の危険動作情報についても同様に、取得された対象者Aの動作情報がそれぞれの関与情報に該当するか否かを判定し、判定結果に応じて対象者Aの関与度を算出する。   As an example, the participation degree calculation unit 142D refers to the participation information storage unit 135 and acquires all the participation information stored in the participation information storage unit 135. Then, each time the acquisition unit 141 acquires the motion information of the subject person A, the participation degree calculation unit 142D determines whether the acquired motion information of the subject person A corresponds to the participation information. Specifically, when the speech recognition result in which the name “Mr. A” of the subject person A is recognized as a word is acquired, the participation degree calculation unit 142D corresponds to the participation information “call the name of the subject person”. The addition participation degree “+1” is added to the participation degree of the target person A. In addition, when the person wearing the white coat is detected from the color image information of the subject A by pattern matching, the degree of involvement calculating unit 142D adds the degree of participation “corresponding to the instructor approaches the subject”. +3 ”is added to the degree of participation of the subject person A. Then, the degree of participation calculation unit 142D outputs the degree of participation of the subject A to the determination unit 143. Note that “0” is set as the initial value of the degree of participation of each target person in the degree-of-engagement calculation unit 142D. In addition, the degree-of-involvement calculation unit 142D is not limited to the above example. For example, similarly, the other person's A motion information stored in the dangerous motion storage unit 133 is acquired. Is determined to correspond to each piece of participation information, and the degree of participation of the subject person A is calculated according to the determination result.

なお、上記の例に限定されるものではない。例えば、関与情報「対象者に指導者が近づく」は、他の方法によって検出されても良い。一例を挙げると、関与度算出部142Dは、指導者の顔画像を用いて、対象者Aのカラー画像情報から指導者の顔画像を検出しても良い。また、例えば、対象者Aを撮影する動作情報収集部10AがRFID(Radio Frequency Identification)タグを検出可能な構成であれば、関与度算出部142Dは、指導者が所持するRFIDタグが動作情報収集部10Aに検出される場合に、対象者Aに指導者が近づいたことを検出しても良い。更に、これに限らず、関与度算出部142Dは、対象者Aのカラー画像情報に他の人物が検出された場合に、その人物が他の対象者でなければ、これを指導者として検出しても良い。具体的には、関与度算出部142Dは、トレーニング着をパターンマッチングで検出したり、顔認識を行ったり、或いはリハビリの動作を行っている人物を検出したりすることで、対象者を判定し、対象者でなければ指導者であると判定する構成としても良い。   Note that the present invention is not limited to the above example. For example, the participation information “the leader approaches the subject” may be detected by another method. For example, the participation degree calculation unit 142D may detect the face image of the leader from the color image information of the target person A using the face image of the leader. Further, for example, if the operation information collection unit 10A that captures the subject A can detect an RFID (Radio Frequency Identification) tag, the participation degree calculation unit 142D collects the operation information from the RFID tag possessed by the instructor. When detected by the part 10A, it may be detected that the instructor has approached the subject A. Further, the present invention is not limited to this, and when the other person is detected in the color image information of the subject A, the involvement degree calculation unit 142D detects this as a leader if the person is not another subject. May be. Specifically, the participation degree calculation unit 142D determines the target person by detecting training clothes by pattern matching, performing face recognition, or detecting a person performing a rehabilitation operation. It is good also as a structure which determines with it being a leader if it is not a target person.

また、関与度算出部142Dは、時間の経過に応じて、算出された関与度から所定値を減算する。これは、時間が経過するほど、対象者は指導者から関与されていないと感じるからである。例えば、関与度算出部142Dは、関与度が更新された時刻を記憶しておく。そして、関与度算出部142Dは、前回関与度が更新されてから1分経過するごとに、対象者の関与度に「−1」を加算する。   In addition, the participation degree calculation unit 142D subtracts a predetermined value from the calculated participation degree as time passes. This is because as time passes, the subject feels less involved with the leader. For example, the participation degree calculation unit 142D stores the time when the participation degree is updated. Then, the degree-of-engagement calculation unit 142D adds “−1” to the degree of participation of the subject every time one minute has elapsed since the previous degree of participation was updated.

このように、算出部142は、習熟度算出部142A、危険度算出部142B、怠慢度算出部142C及び関与度算出部142Dを用いて、習熟度、危険度、怠慢度及び関与度を対象者ごとに算出する。そして、算出部142は、算出した対象者ごとの習熟度、危険度、怠慢度及び関与度を決定部143に出力する。   As described above, the calculation unit 142 uses the proficiency level calculation unit 142A, the risk level calculation unit 142B, the negligence level calculation unit 142C, and the involvement level calculation unit 142D to determine the proficiency level, the risk level, the negligence level, and the involvement level. Calculate for each. Then, the calculation unit 142 outputs the calculated proficiency level, risk level, neglect level, and participation level for each target person to the determination unit 143.

なお、ここでは、算出部142が習熟度、危険度、怠慢度及び関与度をそれぞれ算出する場合を説明したが、実施形態はこれに限定されるものではない。例えば、算出部142は、習熟度、危険度及び怠慢度のうち少なくとも一つを算出する場合であっても良い。具体的には、算出部142は、習熟度のみを算出しても良いし、危険度及び怠慢度を算出しても良い。   Here, the case where the calculation unit 142 calculates the proficiency level, the risk level, the negligence level, and the participation level has been described, but the embodiment is not limited thereto. For example, the calculation unit 142 may calculate at least one of the proficiency level, the risk level, and the neglect level. Specifically, the calculation unit 142 may calculate only the proficiency level, or may calculate the risk level and the negligence level.

決定部143は、算出された対象者ごとの習熟度、危険度及び怠慢度のうち少なくとも一つに基づいて、いずれの対象者から優先して指導するかを表す指導優先度を対象者ごとに決定する。例えば、決定部143は、対象者ごとの習熟度、危険度、怠慢度及び関与度を算出部142から受け付ける。そして、決定部143は、受け付けた対象者ごとの習熟度、危険度、怠慢度及び関与度の各パラメータが、それぞれ警告条件に該当するか否かを判定する。そして、決定部143は、警告条件に該当したパラメータに応じて、指導優先度を決定する。   The determination unit 143 sets, for each target person, a teaching priority level indicating which target person is to be prioritized based on at least one of the calculated proficiency level, risk level, and negligence level for each target person. decide. For example, the determination unit 143 receives the proficiency level, the risk level, the negligence level, and the participation level for each target person from the calculation unit 142. And the determination part 143 determines whether each parameter of the proficiency degree of each received subject, a risk level, a negligence level, and an engagement degree corresponds to warning conditions, respectively. And the determination part 143 determines a guidance priority according to the parameter applicable to warning conditions.

図12は、第1の実施形態に係る決定部143の処理を説明するための図である。図12には、対象者ごとの習熟度、危険度、怠慢度及び関与度の各パラメータがそれぞれ警告条件に該当するか否かを判定した判定結果の一例を示す。図12において、習熟度、危険度、怠慢度及び関与度の各パラメータの項目に例示した「×」印は、各対象者のパラメータが警告条件に該当したことを示し、「○」印は、各対象者のパラメータが警告条件に該当しなかったことを示す。また、各パラメータにはそれぞれ優先度が予め設定されている。この優先度は、決定部143が指導優先度を決定する際に、習熟度、危険度、怠慢度及び関与度のうちいずれのパラメータを優先させるかを定義する情報であり、例えば、優先度「A」からアルファベット順に優先すべきパラメータを示す。図12の例では、最も優先すべきパラメータは優先度「A」の危険度であり、次いで、優先度「B」の習熟度、優先度「C」の関与度、優先度「D」の怠慢度と優先順位が設定されている。また、指導優先度は、いずれの対象者から優先して指導するかを表す情報であり、例えば、指導優先度「A」からアルファベット順に優先すべき対象者を示す。なお、危険度は対象者自身の怪我や病気の悪化等、直接的に被害をもたらす可能性があるため、図12に例示するように、危険度の優先度は他のパラメータの優先度よりも高いことが好ましい。   FIG. 12 is a diagram for explaining processing of the determination unit 143 according to the first embodiment. FIG. 12 shows an example of a determination result for determining whether each of the proficiency level, the risk level, the neglect level, and the engagement level for each target person satisfies the warning condition. In FIG. 12, “X” marks exemplified in the items of each parameter of proficiency level, risk level, negligence level, and involvement level indicate that the parameters of each subject correspond to warning conditions, and “○” mark indicates Indicates that the parameters of each subject did not meet the warning conditions. Each parameter is preset with a priority. This priority is information that defines which parameter among the proficiency level, the risk level, the negligence level, and the involvement level is to be prioritized when the determination unit 143 determines the teaching priority level. Parameters that should be prioritized in alphabetical order from “A”. In the example of FIG. 12, the parameter that should be given the highest priority is the risk of the priority “A”, then the proficiency of the priority “B”, the degree of involvement of the priority “C”, and the neglect of the priority “D”. Degree and priority are set. The guidance priority is information indicating which subject is given priority for guidance, and indicates, for example, subjects who should be prioritized in alphabetical order from the guidance priority “A”. Since the risk level may directly cause damage such as injury or illness of the target person, as illustrated in FIG. 12, the priority level of the risk level is higher than the priority levels of other parameters. High is preferred.

図12に示すように、決定部143は、図11に示した警告条件記憶部136を参照し、受け付けた習熟度、危険度、怠慢度及び関与度の各パラメータが警告条件に該当するか否かを対象者ごとに判定する。一例としては、決定部143は、対象者Aの習熟度「−13」、危険度「10」、怠慢度「2」及び関与度「2」を受け付ける。この場合、決定部143は、受け付けた習熟度「−13」が「−10未満」であるので、対象者Aの習熟度が警告条件に該当すると判定する。また、決定部143は、受け付けた危険度「10」が「10以上」であるので、対象者Aの危険度が警告条件に該当すると判定する。また、決定部143は、受け付けた怠慢度「2」が「10以上」でないので、対象者Aの怠慢度が警告条件に該当しないと判定する。また、決定部143は、受け付けた関与度「2」が「−10未満」でないので、対象者Aの習熟度が警告条件に該当しないと判定する。そして、決定部143は、警告条件に該当したパラメータのうち、最も優先度が高いパラメータの優先度を、対象者の指導優先度として決定する。この場合、警告条件に該当したパラメータの優先度は、優先度「B」の習熟度と優先度「A」の危険度であるので、決定部143は、危険度の優先度「A」を対象者Aの指導優先度として決定する。また、決定部143は、他の対象者についても同様に、各対象者の習熟度、危険度、怠慢度及び関与度の各パラメータが、それぞれ警告条件に該当するか否かを判定して、警告条件に該当したパラメータの優先度を指導優先度として決定する。なお、図12に例示の対象者Cのように、全てのパラメータが警告条件に該当しない場合には、パラメータに設定されている優先度よりも低い優先度(例えば、「E」)を対象者Cの指導優先度として決定する。   As illustrated in FIG. 12, the determination unit 143 refers to the warning condition storage unit 136 illustrated in FIG. 11, and determines whether the received proficiency level, risk level, negligence level, and engagement level parameters correspond to the warning condition. Is determined for each subject. As an example, the determination unit 143 receives the proficiency level “−13”, the risk level “10”, the negligence level “2”, and the involvement level “2” of the subject A. In this case, since the received proficiency level “−13” is “less than −10”, the determination unit 143 determines that the proficiency level of the target person A satisfies the warning condition. Further, the determination unit 143 determines that the risk level of the target person A falls under the warning condition because the received risk level “10” is “10 or more”. The determination unit 143 determines that the negligence level of the subject person A does not correspond to the warning condition because the accepted negligence level “2” is not “10 or more”. Further, the determination unit 143 determines that the proficiency level of the subject person A does not correspond to the warning condition because the received degree of participation “2” is not “less than −10”. And the determination part 143 determines the priority of the parameter with the highest priority among the parameters applicable to warning conditions as a guidance priority of a subject. In this case, since the priority of the parameter corresponding to the warning condition is the proficiency level of priority “B” and the risk level of priority “A”, the determination unit 143 targets the priority level “A” of the risk level. It is determined as the instruction priority of person A. In addition, the determination unit 143 determines whether or not each parameter of the proficiency level, the risk level, the negligence level, and the participation level of each target person corresponds to the warning condition for other target persons, The priority of the parameter corresponding to the warning condition is determined as the teaching priority. If all parameters do not meet the warning condition as in the target person C illustrated in FIG. 12, the target person is given a priority (for example, “E”) lower than the priority set in the parameter. C is determined as the instruction priority.

なお、決定部143が指導優先度を決定する方法は、上記の例に限定されるものではない。例えば、決定部143は、各パラメータの優先度に対してスコアを割り当てておき、警告条件に該当したパラメータのスコアを集計する。そして、決定部143は、集計したスコアが高い順に、指導優先度を決定しても良い。   Note that the method by which the determining unit 143 determines the teaching priority is not limited to the above example. For example, the determination unit 143 assigns a score to the priority of each parameter, and totals the score of the parameter corresponding to the warning condition. Then, the determination unit 143 may determine the instruction priority in descending order of the total score.

出力制御部144は、指導優先度に基づいて、複数の対象者を指導する指導者を支援するための支援情報を出力する。例えば、出力制御部144は、支援情報として、指導優先度の高さに応じて対象者を順位付けした情報を出力部110に出力する。また、例えば、出力制御部144は、支援情報として、習熟度、危険度、怠慢度及び関与度の各パラメータのうち警告条件に該当したパラメータを示す情報を出力部110に出力する。   The output control unit 144 outputs support information for supporting a leader who teaches a plurality of subjects based on the guidance priority. For example, the output control unit 144 outputs, to the output unit 110, information that ranks the target person according to the high instruction priority as support information. Further, for example, the output control unit 144 outputs information indicating parameters corresponding to the warning condition among the parameters of the proficiency level, the risk level, the neglect level, and the participation level to the output unit 110 as support information.

図13は、第1の実施形態に係る出力制御部144によって表示される表示画面について説明するための図である。図13に示すように、出力部110の表示画面には、表示領域21〜25が含まれる。このうち、表示領域21〜24には、動作情報収集部10A〜10Dによってそれぞれ撮影された対象者A〜Dのカラー画像(動画)が略リアルタイムで表示される。また、表示領域25には、指導優先度の高い順に、各対象者の名前が表示される。なお、図13には、決定部143によって図12に例示した処理が行われた場合に表示される表示画面の一例を示す。   FIG. 13 is a diagram for explaining a display screen displayed by the output control unit 144 according to the first embodiment. As illustrated in FIG. 13, the display screen of the output unit 110 includes display areas 21 to 25. Among these, in the display areas 21 to 24, color images (moving images) of the subjects A to D photographed by the motion information collection units 10A to 10D are displayed in substantially real time. In the display area 25, the names of the subjects are displayed in descending order of instruction priority. FIG. 13 shows an example of a display screen displayed when the process illustrated in FIG. 12 is performed by the determination unit 143.

図13に示すように、出力制御部144は、対象者A〜Dのカラー画像をそれぞれ表示する表示領域21〜24を出力部110に表示させる。ここで、出力制御部144は、各対象者について、警告条件に該当したパラメータを示す情報を、各対象者を表示する表示領域21〜24に表示させる。例えば、出力制御部144は、対象者の習熟度が警告条件に該当している場合には、「要指導」というアイコンを表示領域21〜24に表示させる。また、出力制御部144は、対象者の危険度が警告条件に該当している場合には、「危険」というアイコンを表示領域21〜24に表示させる。また、出力制御部144は、対象者の怠慢度が警告条件に該当している場合には、「怠慢」というアイコンを表示領域21〜24に表示させる。また、出力制御部144は、対象者の関与度が警告条件に該当している場合には、「長時間放置」というアイコンを表示領域21〜24に表示させる。図13に示す例では、出力制御部144は、対象者Aが習熟度及び危険度の警告条件に該当するため、表示領域21に「危険」及び「要指導」のアイコンを表示させる。また、出力制御部144は、対象者Bが怠慢度及び関与度の警告条件に該当するため、表示領域22に「怠慢」及び「長時間放置」のアイコンを表示させる。また、出力制御部144は、対象者Cがいずれのパラメータも警告条件に該当しないため、表示領域23にはいずれのアイコンも表示させない。また、出力制御部144は、対象者Dが習熟度の警告条件に該当するため、表示領域24に「要指導」のアイコンを表示させる。   As illustrated in FIG. 13, the output control unit 144 causes the output unit 110 to display display areas 21 to 24 that display the color images of the subjects A to D, respectively. Here, the output control unit 144 displays, for each target person, information indicating parameters corresponding to the warning condition in the display areas 21 to 24 for displaying each target person. For example, when the proficiency level of the subject person corresponds to the warning condition, the output control unit 144 causes the display areas 21 to 24 to display an icon “needs guidance”. Further, the output control unit 144 displays an icon “danger” in the display areas 21 to 24 when the risk level of the subject person corresponds to the warning condition. Further, the output control unit 144 displays an icon of “laziness” in the display areas 21 to 24 when the subject's degree of neglect corresponds to the warning condition. In addition, when the degree of participation of the subject corresponds to the warning condition, the output control unit 144 displays an icon “Letting for a long time” in the display areas 21 to 24. In the example illustrated in FIG. 13, the output control unit 144 causes the display area 21 to display “danger” and “need guidance” icons because the target person A satisfies the warning conditions of proficiency and risk. Further, the output control unit 144 causes the display area 22 to display icons of “lazy” and “left unattended for a long time” because the target person B corresponds to the warning condition of neglect and degree of involvement. Further, the output control unit 144 does not display any icon in the display area 23 because the target person C does not meet any warning condition. Further, the output control unit 144 displays an icon “needs guidance” in the display area 24 because the target person D corresponds to the warning condition of the proficiency level.

また、出力制御部144は、指導優先度の高い順に各対象者の名前を表示する表示領域25を出力部110に表示させる。ここで、図12において、対象者Aの指導優先度は「A」であり、対象者Bの指導優先度は「C」であり、対象者Cの指導優先度は「E」であり、対象者Dの指導優先度は「B」である。この場合、出力制御部144は、指導優先度が高い順に対象者の名前を並べ替えて表示する。具体的には、出力制御部144は、「対象者A」、「対象者D」、「対象者B」、「対象者C」の順に、各対象者の名前を表示領域25に表示させる。また、出力制御部144は、各対象者について、警告条件に該当したパラメータのうち優先度が高いパラメータを示すアイコンを表示領域25に表示させる。具体的には、出力制御部144は、対象者Aが習熟度及び危険度の警告条件に該当するため、対象者Aの名前の隣に「危険」のアイコンを表示させる。また、出力制御部144は、対象者Bが怠慢度及び関与度の警告条件に該当するため、対象者Bの名前の隣に「長時間放置」のアイコンを表示させる。また、出力制御部144は、対象者Cがいずれのパラメータも警告条件に該当しないため、対象者Cの名前の隣にはいずれのアイコンも表示させない。また、出力制御部144は、対象者Dが習熟度の警告条件に該当するため、対象者Dの名前の隣に「要指導」のアイコンを表示させる。   In addition, the output control unit 144 causes the output unit 110 to display the display area 25 that displays the names of the subjects in descending order of instruction priority. Here, in FIG. 12, the instruction priority of the subject person A is “A”, the instruction priority of the subject person B is “C”, and the instruction priority of the subject person C is “E”. The instruction priority of the person D is “B”. In this case, the output control unit 144 rearranges and displays the names of the subjects in descending order of instruction priority. Specifically, the output control unit 144 displays the names of the target persons in the display area 25 in the order of “target person A”, “target person D”, “target person B”, and “target person C”. Moreover, the output control part 144 displays the icon which shows a parameter with a high priority among the parameters applicable to warning conditions about each subject in the display area 25. FIG. Specifically, the output control unit 144 displays a “danger” icon next to the name of the subject person A because the subject person A satisfies the warning conditions for the proficiency level and the danger level. Further, the output control unit 144 displays a “long time left” icon next to the name of the subject person B because the subject person B satisfies the warning conditions of the neglect level and the degree of involvement. Further, the output control unit 144 does not display any icon next to the name of the subject C because the subject C does not meet any warning condition. Further, since the target person D corresponds to the proficiency level warning condition, the output control unit 144 displays a “need guidance” icon next to the name of the target person D.

このように、出力制御部144は、支援情報として、習熟度、危険度、怠慢度及び関与度の各パラメータのうち警告条件に該当したパラメータを示すアイコンや、指導優先度の高さに応じて対象者を順位付けした表示領域25を出力部110に表示させる。   As described above, the output control unit 144 provides, as support information, an icon indicating a parameter corresponding to the warning condition among the parameters of the proficiency level, the risk level, the negligence level, and the participation level, and the guidance priority level. A display area 25 in which subjects are ranked is displayed on the output unit 110.

なお、上記の例に限定されるものではない。例えば、出力制御部144は、警告条件に該当した場合には、支援情報として音声を出力しても良い。具体的には、出力制御部144は、対象者Aの危険度が警告条件に該当した場合には、「Aさんが危険です」という音声を出力しても良い。   Note that the present invention is not limited to the above example. For example, the output control unit 144 may output a sound as support information when a warning condition is met. Specifically, the output control unit 144 may output a voice “Mr. A is dangerous” when the risk level of the subject person A meets the warning condition.

次に、図14〜図18を用いて、第1の実施形態に係る医用情報処理装置100の処理について説明する。図14は、第1の実施形態に係る医用情報処理装置100による全体的な処理の手順を示すフローチャートである。図15は、第1の実施形態に係る習熟度算出処理の手順を示すフローチャートである。図16は、第1の実施形態に係る危険度算出処理の手順を示すフローチャートである。図17は、第1の実施形態に係る怠慢度算出処理の手順を示すフローチャートである。図18は、第1の実施形態に係る関与度算出処理の手順を示すフローチャートである。   Next, processing of the medical information processing apparatus 100 according to the first embodiment will be described with reference to FIGS. FIG. 14 is a flowchart illustrating an overall processing procedure performed by the medical information processing apparatus 100 according to the first embodiment. FIG. 15 is a flowchart illustrating a procedure of proficiency level calculation processing according to the first embodiment. FIG. 16 is a flowchart illustrating a procedure of risk degree calculation processing according to the first embodiment. FIG. 17 is a flowchart illustrating a procedure of a laziness calculation process according to the first embodiment. FIG. 18 is a flowchart illustrating a procedure of the degree of participation calculation process according to the first embodiment.

図14に示すように、医用情報処理装置100において、指導者による指導を開始する旨の指導開始指示を入力部120が受け付けると(ステップS101肯定)、取得部141は、複数の対象者の動作情報を対象者ごとに取得する(ステップS102)。なお、医用情報処理装置100は、指導開始指示を受け付けるまで(ステップS101否定)、待機状態である。   As shown in FIG. 14, in the medical information processing apparatus 100, when the input unit 120 accepts a guidance start instruction to start guidance by a leader (Yes in step S101), the acquisition unit 141 operates a plurality of subjects. Information is acquired for each subject (step S102). The medical information processing apparatus 100 is in a standby state until a guidance start instruction is received (No at step S101).

そして、習熟度算出部142Aは、対象者ごとに、習熟度を算出する処理である習熟度算出処理を行う(ステップS103)。続いて、危険度算出部142Bは、対象者ごとに、危険度を算出する処理である危険度算出処理を行う(ステップS104)。続いて、怠慢度算出部142Cは、対象者ごとに、怠慢度を算出する処理である怠慢度算出処理を行う(ステップS105)。続いて、関与度算出部142Dは、対象者ごとに、関与度を算出する処理である関与度算出処理を行う(ステップS106)。習熟度算出処理、危険度算出処理、怠慢度算出処理及び関与度算出処理については、図15〜図18を用いて後述する。   Then, the proficiency level calculating unit 142A performs proficiency level calculation processing that is processing for calculating the proficiency level for each target person (step S103). Subsequently, the risk level calculation unit 142B performs a risk level calculation process that is a process for calculating the risk level for each target person (step S104). Subsequently, the negligence level calculation unit 142C performs a negligence level calculation process that is a process of calculating the negligence level for each target person (step S105). Subsequently, the degree-of-engagement calculation unit 142D performs a degree-of-engagement calculation process that is a process for calculating the degree of participation for each target person (step S106). The proficiency level calculation process, the risk level calculation process, the negligence level calculation process, and the participation level calculation process will be described later with reference to FIGS.

そして、決定部143は、習熟度算出処理、危険度算出処理、怠慢度算出処理及び関与度算出処理によって算出された各パラメータを用いて、各対象者の指導優先度を決定する(ステップS107)。例えば、決定部143は、対象者ごとの習熟度、危険度、怠慢度及び関与度の各パラメータが、それぞれ警告条件に該当するか否かを判定し、警告条件に該当したパラメータに応じて、指導優先度を決定する。   Then, the determination unit 143 determines the teaching priority of each target person using each parameter calculated by the proficiency level calculation process, the risk level calculation process, the neglect level calculation process, and the participation level calculation process (step S107). . For example, the determination unit 143 determines whether each parameter of the proficiency level, the risk level, the neglect level, and the degree of participation for each target person corresponds to the warning condition, and according to the parameter corresponding to the warning condition, Determine teaching priority.

そして、出力制御部144は、各対象者の指導優先度に基づいて、支援情報を出力する(ステップS108)。例えば、出力制御部144は、支援情報として、習熟度、危険度、怠慢度及び関与度の各パラメータのうち警告条件に該当したパラメータを示すアイコンや、指導優先度の高さに応じて対象者を順位付けした表示領域25を出力部110に表示させる。   And the output control part 144 outputs assistance information based on each subject's instruction | indication priority (step S108). For example, the output control unit 144 uses the icon indicating the parameter corresponding to the warning condition among the parameters of the proficiency level, the risk level, the negligence level, and the involvement level as the support information, or the target person according to the high teaching priority. Are displayed on the output unit 110.

医用情報処理装置100は、指導者による指導を終了する旨の指導終了指示を入力部120が受け付けるまで(ステップS109否定)、ステップS102〜ステップS108の処理を繰り返し実行する。そして、医用情報処理装置100は、指導終了指示を受け付けると(ステップS109肯定)、処理を終了する。   The medical information processing apparatus 100 repeatedly executes the processing from step S102 to step S108 until the input unit 120 receives an instruction to end instruction to end instruction by the instructor (No at step S109). Then, when the medical information processing apparatus 100 receives a guidance end instruction (Yes at Step S109), the medical information processing apparatus 100 ends the process.

ここで、図15を用いて、図14のステップS103に示した習熟度算出処理について説明する。図15に示すように、習熟度算出部142Aは、取得部141によって各対象者の動作情報が取得されるごとに、取得された各対象者の動作情報が未習熟動作情報に該当するか否かを判定する(ステップS201)。そして、習熟度算出部142Aは、各対象者の動作情報が未習熟動作情報に該当すると判定された場合に(ステップS201肯定)、未習熟動作情報に対応する加算習熟度を対象者の習熟度に加算する(ステップS202)。   Here, the proficiency level calculation process shown in step S103 of FIG. 14 will be described with reference to FIG. As illustrated in FIG. 15, the proficiency level calculating unit 142A determines whether or not the acquired motion information of each target person corresponds to unskilled motion information each time the acquisition unit 141 acquires the motion information of each target person. Is determined (step S201). Then, when it is determined that the motion information of each subject person corresponds to the unskilled motion information (Yes in step S201), the skill level calculation unit 142A uses the addition skill level corresponding to the unskilled motion information as the subject skill level. (Step S202).

そして、習熟度算出部142Aは、各対象者の習熟度を決定部143に出力し(ステップS203)、処理を終了する。なお、習熟度算出部142Aは、各対象者の動作情報が未習熟動作情報に該当しないと判定された場合には(ステップS201否定)、ステップS203へ移行する。   Then, the proficiency level calculation unit 142A outputs the proficiency level of each target person to the determination unit 143 (step S203), and ends the process. Note that the proficiency level calculation unit 142A proceeds to step S203 when it is determined that the motion information of each subject does not correspond to the unskilled motion information (No in step S201).

また、図16を用いて、図14のステップS104に示した危険度算出処理について説明する。図16に示すように、危険度算出部142Bは、取得部141によって各対象者の動作情報が取得されるごとに、取得された各対象者の動作情報が危険動作情報に該当するか否かを判定する(ステップS301)。そして、危険度算出部142Bは、各対象者の動作情報が危険動作情報に該当すると判定された場合に(ステップS301肯定)、危険動作情報に対応する加算危険度を対象者の危険度に加算する(ステップS302)。   Further, the risk level calculation process shown in step S104 of FIG. 14 will be described with reference to FIG. As illustrated in FIG. 16, the risk level calculation unit 142 </ b> B determines whether or not the acquired motion information of each target person corresponds to the dangerous motion information every time the acquisition unit 141 acquires the motion information of each target person. Is determined (step S301). Then, when it is determined that the motion information of each target person corresponds to the dangerous motion information (Yes in step S301), the risk level calculation unit 142B adds the addition risk level corresponding to the dangerous motion information to the risk level of the target person. (Step S302).

そして、危険度算出部142Bは、各対象者の危険度を決定部143に出力し(ステップS303)、処理を終了する。なお、危険度算出部142Bは、各対象者の動作情報が危険動作情報に該当しないと判定された場合には(ステップS301否定)、ステップS303へ移行する。   Then, the risk level calculation unit 142B outputs the risk level of each subject to the determination unit 143 (step S303), and ends the process. If it is determined that the motion information of each subject does not correspond to the dangerous motion information (No at Step S301), the risk level calculation unit 142B proceeds to Step S303.

また、図17を用いて、図14のステップS105に示した怠慢度算出処理について説明する。図17に示すように、怠慢度算出部142Cは、取得部141によって各対象者の動作情報が取得されるごとに、取得された各対象者の動作情報が怠慢動作情報に該当するか否かを判定する(ステップS401)。そして、怠慢度算出部142Cは、各対象者の動作情報が危険動作情報に該当すると判定された場合に(ステップS401肯定)、怠慢動作情報に対応する加算怠慢度を対象者の怠慢度に加算する(ステップS402)。   Further, the neglect level calculation process shown in step S105 of FIG. 14 will be described with reference to FIG. As shown in FIG. 17, each time the acquisition unit 141 acquires the motion information of each subject, the neglect level calculation unit 142C determines whether or not the acquired motion information of each subject corresponds to the negligence motion information. Is determined (step S401). Then, when it is determined that the motion information of each subject person corresponds to the dangerous motion information (Yes in step S401), the negligence level calculation unit 142C adds the addition negligence level corresponding to the negligence motion information to the negligence level of the subject person. (Step S402).

そして、怠慢度算出部142Cは、各対象者の怠慢度を決定部143に出力し(ステップS403)、処理を終了する。なお、怠慢度算出部142Cは、各対象者の動作情報が怠慢動作情報に該当しないと判定された場合には(ステップS401否定)、ステップS403へ移行する。   Then, the laziness calculation unit 142C outputs the laziness level of each subject person to the determination unit 143 (step S403), and ends the process. In addition, when it is determined that the action information of each subject does not correspond to the action information of negligence (No at Step S401), the degree of neglect calculation unit 142C proceeds to Step S403.

また、図18を用いて、図14のステップS106に示した関与度算出処理について説明する。図18に示すように、関与度算出部142Dは、取得部141によって各対象者の動作情報が取得されるごとに、取得された各対象者の動作情報が関与情報に該当するか否かを判定する(ステップS501)。そして、関与度算出部142Dは、各対象者の動作情報が関与情報に該当すると判定された場合に(ステップS501肯定)、関与情報に対応する加算関与度を対象者の関与度に加算する(ステップS502)。   In addition, with reference to FIG. 18, the degree of participation calculation process shown in step S106 of FIG. 14 will be described. As illustrated in FIG. 18, each time the acquisition unit 141 acquires the motion information of each target person, the participation degree calculation unit 142 </ b> D determines whether the acquired motion information of each target person corresponds to the participation information. Determination is made (step S501). Then, when it is determined that the motion information of each target person corresponds to the participation information (Yes in step S501), the participation degree calculation unit 142D adds the addition participation degree corresponding to the participation information to the participation degree of the target person ( Step S502).

そして、関与度算出部142Dは、時間の経過に応じて、算出された関与度から所定値を減算する(ステップS503)。そして、関与度算出部142Dは、各対象者の関与度を決定部143に出力し(ステップS504)、処理を終了する。なお、関与度算出部142Dは、各対象者の動作情報が関与情報に該当しないと判定された場合には(ステップS501否定)、ステップS503へ移行する。   Then, the participation degree calculation unit 142D subtracts a predetermined value from the calculated participation degree as time elapses (step S503). Then, the degree-of-engagement calculation unit 142D outputs the degree of participation of each subject person to the determination unit 143 (step S504), and ends the process. If it is determined that the motion information of each subject does not correspond to the participation information (No at Step S501), the participation degree calculation unit 142D proceeds to Step S503.

なお、上記の処理手順は一例であり、実施形態はこれに限定されるものではない。例えば、医用情報処理装置100は、習熟度算出処理、危険度算出処理、怠慢度算出処理及び関与度算出処理を操作者の任意の順序で実行しても良いし、これらの処理を並行して実行しても良い。   In addition, said process procedure is an example and embodiment is not limited to this. For example, the medical information processing apparatus 100 may execute the proficiency level calculation process, the risk level calculation process, the negligence level calculation process, and the participation level calculation process in any order of the operator, or perform these processes in parallel. May be executed.

上述してきたように、第1の実施形態に係る医用情報処理装置100は、それぞれ所定動作を行う複数の対象者について、対象者の動作を表す動作情報を対象者ごとに取得する。そして、医用情報処理装置100は、対象者ごとの動作情報に基づいて、習熟度、危険度及び怠慢度のうち少なくとも一つを、対象者ごとに算出する。そして、医用情報処理装置100は、算出された対象者ごとの習熟度、危険度及び怠慢度のうち少なくとも一つに基づいて、指導優先度を対象者ごとに決定する。そして、医用情報処理装置100は、指導優先度に基づいて、複数の対象者をそれぞれ指導する指導者を支援するための支援情報を出力する。このため、医用情報処理装置100は、複数の対象者をそれぞれ指導する指導者によって行われる指導の質を高めることができる。例えば、医用情報処理装置100は、支援情報として、指導優先度の高さに応じて対象者を順位付けした情報を出力部110に表示させるので、現在指導が必要な対象者を指導者に通知することができる。これにより、指導者は、必要なタイミングで対象者を支援することができる。   As described above, the medical information processing apparatus 100 according to the first embodiment acquires, for each target person, motion information representing the motion of the target person for a plurality of target persons who perform predetermined actions. The medical information processing apparatus 100 calculates at least one of the proficiency level, the risk level, and the negligence level for each target person based on the operation information for each target person. The medical information processing apparatus 100 determines the instruction priority for each target person based on at least one of the calculated proficiency level, risk level, and negligence level for each target person. Then, the medical information processing apparatus 100 outputs support information for supporting the instructors who respectively instruct a plurality of subjects based on the instruction priority. For this reason, the medical information processing apparatus 100 can improve the quality of guidance performed by the instructors who respectively instruct a plurality of subjects. For example, the medical information processing apparatus 100 displays information that ranks the target persons according to the high instruction priority as support information on the output unit 110, so that the target person who currently needs instruction is notified to the instructor. can do. Thereby, the leader can support the target person at a necessary timing.

また、例えば、医用情報処理装置100は、支援情報として、習熟度、危険度、怠慢度及び関与度の各パラメータのうち警告条件に該当したパラメータを示すアイコンを出力部110に表示させる。このため、医用情報処理装置100は、それぞれの対象者に必要な支援の内容を指導者に適切に通知することができる。これにより、指導者は、対象者にとって必要な支援を適宜行うことができる。例えば、指導者は、バランスを崩した対象者の体を支えることで、対象者の転倒を防止することができる。また、例えば、指導者は、一人一人の対象者に平等に関与することで、対象者のモチベーションの低下を防ぐことができる。   Further, for example, the medical information processing apparatus 100 causes the output unit 110 to display, as support information, an icon indicating a parameter corresponding to a warning condition among parameters of proficiency level, risk level, neglect level, and participation level. Therefore, the medical information processing apparatus 100 can appropriately notify the instructor of the content of support necessary for each target person. Thereby, the leader can appropriately perform the support necessary for the target person. For example, the leader can prevent the subject from falling by supporting the body of the subject who has lost the balance. In addition, for example, the leader can prevent a decrease in the motivation of the subject by being equally involved with each subject.

(第2の実施形態)
第1の実施形態では、習熟度、危険度、怠慢度及び関与度の各パラメータを、全ての対象者に一律の基準で算出する場合を説明した。しかしながら、対象者の個人情報を用いて各パラメータを算出することが好ましい。例えば、転倒によって怪我をする危険性は、若年者よりも高齢者の方が高いため、転倒しそうな状況では若年者よりも高齢者の方が高い危険度が算出されることが好ましい。そこで、第2の実施形態では、対象者の個人情報を用いて各パラメータを算出する場合を説明する。
(Second Embodiment)
In the first embodiment, the case has been described in which the proficiency level, the risk level, the neglect level, and the involvement level are calculated on a uniform basis for all subjects. However, it is preferable to calculate each parameter using the personal information of the subject. For example, since the risk of injury due to a fall is higher for elderly people than for young people, it is preferable to calculate a higher risk level for elderly people than for young people in situations where they are likely to fall. Therefore, in the second embodiment, a case will be described in which each parameter is calculated using the personal information of the target person.

第2の実施形態に係る医用情報処理装置100は、図5に示した医用情報処理装置100と基本的には同様の構成を有し、記憶部130が個人情報記憶部137を更に有する点と、算出部142における処理の一部が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については説明を省略する。   The medical information processing apparatus 100 according to the second embodiment has basically the same configuration as the medical information processing apparatus 100 illustrated in FIG. 5, and the storage unit 130 further includes a personal information storage unit 137. Part of the processing in the calculation unit 142 is different. Therefore, in the second embodiment, the description will focus on the points that differ from the first embodiment, and the description of the points having the same functions as the configuration described in the first embodiment will be omitted.

第2の実施形態に係る個人情報記憶部137は、対象者の個人情報を記憶する。例えば、個人情報記憶部137は、習熟度算出部142A、危険度算出部142B、怠慢度算出部142C及び関与度算出部142Dによって参照される。また、個人情報記憶部137に記憶される情報は、電子カルテシステム等から予め取得される。   The personal information storage unit 137 according to the second embodiment stores the personal information of the target person. For example, the personal information storage unit 137 is referred to by the proficiency level calculation unit 142A, the risk level calculation unit 142B, the neglect level calculation unit 142C, and the participation level calculation unit 142D. Information stored in the personal information storage unit 137 is acquired in advance from an electronic medical record system or the like.

図19は、第2の実施形態に係る個人情報記憶部137に記憶される情報の一例を示す図である。個人情報記憶部137は、図19に示すように、対象者名と、年齢(歳)と、ADL尺度とを対応付けた情報を記憶する。ここで、「対象者名」とは、対象者の名前を示す情報である。「年齢(歳)」とは、該当の対象者の年齢を表す情報である。「ADL(Activities of Daily Living)尺度」とは、日常生活動作・活動に関する判定基準であり、例えば、日常生活における動作や活動を自分でできる場合には、高いスコアが付与され、日常生活における動作や活動に介助を要する場合には、低いスコアが付与される。なお、ADL尺度としては、例えば、FIM(Function Independence Measure)やBI(Barthel Index)等が適用可能である。   FIG. 19 is a diagram illustrating an example of information stored in the personal information storage unit 137 according to the second embodiment. As illustrated in FIG. 19, the personal information storage unit 137 stores information in which the subject name, age (year), and ADL scale are associated with each other. Here, the “target person name” is information indicating the name of the target person. “Age (year)” is information indicating the age of the target person. The “ADL (Activities of Daily Living) Scale” is a criterion for activities and activities in daily life. For example, if you can perform activities and activities in daily life by yourself, a high score is given, and activities in daily life If the activity requires assistance, a low score is awarded. For example, FIM (Function Independence Measure) or BI (Barthel Index) can be applied as the ADL scale.

図19に示すように、個人情報記憶部137は、対象者名「A」と、年齢「85」と、ADL尺度「3」とを対応付けて記憶する。つまり、個人情報記憶部137は、Aさんが85歳であり、AさんのADL尺度が3であることを記憶する。また、個人情報記憶部137は、対象者名「B」と、年齢「20」と、ADL尺度「8」とを対応付けて記憶する。つまり、個人情報記憶部137は、Bさんが20歳であり、BさんのADL尺度が8であることを記憶する。また、個人情報記憶部137は、他の対象者についても同様に、対象者名と、年齢(歳)と、ADL尺度とを対応付けた情報を記憶する。なお、個人情報記憶部137に記憶される情報は、これに限定されるものではなく、例えば、対象者の身長、体重、血圧等の情報が記憶されても良い。   As illustrated in FIG. 19, the personal information storage unit 137 stores the subject name “A”, the age “85”, and the ADL scale “3” in association with each other. That is, the personal information storage unit 137 stores that Mr. A is 85 years old and Mr. A's ADL scale is 3. Also, the personal information storage unit 137 stores the subject name “B”, the age “20”, and the ADL scale “8” in association with each other. In other words, the personal information storage unit 137 stores that Mr. B is 20 years old and his ADL scale is 8. Similarly, the personal information storage unit 137 stores information in which the subject name, age (year), and ADL scale are associated with each other. The information stored in the personal information storage unit 137 is not limited to this, and information such as the height, weight, blood pressure, etc. of the subject may be stored.

第2の実施形態に係る算出部142は、対象者の個人情報を記憶する個人情報記憶部137に記憶された個人情報を更に用いて、習熟度、危険度及び怠慢度のうち少なくとも一つを、対象者ごとに算出する。   The calculation unit 142 according to the second embodiment further uses the personal information stored in the personal information storage unit 137 that stores the personal information of the subject, and calculates at least one of the proficiency level, the risk level, and the negligence level. Calculate for each target person.

例えば、算出部142において、危険度算出部142Bは、危険動作記憶部133及び個人情報記憶部137を用いて、対象者ごとの加算危険度を算出する。そして、危険度算出部142Bは、算出した対象者ごとの加算危険度を用いて、各対象者の危険度を算出する。なお、以下では、算出部142が個人情報を用いて各パラメータを算出する場合の例として、危険度算出部142Bが個人情報を用いて危険度を算出する処理を説明するが、実施形態はこれに限定されるものではない。例えば、習熟度算出部142A、怠慢度算出部142C及び関与度算出部142Dが個人情報を用いて各パラメータを算出しても良い。   For example, in the calculation unit 142, the risk level calculation unit 142B calculates the addition risk level for each target person using the dangerous motion storage unit 133 and the personal information storage unit 137. Then, the risk level calculation unit 142B calculates the risk level of each target person using the calculated addition risk level for each target person. In the following, as an example of the case where the calculation unit 142 calculates each parameter using personal information, the risk level calculation unit 142B will describe processing for calculating the risk level using personal information. It is not limited to. For example, the skill level calculation unit 142A, the laziness level calculation unit 142C, and the participation level calculation unit 142D may calculate each parameter using personal information.

図20A及び図20Bは、第2の実施形態に係る算出部142の処理を説明するための図である。図20Aには、算出部142が対象者A用の加算危険度を算出する処理を例示し、図20Bには、算出部142が対象者B用の加算危険度を算出する処理を例示する。   20A and 20B are diagrams for explaining the processing of the calculation unit 142 according to the second embodiment. FIG. 20A illustrates a process in which the calculation unit 142 calculates the addition risk degree for the subject person A, and FIG. 20B illustrates a process in which the calculation unit 142 calculates the addition risk degree for the subject person B.

危険度算出部142Bは、図20Aに示すように、危険動作記憶部133及び個人情報記憶部137を参照し、危険動作記憶部133に記憶された全ての危険動作情報と、対象者Aの個人情報とをそれぞれ取得する。そして、危険度算出部142Bは、危険動作記憶部133にプリセットされた加算危険度と対象者Aの個人情報とを用いて、対象者A用の加算危険度を算出する。具体的には、危険度算出部142Bは、式「プリセットの加算危険度×(年齢/100−ADL尺度/100)」を用いて、対象者ごとの加算危険度を算出する。より具体的には、危険度算出部142Bは、対象者Aの危険動作情報「足の接地点と体の重心点が横方向に大きくズレている」の加算危険度を、「3×(85/100−3/100)=2.46」と算出する。また、危険度算出部142Bは、対象者Aの危険動作情報「膝が小刻みに振動する」の加算危険度を、「1×(85/100−3/100)=0.82」と算出する。   As shown in FIG. 20A, the risk level calculation unit 142B refers to the dangerous motion storage unit 133 and the personal information storage unit 137, and stores all the dangerous motion information stored in the dangerous motion storage unit 133 and the individual of the subject A. Get information. Then, the risk degree calculation unit 142B calculates the addition risk degree for the subject person A using the addition risk degree preset in the dangerous action storage unit 133 and the personal information of the subject person A. Specifically, the risk degree calculation unit 142B calculates the addition risk degree for each subject using the formula “preset addition risk degree × (age / 100−ADL scale / 100)”. More specifically, the risk level calculation unit 142B sets the added risk level of “3 × (85) for the dangerous motion information of the subject A“ the ground contact point of the foot and the center of gravity of the body are greatly shifted in the horizontal direction ”. /100−3/100)=2.46 ”. Further, the risk level calculation unit 142B calculates the addition risk level of the dangerous motion information “the knee vibrates in small increments” of the subject A as “1 × (85 / 100−3 / 100) = 0.82”. .

また、危険度算出部142Bは、図20Bに示すように、危険動作記憶部133にプリセットされた加算危険度と対象者Bの個人情報とを用いて、対象者B用の加算危険度を算出する。具体的には、危険度算出部142Bは、対象者Bの危険動作情報「足の接地点と体の重心点が横方向に大きくズレている」の加算危険度を、「3×(20/100−8/100)=0.36」と算出する。また、危険度算出部142Bは、対象者Bの危険動作情報「膝が小刻みに振動する」の加算危険度を、「1×(20/100−8/100)=0.12」と算出する。なお、ここでは説明を省略するが、危険度算出部142Bは、他の対象者についても同様に、各対象者の加算危険度を算出する。   Further, as shown in FIG. 20B, the risk level calculation unit 142B calculates the addition risk level for the subject person B using the addition risk level preset in the dangerous motion storage unit 133 and the personal information of the subject person B. To do. Specifically, the risk level calculation unit 142B sets the risk level of the subject B's dangerous motion information “the ground contact point of the foot and the center of gravity of the body are greatly shifted in the horizontal direction” as “3 × (20 / 100−8 / 100) = 0.36 ”. Further, the risk level calculation unit 142B calculates the addition risk level of the dangerous motion information “the knee vibrates in small increments” of the subject B as “1 × (20 / 100−8 / 100) = 0.12”. . In addition, although description is abbreviate | omitted here, the risk level calculation part 142B calculates the addition risk level of each object person similarly about another object person.

このように、危険度算出部142Bは、対象者の個人情報を用いて、各対象者の加算危険度を算出する。具体的には、危険度算出部142Bは、対象者の年齢が高いほど高くなり、対象者のADL尺度が高いほど低くなるように、各対象者の加算危険度を算出する。そして、危険度算出部142Bは、取得部141によって取得された対象者の動作情報が危険動作情報に該当する場合には、算出した対象者ごとの加算危険度を対象者の危険度に加算する。   As described above, the risk level calculation unit 142B calculates the addition risk level of each target person using the personal information of the target person. Specifically, the risk level calculation unit 142B calculates the addition risk level of each target person so that the risk level increases as the age of the target person increases and decreases as the ADL scale of the target person increases. Then, when the motion information of the target person acquired by the acquisition unit 141 corresponds to the dangerous motion information, the risk level calculation unit 142B adds the calculated addition risk level for each target person to the risk level of the target person. .

なお、ここでは、算出部142が個人情報を用いて各パラメータを算出する場合の例として、危険度算出部142Bが個人情報を用いて加算危険度を算出する場合を説明したが、実施形態はこれに限定されるものではない。例えば、習熟度算出部142Aは、対象者の年齢が高いほど低くなる加算習熟度を算出する。また、例えば、怠慢度算出部142Cは、対象者の年齢が低いほど高くなる加算怠慢度を算出する。また、例えば、関与度算出部142Dは、対象者の年齢が高いほど低くなる加算関与度を算出する。また、上述した式「プリセットの加算危険度×(年齢/100−ADL尺度/100)」はあくまで一例であり、これに限定されるものではない。例えば、危険度算出部142Bは、対象者Aの年齢のみを用いて、対象者A用の加算危険度を算出しても良いし、対象者AのADL尺度のみを用いて、対象者A用の加算危険度を算出しても良い。   Here, as an example of the case where the calculation unit 142 calculates each parameter using personal information, the case where the risk level calculation unit 142B calculates the addition risk level using personal information has been described. It is not limited to this. For example, the proficiency level calculation unit 142A calculates an additional proficiency level that decreases as the age of the subject increases. Further, for example, the laziness calculation unit 142C calculates the added laziness that increases as the age of the subject person decreases. Further, for example, the degree-of-involvement calculation unit 142D calculates an addition degree of participation that decreases as the age of the subject increases. Further, the above-described expression “preset addition risk level × (age / 100−ADL scale / 100)” is merely an example, and the present invention is not limited to this. For example, the risk level calculation unit 142B may calculate the addition risk level for the target person A using only the age of the target person A, or may use the ADL scale of the target person A only for the target person A. The risk of addition may be calculated.

このように、第2の実施形態に係る医用情報処理装置100は、対象者の個人情報を更に用いて、習熟度、危険度、怠慢度及び関与度のうち少なくとも一つを、対象者ごとに算出する。すなわち、医用情報処理装置100は、一人一人の対象者に応じて各パラメータを算出するので、指導優先度を正確に決定することができる。   As described above, the medical information processing apparatus 100 according to the second embodiment further uses at least one of the proficiency level, the risk level, the negligence level, and the participation level for each target person by further using the personal information of the target person. calculate. That is, since the medical information processing apparatus 100 calculates each parameter according to each target person, the instruction priority can be accurately determined.

(その他の実施形態)
さて、これまで第1及び第2の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されて良いものである。
(Other embodiments)
Although the first and second embodiments have been described so far, the present invention may be implemented in various different forms other than the above-described embodiments.

(指標値のみの表示)
上記の実施形態では、医用情報処理装置100において、出力制御部144が支援情報を出力する場合を説明したが、実施形態はこれに限定されるものではない。例えば、出力制御部144は、算出部142によって算出された指標値を出力しても良い。具体例を挙げると、出力制御部144は、対象者ごとに危険度を出力部110に表示しても良い。これにより、指導者は、表示された対象者ごとの危険度を閲覧することで、指導の優先度を判断することが容易になる。このため、医用情報処理装置100は、指導者によって行われる指導の質を高めることができる。
(Display only index value)
In the above embodiment, the case where the output control unit 144 outputs support information in the medical information processing apparatus 100 has been described. However, the embodiment is not limited thereto. For example, the output control unit 144 may output the index value calculated by the calculation unit 142. As a specific example, the output control unit 144 may display the degree of risk on the output unit 110 for each subject. Thereby, a leader becomes easy to judge the priority of guidance by browsing the danger degree for every displayed subject. For this reason, the medical information processing apparatus 100 can improve the quality of the guidance performed by the instructor.

(強調表示)
上記の実施形態では、医用情報処理装置100が支援情報として、指導優先度の高さに応じて対象者を順位付けした情報を表示する場合を説明したが、実施形態はこれに限定されるものではない。例えば、医用情報処理装置100は、指導優先度が最も高い対象者に関する情報を強調表示した支援情報を出力しても良い。
(Highlighting)
In the above embodiment, the case where the medical information processing apparatus 100 displays information that ranks the target person according to the high instruction priority as the support information has been described. However, the embodiment is limited to this. is not. For example, the medical information processing apparatus 100 may output support information that highlights information related to the subject with the highest instruction priority.

図21は、その他の実施形態に係る出力制御部144の処理を説明するための図である。図21では、医用情報処理装置100が、出力部110として、メインディスプレイとセカンドディスプレイとを有する場合を例示する。なお、図21に示す例では、指導優先度が最高の対象者は対象者Aである。   FIG. 21 is a diagram for explaining the processing of the output control unit 144 according to another embodiment. FIG. 21 illustrates a case where the medical information processing apparatus 100 includes a main display and a second display as the output unit 110. In the example illustrated in FIG. 21, the target person with the highest instruction priority is the target person A.

図21に示すように、医用情報処理装置100において、出力制御部144は、セカンドディスプレイには、図13に例示の表示画面と同様の表示画面を表示させる。更に、出力制御部144は、対象者A〜Dのうち指導優先度が最も高い対象者Aのカラー画像を、メインディスプレイの表示画面26に全画面表示させる。なお、出力制御部144が指導優先度が最も高い対象者に関する情報を強調表示する方法は、これに限定されるものではない。例えば、出力制御部144は、図13において、対象者Aの表示領域21を他の対象者の表示領域22〜24とは異なる色調で表示しても良い。また、例えば、出力制御部144は、対象者Aの表示領域21を他の対象者の表示領域22〜24よりも大きくなるように拡大して表示しても良い。   As shown in FIG. 21, in the medical information processing apparatus 100, the output control unit 144 causes the second display to display a display screen similar to the display screen illustrated in FIG. Further, the output control unit 144 displays the color image of the subject A having the highest instruction priority among the subjects A to D on the display screen 26 of the main display. Note that the method by which the output control unit 144 highlights information related to the subject with the highest instruction priority is not limited to this. For example, the output control unit 144 may display the display area 21 of the subject A in a color tone different from the display areas 22 to 24 of the other subjects in FIG. Further, for example, the output control unit 144 may enlarge and display the display area 21 of the subject A so as to be larger than the display areas 22 to 24 of other subjects.

このように、医用情報処理装置100は、指導優先度が最も高い対象者に関する情報を強調表示した支援情報を出力する。このため、医用情報処理装置100は、現在最も指導が必要な対象者を指導者に明示することができる。   In this way, the medical information processing apparatus 100 outputs support information that highlights information related to the subject with the highest instruction priority. For this reason, the medical information processing apparatus 100 can clearly indicate to the instructor the subject who currently needs the most guidance.

(注目画像の表示)
また、例えば、医用情報処理装置100は、更に、対象者に注目すべき変化が発生した時間の画像である注目画像(サマリ画像)を表示しても良い。例えば、医用情報処理装置100は、注目画像として、対象者Aの危険度が警告条件に該当した時点における対象者Aのカラー画像を出力部110に表示させる。
(Display attention image)
Further, for example, the medical information processing apparatus 100 may further display an attention image (summary image) that is an image at a time when a change that should be noticed by the subject occurs. For example, the medical information processing apparatus 100 causes the output unit 110 to display a color image of the subject person A when the degree of risk of the subject person A meets the warning condition as the attention image.

図22A及び図22Bは、その他の実施形態に係る出力制御部144の処理を説明するための図である。図22Aには、対象者Aがリハビリを開始してからの対象者Aの危険度の時間変化を示す。図22Aにおいて、縦軸は、対象者Aの危険度を示し、横軸は、時間を示す。また、図22Bには、対象者Aを表示する表示領域21の一例を示す。この表示領域21には、注目画像として、対象者Aの危険度が警告条件に該当した時点における対象者Aのカラー画像27が含まれる。   22A and 22B are diagrams for explaining processing of the output control unit 144 according to another embodiment. In FIG. 22A, the time change of the risk level of the subject person A after the subject person A starts rehabilitation is shown. In FIG. 22A, the vertical axis indicates the risk level of the subject A, and the horizontal axis indicates time. FIG. 22B shows an example of the display area 21 for displaying the subject A. The display area 21 includes a color image 27 of the subject A at the time when the degree of danger of the subject A meets the warning condition as the attention image.

図22A及び図22Bに示すように、出力制御部144は、対象者Aの危険度が警告条件に該当した場合に、警告条件に該当した時刻を決定部143から取得する。そして、出力制御部144は、取得した時刻における対象者Aのカラー画像情報27を表示領域21に表示させる。また、例えば、出力制御部144は、警告条件に該当した時刻と現在時刻との時間差を算出し、算出した時間差をカラー画像27とともに表示させる。具体的には、出力制御部144は、警告条件に該当した時刻と現在時刻との時間差が15秒である場合には、カラー画像27とともに「15秒」と表示する。   As illustrated in FIGS. 22A and 22B, the output control unit 144 acquires the time corresponding to the warning condition from the determination unit 143 when the risk level of the subject A corresponds to the warning condition. Then, the output control unit 144 causes the display area 21 to display the color image information 27 of the subject A at the acquired time. For example, the output control unit 144 calculates a time difference between the time corresponding to the warning condition and the current time, and displays the calculated time difference together with the color image 27. Specifically, the output control unit 144 displays “15 seconds” together with the color image 27 when the time difference between the time corresponding to the warning condition and the current time is 15 seconds.

なお、ここでは、医用情報処理装置100が、注目画像として、対象者の危険度が警告条件に該当した時点における対象者のカラー画像を表示させる場合を説明したが、実施形態はこれに限定されるものではない。例えば、医用情報処理装置100は、習熟度、怠慢度及び関与度等、他の指標値が警告条件に該当した時点における対象者のカラー画像を表示しても良い。また、表示されるカラー画像は静止画像に限らず、例えば、指標値が警告条件に該当した時点を含む所定時間(例えば、5秒間)の動画像であっても良い。   Here, although the case where the medical information processing apparatus 100 displays the color image of the subject at the time when the degree of risk of the subject meets the warning condition as the attention image has been described, the embodiment is limited to this. It is not something. For example, the medical information processing apparatus 100 may display a color image of the subject at the time when other index values such as the proficiency level, the neglect level, and the degree of participation meet the warning condition. The displayed color image is not limited to a still image, and may be a moving image for a predetermined time (for example, 5 seconds) including a time point when the index value meets the warning condition.

また、例えば、注目画像は、対象者の指標値が警告条件に該当した時点の画像に限らず、例えば、対象者の指標値が最も変化した時点の画像であっても良い。具体的には、医用情報処理装置100は、図22Aに例示したグラフから指標値の傾きを算出し、算出した傾きが最大となる時刻の画像を注目画像として表示しても良い。   In addition, for example, the target image is not limited to an image at the time when the index value of the target person meets the warning condition, and may be an image at the time when the index value of the target person changes most. Specifically, the medical information processing apparatus 100 may calculate the inclination of the index value from the graph illustrated in FIG. 22A and display an image at the time when the calculated inclination is maximum as the attention image.

このように、医用情報処理装置100は、対象者に注目すべき変化が発生した時間の画像である注目画像を出力部110に表示させる。このため、指導者は、対象者に注目すべき変化が発生した場合に対象者の画像を見逃してしまったとしても、注目すべき画像を容易に閲覧することができる。   In this way, the medical information processing apparatus 100 causes the output unit 110 to display an attention image that is an image at a time when a change that should be noticed by the subject has occurred. For this reason, the instructor can easily browse the image to be noticed even if the subject's image is missed when a change to be noticed by the subject has occurred.

(指導レポートの作成)
また、例えば、医用情報処理装置100は、指導者による指導が終了した後に、各対象者の指導における要点を抽出した指導レポートを出力しても良い。例えば、医用情報処理装置100は、指導レポートとして、上記の注目画像と指標値の時間変化とを含む情報を対象者ごとに出力部110に表示させる。
(Creation of instruction report)
In addition, for example, the medical information processing apparatus 100 may output a guidance report in which the main points in the guidance of each subject person are extracted after the guidance by the leader is completed. For example, the medical information processing apparatus 100 causes the output unit 110 to display, for each target person, information including the attention image and the time change of the index value as a guidance report.

図23は、その他の実施形態に係る出力制御部144の処理を説明するための図である。図23には、出力部110の表示画面に指導レポートが表示された場合を例示する。図23に示すように、出力部110の表示画面には、対象者Aの開始32分後におけるカラー画像27と、危険度の時間変化を示すグラフとを含む指導レポート28が表示される。また、出力部110の表示画面には、対象者Cの開始2分後におけるカラー画像29と、習熟度の時間変化を示すグラフとを含む指導レポート30が表示される。   FIG. 23 is a diagram for explaining processing of the output control unit 144 according to another embodiment. FIG. 23 illustrates a case where a guidance report is displayed on the display screen of the output unit 110. As shown in FIG. 23, on the display screen of the output unit 110, a guidance report 28 including a color image 27 32 minutes after the start of the subject A and a graph showing the change in the degree of risk over time is displayed. In addition, on the display screen of the output unit 110, a guidance report 30 including a color image 29 two minutes after the start of the subject C and a graph showing the temporal change in the proficiency level is displayed.

図23に示すように、出力制御部144は、指導終了指示を入力部120が受け付けると、図22Aに例示の各指標値の時間変化に基づいて、注目画像を抽出する。具体的には、出力制御部144は、対象者Aの指導が終了すると、対象者Aについて、警告条件に該当した指標値のうち、最も優先度が高い指標値について、警告条件に該当した時刻を取得する。図23に示す例では、出力制御部144は、対象者Aの危険度が警告条件に該当した時刻を取得する。そして、出力制御部144は、取得した時刻に対応する対象者Aのカラー画像27を動作情報記憶部131から抽出する。そして、出力制御部144は、抽出したカラー画像27と、対象者Aの危険度の時間変化を示すグラフとを含む指導レポートを生成する。そして、出力制御部144は、生成した指導レポートを出力部110の表示画面に表示させる。また、出力制御部144は、他の対象者についても同様に、各対象者への指導が終了するごとに、各対象者の危険度が警告条件に該当した時刻のカラー画像を抽出し、指導レポートを生成して表示させる。なお、出力制御部144によって表示される指導レポートは、記憶部130、外部の記憶装置、又は、コンピュータで読み取り可能な記録媒体等に記憶されても良いし、プリンタによって紙媒体に印刷されても良い。   As illustrated in FIG. 23, when the input control unit 144 receives an instruction to end instruction, the output control unit 144 extracts a target image based on the time change of each index value illustrated in FIG. 22A. Specifically, when the instruction of the subject person A ends, the output control unit 144 sets the time corresponding to the warning condition for the index value having the highest priority among the index values corresponding to the warning condition for the subject person A. To get. In the example illustrated in FIG. 23, the output control unit 144 acquires the time when the risk level of the subject person A meets the warning condition. Then, the output control unit 144 extracts the color image 27 of the subject A corresponding to the acquired time from the motion information storage unit 131. And the output control part 144 produces | generates the instruction | indication report containing the extracted color image 27 and the graph which shows the time change of the subject A's risk degree. Then, the output control unit 144 displays the generated instruction report on the display screen of the output unit 110. Similarly, the output control unit 144 extracts a color image at a time when the risk level of each target person meets the warning condition every time the instruction to each target person is completed, Generate and display a report. The instruction report displayed by the output control unit 144 may be stored in the storage unit 130, an external storage device, a computer-readable recording medium, or the like, or may be printed on a paper medium by a printer. good.

このように、医用情報処理装置100は、指導者による指導が終了した後に、各対象者の指導における要点を抽出した指導レポートを出力する。このため、指導者は、指導に参加しなかった場合にも、行われていた指導の要点を知ることができる。   As described above, the medical information processing apparatus 100 outputs a guidance report in which the main points in the guidance of each subject person are extracted after the guidance by the leader is completed. For this reason, even if the leader does not participate in the guidance, the leader can know the main points of the guidance that has been provided.

(生体センサの併用)
また、例えば、医用情報処理装置100は、生体センサから取得される生体情報を更に用いて、危険度を算出しても良い。例えば、医用情報処理装置100は、入力部120として脈拍計や血圧計等の生体センサを有する場合には、生体センサから取得される脈拍や血圧の値を用いて、危険度を算出しても良い。
(Combined use of biosensors)
In addition, for example, the medical information processing apparatus 100 may calculate the degree of risk by further using biological information acquired from a biological sensor. For example, when the medical information processing apparatus 100 includes a biosensor such as a pulse meter or a sphygmomanometer as the input unit 120, the medical information processing apparatus 100 may calculate the degree of risk using the pulse and blood pressure values acquired from the biosensor. good.

この場合、例えば、医用情報処理装置100において、記憶部130が危険生体情報記憶部138を更に有する。   In this case, for example, in the medical information processing apparatus 100, the storage unit 130 further includes a dangerous biological information storage unit 138.

危険生体情報記憶部138は、危険と判断される生体情報を記憶する。例えば、危険生体情報記憶部138は、危険度算出部142Bによって参照される。また、例えば、危険生体情報記憶部138は、医用情報処理装置100の操作者によって予め登録される。   The dangerous biological information storage unit 138 stores biological information that is determined to be dangerous. For example, the dangerous biological information storage unit 138 is referred to by the risk level calculation unit 142B. For example, the dangerous biological information storage unit 138 is registered in advance by an operator of the medical information processing apparatus 100.

図24は、その他の実施形態に係る危険生体情報記憶部138に記憶される情報の一例を示す図である。危険生体情報記憶部138は、図24に示すように、危険生体情報と、加算危険度とを対応付けた情報を記憶する。ここで、「危険生体情報」とは、対象者が危険な状況に陥る可能性を示唆する対象者の生体情報である。   FIG. 24 is a diagram illustrating an example of information stored in the dangerous living body information storage unit 138 according to another embodiment. As illustrated in FIG. 24, the dangerous biological information storage unit 138 stores information in which dangerous biological information is associated with an added risk level. Here, the “dangerous biological information” is biological information of the subject that suggests the possibility that the subject is in a dangerous situation.

図24に示すように、危険生体情報記憶部138は、危険生体情報「脈拍が130/min以上」と、加算危険度「+4」とを対応付けた情報を記憶する。つまり、危険生体情報記憶部138は、対象者の脈拍が1分間に130回以上あると、危険度算出部142Bによって対象者の危険度に「+3」が加算されることを記憶する。また、危険生体情報記憶部138は、危険生体情報「血圧が上130mmHg以上」と、加算危険度「+5」とを対応付けた情報を記憶する。つまり、危険生体情報記憶部138は、対象者の最高血圧が130mmHg以上あると、危険度算出部142Bによって対象者の危険度に「+5」が加算されることを記憶する。また、危険生体情報記憶部138は、他の危険生体情報についても同様に、危険生体情報と、加算危険度とを対応付けた情報を記憶する。   As illustrated in FIG. 24, the dangerous biological information storage unit 138 stores information in which the dangerous biological information “pulse is 130 / min or more” and the added risk “+4” are associated with each other. That is, the dangerous biological information storage unit 138 stores that “+3” is added to the risk level of the target person by the risk level calculation unit 142B when the pulse of the target person is 130 times or more per minute. Further, the dangerous biological information storage unit 138 stores information in which the dangerous biological information “blood pressure is 130 mmHg or higher” is associated with the added risk “+5”. That is, the dangerous biological information storage unit 138 stores that “+5” is added to the risk level of the subject by the risk level calculation unit 142B when the subject's maximum blood pressure is 130 mmHg or more. Similarly, the dangerous biological information storage unit 138 stores information in which the dangerous biological information is associated with the added risk level in the same manner for other dangerous biological information.

なお、図24に示した危険生体情報記憶部138は一例であり、実施形態はこれに限定されるものではない。例えば、危険生体情報記憶部138に記憶される危険生体情報は、操作者によって任意の項目が登録されて良い。また、危険生体情報記憶部138に記憶される加算危険度は、操作者によって任意の値が登録されて良い。   The dangerous biological information storage unit 138 shown in FIG. 24 is an example, and the embodiment is not limited to this. For example, arbitrary items may be registered by the operator as the dangerous biological information stored in the dangerous biological information storage unit 138. In addition, an arbitrary value may be registered by the operator as the addition risk stored in the dangerous biological information storage unit 138.

その他の実施形態に係る危険度算出部142Bは、基本的には第1の実施形態において説明した機能と同様の機能を有する。そして、危険度算出部142Bは、更に、危険生体情報記憶部138を参照し、入力部120によって取得された対象者の生体情報が危険生体情報に該当するか否かを判定する。そして、危険度算出部142Bは、対象者の生体情報が危険生体情報に該当する場合には、その対象者の危険度に危険生体情報に対応する加算危険度を加算する。そして、危険度算出部142Bは、各対象者の危険度を決定部143に出力する。   The risk level calculation unit 142B according to the other embodiment basically has the same function as the function described in the first embodiment. Then, the risk level calculation unit 142B further refers to the dangerous biological information storage unit 138 and determines whether the biological information of the subject acquired by the input unit 120 corresponds to the dangerous biological information. Then, when the biological information of the subject corresponds to the dangerous biological information, the risk level calculation unit 142B adds the added risk level corresponding to the dangerous biological information to the risk level of the subject person. Then, the risk level calculation unit 142B outputs the risk level of each subject person to the determination unit 143.

一例として、危険度算出部142Bは、危険生体情報記憶部138を参照し、危険生体情報記憶部138に記憶された全ての危険生体情報を取得する。そして、危険度算出部142Bは、入力部120によって対象者Aの生体情報が取得されるごとに、取得された対象者Aの生体情報が危険生体情報に該当するか否かをそれぞれ判定する。具体的に、危険度算出部142Bは、対象者Aの脈拍が1分間に130回以上ある場合には、その危険生体情報に対応する加算危険度「+4」を対象者Aの危険度に加算する。そして、危険度算出部142Bは、対象者Aの危険度を決定部143に出力する。   As an example, the risk level calculation unit 142B refers to the dangerous biological information storage unit 138 and acquires all the dangerous biological information stored in the dangerous biological information storage unit 138. Then, each time the biometric information of the subject A is acquired by the input unit 120, the risk level calculation unit 142B determines whether or not the acquired biometric information of the subject A corresponds to the dangerous biometric information. Specifically, the risk level calculation unit 142B adds the added risk level “+4” corresponding to the risk biological information to the risk level of the target person A when the pulse of the target person A is 130 times or more per minute. To do. Then, the risk level calculation unit 142B outputs the risk level of the subject A to the determination unit 143.

このように、医用情報処理装置100は、生体センサから取得される生体情報を更に用いて、危険度を算出する。すなわち、医用情報処理装置100は、対象者の動作情報のみでは推定できない危険性を踏まえて危険度を算出するので、対象者が危険な状態に陥る可能性を軽減することができる。   As described above, the medical information processing apparatus 100 calculates the degree of risk by further using the biological information acquired from the biological sensor. In other words, the medical information processing apparatus 100 calculates the risk level based on the risk that cannot be estimated only by the motion information of the subject person, so that the possibility that the subject person will be in a dangerous state can be reduced.

(複数の指導者が指導する場合)
また、例えば、医用情報処理装置100は、複数の指導者が指導に関わる場合には、関与度を指導者ごとに算出しても良い。例えば、医用情報処理装置100は、指導者E及び指導者Fの2人の指導者が対象者Aの指導に関わる場合には、指導者Eが対象者Aに関与する関与度と、指導者Fが対象者Aに関与する関与度とをそれぞれ算出しても良い。
(When multiple leaders teach)
For example, when a plurality of leaders are involved in guidance, the medical information processing apparatus 100 may calculate the degree of involvement for each leader. For example, the medical information processing apparatus 100, when two leaders, the leader E and the leader F, are involved in the guidance of the subject A, the degree of involvement of the leader E in the subject A and the leader The degree of participation in which F is involved in the target person A may be calculated.

図25は、その他の実施形態に係る医用情報処理装置100の構成の一例を示す図である。図25に示すように、その他の実施形態に係る医用情報処理装置100は、図4に示した医用情報処理装置100と比較して、制御部140が判定部145を更に有する。   FIG. 25 is a diagram illustrating an example of the configuration of the medical information processing apparatus 100 according to another embodiment. As illustrated in FIG. 25, in the medical information processing apparatus 100 according to another embodiment, the control unit 140 further includes a determination unit 145 as compared with the medical information processing apparatus 100 illustrated in FIG. 4.

その他の実施形態に係る判定部145は、各対象者に関与する指導者を判定する。例えば、判定部145は、声紋認証によって、各対象者に関与する指導者を判定する。具体的には、判定部145は、指導者(例えば、指導者E又は指導者F)の声紋をそれぞれ記憶する。そして、判定部145は、取得部141によって音声認識結果が取得されるごとに、取得された音声認識結果に対して声紋認証を行う。これにより、判定部145は、取得された音声認識結果がいずれの指導者の声紋に対応するか判定する。そして、判定部145は、声紋が対応すると判定された指導者を示す情報を音声認識結果に対応付けて、関与度算出部142Dに出力する。   The determination part 145 which concerns on other embodiment determines the leader who is concerned with each subject. For example, the determination unit 145 determines a leader who is involved in each target person by voiceprint authentication. Specifically, the determination unit 145 stores a voiceprint of a leader (for example, the leader E or the leader F). The determination unit 145 performs voiceprint authentication on the acquired speech recognition result every time the acquisition unit 141 acquires the speech recognition result. Thereby, the determination unit 145 determines which instructor's voiceprint the acquired voice recognition result corresponds to. Then, the determination unit 145 associates information indicating a leader determined to correspond to the voiceprint with the voice recognition result, and outputs the information to the participation degree calculation unit 142D.

また、例えば、判定部145は、顔画像認識によって、各対象者に関与する指導者を判定する。具体的には、判定部145は、指導者(例えば、指導者E又は指導者F)の顔画像をそれぞれ記憶する。そして、判定部145は、取得部141によってカラー画像情報が取得されるごとに、取得されたカラー画像情報に対して顔画像認識を行う。これにより、判定部145は、取得されたカラー画像情報にいずれの指導者が含まれるかを判定する。そして、判定部145は、カラー画像情報に含まれると判定された指導者を示す情報をカラー画像情報に対応付けて、関与度算出部142Dに出力する。   Further, for example, the determination unit 145 determines a leader who is involved in each target person by face image recognition. Specifically, the determination unit 145 stores a face image of a leader (for example, the leader E or the leader F). The determination unit 145 performs face image recognition on the acquired color image information every time the acquisition unit 141 acquires color image information. Thereby, the determination unit 145 determines which instructor is included in the acquired color image information. Then, the determination unit 145 associates information indicating the leader determined to be included in the color image information with the color image information, and outputs the information to the participation degree calculation unit 142D.

その他の実施形態に係る関与度算出部142Dは、各対象者の関与度を指導者ごとに算出する。一例として、関与度算出部142Dは、関与情報記憶部135を参照し、関与情報記憶部135に記憶された全ての関与情報を取得する。そして、関与度算出部142Dは、取得部141によって対象者Aの動作情報が取得されるごとに、取得された対象者Aの動作情報が関与情報に該当するか否かをそれぞれ判定する。そして、関与度算出部142Dは、対象者Aの動作情報が関与情報に該当する場合には、その動作情報に対応付けられた指導者を示す情報を参照し、指導者ごとの関与度として算出する。   The degree-of-engagement calculation unit 142D according to another embodiment calculates the degree of participation of each target person for each instructor. As an example, the participation degree calculation unit 142D refers to the participation information storage unit 135 and acquires all the participation information stored in the participation information storage unit 135. Then, each time the acquisition unit 141 acquires the motion information of the subject person A, the participation degree calculation unit 142D determines whether the acquired motion information of the subject person A corresponds to the participation information. Then, when the motion information of the subject person A corresponds to the participation information, the participation level calculation unit 142D refers to information indicating the leader associated with the motion information and calculates the participation level for each leader. To do.

具体的には、関与度算出部142Dは、対象者Aの名前「Aさん」が単語として認識された音声認識結果が取得された場合に、その音声認識結果に対応付けられた指導者を示す情報を参照する。そして、関与度算出部142Dは、音声認識結果に対応付けられた指導者(例えば、指導者E)の対象者Aに対する関与を表す関与度(指導者E−対象者A)に、関与情報「対象者の名前を呼ぶ」に対応する加算関与度「+1」を加算する。そして、関与度算出部142Dは、関与度(指導者E−対象者A)を決定部143に出力する。   Specifically, when the speech recognition result in which the name “Mr. A” of the subject person A is recognized as a word is acquired, the degree-of-engagement calculation unit 142D indicates the instructor associated with the speech recognition result. Browse information. Then, the degree-of-engagement calculation unit 142D gives the degree of participation information “leader E−target person A” to the degree of participation (leader E−target person A) indicating the involvement of the leader (for example, the leader E) associated with the target person A. The addition participation degree “+1” corresponding to “call the name of the subject” is added. Then, the degree-of-engagement calculation unit 142D outputs the degree of participation (leader E-target person A) to the determination unit 143.

このように、医用情報処理装置100は、複数の指導者が指導に関わる場合には、各対象者の関与度を指導者ごとに算出する。このため、医用情報処理装置100は、関与度を詳細に算出することができる。また、例えば、医用情報処理装置100は、各指導者が各対象者に対して平等に関与できているかどうかを通知することができる。   As described above, when a plurality of leaders are involved in guidance, the medical information processing apparatus 100 calculates the degree of involvement of each target person for each leader. For this reason, the medical information processing apparatus 100 can calculate the degree of participation in detail. Further, for example, the medical information processing apparatus 100 can notify whether or not each instructor can be equally involved with each target person.

更に、複数の指導者が指導する場合には、指導者ごとに指導優先度を決定しても良い。例えば、決定部143は、複数の対象者が同一の指導優先度になった場合に、指導者ごとに指導優先度を決定しても良い。   Furthermore, when a plurality of leaders teach, guidance priority may be determined for each leader. For example, the determination unit 143 may determine the instruction priority for each instructor when a plurality of subjects have the same instruction priority.

ここで、指導者E及び指導者Fが、対象者G及び対象者Hを指導する場合において、対象者G及び対象者Hに同一の指導優先度になった場合を説明する。なお、指導者Eは、スポーツ医学を専門とする指導者であり、指導者Fは、老人ホームでの勤務経験が長い指導者である。また、対象者Gは、スクワット訓練を行っている25歳の人物であり、対象者Hは、歩行訓練を行っている70歳の人物である。   Here, when the leader E and the leader F teach the subject G and the subject H, the case where the subject G and the subject H have the same guidance priority will be described. The leader E is a leader who specializes in sports medicine, and the leader F is a leader who has a long working experience at a nursing home. In addition, the target person G is a 25-year-old person who performs squat training, and the target person H is a 70-year-old person who performs walking training.

この場合、記憶部130は、指導者E、指導者F、対象者G及び対象者Hそれぞれについて、個人情報を記憶する。具体的には、記憶部130は、指導者Eが、スクワット訓練やジャンプ訓練等のリハビリを行う対象者を優先的に指導する旨の情報を記憶する。また、記憶部130は、指導者Fが、より高齢の対象者を優先的に指導する旨の情報を記憶する。また、記憶部130は、対象者Gが行うリハビリの種類が「スクワット訓練」である旨の情報と、「25歳」である旨の情報とを記憶する。また、記憶部130は、対象者Hが行うリハビリの種類が「歩行訓練」である旨の情報と、「70歳」である旨の情報とを記憶する。   In this case, the storage unit 130 stores personal information for each of the leader E, the leader F, the subject G, and the subject H. Specifically, the memory | storage part 130 memorize | stores the information that the leader E preferentially guides the subject who performs rehabilitation, such as squat training and jump training. Moreover, the memory | storage part 130 memorize | stores the information that the leader F preferentially guides an older subject. In addition, the storage unit 130 stores information indicating that the type of rehabilitation performed by the subject G is “Squat training” and information indicating that the subject is “25 years old”. In addition, the storage unit 130 stores information indicating that the type of rehabilitation performed by the subject H is “walking training” and information indicating “70 years old”.

まず、指導者Eの指導優先度を決定する場合を説明する。決定部143は、記憶部130から、指導者Eがスクワット訓練やジャンプ訓練等のリハビリを行う対象者を優先的に指導する旨の情報を取得する。そして、決定部143は、記憶部130から対象者G及び対象者Hの個人情報をそれぞれ取得し、比較する。この場合、対象者Gのリハビリの種類は「スクワット訓練」であり、対象者Hのリハビリの種類は「歩行訓練」である。このため、決定部143は、指導者Eの指導優先度として、対象者Hよりも対象者Gを優先的に指導する旨の情報を生成し、出力制御部144に出力する。   First, the case where the guidance priority of the leader E is determined will be described. The determination unit 143 obtains information from the storage unit 130 that the leader E preferentially guides the target person who performs rehabilitation such as squat training and jump training. Then, the determination unit 143 acquires the personal information of the target person G and the target person H from the storage unit 130 and compares them. In this case, the rehabilitation type of the subject G is “squat training”, and the rehabilitation type of the subject H is “walking training”. Therefore, the determination unit 143 generates information indicating that the subject person G is preferentially taught over the subject person H as the guidance priority of the leader E, and outputs the information to the output control unit 144.

次に、指導者Fの指導優先度を決定する場合を説明する。決定部143は、記憶部130から、指導者Fがより高齢の対象者を優先的に指導する旨の情報を取得する。そして、決定部143は、記憶部130から対象者G及び対象者Hの個人情報をそれぞれ取得し、比較する。この場合、対象者Gは「25歳」であり、対象者Hは「70歳」である。このため、決定部143は、指導者Fの指導優先度として、対象者Gよりも対象者Hを優先的に指導する旨の情報を生成し、出力制御部144に出力する。   Next, the case where the guidance priority of the leader F is determined will be described. The determination unit 143 acquires information from the storage unit 130 to the effect that the leader F preferentially guides older subjects. Then, the determination unit 143 acquires the personal information of the target person G and the target person H from the storage unit 130 and compares them. In this case, the target person G is “25 years old” and the target person H is “70 years old”. For this reason, the determination unit 143 generates information indicating that the subject person H is preferentially taught over the subject person G as the guidance priority of the leader F, and outputs the information to the output control unit 144.

このように、決定部143は、複数の指導者が指導する場合には、指導者ごとに指導優先度を決定する。なお、上記の例では、対象者G及び対象者Hに同一の指導優先度になった場合を説明したが、これに限定されない。また、出力制御部144は、指導者ごとの指導優先度を受け付けた場合には、その旨を表示する。上記の例では、出力制御部144は、出力部110の表示画面に、指導者Eの指導優先度を表示する領域と、指導者Fの指導優先度を表示する領域とを設けて、上記の指導者ごとの指導優先度を表示する。また、例えば、出力制御部144は、指導者E及び指導者Fがそれぞれ専用の出力部110(ヘッドセット、専用モニタ等)があれば、各指導者に対して各自の指導優先度のみを出力しても良い。   Thus, the determination part 143 determines a guidance priority for every leader, when a some leader guides. In the example described above, the case where the subject person G and the subject person H have the same instruction priority has been described, but the present invention is not limited to this. Moreover, when the output control part 144 receives the instruction | indication priority for every instructor, it displays that. In the above example, the output control unit 144 provides the display screen of the output unit 110 with an area for displaying the instruction priority of the instructor E and an area for displaying the instruction priority of the instructor F. The instruction priority for each instructor is displayed. Further, for example, if the instructor E and the instructor F have dedicated output units 110 (headsets, dedicated monitors, etc.), the output control unit 144 outputs only their own instruction priority to each instructor. You may do it.

(リハビリ以外への適用)
また、上記の実施形態では、医用情報処理装置100がリハビリテーションを行う対象者に適用される場合を説明したが、実施形態はこれに限定されるものではない。例えば、医用情報処理装置100は、所定動作が正しく行われているか否かを確認する場合に適用されても良い。
(Application other than rehabilitation)
Moreover, although said embodiment demonstrated the case where the medical information processing apparatus 100 was applied to the subject who performs rehabilitation, embodiment is not limited to this. For example, the medical information processing apparatus 100 may be applied when confirming whether a predetermined operation is correctly performed.

図26は、その他の実施形態に係る実施メニュー記憶部132に記憶される情報の一例を示す図である。図26に示すように、その他の実施形態に係る実施メニュー記憶部132は、実施メニュー「換気扇のネジ取り付け」と、未習熟動作除法「肘が肩よりも高い位置にある」とを対応付けて記憶する。つまり、実施メニュー記憶部132は、対象者が換気扇のネジ取り付けを行う場合に、対象者の肘が肩よりも高い位置にあると、習熟度算出部142Aによって対象者の習熟度に「−1」が加算されることを記憶する。この未習熟動作情報「肘が肩よりも高い位置にある」は、例えば、対象者の肘(関節3f又は3j)のy座標の値が肩(関節3e又は3i)のy座標の値よりも大きい値であるか否かに応じて判定される。また、実施メニュー記憶部132は、他の実施メニューについても同様に、実施メニューと、未習熟動作情報と、加算習熟度とを対応付けた情報を記憶する。   FIG. 26 is a diagram illustrating an example of information stored in the implementation menu storage unit 132 according to another embodiment. As shown in FIG. 26, the execution menu storage unit 132 according to another embodiment associates the execution menu “screw mounting of the ventilation fan” with the unskilled operation division method “the elbow is higher than the shoulder”. Remember. That is, the implementation menu storage unit 132 determines that the proficiency level of the subject is “−1” by the proficiency level calculation unit 142A when the subject's elbow is higher than the shoulder when the subject is attaching the screw of the ventilation fan. "Is added. This inexperienced movement information “the elbow is higher than the shoulder” means that, for example, the y-coordinate value of the subject's elbow (joint 3f or 3j) is greater than the y-coordinate value of the shoulder (joint 3e or 3i). The determination is made according to whether or not the value is large. Similarly, the execution menu storage unit 132 stores information that associates the execution menu, the unskilled operation information, and the addition proficiency level with respect to the other execution menus.

このように、医用情報処理装置100は、リハビリテーションを行う対象者に適用される場合に限らず、様々な所定動作について、正しい動作で行われているかどうかを確認することができる。   Thus, the medical information processing apparatus 100 is not limited to the case where the medical information processing apparatus 100 is applied to a target person who performs rehabilitation, and can check whether various predetermined operations are being performed with correct operations.

(サービス提供装置への適用)
図27は、サービス提供装置に適用される場合の一例を説明するための図である。図27に示すように、サービス提供装置200は、サービスセンタ内に配置され、例えば、ネットワーク5を介して、医療機関や、自宅、職場に配置される端末装置300とそれぞれ接続される。医療機関、自宅及び職場に配置された端末装置300は、動作情報収集部10がそれぞれ接続される。また、各端末装置300は、サービス提供装置200によって提供されるサービスを利用するクライアント機能を備える。また、ネットワーク5には、有線又は無線を問わず、インターネット(Internet)、WAN(Wide Area Network)などの任意の種類の通信網を採用できる。
(Application to service providing equipment)
FIG. 27 is a diagram for explaining an example when applied to a service providing apparatus. As shown in FIG. 27, the service providing apparatus 200 is arranged in a service center and connected to, for example, a medical institution, a terminal apparatus 300 arranged in a home, or a workplace via the network 5. The operation information collection unit 10 is connected to each of the terminal devices 300 disposed in the medical institution, home, and workplace. Each terminal device 300 includes a client function that uses a service provided by the service providing device 200. The network 5 may employ any type of communication network such as the Internet or WAN (Wide Area Network) regardless of whether it is wired or wireless.

例えば、サービス提供装置200は、図5において説明した医用情報処理装置100と同様の機能を有し、当該機能によって端末装置300にサービスとして提供する。すなわち、サービス提供装置200は、取得部141と、算出部142と、出力制御部144とそれぞれ同様の機能部を有する。そして、取得部141と同様の機能部は、それぞれ所定動作を行う複数の対象者について、対象者の動作を表す動作情報を対象者ごとに取得する。そして、算出部142と同様の機能部は、対象者ごとの動作情報に基づいて、所定動作の実施状況を示す指標値を、対象者ごとに算出する。そして、出力制御部144と同様の機能部は、指標値を出力する。   For example, the service providing apparatus 200 has a function similar to that of the medical information processing apparatus 100 described with reference to FIG. 5 and provides the terminal apparatus 300 as a service using the function. That is, the service providing apparatus 200 includes functional units that are similar to the acquisition unit 141, the calculation unit 142, and the output control unit 144, respectively. And the function part similar to the acquisition part 141 acquires the operation | movement information showing an object person's operation | movement for every object person about the some object person who respectively performs predetermined operation | movement. Then, a functional unit similar to the calculation unit 142 calculates an index value indicating the implementation status of the predetermined operation for each target person based on the operation information for each target person. Then, a function unit similar to the output control unit 144 outputs an index value.

例えば、サービス提供装置200は、端末装置300から処理の対象となる動作情報のフレーム群のアップロードを受け付ける。そして、サービス提供装置200は、上記の処理を行って指標値を算出する。そして、サービス提供装置200は、指標値を端末装置300にダウンロードさせる。   For example, the service providing apparatus 200 receives an upload of a frame group of operation information to be processed from the terminal apparatus 300. Then, the service providing apparatus 200 performs the above processing to calculate an index value. Then, the service providing apparatus 200 causes the terminal device 300 to download the index value.

これにより、医療機関や自宅、職場等に動作情報収集部10があれば、サービス提供装置200は、医療機関や自宅、職場等でリハビリを行う対象者及び指導者に対して、上記の機能を提供することができる。なお、サービス提供装置200は、上記の決定部143と同様の処理を行って、対象者ごとに指導優先度を決定し、これを端末装置300にダウンロードさせても良い。   As a result, if the operation information collection unit 10 is in a medical institution, home, workplace, etc., the service providing apparatus 200 provides the above function to the target person and instructor who performs rehabilitation in the medical institution, home, workplace, etc. Can be provided. The service providing apparatus 200 may perform the same processing as the determination unit 143 described above, determine the instruction priority for each target person, and cause the terminal apparatus 300 to download the instruction priority.

(遠隔地指導)
また、例えば、指導者と対象者とが離れた場所にいる場合には、医用情報処理装置100は、遠隔地指導を支援しても良い。例えば、図27において、サービス提供装置200は、医療機関にいる指導者が自宅でリハビリを行う対象者を指導する場合に、指導者を支援することができる。
(Remote location guidance)
Further, for example, when the leader and the target person are away from each other, the medical information processing apparatus 100 may support remote guidance. For example, in FIG. 27, the service providing apparatus 200 can support a leader when a leader in a medical institution teaches a subject who performs rehabilitation at home.

具体的には、サービス提供装置200は、自宅の端末装置300から処理の対象となる動作情報のフレーム群のアップロードを受け付ける。そして、サービス提供装置200は、上記の処理を行って指標値を算出する。そして、サービス提供装置200は、指標値を端末装置300にダウンロードさせる。これにより、サービス提供装置200は、遠隔地指導を支援することができる。   Specifically, the service providing apparatus 200 receives an upload of a frame group of operation information to be processed from the terminal device 300 at home. Then, the service providing apparatus 200 performs the above processing to calculate an index value. Then, the service providing apparatus 200 causes the terminal device 300 to download the index value. As a result, the service providing apparatus 200 can support remote location guidance.

なお、この場合、サービス提供装置200の機能(医用情報処理装置100と同様の機能)は、医療機関の端末装置300で実現されても良いし、自宅の端末装置300で実現されても良い。すなわち、図27において、サービス提供装置200、医療機関の端末装置300及び自宅の端末装置300は、医用情報処理システムとして機能する。   In this case, the function of the service providing apparatus 200 (function similar to that of the medical information processing apparatus 100) may be realized by the terminal apparatus 300 of the medical institution or may be realized by the terminal apparatus 300 at home. That is, in FIG. 27, the service providing apparatus 200, the medical institution terminal apparatus 300, and the home terminal apparatus 300 function as a medical information processing system.

一例を挙げると、サービス提供装置200において指標値を算出する場合には、自宅の端末装置300は、動作情報収集部10が、所定動作を行う対象者について、対象者の動作を表す動作情報を対象者ごとに収集する。そして、自宅の端末装置300は、動作情報をサービス提供装置200に送信する。そして、サービス提供装置200は、自宅の端末装置300から動作情報を受信する。そして、サービス提供装置200において、算出部142と同様の機能部が、対象者ごとの動作情報に基づいて、所定動作の実施状況を示す指標値を、対象者ごとに算出する。そして、サービス提供装置200は、指標値を医療機関の端末装置300に送信する。医療機関の端末装置300は、サービス提供装置200から指標値を受信する。そして、医療機関の端末装置300は、指標値をモニタに出力する。   For example, when the index value is calculated in the service providing device 200, the terminal device 300 at home uses the operation information indicating the operation of the subject for the subject for which the motion information collection unit 10 performs the predetermined operation. Collect for each subject. Then, the terminal device 300 at home transmits operation information to the service providing device 200. The service providing apparatus 200 receives operation information from the terminal device 300 at home. Then, in the service providing apparatus 200, a functional unit similar to the calculation unit 142 calculates an index value indicating the implementation status of the predetermined operation for each target person based on the operation information for each target person. Then, the service providing apparatus 200 transmits the index value to the terminal apparatus 300 of the medical institution. The terminal device 300 of the medical institution receives the index value from the service providing device 200. Then, the terminal device 300 of the medical institution outputs the index value to the monitor.

また、他の例を挙げると、自宅の端末装置300において指標値を算出する場合には、自宅の端末装置300は、動作情報収集部10が、所定動作を行う対象者について、対象者の動作を表す動作情報を対象者ごとに収集する。そして、自宅の端末装置300において、算出部142と同様の機能部が、対象者ごとの動作情報に基づいて、所定動作の実施状況を示す指標値を、対象者ごとに算出する。そして、自宅の端末装置300は、指標値を医療機関の端末装置300に送信する。そして、医療機関の端末装置300は、自宅の端末装置300から指標値を受信する。そして、医療機関の端末装置300は、受信した指標値をモニタに出力する。   As another example, when the index value is calculated in the home terminal device 300, the home terminal device 300 uses the motion of the subject for the subject for which the motion information collection unit 10 performs a predetermined motion. Collect action information for each subject. Then, in the terminal device 300 at home, a functional unit similar to the calculation unit 142 calculates an index value indicating the implementation status of the predetermined operation for each target person based on the operation information for each target person. Then, the terminal device 300 at home transmits the index value to the terminal device 300 of the medical institution. Then, the terminal device 300 of the medical institution receives the index value from the terminal device 300 at home. Then, the terminal device 300 of the medical institution outputs the received index value to the monitor.

また、他の例を挙げると、医療機関の端末装置300において指標値を算出する場合には、自宅の端末装置300は、動作情報収集部10が、所定動作を行う対象者について、対象者の動作を表す動作情報を対象者ごとに収集する。そして、自宅の端末装置300は、動作情報を医療機関の端末装置300に送信する。そして、医療機関の端末装置300は、自宅の端末装置300から動作情報を受信する。そして、医療機関の端末装置300において、算出部142と同様の機能部が、対象者ごとの動作情報に基づいて、所定動作の実施状況を示す指標値を、対象者ごとに算出する。そして、医療機関の端末装置300は、指標値をモニタに出力する。   As another example, when the index value is calculated in the terminal device 300 of the medical institution, the terminal device 300 at home has the subject information on which the motion information collecting unit 10 performs a predetermined motion. Collect action information representing actions for each subject. Then, the terminal device 300 at home transmits the operation information to the terminal device 300 of the medical institution. Then, the terminal device 300 of the medical institution receives operation information from the terminal device 300 at home. Then, in the terminal device 300 of the medical institution, a functional unit similar to the calculation unit 142 calculates an index value indicating the implementation status of the predetermined operation for each target person based on the operation information for each target person. Then, the terminal device 300 of the medical institution outputs the index value to the monitor.

また、上述した実施形態における医用情報処理装置100の構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、取得部141及び算出部142を統合することが可能である。   Further, the configuration of the medical information processing apparatus 100 in the above-described embodiment is merely an example, and the integration and separation of each unit can be performed as appropriate. For example, the acquisition unit 141 and the calculation unit 142 can be integrated.

また、上述した実施形態において説明した取得部141、算出部142、決定部143及び出力制御部144の機能は、ソフトウェアによって実現することもできる。例えば、取得部141、算出部142、決定部143及び出力制御部144の機能は、上記の実施形態において取得部141、算出部142、決定部143及び出力制御部144が行うものとして説明した処理の手順を規定した医用情報処理プログラムをコンピュータに実行させることで、実現される。この医用情報処理プログラムは、例えば、ハードディスクや半導体メモリ素子等に記憶され、CPUやMPU等のプロセッサによって読み出されて実行される。また、この医用情報処理プログラムは、CD−ROM(Compact Disc − Read Only Memory)やMO(Magnetic Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読取り可能な記録媒体に記録されて、配布され得る。   Further, the functions of the acquisition unit 141, the calculation unit 142, the determination unit 143, and the output control unit 144 described in the above-described embodiments can be realized by software. For example, the functions of the acquisition unit 141, the calculation unit 142, the determination unit 143, and the output control unit 144 are the processing described as being performed by the acquisition unit 141, the calculation unit 142, the determination unit 143, and the output control unit 144 in the above embodiment. This is realized by causing a computer to execute a medical information processing program that defines the above procedure. The medical information processing program is stored in, for example, a hard disk or a semiconductor memory device, and is read and executed by a processor such as a CPU or MPU. The medical information processing program is recorded on a computer-readable recording medium such as a CD-ROM (Compact Disc-Read Only Memory), an MO (Magnetic Optical disk), a DVD (Digital Versatile Disc), and distributed. obtain.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

以上説明した少なくともひとつの実施形態によれば、本実施形態の医用情報処理装置及びプログラムは、複数の対象者をそれぞれ指導する指導者によって行われる指導の質を高めることができる。   According to at least one embodiment described above, the medical information processing apparatus and the program according to the present embodiment can improve the quality of instruction performed by an instructor who instructs each of a plurality of subjects.

100 医用情報処理装置
141 取得部
142 算出部
143 決定部
144 出力制御部
DESCRIPTION OF SYMBOLS 100 Medical information processing apparatus 141 Acquisition part 142 Calculation part 143 Determination part 144 Output control part

Claims (13)

それぞれ所定動作を行う複数の対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに取得する取得部と、
前記対象者ごとの前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する算出部と、
前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を出力する出力制御部と
を備えたことを特徴とする医用情報処理装置。
For a plurality of subjects who each perform a predetermined motion, an acquisition unit that obtains, for each subject, motion information representing coordinate changes of each part of the subject,
Based on the operation information for each target person, a calculation unit that calculates an index value indicating the implementation status of the predetermined action for each target person;
Based on the index value for each target person, a priority for teaching that indicates which target person is to be prioritized is determined for each target person, and based on the determined teaching priority, A medical information processing apparatus comprising: an output control unit that outputs support information for supporting a leader who guides the subject .
前記算出部は、前記指標値として、前記対象者の前記所定動作に関する習熟の度合いを表す習熟度、前記対象者の前記所定動作における危険の度合いを表す危険度、及び、前記対象者が前記所定動作を怠けている度合いを表す怠慢度のうち少なくとも一つを算出することを特徴とする請求項1に記載の医用情報処理装置。 The calculation unit includes, as the index value, a proficiency level indicating a level of proficiency related to the predetermined motion of the target person, a risk level indicating a degree of danger in the predetermined motion of the target person, and the target person specifying the predetermined value The medical information processing apparatus according to claim 1, wherein at least one of the negligence levels indicating the degree of neglecting the operation is calculated. 記算出部は、更に、指導者から対象者への関与の度合いを表す関与度を前記対象者ごとに算出し、
前記出力制御部は、更に、前記関与度に基づいて、前記指導優先度を前記対象者ごとに決定することを特徴とする請求項1又は2に記載の医用情報処理装置。
Before SL calculating section further calculates a degree of involvement representing the degree of involvement in the subject from the leaders for each of the subject,
The output control unit further on the basis of the relevance, medical information processing apparatus according to the guidance priority to claim 1 or 2, wherein the determining for each of the subject.
前記算出部は、前記対象者の個人情報を更に用いて、前記指標値を前記対象者ごとに算出することを特徴とする請求項1〜のいずれか一つに記載の医用情報処理装置。 The calculating unit is further using private information of the subject, a medical information processing apparatus according to the index value in any one of claims 1-3, characterized in that calculating for each of the subject. 記出力制御部は、前記複数の対象者を指導する指導者を支援するための支援情報を、前記指導優先度が最も高い対象者に関する情報を強調表示した上で出力することを特徴とする請求項1〜のいずれか一つに記載の医用情報処理装置。 Before SL output control unit, the support information for supporting a leader to guide the plurality of subjects, and outputs in terms of the teaching priority is to highlight the information about the highest subjects The medical information processing apparatus according to any one of claims 1 to 4 . 前記出力制御部は、前記複数の対象者を指導する指導者を支援するための支援情報として、前記対象者の前記指標値に注目すべき変化が発生した時間の画像である注目画像を出力することを特徴とする請求項1〜のいずれか一つに記載の医用情報処理装置。 The output control unit outputs an attention image, which is an image at a time when a change that should be noted in the index value of the subject occurs, as support information for assisting a leader who guides the plurality of subjects. medical image processing apparatus according to any one of claims 1-5, characterized in that. 前記出力制御部は、前記支援情報として、前記注目画像を含む指導レポートを出力することを特徴とする請求項に記載の医用情報処理装置。 The medical information processing apparatus according to claim 6 , wherein the output control unit outputs a guidance report including the attention image as the support information. 前記算出部は、前記対象者の生体情報を更に用いて、前記危険度を算出することを特徴とする請求項に記載の医用情報処理装置。 The medical information processing apparatus according to claim 2 , wherein the calculation unit calculates the degree of risk by further using biological information of the subject. 前記複数の対象者を指導する指導者が複数人存在する場合に、複数の前記指導者から、前記対象者に関与する指導者を判定する判定部を更に備え、
前記算出部は、前記指導者と前記対象者との組ごとに、前記関与度を算出することを特徴とする請求項に記載の医用情報処理装置。
When there are a plurality of leaders who guide the plurality of subjects, the plurality of leaders further comprises a determination unit that determines leaders involved in the subject,
The medical information processing apparatus according to claim 3 , wherein the calculation unit calculates the degree of participation for each pair of the leader and the target person.
それぞれ所定動作を行う複数の対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに取得する取得手順と、
前記対象者ごとの前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する算出手順と、
前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を出力する出力制御手順と
をコンピュータに実行させることを特徴とする医用情報処理プログラム。
For a plurality of subjects who each perform a predetermined motion, an acquisition procedure for obtaining, for each subject, motion information representing coordinate changes of each part of the subject,
A calculation procedure for calculating an index value indicating an implementation status of the predetermined action for each target person based on the action information for each target person;
Based on the index value for each target person, a priority for teaching that indicates which target person is to be prioritized is determined for each target person, and based on the determined teaching priority, A medical information processing program for causing a computer to execute an output control procedure for outputting support information for supporting a leader who guides a subject .
ネットワークを介して互いに接続された対象者用端末と、指導者用端末とを含む医用情報処理システムであって、
前記対象者用端末は、
所定動作を行う対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに収集する収集部と、
前記対象者ごとの前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する算出部と、
前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を前記指導者用端末に送信する送信部と
を備え、
前記指導者用端末は、
前記対象者用端末から前記支援情報を受信する受信部と、
前記支援情報を出力する出力部と
を備えたことを特徴とする医用情報処理システム。
A medical information processing system including a terminal for a subject connected to each other via a network and a terminal for a leader,
The target terminal is
For a subject who performs a predetermined motion, a collection unit that collects motion information representing coordinate changes of each part of the subject for each subject,
Based on the operation information for each target person, a calculation unit that calculates an index value indicating the implementation status of the predetermined action for each target person;
Based on the index value for each target person, a priority for teaching that indicates which target person is to be prioritized is determined for each target person, and based on the determined teaching priority, A transmission unit for transmitting support information for supporting a leader who guides the subject to the terminal for the leader,
The instructor terminal is
A receiving unit for receiving the support information from the target user terminal;
A medical information processing system comprising: an output unit that outputs the support information .
ネットワークを介して互いに接続された対象者用端末と、指導者用端末とを含む医用情報処理システムであって、
前記対象者用端末は、
所定動作を行う対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに収集する収集部と、
前記動作情報を前記指導者用端末に送信する送信部と
を備え、
前記指導者用端末は、
前記対象者用端末から前記動作情報を受信する受信部と、
前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する算出部と、
前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を出力する出力部と
を備えたことを特徴とする医用情報処理システム。
A medical information processing system including a terminal for a subject connected to each other via a network and a terminal for a leader,
The target terminal is
For a subject who performs a predetermined motion, a collection unit that collects motion information representing coordinate changes of each part of the subject for each subject,
A transmitter that transmits the operation information to the instructor terminal;
The instructor terminal is
A receiving unit for receiving the operation information from the target user terminal;
A calculation unit that calculates, for each target person, an index value indicating an implementation status of the predetermined operation based on the operation information;
Based on the index value for each target person, a priority for teaching that indicates which target person is to be prioritized is determined for each target person, and based on the determined teaching priority, A medical information processing system comprising: an output unit that outputs support information for supporting a leader who guides the subject .
ネットワークを介して互いに接続された対象者用端末と、指導者用端末と、サービス提供装置とを含む医用情報処理システムであって、
前記対象者用端末は、
所定動作を行う対象者について、当該対象者の各部の座標変化を表す動作情報を当該対象者ごとに収集する収集部と、
前記動作情報を前記サービス提供装置に送信する送信部と
を備え、
前記サービス提供装置は、
前記対象者用端末から前記動作情報を受信する受信部と、
前記動作情報に基づいて、前記所定動作の実施状況を示す指標値を、当該対象者ごとに算出する算出部と、
前記対象者ごとの前記指標値に基づいて、いずれの対象者から優先して指導するかを表す指導優先度を前記対象者ごとに決定し、決定した前記指導優先度に基づいて、前記複数の対象者を指導する指導者を支援するための支援情報を前記指導者用端末に送信する送信部と
を備え、
前記指導者用端末は、
前記サービス提供装置から前記支援情報を受信する受信部と、
前記支援情報を出力する出力部と
を備えたことを特徴とする医用情報処理システム。
A medical information processing system including a target person terminal, a leader terminal, and a service providing apparatus connected to each other via a network,
The target terminal is
For a subject who performs a predetermined motion, a collection unit that collects motion information representing coordinate changes of each part of the subject for each subject,
A transmission unit for transmitting the operation information to the service providing device,
The service providing apparatus includes:
A receiving unit for receiving the operation information from the target user terminal;
A calculation unit that calculates, for each target person, an index value indicating an implementation status of the predetermined operation based on the operation information;
Based on the index value for each target person, a priority for teaching that indicates which target person is to be prioritized is determined for each target person, and based on the determined teaching priority, A transmission unit for transmitting support information for supporting a leader who guides the subject to the terminal for the leader,
The instructor terminal is
A receiving unit for receiving the support information from the service providing device;
A medical information processing system comprising: an output unit that outputs the support information .
JP2013166702A 2013-08-09 2013-08-09 Medical information processing apparatus, program and system Active JP6320702B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013166702A JP6320702B2 (en) 2013-08-09 2013-08-09 Medical information processing apparatus, program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013166702A JP6320702B2 (en) 2013-08-09 2013-08-09 Medical information processing apparatus, program and system

Publications (2)

Publication Number Publication Date
JP2015035171A JP2015035171A (en) 2015-02-19
JP6320702B2 true JP6320702B2 (en) 2018-05-09

Family

ID=52543628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013166702A Active JP6320702B2 (en) 2013-08-09 2013-08-09 Medical information processing apparatus, program and system

Country Status (1)

Country Link
JP (1) JP6320702B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086823A (en) * 2018-11-22 2020-06-04 株式会社富士通アドバンストエンジニアリング Motion evaluation device, method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063579A (en) * 2000-08-17 2002-02-28 Hitachi Plant Eng & Constr Co Ltd Device and method for analyzing image
JP2003334269A (en) * 2002-05-21 2003-11-25 Suzuken Co Ltd Exercising guidance support system
JP3845380B2 (en) * 2003-01-27 2006-11-15 エヌイーシーコンピュータテクノ株式会社 Nursing support system, nursing support method, and nursing support program
JP2005046535A (en) * 2003-07-31 2005-02-24 Hitachi Kiden Kogyo Ltd Center-of-gravity rocking measuring instrument
JP2005185557A (en) * 2003-12-25 2005-07-14 Yunimekku:Kk Athletic ability evaluation system
JP4494843B2 (en) * 2004-03-31 2010-06-30 パナソニック株式会社 Pet management system
JP4957403B2 (en) * 2006-07-05 2012-06-20 株式会社日立製作所 Health guidance support system
JP2009542397A (en) * 2006-07-12 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Health management device
JP2008250664A (en) * 2007-03-30 2008-10-16 Advanced Telecommunication Research Institute International System for managing nursing necessity degree

Also Published As

Publication number Publication date
JP2015035171A (en) 2015-02-19

Similar Documents

Publication Publication Date Title
JP6675462B2 (en) Motion information processing device
US9700242B2 (en) Motion information processing apparatus and method
JP6351978B2 (en) Motion information processing apparatus and program
JP6359343B2 (en) Motion information processing apparatus and method
JP6181373B2 (en) Medical information processing apparatus and program
US9761011B2 (en) Motion information processing apparatus obtaining motion information of a subject performing a motion
JP6381918B2 (en) Motion information processing device
US10973439B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US10170155B2 (en) Motion information display apparatus and method
TW201909058A (en) Activity support method, program, activity support system
JP6598422B2 (en) Medical information processing apparatus, system, and program
JP6056107B2 (en) Exercise assistance device, exercise assistance method, program
JP6310255B2 (en) Method and apparatus for presenting options
JP6320702B2 (en) Medical information processing apparatus, program and system
JP6127302B2 (en) Exercise assistance device, exercise assistance method, program
WO2014104357A1 (en) Motion information processing system, motion information processing device and medical image diagnosis device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160615

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180404

R150 Certificate of patent or registration of utility model

Ref document number: 6320702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150