JP2023094218A - Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium - Google Patents

Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium Download PDF

Info

Publication number
JP2023094218A
JP2023094218A JP2021209569A JP2021209569A JP2023094218A JP 2023094218 A JP2023094218 A JP 2023094218A JP 2021209569 A JP2021209569 A JP 2021209569A JP 2021209569 A JP2021209569 A JP 2021209569A JP 2023094218 A JP2023094218 A JP 2023094218A
Authority
JP
Japan
Prior art keywords
mastication
subject
mouth
information
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021209569A
Other languages
Japanese (ja)
Inventor
眞由 林
Mayu Hayashi
健 金田
Takeshi Kaneda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sunstar Inc
Original Assignee
Sunstar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sunstar Inc filed Critical Sunstar Inc
Priority to JP2021209569A priority Critical patent/JP2023094218A/en
Publication of JP2023094218A publication Critical patent/JP2023094218A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide a technique that can enhance an effect of mastication training.SOLUTION: An information processing device (1) comprises: an evaluation unit (102) which, on the basis of images obtained by imaging the appearance of the mastication of an object person in time series, evaluates the magnitudes of the vertical and horizontal motions of the mouth while the object person is masticating; and an output control unit (105) which causes an output device (16) to output feedback information according to a result of the evaluation.SELECTED DRAWING: Figure 1

Description

本発明は咀嚼のトレーニングに利用可能な情報処理装置等に関する。 The present invention relates to an information processing apparatus and the like that can be used for mastication training.

従来から、人がものを食べるという行為を解析して有用な知見を得る試みがなされている。例えば、下記の特許文献1には、被験者が試料を咀嚼する際の筋電位を測定し、測定した筋電位を解析することにより、試料の食感を定量的に推定する技術が開示されている。 Conventionally, attempts have been made to obtain useful knowledge by analyzing the behavior of people eating. For example, Patent Document 1 below discloses a technique for quantitatively estimating the texture of a sample by measuring myoelectric potentials when a subject chews a sample and analyzing the measured myoelectric potentials. .

特開2016-52516号公報JP 2016-52516 A

咀嚼力は、加齢や、咀嚼に関する部位の機能不全等の様々な要因に伴って衰える場合がある。また、適切な咀嚼の仕方を教えられる機会がないこと等から、正しい咀嚼ができない者も多い。このような観点から、正しい仕方で咀嚼できるようになり、また、咀嚼力を鍛えることができるような咀嚼トレーニングが望まれる。そして、咀嚼トレーニングを行う際には、その効果ができるだけ高まるような技術があれば望ましい。 The masticatory power may decline due to various factors such as aging and malfunction of sites related to mastication. In addition, there are many people who cannot masticate properly because there is no opportunity to be taught how to masticate properly. From such a point of view, mastication training is desired that enables mastication in a correct manner and training of masticatory power. It is desirable to have a technique that maximizes the effect of mastication training.

しかしながら、咀嚼トレーニングの効果を高めるような技術は従来存在しなかった。例えば、特許文献1の技術によれば、試料の食感を定量することができるため、咀嚼トレーニングに用いる食品を選ぶ際に当該技術を利用できるものの、当該技術では咀嚼トレーニングの効果を高めること、または咀嚼トレーニング効果を評価してユーザに認識させることはできない。 However, there has been no technology that enhances the effects of mastication training. For example, according to the technique of Patent Document 1, since the texture of a sample can be quantified, the technique can be used when selecting foods to be used in mastication training. Alternatively, it is not possible to evaluate the mastication training effect and make the user recognize it.

本発明の一態様は、上述の問題に鑑みてなされたものであり、その目的の一例は、単に咀嚼を行うだけの咀嚼トレーニングと比べて、そのトレーニング効果を高めること、または当該トレーニング効果を評価してユーザに認識させることができる技術を提供することである。 One aspect of the present invention has been made in view of the above-described problems, and an example of the purpose thereof is to enhance the training effect or evaluate the training effect as compared with mastication training in which only mastication is performed. It is to provide a technique that can be recognized by the user by doing so.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、対象者の咀嚼の様子を時系列で撮影した画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価部と、前記評価の結果に応じたフィードバック情報を出力装置に出力させる出力制御部と、を備える。 In order to solve the above-described problems, an information processing apparatus according to an aspect of the present invention provides a vertical direction and a horizontal direction of the mouth of a subject during mastication based on images of the subject's mastication taken in time series. An evaluation unit that evaluates the magnitude of directional movement, and an output control unit that causes an output device to output feedback information according to the result of the evaluation.

上記の課題を解決するために、本発明の一態様に係る咀嚼トレーニングシステムは、対象者の咀嚼の様子を時系列で撮影する撮影装置と、前記撮影装置が撮影する時系列の画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する情報処理装置と、前記評価の結果に応じたフィードバック情報を出力する出力装置と、を含む。 In order to solve the above problems, a mastication training system according to an aspect of the present invention includes a photographing device for photographing a state of mastication of a subject in time series, and based on the time-series images photographed by the photographing device, An information processing device for evaluating vertical and horizontal movements of the mouth of the subject during mastication, and an output device for outputting feedback information according to the evaluation result.

上記の課題を解決するために、本発明の一態様に係る咀嚼評価方法は、1または複数の情報処理装置が実行する咀嚼評価方法であって、対象者の咀嚼の様子を時系列で撮影した画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価ステップと、前記評価の結果に応じたフィードバック情報を出力装置に出力させる出力制御ステップと、を含む。 In order to solve the above problems, a mastication evaluation method according to an aspect of the present invention is a mastication evaluation method executed by one or more information processing apparatuses, in which a state of mastication of a subject is photographed in chronological order. an evaluation step of evaluating the magnitude of vertical and horizontal movements of the mouth during mastication of the subject based on the image; an output control step of causing an output device to output feedback information according to the evaluation result; including.

本発明の各態様に係る情報処理装置およびシステムは、コンピュータによって実現してもよく、この場合には、コンピュータを情報処理装置またはシステムが備える各部(ソフトウェア要素)として動作させることにより情報処理装置またはシステムをコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device and system according to each aspect of the present invention may be realized by a computer. A program for implementing the system on a computer and a computer-readable recording medium recording the program are also included in the scope of the present invention.

本発明の一態様によれば、咀嚼のトレーニング効果を高めることができる。 According to one aspect of the present invention, the effect of mastication training can be enhanced.

本発明の実施形態1に係る情報処理装置の要部構成の一例を示すブロック図である。1 is a block diagram showing an example of a main configuration of an information processing apparatus according to Embodiment 1 of the present invention; FIG. 上記情報処理装置の概要を示す図である。It is a figure which shows the outline|summary of the said information processing apparatus. 上記情報処理装置の評価部が実行する処理の一例を説明する図である。It is a figure explaining an example of the process which the evaluation part of the said information processing apparatus performs. フィードバック情報の提示例を示す図である。FIG. 10 is a diagram showing an example of presentation of feedback information; フィードバック情報の他の提示例を示す図である。FIG. 10 is a diagram showing another presentation example of feedback information; 上記情報処理装置が実行する処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing which the above-mentioned information processor performs. 本発明の実施形態2に係る咀嚼トレーニングシステムの構成例を示す図である。FIG. 10 is a diagram showing a configuration example of a mastication training system according to Embodiment 2 of the present invention; 上記咀嚼トレーニングシステムに含まれる各装置の要部構成の一例を示すブロック図である。Fig. 2 is a block diagram showing an example of the main configuration of each device included in the mastication training system; フィードバック情報の提示例を示す図である。FIG. 10 is a diagram showing an example of presentation of feedback information; フィードバック情報の他の提示例を示す図である。FIG. 10 is a diagram showing another presentation example of feedback information;

〔実施形態1〕
(概要)
本発明の一実施形態にかかる情報処理装置1の概要を図2に基づいて説明する。図2は、情報処理装置1の概要を示す図である。情報処理装置1は、対象者の咀嚼トレーニングの効果を高めることが可能な装置である。図2には情報処理装置1がスマートフォンである例を示しているが、任意の情報処理装置すなわちコンピュータを情報処理装置1として機能させることが可能である。
[Embodiment 1]
(overview)
An outline of an information processing apparatus 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 2 is a diagram showing an overview of the information processing device 1. As shown in FIG. The information processing device 1 is a device capable of enhancing the effects of mastication training for a subject. Although FIG. 2 shows an example in which the information processing device 1 is a smart phone, any information processing device, that is, a computer can be made to function as the information processing device 1 .

ここで、咀嚼トレーニングとは、咀嚼能力を維持すること、咀嚼能力を向上すること、および、咀嚼能力の低下の速度または程度を緩和すること、の少なくともいずれかを支援するための行動を指す。咀嚼能力とは、特定の食品(咀嚼を評価するための食品は年齢や体の状態によって様々)に対して、捕食・かみ砕き・混和・嚥下を行う能力を指す。これらの4つの動作のいずれかの能力が低下すると、食品の摂取に支障をきたす。そのため、咀嚼能力は、人間が食品を摂取する上で重要な能力であり、咀嚼トレーニングの効果を高めることまたはトレーニング効果を評価して認識することの技術的意義は大きい。 Here, mastication training refers to behavior for assisting at least one of maintaining masticatory ability, improving masticatory ability, and mitigating the rate or degree of decline in masticatory ability. Masticatory ability refers to the ability to eat, chew, mix, and swallow specific foods (foods for evaluating mastication vary depending on age and body condition). When the ability of any one of these four movements is reduced, it interferes with food intake. Therefore, the masticatory ability is an important ability for humans to ingest food, and it is of great technical significance to enhance the effect of masticatory training or to evaluate and recognize the training effect.

咀嚼トレーニングを行う対象者は、任意の咀嚼対象物を口に含み、これを咀嚼する。咀嚼対象物は、咀嚼トレーニング用の食品(例えば、グミ、ゼリー、ガム等)であってもよいし、一般的な食品であってもよい。そして、対象者は、自身の咀嚼の様子を情報処理装置1で撮影する。無論、他の者に撮影してもらってもよい。 A subject for mastication training holds an arbitrary mastication object in his mouth and masticates it. The object to be masticated may be food for mastication training (eg gummy, jelly, gum, etc.) or general food. Then, the subject takes an image of his/her mastication state with the information processing device 1 . Of course, you may ask someone else to take the picture.

情報処理装置1は、撮影により得られた時系列の画像に基づいて対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価し、その評価の結果に応じたフィードバック情報を出力する。これにより、咀嚼時に口を縦方向のみではなく横方向にも動かすことを対象者に意識させ、正しい口の動かし方を習得させることが可能になる。このように、情報処理装置1によれば、単に咀嚼を行うだけの咀嚼トレーニングと比べて、より効果の高い咀嚼トレーニングを行わせることが可能になる。 The information processing device 1 evaluates the vertical and horizontal movements of the mouth of the subject during mastication based on time-series images obtained by photography, and provides feedback information according to the evaluation results. Output. This makes it possible for the subject to be conscious of moving the mouth not only in the vertical direction but also in the horizontal direction during mastication, and to learn the correct way to move the mouth. In this way, according to the information processing apparatus 1, it is possible to perform mastication training that is more effective than mastication training in which only mastication is performed.

上述の評価を行うために、情報処理装置1は、撮影により得られた時系列の画像に基づいて対象者の咀嚼時における口の動きの大きさを検出する。情報処理装置1は、口の縦方向および横方向の大きさを距離としてそれぞれ検出してもよいし、口の動きの大きさを面積として検出してもよい。具体的には、距離は、口またはその周囲の特徴点の縦方向よび横方向の移動距離であってもよい。面積は、口またはその周囲の特徴点が描く軌跡で囲まれる領域の面積であってもよい。 In order to perform the above evaluation, the information processing apparatus 1 detects the magnitude of movement of the mouth of the subject during mastication based on time-series images obtained by photography. The information processing device 1 may detect the vertical and horizontal sizes of the mouth as distances, or may detect the size of the movement of the mouth as an area. Specifically, the distance may be the vertical and horizontal movement distance of the mouth or its surrounding feature points. The area may be the area of the region surrounded by the trajectory drawn by the mouth or its surrounding feature points.

また、奥行方向の口の動きを捉えることが可能な3次元カメラ等の撮影装置3によって撮影された画像を用いることも考えられる。この場合、情報処理装置1は、口の縦方向、横方向、および、奥行方向の大きさを距離としてそれぞれ検出してもよいし、口の動きの大きさを体積として検出してもよい。具体的には、体積は、口またはその周囲の特徴点が描く軌跡で囲まれる空間の体積であってもよい。 It is also conceivable to use an image captured by an imaging device 3 such as a three-dimensional camera capable of capturing movement of the mouth in the depth direction. In this case, the information processing apparatus 1 may detect the size of the mouth in the vertical, horizontal, and depth directions as distances, or may detect the size of the movement of the mouth as the volume. Specifically, the volume may be the volume of the space surrounded by the trajectory drawn by the mouth or its surrounding feature points.

例えば、図2に示す情報処理装置1の表示部16には、フィードバック情報(以下では適宜、FB(Feed Back)情報と記載する)として、咀嚼中の対象者の画像161と、対象者に対するアドバイスのメッセージ162が表示されている。 For example, the display unit 16 of the information processing apparatus 1 shown in FIG. 2 displays an image 161 of the subject who is chewing and advice to the subject as feedback information (hereinafter referred to as FB (Feed Back) information). message 162 is displayed.

画像161を表示させることにより、対象者は、咀嚼中の自身の口周りの動きを見ながら、口周りの動作をコントロールすることができる。本願の発明者らによる実験では、このような視覚的フィードバックにより、柔らかめの食品でも筋活動の増大がみられ、また、咀嚼時の口周りの動作が大きくなることが見出された。このため、画像161をFB情報に含めることは咀嚼トレーニングの効果を高める上で有効である。 By displaying the image 161, the subject can control the movement around the mouth while watching the movement around the mouth during mastication. In experiments by the inventors of the present application, it was found that such visual feedback increases muscle activity even with soft foods and increases movement around the mouth during mastication. Therefore, including the image 161 in the FB information is effective in enhancing the effect of mastication training.

また、メッセージ162は、対象者に、顎先で大きく円を描くようにイメージして咀嚼することを促すものである。このようなメッセージは、対象者の咀嚼時における口の動きの大きさについての評価の結果が、口の動きが小さいこと、特に横方向の動きが小さいことを示している場合に表示される。メッセージ162は、対象者の咀嚼態様を理想に近付ける助けとなるため、咀嚼トレーニングの効果を高める上で有効である。 Also, the message 162 prompts the subject to chew by imagining drawing a large circle with the tip of the chin. Such a message is displayed when the result of the evaluation of the degree of mouth movement during chewing of the subject indicates that the mouth movement is small, especially in the lateral direction. The message 162 is effective in increasing the effect of mastication training because it helps the subject to have an ideal mastication mode.

なお、図2に示すFB情報は一例に過ぎず、咀嚼トレーニングの効果や効率を高め得るものであればその内容は任意である。また、対象者へのフィードバックは視覚的なものに限られず、音や振動等によってフィードバックを行ってもよく、それらの組み合わせによってフィードバックしてもよい。また、情報処理装置1の外部の表示装置にFB情報を表示させる等、他の装置を介してフィードバックを行ってもよい。 Note that the FB information shown in FIG. 2 is merely an example, and any content can be used as long as it can enhance the effect and efficiency of mastication training. Moreover, the feedback to the subject is not limited to visual feedback, and feedback may be performed by sound, vibration, or the like, or by a combination thereof. Moreover, feedback may be performed via another device such as displaying the FB information on a display device external to the information processing device 1 .

(情報処理装置1の構成)
情報処理装置1のより詳細な構成について図1に基づいて説明する。図1は、情報処理装置1の要部構成の一例を示す図である。図示のように、情報処理装置1は、情報処理装置1の各部を統括して制御する制御部10と、情報処理装置1が使用する各種データを記憶する記憶部11を備えている。また、情報処理装置1は、画像を撮影する撮影装置である撮影部12、情報処理装置1が他の装置と通信するための通信部13、音を出力する出力装置である音出力部14を備えている。さらに、情報処理装置1は、情報処理装置1に対する各種データの入力を受け付ける入力部15、および各種情報を表示出力する表示装置である表示部16を備えている。なお、入力部15と表示部16の機能はタッチパネルにより実現することもできる。
(Configuration of information processing device 1)
A more detailed configuration of the information processing apparatus 1 will be described with reference to FIG. FIG. 1 is a diagram showing an example of the main configuration of an information processing apparatus 1. As shown in FIG. As shown in the figure, the information processing apparatus 1 includes a control section 10 that centrally controls each section of the information processing apparatus 1 and a storage section 11 that stores various data used by the information processing apparatus 1 . The information processing device 1 also includes a photographing unit 12 which is a photographing device for photographing an image, a communication unit 13 for communication between the information processing device 1 and other devices, and a sound output unit 14 which is an output device for outputting sound. I have it. Further, the information processing device 1 includes an input unit 15 that receives input of various data to the information processing device 1, and a display unit 16 that is a display device that displays and outputs various information. The functions of the input unit 15 and the display unit 16 can also be realized by a touch panel.

また、制御部10には、画像取得部101、評価部102、報知部103、手本生成部104、および出力制御部105が含まれている。また、評価部102には、特徴点検出部1021、動き解析部1022、および比較部1023が含まれる。これらの処理部は、例えば情報処理装置1をこれらの処理部として機能させるための咀嚼トレーニングプログラムを情報処理装置1にインストールすることにより実現することもできる。また、記憶部11には、画像111と評価結果112が記憶されている。後述するように、画像111および評価結果112は、FB情報の1つとして、情報処理装置1のユーザ、例えば、対象者自身、当該対象者の監督者、および、当該対象者をケアする医療従事者等(以下では、単に「対象者等」と記載する)に提示されてもよい。 The control unit 10 also includes an image acquisition unit 101 , an evaluation unit 102 , a notification unit 103 , a model generation unit 104 and an output control unit 105 . The evaluation unit 102 also includes a feature point detection unit 1021 , a motion analysis unit 1022 and a comparison unit 1023 . These processing units can also be realized by installing, in the information processing apparatus 1, a mastication training program for causing the information processing apparatus 1 to function as these processing units, for example. The storage unit 11 also stores an image 111 and an evaluation result 112 . As will be described later, the image 111 and the evaluation result 112 are used as one piece of FB information by users of the information processing apparatus 1, such as the subject himself/herself, the subject's supervisor, and medical staff who care for the subject. (below, simply referred to as “subjects, etc.”).

画像取得部101は、対象者の咀嚼の様子を時系列で撮影した画像を取得する。本実施形態では、画像取得部101が、撮影部12が撮影した画像を取得する例を説明するが、画像取得部101は、他の装置が撮影した画像を通信部13または入力部15を介して取得してもよい。あるいは、画像取得部101は、情報処理装置1において着脱可能な外付けメモリ等に記憶されている画像を、不図示の端子を介して取得してもよい。また、画像取得部101は、取得した画像を画像111として記憶部11に記憶させる。画像111は、動画像であってもよいし、連続して撮影された時系列の静止画像であってもよい。また、画像取得部101は、動画像を取得し、その動画像から抽出したフレーム画像を画像111として記憶させてもよい。 The image acquisition unit 101 acquires images of the subject's mastication in time series. In this embodiment, an example in which the image acquisition unit 101 acquires an image captured by the imaging unit 12 will be described. may be obtained by Alternatively, the image acquisition unit 101 may acquire an image stored in a detachable external memory or the like in the information processing apparatus 1 via a terminal (not shown). Further, the image acquisition unit 101 stores the acquired image as the image 111 in the storage unit 11 . The image 111 may be a moving image, or may be a time-series still image captured continuously. Further, the image acquiring unit 101 may acquire a moving image and store frame images extracted from the moving image as the image 111 .

評価部102は、対象者の咀嚼の様子を時系列で撮影した画像111に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する。評価部102の機能は、特徴点検出部1021、動き解析部1022、および比較部1023により実現される。 The evaluation unit 102 evaluates the vertical and horizontal movements of the mouth during mastication of the subject based on the images 111 obtained by photographing the state of mastication of the subject in time series. The function of the evaluation unit 102 is implemented by a feature point detection unit 1021 , a motion analysis unit 1022 and a comparison unit 1023 .

特徴点検出部1021は、画像111から対象者の顔における所定の特徴点を検出し、その位置情報を評価結果112として記憶部11に記憶させる。また、動き解析部1022は、時系列の上記位置情報を用いて咀嚼時の口の動きを解析し、その動きを示す指標値を算出する。そして、比較部1023は、動き解析部1022が算出する指標値を、所定の閾値と比較し、その結果を評価結果112に記録する。なお、これらの処理の詳細については、図3に基づいて後述する。 The feature point detection unit 1021 detects a predetermined feature point on the subject's face from the image 111 and stores the position information as the evaluation result 112 in the storage unit 11 . Further, the motion analysis unit 1022 analyzes the motion of the mouth during mastication using the time-series position information, and calculates an index value indicating the motion. The comparison unit 1023 then compares the index value calculated by the motion analysis unit 1022 with a predetermined threshold value and records the result in the evaluation result 112 . Details of these processes will be described later with reference to FIG.

報知部103は、咀嚼を行うべきタイミング、言い換えれば咀嚼対象物を噛むタイミングを咀嚼トレーニングの対象者に報知する。具体的には、報知部103は、咀嚼を行うべきタイミングを示す音を音出力部14に出力させる。例えば、報知部103は、咀嚼を行うべきタイミングを示すリズム音を出力させてもよい。また、報知部103は、音楽(メロディ)にあわせて咀嚼を行うべきタイミングを示す音を出力させてもよい。 The notification unit 103 notifies the subject of mastication training of the timing to masticate, in other words, the timing to chew the object to be masticated. Specifically, the notification unit 103 causes the sound output unit 14 to output a sound indicating the timing at which mastication should be performed. For example, the notification unit 103 may output a rhythm sound indicating the timing of mastication. In addition, the notification unit 103 may output a sound indicating the timing of mastication in accordance with music (melody).

また、報知部103は、咀嚼対象物の属性(例えば、種類、硬さ、量、大きさ等の咀嚼に関連する情報)と対象者の属性(例えば、年齢、性別、現在の歯の数等の咀嚼に関連する情報)の少なくとも何れかに応じて咀嚼を行うべきタイミングを決定してもよい。このように、対象者および当該対象者が咀嚼する咀嚼対象物の少なくとも何れかに応じた咀嚼のタイミングを対象者に報知することにより、対象者および咀嚼対象物の少なくとも何れかを反映させた適切なタイミングでの咀嚼を対象者に促すことができる。なお、咀嚼対象物および対象者の属性は、対象者等が入力するようにしてもよいし、咀嚼対象物および対象者の画像を解析することにより報知部103が特定してもよい。 In addition, the notification unit 103 may transmit the attributes of the object to be masticated (for example, information related to mastication such as type, hardness, amount, and size) and the attributes of the subject (for example, age, sex, current number of teeth, etc.). information related to mastication). In this way, by notifying the subject of the timing of mastication according to at least one of the subject and the object to be masticated by the subject, the appropriate timing reflecting at least one of the subject and the object to be masticated can be obtained. The subject can be urged to masticate at appropriate timing. The attributes of the object to be masticated and the subject may be input by the subject or the like, or may be specified by the reporting unit 103 by analyzing the images of the object to be masticated and the subject.

手本生成部104は、対象者の咀嚼の手本となる手本情報を生成する。手本情報は、対象者の咀嚼態様を改善に導くための情報であり、例えば理想的な咀嚼態様を示す画像である。手本情報は、静止画像であってもよいが、動画像であることが好ましい。例えば、手本情報は、口またはその周囲の特徴点の位置を示す点が2次元平面上を移動するアニメーションであってもよい。手本生成部104は、上述したような咀嚼対象物や対象者の属性に応じた手本情報を生成し、出力制御部105を介して表示部16に表示させる。 The model generating unit 104 generates model information that serves as a model of mastication of the subject. The model information is information for improving the mastication mode of the subject, and is, for example, an image showing an ideal mastication mode. The model information may be a still image, but is preferably a moving image. For example, the model information may be an animation in which points indicating positions of feature points around the mouth move on a two-dimensional plane. The model generation unit 104 generates model information according to the attributes of the object to be masticated and the person to be masticated as described above, and causes the display unit 16 to display the model information via the output control unit 105 .

なお、手本生成部104を設ける代わりに、咀嚼対象物や対象者の属性に応じた複数パターンの手本情報を予め用意し、記憶部11等に記憶させておいてもよい。この場合、出力制御部105は、咀嚼対象物や対象者の属性に応じた手本情報を記憶部11等から読み出して表示させる。これにより、手本情報が、FB情報の1つとして対象者等に提示される。 Instead of providing the model generation unit 104, a plurality of patterns of model information corresponding to the mastication object or the subject's attributes may be prepared in advance and stored in the storage unit 11 or the like. In this case, the output control unit 105 reads the model information corresponding to the object to be masticated or the attribute of the subject from the storage unit 11 or the like and displays it. As a result, the model information is presented to the subject etc. as one of the FB information.

出力制御部105は、比較部1023による評価の結果に応じたFB情報を出力装置に出力させる。FB情報は、咀嚼トレーニングの効果や効率を高め得るものであればその内容は任意である。FB情報の詳細は後述する。 The output control unit 105 causes the output device to output FB information according to the evaluation result by the comparison unit 1023 . The content of the FB information is arbitrary as long as it can improve the effect and efficiency of mastication training. Details of the FB information will be described later.

FB情報を出力させる出力装置は、例えば表示部16であってもよいし、音出力部14であってもよく、それら両方であってもよく、また、情報処理装置1と有線または無線接続された外部の出力装置であってもよい。この他にも、例えば印字出力によりFB情報を出力する出力装置を適用することもできる。以下では、出力制御部105が表示部16に画像を表示させることによりFB(フィードバック)を行う例を説明するが、以下の説明における「表示部16」は任意の「出力装置」に読み替えることができ、「表示」は「出力」に読み替えることができる。 An output device that outputs FB information may be, for example, the display unit 16, the sound output unit 14, or both of them, and may be wired or wirelessly connected to the information processing device 1. It may also be an external output device. In addition to this, for example, an output device that outputs FB information by print output can also be applied. An example in which the output control unit 105 performs FB (feedback) by causing the display unit 16 to display an image will be described below. and "display" can be read as "output".

以上のように、情報処理装置1は、対象者の咀嚼の様子を時系列で撮影した画像111に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価部102と、その評価の結果に応じたFB情報を表示部16に表示させる出力制御部105と、を備える。よって、単に咀嚼を行うだけの咀嚼トレーニングと比べて、より効果の高い咀嚼トレーニングを行わせることが可能になる。 As described above, the information processing apparatus 1 evaluates the magnitude of vertical and horizontal movements of the mouth during mastication of the subject based on the images 111 of the subject's mastication taken in time series. 102, and an output control unit 105 that causes the display unit 16 to display FB information according to the evaluation result. Therefore, it is possible to perform more effective mastication training than mastication training in which only mastication is performed.

(特徴点の検出)
特徴点検出部1021による特徴点の検出方法について図3に基づいて説明する。図3は、検出する特徴点の例と、特徴点の検出結果に基づいて口の動きを評価する例とを示す図である。
(Detection of feature points)
A method of detecting feature points by the feature point detection unit 1021 will be described with reference to FIG. FIG. 3 is a diagram showing an example of feature points to be detected and an example of evaluation of mouth movements based on the detection result of the feature points.

図3の顔の模式図31は、検出する特徴点の例を示している。特徴点検出部1021が検出する特徴点は、咀嚼時の口の動きの解析に用いられるものであるから、咀嚼時にその咀嚼態様が反映された動きをする部位とすればよい。例えば、特徴点検出部1021は、模式図31における点314(上唇の頂点)、点315(下唇の頂点)、点316(顎の中心位置)または不図示の顎の先端等のような、顔の中心線L上の口の周囲の部位を特徴点として検出してもよい。中心線L上の部位を特徴点として検出することにより、咀嚼時における口の横方向の動きの大きさを特定しやすい。 A schematic diagram 31 of a face in FIG. 3 shows an example of feature points to be detected. Since the feature points detected by the feature point detection unit 1021 are used for analyzing the movement of the mouth during mastication, it may be a part that moves in a way that reflects the mode of mastication during mastication. For example, the feature point detection unit 1021 detects points such as points 314 (upper lip apex), 315 (lower lip apex), and 316 (chin center position) in the schematic diagram 31, or the tip of the chin (not shown). A region around the mouth on the center line L of the face may be detected as a feature point. By detecting portions on the center line L as feature points, it is easy to specify the magnitude of lateral movement of the mouth during mastication.

また、特徴点検出部1021は、模式図31における点317および点318(口角)を特徴点として検出してもよい。この場合、動き解析部1022は、点317(右側の口角)と点318(左側の口角)の中間点の動きを口の動きとみなして口の動きを解析すればよい。この他にも、例えば特徴点検出部1021は、咬筋付近の頬の領域を特徴点として検出してもよく、この場合、動き解析部1022は、当該領域の面積の変化から口の動きを解析すればよい。 Further, the feature point detection unit 1021 may detect points 317 and 318 (mouth corners) in the schematic diagram 31 as feature points. In this case, the movement analysis unit 1022 may analyze the movement of the mouth by regarding the movement of the midpoint between the point 317 (right corner of the mouth) and the point 318 (left corner of the mouth) as the movement of the mouth. In addition, for example, the feature point detection unit 1021 may detect a region of the cheek near the masseter muscle as a feature point. do it.

また、特徴点検出部1021は、咀嚼に起因した動きのない部位を検出してもよい。例えば、特徴点検出部1021は、点313(鼻頭)を検出してもよい。この場合、動き解析部1022は、点313(鼻頭)の位置を基準として、画像111に写る特徴点の位置を表すことができる。これにより、時系列の画像111間で対象者が写る位置がずれた場合でも、各特徴点の時系列の動きを正確に特定することができる。 Further, the feature point detection unit 1021 may detect a motionless part caused by mastication. For example, the feature point detection unit 1021 may detect the point 313 (muzzle). In this case, the motion analysis unit 1022 can represent the position of the feature point appearing in the image 111 with the position of the point 313 (muzzle) as a reference. This makes it possible to accurately identify the time-series movement of each feature point even when the position of the subject is shifted between the time-series images 111 .

さらに、特徴点検出部1021は、口の動きの大きさを評価する際の基準となる画像111上の距離を求めるために、咀嚼に起因した動きのない複数の部位を検出してもよい。例えば、特徴点検出部1021は、点311および点312(目頭)を検出してもよい。これにより、比較部1023は、点311(右側の目頭)と点312(左側の目頭)の間の距離を基準として、口の動きの大きさを評価することができる。特徴点検出部1021は、点311、点312、点313、点317および点318等を、顔の中心線Lを求めるために利用してもよい。 Furthermore, the feature point detection unit 1021 may detect a plurality of parts that do not move due to mastication in order to obtain a distance on the image 111 that serves as a reference for evaluating the magnitude of mouth movement. For example, the feature point detection unit 1021 may detect points 311 and 312 (inner corners of the eye). Accordingly, the comparison unit 1023 can evaluate the magnitude of the movement of the mouth based on the distance between the point 311 (right inner corner of the eye) and the point 312 (left inner corner of the eye). The feature point detection unit 1021 may use the points 311, 312, 313, 317, 318, etc. to obtain the center line L of the face.

このように、評価部102は、画像111から検出された、対象者の顔における咀嚼により位置が変化することがない所定の特徴点間の距離に基づいて対象者の咀嚼時における口の縦方向および横方向の動きの大きさを評価してもよい。これにより、画像111に対象者が大きく写る場合でも小さく写る場合でも、口の動きの大きさを的確に評価することができる。 In this way, the evaluation unit 102 calculates the longitudinal direction of the mouth during mastication of the subject based on the distance between predetermined feature points on the subject's face whose positions do not change due to mastication, which are detected from the image 111 . and the magnitude of lateral movement may be evaluated. As a result, the magnitude of the movement of the mouth can be accurately evaluated regardless of whether the subject appears large or small in the image 111 .

なお、口の動きの大きさを評価するための基準となる距離は対象者等に入力させてもよい。また、被写体までの距離が分かる場合(例えば距離情報を出力する3次元カメラで撮影した場合等)にはその距離に応じて口の動きの大きさを評価できるため基準の距離を算出するための部位検出は不要である。 Note that the subject or the like may input a distance that serves as a reference for evaluating the magnitude of the movement of the mouth. In addition, when the distance to the subject is known (for example, when shooting with a 3D camera that outputs distance information), the magnitude of mouth movement can be evaluated according to the distance, so it is possible to calculate the reference distance. No site detection is required.

上述のような特徴点の検出方法は特に限定されず、例えば、画像解析の手法を適用してもよいし、機械学習の手法を適用してもよく、それらを組み合わせて適用してもよい。また、複数の特徴点を検出する場合、検出対象の特徴点毎に特徴点検出部1021を設けてもよい。また、対象者の顔の検出対象部位に検出用のマーカや2次元コードや3次元コードを貼り付けて、画像中からそれらを検出してもよい。 A method for detecting feature points as described above is not particularly limited, and for example, an image analysis technique, a machine learning technique, or a combination thereof may be applied. Further, when detecting a plurality of feature points, a feature point detection unit 1021 may be provided for each feature point to be detected. Alternatively, a marker for detection, a two-dimensional code, or a three-dimensional code may be pasted on the detection target portion of the subject's face to detect them from the image.

(動きの解析)
動き解析部1022は、上述のようにして検出された特徴点の時系列の位置変化から、咀嚼時の口の動きを解析し、その動きを示す指標値を算出する。これについて図3に示すグラフ32に基づいて説明する。
(analysis of movement)
The movement analysis unit 1022 analyzes the movement of the mouth during mastication from the time-series positional changes of the feature points detected as described above, and calculates an index value indicating the movement. This will be explained based on the graph 32 shown in FIG.

グラフ32は、画像111上における特徴点の時系列の位置変化を示すグラフである。グラフ32は、時系列の複数の画像111のそれぞれから検出した当該画像111に写る特徴点の位置情報から生成することができる。 A graph 32 is a graph showing changes in position of feature points on the image 111 over time. The graph 32 can be generated from the positional information of the feature points appearing in the images 111 detected from each of the plurality of time-series images 111 .

例えば、下唇の頂点(模式図31における点315)や顎(模式図31における点316)の位置は咀嚼時にグラフ32に示されるような変化をする。グラフ32において、初期位置321が咀嚼開始時(口を開け始める直前)の特徴点の位置を示している。グラフ32に示されるように、咀嚼開始後に特徴点は左下方向に移動し、その後右上方向に移動し、そして左方向に移動している。なお、ここで説明された左右とは、対象者を撮影(観察)する側から見た左右であり、対象者から見れば左右は逆であることを付言しておく。 For example, the apex of the lower lip (point 315 in schematic diagram 31) and the position of the chin (point 316 in schematic diagram 31) change as shown in graph 32 during mastication. In the graph 32, an initial position 321 indicates the position of the feature point at the start of mastication (immediately before opening the mouth). As shown in graph 32, after the start of mastication, the feature point moves to the lower left, then to the upper right, and then to the left. It should be noted that the left and right described here are the left and right when viewed from the side of photographing (observing) the subject, and that the left and right are reversed when viewed from the subject.

このように、グラフ32には、咀嚼開始時の初期位置321から特徴点が移動し、再び初期位置321の付近に戻ってくるという特徴がある。よって、動き解析部1022は、この特徴を利用してグラフ32(正確には時系列の複数の画像111のそれぞれから検出した特徴点の位置情報)から1回の咀嚼動作を特定することができる。また、これにより、咀嚼対象物を噛み始めてから嚥下するまでの咀嚼回数を示す指標値を算出することもできる。 In this way, the graph 32 has the feature that the feature point moves from the initial position 321 at the start of mastication and returns to the vicinity of the initial position 321 again. Therefore, the motion analysis unit 1022 can use this feature to identify one chewing motion from the graph 32 (more precisely, the position information of feature points detected from each of the plurality of time-series images 111). . In addition, this makes it possible to calculate an index value indicating the number of times of mastication from when the object to be masticated is started to when the object is swallowed.

また、グラフ32から、1回の咀嚼動作において特徴点が最も左側に移動したときの位置と、最も右側に移動したときの位置を特定することができる。よって、動き解析部1022は、時系列の複数の画像111のそれぞれから検出した特徴点の位置情報から、特徴点の横方向の動きの大きさがMoxであることを特定することもできる。同様に、動き解析部1022は、時系列の複数の画像111のそれぞれから検出した特徴点の位置情報から、特徴点が最も上側にあるときの位置(例えば、咀嚼開始時の初期位置321)と特徴点が最も下側に移動したときの位置を特定し、特徴点の縦方向の動きの大きさがMoyであることを特定することもできる。 Further, from the graph 32, it is possible to specify the position when the feature point moves to the leftmost and the position when it moves to the rightmost in one chewing motion. Therefore, the motion analysis unit 1022 can also identify that the magnitude of lateral motion of the feature point is Mox from the position information of the feature point detected from each of the plurality of time-series images 111 . Similarly, the motion analysis unit 1022 determines the position (for example, initial position 321 at the start of mastication) and It is also possible to specify the position when the feature point moves to the lowest position and specify that the magnitude of vertical movement of the feature point is Moy.

具体的には、動き解析部1022は、時系列の複数の画像111のそれぞれから検出した特徴点の位置情報から、1回の咀嚼動作に包含される位置情報を抽出する。なお、1回の咀嚼動作の検出は、口角の動きや唇の厚み、咬筋付近の頬の面積の変位等に基づいて行うことも可能である。そして、動き解析部1022は、1回の咀嚼動作における口の大きさを示す指標値として、それらの位置情報のうち最も左側の位置を示すものと最も右側の位置を示すものまでの距離Moxを算出すると共に、それらの位置情報のうち最も上側の位置を示すものと最も下側の位置を示すものまでの距離Moyを算出する。 Specifically, the motion analysis unit 1022 extracts position information included in one chewing motion from position information of feature points detected from each of the plurality of time-series images 111 . It is also possible to detect one chewing motion based on the movement of the corners of the mouth, the thickness of the lips, the displacement of the area of the cheek near the masseter muscle, and the like. Then, motion analysis section 1022 calculates the distance Mox between the leftmost position and the rightmost position among the pieces of positional information as an index value indicating the size of the mouth in one chewing motion. At the same time, the distance Moy between the position information indicating the highest position and the position information indicating the lowest position is calculated.

この際、動き解析部1022は、画像111から検出された対象者の顔における、咀嚼により位置が変化することがない所定の特徴点間の距離に基づき、対象者の口の縦方向および横方向の動きの大きさを示す指標値を算出してもよい。例えば、動き解析部1022は、模式図31における点311(右側の目頭)と点312(左側の目頭)の間の距離Exを算出し、口の横方向の動きの大きさを示す指標値としてMox/Exの値を算出し、口の縦方向の動きの大きさを示す指標値としてMoy/Exの値を算出してもよい。これにより、MoxおよびMoyの値を無次元化して、画像111に写る対象者の大きさの違いをキャンセルすることができる。 At this time, the motion analysis unit 1022 detects the vertical and horizontal directions of the subject's mouth based on the distance between predetermined feature points whose positions do not change due to mastication on the subject's face detected from the image 111 . An index value indicating the magnitude of the movement of the may be calculated. For example, the motion analysis unit 1022 calculates the distance Ex between the point 311 (right inner corner of the eye) and the point 312 (left inner corner of the eye) in the schematic diagram 31, and uses it as an index value indicating the magnitude of lateral movement of the mouth. A value of Mox/Ex may be calculated, and a value of Moy/Ex may be calculated as an index value indicating the magnitude of vertical movement of the mouth. This makes it possible to make the values of Mox and Moy dimensionless and cancel the difference in the size of the subject in the image 111 .

なお、咀嚼時の口の動きを示す指標値は上述の例に限られない。例えば、グラフ32で囲まれる部分の面積(以下、Mosと呼ぶ)は、口の動きの大きさを示しているといえるから、当該部分の面積を咀嚼時の口の動きの大きさを示す指標値としてもよい。Mosについても咀嚼により位置が変化することがない所定の特徴点間の距離(例えば上述のEx)で割って無次元化してもよい。 Note that the index value indicating the movement of the mouth during mastication is not limited to the above example. For example, it can be said that the area of the portion surrounded by the graph 32 (hereinafter referred to as Mos) indicates the magnitude of mouth movement. value. Mos may also be made dimensionless by dividing by the distance (eg, the above-mentioned Ex) between predetermined feature points whose positions do not change due to mastication.

また、動き解析部1022は、MoxおよびMoyから三平方の定理により求められる斜め方向の距離の長さを、口の縦方向および横方向の動きの大きさを表わす指標値として算出してもよい。図3に示すグラフ32を参照して具体的に説明すれば、動き解析部1022は、横の長さがMox、縦の長さがMoyである四角形(破線で示される)の対角線の長さを口の縦方向および横方向の動きの大きさを表わす指標値として算出してもよい。 Further, the movement analysis unit 1022 may calculate the length of the diagonal distance obtained from Mox and Moy by the Pythagorean theorem as an index value representing the magnitude of vertical and horizontal movement of the mouth. . Specifically, with reference to the graph 32 shown in FIG. 3, the motion analysis unit 1022 calculates the length of the diagonal of a rectangle (indicated by a dashed line) whose horizontal length is Mox and whose vertical length is Moy. may be calculated as an index value representing the magnitude of vertical and horizontal movement of the mouth.

また、動き解析部1022は、口の動きの大きさを示す指標値以外の指標値も算出してもよい。例えば、動き解析部1022は、単位時間あたりの咀嚼回数、1個の咀嚼対象物を口に含んでから嚥下するまでの咀嚼回数、咀嚼のリズム等を指標値としてもよい。この他にも、動き解析部1022は、例えば、口角の動き等に基づいて左右どちら側で咀嚼しているかを判定し、左右の咀嚼回数やそれらの比を指標値として算出してもよい。また、例えば、動き解析部1022は、特徴点の動きが正常範囲であるか否かを判定し、その判定結果を示す指標値を出力してもよい。 The motion analysis unit 1022 may also calculate an index value other than the index value indicating the magnitude of the mouth movement. For example, the motion analysis unit 1022 may use the number of times of mastication per unit time, the number of times of mastication from holding an object to be masticated in the mouth until swallowing, the rhythm of mastication, and the like as index values. In addition to this, the motion analysis unit 1022 may, for example, determine which side is chewed on the left or right side based on the movement of the corners of the mouth, and calculate the number of times of chewing on the left or right side or the ratio thereof as an index value. Also, for example, the motion analysis unit 1022 may determine whether or not the motion of the feature point is within the normal range, and output an index value indicating the determination result.

なお、動き解析部1022は、指標値を得るにあたって、1回の咀嚼動作におけるMoxおよびMoyそれぞれの値を用いてもよいし、任意の回数の咀嚼動作におけるMoxおよびMoyそれぞれの平均値を用いてもよいし、任意の回数の咀嚼動作におけるMoxおよびMoyそれぞれの合計値を用いてもよい。 In obtaining the index value, the motion analysis unit 1022 may use the values of Mox and Moy in one chewing motion, or may use the average values of Mox and Moy in an arbitrary number of chewing motions. Alternatively, the total values of Mox and Moy in an arbitrary number of chewing motions may be used.

(比較)
比較部1023は、動き解析部1022が以上のようにして算出した指標値と、所定の閾値とを比較する。この比較結果が、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについての評価結果となる。上記所定の閾値は、比較対象(例えば、対象者または対象者と同じ属性の集団に関して理想とされる咀嚼、もしくは、対象者が過去に実施した咀嚼)における口の縦方向および横方向の動きの大きさに基づいて設定すればよい。
(comparison)
The comparison unit 1023 compares the index value calculated by the motion analysis unit 1022 as described above with a predetermined threshold value. The result of this comparison is the result of evaluating the magnitude of vertical and lateral movements of the mouth during mastication of the subject. The predetermined threshold value is the longitudinal and lateral movements of the mouth of a comparison subject (e.g., ideal mastication for a subject or a group with the same attributes as the subject, or mastication performed by the subject in the past). It should be set based on the size.

例えば、動き解析部1022が口の縦方向および横方向の動きの大きさを示す指標値として上述のMoxとMoyを算出する場合、比較部1023は、動き解析部1022が算出したMoxおよびMoyと、設定されたMoxおよびMoyそれぞれの閾値とを比較することにより、対象者の口の縦方向および横方向の動きの大きさを評価してもよい。閾値として設定されたMoxおよびMoyは、対象者に求められる縦方向および横方向おける可動域を示しているから、以下ではこれらを要求可動域と呼ぶ。例えば、比較部1023の比較結果が、動き解析部1022が算出したMoxが横方向の要求可動域未満であることを示している場合、その咀嚼は横方向の口の動きが不十分であったといえる。同様に、比較部1023の比較結果が、動き解析部1022が算出したMoyが縦方向の要求可動域未満であることを示している場合、その咀嚼は縦方向の口の動きが不十分であったといえる。 For example, when the motion analysis unit 1022 calculates Mox and Moy as index values indicating the magnitude of vertical and horizontal motion of the mouth, the comparison unit 1023 calculates Mox and Moy calculated by the motion analysis unit 1022 and , with set Mox and Moy thresholds, respectively, to assess the magnitude of longitudinal and lateral movement of the subject's mouth. Mox and Moy, which are set as thresholds, indicate the range of motion required for the subject in the vertical and horizontal directions, and are hereinafter referred to as the required range of motion. For example, when the comparison result of the comparison unit 1023 indicates that the Mox calculated by the movement analysis unit 1022 is less than the required range of motion in the lateral direction, it is determined that the mouth movement in the lateral direction was insufficient for mastication. I can say. Similarly, when the comparison result of the comparison unit 1023 indicates that Moy calculated by the movement analysis unit 1022 is less than the required range of motion in the vertical direction, the mouth movement in the vertical direction is insufficient for mastication. It can be said that

上述のように、このような比較に用いるMoxおよびMoyは、対象者の顔における、咀嚼により位置が変化することがない所定の特徴点間の距離に基づき無次元化されたものであってもよい。つまり、比較部1023は、上述のMox/ExおよびMoy/Exを要求可動域と比較し、評価してもよい。この場合、要求可動域についても同様にして無次元化されたものを用いる。 As described above, Mox and Moy used for such comparison are dimensionless based on the distance between predetermined feature points whose positions do not change due to mastication on the subject's face. good. That is, the comparison unit 1023 may compare and evaluate the Mox/Ex and Moy/Ex described above with the required range of motion. In this case, the required range of motion is also made dimensionless in the same manner.

また、評価部103は、
Moy/Mox*Ex≦要求可動域・・・式1
または、
Mos/Ex≦要求可動域・・・式2
が満たされる場合に、口の動きが不十分であると評価してもよい。
In addition, the evaluation unit 103
Moy/Mox*Ex≦required range of motion Equation 1
or,
Mos/Ex≦required range of motion Equation 2
is satisfied, the mouth movement may be evaluated as insufficient.

また、比較部1023は、1回の咀嚼動作を複数段階に分けて各段階について評価し、それらの評価結果を総合することにより最終的な評価結果を得てもよい。これについて図3のグラフ33に基づいて説明する。図3のグラフ33は、1回の咀嚼動作をレベル0(咀嚼動作の開始/終了)からレベル10(最大開口)の10段階に分けて各段階について評価する例を示している。なお、グラフ33において示される左右は、対象者から見た左右に対応している。 In addition, the comparison unit 1023 may divide one chewing action into a plurality of stages, evaluate each stage, and obtain a final evaluation result by combining the evaluation results. This will be explained based on the graph 33 in FIG. A graph 33 in FIG. 3 shows an example in which one chewing motion is divided into 10 stages from level 0 (start/end of chewing motion) to level 10 (maximum mouth opening) and each stage is evaluated. The left and right shown in the graph 33 correspond to the left and right seen from the subject.

この場合、動き解析部1022は、各段階における口の横方向の動きの大きさを示す指標値を算出する。そして、比較部1023は、それらの指標値と各段階の横方向の要求可動域とを比較し、それらの比較結果に基づいて、対象者の口の横方向の動きを評価する。例えば、比較部1023は、各指標値と各要求可動域との比や差を算出し、それらの算出結果の合計値や平均値を所定の閾値と比較することにより、対象者の口の横方向の動きを評価してもよい。 In this case, the motion analysis unit 1022 calculates an index value indicating the magnitude of lateral motion of the mouth at each stage. Then, the comparison unit 1023 compares these index values with the required range of motion in the horizontal direction at each stage, and evaluates the horizontal movement of the mouth of the subject based on the comparison results. For example, the comparison unit 1023 calculates the ratio or difference between each index value and each required range of motion, and compares the total value or average value of the calculation results with a predetermined threshold to determine the width of the subject's mouth. Directional movement may be evaluated.

なお、評価部103は、10段階に分けた評価の代わりに、1回の咀嚼の軌跡が描く図形の相似度によって口の動きを評価してもよい。相似度とは図形の形状が似ている度合いを示す値であり、相似度の算出方法は特に限定されない。 Note that the evaluation unit 103 may evaluate the movement of the mouth based on the degree of similarity of the figures drawn by the trajectory of one mastication, instead of the evaluation divided into 10 stages. The degree of similarity is a value indicating the degree to which the shapes of figures are similar, and the method of calculating the degree of similarity is not particularly limited.

また、評価部103は、横方向の動きに加えて、縦方向の動きも加味して、口の動きを評価してもよい。また、指標値は、Moyの最大値で正規化してもよいし、Ex等で無次元化してもよい。 Moreover, the evaluation unit 103 may evaluate the movement of the mouth taking into account the movement in the vertical direction in addition to the movement in the horizontal direction. In addition, the index value may be normalized by the maximum value of Moy, or may be dimensionless by Ex or the like.

また、動き解析部1022が口の動きの大きさを示す指標値以外の指標値も算出する場合、比較部1023はそれらの指標値についても比較を行ってもよい。例えば、比較部1023は、単位時間あたりの咀嚼回数、1個の咀嚼対象物を口に含んでから嚥下するまでの咀嚼回数、咀嚼のリズム等の評価値を、理想的な咀嚼におけるそれらの値と比較してもよい。 Moreover, when the motion analysis unit 1022 calculates index values other than the index value indicating the magnitude of the mouth movement, the comparison unit 1023 may also compare these index values. For example, the comparison unit 1023 compares the evaluation values such as the number of times of mastication per unit time, the number of times of mastication from holding one mastication object in the mouth to swallowing, the rhythm of mastication, and the like in ideal mastication. can be compared with

また、比較部1023は、動き解析部1022が算出する各種指標を総合して、対象者の咀嚼を総合的に評価してもよい。例えば、比較部1023は、対象者の評価結果を示す情報として、咀嚼能率を算出してもよい。この場合、動き解析部1022は、咀嚼能率と相関のある各種指標値を算出すると共に、それら指標値と咀嚼能率との関係をモデル化した咀嚼能率の予測モデルを用いて、算出された各種指標値から咀嚼能率を算出すればよい。この場合、比較部1023は、算出された咀嚼能率と、理想的な咀嚼能率とを比較すればよい。また、理想的な咀嚼能率は、対象者の歯の数等の対象者の属性情報に基づいて算出されたものであってもよい。 In addition, the comparison unit 1023 may comprehensively evaluate the subject's mastication by integrating various indices calculated by the motion analysis unit 1022 . For example, the comparison unit 1023 may calculate mastication efficiency as information indicating the subject's evaluation result. In this case, the motion analysis unit 1022 calculates various index values that are correlated with the masticatory efficiency, and uses a masticatory efficiency prediction model that models the relationship between the index values and the masticatory efficiency. The masticatory efficiency can be calculated from the values. In this case, comparison section 1023 may compare the calculated mastication efficiency with the ideal mastication efficiency. Also, the ideal masticatory efficiency may be calculated based on the subject's attribute information such as the number of teeth of the subject.

なお、評価の方法は、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについての評価結果が少なくとも得られるものであればよく、上述の例に限られない。例えば、評価部102は、評価の基準となる咀嚼態様(例えば理想的な咀嚼態様)と、対象者の咀嚼態様の類似度を算出するものであってもよい。具体的には、評価部102は、評価の基準となる咀嚼態様を示す動画像と、対象者の咀嚼の様子を撮影した動画像の類似度を算出してもよいし、それらの動画像から抽出した時系列の静止画像の類似度を算出してもよい。また、例えば、評価部102は、それらの画像から抽出された特徴点の位置の時系列変化のパターンの類似度を算出してもよい。 Note that the evaluation method is not limited to the above example, as long as at least evaluation results can be obtained for the magnitude of vertical and horizontal movements of the mouth of the subject during mastication. For example, the evaluation unit 102 may calculate the degree of similarity between the mastication mode (for example, ideal mastication mode) that serves as a reference for evaluation and the mastication mode of the subject. Specifically, the evaluation unit 102 may calculate the degree of similarity between a moving image showing a mastication mode, which serves as an evaluation criterion, and a moving image of the subject's mastication state. The degree of similarity of the extracted time-series still images may be calculated. Further, for example, the evaluation unit 102 may calculate the degree of similarity of patterns of time-series changes in the positions of feature points extracted from those images.

また、評価部102は、機械学習により構築された評価モデルを用いて、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価してもよい。この評価モデルは、咀嚼時における口の縦方向および横方向の動きの大きさの評価結果を目的変数とし、咀嚼の様子を時系列で撮影した画像または該画像から抽出された特徴量を説明変数として、当該目的変数と説明変数との関係を学習することにより構築することができる。この構成によれば、高精度な評価結果を生成することができる。 In addition, the evaluation unit 102 may use an evaluation model constructed by machine learning to evaluate the magnitude of vertical and horizontal movements of the mouth of the subject during mastication. This evaluation model uses the results of evaluation of the vertical and horizontal movements of the mouth during mastication as objective variables, and images taken chronologically of the state of mastication or feature values extracted from the images as explanatory variables. , can be constructed by learning the relationship between the objective variable and the explanatory variable. According to this configuration, highly accurate evaluation results can be generated.

上記特徴量としては、例えば特徴点検出部1021が検出した特徴点の時系列の位置情報を利用することもできる。画像111を評価モデルに入力して評価する場合、特徴点検出部1021~比較部1023は不要である。 As the feature amount, for example, time-series position information of the feature points detected by the feature point detection unit 1021 can be used. When the image 111 is input to the evaluation model and evaluated, the feature point detection unit 1021 to the comparison unit 1023 are unnecessary.

なお、評価部102は、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価すればよく、例えば対象者の咀嚼時における口の縦方向および横方向の動きの大きさを示す指標値を算出することも評価の範疇に含まれる。この場合のFB情報は、算出した指標値を示すものであってもよい。また、この場合、比較部1023は不要である。 Note that the evaluation unit 102 may evaluate the magnitude of vertical and horizontal movements of the mouth during mastication of the subject. Calculation of an index value that indicates is also included in the scope of evaluation. The FB information in this case may indicate the calculated index value. Also, in this case, the comparison unit 1023 is unnecessary.

評価部102は、対象者において実際に観察された咀嚼態様を、事前に用意された手本となる咀嚼態様を示す手本データと比較することにより、対象者の咀嚼動作を評価してもよい。あるいは、手本生成部104は、情報処理装置1を評価に用いてきた過程で蓄積された対象者の評価結果112を利用して、当該対象者が目標とするべき理想の咀嚼態様を示す目標データを生成してもよい。評価部102は、対象者において実際に観察された咀嚼態様を、生成された上記目標データと比較することにより、対象者の咀嚼動作を評価してもよい。 The evaluation unit 102 may evaluate the masticatory motion of the subject by comparing the mastication mode actually observed in the subject with model data indicating the mastication mode as a model prepared in advance. . Alternatively, the model generation unit 104 uses the evaluation results 112 of the subject accumulated in the process of using the information processing apparatus 1 for evaluation, and generates a target indicating an ideal mastication mode that the subject should aim for. data may be generated. The evaluation unit 102 may evaluate the chewing action of the subject by comparing the chewing behavior actually observed in the subject with the generated target data.

手本データおよび目標データは、比較の対象としてどのような情報を採用するのかに応じて、任意のデータ構造で構成され得る。例えば、指標値MoxおよびMoyを比較の対象として採用する場合には、手本データおよび目標データも、指標値MoxおよびMoyを含むように生成される。他の例では、評価部102は、対象者の咀嚼時の下顎の運動経路を表す咀嚼周期(チューイングサイクル)と理想的なチューイングサイクルとを比較して、対象者の咀嚼動作を評価してもよい。この場合、手本データおよび目標データは、理想的なチューイングサイクルを示す情報を含むように生成される。 The exemplar data and target data can be configured in any data structure, depending on what information is employed as the object of comparison. For example, when the index values Mox and Moy are used for comparison, the model data and target data are also generated to include the index values Mox and Moy. In another example, the evaluation unit 102 may evaluate the chewing motion of the subject by comparing a chewing cycle representing the motion path of the mandible during mastication of the subject with an ideal chewing cycle. good. In this case, the exemplar data and target data are generated to contain information indicative of an ideal chewing cycle.

(フィードバック情報について)
出力制御部105は、比較部1023による上述のような評価の結果に応じたFB情報を表示させる。FB情報は、その提示態様に応じたものであればよく、例えば、文字情報であってもよいし、音声情報であってもよいし、画像情報(静止画でも動画でもよい)であってもよい。例えば、FB情報は、アニメーションや効果音等であってもよい。
(About feedback information)
The output control unit 105 displays FB information according to the above-described evaluation result by the comparison unit 1023 . The FB information may be anything as long as it corresponds to the presentation mode, and may be, for example, text information, voice information, or image information (still image or moving image). good. For example, the FB information may be animation, sound effects, and the like.

また、FB情報の内容は、評価部102の評価結果に応じたものであればよい。例えば、FB情報は、対象者の咀嚼時における口の縦方向および横方向の動きの大きさを示す指標値を提示するものであってもよい。また、例えば、FB情報は、対象者に注意喚起する情報であってもよいし、対象者の咀嚼態様が良好であることを示す情報であってもよく、対象者の咀嚼態様の良し悪しを示す情報であってもよい。この他にも、FB情報は、例えば咀嚼能率の高くなる咀嚼トレーニングが出来たか否かを示すものであってもよいし、咀嚼能率の高くなる咀嚼態様や、咀嚼態様の改善目標を示すものであってもよい。 Also, the content of the FB information may be anything as long as it corresponds to the evaluation result of the evaluation unit 102 . For example, the FB information may present an index value indicating the magnitude of longitudinal and lateral movements of the mouth during mastication of the subject. Further, for example, the FB information may be information that calls attention to the subject, or information that indicates that the subject's mastication mode is good. It may be the information shown. In addition, the FB information may indicate, for example, whether or not mastication training for increasing mastication efficiency has been completed, or may indicate a mastication mode for increasing mastication efficiency or an improvement target for mastication mode. There may be.

また、上述のように、評価部102は、対象者の咀嚼時における口の縦方向および横方向の動きの大きさを、比較対象の咀嚼における口の縦方向および横方向の動きの大きさとの差異に基づいて評価してもよい。この場合、FB情報は、その差異を小さくするための方策を示すものとしてもよい。これにより、対象者は自身の咀嚼態様を効率よく改善することが可能になる。 In addition, as described above, the evaluation unit 102 compares the vertical and horizontal movements of the mouth during mastication of the subject with the vertical and horizontal movements of the mouth during mastication of the comparison target. You may evaluate based on a difference. In this case, the FB information may indicate measures for reducing the difference. This enables the subject to efficiently improve his or her masticatory behavior.

具体例を挙げれば、比較部1023が、Mox(あるいはMox/Ex)が要求可動域未満であると判定した場合、出力制御部105は、Moxを要求可動域に近付けるための方策を示すFB情報を表示させてもよい。例えば、出力制御部105は、「顎先で大きく円を描くようにイメージしましょう」とのメッセージをFB情報として表示させてもよい。一般に、顎先で大きく円を描くようにイメージしながら咀嚼すれば口の動きは大きくなるため、このようなFB情報を対象者に提示することにより対象者の咀嚼態様の改善に寄与することができる。 As a specific example, when the comparison unit 1023 determines that Mox (or Mox/Ex) is less than the required range of motion, the output control unit 105 outputs FB information indicating measures for bringing Mox closer to the required range of motion. may be displayed. For example, the output control unit 105 may display, as the FB information, a message saying, "Imagine drawing a large circle with the tip of your chin." In general, mastication while imagining drawing a large circle with the tip of the chin increases the movement of the mouth, so presenting such FB information to the subject can contribute to improving the subject's mastication mode. can.

(FB情報の提示例1)
図4は、FB情報の提示例を示す図である。図4に示す表示画面4には、画像41、画像42、メッセージ43~45、および対象者の咀嚼の評価結果を示す画像46が表示されている。また、画像42に重畳して顎先の動きを示す矢印が表示されている。この矢印と、メッセージ43~45、および画像46は何れもFB情報である。また、表示画面4のようにFB情報を含んだ表示画面全体がFB情報であるともいえる。出力制御部105は、咀嚼トレーニング中にFB情報を表示させてもよいし、咀嚼トレーニング後にFB情報を表示させてもよい。
(Example 1 of presentation of FB information)
FIG. 4 is a diagram showing a presentation example of FB information. The display screen 4 shown in FIG. 4 displays an image 41, an image 42, messages 43 to 45, and an image 46 showing the evaluation result of mastication of the subject. Also, an arrow indicating the movement of the tip of the chin is displayed superimposed on the image 42 . This arrow, messages 43 to 45, and image 46 are all FB information. Also, it can be said that the entire display screen including the FB information, such as the display screen 4, is the FB information. The output control unit 105 may display the FB information during the mastication training, or may display the FB information after the mastication training.

画像41は、咀嚼時における理想的な口の動きを示す画像である。このように、出力制御部105は、FB情報と共に画像41を表示させてもよい。これにより、対象者に理想的な咀嚼における口の動きを認識させることができるので、そのような動きに近付くようにトレーニングさせることができる。なお、画像41は時系列の静止画像であってもよいが、動画像であることが好ましい。 An image 41 is an image showing an ideal movement of the mouth during mastication. Thus, the output control unit 105 may display the image 41 together with the FB information. As a result, the subject can be made to recognize the movement of the mouth during ideal mastication, so that the subject can be trained to approximate such movement. The image 41 may be a time-series still image, but is preferably a moving image.

また、理想的な咀嚼における口の動きを示す画像41は、図4に示すような、口およびその周囲の部分の画像(アニメーション)であってもよいし、口の動きをグラフ(例えば図3の32のようなグラフ)や図形で表したものであってもよい。 Also, the image 41 showing the movement of the mouth during ideal mastication may be an image (animation) of the mouth and its surroundings as shown in FIG. A graph such as 32) or a figure may be used.

また、画像41は、対象者および当該対象者が咀嚼する咀嚼対象物の少なくとも何れかに応じた画像であることが好ましい。対象者や咀嚼対象物が変われば理想的な咀嚼の態様も異なり得るが、上記の構成によれば、そのような相違を加味して妥当なお手本となる画像を提示することができる。画像41は、対象者や咀嚼対象物の属性に応じて複数パターン用意しておき、出力制御部105は、その中で対象者や咀嚼対象物の属性に適合したものを選択し、表示させればよい。また、手本生成部104が、対象者や咀嚼対象物の属性に適合した手本情報として画像41を生成するようにしてもよい。 Also, the image 41 is preferably an image corresponding to at least one of the subject and the object to be masticated by the subject. Although the ideal mode of mastication may vary depending on the subject or the object to be masticated, according to the above configuration, it is possible to present an appropriate model image taking such differences into account. A plurality of patterns of the images 41 are prepared according to the attributes of the subject and the object to be masticated, and the output control unit 105 selects and displays an image that matches the attributes of the subject and the object to be masticated. Just do it. Alternatively, the model generation unit 104 may generate the image 41 as model information suitable for the attributes of the subject and the object to be masticated.

画像42は、対象者の咀嚼時における口の動きを示す画像である。このように、出力制御部105は、FB情報と共に画像42を表示させてもよい。これにより、対象者に自身の咀嚼態様を認識させることができるため、トレーニング効果の向上が期待できる。特に、表示画面4のように、画像41と共に画像42を表示させることにより、理想的な口の動きと対象者の口の動きとの違いを認識させることができるため、さらに高いトレーニング効果が期待できる。画像42は画像41と同様に動画像であることが好ましい。画像111の元になった動画像を画像42として表示させてもよい。 The image 42 is an image showing the movement of the mouth of the subject during mastication. Thus, the output control unit 105 may display the image 42 together with the FB information. As a result, the subject can be made aware of his/her own mastication mode, and thus an improvement in the training effect can be expected. In particular, by displaying the image 42 together with the image 41 as in the display screen 4, the difference between the ideal mouth movement and the target person's mouth movement can be recognized, so a higher training effect can be expected. can. Like the image 41, the image 42 is preferably a moving image. A moving image from which the image 111 is based may be displayed as the image 42 .

メッセージ43は、対象者の咀嚼時における口の縦方向および横方向の動きの大きさを、比較対象の咀嚼における口の縦方向および横方向の動きの大きさとの差異を小さくするための方策を示すFB情報の例である。 The message 43 indicates measures for reducing the difference between the vertical and horizontal movements of the mouth during mastication of the subject and the vertical and horizontal movements of the mouth during mastication of the comparison subject. It is an example of FB information shown.

メッセージ44は、口に含んだ咀嚼対象物を嚥下するまでの咀嚼回数が閾値未満であったときに表示されるFB情報の例である。例えば、動き解析部1022が、口に含んだ咀嚼対象物を嚥下するまでの咀嚼回数を算出し、比較部1023が、算出された咀嚼回数が閾値未満であるか否かを判定し、閾値未満であると判定されたときに出力制御部105がこのようなメッセージ44を表示させればよい。なお、閾値は咀嚼トレーニングの開始前に表示部16に表示させる等して対象者に認識させておくことが好ましい。 A message 44 is an example of FB information displayed when the number of times of chewing until the object to be chewed held in the mouth is swallowed is less than the threshold. For example, the motion analysis unit 1022 calculates the number of times of chewing until the object to be chewed held in the mouth is swallowed, and the comparison unit 1023 determines whether the calculated number of times of chewing is less than the threshold. The output control unit 105 should display such a message 44 when it is determined that it is. It is preferable that the threshold value is displayed on the display unit 16 before the mastication training is started so that the subject recognizes the threshold value.

メッセージ45は、対象者の咀嚼が左右何れかに偏っている場合に表示されるFB情報の例である。例えば、動き解析部1022が、図3に示すグラフ32を構成するプロットのうち、321より左側に位置するプロットの数と、321より右側に位置するプロットの数を算出し、比較部1023が、算出された数の差または比が閾値以上であるか否かを判定し、閾値以上であると判定されたときに出力制御部105がこのようなメッセージ45を表示させればよい。 A message 45 is an example of FB information displayed when the subject's mastication is biased toward left or right. For example, the motion analysis unit 1022 calculates the number of plots located on the left side of 321 and the number of plots located on the right side of 321 among the plots constituting the graph 32 shown in FIG. It may be determined whether or not the calculated difference or ratio of the numbers is equal to or greater than the threshold, and the output control unit 105 may display such a message 45 when it is determined to be equal to or greater than the threshold.

画像46は、比較部1023の評価結果を動物の種類により表したものである。図4に示す画像46はウサギの画像である。ウサギは口を縦方向に小刻みに動かすことにより摂食することから、対象者の口の動きが小さい咀嚼態様のシンボルとして好適である。例えば、比較部1023が、対象者の口の動きが要求可動域未満であると評価した場合に、出力制御部105がこのような画像46を表示させればよい。これにより、評価結果を印象的にかつ年少者等にも直感的に理解できるように提示することができる。 An image 46 represents the evaluation result of the comparison unit 1023 according to the type of animal. Image 46 shown in FIG. 4 is an image of a rabbit. Since rabbits eat by moving their mouths in vertical directions, they are suitable as symbols for chewing modes in which the mouth of the subject does not move much. For example, when the comparison unit 1023 evaluates that the movement of the subject's mouth is less than the required range of motion, the output control unit 105 may display such an image 46 . This makes it possible to present the evaluation results impressively and in a way that even young people can intuitively understand them.

画像46は、静止画像であってもよいが、動画像とすることが好ましく、対象者の咀嚼タイミングにあわせて咀嚼動作を行うアニメーション画像であることがさらに好ましい。なお、どのような動物がどのような評価結果あるいは咀嚼態様を示しているかは、咀嚼トレーニングの開始前に表示部16に表示させる等して対象者に認識させておくことが好ましい。 The image 46 may be a still image, but is preferably a moving image, and more preferably an animation image in which the subject performs a mastication motion in time with the subject's mastication timing. In addition, it is preferable to let the subject know what kind of evaluation result or mastication mode is shown by which animal on the display unit 16 before starting the mastication training.

(FB情報の提示例2)
図5は、咀嚼トレーニングの終了後におけるFB情報の提示例を示す図である。図5には、表示画面51と52の計2つの例を示している。このうち表示画面51には、対象者の総合的な評価結果を示す画像511と、対象者に対するメッセージ512が表示されている。一方の表示画面52には、対象者に対するメッセージ521と、理想的な口の動きを示す画像522と、対象者の口の動きを示す画像523が表示されている。
(Example 2 of FB information presentation)
FIG. 5 is a diagram showing an example of presentation of FB information after completion of mastication training. FIG. 5 shows a total of two examples of display screens 51 and 52 . The display screen 51 displays an image 511 showing the comprehensive evaluation result of the subject and a message 512 to the subject. On one display screen 52, a message 521 for the subject, an image 522 showing ideal mouth movements, and an image 523 showing the subject's mouth movements are displayed.

画像511はウサギの画像であり、上述のように対象者の口の動きが小さかったことを表している。また、メッセージ512は、口の動きを大きくするための方策を示している。例えば、咀嚼トレーニング中における各咀嚼動作についての評価の結果に占める要求可動域未満であるとの評価の割合が閾値以上であった場合に、出力制御部105は、表示画面51を生成し、表示部16に表示させてもよい。 Image 511 is an image of a rabbit, and represents that the subject's mouth movement was small as described above. Also, message 512 indicates a strategy for increasing the movement of the mouth. For example, when the percentage of the evaluation results for each mastication motion during mastication training that the range of motion is less than the required range of motion is equal to or greater than the threshold, the output control unit 105 generates and displays the display screen 51. You may make it display on the part 16.

なお、メッセージ512に含まれる「ラクダの咀嚼」について、ラクダは口を縦方向および横方向に大きく動かしながら摂食することから、口の動きが十分に大きい咀嚼態様のシンボルとして好適である。もし、咀嚼トレーニング中における各咀嚼動作についての評価の結果に占める要求可動域以上であるとの評価の割合が閾値以上であれば、ウサギの画像511の代わりにラクダの画像が表示される。なお、ラクダ以外にも例えばアルパカ等の動物を、口の動きが十分に大きい咀嚼態様のシンボルとしてもよい。上述のように、動物と評価結果あるいは咀嚼態様との対応関係は予め対象者に認識させておくことが好ましい。 Note that “camel chewing” included in the message 512 is suitable as a symbol of a chewing mode with sufficiently large mouth movements, since a camel eats while moving its mouth significantly in the vertical and horizontal directions. If the percentage of the evaluation results for each mastication motion during mastication training that the range of motion is greater than or equal to the required range of motion is greater than or equal to the threshold, the camel image is displayed instead of the rabbit image 511 . In addition to the camel, an animal such as an alpaca may be used as a chewing symbol with a sufficiently large mouth movement. As described above, it is preferable for the subject to recognize in advance the correspondence between the animal and the evaluation result or mastication mode.

一方の表示画面52に含まれる画像522および523は、口の動き、より正確には口またはその周囲の特徴点の咀嚼動作中の動きをグラフで表したものである。このような画像は、評価の裏付けとなるデータであり、それを対象者に提示することにより、評価結果の妥当性を確認させることができる。 Images 522 and 523 contained in one of the display screens 52 are graphical representations of the movement of the mouth, more precisely the movement of the mouth or of the feature points around it during chewing. Such an image is data supporting the evaluation, and by presenting it to the subject, it is possible to confirm the validity of the evaluation result.

なお、口またはその周囲の特徴点の咀嚼動作中の動きを示すグラフは、咀嚼トレーニング中に表示させてもよい。この場合、出力制御部105は、対象者の咀嚼動作の進行にあわせてグラフにプロットが追加されるアニメーションを表示させてもよいし、口またはその周囲の特徴点の位置を示す点が2次元平面上を移動するアニメーションを表示させてもよい。これにより、対象者は、自身の咀嚼動作とグラフとが連動していることを認識することができるので、口の開き方等を細かく調整し、理想的な咀嚼動作に近付けることが可能になる。なお、グラフの代わりに口の開き方を示す図形を表示させてもよい。 A graph showing movements of the mouth or characteristic points around it during mastication may be displayed during mastication training. In this case, the output control unit 105 may display an animation in which plots are added to the graph as the subject's chewing motion progresses. An animation of moving on a plane may be displayed. As a result, the subject can recognize that his/her own masticatory motion and the graph are linked, so that it is possible to finely adjust the opening of the mouth, etc., and approach the ideal masticatory motion. . A figure showing how the mouth is opened may be displayed instead of the graph.

また、咀嚼トレーニング中に上記のようなアニメーションを表示させる場合、手本生成部104に同様のアニメーションを生成させてそれらを共に表示させてもよい。これにより、対象者は理想の口の動きと実際の口の動きとの共通点や相違点を、アニメーションを通じて容易に認識することができる。 Moreover, when displaying the above animations during mastication training, the model generation unit 104 may be caused to generate similar animations and display them together. As a result, the subject can easily recognize the similarities and differences between the ideal mouth movement and the actual mouth movement through the animation.

このように、FB情報は、口の縦方向および横方向の動きの大きさを表したグラフまたは図形であってもよい。これにより、口の縦方向および横方向の動きの大きさを対象者に容易に認識させることができるため、咀嚼トレーニングの効果の向上が期待できる。口の縦方向および横方向の動きの大きさを表したグラフまたは図形は、図3に示すグラフ32であってもよいし、グラフ33であってもよいし、グラフ32において、横の長さがMox、縦の長さがMoyである四角形(破線で示される)の対角線の長さを示す図形であってもよい。 Thus, the FB information may be a graph or graphic representing the magnitude of vertical and horizontal movement of the mouth. As a result, the subject can easily recognize the magnitude of vertical and horizontal movements of the mouth, and thus an improvement in the effect of mastication training can be expected. The graph or figure representing the magnitude of vertical and horizontal movements of the mouth may be graph 32 or graph 33 shown in FIG. is Mox and the vertical length is Moy, and the diagonal length of a quadrangle (indicated by a dashed line) may be shown.

(処理の流れ)
図6に基づいて情報処理装置1が実行する処理の流れを説明する。図6は、情報処理装置1が実行する処理(咀嚼評価方法)の一例を示すフローチャートである。なお、以下では咀嚼トレーニング中にフィードバックを行う例を説明する。以下説明するS12~15の処理が、対象者の咀嚼の様子を時系列で撮影した画像111に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価ステップである。
(Processing flow)
The flow of processing executed by the information processing apparatus 1 will be described with reference to FIG. FIG. 6 is a flowchart showing an example of processing (mastication evaluation method) executed by the information processing apparatus 1 . In addition, below, the example which feedbacks during mastication training is demonstrated. The processing of S12 to S15, which will be described below, is an evaluation step of evaluating the magnitude of vertical and horizontal movements of the mouth during mastication of the subject based on the images 111 taken in chronological order of the mastication of the subject. is.

S11では、画像取得部101が対象者の咀嚼の様子を撮影した画像を取得し、画像111として記憶部11に記憶させる。例えば、咀嚼する対象者の動画を撮影部12によって撮影した場合、画像取得部101はその動画像から抽出したフレーム画像を画像111として取得してもよい。 In S<b>11 , the image acquisition unit 101 acquires an image of the subject's mastication state, and stores it in the storage unit 11 as an image 111 . For example, when a moving image of a subject who masticates is captured by the imaging unit 12 , the image acquisition unit 101 may acquire frame images extracted from the moving image as the images 111 .

S12では、特徴点検出部1021が、S11で取得された画像111から対象者の口の動きを示す特徴点を検出し、検出した特徴点の位置情報を評価結果112として記憶部11に記憶させる。なお、上述のように、特徴点検出部1021は、対象者の口の動きを示す口またはその周囲の特徴点に加えて、両眼の目頭や鼻等の特徴点についても検出してもよい。 In S12, the feature point detection unit 1021 detects feature points indicating the movement of the subject's mouth from the image 111 acquired in S11, and stores the position information of the detected feature points in the storage unit 11 as the evaluation result 112. . Note that, as described above, the feature point detection unit 1021 may also detect feature points such as the inner corners of the eyes and the nose, in addition to the feature points in and around the mouth that indicate the movement of the mouth of the subject. .

S13では、動き解析部1022が、S12の検出結果に基づいて対象者の咀嚼時における口の動きを解析し、咀嚼動作の検出を試みる。そして、S14では、動き解析部1022は咀嚼動作を検出したか否かを判定し、検出していればS15に進み、検出していなければS11に戻る。咀嚼開始後、S11およびS12の処理を繰り返すことにより、図3のグラフ32に示されるような、特徴点の時系列の位置変化が特定できる。このため、動き解析部1022は、その位置変化のパターンから1回の咀嚼動作を特定することができる。そして、動き解析部1022は、1回の咀嚼動作を特定した場合、評価結果112として記憶されているその咀嚼動作に対応する位置情報を1回の咀嚼動作に対応するものとして関連付ける。また、動き解析部1022は、1回の咀嚼動作に対応するものとして関連付けた位置情報から、その咀嚼動作における口の動きの大きさを示す指標値(例えば上述のMoxおよびMoy)を算出する。なお、咀嚼動作の検出が可能な程度に画像111が蓄積され、かつそれらの画像111からの特徴点の検出が終了した段階でS13の処理を開始してもよい。 In S13, the motion analysis unit 1022 analyzes the movement of the mouth of the subject during mastication based on the detection result of S12, and attempts to detect the mastication motion. Then, in S14, the motion analysis unit 1022 determines whether or not a chewing motion has been detected. By repeating the processing of S11 and S12 after the start of mastication, it is possible to specify the time-series position change of the feature points as shown in the graph 32 of FIG. Therefore, the motion analysis unit 1022 can identify one chewing motion from the position change pattern. Then, when identifying one chewing motion, the motion analysis unit 1022 associates the position information corresponding to the chewing motion stored as the evaluation result 112 as one corresponding to the one chewing motion. Also, the movement analysis unit 1022 calculates an index value (for example, Mox and Moy described above) indicating the magnitude of the mouth movement in the chewing action from the position information associated with one chewing action. It should be noted that the processing of S13 may be started when the images 111 are accumulated to such an extent that the chewing motion can be detected and the detection of feature points from the images 111 is finished.

S15では、比較部1023が、対象者の咀嚼時における口の縦方向および横方向の動きの大きさを要求可動域と比較し、その結果を評価結果112に追加する。続くS16では、比較部1023は、S15の評価結果に基づいてFB(フィードバック)の要否を判定する。S16でFBすると判定された場合にはS17に進み、FBしないと判定された場合にはS11に戻る。 In S<b>15 , the comparison unit 1023 compares the vertical and horizontal movements of the mouth of the subject during mastication with the required range of motion, and adds the result to the evaluation result 112 . In subsequent S16, the comparison unit 1023 determines whether or not FB (feedback) is necessary based on the evaluation result of S15. If it is determined to FB in S16, the process proceeds to S17, and if it is determined not to FB, the process returns to S11.

例えば、動き解析部1022がMoxおよびMoyを算出した場合、S15において、比較部1023は、算出されたMoxおよびMoyと、横方向および縦方向の要求可動域とを比較する。この比較の結果、算出されたMoxおよびMoyの何れもが要求可動域未満である場合にFBを行うと判定してもよいし、MoxおよびMoyの少なくとも一方が要求可動域未満である場合にFBを行うと判定してもよい。別の例では、比較部1023は、MoxおよびMoyの要求可動域が満たされていると評価した場合に、肯定的なFB情報を出力すると判定してもよい。 For example, when the motion analysis unit 1022 calculates Mox and Moy, in S15, the comparison unit 1023 compares the calculated Mox and Moy with the required lateral and vertical ranges of motion. As a result of this comparison, it may be determined to perform FB when both of the calculated Mox and Moy are less than the required range of motion, or FB when at least one of Mox and Moy is less than the required range of motion may be determined to perform In another example, the comparison unit 1023 may determine to output positive FB information when evaluating that the requested ranges of motion of Mox and Moy are satisfied.

S17(出力制御ステップ)では、出力制御部105が、評価結果112に応じたFB情報(例えば、図4に示す表示画面4等)を表示部16に表示出力させる。例えば、出力制御部105は、MoxおよびMoyの両方あるいは一方が要求可動域未満であると評価された場合に、要求可動域以上に口を動かすことを促すメッセージをFB情報として表示させてもよい。 In S17 (output control step), the output control unit 105 causes the display unit 16 to display and output FB information (for example, the display screen 4 shown in FIG. 4) corresponding to the evaluation result 112 . For example, when both or one of Mox and Moy is evaluated to be less than the required range of motion, the output control unit 105 may display a message prompting to move the mouth beyond the required range of motion as FB information. .

S18では、画像取得部101が処理を終了するか否かを判定する。S18で終了しないと判定された場合にはS11に戻り、終了すると判定された場合には図6の処理は終了する。なお、S18の終了条件は特に限定されず、例えば、入力部15を介して処理を終了する操作が行われたときに処理を終了すると判定してもよい。 In S18, the image acquisition unit 101 determines whether or not to end the processing. If it is determined not to end in S18, the process returns to S11, and if it is determined to end, the process of FIG. 6 ends. Note that the end condition of S18 is not particularly limited, and for example, it may be determined that the process is ended when an operation to end the process is performed via the input unit 15 .

対象者の咀嚼中の画像を取得することが終了した後、すなわち、咀嚼トレーニングの終了後(S18のYES)、出力制御部105は、不図示のS19を実行してもよい。S19では、出力制御部105は、トレーニング終了後のFB情報(例えば、図5に示す表示画面51および表示画面52)を表示部16に表示させてもよい。 After the acquisition of the image of the subject's mastication ends, that is, after the mastication training ends (YES in S18), the output control unit 105 may execute S19 (not shown). In S19, the output control unit 105 may cause the display unit 16 to display the FB information (for example, the display screen 51 and the display screen 52 shown in FIG. 5) after training.

以上のように、本実施形態にかかる咀嚼評価方法は、対象者の咀嚼の様子を時系列で撮影した画像111に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価ステップ(S12~S15)と、当該評価の結果に応じたフィードバック情報を表示部16(出力装置)に出力させる出力制御ステップ(S17)と、を含む。よって、単に咀嚼を行うだけの咀嚼トレーニングと比べて、より効果の高い咀嚼トレーニングを行わせることが可能になる。 As described above, the mastication evaluation method according to the present embodiment is based on the images 111 obtained by photographing the state of mastication of the subject in time series. and an output control step (S17) for outputting feedback information according to the evaluation result to the display unit 16 (output device). Therefore, it is possible to perform more effective mastication training than mastication training in which only mastication is performed.

また、上述のように、評価部102は、対象者の咀嚼中に評価を行ってもよく、この場合、出力制御部105は、評価の結果が得られる毎に当該結果に基づいて生成されたフィードバック情報を表示部16等の出力装置に出力させてもよい。これにより、対象者にリアルタイムまたはほぼリアルタイムのフィードバックを与えることができるため、咀嚼トレーニングの効果を高めることができる。 In addition, as described above, the evaluation unit 102 may perform the evaluation while the subject masticates. In this case, the output control unit 105 generates a The feedback information may be output to an output device such as the display unit 16 or the like. This allows real-time or near-real-time feedback to be given to the subject, thus enhancing the effectiveness of mastication training.

なお、S15の評価は、対象者の過去の評価結果と比較することにより行ってもよい。例えば、S15において、比較部1023は、直近に算出されたMoxおよびMoyと、それより前に算出されたMoxおよびMoyとを比較してもよい。この場合、S17では、出力制御部105は、上記の比較結果に基づき、口の動きが大きくなった、あるいは小さくなった等のフィードバック情報を出力すればよい。また、この際、口の大きさがどの程度変ったかを数値で表示してもよい。 The evaluation in S15 may be performed by comparing with the subject's past evaluation results. For example, in S15, the comparison unit 1023 may compare Mox and Moy calculated most recently with Mox and Moy calculated earlier. In this case, in S17, the output control unit 105 may output feedback information such as that the movement of the mouth has increased or decreased based on the above comparison result. Also, at this time, how much the size of the mouth has changed may be displayed numerically.

〔実施形態2〕
(概要)
本実施形態にかかる咀嚼トレーニングシステム2の概要を図7に基づいて説明する。図7は、咀嚼トレーニングシステム2の概要を示す図である。咀嚼トレーニングシステム2は、対象者に効果の高い咀嚼トレーニングを行わせるためのシステムである。図示のように、咀嚼トレーニングシステム2には、サーバ21(情報処理装置)、端末装置22、表示装置23(出力装置)、撮影装置24、および筋電位測定装置25が含まれている。なお、図7にはサーバ21と端末装置22がネットワークを介して接続されている例を示しているが、サーバ21と端末装置22の接続態様は任意である。
[Embodiment 2]
(overview)
An overview of the mastication training system 2 according to this embodiment will be described with reference to FIG. FIG. 7 is a diagram showing an outline of the mastication training system 2. As shown in FIG. The mastication training system 2 is a system for making a subject perform highly effective mastication training. As illustrated, the mastication training system 2 includes a server 21 (information processing device), a terminal device 22, a display device 23 (output device), an imaging device 24, and a myoelectric potential measuring device 25. FIG. Although FIG. 7 shows an example in which the server 21 and the terminal device 22 are connected via a network, the connection mode between the server 21 and the terminal device 22 is arbitrary.

サーバ21は、撮影装置24が撮影する時系列の画像に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する。評価の方法は実施形態1と概ね同様であるが、本実施形態では筋電位測定装置25の測定結果に基づいて評価を行うことができる点で実施形態1と相違している。 The server 21 evaluates the vertical and horizontal movements of the mouth of the subject during mastication based on the time-series images captured by the imaging device 24 . The evaluation method is generally the same as in the first embodiment, but the present embodiment differs from the first embodiment in that evaluation can be performed based on the measurement results of the myoelectric potential measuring device 25 .

咀嚼トレーニングシステム2は、筋電位測定装置25を備えていることにより、対象者の咀嚼時に計測された当該対象者の咀嚼筋の活動を示す信号に基づいて生成された、対象者の咀嚼筋にかかる負荷の大きさに関する情報を含むFB情報を出力することができる。これにより、咀嚼筋にかかる負荷の大きさも考慮したさらに効果的な咀嚼トレーニングが実現できる。 The mastication training system 2 is provided with the myoelectric potential measuring device 25, so that the masticatory muscles of the subject generated based on the signal indicating the activity of the masticatory muscles of the subject measured during mastication of the subject. It is possible to output FB information including information on the magnitude of such load. As a result, even more effective mastication training can be realized in consideration of the magnitude of the load on the masticatory muscles.

端末装置22は、咀嚼トレーニングシステム2に含まれる各機器間におけるデータの受け渡し等を行う。例えば、端末装置22は、撮影装置24が撮影する画像をサーバ21に送信する処理や、サーバ21による評価の結果に応じたFB情報を表示装置23に表示させる処理等を行う。なお、図7では端末装置22がデスクトップ型のパーソナルコンピュータである例を示しているが、端末装置22として任意の情報処理装置を適用することができる。例えば、実施形態1と同様にスマートフォンを端末装置22として用いることも可能である。 The terminal device 22 exchanges data between devices included in the mastication training system 2 . For example, the terminal device 22 performs processing of transmitting an image captured by the imaging device 24 to the server 21, processing of displaying FB information according to the evaluation result by the server 21 on the display device 23, and the like. Note that FIG. 7 shows an example in which the terminal device 22 is a desktop personal computer, but any information processing device can be applied as the terminal device 22 . For example, a smart phone can be used as the terminal device 22 as in the first embodiment.

表示装置23は、対象者の咀嚼に対するFB情報を表示する。実施形態1で説明したように、FB情報は表示以外の態様で出力してもよく、FB情報の出力装置としては表示装置23以外のものを適用することもできる。 The display device 23 displays FB information on mastication of the subject. As described in the first embodiment, the FB information may be output in a form other than display, and a device other than the display device 23 may be applied as the FB information output device.

撮影装置24は、対象者の咀嚼の様子を時系列で撮影する。撮影装置24は、動画像を撮影するものであってもよいし、時系列の静止画像を撮影するものであってもよい。 The photographing device 24 photographs the state of the subject's mastication in chronological order. The imaging device 24 may be one that shoots moving images, or one that shoots time-series still images.

筋電位測定装置25は、対象者の咀嚼時における筋電位を測定するための装置である。図7には対象者の左右の咀嚼筋のそれぞれに筋電位測定装置25を取り付けた例を示しているが、一方のみに取り付けてもよい。 The myoelectric potential measuring device 25 is a device for measuring myoelectric potential during mastication of the subject. FIG. 7 shows an example in which the myoelectric potential measuring device 25 is attached to each of the left and right masticatory muscles of the subject, but it may be attached to only one.

なお、筋電位測定装置25の代わりに、対象者の咀嚼時における咀嚼筋の活動を示す信号を生成可能な他の装置を用いてもよい。例えば、筋音図を出力する装置を用いてもよい。また、非接触で咀嚼筋の変位を測定する装置を用いてもよい。例えば、咀嚼筋の動きを測定するための近接センサや撮影装置24が撮影した画像の解析等により咀嚼筋の変位を測定することも可能であり、この場合、筋電位測定装置25を省略してもよい。また、例えば9軸の加速度センサにより咀嚼筋の活動を測定することもできる。ただし、筋電位測定装置25のように咀嚼筋の活動を示す生体信号を測定する装置を用いる方が、咀嚼筋の活動をより正確に評価することができる。 Instead of the myoelectric potential measuring device 25, another device capable of generating a signal indicating the activity of the muscle of mastication during mastication of the subject may be used. For example, a device that outputs a myogram may be used. Alternatively, a non-contact device for measuring the displacement of the masticatory muscle may be used. For example, it is possible to measure the displacement of the masticatory muscle by analyzing the image captured by the imaging device 24 or a proximity sensor for measuring the movement of the masticatory muscle. good too. In addition, for example, a 9-axis acceleration sensor can be used to measure the activity of the masticatory muscles. However, the activity of the masticatory muscle can be evaluated more accurately by using a device that measures a biosignal indicating the activity of the masticatory muscle, such as the myoelectric potential measuring device 25 .

以上のように、咀嚼トレーニングシステム2は、対象者の咀嚼の様子を時系列で撮影する撮影装置24と、撮影装置24が撮影する時系列の画像に基づき、対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価するサーバ21と、評価の結果に応じたフィードバック情報を出力する表示装置23と、を含む。この咀嚼トレーニングシステム2によれば、単に咀嚼を行うだけの咀嚼トレーニングと比べて、より効果の高い咀嚼トレーニングを行わせることが可能になる。 As described above, the mastication training system 2 includes the photographing device 24 that photographs the state of mastication of the subject in chronological order, and the length of the mouth of the subject during mastication based on the time-series images photographed by the photographing device 24 . It includes a server 21 for evaluating the magnitude of directional and lateral movement, and a display device 23 for outputting feedback information according to the results of the evaluation. According to this mastication training system 2, it is possible to perform more effective mastication training than mastication training of simply mastication.

(端末装置22およびサーバ21の要部構成)
端末装置22およびサーバ21の構成について図8に基づいて説明する。図8は、端末装置22およびサーバ21の要部構成の一例を示す図である。図示のように、端末装置22は、画像取得部221、筋活動情報取得部222、および出力制御部223を備えている。また、サーバ21は、特徴点検出部211、動き解析部212、動き比較部213、負荷解析部214、負荷比較部215、および評価結果送信部216を備えている。
(Principal configuration of terminal device 22 and server 21)
The configurations of the terminal device 22 and the server 21 will be described with reference to FIG. FIG. 8 is a diagram showing an example of the main configuration of the terminal device 22 and the server 21. As shown in FIG. As illustrated, the terminal device 22 includes an image acquisition section 221 , a muscle activity information acquisition section 222 and an output control section 223 . The server 21 also includes a feature point detection unit 211 , a motion analysis unit 212 , a motion comparison unit 213 , a load analysis unit 214 , a load comparison unit 215 and an evaluation result transmission unit 216 .

なお、図8では図示を省略しているが、端末装置22は端末装置22の各部を統括して制御する制御部や、端末装置22が使用する各種データを記憶する記憶部等を備えている。そして、端末装置22が備える各ブロックの機能は上記の制御部により実現されるものであってもよい。サーバ21についても同様である。 Although not shown in FIG. 8, the terminal device 22 includes a control unit that controls each unit of the terminal device 22 and a storage unit that stores various data used by the terminal device 22. . The function of each block included in the terminal device 22 may be implemented by the control unit described above. The same applies to the server 21 as well.

画像取得部221は、対象者の咀嚼の様子を時系列で撮影した画像を取得する。具体的には、画像取得部221は、撮影装置24が対象者の咀嚼の様子を時系列で撮影した画像を取得する。画像取得部221の機能は実施形態1の情報処理装置1が備える画像取得部101と概ね同様である。 The image acquisition unit 221 acquires images of the subject's mastication in chronological order. Specifically, the image acquisition unit 221 acquires images of the subject's mastication in chronological order captured by the imaging device 24 . The function of the image acquisition unit 221 is generally the same as that of the image acquisition unit 101 included in the information processing apparatus 1 of the first embodiment.

筋活動情報取得部222は、対象者の咀嚼時に計測された当該対象者の咀嚼筋の活動を示す情報を取得する。具体的には、筋活動情報取得部222は、筋電位測定装置25が計測する対象者の咀嚼時における筋電位を示す信号を取得する。筋活動情報取得部222は、取得した信号に対し、ノイズ除去や周波数解析等の処理を行うものであってもよい。 The muscle activity information acquisition unit 222 acquires information indicating activity of the subject's masticatory muscles measured during mastication by the subject. Specifically, the muscle activity information acquisition unit 222 acquires a signal indicating the myoelectric potential during mastication of the subject measured by the myoelectric potential measuring device 25 . The muscle activity information acquisition unit 222 may perform processing such as noise removal and frequency analysis on the acquired signal.

出力制御部223は、サーバ21による評価の結果に応じたFB情報を表示装置23に出力させる。出力制御部223の機能は情報処理装置1が備える出力制御部105と概ね同様である。 The output control unit 223 causes the display device 23 to output FB information according to the evaluation result by the server 21 . The function of the output control section 223 is substantially the same as that of the output control section 105 included in the information processing apparatus 1 .

特徴点検出部211、動き解析部212、および動き比較部213の機能は、情報処理装置1が備える特徴点検出部1021、動き解析部1022、および比較部1023とそれぞれ同様である。 The functions of the feature point detection unit 211, the motion analysis unit 212, and the motion comparison unit 213 are the same as those of the feature point detection unit 1021, the motion analysis unit 1022, and the comparison unit 1023 provided in the information processing apparatus 1, respectively.

負荷解析部214は、筋活動情報取得部222が取得する、対象者の咀嚼時に計測された当該対象者の咀嚼筋の活動を示す情報を端末装置22から取得し、その情報を用いて対象者の咀嚼筋の活動を示す指標値を算出する。 The load analysis unit 214 acquires from the terminal device 22 the information indicating the activity of the masticatory muscles of the subject measured during mastication of the subject, which is acquired by the muscle activity information acquisition unit 222, and uses the information to analyze the activity of the subject. Calculate the index value that indicates the activity of the masticatory muscle.

指標値の算出にあたり、負荷解析部214は、まず咀嚼動作を検出してもよい。咀嚼動作を行うごとに筋電位は上昇と下降を繰り返すから、負荷解析部214は、例えば、筋電位が閾値以上となった時点を1回の咀嚼動作の開始タイミングと特定し、その後、筋電位が閾値未満となり、再び筋電位が閾値以上となる直前までを1回の咀嚼動作が行われた期間であると特定してもよい。なお、動き解析部1022は、自ら咀嚼動作を検出する代わりに、負荷解析部214の特定結果を利用してもよい。また逆に、負荷解析部214が、動き解析部1022による咀嚼動作の検出結果を利用してもよい。 In calculating the index value, the load analysis unit 214 may first detect the chewing motion. Since the myoelectric potential repeatedly rises and falls each time a masticatory action is performed, the load analysis unit 214 specifies, for example, the time when the myoelectric potential becomes equal to or higher than a threshold as the start timing of one chewing action. becomes less than the threshold value, and the period immediately before the myoelectric potential becomes equal to or greater than the threshold value again may be specified as a period in which one chewing motion is performed. Note that the motion analysis unit 1022 may use the identification result of the load analysis unit 214 instead of detecting the chewing motion by itself. Conversely, the load analysis unit 214 may use the mastication motion detection result by the motion analysis unit 1022 .

そして、負荷解析部214は、1回の咀嚼動作における咀嚼筋の筋活動量を、当該咀嚼における負荷の大きさを示す指標値として算出してもよい。 Then, the load analysis unit 214 may calculate the amount of muscle activity of the masticatory muscles in one mastication motion as an index value indicating the magnitude of the load in the mastication.

負荷比較部215は、負荷解析部214が算出する指標値を所定の閾値と比較する。負荷比較部215の評価結果は、サーバ21による対象者の咀嚼筋の活動の評価の結果である。 The load comparison unit 215 compares the index value calculated by the load analysis unit 214 with a predetermined threshold. The evaluation result of the load comparison unit 215 is the evaluation result of the activity of the masticatory muscle of the subject by the server 21 .

評価結果送信部216は、サーバ21による対象者の咀嚼の評価結果を端末装置22に通知する。例えば、評価結果送信部216は、負荷比較部215による比較結果と、動き比較部213による比較結果を示す情報を端末装置22に送信してもよい。この場合、出力制御部223が、受信した各情報に基づいてFB情報を含む表示画面を生成し、表示装置23に表示させる。また、評価結果送信部216は、上記の各比較結果に基づいてFB情報あるいはFB情報を含む表示画面を生成して端末装置22に送信してもよい。 The evaluation result transmission unit 216 notifies the terminal device 22 of the evaluation result of the subject's mastication by the server 21 . For example, the evaluation result transmission unit 216 may transmit information indicating the comparison result by the load comparison unit 215 and the comparison result by the motion comparison unit 213 to the terminal device 22 . In this case, the output control unit 223 generates a display screen including FB information based on the received information, and causes the display device 23 to display it. Further, the evaluation result transmission unit 216 may generate FB information or a display screen including the FB information based on each of the above comparison results, and transmit the generated display screen to the terminal device 22 .

例えば、負荷比較部215が、要求負荷量以上の咀嚼が出来ていないと判定した場合に、評価結果送信部216は、そのことを対象者に注意喚起するFB情報またはFB情報を含む表示画面を生成してもよい。 For example, when the load comparison unit 215 determines that mastication of the required load amount or more is not possible, the evaluation result transmission unit 216 displays FB information or a display screen containing the FB information to alert the subject to this fact. may be generated.

負荷比較部215は、負荷解析部214によって筋活動情報が解析された結果を参照する。そして、負荷比較部215は、対象者がある食品を咀嚼している期間において得られた筋活動情報から得られた指標値を閾値と比較し、要求負荷量が満たされているか否かを判定する。一例として、負荷比較部215は、対象者について観察された咀嚼回数および筋活動量に基づいて算出された実測負荷量を、理想的な咀嚼回数および筋活動量に基づいて予め定められた要求負荷量と比較してもよい。負荷比較部215は、実測負荷量が要求負荷量未満である場合に、要求負荷量以上の咀嚼が出来ていないと判定する。 The load comparison unit 215 refers to the result of muscle activity information analyzed by the load analysis unit 214 . Then, the load comparison unit 215 compares the index value obtained from the muscle activity information obtained while the subject masticates a certain food item with the threshold value, and determines whether or not the required load amount is satisfied. do. As an example, the load comparison unit 215 compares the actually measured load amount calculated based on the number of times of mastication and the amount of muscle activity observed for the subject to a predetermined required load based on the ideal number of times of mastication and the amount of muscle activity. You can compare the quantity. The load comparison unit 215 determines that mastication of the required load amount or more is not possible when the actually measured load amount is less than the required load amount.

また、負荷比較部215は、咀嚼回数に基づく実測負荷量と要求負荷量とを比較するとともに、筋活動量に基づく実測負荷量と要求負荷量とを比較してもよい。 Moreover, the load comparison unit 215 may compare the actually measured load amount based on the number of times of mastication and the required load amount, and may also compare the actually measured load amount based on the amount of muscle activity and the required load amount.

負荷比較部215は、条件(1)咀嚼回数に基づく実測負荷量≧要求負荷量および条件(2)筋活動量に基づく実測負荷量≧要求負荷量のいずれか一方でも満たされない場合には、要求負荷量以上の咀嚼が出来ていないと判定してもよい。 If either condition (1) actually measured load amount based on the number of mastications≧required load amount or condition (2) actually measured load amount based on muscle activity≧required load amount is not satisfied, the load comparison unit 215 determines whether the required load amount is equal to the required load amount. It may be determined that mastication is not performed more than the load amount.

評価結果送信部216は、負荷比較部215によって要求負荷量以上の咀嚼が出来ていないと判定された場合に、例えば、「もう少し噛み応えのある食品の方が効果的です」等のように、注意喚起や改善を促す提案を含むメッセージを生成し、端末装置22に送信してもよい。 When the load comparison unit 215 determines that the user cannot masticate at the required load amount or more, the evaluation result transmission unit 216 sends a message such as, for example, “Food with a little more chewiness is more effective.” A message including a warning and a suggestion for improvement may be generated and transmitted to the terminal device 22 .

上述の構成によれば、要求負荷量が「咀嚼筋回りのトレーニングを最大咬合圧の一定%の力で一定回数以上とする」等として設定される場合に、当該要求負荷量が満たされているか否かを適切に判定することが可能となる。 According to the above-described configuration, when the required load amount is set as ``training around the masticatory muscles at a constant % of the maximum occlusal pressure for a certain number of times or more'' or the like, is the required load amount satisfied? It is possible to appropriately determine whether or not.

負荷比較部215は、対象者の咀嚼によって得られる負荷量の実測値と、その咀嚼から必要とされる要求負荷量を表す閾値との差(負荷の不足量)を算出してもよい。そして、評価結果送信部216は、算出された差が小さくなるように、または、負荷量の実測値が上述の閾値を超えるように、行動変容を促すFB情報を生成してもよい。 The load comparison unit 215 may calculate the difference (insufficient amount of load) between the actual measurement value of the load amount obtained by mastication of the subject and the threshold representing the required load amount required for the mastication. Then, the evaluation result transmitting unit 216 may generate FB information that encourages behavior modification such that the calculated difference becomes small or the actual load amount exceeds the above threshold.

端末装置22は、対象者の測定中に、画像取得部221が随時取得している映像信号と、筋活動情報取得部222が随時取得している生体信号とを、リアルタイムに可視化データまたは可聴化データによりフィードバックするための情報出力機構を有していてもよい。例えば、情報出力機構としての出力制御部223は、画像取得部221によって取得された映像信号および筋活動情報取得部222によって取得された生体信号を、可視化データとして表示装置23に随時表示させてもよい。また、咀嚼トレーニングシステム2は、スピーカなどの音声出力装置(不図示)を含んでいてもよい。端末装置22の出力制御部223は、映像信号と併せてマイクなどの音声入力装置(不図示)から取得された音声信号を可聴化データとして音声出力装置に随時出力してもよい。 The terminal device 22 converts the video signal acquired by the image acquisition unit 221 from time to time and the biological signal acquired by the muscle activity information acquisition unit 222 from time to time during the measurement of the subject into real-time visualization data or audible data. It may have an information output mechanism for feedback with data. For example, the output control unit 223 as an information output mechanism may cause the display device 23 to display the video signal acquired by the image acquisition unit 221 and the biological signal acquired by the muscle activity information acquisition unit 222 as visualization data at any time. good. The mastication training system 2 may also include an audio output device (not shown) such as a speaker. The output control unit 223 of the terminal device 22 may output an audio signal obtained from an audio input device (not shown) such as a microphone to the audio output device as audible data at any time together with the video signal.

また、出力制御部223は、サーバ21の評価結果送信部216が生成したFB情報としての可聴化データを音声出力装置に随時出力してもよい。例えば、FB情報としての可聴化データは、対象者の咀嚼時筋活動量の大小に応じた咀嚼音であってもよい。より具体的には、出力制御部223は、対象者の咀嚼タイミングに合わせて、発揮された筋活動量が小さい場合は、小さい音量の「パリパリ」、「ポリポリ」という咀嚼音を出力してもよいし、発揮された筋活動量が大きい場合は、大きい音量の「バリバリ」、「ボリボリ」という咀嚼音を出力してもよい。 In addition, the output control unit 223 may output the audible data as FB information generated by the evaluation result transmission unit 216 of the server 21 to the audio output device at any time. For example, the audible data as FB information may be mastication sounds according to the amount of muscle activity during mastication of the subject. More specifically, the output control unit 223 outputs mastication sounds such as “cripply” and “popping” at a low volume in accordance with the mastication timing of the subject when the amount of muscle activity exerted is small. Alternatively, when the amount of muscle activity exerted is large, mastication sounds such as “Bari-Bari” and “Bori-Bori” with a high volume may be output.

(FB情報の提示例)
図9は、FB情報の提示例を示す図である。図9に示す表示画面6には、一例として、手本情報としての咀嚼時における理想的な口の動きを示す画像61、対象者の咀嚼時における口の動きを示す画像62が含まれていてもよい。また、表示画面6には、筋活動情報取得部222によって取得された筋活動情報を示すグラフ65が含まれていてもよい。グラフ65は筋電図と呼ばれるものである。これにより、理想的な口の動きと対象者の口の動きとの違いを認識させて高いトレーニング効果が期待できることに加えて、筋活動量を可視化して対象者に認識させることができ、咀嚼筋を鍛える意識を対象者に持たせることができ、トレーニング効果を一層向上させることが期待できる。
(Example of presentation of FB information)
FIG. 9 is a diagram showing a presentation example of FB information. The display screen 6 shown in FIG. 9 includes, for example, an image 61 showing ideal mouth movements during mastication as model information, and an image 62 showing mouth movements during mastication of the subject. good too. The display screen 6 may also include a graph 65 showing muscle activity information acquired by the muscle activity information acquiring section 222 . Graph 65 is called an electromyogram. In addition to being able to recognize the difference between the ideal mouth movement and the target person's mouth movement, a high training effect can be expected. It can be expected that the target person can be made to have an awareness of muscle training, and the training effect can be further improved.

表示画面6は、さらに、メッセージ63、メッセージ64およびメッセージ66を含んでいてもよい。メッセージ63は、メッセージ43と同様に、対象者の咀嚼時における口の縦方向および横方向の動きの大きさを、比較対象の咀嚼における口の縦方向および横方向の動きの大きさとの差異を小さくするための方策を示すFB情報の例である。メッセージ64は、メッセージ44と同様に、口に含んだ咀嚼対象物を嚥下するまでの咀嚼回数が閾値未満であったときに表示されるFB情報の例である。メッセージ66は、咀嚼筋の活動量が、トレーニングの効果が期待できる程の要求負荷量に満たない場合に、トレーニング効果を上げるための行動変容を対象者等に促すFB情報の例である。 Display screen 6 may further include message 63 , message 64 and message 66 . Similar to the message 43, the message 63 indicates the difference between the vertical and horizontal movements of the mouth during mastication of the subject and the vertical and horizontal movements of the mouth during mastication of the comparison subject. It is an example of the FB information which shows the measure for making it small. The message 64 is an example of FB information displayed when the number of times of chewing before swallowing the chewing object held in the mouth is less than the threshold, similarly to the message 44 . The message 66 is an example of FB information that urges the subject, etc., to change their behavior in order to increase the training effect when the amount of activity of the masticatory muscles is less than the required load amount for which training effects can be expected.

さらに、表示装置23に表示されるフィードバック情報は、例えば、評価の結果に応じた、咀嚼対象物、咀嚼トレーニング用の機器、診療機関、および医師(歯科医師を含む)の少なくとも何れかを示す情報を含んでいてもよい。これにより、対象者の咀嚼の改善に寄与することができる。 Furthermore, the feedback information displayed on the display device 23 is, for example, information indicating at least one of a mastication object, a mastication training device, a medical institution, and a doctor (including a dentist) according to the evaluation result. may contain Thereby, it can contribute to the improvement of a subject's mastication.

(FB情報の提示例2)
図10は、FB情報の他の提示例を示す図である。とりわけ、表示画面7は、咀嚼トレーニングの終了後におけるFB情報の提示例を示す。
(Example 2 of FB information presentation)
FIG. 10 is a diagram showing another presentation example of FB information. In particular, the display screen 7 shows an example of presentation of FB information after completion of mastication training.

表示画面7は、一例として、総合評価グラフ71と、メッセージ72と、含んでいてもよい。総合評価グラフ71は、対象者の口の動きの大きさを横軸に、対象者が咀嚼時に発揮した筋活動量(噛む力強さ)を縦軸にとったグラフであり、大きく力強く噛むことを理想として、対象者の咀嚼行為の理想から位置付けを直感的に対象者等に認識させるように構成されている。 The display screen 7 may include, for example, a comprehensive evaluation graph 71 and a message 72 . The comprehensive evaluation graph 71 is a graph in which the horizontal axis represents the amount of movement of the mouth of the subject and the vertical axis represents the amount of muscle activity (biting strength) exerted by the subject during mastication. is ideal, and it is configured so that the target person or the like intuitively recognizes the positioning from the ideal mastication action of the target person.

例えば、総合評価グラフ71には、縦軸の噛む力強さのレベルが小さく、横軸の口を動かすレベルが小さいことのシンボルとしてウサギのアイコン711が配置されていてもよい。例えば、総合評価グラフ71には、縦軸の噛む力強さのレベルが小さく、横軸の口を動かすレベルが大きいことのシンボルとしてラクダのアイコン712が配置されていてもよい。例えば、総合評価グラフ71には、縦軸の噛む力強さのレベルが大きく、横軸の口を動かすレベルが小さいことのシンボルとしてワニのアイコン714が配置されていてもよい。例えば、総合評価グラフ71には、縦軸の噛む力強さのレベルが大きく、横軸の口を動かすレベルが大きいことのシンボルとして力持ちのラクダのアイコン715が配置されていてもよい。例えば、総合評価グラフ71には、縦軸の噛む力強さのレベルと、横軸の口を動かすレベルとがともに中くらいであることのシンボルとしてイヌのアイコン713が配置されていてもよい。そして、総合評価グラフ71には、対象者の咀嚼行為の噛む力強さのレベルと口を動かすレベルとに対応した位置に、対象者のアイコン716が配置される。 For example, a rabbit icon 711 may be arranged on the comprehensive evaluation graph 71 as a symbol indicating that the level of biting strength on the vertical axis is low and the level of mouth movement on the horizontal axis is low. For example, in the comprehensive evaluation graph 71, a camel icon 712 may be arranged as a symbol indicating that the level of biting strength on the vertical axis is low and the level of mouth movement on the horizontal axis is high. For example, a crocodile icon 714 may be arranged in the comprehensive evaluation graph 71 as a symbol indicating that the level of bite force on the vertical axis is high and the level of mouth movement on the horizontal axis is low. For example, in the comprehensive evaluation graph 71, an icon 715 of a strong camel may be arranged as a symbol indicating that the level of bite force on the vertical axis is high and the level of mouth movement on the horizontal axis is high. For example, in the comprehensive evaluation graph 71, a dog icon 713 may be arranged as a symbol indicating that both the bite force level on the vertical axis and the mouth movement level on the horizontal axis are intermediate. Then, on the comprehensive evaluation graph 71, the target person's icon 716 is arranged at a position corresponding to the level of chewing strength and the level of mouth movement in the masticatory action of the target person.

これにより、対象者の現在の口の動きの大きさと理想とのギャップに加えて、対象者が現在発揮する筋活動量と理想とのギャップを、対象者に直感的に認識させることができるため、咀嚼トレーニングの効果の向上が期待できる。 This allows the subject to intuitively recognize the gap between the current amount of mouth movement and the ideal, as well as the gap between the amount of muscle activity that the subject is currently exerting and the ideal. , can be expected to improve the effect of mastication training.

〔変形例〕
情報処理装置1の出力制御部105、または、サーバ21の評価結果送信部216は、対象者の最新の評価結果と、過去に評価された過去の評価結果と、年齢・性別等の同属性の集団から得られた統計的な情報とに基づいて、対象者に適した個別のFB情報を生成してもよい。例えば、対象者の咀嚼機能について期待される向上が見込めない場合に、以下のような情報提供が行われてもよい。
[Modification]
The output control unit 105 of the information processing device 1 or the evaluation result transmission unit 216 of the server 21 transmits the latest evaluation result of the subject, the past evaluation result evaluated in the past, and the same attributes such as age and gender. Based on the statistical information obtained from the population, individual FB information suitable for the subject may be generated. For example, when the expected improvement in masticatory function of the subject is not expected, the following information may be provided.

(1)年齢に応じた口腔機能情報
(2)咀嚼機能の育成・改善のための機器の情報
(3)対象者の居住地域に応じた専門医の情報
さらに、情報処理装置1の出力制御部105、または、サーバ21の評価結果送信部216は、
(4)トレーニングに使用される食品の種類、当該食品に適した咀嚼回数、および、対象者が実際に飲み込める状態と判断できる食品の柔らかさ等を示す情報、および、
(5)現時点で、対象者個人に適した咀嚼トレーニングのための食品を推奨する情報
をFB情報として提供してもよい。
(1) Oral function information according to age (2) Information on devices for developing and improving masticatory function (3) Information on specialists according to the residential area of the subject Furthermore, the output control unit 105 of the information processing apparatus 1 , or the evaluation result transmission unit 216 of the server 21,
(4) Information indicating the type of food used for training, the number of chewing times suitable for the food, and the softness of the food that can be judged to be actually swallowable by the subject, and
(5) At present, information recommending foods for chewing training suitable for individual subjects may be provided as FB information.

情報処理装置1の出力制御部105、または、サーバ21の評価結果送信部216は、(4)および(5)の情報を、咀嚼量、咀嚼幅、開口量、咀嚼速度、咀嚼サイクルの面積、現在歯数から推定される推定された食品の咀嚼能率の値が高くなる(咀嚼能率スコアが高い)方向に補正されるような内容とすることができる。 The output control unit 105 of the information processing device 1 or the evaluation result transmission unit 216 of the server 21 converts the information (4) and (5) into mastication amount, mastication width, mouth opening amount, mastication speed, mastication cycle area, The content can be such that the value of the masticatory efficiency of the food estimated from the current number of teeth is corrected in the direction of increasing (higher masticatory efficiency score).

情報処理装置1の出力制御部105、および、端末装置22の出力制御部223は、咀嚼機能トレーニング食品を咀嚼する際に、口周りの動作から入手した口周りの特徴点を数値化する事で得られる時系列データを活用して、口の動きのリズムを可視化する可視化データを、表示部16および表示装置23に、それぞれ表示させてもよい。このような可視化データが対象者等に認識されることにより、咀嚼トレーニング効果を高めることが可能となる。 The output control unit 105 of the information processing device 1 and the output control unit 223 of the terminal device 22 quantify the feature points around the mouth obtained from the motion around the mouth when chewing the chewing function training food. The obtained time-series data may be used to display visualization data for visualizing the rhythm of mouth movements on the display unit 16 and the display device 23, respectively. The effect of mastication training can be enhanced by the subject or the like recognizing such visualized data.

対象者の測定より前に事前に手本として模範者の動画データが撮影されてもよく、そのような動画データから得られた咀嚼数値データまたは、蓄積した咀嚼数値化データを、比較対象となる閾値として採用してもよい。 Prior to the measurement of the subject, moving image data of the model person may be captured as a model in advance, and the numerical mastication data obtained from such moving image data or the accumulated numerical mastication data is used as a comparison target. You may employ|adopt as a threshold value.

〔効果〕
また、本開示の構成によれば、加齢や機能不全等の様々な要因に伴って衰え得る咀嚼力を鍛えたり、成長過程にある小児の咀嚼力の発達を促したりして、口腔機能の維持、向上をサポートすることができる。食べ物を噛むことや嚥下行動、唾液の分泌等は、脳および全身への影響が大きく、心身の健康および健康寿命に大きく影響を及ぼす要素である。したがって、本開示の構成によれば、口腔機能の維持、向上が達成され、心身の健康維持、発達促進および健康寿命の延伸等に貢献することが期待される。延いては、持続可能な開発目標(SDGs)の目標3「すべての人に健康と福祉を」の達成に寄与する。
〔effect〕
In addition, according to the configuration of the present disclosure, it is possible to train the masticatory power that may decline due to various factors such as aging and dysfunction, and to promote the development of the masticatory power of children in the process of growth, thereby improving the oral function. It can support maintenance and improvement. Chewing food, swallowing behavior, saliva secretion, etc. have a great influence on the brain and the whole body, and are factors that greatly affect mental and physical health and healthy life expectancy. Therefore, according to the configuration of the present disclosure, maintenance and improvement of oral functions are achieved, and it is expected to contribute to maintenance of mental and physical health, promotion of development, extension of healthy life expectancy, and the like. Ultimately, it contributes to the achievement of Goal 3 of the Sustainable Development Goals (SDGs), "Good Health and Well-Being for All."

〔ソフトウェアによる実現例〕
情報処理装置1、サーバ21、端末装置22(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10、サーバ21、端末装置22に含まれる各部)としてコンピュータを機能させるためのプログラム(咀嚼トレーニングプログラム)により実現することができる。
[Example of realization by software]
The functions of the information processing device 1, the server 21, and the terminal device 22 (hereinafter referred to as "devices") are programs for causing a computer to function as the device, and each control block of the device (especially the control unit 10, It can be realized by a program (mastication training program) for causing a computer to function as the server 21 and each part included in the terminal device 22).

この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the apparatus comprises a computer having at least one control device (eg processor) and at least one storage device (eg memory) as hardware for executing the program. Each function described in each of the above embodiments is realized by executing the above program using the control device and the storage device.

上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The program may be recorded on one or more computer-readable recording media, not temporary. The recording medium may or may not be included in the device. In the latter case, the program may be supplied to the device via any transmission medium, wired or wireless.

また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 Also, part or all of the functions of the above control blocks can be realized by logic circuits. For example, integrated circuits in which logic circuits functioning as the control blocks described above are formed are also included in the scope of the present invention. In addition, it is also possible to implement the functions of the control blocks described above by, for example, a quantum computer.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

1 情報処理装置
2 咀嚼トレーニングシステム
10 制御部
11 記憶部
12 撮影部
13 通信部
14 音出力部
15 入力部
16 表示部
21 サーバ
22 端末装置
23 表示装置
24 撮影装置
25 筋電位測定装置
101 画像取得部
102 評価部
103 報知部
104 手本生成部
105 出力制御部
112 評価結果
211 特徴点検出部
212 動き解析部
213 比較部
214 負荷解析部
215 負荷比較部
216 評価結果送信部
221 画像取得部
222 筋活動情報取得部
223 出力制御部
1021 特徴点検出部
1022 動き解析部
1023 比較部
1 information processing device 2 mastication training system 10 control unit 11 storage unit 12 imaging unit 13 communication unit 14 sound output unit 15 input unit 16 display unit 21 server 22 terminal device 23 display device 24 imaging device 25 myoelectric potential measurement device 101 image acquisition unit 102 evaluation unit 103 notification unit 104 model generation unit 105 output control unit 112 evaluation result 211 feature point detection unit 212 motion analysis unit 213 comparison unit 214 load analysis unit 215 load comparison unit 216 evaluation result transmission unit 221 image acquisition unit 222 muscle activity Information acquisition unit 223 Output control unit 1021 Feature point detection unit 1022 Motion analysis unit 1023 Comparison unit

Claims (16)

対象者の咀嚼の様子を時系列で撮影した画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価部と、
前記評価の結果に応じたフィードバック情報を出力装置に出力させる出力制御部と、を備える情報処理装置。
an evaluation unit that evaluates the vertical and horizontal movements of the mouth of the subject during mastication based on images taken in chronological order of the subject's mastication;
and an output control unit that causes an output device to output feedback information according to the result of the evaluation.
前記評価部は、前記対象者の咀嚼中に前記評価を行い、
前記出力制御部は、前記評価の結果が得られる毎に当該結果に基づいて生成されたフィードバック情報を前記出力装置に出力させる、請求項1に記載の情報処理装置。
The evaluation unit performs the evaluation during mastication of the subject,
2. The information processing apparatus according to claim 1, wherein said output control unit causes said output device to output feedback information generated based on said evaluation result each time said evaluation result is obtained.
前記対象者および当該対象者が咀嚼する咀嚼対象物の少なくとも何れかに応じた咀嚼のタイミングを前記対象者に報知する報知部を備える、請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, further comprising a notification unit that notifies said subject of timing of mastication according to at least one of said subject and a mastication object that said subject masticates. 前記フィードバック情報は、口の縦方向および横方向の動きの大きさを表したグラフまたは図形である、請求項1から3の何れか1項に記載の情報処理装置。 4. The information processing apparatus according to any one of claims 1 to 3, wherein said feedback information is a graph or figure representing magnitudes of vertical and horizontal movements of the mouth. 前記評価部は、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさを、比較対象の咀嚼における口の縦方向および横方向の動きの大きさとの差異に基づいて評価し、
前記フィードバック情報は、前記差異を小さくするための方策を示す、請求項1から4のいずれか1項に記載の情報処理装置。
The evaluation unit evaluates the magnitude of longitudinal and lateral movements of the mouth during mastication of the subject based on the difference from the magnitude of longitudinal and lateral movements of the mouth during mastication of a comparison subject. ,
5. The information processing apparatus according to any one of claims 1 to 4, wherein said feedback information indicates measures for reducing said difference.
前記評価部は、前記画像から検出された、前記対象者の顔における咀嚼により位置が変化することがない所定の特徴点間の距離に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさを評価する、請求項1から5のいずれか1項に記載の情報処理装置。 Based on the distance between predetermined feature points on the face of the subject whose position does not change due to mastication, detected from the image, the evaluation unit measures the longitudinal direction and the lateral direction of the mouth during mastication of the subject. 6. The information processing apparatus according to any one of claims 1 to 5, wherein the magnitude of directional movement is evaluated. 前記出力制御部は、前記フィードバック情報と共に、理想的な咀嚼における口の動きを示す画像を前記出力装置に出力させる、請求項1から6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, wherein the output control unit causes the output device to output an image showing movement of the mouth during ideal mastication together with the feedback information. 前記理想的な咀嚼における口の動きを示す画像は、前記対象者および当該対象者が咀嚼する咀嚼対象物の少なくとも何れかに応じた画像である、請求項7に記載の情報処理装置。 8. The information processing apparatus according to claim 7, wherein the image showing the movement of the mouth during ideal mastication is an image corresponding to at least one of the subject and an object to be masticated by the subject. 前記出力制御部は、前記フィードバック情報と共に、前記対象者の咀嚼の様子を時系列で撮影した画像を前記出力装置に出力させる、請求項1から8のいずれか1項に記載の情報処理装置。 9. The information processing apparatus according to any one of claims 1 to 8, wherein the output control unit causes the output device to output an image obtained by photographing a state of mastication of the subject person in time series together with the feedback information. 前記フィードバック情報は、前記対象者の咀嚼時に計測された当該対象者の咀嚼筋の活動を示す信号に基づいて生成された、前記対象者の咀嚼筋にかかる負荷の大きさに関する情報を含む、請求項1から9のいずれか1項に記載の情報処理装置。 wherein the feedback information includes information about the magnitude of the load applied to the masticatory muscles of the subject, which is generated based on a signal indicating activity of the masticatory muscles of the subject measured during mastication of the subject. Item 10. The information processing apparatus according to any one of Items 1 to 9. 前記フィードバック情報は、前記評価の結果に応じた、咀嚼対象物、咀嚼トレーニング用の機器、診療機関、および医師の少なくとも何れかを示す情報を含む、請求項1から10のいずれか1項に記載の情報処理装置。 11. The feedback information according to any one of claims 1 to 10, wherein the feedback information includes information indicating at least one of a mastication object, a mastication training device, a medical institution, and a doctor according to the result of the evaluation. information processing equipment. 前記評価部は、咀嚼時における口の縦方向および横方向の動きの大きさについての評価結果を目的変数とし、咀嚼の様子を時系列で撮影した画像または該画像から抽出された特徴量を説明変数として、当該目的変数と説明変数との関係を学習した評価モデルを用いて前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する、請求項1から11のいずれか1項に記載の情報処理装置。 The evaluation unit uses the results of evaluating the magnitude of vertical and horizontal movements of the mouth during mastication as objective variables, and describes images taken in chronological order of the state of mastication or feature values extracted from the images. 12. Any one of claims 1 to 11, wherein the vertical and horizontal movements of the mouth of the subject during mastication are evaluated using an evaluation model that has learned the relationship between the objective variable and the explanatory variable as variables. 1. The information processing apparatus according to 1. 対象者の咀嚼の様子を時系列で撮影する撮影装置と、
前記撮影装置が撮影する時系列の画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する情報処理装置と、
前記評価の結果に応じたフィードバック情報を出力する出力装置と、を含む咀嚼トレーニングシステム。
a photographing device for photographing the state of mastication of a subject in chronological order;
an information processing device that evaluates the magnitude of vertical and horizontal movements of the mouth of the subject during mastication based on time-series images captured by the imaging device;
and an output device that outputs feedback information according to the result of the evaluation.
1または複数の情報処理装置が実行する咀嚼評価方法であって、
対象者の咀嚼の様子を時系列で撮影した画像に基づき、前記対象者の咀嚼時における口の縦方向および横方向の動きの大きさについて評価する評価ステップと、
前記評価の結果に応じたフィードバック情報を出力装置に出力させる出力制御ステップと、を含む咀嚼評価方法。
A mastication evaluation method executed by one or more information processing devices,
an evaluation step of evaluating the vertical and horizontal movements of the mouth of the subject during mastication based on images of the subject's mastication taken in chronological order;
and an output control step of causing an output device to output feedback information according to the result of the evaluation.
請求項1に記載の情報処理装置としてコンピュータを機能させるための咀嚼トレーニングプログラムであって、前記評価部および前記出力制御部としてコンピュータを機能させるための咀嚼トレーニングプログラム。 A mastication training program for causing a computer to function as the information processing apparatus according to claim 1, wherein the mastication training program is for causing the computer to function as the evaluation unit and the output control unit. 請求項15に記載の咀嚼トレーニングプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium recording the mastication training program according to claim 15.
JP2021209569A 2021-12-23 2021-12-23 Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium Pending JP2023094218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021209569A JP2023094218A (en) 2021-12-23 2021-12-23 Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021209569A JP2023094218A (en) 2021-12-23 2021-12-23 Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium

Publications (1)

Publication Number Publication Date
JP2023094218A true JP2023094218A (en) 2023-07-05

Family

ID=87001616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021209569A Pending JP2023094218A (en) 2021-12-23 2021-12-23 Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium

Country Status (1)

Country Link
JP (1) JP2023094218A (en)

Similar Documents

Publication Publication Date Title
JP6968458B2 (en) Function improvement support system and function improvement support device
CN110765972B (en) Animal monitoring method and device, electronic equipment and storage medium
JP7113387B2 (en) Method of operating treatment and examination system, treatment and examination program of treatment and examination system, and its storage medium
US20180132780A1 (en) Systems and methods of monitoring and encouraging exercise in infants
KR102388337B1 (en) Service provision method of the application for temporomandibular joint disease improvement service
KR102619758B1 (en) A System for snoring analysis service providing snoring analysis and disease diagnosis prediction service based on snoring sound analysis
Jeong Feasibility study of Google's Teachable Machine in diagnosis of tooth-marked tongue
US20240046461A1 (en) System and method for determining sleep analysis based on a body image
KR102263535B1 (en) Method, apparatus and system for mornitoring eating
WO2016108225A1 (en) Systems and methods of monitoring and encouraging exercise in infants
JP2023094218A (en) Information processing device, mastication training system, mastication evaluation method, mastication training program, and recording medium
JP2022126288A (en) Mastication improvement proposal system, mastication improvement proposal program, and mastication improvement proposal method
JP2020035122A (en) Face momentum measurement device
WO2021132270A1 (en) Chewing support system
JP2023094220A (en) Information processing method, manufacturing method, information processing device, and control program
US20210236050A1 (en) Dynamic anatomic data collection and modeling during sleep
JP2023094219A (en) Evaluation system, information processing device, evaluation method, and control program
JP2020081088A (en) Information processing device, information processing system, and program
JP7243439B2 (en) DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR
JP7303595B1 (en) Program, information processing device, and information processing method
JP7355969B1 (en) Information processing system, information processing method, program
JP7395423B2 (en) Lifestyle monitoring device, system, program, and method capable of providing information related to meals, sleep, and exercise
US11769595B2 (en) Information processing apparatus and non-transitory computer readable medium
JP7286093B2 (en) Eating Related Proposal Device and Eating Related Proposing System
US20200279636A1 (en) System for patient training