JP7090245B2 - Jaw evaluation system and jaw evaluation method - Google Patents

Jaw evaluation system and jaw evaluation method Download PDF

Info

Publication number
JP7090245B2
JP7090245B2 JP2018185032A JP2018185032A JP7090245B2 JP 7090245 B2 JP7090245 B2 JP 7090245B2 JP 2018185032 A JP2018185032 A JP 2018185032A JP 2018185032 A JP2018185032 A JP 2018185032A JP 7090245 B2 JP7090245 B2 JP 7090245B2
Authority
JP
Japan
Prior art keywords
feature point
jaw
movement
evaluation
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018185032A
Other languages
Japanese (ja)
Other versions
JP2020054443A (en
Inventor
博之 佐野
千章 土井
尊士 荒木
紗和 興梠
大造 池田
雅二 片桐
啓一 佐々木
大貴 日原
一賢 泉田
哲 高橋
衆 纐纈
健 小坂
潤 相田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
NTT Docomo Inc
Original Assignee
Tohoku University NUC
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, NTT Docomo Inc filed Critical Tohoku University NUC
Priority to JP2018185032A priority Critical patent/JP7090245B2/en
Publication of JP2020054443A publication Critical patent/JP2020054443A/en
Application granted granted Critical
Publication of JP7090245B2 publication Critical patent/JP7090245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明の一側面は顎評価システムおよび顎評価方法に関する。 One aspect of the present invention relates to a jaw evaluation system and a jaw evaluation method.

人の顎の動きを評価するための手法が従来から知られている。例えば、特許文献1には、被検知部位の変動量を検知し咀嚼を検出する咀嚼検出装置が記載されている。この装置は、頭部における被検知部位の変動量に応じた検知信号を出力する検知手段と、その検知信号に基づく値と閾値とを比較することで、変動量の大きい検出区間と変動量の小さい検出区間とを判別する判別手段とを備える。 Techniques for evaluating the movement of a human jaw have been conventionally known. For example, Patent Document 1 describes a mastication detection device that detects a fluctuation amount of a detected portion and detects mastication. This device is a detection means that outputs a detection signal according to the fluctuation amount of the detected part in the head, and by comparing the value based on the detection signal with the threshold value, the detection section having a large fluctuation amount and the fluctuation amount can be compared. It is provided with a discriminating means for discriminating from a small detection section.

特開2017-127511号公報JP-A-2017-127511

上記の咀嚼検出装置は、被検知部位の変動量に応じた検知信号を出力する検知手段を備える専用の装置なので、顎の動きを手軽に評価できるとは言い難い。そこで、人の顎の動きを簡単に評価することが望まれている。 Since the above-mentioned mastication detection device is a dedicated device provided with a detection means that outputs a detection signal according to the amount of fluctuation of the detected portion, it cannot be said that the movement of the jaw can be easily evaluated. Therefore, it is desired to easily evaluate the movement of a person's jaw.

本発明の一側面に係る顎評価システムは、対象者の顔を撮像した画像データを取得する取得部と、画像データ中の顔の左側に少なくとも一つの左特徴点を設定し、画像データ中の顔の右側に少なくとも一つの右特徴点を設定する設定部と、少なくとも一つの左特徴点の動きと少なくとも一つの右特徴点の動きとに基づいて、対象者の顎の動きを評価する評価部とを備える。 In the jaw evaluation system according to one aspect of the present invention, an acquisition unit for acquiring image data obtained by capturing an image of a subject's face and at least one left feature point on the left side of the face in the image data are set in the image data. A setting unit that sets at least one right feature point on the right side of the face, and an evaluation unit that evaluates the movement of the subject's jaw based on the movement of at least one left feature point and the movement of at least one right feature point. And prepare.

本発明の一側面に係る顎評価方法は、コンピュータシステムにより実行される顎評価方法であって、対象者の顔を撮像した画像データを取得する取得ステップと、画像データ中の顔の左側に少なくとも一つの左特徴点を設定し、画像データ中の顔の右側に少なくとも一つの右特徴点を設定する設定ステップと、少なくとも一つの左特徴点の動きと少なくとも一つの右特徴点の動きとに基づいて、対象者の顎の動きを評価する評価ステップとを含む。 The jaw evaluation method according to one aspect of the present invention is a jaw evaluation method executed by a computer system, in which an acquisition step of acquiring image data obtained by capturing an image of a subject's face and at least on the left side of the face in the image data. Based on the setting step of setting one left feature point and setting at least one right feature point on the right side of the face in the image data, and the movement of at least one left feature point and the movement of at least one right feature point. It includes an evaluation step to evaluate the movement of the subject's jaw.

このような側面においては、対象者の顔を撮像した画像データを解析することでその対象者の顎の動きが評価される。評価のために画像データを用意すれば足りるので、人の顎の動きを簡単に評価することができる。 In such an aspect, the movement of the subject's jaw is evaluated by analyzing the image data obtained by capturing the image of the subject's face. Since it is sufficient to prepare image data for evaluation, the movement of a person's jaw can be easily evaluated.

本発明の一側面によれば、人の顎の動きを簡単に評価することができる。 According to one aspect of the present invention, the movement of a human jaw can be easily evaluated.

実施形態に係る顎評価システムの利用例を示す図である。It is a figure which shows the use example of the jaw evaluation system which concerns on embodiment. 実施形態に係る顎評価システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the jaw evaluation system which concerns on embodiment. 実施形態における顎評価システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the jaw evaluation system in an embodiment. 図3に示す、顔の動きを計測する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of measuring the movement of a face shown in FIG. 図3に示す、顎の動きを評価する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which evaluates the movement of a jaw shown in FIG. 図3に示す、顔の動きを計測する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of measuring the movement of a face shown in FIG. 画像データ中の顔に設定される複数の特徴点の一例を示す図である。It is a figure which shows an example of a plurality of feature points set on a face in image data. 図3に示す、顎の動きを評価する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which evaluates the movement of a jaw shown in FIG. 実施形態に係る顎評価システムに用いられるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the computer used for the jaw evaluation system which concerns on embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

実施形態に係る顎評価システム10は、人の顎の動きを評価するコンピュータシステムである。一例として、顎評価システム10は咀嚼時の顎の左右の動きを評価することができる。人の顎の左右の双方が常に同じ動きをするとは限らないので、顎の左右の動きを評価することは有効であり得る。例えば、顎評価システム10は人の偏咀嚼の度合いを評価することができる。偏咀嚼とは、食べ物を片側の歯だけで噛む癖のことをいう。「偏咀嚼の度合い」とは、偏咀嚼の傾向がどれくらい強いかを示す指標である。本開示では、顎の動きを評価する対象となる人を「対象者」という。「顎の動きを評価する」とは、顎の動きに関する情報を提示することを少なくとも意味し、例えば、顎の動きを示すデータの提示と、顎の動きに関する任意の判定結果の提示とを含む概念である。 The jaw evaluation system 10 according to the embodiment is a computer system that evaluates the movement of a human jaw. As an example, the jaw evaluation system 10 can evaluate the left-right movement of the jaw during chewing. Since both the left and right sides of a person's jaw do not always make the same movement, it may be useful to evaluate the left and right movements of the jaw. For example, the jaw evaluation system 10 can evaluate the degree of uneven chewing of a person. Unbalanced chewing is the habit of chewing food with only one tooth. The "degree of unbalanced mastication" is an index showing how strong the tendency of unbalanced mastication is. In this disclosure, a person to be evaluated for jaw movement is referred to as a "target person". "Evaluating jaw movement" means at least presenting information about jaw movement, including, for example, presenting data indicating jaw movement and presenting any determination result regarding jaw movement. It is a concept.

図1は、顎評価システム10の利用例を示す図である。顎評価システム10は、咀嚼している対象者80の顔を撮像した画像データを取得し、この画像データを解析することで該対象者80の顎の動きを評価する。具体的には、顎評価システム10は画像データ中の対象者80の顔に複数の特徴点を設定し、それらの特徴点の動きに基づいて顎の動きを評価する。評価結果は様々な目的で利用され得る。例えば、その評価結果は対象者80に直接的に提供されてもよいし、医療従事者、介護者などの専門家90に提供された上で該専門家90から対象者80にフィードバックされてもよい。画像データが複数の対象者80を撮像したものである場合には、顎評価システム10は各対象者80について顎の動きを評価してもよい。 FIG. 1 is a diagram showing a usage example of the jaw evaluation system 10. The jaw evaluation system 10 acquires image data obtained by capturing an image of the face of the subject 80 who is chewing, and evaluates the movement of the jaw of the subject 80 by analyzing the image data. Specifically, the jaw evaluation system 10 sets a plurality of feature points on the face of the subject 80 in the image data, and evaluates the movement of the jaw based on the movement of the feature points. The evaluation results can be used for various purposes. For example, the evaluation result may be provided directly to the subject 80, or may be provided to an expert 90 such as a medical worker or a caregiver and then fed back from the expert 90 to the subject 80. good. When the image data is an image of a plurality of subjects 80, the jaw evaluation system 10 may evaluate the movement of the jaw for each subject 80.

図2は、顎評価システム10の機能構成の一例を示す図である。顎評価システム10は機能要素として画像取得部11、特徴点設定部12、評価部13、および出力部14を備える。画像取得部11は、咀嚼している対象者80の顔を撮像した画像データを取得する機能要素である。画像データとは、コンピュータで処理されることによって視認可能となる画像を示すデータである。特徴点設定部12は、画像データ中の対象者80の顔に複数の特徴点を設定する機能要素である。特徴点とは、対象者80の顔の任意の箇所を特定するために画像データ上に設定される仮想的な点のことをいう。本開示では、いくつかの特徴点が、対象者80の顎の動きを特定するために用いられる。評価部13は、その複数の特徴点の動きに基づいて対象者80の顎の動きを評価する機能要素である。一例では、評価部13は計測部131、データベース132、および判定部133を備える。計測部131は個々の特徴点の動きを計測する機能要素である。データベース132はその計測結果を一時的にまたは永続的に記憶する機能要素である。判定部133は。その計測結果に基づいて、顎の動きに関する判定を実行する機能要素である。出力部14は、評価部13による評価結果を出力する機能要素である。 FIG. 2 is a diagram showing an example of the functional configuration of the jaw evaluation system 10. The jaw evaluation system 10 includes an image acquisition unit 11, a feature point setting unit 12, an evaluation unit 13, and an output unit 14 as functional elements. The image acquisition unit 11 is a functional element that acquires image data obtained by capturing an image of the face of the subject 80 who is chewing. The image data is data indicating an image that can be visually recognized by being processed by a computer. The feature point setting unit 12 is a functional element for setting a plurality of feature points on the face of the target person 80 in the image data. The feature point is a virtual point set on the image data in order to specify an arbitrary part of the face of the target person 80. In the present disclosure, some feature points are used to identify jaw movements of subject 80. The evaluation unit 13 is a functional element that evaluates the movement of the jaw of the subject 80 based on the movement of the plurality of feature points. In one example, the evaluation unit 13 includes a measurement unit 131, a database 132, and a determination unit 133. The measuring unit 131 is a functional element that measures the movement of each feature point. The database 132 is a functional element that temporarily or permanently stores the measurement result. Judgment unit 133. It is a functional element that executes a determination regarding jaw movement based on the measurement result. The output unit 14 is a functional element that outputs the evaluation result by the evaluation unit 13.

図2に示すように、対象者80の顔の画像データは撮像装置20により得られる。撮像装置20は、空間を撮像して画像データを生成する装置である。撮像装置20は顎評価システム10の一部として構築されてもよいし、顎評価システム10とは別の構成要素として構築されてもよい。撮像装置20の具体的な種類は限定されず、例えば、カメラでもよいし、カメラを備えるコンピュータでもよい。カメラを備えるコンピュータは、高機能携帯電話機(スマートフォン)、携帯電話機、ウェアラブル端末、ラップトップなどの携帯端末でもよいし、据置型のパーソナルコンピュータでもよい。撮像装置20は、対象者80の顔の動きを検出することが可能な程度の解像度の画像を生成できる機能を有する。一例では、画像データは撮像装置20から通信ネットワークまたは記録媒体を経由して顎評価システム10に送られる。通信ネットワークの例として移動体通信網、インターネット、およびWAN(Wide Area Network)が挙げられる。記録媒体の例としてSDメモリカードおよびUSBメモリが挙げられる。しかし、通信ネットワークおよび記録媒体はこれらに限定されるものではなく、任意の手法が採用されてよい。 As shown in FIG. 2, the image data of the face of the subject 80 is obtained by the image pickup apparatus 20. The image pickup device 20 is a device that captures an image of space and generates image data. The image pickup apparatus 20 may be constructed as a part of the jaw evaluation system 10 or may be constructed as a component different from the jaw evaluation system 10. The specific type of the image pickup apparatus 20 is not limited, and may be, for example, a camera or a computer including the camera. The computer provided with the camera may be a mobile terminal such as a high-performance mobile phone (smartphone), a mobile phone, a wearable terminal, or a laptop, or may be a stationary personal computer. The image pickup apparatus 20 has a function of being able to generate an image having a resolution capable of detecting the movement of the face of the subject 80. In one example, the image data is sent from the image pickup device 20 to the jaw evaluation system 10 via a communication network or a recording medium. Examples of communication networks include mobile communication networks, the Internet, and WAN (Wide Area Network). Examples of recording media include SD memory cards and USB memories. However, the communication network and the recording medium are not limited to these, and any method may be adopted.

図3~図5を参照しながら、顎評価システム10の動作の一例を説明する。図3は対象者80の顎の動きを評価する処理の一例を示すフローチャートである。図4は顔の動きを計測する処理の一例を示すフローチャートである。図5はその計測結果に基づいて顎の動きを評価する処理の一例を示すフローチャートである。 An example of the operation of the jaw evaluation system 10 will be described with reference to FIGS. 3 to 5. FIG. 3 is a flowchart showing an example of a process for evaluating the movement of the jaw of the subject 80. FIG. 4 is a flowchart showing an example of the process of measuring the movement of the face. FIG. 5 is a flowchart showing an example of a process of evaluating the movement of the jaw based on the measurement result.

図3は顎評価システム10の動作の全体を示す。ステップS1では、画像取得部11が画像データを取得する。対象者80の顎の動きを評価できる限り、画像の形式は限定されない。例えば、画像は動画であってもよいし、連写により得られた複数の静止画の集合でもよいし、動画から抽出された複数フレームの静止画の集合であってもよい。画像取得部11は動画から複数フレームの静止画を抽出してもよい。画像取得部11は撮像装置20から直接にまたは間接的に画像データを取得してよい。 FIG. 3 shows the entire operation of the jaw evaluation system 10. In step S1, the image acquisition unit 11 acquires image data. The format of the image is not limited as long as the movement of the jaw of the subject 80 can be evaluated. For example, the image may be a moving image, a set of a plurality of still images obtained by continuous shooting, or a set of a plurality of frames of still images extracted from the moving image. The image acquisition unit 11 may extract a plurality of frames of still images from the moving image. The image acquisition unit 11 may acquire image data directly or indirectly from the image pickup apparatus 20.

ステップS2では、特徴点設定部12が画像データ中の対象者80の顔に複数の特徴点を設定し、評価部13がその特徴点を用いて顔の動きを計測する。ステップS3では、評価部13がその計測結果に基づいて対象者80の顎の動きを評価する。ステップS2,S3の詳細は後述する。 In step S2, the feature point setting unit 12 sets a plurality of feature points on the face of the target person 80 in the image data, and the evaluation unit 13 measures the movement of the face using the feature points. In step S3, the evaluation unit 13 evaluates the jaw movement of the subject 80 based on the measurement result. Details of steps S2 and S3 will be described later.

ステップS4では、出力部14が評価結果を出力する。評価結果の表現方法は限定されない。例えば、評価結果は2段階以上のレベルで表現されてもよいし、任意の指標で表現されてもよいし、グラフまたはグラフィックを用いて表現されてもよい。評価結果の出力方法も限定されない。例えば、出力部14は評価結果を、所定のデータベースに格納してもよいし、ユーザ端末などの他のコンピュータに送信してもよいし、モニタ上に表示してもよい。顎評価システム10のユーザとは、顎評価システム10から出力される評価結果を利用する人をいう。ユーザは任意の人であり、例えば、医療従事者および介護者などの専門家90でもよいし、対象者80本人でもよいし、対象者80の家族でもよい。ユーザ端末はこのようなユーザによって用いられる任意の種類のコンピュータである。ユーザは評価結果を参照することで対象者80の顎の動きの傾向を確認することができ、さらに、対象者80を経過観察または治療すべきか否かを判断することもできる。 In step S4, the output unit 14 outputs the evaluation result. The expression method of the evaluation result is not limited. For example, the evaluation result may be expressed at two or more levels, may be expressed by an arbitrary index, or may be expressed by using a graph or a graphic. The output method of the evaluation result is also not limited. For example, the output unit 14 may store the evaluation result in a predetermined database, send it to another computer such as a user terminal, or display it on a monitor. The user of the jaw evaluation system 10 is a person who uses the evaluation result output from the jaw evaluation system 10. The user is an arbitrary person, and may be, for example, an expert 90 such as a medical worker and a caregiver, the subject 80 himself, or the family of the subject 80. The user terminal is any kind of computer used by such a user. The user can confirm the tendency of the jaw movement of the subject 80 by referring to the evaluation result, and can further determine whether or not the subject 80 should be followed up or treated.

図4はステップS2の一つの具体例を示す。ステップS201では、特徴点設定部12が、これから処理する一つのフレームを画像データから選択する。画像データが複数の静止画の集合である場合には、特徴点設定部12は一つの静止画を一つのフレームとして選択すればよい。 FIG. 4 shows one specific example of step S2. In step S201, the feature point setting unit 12 selects one frame to be processed from the image data. When the image data is a set of a plurality of still images, the feature point setting unit 12 may select one still image as one frame.

ステップS202では、特徴点設定部12がそのフレーム内に複数の特徴点を設定する。具体的には、特徴点設定部12は一つの基準特徴点と、少なくとも一つの左特徴点と、少なくとも一つの右特徴点とを設定する。左特徴点とは、対象者80の顔の左半分の中の任意の場所に設定される特徴点のことをいう。右特徴点とは、対象者80の顔の右半分の中の任意の場所に設定される特徴点のことをいう。基準特徴点とは、左特徴点および右特徴点の動きを計測するために設定される特徴点のことをいう。特徴点設定部12は任意の手法を用いて特徴点を設定してよい。例えば、特徴点設定部12は、事前に機械学習で作成された、顔の特徴点を抽出するための学習モデルにアクセスし、そのモデルにフレームを適用することで特徴点を設定してもよい。その学習モデルは、顎評価システム10の一部として構築されてもよいし、顎評価システム10とは別の構成要素として構築されてもよい。 In step S202, the feature point setting unit 12 sets a plurality of feature points in the frame. Specifically, the feature point setting unit 12 sets one reference feature point, at least one left feature point, and at least one right feature point. The left feature point is a feature point set at an arbitrary place in the left half of the face of the subject 80. The right feature point is a feature point set at an arbitrary place in the right half of the face of the subject 80. The reference feature point is a feature point set for measuring the movement of the left feature point and the right feature point. The feature point setting unit 12 may set the feature point by using an arbitrary method. For example, the feature point setting unit 12 may access a learning model for extracting facial feature points, which is created in advance by machine learning, and set feature points by applying a frame to the model. .. The learning model may be constructed as a part of the jaw evaluation system 10 or as a component separate from the jaw evaluation system 10.

ステップS203では、計測部131が左特徴点および右特徴点のそれぞれについて相対座標を算出する。この相対座標は、画像データで示される撮像範囲を平面と仮定して得られる2次元座標系において、基準特徴点の座標を原点(0,0)と仮定することで得られる座標である。 In step S203, the measuring unit 131 calculates the relative coordinates for each of the left feature point and the right feature point. These relative coordinates are coordinates obtained by assuming that the coordinates of the reference feature point are the origin (0,0) in the two-dimensional coordinate system obtained by assuming that the imaging range indicated by the image data is a plane.

ステップS204では、計測部131が、フレーム番号と各特徴点の相対座標との組合せを時系列データの一部としてデータベース132に格納する。フレーム番号とは、画像データ中でフレームを一意に特定するための識別子のことをいう。データベース132に格納される時系列データは、或る時間幅における対象者80の顎の左右両側の動きを示す。 In step S204, the measurement unit 131 stores the combination of the frame number and the relative coordinates of each feature point in the database 132 as a part of the time series data. The frame number is an identifier for uniquely identifying a frame in image data. The time-series data stored in the database 132 shows the movements of the left and right sides of the jaw of the subject 80 in a certain time width.

ステップS205で示されるように、顎評価システム10は画像データを構成するすべてのフレーム(一例ではすべての静止画)についてステップS201~S204の処理を実行する。すべてのフレームが処理されることで、対象者80の顎の動きを評価するための時系列データが得られる。 As shown in step S205, the jaw evaluation system 10 executes the processes of steps S201 to S204 for all frames (in one example, all still images) constituting the image data. By processing all the frames, time-series data for evaluating the jaw movement of the subject 80 is obtained.

図5はステップS3の一つの具体例を示す。ステップS301では、判定部133が、ステップS2で得られた時系列データをデータベース132から読み出し、その時系列データを平滑化する。判定部133は左特徴点および右特徴点のそれぞれについて、相対座標の履歴を平滑化することで、各特徴点の連続的な変化を求める。相対座標の履歴とは、時間の経過に伴う相対座標の変化のことをいう。 FIG. 5 shows one specific example of step S3. In step S301, the determination unit 133 reads the time-series data obtained in step S2 from the database 132 and smoothes the time-series data. The determination unit 133 obtains a continuous change of each feature point by smoothing the history of relative coordinates for each of the left feature point and the right feature point. The history of relative coordinates refers to changes in relative coordinates over time.

ステップS302では、判定部133が、平滑化された時系列データに基づいて、左特徴点および右特徴点のそれぞれについて変曲点の個数を算出する。この変曲点は、往復運動する顎の動きの方向が変わるタイミングに対応する。 In step S302, the determination unit 133 calculates the number of inflection points for each of the left feature point and the right feature point based on the smoothed time series data. This inflection corresponds to the timing at which the direction of reciprocating jaw movement changes.

ステップS303では、判定部133が、対象者80の顔の左右のそれぞれについて、変曲点の個数に基づいて咀嚼回数を算出する。判定部133は、左特徴点の変曲点の個数を2で割ることで顔の左側の咀嚼回数を求め、右特徴点の変曲点の個数を2で割ることで顔の右側の咀嚼回数を求める。 In step S303, the determination unit 133 calculates the number of chews for each of the left and right faces of the subject 80 based on the number of inflection points. The determination unit 133 obtains the number of chews on the left side of the face by dividing the number of inflection points of the left feature point by 2, and the number of chews on the right side of the face by dividing the number of inflection points of the right feature point by 2. Ask for.

ステップS304では、判定部133が左右の咀嚼回数に基づいて対象者80の顎の動きを評価する。例えば、判定部133は左右の咀嚼回数に基づいて対象者80の偏咀嚼の度合いを算出してもよい。偏咀嚼の度合いを求める方法は限定されない。例えば、判定部133は、左の咀嚼回数と右の咀嚼回数との比を偏咀嚼の度合いとして算出してもよい。一例として、左の咀嚼回数が15であり右の咀嚼回数が9であれば、判定部133は、偏咀嚼の度合いを15/9≒1.67または9/15=0.6と算出してもよい。判定部133は、算出した偏咀嚼の度合いをそのまま偏咀嚼の度合いの評価結果として設定してもよい。あるいは、判定部133は、算出した偏咀嚼の度合いを所与の基準と比較することで「偏咀嚼なし」「偏咀嚼の度合い=低」「偏咀嚼の度合い=中」「偏咀嚼の度合い=高」などのレベルを設定してもよい。 In step S304, the determination unit 133 evaluates the movement of the jaw of the subject 80 based on the number of chews on the left and right. For example, the determination unit 133 may calculate the degree of uneven chewing of the subject 80 based on the number of chewing on the left and right. The method for determining the degree of uneven chewing is not limited. For example, the determination unit 133 may calculate the ratio of the number of chews on the left and the number of chews on the right as the degree of uneven chewing. As an example, if the number of chews on the left is 15 and the number of chews on the right is 9, the determination unit 133 calculates the degree of uneven chewing as 15/9 ≈ 1.67 or 9/15 = 0.6. May be good. The determination unit 133 may set the calculated degree of uneven chewing as it is as an evaluation result of the degree of uneven chewing. Alternatively, the determination unit 133 compares the calculated degree of unbalanced chewing with a given standard to "no unbalanced chewing", "degree of unbalanced chewing = low", "degree of unbalanced chewing = medium", and "degree of unbalanced chewing =". You may set a level such as "high".

図6~図8を参照しながら、ステップS2,S3に関するより具体的な例を示す。図6は顔の動きを計測する処理の別の例を示すフローチャートである。図7は顔に設定される複数の特徴点の一例を示す図である。図8は計測結果に基づいて顎の動きを評価する処理の別の例を示すフローチャートである。 A more specific example of steps S2 and S3 will be shown with reference to FIGS. 6 to 8. FIG. 6 is a flowchart showing another example of the process of measuring the movement of the face. FIG. 7 is a diagram showing an example of a plurality of feature points set on the face. FIG. 8 is a flowchart showing another example of the process of evaluating the movement of the jaw based on the measurement result.

図6はステップS2の一例を示す。図6に示すステップS211~S216は、図4に示すステップS201~S205のより具体的な例であるということもできる。 FIG. 6 shows an example of step S2. It can be said that steps S211 to S216 shown in FIG. 6 are more specific examples of steps S201 to S205 shown in FIG.

ステップS211では、特徴点設定部12が、これから処理する一つのフレームを画像データから選択する。この処理はステップS201と同じである。 In step S211 the feature point setting unit 12 selects one frame to be processed from the image data. This process is the same as in step S201.

ステップS212では、特徴点設定部12が上顎に一つの基準特徴点を設定し、左頬に三つの左特徴点を設定し、右頬に三つの右特徴点を設定する。図7に示すように、特徴点設定部12はフレーム30に映った顔に対して多数の特徴点40を認識し得る。この例では、特徴点設定部12はこれらの特徴点40の中から、上顎に対応する一つの特徴点を基準特徴点41として設定し、左頬に対応する三つの特徴点を左特徴点42として設定し、右頬に対応する三つの特徴点を右特徴点43として設定する。例えば、特徴点設定部12は、上顎の中央またはその付近に基準特徴点41を設定し、左頬の輪郭上にまたは該輪郭付近に左特徴点42を設定し、右頬の輪郭上にまたは該輪郭付近に右特徴点43を設定する。 In step S212, the feature point setting unit 12 sets one reference feature point on the upper jaw, sets three left feature points on the left cheek, and sets three right feature points on the right cheek. As shown in FIG. 7, the feature point setting unit 12 can recognize a large number of feature points 40 for the face reflected in the frame 30. In this example, the feature point setting unit 12 sets one feature point corresponding to the upper jaw as a reference feature point 41 from among these feature points 40, and three feature points corresponding to the left cheek are set as the left feature point 42. And the three feature points corresponding to the right cheek are set as the right feature point 43. For example, the feature point setting unit 12 sets a reference feature point 41 at or near the center of the upper jaw and sets a left feature point 42 on or near the contour of the left cheek, and on or near the contour of the right cheek. The right feature point 43 is set near the contour.

ステップS213では、計測部131が、基準特徴点の座標を原点(0,0)として設定した上で、三つの左特徴点および三つの右特徴点のそれぞれについて相対座標を算出する。 In step S213, the measuring unit 131 sets the coordinates of the reference feature point as the origin (0,0), and then calculates the relative coordinates for each of the three left feature points and the three right feature points.

ステップS214では、計測部131が、それらの相対座標に基づいて左頬および右頬のそれぞれの平均座標を算出する。計測部131は、三つの左特徴点の相対座標の平均を左頬の平均座標として求め、三つの右特徴点の相対座標の平均を右頬の平均座標として求める。 In step S214, the measuring unit 131 calculates the average coordinates of the left cheek and the right cheek based on their relative coordinates. The measuring unit 131 obtains the average of the relative coordinates of the three left feature points as the average coordinates of the left cheek, and the average of the relative coordinates of the three right feature points as the average coordinates of the right cheek.

ステップS215では、計測部131が、フレーム番号と左右の平均座標との組合せを時系列データの一部としてデータベース132に格納する。 In step S215, the measurement unit 131 stores the combination of the frame number and the left and right average coordinates in the database 132 as a part of the time series data.

ステップS216で示されるように、顎評価システム10は画像データを構成するすべてのフレーム(一例ではすべての静止画)についてステップS211~S215の処理を実行する。すべてのフレームが処理されることで、対象者80の顎の動きを評価するための時系列データが得られる。 As shown in step S216, the jaw evaluation system 10 executes the processes of steps S211 to S215 for all the frames (in one example, all the still images) constituting the image data. By processing all the frames, time-series data for evaluating the jaw movement of the subject 80 is obtained.

その後、処理は図8に示すステップS3に移る。図8に示すステップS311~S314は、図5に示すステップS301~S304のより具体的な例であるということもできる。 After that, the process proceeds to step S3 shown in FIG. It can be said that steps S311 to S314 shown in FIG. 8 are more specific examples of steps S301 to S304 shown in FIG.

ステップS311では、判定部133が、ステップS2で得られた時系列データをデータベース132から読み出し、その時系列データを平滑化する。判定部133は左頬および右頬の平均座標のそれぞれについて座標の履歴を平滑化することで、左右の特徴点のそれぞれの連続的な変化を求める。 In step S311, the determination unit 133 reads the time-series data obtained in step S2 from the database 132 and smoothes the time-series data. The determination unit 133 smoothes the coordinate history for each of the average coordinates of the left cheek and the right cheek, and obtains continuous changes of the left and right feature points.

ステップS312では、判定部133が、平滑化された時系列データに基づいて、左特徴点に対応する左頬と右特徴点に対応する右頬とのそれぞれについて変曲点の個数を算出する。 In step S312, the determination unit 133 calculates the number of inflection points for each of the left cheek corresponding to the left feature point and the right cheek corresponding to the right feature point based on the smoothed time series data.

ステップS313では、判定部133が、左頬および右頬のそれぞれについて、変曲点の個数に基づいて咀嚼回数を算出する。判定部133は、左頬の変曲点の個数を2で割ることで顔の左側の咀嚼回数を求め、右頬の変曲点の個数を2で割ることで顔の右側の咀嚼回数を求める。 In step S313, the determination unit 133 calculates the number of chews for each of the left cheek and the right cheek based on the number of inflection points. The determination unit 133 obtains the number of chews on the left side of the face by dividing the number of inflection points on the left cheek by 2, and obtains the number of chews on the right side of the face by dividing the number of inflection points on the right cheek by 2. ..

ステップS314では、判定部133が左右の咀嚼回数に基づいて対象者80の顎の動きを評価する。この処理はステップS304と同じである。したがって、判定部133は左右の咀嚼回数に基づいて対象者80の偏咀嚼の度合いを算出してもよい。 In step S314, the determination unit 133 evaluates the movement of the jaw of the subject 80 based on the number of chews on the left and right. This process is the same as in step S304. Therefore, the determination unit 133 may calculate the degree of uneven chewing of the subject 80 based on the number of chewing on the left and right.

顎評価システム10は任意の手法で構築されてよい。例えば、顎評価システム10はクライアント-サーバ型のシステムとして構築されてもよい。あるいは、単体の装置またはコンピュータが顎評価システム10として機能してもよく、例えば、カメラを備える携帯端末が顎評価システム10として機能してもよい。 The jaw evaluation system 10 may be constructed by any method. For example, the jaw evaluation system 10 may be constructed as a client-server type system. Alternatively, a single device or computer may function as the jaw evaluation system 10, and for example, a mobile terminal equipped with a camera may function as the jaw evaluation system 10.

基準特徴点を設定することは必須ではない。顎評価システムは基準特徴点を用いることなく左特徴点および右特徴点の動きを計測してもよい。 It is not essential to set a reference feature point. The jaw evaluation system may measure the movement of the left and right feature points without using the reference feature points.

咀嚼回数の算出方法は限定されず、例えば、顎評価システムは変曲点を求めることなく咀嚼回数を算出してもよい。咀嚼回数の計算も必須ではなく、顎の動きを評価するために咀嚼回数とは異なる指標が用いられてもよい。例えば、顎評価システムは左特徴点および右特徴点のそれぞれの移動距離を算出し、顔の左右の移動距離を比較することで顎の動き(例えば、偏咀嚼の度合い)を評価してもよい。 The method of calculating the number of chews is not limited, and for example, the jaw evaluation system may calculate the number of chews without obtaining an inflection point. Calculation of the number of chews is not essential, and an index different from the number of chews may be used to evaluate the movement of the jaw. For example, the jaw evaluation system may calculate the movement distances of the left feature point and the right feature point, and evaluate the movement of the jaw (for example, the degree of uneven chewing) by comparing the movement distances of the left and right sides of the face. ..

上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or two or more physically or logically separated devices can be directly or indirectly (eg, for example). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but limited to these I can't. For example, a functional block (component) that makes transmission function is called a transmitting unit or a transmitter. In each case, as described above, the realization method is not particularly limited.

例えば、本開示の一実施の形態における顎評価システムは、本開示の無線通信方法の処理を行うコンピュータとして機能してもよい。図9は、顎評価システム10として機能するコンピュータ100のハードウェア構成の一例を示す図である。コンピュータ100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含んでもよい。 For example, the jaw evaluation system in one embodiment of the present disclosure may function as a computer that processes the wireless communication methods of the present disclosure. FIG. 9 is a diagram showing an example of a hardware configuration of a computer 100 that functions as a jaw evaluation system 10. The computer 100 may physically include a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。顎評価システム10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the jaw evaluation system 10 may be configured to include one or more of the devices shown in the figure, or may be configured to include some of the devices.

顎評価システム10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function in the jaw evaluation system 10, by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, the processor 1001 performs an operation, controls communication by the communication device 1004, and a memory. It is realized by controlling at least one of reading and writing of data in 1002 and storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic unit, a register, and the like.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、顎評価システム10の各機能要素は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。 Further, the processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, each functional element of the jaw evaluation system 10 may be realized by a control program stored in the memory 1002 and operating in the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to implement the wireless communication method according to the embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing at least one of the memory 1002 and the storage 1003.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. The communication device 1004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, and the like in order to realize at least one of FDD (Frequency Division Duplex) and Time Division Duplex (TDD). It may be composed of.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured by using a single bus, or may be configured by using a different bus for each device.

また、コンピュータ100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the computer 100 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The hardware may implement some or all of each functional block. For example, processor 1001 may be implemented using at least one of these hardware.

以上説明したように、本発明の一側面に係る顎評価システムは、対象者の顔を撮像した画像データを取得する取得部と、画像データ中の顔の左側に少なくとも一つの左特徴点を設定し、画像データ中の顔の右側に少なくとも一つの右特徴点を設定する設定部と、少なくとも一つの左特徴点の動きと少なくとも一つの右特徴点の動きとに基づいて、対象者の顎の動きを評価する評価部とを備える。 As described above, in the jaw evaluation system according to one aspect of the present invention, an acquisition unit for acquiring image data obtained by capturing an image of a subject's face and at least one left feature point are set on the left side of the face in the image data. Then, based on the setting unit that sets at least one right feature point on the right side of the face in the image data, and the movement of at least one left feature point and the movement of at least one right feature point, the subject's jaw It is equipped with an evaluation unit that evaluates movement.

本発明の一側面に係る顎評価方法は、コンピュータシステムにより実行される顎評価方法であって、対象者の顔を撮像した画像データを取得する取得ステップと、画像データ中の顔の左側に少なくとも一つの左特徴点を設定し、画像データ中の顔の右側に少なくとも一つの右特徴点を設定する設定ステップと、少なくとも一つの左特徴点の動きと少なくとも一つの右特徴点の動きとに基づいて、対象者の顎の動きを評価する評価ステップとを含む。 The jaw evaluation method according to one aspect of the present invention is a jaw evaluation method executed by a computer system, in which an acquisition step of acquiring image data obtained by capturing an image of a subject's face and at least on the left side of the face in the image data. Based on the setting step of setting one left feature point and setting at least one right feature point on the right side of the face in the image data, and the movement of at least one left feature point and the movement of at least one right feature point. It includes an evaluation step to evaluate the movement of the subject's jaw.

このような側面においては、対象者の顔を撮像した画像データを解析することでその対象者の顎の動きが評価される。評価のために画像データを用意すれば足りるので、人の顎の動きを簡単に評価することができる。また、顔の左右の双方に特徴点が設けられ、これらの特徴点の動きが参照されるので、顎の動きを詳細に評価することが可能になる。 In such an aspect, the movement of the subject's jaw is evaluated by analyzing the image data obtained by capturing the image of the subject's face. Since it is sufficient to prepare image data for evaluation, the movement of a person's jaw can be easily evaluated. Further, since feature points are provided on both the left and right sides of the face and the movements of these feature points are referred to, it becomes possible to evaluate the movement of the jaw in detail.

他の側面に係る顎評価システムでは、評価部が、少なくとも一つの左特徴点の動きに基づいて対象者の左の咀嚼回数を算出し、少なくとも一つの右特徴点の動きに基づいて対象者の右の咀嚼回数を算出し、左の咀嚼回数と右の咀嚼回数とに基づいて顎の動きを評価してもよい。左右の咀嚼回数を考慮することで、顎の動きを客観的に且つ簡単に評価することができる。 In the jaw evaluation system for other aspects, the evaluation unit calculates the number of left chews of the subject based on the movement of at least one left feature point, and the subject's movement is based on the movement of at least one right feature point. The number of chews on the right may be calculated and the movement of the jaw may be evaluated based on the number of chews on the left and the number of chews on the right. By considering the number of chews on the left and right, the movement of the jaw can be objectively and easily evaluated.

他の側面に係る顎評価システムでは、評価部が、少なくとも一つの左特徴点の座標の変化と少なくとも一つの右特徴点の座標の変化とを示す時系列データを生成し、時系列データに基づいて、少なくとも一つの左特徴点に対応する左変曲点の個数と、少なくとも一つの右特徴点に対応する右変曲点の個数とを算出し、左変曲点の個数に基づいて左の咀嚼回数を算出し、右変曲点の個数に基づいて右の咀嚼回数を算出してもよい。特徴点の座標の変化を示す時系列データから変曲点を求めることで顎の往復運動を捕捉することができ、その結果、咀嚼回数をより正確に求めることが可能になる。 In the jaw evaluation system relating to the other aspect, the evaluation unit generates time-series data showing the change in the coordinates of at least one left feature point and the change in the coordinates of at least one right feature point, and is based on the time-series data. Then, the number of left inflections corresponding to at least one left feature point and the number of right inflections corresponding to at least one right feature point are calculated, and the left is based on the number of left inflections. The number of chews may be calculated, and the number of chews on the right may be calculated based on the number of right inflection points. By finding the inflection point from the time-series data showing the change in the coordinates of the feature point, the reciprocating motion of the jaw can be captured, and as a result, the number of chews can be found more accurately.

他の側面に係る顎評価システムでは、設定部が、複数の左特徴点と複数の右特徴点とを設定し、評価部が、複数の左特徴点の平均座標の変化と複数の右特徴点の平均座標の変化とを示す時系列データから、左変曲点の個数と右変曲点の個数とを算出してもよい。顔の左右のそれぞれについて複数の特徴点の平均座標を求め、その平均座標の変化に基づいて変曲点を求めることで、顎の往復運動を正確に捕捉することができ、したがって、咀嚼回数をより正確に求めることが可能になる。 In the jaw evaluation system relating to other aspects, the setting unit sets a plurality of left feature points and a plurality of right feature points, and the evaluation unit changes the average coordinates of the plurality of left feature points and a plurality of right feature points. The number of left inflection points and the number of right inflection points may be calculated from the time-series data indicating the change in the average coordinates of. By finding the average coordinates of multiple feature points on each of the left and right sides of the face and finding the inflection points based on the changes in the average coordinates, the reciprocating motion of the jaw can be accurately captured, and therefore the number of chews can be determined. It will be possible to obtain more accurately.

他の側面に係る顎評価システムでは、設定部が、基準特徴点をさらに設定し、評価部が、基準特徴点を座標系の原点として設定して、少なくとも一つの左特徴点の相対座標の変化と少なくとも一つの右特徴点の相対座標とを算出し、これらの相対座標の変化を示す時系列データを生成してもよい。基準特徴点を導入し、左特徴点および右特徴点の位置を該基準特徴点からの相対座標で表すことで、時間の経過に伴う左特徴点および右特徴点の位置の変化をより簡単に求めることができる。 In the jaw evaluation system relating to the other aspect, the setting unit further sets the reference feature point, and the evaluation unit sets the reference feature point as the origin of the coordinate system to change the relative coordinates of at least one left feature point. And the relative coordinates of at least one right feature point may be calculated to generate time-series data indicating changes in these relative coordinates. By introducing a reference feature point and expressing the positions of the left feature point and the right feature point in relative coordinates from the reference feature point, it is easier to change the positions of the left feature point and the right feature point over time. You can ask.

他の側面に係る顎評価システムでは、設定部が、対象者の上顎に対応する位置に基準特徴点を設定し、対象者の左頬に対応する位置に少なくとも一つの左特徴点を設定し、対象者の右頬に対応する位置に少なくとも一つの右特徴点を設定してもよい。上顎は咀嚼時にほとんど動かない一方で、左頬および右頬は咀嚼時の動きが大きい。したがって、これらの箇所に基準点を設定することで、顎の動きをより正確に捕捉することができる。 In the jaw evaluation system relating to other aspects, the setting unit sets a reference feature point at a position corresponding to the upper jaw of the subject, and sets at least one left feature point at a position corresponding to the left cheek of the subject. At least one right feature point may be set at a position corresponding to the subject's right cheek. The upper jaw hardly moves during mastication, while the left and right cheeks move significantly during mastication. Therefore, by setting reference points at these points, the movement of the jaw can be captured more accurately.

他の側面に係る顎評価システムでは、顎の動きの評価が、対象者の偏咀嚼の度合いを評価することを含んでもよい。この場合には、画像データを用意しさえすれば、対象者の偏咀嚼の度合いを評価することができる。 In the jaw evaluation system according to other aspects, the evaluation of jaw movement may include assessing the degree of uneven chewing of the subject. In this case, the degree of uneven chewing of the subject can be evaluated as long as the image data is prepared.

他の側面に係る顎評価システムでは、評価部が、対象者の左の咀嚼回数と対象者の右の咀嚼回数との比を偏咀嚼の度合いとして算出してもよい。左右の咀嚼回数の比を計算することで、偏咀嚼の度合いを客観的に且つわかりやすく示すことができる。 In the jaw evaluation system according to the other aspect, the evaluation unit may calculate the ratio of the number of chews on the left side of the subject and the number of times of chewing on the right side of the subject as the degree of uneven chewing. By calculating the ratio of the number of chewing times on the left and right, the degree of uneven chewing can be shown objectively and in an easy-to-understand manner.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as amendments and modifications without departing from the spirit and scope of the present disclosure as determined by the description of the scope of claims. Therefore, the description of this disclosure is for purposes of illustration and does not have any limiting meaning to this disclosure.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the embodiments / embodiments described in the present disclosure, and may be performed by other methods. For example, information notification includes physical layer signaling (eg, DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (eg, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), LTE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.

本開示において基地局によって行われるとした特定動作は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つ又は複数のネットワークノード(network nodes)からなるネットワークにおいて、端末との通信のために行われる様々な動作は、基地局及び基地局以外の他のネットワークノード(例えば、MME又はS-GWなどが考えられるが、これらに限られない)の少なくとも1つによって行われ得ることは明らかである。上記において基地局以外の他のネットワークノードが1つである場合を例示したが、複数の他のネットワークノードの組み合わせ(例えば、MME及びS-GW)であってもよい。 In some cases, the specific operation performed by the base station in the present disclosure may be performed by its upper node. In a network consisting of one or more network nodes having a base station, various operations performed for communication with the terminal are the base station and other network nodes other than the base station (eg, MME or). It is clear that it can be done by at least one of (but not limited to, S-GW, etc.). Although the case where there is one network node other than the base station is illustrated above, it may be a combination of a plurality of other network nodes (for example, MME and S-GW).

情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory), or may be managed by using a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether called software, firmware, middleware, microcode, hardware description language, or other names, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, the software may use at least one of wired technology (coaxial cable, fiber optic cable, twist pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.) to create a website. When transmitted from a server or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, at least one of a channel and a symbol may be a signal (signaling). Also, the signal may be a message. Further, the component carrier (CC: Component Carrier) may be referred to as a carrier frequency, a cell, a frequency carrier, or the like.

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 Further, the information, parameters, etc. described in the present disclosure may be expressed using an absolute value, a relative value from a predetermined value, or another corresponding information. It may be represented. For example, the radio resource may be indexed.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the parameters mentioned above are not limited in any respect. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed in this disclosure. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements can be identified by any suitable name, the various names assigned to these various channels and information elements are in any respect limited names. is not.

本開示においては、「基地局(BS:Base Station)」、「無線基地局」、「固定局(fixed station)」、「NodeB」、「eNodeB(eNB)」、「gNodeB(gNB)」、「アクセスポイント(access point)」、「送信ポイント(transmission point)」、「受信ポイント(reception point)、「送受信ポイント(transmission/reception point)」、「セル」、「セクタ」、「セルグループ」、「キャリア」、「コンポーネントキャリア」などの用語は、互換的に使用され得る。基地局は、マクロセル、スモールセル、フェムトセル、ピコセルなどの用語で呼ばれる場合もある。 In the present disclosure, "Base Station (BS)", "Wireless Base Station", "Fixed Station", "NodeB", "eNodeB (eNB)", "gNodeB (gNB)", " "Access point", "transmission point", "reception point", "transmission / reception point", "cell", "sector", "cell group", "cell group" Terms such as "carrier" and "component carrier" may be used interchangeably. Base stations are sometimes referred to by terms such as macrocells, small cells, femtocells, and picocells.

基地局は、1つ又は複数(例えば、3つ)のセルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局(RRH:Remote Radio Head)によって通信サービスを提供することもできる。「セル」又は「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局及び基地局サブシステムの少なくとも一方のカバレッジエリアの一部又は全体を指す。 The base station can accommodate one or more (eg, three) cells. When a base station accommodates multiple cells, the entire base station coverage area can be divided into multiple smaller areas, each smaller area being a base station subsystem (eg, a small indoor base station (RRH:)). Communication services can also be provided by (Remote Radio Head). The term "cell" or "sector" is used in this coverage as part or all of the coverage area of at least one of the base stations and base station subsystems that provide communication services. Point to.

本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。 In the present disclosure, terms such as "mobile station (MS)", "user terminal", "user equipment (UE)", and "terminal" may be used interchangeably. ..

移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。 Mobile stations can be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.

基地局及び移動局の少なくとも一方は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、基地局及び移動局の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、基地局及び移動局の少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、基地局及び移動局の少なくとも一方は、センサなどのIoT(Internet of Things)機器であってもよい。 At least one of a base station and a mobile station may be referred to as a transmitting device, a receiving device, a communication device, or the like. At least one of the base station and the mobile station may be a device mounted on the mobile body, a mobile body itself, or the like. The moving body may be a vehicle (eg, car, airplane, etc.), an unmanned moving body (eg, drone, self-driving car, etc.), or a robot (manned or unmanned). ) May be. It should be noted that at least one of the base station and the mobile station includes a device that does not necessarily move during communication operation. For example, at least one of a base station and a mobile station may be an IoT (Internet of Things) device such as a sensor.

また、本開示における基地局は、ユーザ端末で読み替えてもよい。例えば、基地局及びユーザ端末間の通信を、複数のユーザ端末間の通信(例えば、D2D(Device-to-Device)、V2X(Vehicle-to-Everything)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、基地局が有する機能をユーザ端末が有する構成としてもよい。また、「上り」及び「下り」などの文言は、端末間通信に対応する文言(例えば、「サイド(side)」)で読み替えられてもよい。例えば、上りチャネル、下りチャネルなどは、サイドチャネルで読み替えられてもよい。 Further, the base station in the present disclosure may be read by the user terminal. For example, the communication between the base station and the user terminal is replaced with the communication between a plurality of user terminals (for example, it may be called D2D (Device-to-Device), V2X (Vehicle-to-Everything), etc.). Each aspect / embodiment of the present disclosure may be applied to the configuration. In this case, the user terminal may have the function of the base station. Further, words such as "up" and "down" may be read as words corresponding to communication between terminals (for example, "side"). For example, the upstream channel, the downstream channel, and the like may be read as a side channel.

同様に、本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、ユーザ端末が有する機能を基地局が有する構成としてもよい。 Similarly, the user terminal in the present disclosure may be read as a base station. In this case, the base station may have the functions of the user terminal.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up, search, inquiry. It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. It may include (for example, accessing data in memory) to be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and as some non-limiting and non-comprehensive examples, the radio frequency domain. Can be considered to be "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and light (both visible and invisible) regions.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first" and "second" as used in this disclosure does not generally limit the quantity or order of those elements. These designations can be used in the present disclosure as a convenient way to distinguish between two or more elements. Therefore, references to the first and second elements do not mean that only two elements can be adopted, or that the first element must somehow precede the second element.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as inclusive as the term "comprising". Is intended. Moreover, the term "or" used in the present disclosure is intended not to be an exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".

10…顎評価システム、11…画像取得部、12…特徴点設定部、13…評価部、131…計測部、132…データベース、133…判定部、14…出力部、20…撮像装置、30…フレーム(画像データ)、41…基準特徴点、42…左特徴点、43…右特徴点、80…対象者。 10 ... jaw evaluation system, 11 ... image acquisition unit, 12 ... feature point setting unit, 13 ... evaluation unit, 131 ... measurement unit, 132 ... database, 133 ... judgment unit, 14 ... output unit, 20 ... image pickup device, 30 ... Frame (image data), 41 ... reference feature point, 42 ... left feature point, 43 ... right feature point, 80 ... subject.

Claims (7)

対象者の顔を撮像した画像データを取得する取得部と、
前記画像データ中の前記顔の左側に少なくとも一つの左特徴点を設定し、前記画像データ中の前記顔の右側に少なくとも一つの右特徴点を設定する設定部と、
前記少なくとも一つの左特徴点の動きと前記少なくとも一つの右特徴点の動きとに基づいて、前記対象者の顎の動きを評価する評価部と
を備え
前記評価部が、
前記少なくとも一つの左特徴点の座標の変化と前記少なくとも一つの右特徴点の座標の変化とを示す時系列データを生成し、
前記時系列データに基づいて、前記少なくとも一つの左特徴点に対応する左変曲点の個数と、前記少なくとも一つの右特徴点に対応する右変曲点の個数とを算出し、
前記左変曲点の個数に基づいて前記左の咀嚼回数を算出し、
前記右変曲点の個数に基づいて前記右の咀嚼回数を算出し、
前記左の咀嚼回数と前記右の咀嚼回数とに基づいて前記顎の動きを評価する、
顎評価システム。
An acquisition unit that acquires image data of the subject's face,
A setting unit for setting at least one left feature point on the left side of the face in the image data and setting at least one right feature point on the right side of the face in the image data.
An evaluation unit for evaluating the movement of the jaw of the subject based on the movement of the at least one left feature point and the movement of the at least one right feature point is provided .
The evaluation unit
Time-series data showing the change in the coordinates of the at least one left feature point and the change in the coordinates of the at least one right feature point is generated.
Based on the time series data, the number of left inflection points corresponding to the at least one left feature point and the number of right inflection points corresponding to the at least one right feature point are calculated.
The number of chews on the left is calculated based on the number of left inflection points.
The number of chews on the right is calculated based on the number of inflection points on the right.
The movement of the jaw is evaluated based on the number of chews on the left and the number of chews on the right.
Jaw rating system.
前記設定部が、複数の前記左特徴点と複数の前記右特徴点とを設定し、
前記評価部が、前記複数の左特徴点の平均座標の変化と前記複数の右特徴点の平均座標の変化とを示す前記時系列データから、前記左変曲点の個数と前記右変曲点の個数とを算出する、
請求項に記載の顎評価システム。
The setting unit sets a plurality of the left feature points and a plurality of the right feature points.
From the time-series data showing the change in the average coordinates of the plurality of left feature points and the change in the average coordinates of the plurality of right feature points, the evaluation unit determines the number of the left inflection points and the right inflection points. Calculate the number of
The jaw evaluation system according to claim 1 .
前記設定部が、基準特徴点をさらに設定し、
前記評価部が、前記基準特徴点を座標系の原点として設定して、前記少なくとも一つの左特徴点の相対座標の変化と前記少なくとも一つの右特徴点の相対座標とを算出し、これらの相対座標の変化を示す前記時系列データを生成する、
請求項またはに記載の顎評価システム。
The setting unit further sets the reference feature point,
The evaluation unit sets the reference feature point as the origin of the coordinate system, calculates the change in the relative coordinates of the at least one left feature point and the relative coordinates of the at least one right feature point, and makes them relative to each other. Generate the time series data showing the change of coordinates,
The jaw evaluation system according to claim 1 or 2 .
前記設定部が、
前記対象者の上顎に対応する位置に前記基準特徴点を設定し、
前記対象者の左頬に対応する位置に前記少なくとも一つの左特徴点を設定し、
前記対象者の右頬に対応する位置に前記少なくとも一つの右特徴点を設定する、
請求項に記載の顎評価システム。
The setting unit
The reference feature point is set at a position corresponding to the upper jaw of the subject, and the reference feature point is set.
At least one left feature point is set at a position corresponding to the left cheek of the subject.
At least one right feature point is set at a position corresponding to the right cheek of the subject.
The jaw evaluation system according to claim 3 .
前記顎の動きの評価が、前記対象者の偏咀嚼の度合いを評価することを含む、
請求項1~のいずれか一項に記載の顎評価システム。
The evaluation of the jaw movement includes evaluating the degree of uneven chewing of the subject.
The jaw evaluation system according to any one of claims 1 to 4 .
前記評価部が、前記対象者の左の咀嚼回数と前記対象者の右の咀嚼回数との比を前記偏咀嚼の度合いとして算出する、
請求項に記載の顎評価システム。
The evaluation unit calculates the ratio of the number of chews on the left side of the subject and the number of chews on the right side of the subject as the degree of uneven chewing.
The jaw evaluation system according to claim 5 .
コンピュータシステムにより実行される顎評価方法であって、
対象者の顔を撮像した画像データを取得する取得ステップと、
前記画像データ中の前記顔の左側に少なくとも一つの左特徴点を設定し、前記画像データ中の前記顔の右側に少なくとも一つの右特徴点を設定する設定ステップと、
前記少なくとも一つの左特徴点の動きと前記少なくとも一つの右特徴点の動きとに基づいて、前記対象者の顎の動きを評価する評価ステップと
を含み、
前記評価ステップにおいては、
前記少なくとも一つの左特徴点の座標の変化と前記少なくとも一つの右特徴点の座標の変化とを示す時系列データを生成し、
前記時系列データに基づいて、前記少なくとも一つの左特徴点に対応する左変曲点の個数と、前記少なくとも一つの右特徴点に対応する右変曲点の個数とを算出し、
前記左変曲点の個数に基づいて前記左の咀嚼回数を算出し、
前記右変曲点の個数に基づいて前記右の咀嚼回数を算出し、
前記左の咀嚼回数と前記右の咀嚼回数とに基づいて前記顎の動きを評価する、
顎評価方法。
A jaw evaluation method performed by a computer system,
The acquisition step to acquire the image data of the subject's face,
A setting step of setting at least one left feature point on the left side of the face in the image data and setting at least one right feature point on the right side of the face in the image data.
It comprises an evaluation step of evaluating the movement of the subject's jaw based on the movement of the at least one left feature point and the movement of the at least one right feature point.
In the evaluation step,
Time-series data showing the change in the coordinates of the at least one left feature point and the change in the coordinates of the at least one right feature point is generated.
Based on the time series data, the number of left inflection points corresponding to the at least one left feature point and the number of right inflection points corresponding to the at least one right feature point are calculated.
The number of chews on the left is calculated based on the number of left inflection points.
The number of chews on the right is calculated based on the number of inflection points on the right.
The movement of the jaw is evaluated based on the number of chews on the left and the number of chews on the right.
Jaw evaluation method.
JP2018185032A 2018-09-28 2018-09-28 Jaw evaluation system and jaw evaluation method Active JP7090245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185032A JP7090245B2 (en) 2018-09-28 2018-09-28 Jaw evaluation system and jaw evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185032A JP7090245B2 (en) 2018-09-28 2018-09-28 Jaw evaluation system and jaw evaluation method

Publications (2)

Publication Number Publication Date
JP2020054443A JP2020054443A (en) 2020-04-09
JP7090245B2 true JP7090245B2 (en) 2022-06-24

Family

ID=70105574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185032A Active JP7090245B2 (en) 2018-09-28 2018-09-28 Jaw evaluation system and jaw evaluation method

Country Status (1)

Country Link
JP (1) JP7090245B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143088A (en) 1999-11-16 2001-05-25 Atr Ningen Joho Tsushin Kenkyusho:Kk Method and device for measuring surface movement of object, and computer-readable recording medium with program for operating computer storing program for operating computer for realizing the method stored thereon
JP2002150291A (en) 2000-11-06 2002-05-24 Nagoya Industrial Science Research Inst Moving point locus measuring method, moving point locus measuring device, image processing method, image processing device, computer-readable recording medium with moving point locus measuring program recorded thereon, and moving point locus measuring program
JP2004242902A (en) 2003-02-14 2004-09-02 Masafumi Matsumura Mastication frequency detector and program therefor
JP2010122897A (en) 2008-11-19 2010-06-03 Denso Corp Drowsiness determination apparatus, and program
JP2010142285A (en) 2008-12-16 2010-07-01 Yoshida Dental Mfg Co Ltd System and apparatus for tracking lower anterior tooth part movement and temporomandibular joint noise analyzer
JP2010161783A (en) 2010-02-10 2010-07-22 Toshiba Corp Information processing apparatus
JP2012120832A (en) 2010-11-17 2012-06-28 Kyushu Institute Of Technology Device for detecting chewing motion

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143088A (en) 1999-11-16 2001-05-25 Atr Ningen Joho Tsushin Kenkyusho:Kk Method and device for measuring surface movement of object, and computer-readable recording medium with program for operating computer storing program for operating computer for realizing the method stored thereon
JP2002150291A (en) 2000-11-06 2002-05-24 Nagoya Industrial Science Research Inst Moving point locus measuring method, moving point locus measuring device, image processing method, image processing device, computer-readable recording medium with moving point locus measuring program recorded thereon, and moving point locus measuring program
JP2004242902A (en) 2003-02-14 2004-09-02 Masafumi Matsumura Mastication frequency detector and program therefor
JP2010122897A (en) 2008-11-19 2010-06-03 Denso Corp Drowsiness determination apparatus, and program
JP2010142285A (en) 2008-12-16 2010-07-01 Yoshida Dental Mfg Co Ltd System and apparatus for tracking lower anterior tooth part movement and temporomandibular joint noise analyzer
JP2010161783A (en) 2010-02-10 2010-07-22 Toshiba Corp Information processing apparatus
JP2012120832A (en) 2010-11-17 2012-06-28 Kyushu Institute Of Technology Device for detecting chewing motion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
正月 凌介 RYOSUKE SHOGETSU,センサを用いた偏咀嚼防止及び咀嚼回数促進の検討 Consideration to Prevent Bias Chews and Increse Chewing Count with Sensor,映像情報メディア学会技術報告 Vol.42 No.17 ITE Technical Report,日本,(一社)映像情報メディア学会 The Institute of Image Information and Television Engineers,2018年06月07日,第48巻 第21号,第133頁左欄第1行-第138頁左欄第14行

Also Published As

Publication number Publication date
JP2020054443A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7420593B2 (en) Terminal and base station
US20220349102A1 (en) Intelligent washing machine
KR102317051B1 (en) Computer readable medium and electronic apparatus for performing wireless communication
US11805393B2 (en) Method for aggregation and calculation of a population distribution of devices over a predetermined geographic area
JP7092872B2 (en) User device
JP7038199B2 (en) Terminal and synchronization signal detection method
US20210405758A1 (en) Method of controlling augmented reality electronic device
JP7090245B2 (en) Jaw evaluation system and jaw evaluation method
US11615760B2 (en) Controlling of device based on user recognition utilizing vision and speech features
US20190334552A1 (en) Encoding method and encoder
CN112335286A (en) Communication device and communication method
EP3745804A1 (en) User device and preamble transmission method
CN112514443A (en) User device, base station device, and measurement method
CN111567114A (en) User device
US20220187895A1 (en) Information processing device
JPWO2019064604A1 (en) Base station and user equipment
US11374719B2 (en) Method for data detection, and user equipment
CN111972008B (en) Terminal and synchronization signal detection method
JP7102424B2 (en) Base station, measurement operation control method and wireless communication system
TW201741856A (en) Gesture control system and method
WO2021064967A1 (en) Terminal and base station device
JP7122943B2 (en) LEARNING DATA GENERATOR AND LEARNING DATA GENERATION METHOD
JP2022069880A (en) Data generation system
JP7462534B2 (en) Image Recording System
JP6948221B2 (en) Home rate estimation device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220602

R150 Certificate of patent or registration of utility model

Ref document number: 7090245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150