JP5950256B2 - Feeding movement measuring system and measuring method - Google Patents

Feeding movement measuring system and measuring method Download PDF

Info

Publication number
JP5950256B2
JP5950256B2 JP2012146062A JP2012146062A JP5950256B2 JP 5950256 B2 JP5950256 B2 JP 5950256B2 JP 2012146062 A JP2012146062 A JP 2012146062A JP 2012146062 A JP2012146062 A JP 2012146062A JP 5950256 B2 JP5950256 B2 JP 5950256B2
Authority
JP
Japan
Prior art keywords
template
normal vector
surface normal
vector data
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012146062A
Other languages
Japanese (ja)
Other versions
JP2013031650A (en
Inventor
邦人 加藤
邦人 加藤
謙介 飛谷
謙介 飛谷
彰太 森川
彰太 森川
絵美 村
絵美 村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gifu University
Suntory Holdings Ltd
Original Assignee
Gifu University
Suntory Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu University, Suntory Holdings Ltd filed Critical Gifu University
Priority to JP2012146062A priority Critical patent/JP5950256B2/en
Publication of JP2013031650A publication Critical patent/JP2013031650A/en
Application granted granted Critical
Publication of JP5950256B2 publication Critical patent/JP5950256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

この発明は、人が飲食品や医薬品等を飲み込む際の摂食運動を測定する摂食運動測定システムおよび測定方法に関するものである。   The present invention relates to an eating exercise measuring system and a measuring method for measuring an eating exercise when a person swallows food and drinks, medicines and the like.

飲食品が喉を通るときの感覚である「のどごし感」は、飲食品の「おいしさ」を表す指標として重要な因子である。そこで、飲食品の開発過程では、「飲み込み易さ」、「飲みごたえ感」等の感覚(のどごし感)を評価するため、被験者にアンケート等を行って評価を得る官能検査が広く実施されている。しかしながら、この官能検査では、被験者の感覚や好みといった主観的な感性が大きく影響するため、人が「物を飲み込む感覚」を客観的に評価することは難しい。また、経口摂取される医薬品の開発段階においても、錠剤等の「飲み込み易さ」を評価して、負担の少ない形状や大きさを決定する際の参考とされる。しかしながら、前述したように、アンケート等による官能検査では、被験者の主観が大きく影響するため客観的な評価を得られない。そこで、飲食品や経口摂取される医薬品の「飲み込み易さ」等、物を飲み込む感覚を客観的に評価するため、飲食時に表出される嚥下運動を測定する方法が各種提案されている。従来、嚥下運動は、嚥下造影検査(videofluoroscopic examination of swallowing:VF)と呼ばれる特殊なレントゲン撮影により測定されていた。しかしながら、この検査方法では、試験回数に比例して被験者の被曝量が多くなるため、被験者の身体的負担が増大する危険がある。また、試験対象品に造影剤を混入させる必要があり、試験対象品の味や性状に影響を与えてしまうため、正確な評価は困難であった。   The “feeling of thirst” that is a sensation when the food or drink passes through the throat is an important factor as an index representing the “taste” of the food or drink. Therefore, in the process of developing foods and drinks, sensory tests are widely conducted to obtain evaluations by conducting questionnaires etc. on subjects in order to evaluate feelings (feeling of drinking) such as “ease of swallowing” and “feeling of drinking” . However, in this sensory test, it is difficult to objectively evaluate a “sense of swallowing a thing” because a subjective sensitivity such as a subject's sense and preference greatly affects. Also, in the development stage of orally ingested pharmaceuticals, it is used as a reference when evaluating the ease of swallowing of tablets, etc., and determining the shape and size with less burden. However, as described above, in the sensory test using a questionnaire or the like, an objective evaluation cannot be obtained because the subjectivity of the subject greatly affects. Therefore, in order to objectively evaluate the sense of swallowing things such as “ease of swallowing” of foods and drinks and orally ingested drugs, various methods for measuring swallowing movements expressed during eating and drinking have been proposed. Traditionally, swallowing movements have been measured by special X-ray imaging called videofluoroscopic examination of swallowing (VF). However, in this inspection method, since the exposure dose of the subject increases in proportion to the number of tests, there is a risk that the physical burden on the subject increases. In addition, it is necessary to mix a contrast medium into the test target product, which affects the taste and properties of the test target product, so that accurate evaluation is difficult.

そこで、非侵襲な嚥下運動の計測方法として、例えば、特許文献1には、複数の圧力センサーを被験者の前頸部に貼り付け、該圧力センサーが測定した前頸部の圧力変化に基づいて嚥下運動を測定する方法が開示されている。また、特許文献2には、被験者の喉表面に電極を貼り付けて喉の筋肉の表面筋電位の波形データを取得し、該波形データを周波数解析することで嚥下運動を測定する方法が提案されている。   Therefore, as a non-invasive measurement method of swallowing movement, for example, in Patent Document 1, a plurality of pressure sensors are attached to the front neck of a subject, and swallowing is performed based on the pressure change of the front neck measured by the pressure sensor. A method for measuring movement is disclosed. Patent Document 2 proposes a method for measuring swallowing movement by attaching an electrode to the throat surface of a subject to acquire waveform data of the surface myoelectric potential of the throat muscle and performing frequency analysis on the waveform data. ing.

特開2009−160459号公報JP 2009-160459 A 特開2009−39516号公報JP 2009-39516 A

しかしながら、嚥下運動の測定時に、センサーや電極等の測定具を被験者に装着すると、被験者への負担が大きくなる難点がある。また、被験者は、測定具を喉周りに装着した極めて不自然な状態で飲食品や医薬品を飲み込むため、「物を飲み込む感覚」を適正に評価することができない。更に、測定された値が嚥下運動に基づくものであるのか、被験者の呼吸等の他の運動に起因するものであるのかを区別し、判断することが困難となる欠点を有している。   However, when a measurement tool such as a sensor or an electrode is attached to the subject during measurement of swallowing movement, there is a problem that the burden on the subject increases. In addition, since the test subject swallows food and drinks and medicines in a very unnatural state with the measuring device worn around the throat, the “sense of swallowing things” cannot be properly evaluated. Furthermore, there is a drawback that it is difficult to distinguish and judge whether the measured value is based on swallowing motion or due to other motion such as breathing of the subject.

また、飲食品の「おいしさ」を表す指標として、このような物を飲み込む感覚の他にも、物を噛む感覚も重要な因子の1つである。このため、飲食品の開発過程では、「噛み切り易さ」、「噛み応え感」等の咀嚼から得られる感覚についても、被験者を対象としたアンケート等の官能検査が実施されている。しかしながら、アンケート等による官能検査では、客観的な評価を得ることが困難であることから、前述した嚥下運動と同様に、圧力センサーや電極を利用して、飲食時に表出される咀嚼運動を測定する方法が提案されているものの、これらの測定具を用いることで前述したと同様の問題を内在していた。   In addition to the sensation of swallowing such a thing as an index representing the “taste” of a food or drink, the sensation of biting is another important factor. For this reason, in the process of developing foods and beverages, sensory tests such as questionnaires for subjects are also conducted on the senses obtained from chewing such as “ease of biting” and “feeling of biting”. However, since it is difficult to obtain an objective evaluation in a sensory test using a questionnaire or the like, the masticatory movement expressed during eating and drinking is measured using a pressure sensor and electrodes as in the case of the swallowing movement described above. Although a method has been proposed, the use of these measuring tools has inherent problems similar to those described above.

すなわち、本発明は、従来技術に内在する前記問題に鑑み、これらを解決するべく提案されたものであって、被験者に負担を強いることなく、摂食時における咀嚼運動や嚥下運動を自然な状態で測定し得る摂食運動測定システムおよび測定方法を提供することを目的とする。   That is, the present invention has been proposed in view of the above-described problems inherent in the prior art, and has been proposed to solve these problems, and the mastication movement and swallowing movement during feeding are in a natural state without imposing a burden on the subject. It is an object of the present invention to provide a feeding movement measuring system and a measuring method that can be measured by the above method.

前記課題を解決し、所期の目的を達成するため、本発明の請求項1に係る摂食運動測定システムは、
頭頸部表面に対して相互に波長の異なる光を照射する3つ以上の発光手段と、
前記頭頸部表面で反射した光を分光して、分光画像データを時系列的に取得する撮像手段と、
前記撮像手段で取得した各分光画像データに基づいて、照度差ステレオ法により各面法線ベクトルデータを算出する面法線ベクトル算出手段と、
頭頸部表面における凹凸形状が含まれる追跡形状の面法線ベクトルデータからなるテンプレートと、前記各面法線ベクトルデータとを用いてテンプレートマッチングすることで、各面法線ベクトルデータにおける追跡形状の位置を求めるテンプレートマッチング手段とを備え、
前記テンプレートマッチング手段により前記追跡形状の位置を時系列的に求めることで、咀嚼運動または嚥下運動を測定するよう構成したことを要旨とする。
請求項1の発明によれば、照度差ステレオ法により被験者の頭頸部表面の面法線ベクトルデータを算出し、当該面法線ベクトルデータからテンプレートマッチングにより咀嚼運動または嚥下運動に伴う頭頸部表面の追跡形状をテンプレートとして追跡するようにしたから、咀嚼運動または嚥下運動を正確に測定することができる。このとき、咀嚼運動または嚥下運動の測定時に、センサーや電極等を被験者に装着する必要がないから、自然な咀嚼運動や嚥下運動を測定することが可能となる。また、頭頸部表面の凹凸形状を含む追跡形状を追跡する構成としたから、被験者の頭頸部表面の皮膚性状の影響を受け難くなり、頭頸部表面に多少の弛みやしわ等が生じていても、咀嚼運動または嚥下運動を正確に測定し得る。しかも、3つ以上の発光手段から波長の異なる光を照射し、撮像手段で分光画像を取得して、面法線ベクトルデータを算出する構成とした。すなわち、同一波長の光を用いた場合に算出し得ない時間変化する頭頸部表面の面法線ベクトルデータを、3つ以上の異なる波長の光を同時に照射することで求めることが可能となる。しかも、3つ以上の異なる波長の光を分光することで、瞬時に分光画像を取得して面法線ベクトルデータを算出し得るから、同一波長の光を用いた場合のように、発光手段を1つずつ発光させながら分光画像を取得する必要がなく、測定を効率的に行い得る。また、測定時に圧力センサーや電極等を被験者に装着する必要がないから、咀嚼運動または嚥下運動の測定を簡単かつ低コストで行い得る。
In order to solve the above-mentioned problem and achieve an intended purpose, a feeding movement measuring system according to claim 1 of the present invention includes:
Three or more light emitting means for irradiating the head and neck surface with light having different wavelengths from each other;
Imaging means for spectrally acquiring spectral image data in a time series by dispersing the light reflected from the head and neck surface;
Surface normal vector calculation means for calculating each surface normal vector data by illuminance difference stereo method based on each spectral image data acquired by the imaging means;
The position of the tracking shape in each surface normal vector data by template matching using the surface normal vector data of the tracking shape including the uneven shape on the head and neck surface and each surface normal vector data. Template matching means for obtaining
The gist of the invention is to measure the mastication movement or the swallowing movement by obtaining the position of the tracking shape in time series by the template matching means.
According to the first aspect of the present invention, the surface normal vector data of the surface of the subject's head and neck is calculated by the illuminance difference stereo method, and the surface of the head and neck associated with the mastication movement or the swallowing movement is template-matched from the surface normal vector data. Since the tracking shape is tracked as a template, mastication or swallowing movement can be accurately measured. At this time, since it is not necessary to attach a sensor, an electrode, or the like to the subject at the time of measuring the mastication movement or the swallowing movement, it is possible to measure a natural mastication movement or a swallowing movement. In addition, since it is configured to track the tracking shape including the uneven shape of the head and neck surface, it is less affected by the skin properties of the subject's head and neck surface, and even if there is some looseness or wrinkles on the head and neck surface The chewing or swallowing movement can be accurately measured. In addition, the configuration is such that surface normal vector data is calculated by irradiating light having different wavelengths from three or more light emitting means, acquiring a spectral image by the imaging means, and calculating the surface normal vector data. That is, it is possible to obtain surface normal vector data of the surface of the head and neck that changes with time, which cannot be calculated when using light of the same wavelength, by simultaneously irradiating light of three or more different wavelengths. In addition, by splitting light of three or more different wavelengths, spectral normal images can be obtained instantaneously and surface normal vector data can be calculated. It is not necessary to acquire a spectral image while emitting light one by one, and measurement can be performed efficiently. Further, since it is not necessary to attach a pressure sensor, an electrode, or the like to the subject at the time of measurement, the measurement of mastication or swallowing movement can be performed easily and at low cost.

請求項2に係る摂食運動測定システムでは、前記発光手段は、前記撮像手段の分光感度特性において相互に干渉しない波長の光を照射するよう構成されることを要旨とする。
請求項2の発明によれば、撮像手段の分光感度特性において相互に干渉しない波長の光を照射する構成としたので、頭頸部表面で反射した光を分光して正確な分光画像を得ることができる。従って、精度の高い分光画像に基づいて、正確な面法線ベクトルデータを算出し得るから、咀嚼運動または嚥下運動を高精度で測定することが可能となる。
The gist movement measuring system according to claim 2 is characterized in that the light emitting means is configured to irradiate light having wavelengths that do not interfere with each other in the spectral sensitivity characteristics of the imaging means.
According to the invention of claim 2, since it is configured to irradiate light having a wavelength that does not interfere with each other in the spectral sensitivity characteristics of the imaging means, it is possible to obtain an accurate spectral image by splitting the light reflected from the head and neck surface. it can. Accordingly, since accurate surface normal vector data can be calculated based on a highly accurate spectral image, it is possible to measure the mastication movement or the swallowing movement with high accuracy.

請求項3に係る摂食運動測定システムは、前記面法線ベクトルデータの各面法線ベクトルの方向に応じた色分けをして色分画像データを作成する色分画像作成手段を備えていることを要旨とする。
請求項3の発明によれば、色分画像作成手段が面法線ベクトルデータを色分けし、色分画像データを作成するので、頭頸部表面の変化を視覚的に捉えることができ、咀嚼運動または嚥下運動を詳細に観察および分析することができる。
The feeding movement measuring system according to claim 3 includes color image generation means for generating color image data by color-coding according to the direction of each surface normal vector of the surface normal vector data. Is the gist.
According to the invention of claim 3, since the color image generating means color-codes the surface normal vector data and generates the color image data, the change of the head and neck surface can be visually recognized, and the chewing motion or The swallowing movement can be observed and analyzed in detail.

請求項4に係る摂食運動測定システムは、
前記テンプレートマッチング手段は、
基準となる面法線ベクトルデータから前記テンプレートを設定するテンプレート設定部と、
前記テンプレート設定部で設定されたテンプレートを記憶する記憶部と、
前記各面法線ベクトルデータに対しテンプレートマッチングを行う探索領域を設定する探索領域設定部と、
前記記憶部に記憶されたテンプレートと各面法線ベクトルデータとを前記探索領域設定部で設定された探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定する位置特定部とを備えることを要旨とする。
請求項4の発明によれば、テンプレートと面法線ベクトルデータとを探索領域内でテンプレートマッチングするから、マッチングする範囲が限定されて、位置特定部での計算量を抑制することができる。
The eating movement measuring system according to claim 4 comprises:
The template matching means includes
A template setting unit for setting the template from reference surface normal vector data;
A storage unit for storing the template set by the template setting unit;
A search area setting unit for setting a search area for performing template matching on each surface normal vector data;
A position specifying unit for specifying the position of the tracking shape by performing template matching between the template stored in the storage unit and each surface normal vector data within the search region set by the search region setting unit; Is the gist.
According to the fourth aspect of the present invention, since the template and the surface normal vector data are subjected to template matching within the search region, the matching range is limited, and the calculation amount in the position specifying unit can be suppressed.

請求項5に係る摂食運動測定システムは、追跡形状は、頭頸部表面における甲状軟骨または輪状軟骨に起因する凹凸形状を含むと共に、
前記テンプレートの範囲は、面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に嚥下運動時の甲状軟骨または輪状軟骨の移動方向に延在する線状の領域に設定され、
前記探索領域は、面法線ベクトルデータにおいて前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域に設定されることを要旨とする。
請求項5の発明によれば、テンプレートの範囲を嚥下運動時の甲状軟骨または輪状軟骨の移動方向に延在する線状の領域に設定すると共に、探索領域としてテンプレートの範囲を包含する線状の領域を設定したので、テンプレートの範囲や探索領域を面の領域に設定した場合に較べ、テンプレートマッチングする際の計算量を抑えることができる。すなわち、甲状軟骨または輪状軟骨が直線移動する特性を利用して、テンプレートの範囲および探索領域を線状の領域に設定したので、テンプレートマッチング時の不必要な計算を少なくし得る。
In the feeding movement measuring system according to claim 5, the tracking shape includes an uneven shape caused by thyroid cartilage or cricoid cartilage on the head and neck surface,
The range of the template is set in a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the moving direction of the thyroid cartilage or cricoid cartilage during swallowing movement,
The gist of the present invention is that the search area is set to a linear area that passes through the reference point in the surface normal vector data and includes the range of the template.
According to the invention of claim 5, the range of the template is set to a linear area extending in the moving direction of the thyroid cartilage or cricoid cartilage during swallowing movement, and the linear area that includes the template area as the search area Since the area is set, it is possible to reduce the amount of calculation for template matching as compared with the case where the template range or the search area is set as a surface area. That is, since the template range and the search region are set to linear regions using the characteristics of the thyroid cartilage or cricoid cartilage moving linearly, unnecessary calculations at the time of template matching can be reduced.

請求項6に係る摂食運動測定システムは、前記追跡形状は、頭部表面における下顎骨に起因する凹凸形状を含むと共に、
前記テンプレートの範囲は、面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に咀嚼運動時の下顎骨の動作方向に延在する線状の領域に設定され、
前記探索領域は、面法線ベクトルデータにおいて前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域に設定されることを要旨とする。
請求項6の発明によれば、テンプレートの範囲を咀嚼運動時の下顎骨の移動方向に延在する線状の領域に設定すると共に、探索領域としてテンプレートの範囲を包含する線状の領域を設定したので、テンプレートの範囲や探索領域を面の領域に設定した場合に較べ、テンプレートマッチングする際の計算量を抑えることができる。すなわち、咀嚼運動時に下顎骨が直線移動する特性を利用して、テンプレートの範囲および探索領域を線状の領域に設定したので、テンプレートマッチング時の不必要な計算を少なくし得る。
The eating movement measuring system according to claim 6, wherein the tracking shape includes an uneven shape caused by a mandible on a head surface,
The range of the template is set in a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the movement direction of the mandible during mastication movement,
The gist of the present invention is that the search area is set to a linear area that passes through the reference point in the surface normal vector data and includes the range of the template.
According to invention of Claim 6, while setting the range of a template to the linear area | region extended in the moving direction of the mandible at the time of a chewing movement, the linear area | region which includes the range of a template is set as a search area | region. Therefore, the amount of calculation at the time of template matching can be suppressed as compared with the case where the range of the template or the search area is set as a surface area. That is, since the template range and the search region are set to linear regions using the characteristic that the mandible moves linearly during mastication, unnecessary calculations during template matching can be reduced.

前記課題を解決し、所期の目的を達成するため、本発明の請求項7に係る摂食運動測定方法は、
頭頸部表面に対して相互に波長の異なる光を3つ以上の発光手段から照射し、該頭頸部表面で反射した光を分光して分光画像データを撮像手段が時系列的に取得し、
前記撮像手段で取得した各分光画像データに基づいて、照度差ステレオ法により各面法線ベクトルデータを算出し、
頭頸部表面における凹凸形状が含まれる追跡形状の面法線ベクトルデータからなるテンプレートと、前記各面法線ベクトルデータとを用いてテンプレートマッチングすることで、各面法線ベクトルデータにおける追跡形状の位置を求め、
前記追跡形状の位置を時系列的に求めることで、咀嚼運動または嚥下運動を測定することを要旨とする。
請求項7の発明によれば、照度差ステレオ法により被験者の頭頸部表面の面法線ベクトルデータを算出し、当該面法線ベクトルデータからテンプレートマッチングにより咀嚼運動または嚥下運動に伴う頭頸部表面の追跡形状をテンプレートとして追跡するようにしたから、咀嚼運動または嚥下運動を正確に測定することができる。このとき、咀嚼運動または嚥下運動の測定時に、センサーや電極等を被験者に装着する必要がないから、自然な咀嚼運動や嚥下運動を測定することが可能となる。また、頭頸部表面の凹凸形状を含む追跡形状を追跡する方法としたから、被験者の頭頸部表面の皮膚性状の影響を受け難くなり、頭頸部表面に多少の弛みやしわ等が生じていても、咀嚼運動や嚥下運動を正確に測定し得る。しかも、3つ以上の発光手段から波長の異なる光を照射し、撮像手段で分光画像を取得して、面法線ベクトルデータを算出する方法とした。すなわち、同一波長の光を用いた場合に算出し得ない時間変化する頭頸部表面の面法線ベクトルデータを、3つ以上の異なる波長の光を同時に照射することで求めることが可能となる。しかも、3つ以上の異なる波長の光を分光することで、瞬時に分光画像を取得して面法線ベクトルデータを算出し得るから、同一波長の光を用いた場合のように、発光手段を1つずつ発光させながら分光画像を取得する必要がなく、測定を効率的に行い得る。また、測定時に圧力センサーや電極等を被験者に装着する必要がないから、咀嚼運動または嚥下運動の測定を簡単かつ低コストで行い得る。
In order to solve the above-mentioned problems and achieve the intended purpose, the eating movement measuring method according to claim 7 of the present invention comprises:
Three or more light emitting means irradiate the head and neck surface with light having different wavelengths from each other, the light reflected by the head and neck surface is dispersed, and spectral image data is acquired in time series,
Based on each spectral image data acquired by the imaging means, each surface normal vector data is calculated by illuminance difference stereo method,
The position of the tracking shape in each surface normal vector data by template matching using the surface normal vector data of the tracking shape including the uneven shape on the head and neck surface and each surface normal vector data. Seeking
The gist is to measure the mastication movement or the swallowing movement by obtaining the position of the tracking shape in time series.
According to the invention of claim 7, the surface normal vector data of the surface of the subject's head and neck is calculated by the illuminance difference stereo method, and the surface of the head and neck associated with the mastication movement or the swallowing movement by template matching from the surface normal vector data. Since the tracking shape is tracked as a template, mastication or swallowing movement can be accurately measured. At this time, since it is not necessary to attach a sensor, an electrode, or the like to the subject at the time of measuring the mastication movement or the swallowing movement, it is possible to measure a natural mastication movement or a swallowing movement. In addition, since the tracking shape including the uneven shape on the head and neck surface is tracked, it is less affected by the skin properties of the subject's head and neck surface, and even if there is some slack or wrinkles on the head and neck surface In addition, chewing and swallowing movements can be accurately measured. In addition, the surface normal vector data is calculated by irradiating light having different wavelengths from three or more light emitting means, acquiring a spectral image by the imaging means, and calculating surface normal vector data. That is, it is possible to obtain surface normal vector data of the surface of the head and neck that changes with time, which cannot be calculated when using light of the same wavelength, by simultaneously irradiating light of three or more different wavelengths. In addition, by splitting light of three or more different wavelengths, spectral normal images can be obtained instantaneously and surface normal vector data can be calculated. It is not necessary to acquire a spectral image while emitting light one by one, and measurement can be performed efficiently. Further, since it is not necessary to attach a pressure sensor, an electrode, or the like to the subject at the time of measurement, the measurement of mastication or swallowing movement can be performed easily and at low cost.

請求項8に係る摂食運動測定方法は、発光手段は、前記撮像手段の分光感度特性において相互に干渉しない波長の光を照射することを要旨とする。
請求項8の発明によれば、撮像手段の分光感度特性において相互に干渉しない波長の光を照射する方法としたので、頭頸部表面で反射した光を分光して正確な分光画像を得ることができる。従って、精度の高い分光画像に基づいて、正確な面法線ベクトルデータを算出し得るから、咀嚼運動または嚥下運動を高精度で測定することが可能となる。
The gating movement measuring method according to claim 8 is characterized in that the light emitting means irradiates light having wavelengths that do not interfere with each other in the spectral sensitivity characteristics of the imaging means.
According to the eighth aspect of the present invention, since the light having a wavelength that does not interfere with each other in the spectral sensitivity characteristics of the imaging means is used, the light reflected from the head and neck surface can be dispersed to obtain an accurate spectral image. it can. Accordingly, since accurate surface normal vector data can be calculated based on a highly accurate spectral image, it is possible to measure the mastication movement or the swallowing movement with high accuracy.

請求項9に係る摂食運動測定方法は、前記面法線ベクトルデータの各面法線ベクトルの方向に応じた色分けをして色分画像データを作成することを要旨とする。
請求項9の発明によれば、面法線ベクトルデータを色分けし色分画像データを作成するので、頭頸部表面の変化を視覚的に捉えることができ、咀嚼運動または嚥下運動を詳細に観察および分析することができる。
The gating movement measuring method according to claim 9 is summarized in that color-separated image data is generated by color-coding according to the direction of each surface normal vector of the surface normal vector data.
According to the invention of claim 9, since the surface normal vector data is color-coded and color image data is created, a change in the head and neck surface can be visually observed, and the chewing or swallowing movement can be observed in detail and Can be analyzed.

請求項10に係る摂食運動測定方法は、
前記追跡形状は、前記頭頸部表面における甲状軟骨または輪状軟骨に起因する凹凸形状を含み、
前記テンプレートの範囲は、前記面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に嚥下運動時の甲状軟骨または輪状軟骨の移動方向に延在する線状の領域に設定され、
前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域をテンプレートマッチングを行う探索領域として前記各面法線ベクトルデータに設定し、
前記テンプレートと各面法線ベクトルデータとを前記探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定することを要旨とする。
請求項10の発明によれば、テンプレートの範囲を嚥下運動時の甲状軟骨または輪状軟骨の移動方向に延在する線状の領域に設定すると共に、探索領域としてテンプレートの範囲を包含する線状の領域を設定したので、テンプレートの範囲や探索領域を面の領域に設定した場合に較べ、テンプレートマッチングする際の計算量を抑えることができる。すなわち、嚥下時に甲状軟骨または輪状軟骨が直線移動する特性を利用して、テンプレートの範囲および探索領域を線状の領域に設定したので、テンプレートマッチング時の不必要な計算を少なくし得る。
The method for measuring eating movement according to claim 10 comprises:
The tracking shape includes an uneven shape caused by thyroid cartilage or cricoid cartilage on the head and neck surface,
The range of the template is set in a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the moving direction of the thyroid cartilage or cricoid cartilage during swallowing movement,
A linear area that passes through the reference point and includes the range of the template is set in each surface normal vector data as a search area for performing template matching,
The gist is to specify the position of the tracking shape by template matching the template and each surface normal vector data in the search region.
According to the invention of claim 10, the range of the template is set to a linear region extending in the moving direction of the thyroid cartilage or cricoid cartilage during swallowing movement, and the linear region that includes the template range as the search region Since the area is set, it is possible to reduce the amount of calculation for template matching as compared with the case where the template range or the search area is set as a surface area. That is, since the template range and the search region are set as linear regions using the characteristic that the thyroid cartilage or cricoid cartilage moves linearly during swallowing, unnecessary calculations during template matching can be reduced.

請求項11に係る摂食運動測定方法は、
前記追跡形状は、頭部表面における下顎骨に起因する凹凸形状を含み、
前記テンプレートの範囲は、前記面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に咀嚼運動時の下顎骨の動作方向に延在する線状の領域に設定され、
前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域をテンプレートマッチングを行う探索領域として前記各面法線ベクトルデータに設定し、
前記テンプレートと各面法線ベクトルデータとを前記探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定することを要旨とする。
請求項11の発明によれば、テンプレートの範囲を咀嚼運動時の下顎骨の移動方向に延在する線状の領域に設定すると共に、探索領域としてテンプレートの範囲を包含する線状の領域を設定したので、テンプレートの範囲や探索領域を面の領域に設定した場合に較べ、テンプレートマッチングする際の計算量を抑えることができる。すなわち、咀嚼時に下顎骨が直線移動する特性を利用して、テンプレートの範囲および探索領域を線状の領域に設定したので、テンプレートマッチング時の不必要な計算を少なくし得る。
The method for measuring eating movement according to claim 11 comprises:
The tracking shape includes an uneven shape caused by the mandible on the head surface,
The range of the template is set to a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the movement direction of the mandible during mastication movement,
A linear area that passes through the reference point and includes the range of the template is set in each surface normal vector data as a search area for performing template matching,
The gist is to specify the position of the tracking shape by template matching the template and each surface normal vector data in the search region.
According to the invention of claim 11, the template range is set to a linear region extending in the movement direction of the mandible during mastication, and a linear region including the template range is set as a search region Therefore, the amount of calculation at the time of template matching can be suppressed as compared with the case where the range of the template or the search area is set as a surface area. That is, since the template range and the search region are set to linear regions using the characteristic that the mandible moves linearly during mastication, unnecessary calculations during template matching can be reduced.

本発明に係る摂食運動測定システムおよび測定方法は、非接触かつ非侵襲な方法であるため、被験者に負担をかけることなく、自然な咀嚼運動や嚥下運動を正確に測定することができる。   Since the eating movement measuring system and measuring method according to the present invention are non-contact and non-invasive methods, natural mastication movements and swallowing movements can be accurately measured without placing a burden on the subject.

実施例1に係る摂食運動測定システムの全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a feeding movement measurement system according to Embodiment 1. FIG. (a)は3CCDカメラ、LEDおよび被験者の位置関係を示す斜視図、(b)は3CCDカメラおよびLEDを被験者側から見た正面図である。(a) is the perspective view which shows the positional relationship of 3CCD camera, LED, and a test subject, (b) is the front view which looked at 3CCD camera and LED from the test subject side. 実施例で採用した各LEDの仕様を示す説明図である。It is explanatory drawing which shows the specification of each LED employ | adopted in the Example. LEDの光が3CCDカメラ内で分光される様子を示す説明図である。It is explanatory drawing which shows a mode that the light of LED is disperse | distributed within 3CCD camera. 実施例で採用した3CCDカメラのレンズ部の仕様を示す説明図である。It is explanatory drawing which shows the specification of the lens part of 3CCD camera employ | adopted in the Example. 実施例で採用した3CCDカメラの分光感度特性と各LEDの光の波長との関係を示すグラフ図である。It is a graph which shows the relationship between the spectral sensitivity characteristic of 3CCD camera employ | adopted in the Example, and the wavelength of the light of each LED. (a)は光源と観察面の明るさの関係を示す説明図、(b)は照度差ステレオ法の説明図である。(a) is explanatory drawing which shows the relationship between the light source and the brightness of an observation surface, (b) is explanatory drawing of an illuminance difference stereo method. 出力手段に表示された設定画面を示す図である。It is a figure which shows the setting screen displayed on the output means. NCC、SADおよびSSDの関係を表す説明図である。It is explanatory drawing showing the relationship between NCC, SAD, and SSD. (a)は色分画像作成手段が色分けする面法線ベクトルの方向と色の対応関係を示す説明図、(b)は出力手段に表示された喉表面の色分画像、(c)は色分画像のベースとなる喉表面の実際の画像を示す。(a) is an explanatory view showing the correspondence between the direction of the surface normal vector color-coded by the color image generation means and the color, (b) is a color image of the throat surface displayed on the output means, and (c) is a color image An actual image of the throat surface, which is the base of the minute image, is shown. 実施例に係る摂食運動測定方法の全体的なフローを示すフローチャート図である。It is a flowchart figure which shows the whole flow of the eating movement measuring method which concerns on an Example. 面法線ベクトルデータ算出処理を示すフローチャート図である。It is a flowchart figure which shows a surface normal vector data calculation process. 設定処理を示すフローチャート図である。It is a flowchart figure which shows a setting process. テンプレートマッチング処理を示すフローチャート図である。It is a flowchart figure which shows a template matching process. 甲状軟骨の頂部の位置の時間変化を示すグラフ図である。It is a graph which shows the time change of the position of the top part of a thyroid cartilage. 喉表面の色分画像を表示するフローを示すフローチャート図である。It is a flowchart figure which shows the flow which displays the color image of a throat surface. 実験例1の測定結果を示すグラフ図である。6 is a graph showing the measurement results of Experimental Example 1. FIG. 実験例2の測定結果を示すグラフ図である。It is a graph which shows the measurement result of Experimental example 2. 実験例3の測定結果を示すグラフ図である。It is a graph which shows the measurement result of Experimental example 3. 人間の頭頸部を側頭部から示す概念図である。It is a conceptual diagram which shows a human head and neck part from a temporal region. 実施例2に係る摂食運動測定システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the eating movement measuring system which concerns on Example 2. FIG. 実施例2に係るバンドパスフィルタの分光特性を示すグラフ図である。6 is a graph showing spectral characteristics of a bandpass filter according to Example 2. FIG. 出力手段に表示された実施例2の設定画面を示す図である。It is a figure which shows the setting screen of Example 2 displayed on the output means. (a)は出力手段に表示された頭頸部表面の色分画像、(b)は色分画像作成手段が色分けする面法線ベクトルの方向と色を示す説明図、(c)は出力手段に表示された頭頸部表面の色分画像を、図10(a)に示す模様で表示した説明図である。(a) is a color image of the surface of the head and neck displayed on the output means, (b) is an explanatory diagram showing the direction and color of the surface normal vector color-coded by the color image generation means, and (c) is an output means. It is explanatory drawing which displayed the color image of the displayed head and neck part surface with the pattern shown to Fig.10 (a). 実施例4における被験者1の測定結果を示すグラフ図であって、(a)はスルメイカを摂取した場合を示し、(b)は豆腐を摂取した場合を示し、(c)はわらび餅を摂取した場合を示す。It is a graph which shows the measurement result of the test subject 1 in Example 4, Comprising: (a) shows the case where squid is ingested, (b) shows the case where tofu is ingested, (c) ingests warabimochi Show the case. 実施例4における被験者2の測定結果を示すグラフ図であって、(a)はスルメイカを摂取した場合を示し、(b)は豆腐を摂取した場合を示し、(c)はわらび餅を摂取した場合を示す。It is a graph which shows the measurement result of the test subject 2 in Example 4, Comprising: (a) shows the case where squid is ingested, (b) shows the case where tofu is ingested, (c) ingests warabimochi Show the case. 実施例4における被験者3の測定結果を示すグラフ図であって、(a)はスルメイカを摂取した場合を示し、(b)は豆腐を摂取した場合を示し、(c)はわらび餅を摂取した場合を示す。It is a graph which shows the measurement result of the subject 3 in Example 4, Comprising: (a) shows the case where squid is ingested, (b) shows the case where tofu is ingested, (c) ingests warabimochi Show the case. 実施例4における被験者4の測定結果を示すグラフ図であって、(a)はスルメイカを摂取した場合を示し、(b)は豆腐を摂取した場合を示し、(c)はわらび餅を摂取した場合を示す。It is a graph which shows the measurement result of the test subject 4 in Example 4, Comprising: (a) shows the case where squid is ingested, (b) shows the case where tofu is ingested, (c) ingests warabimochi Show the case.

次に、本発明に係る摂食運動測定システムおよび測定方法につき、好適な実施例を挙げて、添付図面を参照しながら以下詳細に説明する。本発明でいう「摂食運動」とは、飲食物を口腔に取り込んでから胃へ送り込む一連の動作において行われる咀嚼運動や嚥下運動を含んだものである。ここで、「咀嚼運動」とは、口腔内に摂取した飲食物を下顎と歯、舌等を用いて噛み砕くと共に唾液と混ぜ合わせて嚥下し易い大きさの食塊を形成する運動である。また、「嚥下運動」とは、口腔で形成される飲料や咀嚼した食品等の食塊を、口の中の食塊を飲み下す(飲み込む)ときの運動をいう。本発明の摂食運動測定システムおよび測定方法によると、「飲み込み易さ」、「食べ易さ」、「咽喉への引っ掛かり感」、「飲みごたえ感」等、飲食物や経口摂取される医薬品等を嚥下する際に感じる各種の感覚を、嚥下運動に伴って動作する頭頸部表面の追跡対象の位置を測定することにより、簡便、迅速かつ正確で感度もよく、しかも客観的に評価することが可能となる。また、同様に、本発明の摂食運動測定システムおよび測定方法によると、「噛み易さ」、「噛みごたえ感」等、飲食物等を口腔内で咀嚼する際に感じる各種の感覚を、咀嚼運動に伴って動作する頭頸部表面の追跡対象の位置を測定することにより、簡便、迅速かつ正確で感度もよく、しかも客観的に評価することが可能となる。   Next, the eating movement measuring system and the measuring method according to the present invention will be described in detail below with reference to the accompanying drawings by giving a preferred embodiment. The “feeding exercise” as used in the present invention includes a mastication exercise and a swallowing exercise performed in a series of operations of taking food and drink into the oral cavity and then feeding it into the stomach. Here, the “chewing exercise” is an exercise that forms a bolus of a size that is easy to swallow by chewing food and drink taken into the oral cavity using the lower jaw, teeth, tongue, etc. and mixing with saliva. The “swallowing exercise” refers to an exercise when swallowing (swallowing) a bolus of food in the mouth such as a beverage formed in the oral cavity or a chewed food. According to the eating movement measuring system and measuring method of the present invention, “ease of swallowing”, “ease of eating”, “feeling of getting caught in the throat”, “feeling of drinking”, etc. By measuring the position of the tracking target on the head and neck surface that moves with swallowing movements, various sensations felt when swallowing can be evaluated easily, quickly, accurately, with good sensitivity, and objectively It becomes possible. Similarly, according to the eating movement measuring system and measuring method of the present invention, various sensations felt when chewing food or drink in the oral cavity, such as “ease of chewing”, “feeling of chewing”, etc. By measuring the position of the tracking target on the surface of the head and neck that moves with movement, it is possible to evaluate the object simply, quickly, accurately, with good sensitivity, and objectively.

実施例1の摂食運動測定システムおよび測定方法では、図20に示すように、摂食に伴う嚥下運動時に上下移動する甲状軟骨12の頂部(のど仏)に起因する喉表面(頭頸部表面)の凹凸形状を含む形状を追跡形状(テンプレート)に設定し、嚥下運動時に喉表面に表れる当該追跡形状(具体的には基準点P)の位置を時系列的に特定することで、被験者の嚥下運動を測定するよう構成されている。また、基準点Pとは、追跡形状内で任意に設定される追跡点であって、実施例1では、喉表面に凹凸形状が顕著に表出し、嚥下運動に追従して上下移動する甲状軟骨12の頂部に対応する箇所を基準点Pに指定している。但し、本発明において摂食に伴う嚥下運動を追跡する追跡形状としては、凹凸形状を含む部分であれば、被験者の喉表面(頭頸部表面)の何れの部位を追跡形状に設定してもよい。例えば、追跡形状として、甲状軟骨12の下方にあって嚥下運動時に甲状軟骨12と共に上下移動する輪状軟骨14に起因する喉表面の凹凸形状を含む形状を設定してもよい。また、基準点Pとしても、甲状軟骨12の頂部に対応する箇所に限定されず、追跡形状内の何れの箇所に基準点Pを設定してもよい。なお、甲状軟骨12に起因した凹凸形状を基準点として指定することで、嚥下運動に伴う上下移動が顕著に表出し、嚥下運動を正確に追跡することが可能となる。   In the eating movement measuring system and measuring method of Example 1, as shown in FIG. 20, the throat surface (head and neck surface) caused by the top (throat Buddha) of the thyroid cartilage 12 that moves up and down during swallowing movement accompanying eating By setting the shape including the concavo-convex shape to the tracking shape (template) and identifying the position of the tracking shape (specifically, the reference point P) appearing on the throat surface during swallowing movement in time series, It is configured to measure movement. The reference point P is a tracking point that is arbitrarily set within the tracking shape. In the first embodiment, the thyroid cartilage moves up and down following the swallowing movement, with a concavo-convex shape remarkably appearing on the throat surface. A location corresponding to the top of 12 is designated as the reference point P. However, in the present invention, as the tracking shape for tracking the swallowing movement accompanying feeding, any part of the subject's throat surface (head and neck surface) may be set as the tracking shape as long as it includes a concavo-convex shape. . For example, as the tracking shape, a shape including an uneven shape of the throat surface due to the cricoid cartilage 14 below the thyroid cartilage 12 and moving up and down with the thyroid cartilage 12 during swallowing may be set. Also, the reference point P is not limited to the location corresponding to the top of the thyroid cartilage 12, and the reference point P may be set at any location within the tracking shape. In addition, by designating the uneven shape caused by the thyroid cartilage 12 as a reference point, the vertical movement accompanying the swallowing movement is remarkably expressed, and the swallowing movement can be accurately tracked.

図1は、実施例1に係る摂食運動測定システム10の全体構成を示すブロック図である。実施例1の摂食運動測定システム10は、被験者の甲状軟骨12を含む喉表面に向けて異なる波長の光を照射する3つのLED(発光手段)16,18,20と、喉表面を撮影して分光画像データを取得する3CCDカメラ(撮像手段)22と、該3CCDカメラ22で取得した分光画像データから追跡形状(基準点P)の位置を時系列的に特定する制御装置24とを備えている。また、摂食運動測定システム10は、前記制御装置24に対し前記基準点Pの位置等を入力する入力手段25と、該制御装置24における算出結果を出力する出力手段26とから基本的に構成される。   FIG. 1 is a block diagram illustrating the overall configuration of the eating movement measurement system 10 according to the first embodiment. The feeding movement measuring system 10 of the first embodiment images three LEDs (light emitting means) 16, 18, and 20 that irradiate light of different wavelengths toward the throat surface including the thyroid cartilage 12 of the subject, and the throat surface. A 3CCD camera (imaging means) 22 for acquiring spectral image data and a controller 24 for specifying the position of the tracking shape (reference point P) in time series from the spectral image data acquired by the 3CCD camera 22. Yes. The eating movement measuring system 10 basically includes an input means 25 for inputting the position of the reference point P and the like to the control device 24 and an output means 26 for outputting a calculation result in the control device 24. Is done.

〔LEDおよび3CCDカメラについて〕
図2(a)に示すように、前記3つのLED16,18,20および3CCDカメラ22は、該3CCDカメラ22のレンズ部28(後述)を原点としたX−Y−Z直交座標系における3次元空間内に設けられている。図2(a)に示す如く、X−Y−Z直交座標系は、X軸およびZ軸が水平方向に延在し、Y軸が鉛直方向に延在するよう設定した。測定時には、レンズ部28にZ軸方向に離間して喉表面が対向するよう被験者を3CCDカメラ22の正面に座らせ、3CCDカメラ22で撮影をする。なお、嚥下運動時の甲状軟骨12は、Y軸方向(鉛直方向)に移動するものとする。また、前記レンズ部28は、被験者の喉表面から所定距離(例えば、約30cm)だけ離間している。
[About LED and 3CCD camera]
As shown in FIG. 2A, the three LEDs 16, 18, 20 and the 3CCD camera 22 are three-dimensional in an XYZ orthogonal coordinate system with the lens portion 28 (described later) of the 3CCD camera 22 as the origin. It is provided in the space. As shown in FIG. 2A, the XYZ orthogonal coordinate system was set such that the X axis and the Z axis extend in the horizontal direction and the Y axis extends in the vertical direction. At the time of measurement, the subject is seated on the front of the 3CCD camera 22 so that the throat surface is opposed to the lens unit 28 in the Z-axis direction, and the 3CCD camera 22 takes an image. It is assumed that the thyroid cartilage 12 during the swallowing movement moves in the Y-axis direction (vertical direction). The lens unit 28 is separated from the subject's throat surface by a predetermined distance (for example, about 30 cm).

図2(b)に示す如く、前記3つのLED16,18,20は、X−Y平面上において、前記3CCDカメラ22を中心とする同心円状に配設されている。また、各LED16,18,20は、互いに一定間隔離間しており、3つのLED16,18,20は、逆正三角形状に配置されている。LED16,18,20間の離間距離は、成人の喉表面の幅寸法(図8の寸法l参照)における平均的な値(11.6cm)を考慮して、約12cmに設定されている。各LED16,18,20は、被験者の喉表面を指向するよう設置され、各LED16,18,20から喉表面に向けて互いに異なる照射方向で光が照射されるよう構成される。また、各LED16,18,20は、相互に波長の異なる光を照射するよう構成される。実施例1では、LED16,18,20として、赤色光を照射する赤色LED16と、青色光を照射する青色LED18と、緑色光を照射する緑色LED20とが採用されている。3つのLED16,18,20は、喉表面に対して一斉に光を照射するようになっており、喉表面の凹凸形状に応じて赤、青、緑の3つの光が合成した光で喉表面を照らすよう構成される。赤色LED16,青色LED18および緑色LED20は、3CCDカメラ22の分光感度特性(後述)を考慮して、夫々、465nm、520nmおよび625nmの波長の光を照射するようになっている。実施例1で採用した各LED16,18,20の仕様を図3に示す。   As shown in FIG. 2B, the three LEDs 16, 18, and 20 are arranged concentrically around the 3CCD camera 22 on the XY plane. Further, the LEDs 16, 18, and 20 are spaced apart from each other by a predetermined distance, and the three LEDs 16, 18, and 20 are arranged in an inverted equilateral triangle shape. The distance between the LEDs 16, 18, and 20 is set to about 12 cm in consideration of an average value (11.6 cm) in the width dimension of the adult throat surface (see dimension 1 in FIG. 8). Each LED 16, 18, and 20 is installed so as to be directed toward the subject's throat surface, and is configured so that light is emitted from each LED 16, 18, and 20 toward the throat surface in different irradiation directions. Moreover, each LED16,18,20 is comprised so that the light from which a wavelength differs mutually may be irradiated. In the first embodiment, as the LEDs 16, 18, and 20, a red LED 16 that emits red light, a blue LED 18 that emits blue light, and a green LED 20 that emits green light are employed. The three LEDs 16, 18, and 20 are designed to irradiate light to the throat surface all at once, and the throat surface is a combination of red, blue, and green light depending on the uneven shape of the throat surface. Configured to illuminate. The red LED 16, blue LED 18 and green LED 20 are adapted to irradiate light having wavelengths of 465 nm, 520 nm and 625 nm, respectively, in consideration of the spectral sensitivity characteristics (described later) of the 3CCD camera 22. The specifications of the LEDs 16, 18, and 20 employed in Example 1 are shown in FIG.

前記3CCDカメラ22は、喉表面で反射した光を赤、青、緑の色毎に分光して各色の分光画像データ(輝度データ)を時系列的に取得するものである。3CCDカメラ22は、図4に示すように、カメラ本体30の内部に、レンズ部28と分光部32と3つのCCD(電荷結合素子)34,36,38とが収容されて構成されている。実施例1で採用したレンズ部28の仕様を図5に示す。前記分光部32は、3色が合成した光を、赤、青、緑色の波長毎の光に分光するものであって、実施例1では、分光部32として、ダイクロイックプリズムが採用されている。図4に示すように、ダイクロイックプリズムは、青色光および赤色光を内部で互いに異なる方向へ反射させると共に、緑色光を透過させることで光を分光する。   The 3CCD camera 22 separates the light reflected from the throat surface into red, blue, and green colors and acquires spectral image data (luminance data) of each color in time series. As shown in FIG. 4, the 3CCD camera 22 is configured such that a lens unit 28, a spectroscopic unit 32, and three CCDs (charge coupled devices) 34, 36, and 38 are accommodated inside the camera body 30. FIG. 5 shows the specifications of the lens unit 28 employed in the first embodiment. The light splitting unit 32 splits the light synthesized by the three colors into light for each wavelength of red, blue, and green. In the first embodiment, a dichroic prism is used as the light splitting unit 32. As shown in FIG. 4, the dichroic prism internally reflects blue light and red light in different directions and disperses light by transmitting green light.

前記3つのCCDは、赤色光に対応した赤色用CCD34と、青色光に対応した青色用CCD36と、緑色光に対応した緑色用CCD38とから構成される。そして、各CCD34,36,38には、前記分光部32で分光された対応する色の光が入力されるようになっている。ここで、図6の曲線グラフは、実施例1で採用した赤色用CCD34、青色用CCD36および緑色用CCD38の分光感度特性を示している。また、図6の棒グラフは、前記赤色LED16、青色LED18、および緑色LED20が照射する光の波長を示している。このように、各LED16,18,20から照射される光の波長は、CCD34,36,38の分光感度が相互に干渉せず、しかも分光感度の値がなるべく高くなる値に設定されている。そして、赤色用CCD34は、入力した赤色光から輝度データ(以下、赤色分光画像データという)を取得する。また、青色用CCD36は、入力した青色光から輝度データ(以下、青色分光画像データという)を取得する。更に、緑色用CCD38は、入力した緑色光から輝度データ(以下、緑色分光画像データという)を取得するようになっている。各CCD34,36,38で得られた分光画像データは、夫々、前記制御装置24の面法線ベクトル算出手段40(後述)に出力される。なお、実施例1の3CCDカメラ22の単位時間あたりのフレーム数は、30fpsである。但し、3CCDカメラ22のフレーム数は、30fpsに限定されるものではない。フレーム数を大きくすると、追跡形状の詳細な追跡が可能となる一方、処理速度は低下するため、求められる測定精度に応じて3CCDカメラ22のフレーム数は適宜選択される。   The three CCDs are composed of a red CCD 34 corresponding to red light, a blue CCD 36 corresponding to blue light, and a green CCD 38 corresponding to green light. Each CCD 34, 36, 38 receives light of a corresponding color that is split by the beam splitting unit 32. Here, the curve graph of FIG. 6 shows the spectral sensitivity characteristics of the red CCD 34, the blue CCD 36, and the green CCD 38 employed in the first embodiment. Moreover, the bar graph of FIG. 6 has shown the wavelength of the light which the said red LED16, blue LED18, and green LED20 irradiate. As described above, the wavelengths of the light emitted from the LEDs 16, 18, and 20 are set to values at which the spectral sensitivities of the CCDs 34, 36, and 38 do not interfere with each other and the spectral sensitivities are as high as possible. Then, the red CCD 34 acquires luminance data (hereinafter referred to as red spectral image data) from the input red light. The blue CCD 36 acquires luminance data (hereinafter referred to as blue spectral image data) from the input blue light. Further, the green CCD 38 acquires luminance data (hereinafter referred to as green spectral image data) from the input green light. Spectral image data obtained by the CCDs 34, 36, and 38 is output to a surface normal vector calculation means 40 (described later) of the control device 24, respectively. Note that the number of frames per unit time of the 3CCD camera 22 of the first embodiment is 30 fps. However, the number of frames of the 3CCD camera 22 is not limited to 30 fps. If the number of frames is increased, the tracking shape can be tracked in detail, while the processing speed is lowered. Therefore, the number of frames of the 3CCD camera 22 is appropriately selected according to the required measurement accuracy.

〔制御装置について〕
図1に示すように、前記制御装置24は、3CCDカメラ22で取得した各色の分光画像データから面法線ベクトルデータを算出する面法線ベクトル算出手段40と、追跡形状の面法線ベクトルデータからなるテンプレートおよび各面法線ベクトルデータを用いてテンプレートマッチングすることで、各面法線ベクトルデータにおける追跡形状(基準点P)の位置を求めるテンプレートマッチング手段46とを備える。また、制御装置24は、面法線ベクトル算出手段40で算出された面法線ベクトルデータを一時的に記憶するデータ記憶手段42と、該面法線ベクトルデータから色分画像データを作成する色分画像作成手段44とを有している。
[About the control unit]
As shown in FIG. 1, the control device 24 includes surface normal vector calculation means 40 for calculating surface normal vector data from spectral image data of each color acquired by the 3CCD camera 22, and surface normal vector data of a tracking shape. Template matching means 46 for obtaining the position of the tracking shape (reference point P) in each surface normal vector data by performing template matching using the template and each surface normal vector data. The control device 24 also includes a data storage means 42 for temporarily storing the surface normal vector data calculated by the surface normal vector calculation means 40, and a color for creating color image data from the surface normal vector data. And a minute image creating means 44.

〔面法線ベクトル算出手段について〕
前記面法線ベクトル算出手段40は、前記CCD34,36,38から入力された各分光画像データに基づいて、照度差ステレオ法により面法線ベクトルデータを算出するよう構成されている。ここで、照度差ステレオ法とは、観察面に照射した光の反射光の輝度(明るさ)に基づいて、該観察面の面法線ベクトルを算出する画像処理方法である。この照度差ステレオ法の原理について、以下、簡単に説明する。なお、照度差ステレオ法は、観察面が完全拡散反射面であることを前提としており、どの方向から観察面を見ても明るさが同じに見えるランバート反射の原理を応用している。実施例1における被験者の喉表面についても、各LED16,18,20から照射された光がランバート反射する完全拡散反射面であると仮定する。
[About surface normal vector calculation means]
The surface normal vector calculation means 40 is configured to calculate surface normal vector data by the illuminance difference stereo method based on the spectral image data input from the CCDs 34, 36, and 38. Here, the illuminance difference stereo method is an image processing method for calculating the surface normal vector of the observation surface based on the luminance (brightness) of the reflected light of the light irradiated on the observation surface. The principle of this illuminance difference stereo method will be briefly described below. Note that the illuminance difference stereo method is based on the premise that the observation surface is a completely diffuse reflection surface, and applies the principle of Lambert reflection in which the brightness looks the same regardless of the direction of the observation surface. As for the throat surface of the subject in Example 1, it is assumed that the light emitted from the LEDs 16, 18, and 20 is a completely diffuse reflecting surface on which Lambertian reflection is performed.

図7(a)に示すように、観察面の面法線方向を基準としたθ方向から1つの光源によって面を照らした場合に、光源の強さをL,面の反射率をρとすると、カメラで撮影された面の輝度xは、下記数1の式で表される。また、法線方向ベクトルn’を反射率倍したものを面法線ベクトルn、光源方向ベクトルs’を光源の強さ倍したものを光源ベクトルsとすると、数2の式で表すことができる。なお、各式では、記号の上側に付した矢印記号によりベクトルを表している。   As shown in FIG. 7A, when the surface is illuminated by one light source from the θ direction with respect to the surface normal direction of the observation surface, the intensity of the light source is L and the reflectance of the surface is ρ. The luminance x of the surface photographed by the camera is expressed by the following equation (1). Further, if the normal direction vector n ′ multiplied by the reflectance is the surface normal vector n, and the light source direction vector s ′ multiplied by the intensity of the light source is the light source vector s, it can be expressed by the following equation (2). . In each equation, a vector is represented by an arrow symbol above the symbol.

次に、図7(b)に示すように、3つの異なる光源(光源方向ベクトルs,s,s)から順に観察面を照らす。この方向を表すベクトルをベクトルS=[s]とする。このとき観察される輝度を夫々x,x,xとすると、これを要素とするベクトルX=[x]
は、数3の式で表され、方向の異なる3つの光源下で別々に観察された三枚の画像データの各画素の輝度値から観察面の面法線ベクトルnを求めることができる。
Next, as shown in FIG. 7B, the observation surface is illuminated sequentially from three different light sources (light source direction vectors s 1 , s 2 , s 3 ). A vector representing this direction is a vector S = [s 1 s 2 s 3 ]. Assuming that the observed brightness is x 1 , x 2 , and x 3 , a vector X = [x 1 x 2 x 3 ] having these as elements is used.
T is expressed by the equation (3), and the surface normal vector n of the observation surface can be obtained from the luminance values of the respective pixels of the three pieces of image data observed separately under three light sources having different directions.

ここで、前述した照度差ステレオ法は、光源を1つずつ順に発光させて観察面を別々に撮影した画像を用いるため、嚥下運動のような動作を伴う喉表面に対しては、この照度差ステレオ法をそのまま適用することは困難である。そこで、実施例1では、前述したように、3つのLED16,18,20から3色の光を喉表面に同時に照射し、その反射光を分光して色毎の輝度データである分光画像データをリアルタイムで取得することで、嚥下運動に伴って面形状が連続的に変化する喉表面の面法線ベクトルnを算出し得るようになっている(3色光照度差ステレオ法)。すなわち、面法線ベクトル算出手段40は、赤色用CCD34で得られた赤色分光画像データ、青色用CCD36で得られた青色分光画像データおよび緑色用CCD38で得られた緑色分光画像データを用いることで、前記数3の式から喉表面の面法線ベクトルnを算出する。   Here, since the illuminance difference stereo method described above uses images obtained by sequentially emitting light sources one by one and photographing the observation surface separately, the illuminance difference stereo method is used for a throat surface accompanied by an action such as swallowing movement. It is difficult to apply the stereo method as it is. Therefore, in Example 1, as described above, light of three colors is simultaneously irradiated onto the throat surface from the three LEDs 16, 18, and 20, and the reflected light is dispersed to obtain spectral image data that is luminance data for each color. By obtaining in real time, a surface normal vector n of the throat surface whose surface shape continuously changes with swallowing motion can be calculated (three-color light illuminance difference stereo method). That is, the surface normal vector calculation means 40 uses the red spectral image data obtained by the red CCD 34, the blue spectral image data obtained by the blue CCD 36, and the green spectral image data obtained by the green CCD 38. The surface normal vector n of the throat surface is calculated from the equation (3).

〔データ記憶手段について〕
前記データ記憶手段42は、前記面法線ベクトル算出手段40で算出された面法線ベクトルnのデータ(面法線ベクトルデータ)を時系列的に記憶するRAM等の一時記憶装置である。データ記憶手段42に記憶された面法線ベクトルデータは、テンプレートマッチング手段46においてテンプレートマッチングする際や、前記色分画像作成手段44で色分画像データを作成する際に読み出される。
[Data storage means]
The data storage means 42 is a temporary storage device such as a RAM that stores the surface normal vector n data (surface normal vector data) calculated by the surface normal vector calculation means 40 in time series. The surface normal vector data stored in the data storage unit 42 is read when template matching is performed by the template matching unit 46 or when color image data is generated by the color image generation unit 44.

〔テンプレートマッチング手段について〕
図1に示すように、前記テンプレートマッチング手段46は、基準となる面法線ベクトルデータからテンプレートを設定するテンプレート設定部48と、該テンプレート設定部48で設定したテンプレートを記憶するテンプレート記憶部(記憶部)56と、面法線ベクトルデータに対しテンプレートマッチングを行う探索領域を設定する探索領域設定部50と、テンプレートと各面法線ベクトルデータとをテンプレートマッチングすることで、追跡形状(基準点P)の位置を特定する位置特定部52とから基本的に構成される。
[About template matching means]
As shown in FIG. 1, the template matching unit 46 includes a template setting unit 48 for setting a template from reference surface normal vector data, and a template storage unit (memory for storing the template set by the template setting unit 48). Part) 56, a search area setting unit 50 for setting a search area for template matching with respect to the surface normal vector data, and template matching between the template and each surface normal vector data, the tracking shape (reference point P And a position specifying unit 52 that specifies the position of ().

前記テンプレート設定部48は、前記データ記憶手段42に記憶された面法線ベクトルデータのうち基準となる面法線ベクトルデータからテンプレートを設定するものである。テンプレートとしては、前述のように、甲状軟骨12の頂部に起因する凹凸形状が含まれる追跡形状に対応する面法線ベクトルデータで構成される。具体的には、図8に示すように、後述する出力手段26に表示させた設定画面に入力手段25を介して基準点Pの位置およびテンプレートとする範囲を測定者が入力し、当該入力値に基づいて面法線ベクトルデータからテンプレート設定部48がテンプレートとして設定する。なお、実施例1では、テンプレートが作成される基準となる面法線ベクトルデータは、被験者が嚥下運動を開始する前の喉表面における面法線ベクトルデータに設定されている。設定画面には、基準となる面法線ベクトルデータに対応する画像データ(以下、基準画像データという)が表示され、前記基準点Pは、基準画像データにおいて、甲状軟骨12の頂部に対応する位置を入力手段25で指定することで設定される。また、テンプレートの範囲は、設定画面に設けた範囲設定バー54において、入力手段25を介してカーソル54aを左右にスライド移動させ、テンプレートとする範囲のピクセル数(画素数)を決定することで行われる。ピクセル数が入力されると、テンプレート設定部48は、基準点Pを通ると共に嚥下運動時の甲状軟骨12の運動方向(Y軸方向)に入力されたピクセル数の長さで延在する線状の領域をテンプレートの範囲として設定する。すなわち、テンプレート設定部48は、前記基準点Pを中心とした上下方向に延在する線分をテンプレートとして設定する。なお、実施例1では、幅方向(X軸方向)のテンプレートの範囲は、1ピクセルである。   The template setting unit 48 sets a template from reference surface normal vector data among the surface normal vector data stored in the data storage means 42. As described above, the template includes surface normal vector data corresponding to a tracking shape including an uneven shape caused by the top of the thyroid cartilage 12. Specifically, as shown in FIG. 8, the measurer inputs the position of the reference point P and the template range via the input unit 25 on the setting screen displayed on the output unit 26 described later, and the input value Is set as a template from the surface normal vector data. In the first embodiment, the surface normal vector data serving as a reference for creating a template is set to the surface normal vector data on the throat surface before the subject starts swallowing motion. The setting screen displays image data (hereinafter referred to as reference image data) corresponding to the reference surface normal vector data, and the reference point P is a position corresponding to the top of the thyroid cartilage 12 in the reference image data. Is designated by the input means 25. The template range is determined by slidably moving the cursor 54a to the left and right via the input means 25 on the range setting bar 54 provided on the setting screen, and determining the number of pixels (number of pixels) in the range as the template. Is called. When the number of pixels is input, the template setting unit 48 passes through the reference point P and extends linearly with the length of the number of pixels input in the movement direction (Y-axis direction) of the thyroid cartilage 12 during swallowing movement. Is set as the template range. That is, the template setting unit 48 sets a line segment extending in the vertical direction with the reference point P as the center as a template. In the first embodiment, the template range in the width direction (X-axis direction) is 1 pixel.

前記テンプレート記憶部56は、前記テンプレート設定部48で設定されたテンプレートを一時的に記憶するRAM等の一時記憶装置である。テンプレート記憶部56に記憶されたテンプレートは、前記位置特定部52がテンプレートマッチングを行う際に読み出される。前記探索領域設定部50は、面法線ベクトルデータに対しテンプレートマッチングを行う範囲である探索領域を設定する。実施例1では、探索領域設定部50は、探索領域として、前記基準点Pを通ると共に前記テンプレートの範囲を包含する線状の領域が設定される。具体的には、図8に示す設定画面に設けた探索領域設定バー58において、測定者が入力手段25を介してカーソル58aを左右にスライド移動させ、面法線ベクトルデータにおいて探索する範囲をピクセル数(画素数)で入力する。入力されたピクセル数に基づいて、探索領域設定部50は、図8に示すように、前記基準点Pを中心とし、前記テンプレートより長尺なY軸方向に延在する線状の領域を探索領域として設定する。なお、探索領域として入力されるY軸方向のピクセル数は、テンプレートの範囲のピクセル数より大きな値に設定される。また、探索領域の幅方向(X軸方向)の寸法は、テンプレート同じく1ピクセルである。   The template storage unit 56 is a temporary storage device such as a RAM that temporarily stores the template set by the template setting unit 48. The template stored in the template storage unit 56 is read when the position specifying unit 52 performs template matching. The search area setting unit 50 sets a search area that is a range in which template matching is performed on the surface normal vector data. In the first embodiment, the search area setting unit 50 sets a linear area that passes through the reference point P and includes the range of the template as the search area. Specifically, in the search area setting bar 58 provided on the setting screen shown in FIG. 8, the measurer slides the cursor 58 a to the left and right via the input unit 25, and the search range in the surface normal vector data is expressed in pixels. Enter a number (number of pixels). Based on the number of input pixels, the search area setting unit 50 searches for a linear area extending in the Y-axis direction that is longer than the template and centered on the reference point P, as shown in FIG. Set as area. Note that the number of pixels in the Y-axis direction input as the search area is set to a value larger than the number of pixels in the template range. Further, the dimension of the search area in the width direction (X-axis direction) is 1 pixel as in the template.

前記位置特定部52は、前記データ記憶手段42に記憶された各面法線ベクトルデータと前記テンプレート記憶部56に記憶されたテンプレートとを読み出し、前記探索領域内においてテンプレートマッチングを行うよう構成される。ここで、テンプレートマッチングの原理について、以下簡単に説明する。テンプレートマッチングとは、テンプレートと特定の画像とを重ね合わせて類似度を計算し、類似度が最大となったときのテンプレートの位置を特定する手法である。実施例1では、類似度の計算にNCC(Normalized Cross-Correlation(正規化相互相関))を用いた。   The position specifying unit 52 is configured to read each surface normal vector data stored in the data storage unit 42 and a template stored in the template storage unit 56 and perform template matching in the search region. . Here, the principle of template matching will be briefly described below. Template matching is a technique for calculating a similarity by superimposing a template and a specific image and specifying the position of the template when the similarity is maximum. In Example 1, NCC (Normalized Cross-Correlation) was used for calculating the similarity.

このNCCは、数4の式で表される。但し、テンプレートの大きさ(画素値の要素数)をM×N、テンプレートの位置(i,j)における画素値をT(i,j)、テンプレートと重ね合わせた画像の画素値をI(i,j)とする。   This NCC is expressed by the equation (4). However, the template size (number of elements of the pixel value) is M × N, the pixel value at the template position (i, j) is T (i, j), and the pixel value of the image superimposed with the template is I (i , j).

図9に示すように、テンプレートT(i,j)と対象画像I(i,j)のM×N要素のベクトルTとベクトルIを考えると、NCCはベクトルのなす余弦となっている。従って、NCCを用いた場合で、1に近いほど類似性が高くなる。   As shown in FIG. 9, when considering a vector T and a vector I of M × N elements of the template T (i, j) and the target image I (i, j), NCC is a cosine formed by the vector. Therefore, when NCC is used, the closer to 1, the higher the similarity.

なお、類似度の計算としては、NCC以外にも公知の類似度計算法を採用することができる。例えば、図9に示すように、類似度計算に、輝度の絶対差の2乗和であるSSD(Sum of Squared Difference)や輝度の絶対差の和であるSAD(Sum
of Absolute Difference)を利用することも可能である。SSDおよびSADの式を数5,数6に示す。SSDおよびSADを用いた場合、0に近いほど類似性が高くなる。
For calculating the similarity, a known similarity calculation method can be employed in addition to NCC. For example, as shown in FIG. 9, in similarity calculation, SSD (Sum of Squared Difference), which is the sum of squares of absolute differences in luminance, or SAD (Sum, which is the sum of absolute differences in luminance).
of Absolute Difference) can also be used. Formulas of SSD and SAD are shown in Formulas 5 and 6. When SSD and SAD are used, the closer to 0, the higher the similarity.

前記位置特定部52は、前記データ記憶手段42から読み出した各面法線ベクトルデータにおいて、テンプレートとの類似度を探索領域内で算出する。そして、探索領域内で類似度の値が最大となったテンプレートの位置から当該面法線ベクトルデータにおける基準点Pの位置を特定する。すなわち、位置特定部52は、時系列的に取得される各面法線ベクトルデータにおける基準点Pを特定することで、嚥下運動での追跡形状を追跡するようになっている。   The position specifying unit 52 calculates the similarity with the template in each surface normal vector data read from the data storage means 42 in the search area. Then, the position of the reference point P in the surface normal vector data is specified from the position of the template having the maximum similarity value in the search area. That is, the position specifying unit 52 tracks the tracking shape in the swallowing movement by specifying the reference point P in each surface normal vector data acquired in time series.

〔色分画像作成手段について〕
前記色分画像作成手段44は、前記データ記憶手段42に記憶された面法線ベクトルデータに基づいて、色分画像データを作成するよう構成される。この色分画像データは、面法線ベクトルデータの各面法線ベクトルを方向に応じて色分けして、出力手段26で喉表面の凹凸形状に応じて色分した画像(以下、色分画像という)を表示させるためのデータである。実施例1では、色分画像作成手段44は、図10(a)に示すように、面法線ベクトルをX−Y平面上の8方向に分類し、各方向に対応した8種類の色で色分けを行うようになっている。例えば、喉表面の所定位置における面法線ベクトルがX−Y平面で右向きである場合、前記色分画像作成手段44は、喉表面における当該位置の色を黄色で表示する画像データを作成する(図10(b)参照)。同様に、喉表面の所定位置における面法線ベクトルがX−Y平面で上向きである場合、前記色分画像作成手段44は、喉表面における当該位置の色を青色で表示する画像データを作成する(図10(b)参照)。なお、図10(a),図10(b)では、色の代わりに模様を付して表示した。また、図10(c)は、図10(b)の色分画像のベースとなる喉表面の実際の画像である。喉表面における甲状軟骨12の頂部に対応する部位は、色分画像において色が放射状に変わる部分として表れる。
[About color image creation means]
The color image generation unit 44 is configured to generate color image data based on the surface normal vector data stored in the data storage unit 42. This color image data is an image obtained by color-dividing each surface normal vector of the surface normal vector data according to the direction and color-dividing according to the uneven shape of the throat surface by the output means 26 (hereinafter referred to as a color image). ) Is data for displaying. In the first embodiment, as shown in FIG. 10A, the color image generating unit 44 classifies the surface normal vectors into eight directions on the XY plane, and uses eight types of colors corresponding to each direction. Color coding is performed. For example, when the surface normal vector at a predetermined position on the throat surface is rightward on the XY plane, the color image generation unit 44 generates image data that displays the color at the position on the throat surface in yellow ( (See FIG. 10 (b)). Similarly, when the surface normal vector at a predetermined position on the throat surface is upward on the XY plane, the color image generation unit 44 generates image data for displaying the color at the position on the throat surface in blue. (See FIG. 10 (b)). In FIGS. 10A and 10B, a pattern is added instead of the color. FIG. 10C is an actual image of the throat surface that is the base of the color image of FIG. The part corresponding to the top of the thyroid cartilage 12 on the throat surface appears as a part where the color changes radially in the color image.

前記入力手段25は、測定者によって操作されるマウスやキーボード等の入力装置であって、前述のように、テンプレートの設定時に、前記テンプレート設定部48に対し基準点Pの位置およびテンプレートの範囲を入力するようになっている。また、探索領域の設定時に、探索領域設定部50に対して探索領域の範囲を入力するよう構成される。前記出力手段26は、液晶表示装置等のディスプレイ装置であって、前記制御装置24の算出結果を出力するよう構成される。すなわち、出力手段26は、前記位置特定部52で特定された基準点Pの位置の時間変化を表示するようになっている(図15参照)。ここで、実施例1では、出力手段26は、前述した基準画像データで指定した基準点Pの位置を基準位置とし、基準位置からY軸方向に基準点Pが移動したピクセル量(以下、移動ピクセル量という)の時間変化を表示するようになっている。更に、出力手段26は、図10(b)に示すように、前記色分画像作成手段44で作成された画像データに基づいて、喉表面の色分画像を表示するようになっている。なお、前述したように、出力手段26は、テンプレート設定部48に対しテンプレートを設定する際や、探索領域設定部50に対し探索領域を設定する際に用いられる設定画面を表示するよう構成される。   The input means 25 is an input device such as a mouse or a keyboard operated by a measurer. As described above, the position of the reference point P and the template range are set with respect to the template setting unit 48 when setting a template. It comes to input. Further, the search area range is input to the search area setting unit 50 when the search area is set. The output means 26 is a display device such as a liquid crystal display device, and is configured to output the calculation result of the control device 24. That is, the output means 26 displays the time change of the position of the reference point P specified by the position specifying unit 52 (see FIG. 15). Here, in the first embodiment, the output unit 26 uses the position of the reference point P specified by the above-described reference image data as the reference position, and the pixel amount (hereinafter referred to as the movement) by which the reference point P has moved in the Y-axis direction from the reference position. It is designed to display the time change (called pixel amount). Further, as shown in FIG. 10B, the output means 26 displays a color image on the throat surface based on the image data created by the color image creation means 44. As described above, the output unit 26 is configured to display a setting screen used when setting a template in the template setting unit 48 or setting a search region in the search region setting unit 50. .

〔実施例1の作用〕
次に、前述した摂食運動測定システム10による摂食運動の測定方法について、以下説明する。図11に示すように、摂食運動の測定方法は、被験者の喉表面(頭頸部表面)に向けて光を照射するステップS1と、分光画像データを取得するステップS2と、面法線ベクトルデータを算出するステップS3と、テンプレートおよび探索領域の設定を行うステップS4と、テンプレートマッチングを行うステップS5と、特定された甲状軟骨12の頂部Pの位置を出力するステップS6とを備えている。
[Operation of Example 1]
Next, a method for measuring eating movement by the above-described eating movement measuring system 10 will be described below. As shown in FIG. 11, the method for measuring the eating movement includes step S <b> 1 for irradiating light toward the throat surface (head and neck surface) of the subject, step S <b> 2 for obtaining spectral image data, and surface normal vector data. Step S3 for calculating the value, Step S4 for setting the template and search region, Step S5 for performing template matching, and Step S6 for outputting the position of the apex P of the identified thyroid cartilage 12.

前記赤色LED16、青色LED18および緑色LED20から照射された赤色光、青色光および緑色光は、夫々、異なる照射角度で喉表面に到達して該喉表面を照らす。喉表面で反射した光は、図4に示すように、3CCDカメラ22のレンズ部28を透過してカメラ本体30内に入り、前記分光部32に到達する。分光部32では、光が通過する間に赤色、青色および緑色の光に分光される。分光部32で分光された赤色光、青色光および緑色光は、赤色用CCD34、青色用CCD36および緑色用CCD38に夫々入力され、各CCD34,36,38において分光画像データ(赤色分光画像データ、青色分光画像データ、緑色分光画像データ)が3CCDカメラ22の撮影コマ(フレーム)毎に時系列的に取得される(ステップS2)。このとき、赤色、青色および緑色の光の波長は、図6に示すように、各CCD34,36,38の分光感度特性が互いに干渉せず、かつ分光感度が高くなる値に設定してあるから、各CCD34,36,38において色毎の正確な分光画像データが取得される。各CCD34,36,38で取得された分光画像データは、面法線ベクトル算出手段40に出力される。   Red light, blue light, and green light emitted from the red LED 16, blue LED 18, and green LED 20 reach the throat surface at different irradiation angles to illuminate the throat surface. As shown in FIG. 4, the light reflected by the throat surface passes through the lens unit 28 of the 3CCD camera 22 and enters the camera body 30 to reach the spectroscopic unit 32. The light splitting unit 32 splits the light into red, blue, and green light while the light passes through. The red light, the blue light and the green light separated by the spectroscopic unit 32 are respectively input to the red CCD 34, the blue CCD 36 and the green CCD 38, and spectral image data (red spectral image data, blue color light) are respectively input to the CCDs 34, 36 and 38. (Spectral image data, green spectral image data) is acquired in time series for each photographing frame (frame) of the 3CCD camera 22 (step S2). At this time, as shown in FIG. 6, the wavelengths of the red, blue, and green light are set to values at which the spectral sensitivity characteristics of the CCDs 34, 36, and 38 do not interfere with each other and the spectral sensitivity increases. In each CCD 34, 36, 38, accurate spectral image data for each color is acquired. The spectral image data acquired by each CCD 34, 36, 38 is output to the surface normal vector calculation means 40.

面法線ベクトル算出手段40に各色の分光画像データが入力されると、図12に示す如く、面法線ベクトル算出手段40が照度差ステレオ法により面法線ベクトルデータを算出する(ステップS7)。すなわち、面法線ベクトル算出手段40は、赤色分光画像データ、青色分光画像データおよび緑色分光画像データに基づき前記数3の式に基づき面法線ベクトルデータを時系列的に算出する。このように、面法線ベクトル算出手段40は、同時に取得された3種の分光画像データに基づいて面法線ベクトルデータを算出する3色光照度差ステレオ法を用いたから、単色の照度差ステレオ法のように、LEDを1つずつ発光させながら画像データを取得する必要がない。従って、嚥下運動に伴って形状が連続的に変化する喉表面であっても、面法線ベクトルデータを間断なくリアルタイムで算出することが可能となる。しかも、面法線ベクトルデータの算出にあたって、各CCD34,36,38で得られた正確な分光画像データを用いたから、実際の喉表面の凹凸形状に即した精度の高い面法線ベクトルデータを得ることができる。面法線ベクトル算出手段40で算出された面法線ベクトルデータは、データ記憶手段42に時系列的に記憶される(ステップS8)。   When spectral image data of each color is input to the surface normal vector calculation means 40, as shown in FIG. 12, the surface normal vector calculation means 40 calculates the surface normal vector data by the illuminance difference stereo method (step S7). . That is, the surface normal vector calculation means 40 calculates the surface normal vector data in time series based on the equation 3 based on the red spectral image data, the blue spectral image data, and the green spectral image data. As described above, the surface normal vector calculation means 40 uses the three-color light illuminance difference stereo method that calculates the surface normal vector data based on the three types of spectral image data acquired at the same time. As described above, it is not necessary to acquire image data while causing the LEDs to emit light one by one. Therefore, even on the throat surface whose shape continuously changes with swallowing movement, it is possible to calculate the surface normal vector data in real time without interruption. In addition, since the accurate spectral image data obtained by the CCDs 34, 36, and 38 is used in calculating the surface normal vector data, surface normal vector data with high accuracy in accordance with the uneven shape of the actual throat surface is obtained. be able to. The surface normal vector data calculated by the surface normal vector calculation means 40 is stored in time series in the data storage means 42 (step S8).

設定処理においては、図13に示すように、算出された面法線ベクトルデータのうちから、テンプレートマッチングの基準となるテンプレートがテンプレート設定部48により設定される(ステップS9)。すなわち、図8に示すように、出力手段26の設定画面に表示された基準画像において、入力手段25を介して甲状軟骨12の頂部に対応する位置を基準点Pとして指定する。また、設定画面における範囲設定バー54において、カーソル54aを左右にスライド移動させ、テンプレートの範囲(ピクセル数)を決定する。これらの入力に基づき、基準点Pを中心として、入力されたピクセル数の長さを有しY軸方向に延在する線状の範囲に含まれた面法線ベクトルデータがテンプレートとしてテンプレート設定部48により設定される。テンプレート設定部48で設定されたテンプレートは、テンプレート記憶部56に記憶される(ステップS10)。   In the setting process, as shown in FIG. 13, a template serving as a template matching reference is set by the template setting unit 48 from the calculated surface normal vector data (step S9). That is, as shown in FIG. 8, in the reference image displayed on the setting screen of the output means 26, the position corresponding to the top of the thyroid cartilage 12 is designated as the reference point P via the input means 25. In the range setting bar 54 on the setting screen, the cursor 54a is slid to the left and right to determine the template range (number of pixels). Based on these inputs, the surface normal vector data included in the linear range having the length of the number of input pixels and extending in the Y-axis direction around the reference point P is used as a template setting unit. 48. The template set by the template setting unit 48 is stored in the template storage unit 56 (step S10).

また、探索領域設定部50が、面法線ベクトルデータに対しテンプレートマッチングを行う探索領域を設定する(ステップS11)。すなわち、図8に示すように、出力手段26の設定画面における探索領域設定バー58において、入力手段25を介してカーソル58aを左右にスライド移動させて、探索領域の範囲(ピクセル数)を決定する。このとき、探索領域のピクセル数は、テンプレートの範囲より大きな値に設定される。探索領域のピクセル数が入力されると、基準点Pを中心としてテンプレートの範囲を包含する線状の領域が探索領域として探索領域設定部50により設定される。すなわち、探索領域は、テンプレートと同様に、上下方向(Y軸方向)に延在する範囲として設定される。探索領域設定部50で探索領域が設定されることで、設定処理が終了する。   The search area setting unit 50 sets a search area for performing template matching on the surface normal vector data (step S11). That is, as shown in FIG. 8, in the search area setting bar 58 on the setting screen of the output means 26, the cursor 58a is slid left and right via the input means 25 to determine the range (number of pixels) of the search area. . At this time, the number of pixels in the search area is set to a value larger than the template range. When the number of pixels of the search area is input, a linear area including the template range centering on the reference point P is set by the search area setting unit 50 as the search area. That is, the search area is set as a range extending in the vertical direction (Y-axis direction), like the template. When the search area setting unit 50 sets the search area, the setting process ends.

次に、テンプレートマッチング手段46によるテンプレートマッチング処理について説明する(ステップS5)。図14に示すように、テンプレートマッチング処理では、先ず始めに、位置特定部52がデータ記憶手段42に記憶された面法線ベクトルデータと、テンプレート記憶部56に記憶されたテンプレートとを読み出す(ステップS12)。そして、位置特定部52は、読み出した面法線ベクトルデータとテンプレートとに基づいて探索領域設定部50で設定された探索領域内でテンプレートマッチングを行う(ステップS13)。具体的には、位置特定部52は、探索領域内における面法線ベクトルデータとテンプレートとの類似度を、数5の式を用いて計算する。そして、探索領域内において最も類似度が大きくなる(NCCが1に近くなる)テンプレートの位置から、当該面法線ベクトルデータにおける基準点Pの位置(甲状軟骨12の頂部に対応する位置)を特定する(ステップS14)。すなわち、時系列的に取得される各面法線ベクトルデータにおける基準点Pが特定されることで、嚥下運動を測定するようになっている。また、実施例1では、類似度を計算するに際し、ベクトルの余弦として規定されるNCCを用いたので(図9参照)、喉表面の明るさの変化に影響を受けることはなく、甲状軟骨12の移動に伴い面形状が変化する喉表面の類似度を正確に計算することができる。但し、類似度の計算としては、前述したSSD(数5)やSAD(数6)等、類似性を算出し得る公知の方法を適宜採用し得る。   Next, template matching processing by the template matching means 46 will be described (step S5). As shown in FIG. 14, in the template matching process, first, the position specifying unit 52 reads the surface normal vector data stored in the data storage means 42 and the template stored in the template storage unit 56 (step S12). Then, the position specifying unit 52 performs template matching within the search region set by the search region setting unit 50 based on the read surface normal vector data and the template (step S13). Specifically, the position specifying unit 52 calculates the degree of similarity between the surface normal vector data and the template in the search region using the formula (5). Then, the position of the reference point P (the position corresponding to the top of the thyroid cartilage 12) in the surface normal vector data is specified from the position of the template having the highest similarity (NCC is close to 1) in the search area. (Step S14). That is, the swallowing movement is measured by specifying the reference point P in each surface normal vector data acquired in time series. In Example 1, since NCC defined as the cosine of the vector was used when calculating the similarity (see FIG. 9), the thyroid cartilage 12 is not affected by the change in the brightness of the throat surface. It is possible to accurately calculate the similarity of the throat surface, whose surface shape changes with movement of the throat. However, as the calculation of the similarity, a known method capable of calculating the similarity, such as the above-described SSD (Equation 5) or SAD (Equation 6), can be appropriately employed.

ここで、前述のように、テンプレートの範囲および探索領域は、前記テンプレート設定部48および探索領域設定部50において線状の領域に設定されている。従って、テンプレートの範囲や探索領域を面の領域に設定した場合に較べ、テンプレートマッチング時の計算量を少なくし得るから、テンプレートマッチングを効率的に行うことができ、基準点Pの位置を迅速に特定することができる。全ての面法線ベクトルデータに対するテンプレートマッチングが終了すると(ステップS15のYes)、テンプレートマッチング処理が終了する。   Here, as described above, the template range and the search region are set as linear regions in the template setting unit 48 and the search region setting unit 50. Therefore, since the amount of calculation at the time of template matching can be reduced compared with the case where the range of the template or the search area is set as a surface area, template matching can be performed efficiently, and the position of the reference point P can be quickly determined. Can be identified. When template matching for all the surface normal vector data ends (Yes in step S15), the template matching process ends.

テンプレートマッチング処理により位置特定部52で特定された基準点Pの位置は、出力手段26に入力される。出力手段26では、図15に示すように、入力された基準点Pの位置から移動ピクセル量を算出し、該移動ピクセル量の時間変化をグラフで表示する(ステップS6)。図15は、横軸が時間、縦軸が移動ピクセル量を示している。このように、基準点Pの移動ピクセル量の時間変化を出力手段26がグラフ化して表示することで、嚥下運動時での追跡形状(すなわち、甲状軟骨12)の動きを詳細に観察することができ、嚥下運動を解析することが可能となる。しかも、測定時に被験者にセンサー等を装着したり、被験者の首を固定したりする必要がないから、自然な嚥下運動を正確に測定することができる。従って、測定された嚥下運動を解析することで、飲食品の「食感」、医薬品の「飲み込み易さ」等を客観的に評価することができる。しかも、センサーや電極等の測定器具を被験者に装着する必要がないから、嚥下運動の測定を簡単かつ低コストで実施することができる。   The position of the reference point P specified by the position specifying unit 52 by the template matching process is input to the output unit 26. As shown in FIG. 15, the output means 26 calculates a moving pixel amount from the input position of the reference point P, and displays a temporal change of the moving pixel amount in a graph (step S6). In FIG. 15, the horizontal axis indicates time, and the vertical axis indicates the moving pixel amount. In this way, the output means 26 graphs and displays the temporal change in the moving pixel amount of the reference point P, so that the movement of the tracking shape (that is, the thyroid cartilage 12) during the swallowing exercise can be observed in detail. It is possible to analyze the swallowing movement. Moreover, since it is not necessary to attach a sensor or the like to the subject or fix the neck of the subject at the time of measurement, natural swallowing movement can be accurately measured. Therefore, by analyzing the measured swallowing motion, it is possible to objectively evaluate “food texture” of food and drink, “ease of swallowing” of pharmaceuticals, and the like. In addition, since it is not necessary to attach a measuring instrument such as a sensor or an electrode to the subject, swallowing movement can be measured easily and at low cost.

次に、喉表面の色分画像を出力する場合について説明する。なお、喉表面の色分画像を表示する際には、前述した面法線ベクトルデータ算出処理で算出された面法線ベクトルデータが用いられる。図16に示すように、色分画像作成手段44は、データ記憶手段42に記憶した面法線ベクトルデータを読み出す(ステップS16)。次に、色分画像作成手段44は、読み出した面法線ベクトルデータから色分画像データを作成する(ステップS17)。このとき、色分画像作成手段44は、図10(a)に示すように、面法線ベクトルを8方向に分類し、各方向に対応する色分けをした色分画像データを作成する。次に、色分画像作成手段44は、作成した色分画像データを出力手段26に出力する(ステップS18)。そして、出力手段26は、図10(b)に示すように、入力された色分画像データに基づいて、喉表面を色分けした画像を表示する。このように、実施例1に係る摂食運動測定システム10および測定方法によれば、喉表面の傾き(面法線ベクトルの方向)に応じて色分けした画像を表示することができるので、嚥下運動時における喉表面の変化を視覚的に把握することができる。従って、色分画像に基づいて、嚥下運動を詳細に観察および分析することが可能となり、飲食品等の「飲み込み易さ」等を評価することができる。   Next, a case where a color image of the throat surface is output will be described. Note that when displaying the color image of the throat surface, the surface normal vector data calculated by the above-described surface normal vector data calculation processing is used. As shown in FIG. 16, the color image generating unit 44 reads the surface normal vector data stored in the data storage unit 42 (step S16). Next, the color image generating unit 44 generates color image data from the read surface normal vector data (step S17). At this time, as shown in FIG. 10A, the color image generation unit 44 classifies the surface normal vectors into eight directions and generates color image data that is color-coded corresponding to each direction. Next, the color image creating unit 44 outputs the created color image data to the output unit 26 (step S18). And the output means 26 displays the image which color-coded the throat surface based on the input color image data as shown in FIG.10 (b). Thus, according to the eating movement measuring system 10 and the measuring method according to the first embodiment, it is possible to display the color-coded image according to the inclination of the throat surface (the direction of the surface normal vector). It is possible to visually grasp changes in the throat surface over time. Therefore, it is possible to observe and analyze the swallowing movement in detail based on the color image, and to evaluate “ease of swallowing” of food and drinks.

〔実験例1〕
次に、本発明に係る摂食運動測定システム10および測定方法を用いた測定実験を行った。被験者としての20代前半の男性に、コップに入れた水(200ml)を数回に分けて飲み込んでもらい、そのときの嚥下運動を測定した。図17に測定結果を示す。なお、図17における理想値は、出力手段26に表示した喉表面の画像から甲状軟骨12の頂部に対応する位置を目視により特定した場合における基準位置からの移動ピクセル量である。また、実験例1では、数4の式を用いて類似度を計算した。実験例1の結果から分かるように、本発明に係る摂食運動測定システム10で測定された実測値は、理想値にほぼ一致している。すなわち、本発明に係る測定システムおよび測定方法によれば、基準点Pの位置(甲状軟骨12の頂部に対応する位置)を正確に追跡することができ、嚥下運動を正確に測定し得ることが分かる。
[Experimental Example 1]
Next, a measurement experiment using the eating movement measuring system 10 and the measuring method according to the present invention was performed. A man in his early twenties as a test subject swallowed water (200 ml) contained in a cup in several times, and the swallowing motion at that time was measured. FIG. 17 shows the measurement results. The ideal value in FIG. 17 is the moving pixel amount from the reference position when the position corresponding to the top of the thyroid cartilage 12 is visually identified from the image of the throat surface displayed on the output means 26. In Experimental Example 1, the similarity was calculated using the equation (4). As can be seen from the results of Experimental Example 1, the actual measurement value measured by the eating movement measurement system 10 according to the present invention substantially matches the ideal value. That is, according to the measurement system and the measurement method according to the present invention, the position of the reference point P (the position corresponding to the top of the thyroid cartilage 12) can be accurately tracked, and the swallowing movement can be accurately measured. I understand.

〔実験例2〕
次に、実験例2として、飲料の違いによる嚥下運動の違いを本発明の嚥下運動測定システム10を用いて測定した。被験者には、水および食塩水を同量(200ml)ずつ飲んでもらい、水を飲んだ場合の測定結果と食塩水を飲んだ場合の測定結果とを比較した。食塩水は、人が飲み込むのに抵抗を感じる3重量%の濃度とした。実験例2の結果を図18に示す。なお、実験例2では、数4の式を用いて類似度を計算した。
[Experimental example 2]
Next, as Experimental Example 2, a difference in swallowing motion due to a difference in beverage was measured using the swallowing motion measurement system 10 of the present invention. The subjects were allowed to drink the same amount (200 ml) of water and saline, and the measurement results when drinking water were compared with the measurement results when drinking saline. The saline solution had a concentration of 3% by weight, which makes people feel resistance to swallowing. The result of Experimental Example 2 is shown in FIG. In Experimental Example 2, the similarity was calculated using the equation (4).

図18のグラフから分かるように、水を飲んだ場合と食塩水を飲んだ場合とでは、飲み終えるまでの時間が異なっている(食塩水の方が時間が長くなっている)。これは、被験者が食塩水を飲み辛いと感じて、食塩水を全て飲み干すまでに時間を要したものと判断される。また、食塩水のグラフは、グラフの立ち上がりや立ち下がりの傾きが、水に較べて緩やかとなっている。これは、食塩水が辛いため、被験者が飲み込むのを躊躇したものと判断される。このように、本発明の測定システムおよび測定方法を用いることで、異なる種類の飲食品や医薬品を飲んだ場合の嚥下運動を比較することで、「飲み込み易さ」等を評価することができる。   As can be seen from the graph of FIG. 18, the time until drinking is different between the case of drinking water and the case of drinking saline (the time of saline is longer). This is considered that it took time for the subject to feel that it was difficult to drink saline and to completely dry out the saline. Further, in the graph of saline solution, the slope of the rise and fall of the graph is gentler than that of water. This is determined to be a hesitation for the subject to swallow because the saline solution is hot. Thus, by using the measurement system and the measurement method of the present invention, it is possible to evaluate “ease of swallowing” and the like by comparing swallowing exercises when different types of foods and drinks and medicines are drunk.

〔実験例3〕
次に、類似度の計算方法を変えた場合に測定結果に生ずる差を比較する実験を行った。実験例は、前述した実施例1のように、類似度の計算にNCC(数4参照)を用いた。比較例は、類似度の計算に前記数6で表されるSADを用いた。被験者に水を200ml飲んでもらい測定結果を比較した。その測定結果を図19に示す。なお、理想値は、実験例1で説明したように、甲状軟骨12の頂部の位置を目視により特定したものである。
[Experimental Example 3]
Next, an experiment was conducted to compare the difference in the measurement results when the method of calculating the similarity was changed. In the experimental example, NCC (see Equation 4) was used to calculate the degree of similarity as in Example 1 described above. In the comparative example, the SAD represented by Equation 6 was used for calculating the similarity. The test subjects were allowed to drink 200 ml of water, and the measurement results were compared. The measurement results are shown in FIG. Note that the ideal value is obtained by visually identifying the position of the apex of the thyroid cartilage 12 as described in Experimental Example 1.

図19の結果から、SAD(一点鎖線)を用いた比較例よりも、NCC(実線)を用いた実験例の方が理想値によく一致していることが分かる。これは、図9に示すように、SADがベクトルの差であり、甲状軟骨12が上下することで変化する喉表面の輝度値(ベクトルの長さ)に大きく影響を受けるため、SADを用いた類似度計算では、基準点Pの位置を特定する際に誤差が生じたものと思われる。一方、NCCは、ベクトルの傾き(余弦)に依存し、喉表面の明るさの変化に影響を受けないため、基準点Pを正確に特定できたと判断される。すなわち、本発明における類似度の計算には、NCCを用いることで、より正確に嚥下運動を測定することができることが分かる。   From the results of FIG. 19, it can be seen that the experimental example using NCC (solid line) matches the ideal value better than the comparative example using SAD (dashed line). This is because, as shown in FIG. 9, SAD is a vector difference, and SAD is used because it is greatly affected by the brightness value (vector length) of the throat surface that changes as the thyroid cartilage 12 moves up and down. In the similarity calculation, it is considered that an error has occurred when the position of the reference point P is specified. On the other hand, NCC depends on the gradient of the vector (cosine) and is not affected by the change in the brightness of the throat surface, so it is determined that the reference point P can be accurately identified. That is, it can be seen that the swallowing movement can be measured more accurately by using NCC for calculating the similarity in the present invention.

実施例2の摂食運動測定システムおよび測定方法では、頭頸部表面(具体的には下顎表面)の凹凸形状を含む形状であって咀嚼運動時に表面形状を概ね維持したまま移動する形状を追跡形状に設定し、摂食に伴って咀嚼した際に当該追跡形状の位置を時系列的に特定することで、被験者の咀嚼運動を測定するよう構成されている。実施例2では、下顎表面に凹凸形状が顕著に表出すると共に咀嚼運動に追従して上下移動する下顎骨のオトガイ隆起62aに対応する箇所を基準点P1として、当該基準点P1を含んだ形状が追跡形状(第1のテンプレート)として設定されている。また、実施例2に係る摂食運動測定システムおよび測定方法では、実施例1と同様に頭頸部表面(具体的には喉表面)の凹凸形状を含む形状であって嚥下動作時に表面形状を概ね維持したまま移動する形状を追跡形状に設定し、摂食に伴って嚥下した際に当該追跡形状の位置を時系列的に特定することで、被験者の嚥下運動を測定するよう構成されている。実施例2では、喉表面に凹凸形状が顕著に表出すると共に嚥下運動に追従して上下移動する甲状軟骨12の頂部に対応する箇所を基準点P2として、当該基準点P2を含んだ形状が追跡形状(第2のテンプレート)として設定されている。なお、本発明において摂食に伴う咀嚼運動を追跡する追跡形状としては、凹凸形状を含む部分であれば、下顎表面の何れの部位を追跡形状に設定してもよい。例えば、追跡形状として、咀嚼運動時に上下移動する下顎骨62の下顎底64や下顎角66(図20参照)に起因する下顎表面の凹凸形状を含む形状を追跡形状として設定してもよい。なお、下顎骨62のオトガイ隆起62aに起因した凹凸形状を基準点P1として指定することで、咀嚼運動に伴う上下移動が顕著に表出し、咀嚼運動を正確に追跡することが可能となる。   In the eating movement measuring system and measuring method according to the second embodiment, the shape of the head and neck surface (specifically, the surface of the lower jaw) including the uneven shape and the shape that moves while maintaining the surface shape generally during the mastication movement are tracked. It is configured to measure the masticatory movement of the subject by specifying the position of the tracking shape in time series when chewing with eating. In the second embodiment, a shape including the reference point P1 is defined with a position corresponding to the mandible bulge 62a of the mandible moving up and down following the mastication motion as a reference point P1 with a concavity and convexity remarkably appearing on the lower jaw surface. Is set as a tracking shape (first template). Moreover, in the eating movement measuring system and the measuring method according to the second embodiment, as in the first embodiment, the shape includes the irregular shape of the head and neck surface (specifically, the throat surface), and the surface shape is generally set during the swallowing operation. The tracking shape is set as a tracking shape, and the swallowing movement of the subject is measured by specifying the position of the tracking shape in time series when swallowing with eating. In Example 2, an uneven shape appears remarkably on the throat surface, and a location corresponding to the top of the thyroid cartilage 12 that moves up and down following the swallowing motion is defined as a reference point P2, and a shape including the reference point P2 is obtained. It is set as a tracking shape (second template). In the present invention, as the tracking shape for tracking the mastication movement associated with eating, any part of the mandibular surface may be set as the tracking shape as long as it includes a concavo-convex shape. For example, as the tracking shape, a shape including an uneven shape of the mandible surface due to the mandibular base 64 and the mandibular angle 66 (see FIG. 20) of the mandible 62 that moves up and down during the mastication motion may be set as the tracking shape. In addition, by designating the concavo-convex shape resulting from the chin ridge 62a of the mandible 62 as the reference point P1, the vertical movement accompanying the mastication movement is remarkably expressed, and the mastication movement can be accurately tracked.

実施例2に係る摂食運動測定システムは、実施例1で示した摂食運動測定システム10と基本的構成が同じであることから、同一の機能を備える構成については同一の符号を付して詳細な説明を省略し、異なる構成について以下説明する。図21は、実施例2に係る摂食運動測定システム10の全体構成を示すブロック図である。実施例2に係る摂食運動測定システム10では、異なる波長の光を照射する発光手段として、不可視領域である赤外線領域の光を照射する複数(実施例では3つ)の赤外線LED72,74,76が用いられており、被験者の甲状軟骨12および下顎骨62を含む頭頸部表面(喉表面および下顎表面)に向けて赤外線を照射するよう構成されている。そして、実施例2に係る摂食運動測定システム10では、下顎表面および喉表面を撮影して分光画像データを取得する撮像手段として、赤外線を撮影可能な3CCDカメラ78が用いられている。なお、実施例2に係る摂食運動測定システム10においても、赤外線LED72,74,76および3CCDカメラ78は実施例1と同様の位置関係で配置されており、被験者の喉表面および下顎表面に照射した赤外線の光により3CCDカメラ78で撮影し得るようになっている。また、実施例2に係る3つの赤外線LED72,74,76は、不可視である近赤外線領域で、かつ通常の3CCDカメラ78が十分な感度を有する約700nm〜900nmの互いに干渉しない波長の光を照射するよう構成されている。   Since the basic configuration of the eating movement measuring system according to the second embodiment is the same as that of the eating movement measuring system 10 shown in the first embodiment, components having the same functions are denoted by the same reference numerals. Detailed description will be omitted, and different configurations will be described below. FIG. 21 is a block diagram illustrating the overall configuration of the eating movement measurement system 10 according to the second embodiment. In the eating movement measuring system 10 according to the second embodiment, a plurality of (three in the embodiment) infrared LEDs 72, 74, and 76 that irradiate light in an infrared region that is an invisible region as light emitting means for irradiating light of different wavelengths. Is used to irradiate infrared rays toward the head and neck surface (throat surface and mandibular surface) including the thyroid cartilage 12 and the mandible 62 of the subject. In the eating movement measurement system 10 according to the second embodiment, a 3CCD camera 78 capable of photographing infrared rays is used as an imaging unit that captures the mandibular surface and the throat surface to acquire spectral image data. In the eating movement measuring system 10 according to the second embodiment, the infrared LEDs 72, 74, 76 and the 3CCD camera 78 are arranged in the same positional relationship as in the first embodiment, and the subject's throat surface and lower jaw surface are irradiated. The 3CCD camera 78 can be photographed by the infrared light. In addition, the three infrared LEDs 72, 74, and 76 according to the second embodiment irradiate light of a wavelength that does not interfere with each other in the near-infrared region that is invisible and that the normal 3CCD camera 78 has sufficient sensitivity. It is configured to

前記各赤外線LED72,74,76および3CCDカメラ78には、透過波長の異なるバンドパスフィルタが夫々設置されており、波長の異なる赤外線を頭頸部表面(下顎表面および喉表面)に照射した際に3つの分光画像データを3CCDカメラ78が取得し得るようになっている。そして、3CCDカメラ78が取得した各波長の分光画像データが前記制御装置24の面法線ベクトル算出手段40に出力されるよう構成されている。ここで、図22は、実施例2で用いたバンドパスフィルタの分光特性を示す。すなわち、実施例2では、780±5[nm]、850±5[nm]、880±5[nm]の近赤外線ににより分光画像データを取得するよう構成されている。なお、実施例2の3CCDカメラ78の単位時間あたりのフレーム数は、実施例1と同様に30fpsのものを用いているが、これに限定されないことは同様である。   Each of the infrared LEDs 72, 74, 76 and the 3CCD camera 78 is provided with a bandpass filter having a different transmission wavelength. When infrared rays having different wavelengths are irradiated on the head and neck surface (mandibular surface and throat surface), 3 One spectral image data can be acquired by the 3CCD camera 78. The spectral image data of each wavelength acquired by the 3CCD camera 78 is output to the surface normal vector calculation means 40 of the control device 24. Here, FIG. 22 shows the spectral characteristics of the bandpass filter used in the second embodiment. In other words, the second embodiment is configured to acquire spectral image data using near infrared rays of 780 ± 5 [nm], 850 ± 5 [nm], and 880 ± 5 [nm]. The number of frames per unit time of the 3CCD camera 78 of the second embodiment is 30 fps as in the first embodiment, but is not limited to this.

そして、実施例2に係る制御装置24の面法線ベクトル算出手段40は、3CCDカメラ78で取得した各波長の分光画像データに基づいて前述した3色光照度差ステレオ法により面法線ベクトルデータを算出するよう構成されている。すなわち、3つの赤外線LED72,74,76から異なる3つの波長の赤外線を頭頸部表面(下顎表面および喉表面)に同時に照射し、その反射光を分離して波長毎の輝度データである分光画像データをリアルタイムで取得することで、咀嚼運動に伴って面形状が連続的に変化する下顎表面の面法線ベクトルnおよび嚥下運動に伴って面形状が連続的に変化する喉表面の面法線ベクトルnを夫々算出し得るようになっている。そして、面法線ベクトル算出手段40で算出された面法線ベクトルデータは、データ記憶手段42に時系列的に記憶され、テンプレートマッチング手段46においてテンプレートマッチングする際や、前記色分画像作成手段44で色分画像データを作成する際に読み出されるよう構成される。   Then, the surface normal vector calculation means 40 of the control device 24 according to the second embodiment obtains the surface normal vector data by the above-described three-color light illuminance difference stereo method based on the spectral image data of each wavelength acquired by the 3CCD camera 78. It is configured to calculate. In other words, infrared light of three different wavelengths from the three infrared LEDs 72, 74, 76 are simultaneously irradiated onto the head and neck surface (mandibular surface and throat surface), and the reflected light is separated to obtain spectral image data that is luminance data for each wavelength. Is obtained in real time, and the surface normal vector n of the mandibular surface whose surface shape continuously changes with the mastication motion and the surface normal vector of the throat surface whose surface shape continuously changes with the swallowing motion Each of n can be calculated. The surface normal vector data calculated by the surface normal vector calculating means 40 is stored in the data storage means 42 in time series, and when the template matching is performed by the template matching means 46, the color image generating means 44. The color image data is read when the color image data is created.

また、実施例2に係る摂食運動測定システム10に設けられたテンプレートマッチング手段46のテンプレート設定部48は、前記データ記憶手段42に記憶された面法線ベクトルデータのうち基準となる面法線ベクトルデータから、2種類の第1のテンプレートおよび第2のテンプレートを夫々設定可能に構成される。ここで、テンプレート設定部48で設定される第1のテンプレートとしては、下顎骨62のオトガイ隆起62aに起因する凹凸形状が含まれる追跡形状に対応する面法線ベクトルデータで構成され、第2のテンプレートとしては、実施例1と同様に甲状軟骨12の頂部に起因する凹凸形状が含まれる追跡形状に対応する面法線ベクトルデータで構成される。具体的には、図23に示すように、出力手段26に表示させた設定画面に入力手段25を介して基準点P1の位置および第1のテンプレートとする範囲が入力され、当該入力値に基づいて面法線ベクトルデータからテンプレート設定部48が第1のテンプレートを設定する。なお、実施例2では、第1のテンプレートが作成される基準となる面法線ベクトルデータは、被験者が咀嚼運動を開始する前の下顎表面における面法線ベクトルデータに設定されている。設定画面には、基準となる面法線ベクトルデータに対応する画像データ(以下、基準画像データという)が表示され、前記基準点P1は、基準画像データにおいて、下顎骨62のオトガイ隆起62aに対応する位置を入力手段25で指定することで設定される。また、第1のテンプレートの範囲は、設定画面に設けた範囲設定バー54において、入力手段25を介してカーソル55aを左右にスライド移動させ、第1のテンプレートとする範囲のピクセル数(画素数)を決定することで行われる。ピクセル数が入力されると、テンプレート設定部48は、基準点P1を通ると共に咀嚼運動時における下顎骨62の運動方向(Y軸方向)に入力されたピクセル数の長さで延在する線状の領域を第1のテンプレートの範囲として設定する。すなわち、テンプレート設定部48は、前記基準点P1を中心とした上下方向に延在する線分を第1のテンプレートとして設定する。ここで、第1のテンプレートの幅方向(X軸方向)の範囲は、1ピクセルに設定してある。なお、甲状軟骨12の頂部に対応した第2のテンプレートの設定に関しては、前述した実施例1におけるテンプレートの設定と同じなので、詳細な説明は省略する。また、第1のテンプレートおよび第2のテンプレートは、前記テンプレート記憶部56に一時的に記憶されて、位置特定部52がテンプレートマッチングを行う際に読み出される。   Further, the template setting unit 48 of the template matching unit 46 provided in the eating movement measuring system 10 according to the second embodiment uses the surface normal vector as a reference among the surface normal vector data stored in the data storage unit 42. Two types of first template and second template can be set from the vector data. Here, the first template set by the template setting unit 48 is composed of surface normal vector data corresponding to a tracking shape including an uneven shape caused by the chin ridge 62a of the mandible 62, and the second template As in the first embodiment, the template is composed of surface normal vector data corresponding to a tracking shape including an uneven shape caused by the top of the thyroid cartilage 12. Specifically, as shown in FIG. 23, the position of the reference point P1 and the range as the first template are input to the setting screen displayed on the output unit 26 via the input unit 25, and based on the input value. Then, the template setting unit 48 sets the first template from the surface normal vector data. In Example 2, the surface normal vector data serving as a reference for creating the first template is set to the surface normal vector data on the mandibular surface before the subject starts mastication. The setting screen displays image data corresponding to the reference surface normal vector data (hereinafter referred to as reference image data), and the reference point P1 corresponds to the bulge 62a of the mandible 62 in the reference image data. It is set by designating the position to be performed by the input means 25. The range of the first template is the number of pixels (number of pixels) in the range set as the first template by sliding the cursor 55a to the left and right via the input means 25 in the range setting bar 54 provided on the setting screen. It is done by determining. When the number of pixels is input, the template setting unit 48 passes through the reference point P1 and extends in the length of the number of pixels input in the movement direction (Y-axis direction) of the mandible 62 during the mastication movement. Is set as the range of the first template. That is, the template setting unit 48 sets a line segment extending in the vertical direction around the reference point P1 as the first template. Here, the range in the width direction (X-axis direction) of the first template is set to 1 pixel. Since the setting of the second template corresponding to the top of the thyroid cartilage 12 is the same as the setting of the template in the first embodiment described above, detailed description thereof is omitted. In addition, the first template and the second template are temporarily stored in the template storage unit 56 and read when the position specifying unit 52 performs template matching.

実施例2の探索領域設定部50は、咀嚼運動を測定する探索領域として、前記基準点P1を通ると共に前記第1のテンプレートの範囲を包含する線状の領域を設定すると共に、嚥下運動を測定する探索領域として、前記基準点P2を通ると共に前記第2のテンプレートの範囲を包含する線状の領域を設定するよう構成されている。具体的には、図23に示すように、咀嚼運動の探索領域を設定する探索領域設定バー59と、嚥下運動の探索領域を設定する探索領域設定バー58とが設定画面に表示されるようになっており、入力手段25を介して測定者が探索領域設定バー59のカーソル59aおよび探索領域設定バー58のカーソル58aを左右にスライド移動することで、面法線ベクトルデータにおいて咀嚼運動を探索する範囲および嚥下運動を探索する範囲がピクセル数(画素数)で個別に入力される。そして、入力されたピクセル数に基づいて、探索領域設定部50は、図23に示すように、前記基準点P1を中心とし、前記第1のテンプレートより長尺なY軸方向に延在する線状の領域を咀嚼運動の探索領域として設定し、基準点P2を中心とし、前記第2のテンプレートより長尺なY軸方向に延在する線状の領域を嚥下運動の探索領域として設定するよう構成されている。なお、各運動の探索領域として入力されるY軸方向のピクセル数は、各運動に対応したテンプレートの範囲のピクセル数より大きな値に設定される。   The search area setting unit 50 according to the second embodiment sets a linear area that passes through the reference point P1 and includes the range of the first template as a search area for measuring mastication movement, and measures swallowing movement. As a search area to be performed, a linear area that passes through the reference point P2 and includes the range of the second template is set. Specifically, as shown in FIG. 23, a search area setting bar 59 for setting a search area for mastication movement and a search area setting bar 58 for setting a search area for swallowing movement are displayed on the setting screen. The measurer searches the mastication motion in the surface normal vector data by sliding the cursor 59a of the search area setting bar 59 and the cursor 58a of the search area setting bar 58 to the left and right via the input means 25. The range and the range to search for swallowing motion are individually input in the number of pixels (number of pixels). Then, based on the number of input pixels, the search area setting unit 50 has a line extending in the Y-axis direction that is longer than the first template and centered on the reference point P1, as shown in FIG. A linear region as a masticatory motion search region, and a linear region extending in the Y-axis direction that is longer than the second template and centering on the reference point P2 is set as a swallowing motion search region It is configured. Note that the number of pixels in the Y-axis direction input as the search area for each motion is set to a value larger than the number of pixels in the template range corresponding to each motion.

前記位置特定部52は、前記データ記憶手段42に記憶された各面法線ベクトルデータを読み出すと共に、前記テンプレート記憶部56に記憶された第1のテンプレートおよび第2のテンプレートを読み出して、前記咀嚼運動の探索領域および嚥下運動の探索領域内においてテンプレートマッチングを夫々行うよう構成される。すなわち、前記位置特定部52は、前記データ記憶手段42から読み出した各面法線ベクトルデータにおいて、第1のテンプレートとの類似度を咀嚼運動の探索領域内で算出する。そして、咀嚼運動の探索領域内で類似度の値が最大となった第1のテンプレートの位置から当該面法線ベクトルデータにおける基準点P1の位置を特定する。すなわち、位置特定部52は、時系列的に取得される各面法線ベクトルデータにおける第1のテンプレート(基準点P1)の位置を特定することで、咀嚼運動を追跡するようになっている。同様に、前記位置特定部52は、前記データ記憶手段42から読み出した各面法線ベクトルデータにおいて、第2のテンプレートとの類似度を嚥下運動の探索領域内で算出する。そして、嚥下運動の探索領域内で類似度の値が最大となった第2のテンプレートの位置から当該面法線ベクトルデータにおける基準点P2の位置を特定する。すなわち、位置特定部52は、時系列的に取得される各面法線ベクトルデータにおける第2のテンプレート(基準点P2)の位置を特定することで、嚥下運動での追跡形状を追跡するようになっている。   The position specifying unit 52 reads each surface normal vector data stored in the data storage unit 42, and also reads the first template and the second template stored in the template storage unit 56, so that the mastication is performed. Template matching is performed in each of the motion search region and the swallowing motion search region. That is, the position specifying unit 52 calculates the similarity with the first template in each surface normal vector data read from the data storage means 42 within the search area of the mastication movement. And the position of the reference point P1 in the said surface normal vector data is specified from the position of the 1st template in which the value of the similarity became the maximum within the search area | region of a mastication movement. That is, the position specifying unit 52 tracks the mastication movement by specifying the position of the first template (reference point P1) in each surface normal vector data acquired in time series. Similarly, the position specifying unit 52 calculates the similarity with the second template in each surface normal vector data read from the data storage means 42 within the search region for swallowing movement. Then, the position of the reference point P2 in the surface normal vector data is specified from the position of the second template having the maximum similarity value within the swallowing movement search region. That is, the position specifying unit 52 tracks the tracking shape in the swallowing movement by specifying the position of the second template (reference point P2) in each surface normal vector data acquired in time series. It has become.

また、実施例2では、図24(a)に示すように、X−Y平面における面法線ベクトルの向きを当該平面上の全方向で色分けした色分画像データを色分画像作成手段44が作成して、この色分画像データに基づいて頭頸部表面の色分画像が前記出力手段26に表示されるようになっている。なお、図24(b)は、色分画像作成手段44により色分けされる面法線ベクトルの向きを、グラデーション表示した状態を示す。なお、図24(c)では、実施例1と同様に面法線ベクトルをX−Y平面上の8方向に分類した状態を、色彩に変えて模様を付して示すものである。すなわち、実施例2において、基準点P1や基準点P2のように突出した身体的特徴部位は、色分画像において色彩が放射状に変化する特徴的な表示態様となる。   In the second embodiment, as shown in FIG. 24A, the color image generation unit 44 generates color image data obtained by color-coding the direction of the surface normal vector in the XY plane in all directions on the plane. The color image of the head and neck surface is generated and displayed on the output means 26 based on the color image data. FIG. 24B shows a state in which the orientations of the surface normal vectors color-coded by the color image creating unit 44 are displayed in gradation. FIG. 24C shows a state in which the surface normal vectors are classified into eight directions on the XY plane in the same manner as in the first embodiment, with the pattern changed to the color. That is, in the second embodiment, the bodily characteristic portions that protrude like the reference point P1 and the reference point P2 have a characteristic display mode in which the color changes radially in the color image.

〔実施例2の作用〕
次に、前述した実施例2に係る摂食運動測定システム10による摂食運動の測定方法について、説明する。実施例2に係る摂食運動測定システム10による摂食運動の測定方法では、前述した実施例1に対して被験者に照射される光の波長が異なると共に、複数の基準点P1,P2を設定して、下顎表面および喉表面の動作を追跡する点で異なっている。すなわち、実施例2では、測定用の光源として赤外線を照射することで、測定時に被験者が眩しく感じることはなく、被験者に対する負担を軽減することができる。また、蛍光灯が有する波長領域外の近赤外線光を採用することで、蛍光灯下の室内環境での測定も可能となる。このように、測定用の光源として赤外線を利用することで、被験者が通常飲食する状態と近い環境で測定することができ、より自然な摂食運動(咀嚼運動や嚥下運動)を測定することができる。
[Operation of Example 2]
Next, a method for measuring eating movement by the eating movement measuring system 10 according to the second embodiment will be described. In the eating movement measuring method by the eating movement measuring system 10 according to the second embodiment, the wavelength of light irradiated on the subject is different from that in the first embodiment, and a plurality of reference points P1 and P2 are set. Differing in tracking the mandibular and throat surface movements. That is, in Example 2, by irradiating infrared rays as a light source for measurement, the subject does not feel dazzling at the time of measurement, and the burden on the subject can be reduced. In addition, by using near infrared light outside the wavelength region of a fluorescent lamp, measurement in an indoor environment under the fluorescent lamp is also possible. In this way, by using infrared rays as a light source for measurement, it is possible to measure in an environment close to the state in which the subject normally eats and drinks, and more natural feeding movements (chewing movements and swallowing movements) can be measured it can.

また、実施例2では、出力手段26の設定画面に表示された基準画像において、入力手段25を介して下顎骨62のオトガイ隆起62aに対応する位置を基準点P1として指定すると共に、甲状軟骨12の頂部に対応する位置を基準点P2として指定することで、各基準点P1,P2を中心として線状の範囲に含まれた面法線ベクトルデータが第1のテンプレートおよび第2のテンプレートとして設定される。そして、第1のテンプレートを包含する探索領域および第2のテンプレートを包含する探索領域を夫々個別に設定することで、データ記憶手段42に記憶された面法線ベクトルデータと、第1および第2のテンプレートとに基づいて各探索領域内でテンプレートマッチングが行われる。具体的には、各探索領域内における面法線ベクトルデータと対応する各テンプレートとの類似度が、数5の式を用いて位置特定部52により計算されて、各探索領域内において最も類似度が大きくなる(NCCが1に近くなる)テンプレートの位置に基づいて、当該面法線ベクトルデータにおける基準点P1の位置(下顎骨62のオトガイ隆起62aに対応する位置)および基準点P2の位置(甲状軟骨12の頂部に対応する位置)が特定される。すなわち、時系列的に取得される各面法線ベクトルデータにおける基準点P1,P2を特定することで、咀嚼運動と嚥下運動とが同時に連続して測定される。そして、基準点P1,P2の移動ピクセル量の時間変化を出力手段26がグラフ化して表示することで、摂食運動時での追跡形状(すなわち、下顎骨62や甲状軟骨12)の動きを同時に詳細に観察することができ、摂食運動を解析することが可能となる。このように、測定時に被験者にセンサー等を装着したり、被験者の首を固定したりする必要がないから、自然な状態で咀嚼運動や嚥下運動を同時に正確に測定することができる。従って、測定された摂食運動を解析することで、摂食した飲食品の噛み応えなどの「食感」や「飲み込み易さ」等を客観的に評価することができる。しかも、センサーや電極等の測定器具を被験者に装着する必要がないから、摂食運動の測定を簡単かつ低コストで実施することができる。   Further, in the second embodiment, in the reference image displayed on the setting screen of the output unit 26, the position corresponding to the chin ridge 62a of the mandible 62 is designated as the reference point P1 through the input unit 25, and the thyroid cartilage 12 is specified. By designating the position corresponding to the top of the reference point P2, the surface normal vector data included in the linear range with the reference points P1 and P2 as the center is set as the first template and the second template. Is done. Then, by separately setting the search area including the first template and the search area including the second template, the surface normal vector data stored in the data storage unit 42, the first and second Template matching is performed in each search region based on the template. Specifically, the similarity between the surface normal vector data in each search region and each corresponding template is calculated by the position specifying unit 52 using the equation of Formula 5, and the similarity is the highest in each search region. Is increased (NCC is close to 1) based on the template position, the position of the reference point P1 in the surface normal vector data (the position corresponding to the chin ridge 62a of the mandible 62) and the position of the reference point P2 ( The position corresponding to the top of the thyroid cartilage 12) is specified. That is, by specifying the reference points P1 and P2 in each surface normal vector data acquired in time series, the masticatory movement and the swallowing movement are measured simultaneously and continuously. Then, the output means 26 displays the time variation of the moving pixel amount of the reference points P1 and P2 in a graph, so that the movement of the tracking shape (that is, the mandible 62 and the thyroid cartilage 12) at the time of feeding exercise can be simultaneously performed. It is possible to observe in detail and to analyze the feeding movement. Thus, since it is not necessary to attach a sensor or the like to the subject or fix the subject's neck at the time of measurement, it is possible to accurately measure the mastication movement and the swallowing movement simultaneously in a natural state. Therefore, by analyzing the measured eating movement, it is possible to objectively evaluate “feel” and “ease of swallowing” such as chewing response of the eaten food and drink. In addition, since it is not necessary to wear a measuring instrument such as a sensor or an electrode on the subject, feeding exercise can be measured easily and at low cost.

〔実験例4〕
次に、実施例2に係る摂食運動測定システム10および測定方法を用いて行った測定実験について説明する。本実験例では、被験者として20代前半の4人の男性に、食感が異なる3種類の食物を摂食してもらい、そのときの咀嚼運動と嚥下運動の様子を前述した摂食運動測定システム10および測定方法により測定した。なお、本実験例では、イカの内臓を切り開いて乾燥させた固く噛み砕き難いスルメイカと、柔らかく崩れやすい豆腐と、固さはないものの弾力や粘りがあるわらび餅の3種類を採用し、経口摂取してから嚥下するまでの一連の運動を測定している。図25〜図28に各被験者の測定結果を示す。また、各被験者が咀嚼を始めてから最初に嚥下運動に入るまでに行った咀嚼回数を表1に示すと共に、当該最初の嚥下運動までのフレーム数(時間)を表2に示す。なお、本実験例で用いた3CCDカメラ78が単位時間あたりに撮像するフレーム数は、30fps(フレーム/秒)である。
[Experimental Example 4]
Next, a measurement experiment performed using the eating movement measurement system 10 and the measurement method according to Example 2 will be described. In this experimental example, four men in their early twenties as subjects took three types of foods with different textures, and the eating movement measurement system 10 described above for the chewing and swallowing movements at that time was described above. And measured by the measuring method. In this experimental example, three types of cuttlefish that have been cut open and dried and hard to bite, soft and easy-to-break tofu, and hard but soft and sticky warabimochi are used and taken orally. A series of movements from swallowing to swallowing are measured. The measurement result of each subject is shown in FIGS. Table 1 shows the number of mastications performed from the start of each mastication to the first swallowing exercise, and Table 2 shows the number of frames (time) until the first swallowing exercise. Note that the number of frames taken by the 3CCD camera 78 used in this experimental example per unit time is 30 fps (frames / second).

図25〜図28や表1,2から、固く噛み砕き難いスルメイカを摂取した場合には、相対的に柔らかいわらび餅や豆腐を摂取した場合と比べて、嚥下運動に入るまでの咀嚼回数が多くなり、また嚥下可能になるまで咀嚼するのに時間を要していることが分かる。これとは反対に、柔らかく脆い豆腐を摂取した場合には、固いスルメイカや弾力のあるわらび餅を摂取した場合と比べて、少ない咀嚼回数で嚥下運動に移行することが分かる。また、柔らかく噛み応えの少ない豆腐を摂取した場合には、相対的に噛み応えのあるスルメイカやわらび餅と比べて、被験者の咀嚼運動が小さくなっていることが分かる。すなわち、本発明に係る摂食運動測定システム10およびその測定方法によれば、異なる食物を摂取した場合に咀嚼から嚥下に移行するまでの咀嚼回数や咀嚼時間を把握することができ、咀嚼運動や嚥下運動に基づいて、「噛み切り易さ」、「噛み応え感」といった咀嚼から得られる感覚を、被験者に対して非接触かつ非侵襲な状態で評価することができる。また、嚥下運動を測定しているから、実施例1と同様に「飲み込み易さ」等を評価することも可能である。   From Fig. 25 to Fig. 28 and Tables 1 and 2, when squid squid that is hard to chew is ingested, the number of chewing cycles before swallowing is increased compared to the intake of relatively soft warabimochi and tofu. It can also be seen that it takes time to chew until swallowing is possible. Contrary to this, it can be seen that when soft and brittle tofu is ingested, it moves to swallowing movements with a smaller number of chewing cycles than when ingesting hard squid and elastic warabimochi. It can also be seen that when ingesting tofu that is soft and less chewable, the chewing movement of the subject is smaller than that of the squid and warabimochi that are relatively chewy. That is, according to the eating movement measuring system 10 and the measuring method thereof according to the present invention, when different foods are ingested, it is possible to grasp the number of mastication times and the mastication time until shifting from mastication to swallowing. Based on the swallowing motion, sensations obtained from mastication such as “ease of biting” and “feeling of biting” can be evaluated in a non-contact and non-invasive state with respect to the subject. Further, since the swallowing movement is measured, it is possible to evaluate “ease of swallowing” and the like as in the first embodiment.

また、摂取した食物毎の咀嚼運動と嚥下運動との関係は、被験者によらず一定の傾向を示している。この実験例から、本発明に係る摂食運動測定システムおよびその測定方法を用いることで、被験者の個人の感覚に依存することなく、咀嚼運動と嚥下運動との関係を相対的に評価することができることが分かる。更に、摂取した食物毎に、嚥下運動までの咀嚼回数の分布や咀嚼運動の大きさを把握できることから、摂取した食物がどのような食感の食物であるかを推定することも可能となることが分かる。   Moreover, the relationship between the chewing movement and the swallowing movement for each ingested food shows a certain tendency regardless of the subject. From this experimental example, by using the eating movement measuring system and the measuring method according to the present invention, it is possible to relatively evaluate the relationship between the masticatory movement and the swallowing movement without depending on the individual sense of the subject. I understand that I can do it. In addition, for each ingested food, it is possible to grasp the distribution of the number of chewing cycles until swallowing and the size of the chewing movement, so it is possible to estimate what kind of texture the ingested food is I understand.

〔変更例〕
本発明に係る摂食運動測定システムおよび測定方法としては、各実施例に示したものに限定されるものでなく、例えば以下の如き変更が可能である。
(1) 実施例では、発光手段としてLEDを採用したが、必ずしも、LEDに限定されるものではない。発光手段としては、相互に異なる波長を照射し得るものであれば、ハロゲンランプ、色素レーザー、発光ダイオード(LD)、エレクトロルミネッセンス(EL)等、他の発光装置を採用することが可能である。但し、コストや発熱の観点からLEDが特に好ましく用いられる。
(2) 実施例では、3つの発光手段で光を照射したが、発光手段は4つ以上であってもよい。また、実施例では、撮像手段を中心として、3つの発光手段を正三角形状に配置したが、喉表面に対して異なる照射角度で光を照射し得るものであれば、発光手段は、異なる位置関係で配置してもよい
(3) 実施例では、撮像手段として、3CCDカメラを採用したが、各色の分光画像データを取得し得るものであれば、他のカメラを採用することができる。
(4) 実施例では、テンプレートの範囲および探索領域を線状の領域としたが、両者を面状の領域としてもよい。但し、探索領域は、テンプレートを包含した領域に設定する必要がある。また、テンプレートのみを線状の範囲とし、探索領域を、テンプレートを包含した面状の領域としてもよい。更に、必ずしも探索領域を設定する必要はなく、面法線ベクトルデータの全範囲に対し、テンプレートマッチングを行ってもよい。
(5) 実施例では、入力手段を介して基準点やテンプレートの範囲を入力することで、テンプレート設定部がテンプレートを設定するようにしたが、テンプレート設定部が予め設定された基準点およびテンプレートの範囲を自動的に設定するようにしてもよい。また、必ずしも、入力手段を介して入力した探索領域の範囲に基づいて、探索領域設定部が探索領域を設定する必要はなく、予め設定された探索領域を探索領域設定部が自動的に設定するようにしもよい。
(6) 実施例では、出力手段に表示された設定画面に入力手段を介して基準点等を入力するようにしたが、例えば、測定者が基準点の位置を出力手段に直接触れることで設定するタッチパネル方式を採用することも可能である。
(7) 実施例では、被験者が摂食運動を開始する前の面法線ベクトルデータからテンプレートを作成したが、摂食運動中の面法線ベクトルデータからテンプレートを作成してもよい。
(8) 実施例では、甲状軟骨の頂部に対応する位置を基準点として、該基準点の位置を特定する構成とした。しかしながら、追跡形状としては、喉表面の何れの部位を設定してもよい。例えば、輪状軟骨を追跡形状に設定した場合には、甲状軟骨の頂部(のど仏)の突出量が少ない女性の喉表面であっても、嚥下運動を測定することができる。
(9) 実施例では、下顎骨のオトガイ隆起に対応する位置を基準点として、該基準点の位置を特定する構成とした。しかしながら、追跡形状としては、下顎表面の何れの部位を設定してもよい。例えば、下顎底や下顎角に起因する凹凸形状を追跡形状に設定した場合には、顎先の丸く突出量が少ない場合でも、咀嚼運動を測定することができる。
(10) 実施例では、被験者の頭頸部表面に対し、真正面に撮像手段をセットして、下顎表面や喉表面を撮影したが、咀嚼運動や嚥下運動を捉えられる位置・角度であれば、頭頸部表面に対し斜めに撮像手段をセットしてもよい。
(11) 実施例1では、水等の飲料を飲み込むときの嚥下運動を測定したが、固体やゼリー状の食品を飲み込むときや、液剤や錠剤等の医薬品を飲み込むときの嚥下運動を測定することも可能である。
(12) 実施例では、嚥下運動のみを測定する場合と、咀嚼運動および嚥下運動を測定する場合を示したが、咀嚼運動のみを測定することも可能であることは当然である。
[Example of change]
The eating movement measuring system and measuring method according to the present invention are not limited to those shown in each embodiment, and for example, the following modifications are possible.
(1) In the embodiment, the LED is used as the light emitting means, but is not necessarily limited to the LED. As the light emitting means, other light emitting devices such as a halogen lamp, a dye laser, a light emitting diode (LD), and electroluminescence (EL) can be adopted as long as they can irradiate different wavelengths. However, LEDs are particularly preferably used from the viewpoint of cost and heat generation.
(2) In the embodiment, light is irradiated by three light emitting means, but the number of light emitting means may be four or more. In the embodiment, the three light emitting means are arranged in a regular triangle shape with the imaging means as the center. However, the light emitting means may be located at different positions as long as the light can be emitted at different irradiation angles with respect to the throat surface. May be placed in relationship
(3) In the embodiment, the 3CCD camera is employed as the imaging means, but other cameras can be employed as long as the spectral image data of each color can be acquired.
(4) In the embodiment, the template range and the search area are linear areas, but both may be planar areas. However, the search area needs to be set to an area including the template. Alternatively, only the template may be a linear range, and the search area may be a planar area including the template. Further, it is not always necessary to set a search area, and template matching may be performed on the entire range of the surface normal vector data.
(5) In the embodiment, the template setting unit sets the template by inputting the reference point and the range of the template via the input means. However, the template setting unit sets the reference point and template set in advance. The range may be set automatically. In addition, the search area setting unit does not necessarily set the search area based on the range of the search area input via the input unit, and the search area setting unit automatically sets a preset search area. You may do it.
(6) In the embodiment, the reference point or the like is input to the setting screen displayed on the output means via the input means. For example, the measurement point is set by directly touching the output means with the position of the reference point. It is also possible to adopt a touch panel method.
(7) In the embodiment, the template is created from the surface normal vector data before the subject starts the eating exercise, but the template may be created from the surface normal vector data during the eating exercise.
(8) In the embodiment, the position corresponding to the top of the thyroid cartilage is used as a reference point, and the position of the reference point is specified. However, any part of the throat surface may be set as the tracking shape. For example, when the cricoid cartilage is set in a tracking shape, swallowing movement can be measured even on the throat surface of a woman with a small amount of protrusion at the top of the thyroid cartilage (throat bud).
(9) In the embodiment, the position corresponding to the bulge of the mandible is used as a reference point, and the position of the reference point is specified. However, any part of the lower jaw surface may be set as the tracking shape. For example, when the uneven shape caused by the mandibular base or mandibular angle is set as the tracking shape, the masticatory movement can be measured even when the tip of the jaw is round and the amount of protrusion is small.
(10) In the example, the imaging means was set directly in front of the subject's head and neck surface, and the mandibular surface and throat surface were photographed. The imaging means may be set obliquely with respect to the part surface.
(11) In Example 1, the swallowing motion when swallowing a drink such as water was measured, but the swallowing motion when swallowing a solid or jelly-like food or swallowing a medicine such as a liquid or tablet was measured. Is also possible.
(12) In the examples, the case where only the swallowing motion is measured and the case where the chewing motion and the swallowing motion are measured are shown, but it is natural that only the chewing motion can be measured.

12 甲状軟骨,14 輪状軟骨,16 赤色LED(発光手段)
18 青色LED(発光手段),20 緑色LED(発光手段)
22 3CCDカメラ(撮像手段),40 面法線ベクトル算出手段
44 色分画像作成手段,46 テンプレートマッチング手段
48 テンプレート設定部,50 探索領域設定部,52 位置特定部
56 テンプレート記憶部(記憶部)
62 下顎骨,72 赤外線LED(発光手段),74 赤外線LED(発光手段)
76 赤外線LED(発光手段),78 3CCDカメラ(撮像手段)
12 Thyroid cartilage, 14 Cricoid cartilage, 16 Red LED (light emitting means)
18 Blue LED (light emitting means), 20 Green LED (light emitting means)
22 3CCD camera (imaging means), 40 plane normal vector calculation means 44 color image creation means, 46 template matching means 48 template setting section, 50 search area setting section, 52 position specifying section 56 template storage section (storage section)
62 Mandible, 72 Infrared LED (light emitting means), 74 Infrared LED (light emitting means)
76 Infrared LED (light emitting means), 78 3 CCD camera (imaging means)

Claims (11)

頭頸部表面に対して相互に波長の異なる光を照射する3つ以上の発光手段(16,18,20,72,74,76)と、
前記頭頸部表面で反射した光を分光して、分光画像データを時系列的に取得する撮像手段(22,78)と、
前記撮像手段(22,78)で取得した各分光画像データに基づいて、照度差ステレオ法により各面法線ベクトルデータを算出する面法線ベクトル算出手段(40)と、
頭頸部表面における凹凸形状が含まれる追跡形状の面法線ベクトルデータからなるテンプレートと、前記各面法線ベクトルデータとを用いてテンプレートマッチングすることで、各面法線ベクトルデータにおける追跡形状の位置を求めるテンプレートマッチング手段(46)とを備え、
前記テンプレートマッチング手段(46)により前記追跡形状の位置を時系列的に求めることで、咀嚼運動または嚥下運動を測定するよう構成した
ことを特徴とする摂食運動測定システム。
Three or more light emitting means (16, 18, 20, 72, 74, 76) for irradiating the head and neck surface with light having different wavelengths from each other;
Spectral light reflected from the head and neck surface, imaging means for acquiring spectral image data in time series (22, 78),
Surface normal vector calculation means (40) for calculating each surface normal vector data by illuminance difference stereo method based on each spectral image data acquired by the imaging means (22, 78),
The position of the tracking shape in each surface normal vector data by template matching using the surface normal vector data of the tracking shape including the uneven shape on the head and neck surface and each surface normal vector data. Template matching means (46) for obtaining
A feeding movement measuring system configured to measure a mastication movement or a swallowing movement by obtaining the position of the tracking shape in time series by the template matching means (46).
前記発光手段(16,18,20,72,74,76)は、前記撮像手段(22,78)の分光感度特性において相互に干渉しない波長の光を照射するよう構成される請求項1記載の摂食運動測定システム。   The light emitting means (16, 18, 20, 72, 74, 76) is configured to irradiate light having wavelengths that do not interfere with each other in the spectral sensitivity characteristics of the imaging means (22, 78). Feeding movement measurement system. 前記面法線ベクトルデータの各面法線ベクトルの方向に応じた色分けをして色分画像データを作成する色分画像作成手段(44)を備えている請求項1または2記載の摂食運動測定システム。   3. Feeding exercise according to claim 1 or 2, further comprising color image generation means (44) for generating color image data by color-coding according to the direction of each surface normal vector of the surface normal vector data. Measuring system. 前記テンプレートマッチング手段(46)は、
基準となる面法線ベクトルデータから前記テンプレートを設定するテンプレート設定部(48)と、
前記テンプレート設定部(48)で設定されたテンプレートを記憶する記憶部(56)と、
前記各面法線ベクトルデータに対しテンプレートマッチングを行う探索領域を設定する探索領域設定部(50)と、
前記記憶部(56)に記憶されたテンプレートと各面法線ベクトルデータとを前記探索領域設定部(50)で設定された探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定する位置特定部(52)とを備える請求項1〜3の何れか一項に記載の摂食運動測定システム。
The template matching means (46)
A template setting unit (48) for setting the template from the reference surface normal vector data;
A storage unit (56) for storing the template set in the template setting unit (48);
A search area setting unit (50) for setting a search area for performing template matching for each surface normal vector data;
A position for identifying the position of the tracking shape by template matching the template stored in the storage unit (56) and each surface normal vector data within the search region set by the search region setting unit (50) The eating movement measuring system according to any one of claims 1 to 3, further comprising a specific unit (52).
前記追跡形状は、喉表面における甲状軟骨(12)または輪状軟骨(14)に起因する凹凸形状を含むと共に、
前記テンプレートの範囲は、面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に嚥下運動時の甲状軟骨(12)または輪状軟骨(14)の移動方向に延在する線状の領域に設定され、
前記探索領域は、面法線ベクトルデータにおいて前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域に設定される請求項4記載の摂食運動測定システム。
The tracking shape includes an uneven shape caused by thyroid cartilage (12) or cricoid cartilage (14) on the throat surface,
The range of the template is a linear region that passes through a reference point set in the tracking shape in the surface normal vector data and extends in the moving direction of the thyroid cartilage (12) or cricoid cartilage (14) during swallowing movement Set to
5. The eating movement measuring system according to claim 4, wherein the search area is set to a linear area that passes through the reference point in the surface normal vector data and includes the range of the template.
前記追跡形状は、頭部表面における下顎骨(62)に起因する凹凸形状を含むと共に、
前記テンプレートの範囲は、面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に咀嚼運動時の下顎骨(62)の動作方向に延在する線状の領域に設定され、
前記探索領域は、面法線ベクトルデータにおいて前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域に設定される請求項4または5記載の摂食運動測定システム。
The tracking shape includes an uneven shape caused by the mandible (62) on the head surface,
The range of the template is set in a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the movement direction of the mandible (62) during mastication movement,
6. The eating movement measuring system according to claim 4, wherein the search area is set to a linear area that passes through the reference point in the surface normal vector data and includes the range of the template.
頭頸部表面に対して相互に波長の異なる光を3つ以上の発光手段(16,18,20,72,74,76)から照射し、該頭頸部表面で反射した光を分光して分光画像データを撮像手段(22,78)が時系列的に取得し、
前記撮像手段(22,78)で取得した各分光画像データに基づいて、照度差ステレオ法により各面法線ベクトルデータを算出し、
頭頸部表面における凹凸形状が含まれる追跡形状の面法線ベクトルデータからなるテンプレートと、前記各面法線ベクトルデータとを用いてテンプレートマッチングすることで、各面法線ベクトルデータにおける追跡形状の位置を求め、
前記追跡形状の位置を時系列的に求めることで、咀嚼運動または嚥下運動を測定する
ことを特徴とする摂食運動測定方法。
Light with different wavelengths is irradiated to the head and neck surface from three or more light emitting means (16,18,20,72,74,76), and the light reflected from the head and neck surface is dispersed to obtain a spectral image Data is acquired by the imaging means (22,78) in time series,
Based on each spectral image data acquired by the imaging means (22, 78), each surface normal vector data is calculated by illuminance difference stereo method,
The position of the tracking shape in each surface normal vector data by template matching using the surface normal vector data of the tracking shape including the uneven shape on the head and neck surface and each surface normal vector data. Seeking
A method for measuring an eating movement, characterized by measuring a mastication movement or a swallowing movement by determining the position of the tracking shape in time series.
前記発光手段(16,18,20,72,74,76)は、前記撮像手段(22,78)の分光感度特性において相互に干渉しない波長の光を照射する請求項7記載の摂食運動測定方法。   The eating motion measurement according to claim 7, wherein the light emitting means (16, 18, 20, 72, 74, 76) irradiates light having wavelengths that do not interfere with each other in the spectral sensitivity characteristics of the imaging means (22, 78). Method. 前記面法線ベクトルデータの各面法線ベクトルの方向に応じた色分けをして色分画像データを作成する請求項7または8記載の摂食運動測定方法。   The feeding movement measuring method according to claim 7 or 8, wherein color image data is generated by color-coding according to the direction of each surface normal vector of the surface normal vector data. 前記追跡形状は、喉表面における甲状軟骨(12)または輪状軟骨(14)に起因する凹凸形状を含み、
前記テンプレートの範囲は、前記面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に摂食運動時の甲状軟骨(12)または輪状軟骨(14)の移動方向に延在する線状の領域に設定され、
前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域をテンプレートマッチングを行う探索領域として前記各面法線ベクトルデータに設定し、
前記テンプレートと各面法線ベクトルデータとを前記探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定する請求項7〜9の何れか一項に記載の摂食運動測定方法。
The tracking shape includes an uneven shape caused by thyroid cartilage (12) or cricoid cartilage (14) on the throat surface,
The range of the template is a linear shape that passes through a reference point set in the tracking shape in the surface normal vector data and extends in the moving direction of the thyroid cartilage (12) or the cricoid cartilage (14) during feeding movement. Is set to
A linear area that passes through the reference point and includes the range of the template is set in each surface normal vector data as a search area for performing template matching,
The feeding movement measuring method according to any one of claims 7 to 9, wherein the template and each surface normal vector data are subjected to template matching in the search region to specify the position of the tracking shape.
前記追跡形状は、頭部表面における下顎骨(62)に起因する凹凸形状を含み、
前記テンプレートの範囲は、前記面法線ベクトルデータにおいて前記追跡形状内に設定した基準点を通ると共に咀嚼運動時の下顎骨(62)の動作方向に延在する線状の領域に設定され、
前記基準点を通ると共に前記テンプレートの範囲を包含する線状の領域をテンプレートマッチングを行う探索領域として前記各面法線ベクトルデータに設定し、
前記テンプレートと各面法線ベクトルデータとを前記探索領域内でテンプレートマッチングして、前記追跡形状の位置を特定する請求項7〜10の何れか一項に記載の摂食運動測定方法。
The tracking shape includes an uneven shape due to the mandible (62) on the head surface,
The range of the template is set in a linear region that passes through the reference point set in the tracking shape in the surface normal vector data and extends in the movement direction of the mandible (62) during mastication movement,
A linear area that passes through the reference point and includes the range of the template is set in each surface normal vector data as a search area for performing template matching,
The feeding movement measurement method according to any one of claims 7 to 10, wherein the template and each surface normal vector data are subjected to template matching in the search region to specify the position of the tracking shape.
JP2012146062A 2011-06-30 2012-06-28 Feeding movement measuring system and measuring method Active JP5950256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012146062A JP5950256B2 (en) 2011-06-30 2012-06-28 Feeding movement measuring system and measuring method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011146723 2011-06-30
JP2011146723 2011-06-30
JP2012146062A JP5950256B2 (en) 2011-06-30 2012-06-28 Feeding movement measuring system and measuring method

Publications (2)

Publication Number Publication Date
JP2013031650A JP2013031650A (en) 2013-02-14
JP5950256B2 true JP5950256B2 (en) 2016-07-13

Family

ID=47788052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012146062A Active JP5950256B2 (en) 2011-06-30 2012-06-28 Feeding movement measuring system and measuring method

Country Status (1)

Country Link
JP (1) JP5950256B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6432968B2 (en) * 2014-06-26 2018-12-05 国立大学法人岐阜大学 Object shape estimation apparatus and program
JP6775951B2 (en) * 2014-12-27 2020-10-28 三栄源エフ・エフ・アイ株式会社 Evaluation method of swallowing sensation of food and drink
JP6420180B2 (en) * 2015-02-27 2018-11-07 国立大学法人岐阜大学 Surface inspection apparatus and surface inspection method
JP6692110B2 (en) * 2015-11-06 2020-05-13 国立大学法人東北大学 Taste evaluation diagnostic device
JP6952365B2 (en) * 2017-04-18 2021-10-20 国立大学法人 鹿児島大学 Eating and swallowing function test system using 3D camera
JP7034638B2 (en) * 2017-09-14 2022-03-14 三栄源エフ・エフ・アイ株式会社 Food texture evaluation method
WO2019225230A1 (en) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 Swallowing function evaluation method, program, swallowing function evaluation device, and swallowing function evaluation system
JPWO2021157387A1 (en) * 2020-02-07 2021-08-12
CN111709282A (en) * 2020-05-07 2020-09-25 中粮营养健康研究院有限公司 Method for characterizing food oral processing
KR102631213B1 (en) * 2021-02-26 2024-02-06 동서대학교 산학협력단 Diagnostic device for dysphagia using near infrared technology
WO2023079729A1 (en) * 2021-11-08 2023-05-11 マクセル株式会社 Biological examination apparatus, biological examination method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3765776B2 (en) * 2002-07-03 2006-04-12 独立行政法人科学技術振興機構 Chewing function evaluation system
JP2005349176A (en) * 2004-05-14 2005-12-22 Rise Corp Jaw movement analyzing method and jaw movement analyzing system
JP4895655B2 (en) * 2006-03-29 2012-03-14 住友大阪セメント株式会社 Swallowing function evaluation device
GB2464453B8 (en) * 2008-10-10 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
JP5495415B2 (en) * 2008-12-16 2014-05-21 株式会社吉田製作所 Mandibular anterior tooth movement tracking system, mandibular anterior tooth movement tracking device, and temporomandibular joint noise analyzer

Also Published As

Publication number Publication date
JP2013031650A (en) 2013-02-14

Similar Documents

Publication Publication Date Title
JP5950256B2 (en) Feeding movement measuring system and measuring method
US20120078088A1 (en) Medical image projection and tracking system
US20120078113A1 (en) Convergent parameter instrument
JP5977440B2 (en) Optical coherent imaging medical device
Eriksson et al. Non-invasive imaging of microcirculation: a technology review
Germec-Cakan et al. Comparison of facial soft tissue measurements on three-dimensional images and models obtained with different methods
Akbari et al. Detection and analysis of the intestinal ischemia using visible and invisible hyperspectral imaging
JP6615197B2 (en) Device and method for skin detection
US20190110740A1 (en) System, apparatus and method for assessing wound and tissue conditions
Al-Hiyali et al. The impact of orthognathic surgery on facial expressions
US20080009689A1 (en) Difference-weighted somatic spectroscopy
JP7196606B2 (en) Ophthalmic information processing device and ophthalmic information processing program
US11656451B2 (en) Image processing apparatus for endoscope, image processing method for endoscope, and recording medium
Zogheib et al. Suppl-1, M2: Comparison of 3D scanning versus 2D photography for the identification of facial soft-tissue landmarks
JP2018023756A (en) Evaluation method of skin condition
US20150272489A1 (en) Device, system and method for tumor detection and/or monitoring
JP4649965B2 (en) Health degree determination device and program
KR101419257B1 (en) Tongue coat analyzer using light source with a range of specific wavelength
Logger et al. Evaluation of a simple image‐based tool to quantify facial erythema in rosacea during treatment
Mishima et al. Three-dimensional intra-rater and inter-rater reliability during a posed smile using a video-based motion analyzing system
JP6785990B2 (en) Medical image processing equipment and endoscopic equipment
Blanik et al. Remote Photopletysmographic Imaging of Dermal Perfusion in a porcine animal model
Ponticorvo et al. Evaluating visual perception for assessing reconstructed flap health
JP2020507399A (en) Evaluation of microvascular dysfunction using spectroscopic imaging
WO2017174735A1 (en) Method, device and system for enabling to analyze a property of a vital sign detector

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160530

R150 Certificate of patent or registration of utility model

Ref document number: 5950256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250