JP2016144569A - Information processing device, information processing system, information processing method, and program for information processing - Google Patents

Information processing device, information processing system, information processing method, and program for information processing Download PDF

Info

Publication number
JP2016144569A
JP2016144569A JP2015023103A JP2015023103A JP2016144569A JP 2016144569 A JP2016144569 A JP 2016144569A JP 2015023103 A JP2015023103 A JP 2015023103A JP 2015023103 A JP2015023103 A JP 2015023103A JP 2016144569 A JP2016144569 A JP 2016144569A
Authority
JP
Japan
Prior art keywords
tongue
information
information processing
health
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015023103A
Other languages
Japanese (ja)
Other versions
JP6390458B2 (en
Inventor
仁郎 太田
Jinro Ota
仁郎 太田
直樹 下袴田
Naoki Shimohakamada
直樹 下袴田
公香 新納
Kouko Niino
公香 新納
龍 李
Yong Lee
龍 李
勝浩 梅海
Katsuhiro Umeumi
勝浩 梅海
保明 柿木
Yasuaki Kakigi
保明 柿木
達次 西原
Tatsuji Nishihara
達次 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015023103A priority Critical patent/JP6390458B2/en
Publication of JP2016144569A publication Critical patent/JP2016144569A/en
Application granted granted Critical
Publication of JP6390458B2 publication Critical patent/JP6390458B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device capable of recognizing characteristics of a tongue based on a medical finding by a more appropriate and simpler method, and capable of recognizing a health condition of a person with the tongue more appropriately and quickly.SOLUTION: An information processing device includes a processing part 2 for, based on a tongue image acquired by imaging the surface of a tongue, calculating the characteristics based on a medical finding, and weighting the calculated characteristics for each of predetermined regions, and a display 3 for displaying the result for each region.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理システム及び情報処理方法並びに情報処理用プログラムの技術分野に属する。より詳細には、舌の表面の状態を認識するための情報処理装置及び情報処理方法、当該情報処理装置を含む情報処理システム並びに当該情報処理装置用のプログラムの技術分野に属する。   The present invention belongs to a technical field of an information processing apparatus, an information processing system, an information processing method, and an information processing program. More specifically, it belongs to the technical field of an information processing apparatus and information processing method for recognizing the surface state of the tongue, an information processing system including the information processing apparatus, and a program for the information processing apparatus.

近年のいわゆる健康志向に鑑み、人の健康状態を外部から客観的に検出又は認識し得る方法の開発が進められている。そして、このような方法に関連する従来技術として、下記特許文献1に記載されている方法がある。   In view of so-called health orientation in recent years, development of a method capable of objectively detecting or recognizing a person's health condition from the outside is underway. And as a prior art relevant to such a method, there exists the method described in the following patent document 1. FIG.

下記特許文献1に記載されている方法では、体の部位(主に舌)の画像情報に基づき、総合的な健康度の判定を行う構成とされている。より具体的に特許文献1に記載の方法では、デジタルスチルカメラで撮影された舌の画像から、舌の色、舌の形状、例えば舌の周縁部の歯痕、舌表面の裂紋及び舌表面の苔の色等の九種類の特徴量の情報と、予め設定されている健康体基準サンプルと、の間の数学的なマハラノビス距離を求め、その値が健康度を求めるための尺度とされている。   In the method described in Patent Document 1 below, the overall health level is determined based on image information of a body part (mainly tongue). More specifically, in the method described in Patent Document 1, the color of the tongue, the shape of the tongue, for example, the tooth mark on the peripheral edge of the tongue, the cracks on the surface of the tongue, and the surface of the tongue are obtained from the image of the tongue taken with a digital still camera. The mathematical Mahalanobis distance between nine types of feature quantity information such as moss color and a preset healthy body reference sample is calculated, and the value is used as a scale for determining the health level. .

特許第4487535号Japanese Patent No. 4487535

しかしながら、上記特許文献1記載の方法によると、上記マハラノビス距離を用いて数学的に求めた健康度が増減等の変化をした場合に、その変化に影響を与えた(つまり当該変化の原因となった)特徴量が何であるかが判りづらく、結果的に健康管理のためのフィードバック(すなわち、上記原因の明確化)がし難いという問題点があった。   However, according to the method described in Patent Document 1, when the health level mathematically obtained using the Mahalanobis distance changes such as increase or decrease, the change is affected (that is, the cause of the change). It is difficult to know what the feature amount is, and as a result, there is a problem that it is difficult to provide feedback for health care (that is, clarify the cause).

また上記特許文献1記載の方法では、既定の健康体基準サンプルとの比較を用いて健康度の尺度を得ているが、当該健康体基準サンプルを具体的にどのようにして取得するかについては言及がなく、結果として、何をもって「健康」と判断するかについての基準が不明確となり、上記特許文献1記載の方法による判断結果が意味をなさなくなる場合もあるという問題点もある。   Further, in the method described in Patent Document 1, a measure of health is obtained using a comparison with a predetermined healthy body reference sample. How to specifically obtain the healthy body reference sample There is no reference, and as a result, there is a problem that the criteria for determining “health” is unclear and the determination result by the method described in Patent Document 1 may not make sense.

そこで本発明は、上記の各問題点に鑑みて為されたもので、その課題の一例は、医学的知見に基づいた舌の特徴をより的確且つ簡易な方法により認識することができると共に、これにより、より的確且つ迅速に舌の状態(換言すれば、その舌を持つ人の健康状態)を認識することが可能な情報処理装置及び情報処理方法、当該情報処理装置を含む情報処理システム並びに当該情報処理装置用のプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and one example of the problem is that the features of the tongue based on medical knowledge can be recognized by a more accurate and simple method. Information processing apparatus and information processing method capable of recognizing the state of the tongue more accurately and quickly (in other words, the health state of the person having the tongue), the information processing system including the information processing apparatus, and the The object is to provide a program for an information processing apparatus.

上記の課題を解決するために、請求項1に記載の発明は、舌の表面を撮像して得られた表面情報を取得するインターフェース等の取得手段と、前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する画像処理部等の算出手段と、前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する健康度判定部等の生成手段と、各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力制御部等の出力手段と、を備える。   In order to solve the above-mentioned problems, the invention according to claim 1 is based on acquisition means such as an interface for acquiring surface information obtained by imaging the surface of the tongue, and medical information based on the acquired surface information. Calculation means such as an image processing unit for calculating feature information indicating the feature of the surface based on a physical finding, and the surface at a part set in advance based on the medical knowledge with respect to the calculated feature information Generating means such as a health degree determination unit that performs weighting set in advance corresponding to the medical knowledge for each divided surface and generates weighting feature information for each divided surface, and each of the generations Output means such as an output control unit for outputting the weighted feature information for each of the divided surfaces.

上記の課題を解決するために、請求項7に記載の発明は、請求項1から請求項6のいずれか一項に記載の情報処理装置と、前記表面を撮像して前記表面情報を生成し、前記取得手段に出力するカメラ等の撮像装置と、前記出力手段からの出力結果を提示するディスプレイ等の提示装置と、を備える。   In order to solve the above-described problem, an invention according to claim 7 generates the surface information by imaging the information processing apparatus according to any one of claims 1 to 6 and the surface. And an imaging device such as a camera that outputs to the acquisition means, and a presentation device such as a display that presents an output result from the output means.

上記の課題を解決するために、請求項8に記載の発明は、舌の表面を撮像して得られた表面情報を取得する取得工程と、前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する算出工程と、前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する生成工程と、各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力工程と、を含む。   In order to solve the above-mentioned problems, the invention according to claim 8 is based on an acquisition step of acquiring surface information obtained by imaging the surface of the tongue, and medical knowledge based on the acquired surface information. A calculation step for calculating feature information indicating the characteristics of the surface based on the calculated feature information, for each divided surface obtained by dividing the surface into a portion set in advance based on the medical knowledge, Each of the weights set in advance corresponding to the medical knowledge is generated, and the weighting feature information for each of the divided surfaces is generated, and the generated weighted feature information is output for each of the divided surfaces. An output step.

上記の課題を解決するために、請求項9に記載の発明は、舌の表面を撮像して得られた表面情報を取得するインターフェース等の取得手段を備える情報処理装置に含まれるコンピュータを、前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する算出手段、前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する生成手段、及び、各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力手段、として機能させる。   In order to solve the above-described problem, the invention according to claim 9 includes a computer included in an information processing apparatus including an acquisition unit such as an interface for acquiring surface information obtained by imaging the surface of the tongue. Based on the acquired surface information, a calculation means for calculating feature information indicating the surface features based on medical knowledge, and a portion preset based on the medical knowledge for the calculated feature information Generating means for generating weighting feature information for each of the divided surfaces, and for each of the divided surfaces obtained by dividing the surface to each of the divided surfaces. The weighting feature information is made to function as an output means for outputting each divided surface.

請求項1又は請求項7乃至請求項9のいずれか一項に記載の発明によれば、舌の表面を撮像して得られた表面情報に基づいて特徴情報を算出し、その算出された特徴情報に対して、分割表面ごとの既定の重み付けをそれぞれ行い、重み付け特徴情報を生成して分割表面ごとに出力する。よって、舌の表面に相当する表面情報を取得するのみで医学的知見に基づいた舌の特徴を認識することができる。また、舌の表面の部位ごとに医学的知見に基づいた重み付けを行った各部位の特徴を認識することができるので、より的確且つ迅速に、舌の状態(換言すれば、その舌を持つ人の健康状態)を認識することができる。   According to the invention described in claim 1 or claims 7 to 9, the feature information is calculated based on the surface information obtained by imaging the surface of the tongue, and the calculated feature The information is subjected to predetermined weighting for each divided surface, weighting feature information is generated and output for each divided surface. Therefore, it is possible to recognize the characteristics of the tongue based on medical knowledge only by acquiring surface information corresponding to the surface of the tongue. In addition, since the features of each part weighted based on medical knowledge can be recognized for each part of the surface of the tongue, the state of the tongue (in other words, the person with the tongue can be more accurately and quickly) Health status).

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の情報処理装置において、各前記出力された重み付け特徴情報を加算して加算情報を生成する健康度判定部等の加算手段と、前記生成された加算情報に基づき、前記舌に基づいた健康度を示す健康度情報を、前記医学的知見に基づいて予め設定された算出手法により算出する健康度判定部等の健康度算出手段と、を更に備え、前記出力手段は、前記算出された健康度情報を出力するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 2 is the information processing apparatus according to claim 1, wherein the health level determination unit generates summation information by adding the output weighting feature information. Based on the generated addition information, a health level determination unit that calculates health level information indicating the level of health based on the tongue using a calculation method set in advance based on the medical knowledge The health level calculation means is further provided, and the output means is configured to output the calculated health level information.

請求項2に記載の発明によれば、請求項1に記載の作用に加えて、各重み付け特徴情報を加算した加算情報に基づいて健康度情報を算出して出力するので、舌の部位ごとの特徴に基づく具体的な健康度を認識することができる。   According to invention of Claim 2, in addition to the effect | action of Claim 1, since health degree information is calculated and output based on the addition information which added each weighting characteristic information, for every site | part of a tongue A specific health level based on the features can be recognized.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の情報処理装置において、前記表面は前記舌の表側の表面であり、各前記部位は、当該表側の表面における先端部位、舌根部位及び側部位の少なくともいずれかであるように構成される。   In order to solve the above problems, the invention according to claim 3 is the information processing apparatus according to claim 1 or 2, wherein the surface is a surface on the front side of the tongue, It is comprised so that it may be at least one of the front-end | tip part in the surface of the said front side, a tongue base part, and a side part.

請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、表面が舌の表側の表面であり、各部位が、当該表側の表面における先端部位、舌根部位及び側部位の少なくともいずれかに特定されているので、処理負担の軽減を図りながら、舌の表側の状態の特徴を的確に認識することができる。   According to the invention described in claim 3, in addition to the action of the invention described in claim 1 or 2, the surface is a surface on the front side of the tongue, and each part is a tip part on the surface on the front side, Since it is specified in at least one of the tongue base part and the side part, it is possible to accurately recognize the characteristics of the front side state of the tongue while reducing the processing load.

上記の課題を解決するために、請求項4に記載の発明は、請求項3に記載の情報処理装置において、前記特徴は、各前記分割表面における表面形状、色及び外縁部形状のいずれかであり、前記算出手段は、当該いずれかを示す前記特徴情報をそれぞれ算出するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 4 is the information processing apparatus according to claim 3, wherein the feature is any one of a surface shape, a color, and an outer edge shape on each of the divided surfaces. And the calculating means is configured to calculate the feature information indicating any one of the calculation means.

請求項4に記載の発明によれば、請求項3に記載の発明の作用に加えて、分割表面としての特徴が舌の表側の表面形状、色及び外縁部形状のいずれかであり、当該いずれかを示す特徴情報がそれぞれ算出されるので、舌の表側の表面の状態を医学的知見に基づいて的確に認識することができる。   According to the invention described in claim 4, in addition to the action of the invention described in claim 3, the feature as the divided surface is any one of the surface shape, color and outer edge shape of the front side of the tongue. Since the feature information indicating the above is calculated, the state of the surface on the front side of the tongue can be accurately recognized based on medical knowledge.

上記の課題を解決するために、請求項5に記載の発明は、請求項1又は請求項2に記載の情報処理装置において、前記表面は前記舌の裏側の表面であり、各前記部位は、長手方向の分割線により当該裏側の表面を左右二つに分割した各分割部位の少なくともいずれかであるように構成される。   In order to solve the above-described problem, the invention according to claim 5 is the information processing device according to claim 1 or 2, wherein the surface is a surface on the back side of the tongue, It is configured to be at least one of the divided parts obtained by dividing the surface on the back side into two left and right by a dividing line in the longitudinal direction.

請求項5に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、表面が舌の裏側の表面であり、各部位が、長手方向の分割線により当該裏側の表面を左右二つに分割した各分割部位の少なくともいずれかに特定されているので、処理負担の軽減を図りながら、舌の裏側の状態の特徴を的確に認識することができる。   According to invention of Claim 5, in addition to the effect | action of the invention of Claim 1 or Claim 2, the surface is the surface of the back side of a tongue, and each site | part is the said back side by the dividing line of a longitudinal direction. Since the surface is divided into at least one of the divided parts divided into left and right parts, it is possible to accurately recognize the characteristics of the state on the back side of the tongue while reducing the processing load.

上記の課題を解決するために、請求項6に記載の発明は、請求項5に記載の情報処理装置において、前記特徴は、各前記分割表面における表面形状、色、外縁部形状及び舌深静脈の形状のいずれかであり、前記算出手段は、当該いずれかを示す前記特徴情報をそれぞれ算出するように構成される。   In order to solve the above-described problem, the invention according to claim 6 is the information processing apparatus according to claim 5, wherein the features include a surface shape, a color, an outer edge shape, and a deep tongue vein on each of the divided surfaces. The calculation means is configured to calculate the feature information indicating any one of the shapes.

請求項6に記載の発明によれば、請求項5に記載の発明の作用に加えて、分割表面としての特徴が舌の裏側の表面形状、色、外縁部形状及び舌深静脈の形状のいずれかであり、当該いずれかを示す特徴情報がそれぞれ算出されるので、舌の裏側の表面の状態を医学的知見に基づいて的確に認識することができる。   According to the invention described in claim 6, in addition to the action of the invention described in claim 5, the feature as the divided surface is any of the surface shape, color, outer edge shape and deep tongue vein shape on the back side of the tongue. Since the feature information indicating either of them is calculated, the state of the surface on the back side of the tongue can be accurately recognized based on medical knowledge.

本発明によれば、舌の表面を撮像して得られた表面情報に基づいて特徴情報を算出し、その算出された特徴情報に対して、分割表面ごとの既定の重み付けをそれぞれ行い、重み付け特徴情報を生成して分割表面ごとに出力する。従って、舌の表面に相当する表面情報を取得するのみで医学的知見に基づいた舌の特徴を認識することができる。   According to the present invention, the feature information is calculated based on the surface information obtained by imaging the surface of the tongue, the weighting feature is performed for each of the divided surfaces with respect to the calculated feature information. Generate information and output for each split surface. Therefore, it is possible to recognize the characteristics of the tongue based on medical knowledge only by acquiring surface information corresponding to the surface of the tongue.

また、舌の表面の部位ごとに医学的知見に基づいた重み付けを行った各部位の特徴を認識することができるので、より的確且つ迅速に、舌の状態(換言すれば、その舌を持つ人の健康状態)を認識することができる。   In addition, since the features of each part weighted based on medical knowledge can be recognized for each part of the surface of the tongue, the state of the tongue (in other words, the person with the tongue can be more accurately and quickly) Health status).

第1実施形態に係る健康度判定システムの概要構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a health degree determination system according to a first embodiment. 第1実施形態に係る健康度判定処理を示すフローチャートである。It is a flowchart which shows the health degree determination process which concerns on 1st Embodiment. 第1実施形態に係る舌画像を例示する図であり、(a)は当該舌画像を含む画像を例示する図であり、(b)は当該舌画像を例示する図である。It is a figure which illustrates the tongue image which concerns on 1st Embodiment, (a) is a figure which illustrates the image containing the said tongue image, (b) is a figure which illustrates the said tongue image. 第1実施形態に係る特徴の抽出処理を例示する図であり、(a)は元の舌画像の例であり、(b)は形状特徴の抽出を例示する図であり、(c)及び(d)は色特徴の抽出をそれぞれ例示する図である。It is a figure which illustrates the extraction process of the feature which concerns on 1st Embodiment, (a) is an example of the original tongue image, (b) is a figure which illustrates extraction of a shape feature, (c) and ( d) is a diagram illustrating the extraction of color features. 第1実施形態に係る舌画像の分割状態を例示する図である。It is a figure which illustrates the division | segmentation state of the tongue image which concerns on 1st Embodiment. 第1実施形態に係る部位ごとの評価点を例示する図である。It is a figure which illustrates the evaluation point for every part concerning a 1st embodiment. 第1実施形態に係る重み付け処理等を例示する図であり、(a)は重み付け前の評価点を例示する図であり、(b)は重み付け後の評価点を例示する図であり、(c)は重み付け後の評価点の合計を例示する図であり、(d)は実施形態に係る健康レベルの値を例示する図である。It is a figure which illustrates the weighting process etc. which concern on 1st Embodiment, (a) is a figure which illustrates the evaluation point before weighting, (b) is a figure which illustrates the evaluation point after weighting, (c ) Is a diagram illustrating the sum of the weighted evaluation points, and (d) is a diagram illustrating the value of the health level according to the embodiment. 第1実施形態に係る健康度の表示状態を例示する図である。It is a figure which illustrates the display state of the health degree which concerns on 1st Embodiment. 第2実施形態に係る健康度の判定を例示する図であり、(a)は第2実施形態に係る舌の裏側の画像の例を示す図であり、(b)は当該裏側の画像の分割状態を例示する図である。It is a figure which illustrates determination of the health degree which concerns on 2nd Embodiment, (a) is a figure which shows the example of the image of the back side of the tongue which concerns on 2nd Embodiment, (b) is the division | segmentation of the image of the said back side It is a figure which illustrates a state.

次に、本発明を実施するための形態について、図面に基づいて説明する。なお以下に説明する各実施形態は、被験者の健康度を当該被験者の舌の状態に基づいて判定し、その判定結果を当該被験者又はその担当医師等に提示する健康度判定システムに対して、本発明を適用した場合の実施の形態である。   Next, modes for carrying out the present invention will be described based on the drawings. In addition, each embodiment described below determines the health level of the subject based on the state of the tongue of the subject, and presents the determination result to the subject or the doctor in charge thereof. It is an embodiment when the invention is applied.

(I)第1実施形態
初めに、本発明に係る第1実施形態について、図1乃至図8を用いて説明する。なお、図1は第1実施形態に係る健康度判定システムの概要構成を示すブロック図であり、図2は第1実施形態に係る健康度判定処理を示すフローチャートであり、図3は第1実施形態に係る舌画像を例示する図である。また、図4は第1実施形態に係る特徴の抽出処理を例示する図であり、図5は第1実施形態に係る舌画像の分割状態を例示する図であり、図6は第1実施形態に係る部位ごとの評価点を例示する図である。更に、図7は第1実施形態に係る重み付け処理等を例示する図であり、図8は第1実施形態に係る健康度の表示状態を例示する図である。
(I) First Embodiment First, a first embodiment according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of the health level determination system according to the first embodiment, FIG. 2 is a flowchart showing health level determination processing according to the first embodiment, and FIG. It is a figure which illustrates the tongue image which concerns on a form. 4 is a diagram illustrating feature extraction processing according to the first embodiment, FIG. 5 is a diagram illustrating a segmented state of a tongue image according to the first embodiment, and FIG. 6 is a diagram illustrating the first embodiment. It is a figure which illustrates the evaluation score for every part which concerns on. Further, FIG. 7 is a diagram illustrating weighting processing and the like according to the first embodiment, and FIG. 8 is a diagram illustrating a display state of the health level according to the first embodiment.

図1に示すように、第1実施形態に係る健康度判定システムSSは、例えば従来と同様のデジタルスチルカメラ等からなり且つ本発明に係る「撮像装置」の一例としてのカメラCと、当該カメラCに接続された第1実施形態に係る健康度判定装置Sと、により構成されている。そして、当該カメラCにより被験者の舌を撮像して得られた舌画像を健康度判定装置Sにより分析し、その分析結果を用いて当該被験者の健康度を健康度判定装置Sにおいて判定して提示する。なお以下の説明において、被験者の舌を撮像して得られた舌画像を、単に「舌画像」と称する。   As shown in FIG. 1, the health degree determination system SS according to the first embodiment includes a camera C as an example of an “imaging device” according to the present invention, which includes, for example, a digital still camera similar to a conventional one, and the camera. And a health degree determination device S according to the first embodiment connected to C. Then, the tongue image obtained by imaging the subject's tongue with the camera C is analyzed by the health level determination device S, and the health level of the subject is determined and presented by the health level determination device S using the analysis result. To do. In the following description, a tongue image obtained by imaging the subject's tongue is simply referred to as a “tongue image”.

そして第1実施形態に係る健康度判定装置Sは、図1に示すように、インターフェース1と、CPU、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなる処理部2と、液晶ディスプレイ等からなり且つ本発明に係る「提示装置」の一例としてのディスプレイ3と、キーボード及びマウス等からなる操作部4と、例えばハードディスク等からなる記録部5と、により構成されている。このとき健康度判定装置Sは、具体的には例えばパーソナルコンピュータ等により構成される。   As shown in FIG. 1, the health determination device S according to the first embodiment includes an interface 1, a processing unit 2 including a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and a liquid crystal display. And a display 3 as an example of the “presentation device” according to the present invention, an operation unit 4 including a keyboard and a mouse, and a recording unit 5 including, for example, a hard disk. At this time, the health degree determination apparatus S is specifically configured by a personal computer, for example.

一方処理部2は、画像登録部20と、画像処理部21と、健康度判定部22と、出力制御部23と、により構成されている。このとき、上記画像登録部20、画像処理部21、健康度判定部22及び出力制御部23は、例えば処理部2を構成するハードウェアロジック回路により構成されていてもよいし、或いは、後述する第1実施形態に係る健康度判定処理を示すフローチャートに相当するプログラムを処理部2のCPUが読み出して実行することにより、ソフトウェア的に実行されるものであってもよい。このとき当該プログラムは、処理部2を構成する上記ROM内に予め記録されていてもよいし、必要に応じて、例えばインターネット等のネットワークを介して取得してもよい。   On the other hand, the processing unit 2 includes an image registration unit 20, an image processing unit 21, a health degree determination unit 22, and an output control unit 23. At this time, the image registration unit 20, the image processing unit 21, the health degree determination unit 22, and the output control unit 23 may be configured by, for example, a hardware logic circuit that configures the processing unit 2, or will be described later. The program corresponding to the flowchart showing the health degree determination process according to the first embodiment may be executed by software by the CPU of the processing unit 2 reading and executing the program. At this time, the program may be recorded in advance in the ROM constituting the processing unit 2, or may be acquired via a network such as the Internet as necessary.

更に、上記インターフェース1が本発明に係る「取得手段」の一例に相当し、上記画像処理部21が本発明に係る「算出手段」の一例に相当し、上記健康度判定部22が本発明に係る「生成手段」の一例、「加算手段」の一例及び「健康度算出手段」の一例にそれぞれ相当し、上記出力制御部23が本発明に係る「出力手段」の一例に相当する。   Further, the interface 1 corresponds to an example of “acquisition unit” according to the present invention, the image processing unit 21 corresponds to an example of “calculation unit” according to the present invention, and the health level determination unit 22 corresponds to the present invention. One example of the “generating unit”, one example of the “adding unit”, and one example of the “health degree calculating unit” correspond to each other, and the output control unit 23 corresponds to an example of the “output unit” according to the present invention.

上記の構成において健康度判定装置Sのインターフェース1は、後述するように被験者の舌がカメラCにより撮像されると、その舌画像に相当する舌画像情報をカメラCから取得して処理部2の画像登録部20に出力する。次に画像登録部20は、出力されてきた舌画像情報を、例えば被験者又は担当医師等を他の者から識別するための識別情報に関連付けて、記録部5に記録(登録)する。なお以下の説明において、上記被験者又はその担当医師等を、単に「被験者等」と称する。   In the configuration described above, the interface 1 of the health degree determination apparatus S acquires the tongue image information corresponding to the tongue image from the camera C when the subject's tongue is imaged by the camera C, as will be described later. The image is output to the image registration unit 20. Next, the image registration unit 20 records (registers) the output tongue image information in the recording unit 5 in association with identification information for identifying a subject or a doctor in charge from another person, for example. In the following description, the subject or the doctor in charge thereof is simply referred to as “subject”.

次に画像処理部21は、上記舌画像情報に対して第1実施形態に係る特徴の抽出を行い、当該抽出した特徴に相当する特徴情報を生成して健康度判定部22に出力する。これにより健康度判定部22は、上記特徴情報に基づき、第1実施形態に係る健康度判定処理を用いて舌画像を用いた被験者の健康度を判定し、当該判定結果を出力制御部23に出力する。   Next, the image processing unit 21 extracts features according to the first embodiment from the tongue image information, generates feature information corresponding to the extracted features, and outputs the feature information to the health degree determination unit 22. Thereby, the health level determination unit 22 determines the health level of the subject using the tongue image using the health level determination process according to the first embodiment based on the feature information, and the determination result is sent to the output control unit 23. Output.

ここで、上記特徴とは、第1実施形態に係る舌画像に相当する舌の状態を、「形状」、「色」及び「外縁部」の各観点からそれぞれ特徴付けたものである。より具体的に例えば、舌の表側の表面における「キズ」、「隆起」又は「点」等の有無を上記形状の特徴とし、また舌の表側の表面の色としての「色調」や「薄紅色」、「赤色」、「黒色」等を上記色の特徴とし、更に舌の外縁部の形状(より具体的には、「歯の痕」、「キズ」又は「点」の有無等)を上記外縁部の特徴とする。なお、上記特徴等及び健康度の判定方法等については、後ほど詳述する。   Here, the above-mentioned features are characterized by characterizing the state of the tongue corresponding to the tongue image according to the first embodiment from the viewpoints of “shape”, “color”, and “outer edge”. More specifically, for example, the above-mentioned shape is characterized by the presence or absence of “scratches”, “bumps” or “points” on the front surface of the tongue, and “color tone” or “light red color as the color of the front surface of the tongue ”,“ Red ”,“ black ”and the like, and the shape of the outer edge of the tongue (more specifically, the presence or absence of“ dental marks ”,“ scratches ”or“ points ”) Features of the outer edge. Note that the characteristics and the like and the method for determining the health level will be described in detail later.

その後出力制御部23は、上記健康度判定部22から出力された判定結果に基づき、当該判定結果を被験者等に提示(表示)するための表示画面を生成し、当該表示画面に相当する情報をディスプレイ3に表示して、当該判定結果の表示を行う。   Thereafter, the output control unit 23 generates a display screen for presenting (displaying) the determination result to a subject or the like based on the determination result output from the health level determination unit 22, and displays information corresponding to the display screen. The determination result is displayed on the display 3.

次に、第1実施形態に係る健康度判定処理について、具体的に図1乃至図8を用いて説明する。   Next, the health degree determination process according to the first embodiment will be specifically described with reference to FIGS.

即ち図2に示すように、第1実施形態に係る健康度判定処理は、例えば、使用者たる担当医師等が健康度判定装置Sの操作部4を用いて、当該健康度判定処理の実行を指示する操作を行った場合等に開始される。そして当該健康度判定処理が開始されると、先ずカメラCを用いて、被験者の舌の表側の表面を含む画像が撮像される(ステップS1)。   That is, as illustrated in FIG. 2, the health degree determination process according to the first embodiment is performed by, for example, a doctor in charge as a user using the operation unit 4 of the health degree determination apparatus S. It is started when an instruction operation is performed. When the health level determination process is started, an image including the front surface of the subject's tongue is first captured using the camera C (step S1).

ここで、上記ステップS1により撮像される画像は、例えば図3(a)に例示するような被験者の舌Tを含む画像Gである。なお図2(a)に示す例では、後ほど舌Tのみを抽出して上記舌画像とするためのマーカM1乃至マーカM4が付加されているが、上記ステップS1の段階では当該マーカM1等が付加されていることは必須の事項ではない。   Here, the image imaged by said step S1 is the image G containing the test subject's tongue T which is illustrated to Fig.3 (a), for example. In the example shown in FIG. 2 (a), markers M1 to M4 for extracting only the tongue T later and forming the tongue image are added. However, in the step S1, the marker M1 and the like are added. It is not an essential matter.

上記ステップS1により舌画像を含む画像が撮像されたら、次に処理部2の画像登録部20は、インターフェース1を介して当該画像に相当する画像情報を取得し、これを一時的に記録部5に不揮発性に記録する(ステップS2)。このとき画像登録部20は、当該画像情報を、それに対応する上記識別情報に関連付けて記録部5に記録(登録)する。   When an image including a tongue image is captured in step S1, the image registration unit 20 of the processing unit 2 acquires image information corresponding to the image via the interface 1, and temporarily stores this image information in the recording unit 5. Is recorded in a nonvolatile manner (step S2). At this time, the image registration unit 20 records (registers) the image information in the recording unit 5 in association with the identification information corresponding thereto.

次に処理部2の画像処理部21は、例えば操作部4における操作に基づき、記録部5に記録されている画像情報を読み出し、更に例えば上記マーカM1等を参照することにより、カメラCから取得された画像Gから、舌Tのみを含む上記舌画像を抽出する(ステップS3)。このステップS3の処理の結果、例えば図3(b)に例示するような、舌Tを含む舌画像TGが得られる。なおステップS3の処理における舌画像TGの抽出に当たっては、上記マーカM1等を用いる方法の他、従来の手法を任意に用いて舌画像TGを抽出するように構成することができる。   Next, the image processing unit 21 of the processing unit 2 reads out the image information recorded in the recording unit 5 based on, for example, an operation in the operation unit 4, and obtains it from the camera C by referring to, for example, the marker M 1 and the like. The tongue image including only the tongue T is extracted from the processed image G (step S3). As a result of the processing in step S3, a tongue image TG including the tongue T as exemplified in FIG. 3B is obtained. In extracting the tongue image TG in the process of step S3, the tongue image TG can be extracted by arbitrarily using a conventional method in addition to the method using the marker M1 and the like.

次に処理部2の画像処理部21は、上記舌画像TGに相当する舌画像情報に基づき、舌Tにおける形状の特徴の抽出処理(ステップS40)、色の特徴の抽出処理(ステップS41)及び外縁部の特徴の抽出処理(ステップS42)を、それぞれ行い、各抽出結果を健康度判定部22に出力する。   Next, based on the tongue image information corresponding to the tongue image TG, the image processing unit 21 of the processing unit 2 extracts a shape feature on the tongue T (step S40), a color feature extraction process (step S41), and The outer edge feature extraction process (step S42) is performed, and each extraction result is output to the health level determination unit 22.

より具体的に画像処理部21は、上記ステップS40に係る形状の特徴の抽出処理として、舌Tの表側の表面における「キズ」又は「点」の有無を検出する。このとき、図4(a)に例示する舌Tを含む舌画像TGが得られた場合、ステップS40に係る形状の特徴の抽出処理では、例えば図4(b)に例示するようなキズが、例えば従来のいわゆるエッジ検出法等を用いてクラックCRとして抽出される。   More specifically, the image processing unit 21 detects the presence or absence of “scratches” or “points” on the front surface of the tongue T as the shape feature extraction processing according to step S40. At this time, when the tongue image TG including the tongue T illustrated in FIG. 4A is obtained, in the shape feature extraction process according to step S40, for example, a scratch illustrated in FIG. For example, it is extracted as a crack CR using a conventional so-called edge detection method or the like.

また画像処理部21は、上記ステップS41に係る色の徴量の抽出処理として、舌Tの表側の表面に対して例えば色クラスタリング処理を施し、例えば図4(c)に例示するように舌苔に関する色情報を抽出すると共に、例えば図4(d)に例示するように、舌画像TG中の舌Tの部分を所定の大きさの区画に分割し、舌Tとして平均的な色情報(例えば、上記「色調」や「薄紅色」、「赤色」、「黒色」等の色を示す色情報)を検出する。この図4(d)に例示するような色の特徴の抽出処理を行うのは、舌Tにおいて周囲よりも極端に色が変化している部分を抽出するためである。   Further, the image processing unit 21 performs, for example, a color clustering process on the front surface of the tongue T as the color collection amount extraction process according to step S41. For example, as illustrated in FIG. While extracting color information, for example, as illustrated in FIG. 4D, the portion of the tongue T in the tongue image TG is divided into sections of a predetermined size, and average color information (for example, (Color information indicating the color such as “color tone”, “light red”, “red”, “black”, etc.) is detected. The reason why the color feature extraction process illustrated in FIG. 4D is performed is to extract a portion of the tongue T where the color changes extremely more than the surroundings.

更に画像処理部21は、上記ステップS42に係る外縁部の特徴の抽出処理として、当該外縁部における上記「歯の痕」、「キズ」又は「点」の有無を、例えば上記エッジ検出法等を用いて検出する。   Further, the image processing unit 21 extracts the presence / absence of the “tooth marks”, “scratches”, or “points” in the outer edge as the feature extraction processing of the outer edge according to the step S42, for example, the edge detection method. Use to detect.

次に健康度判定部22は、上記ステップS40乃至ステップS42に係る各抽出結果を取得したら、当該各抽出結果に基づき、舌Tにおける形状の健康度の算出処理(ステップS50)、色の健康度の算出処理(ステップS51)及び外縁部の健康度の算出処理(ステップS52)を、それぞれ行う。   Next, when the health level determination unit 22 obtains each extraction result according to the above steps S40 to S42, based on each extraction result, the shape health level calculation process on the tongue T (step S50), the color health level Calculation processing (step S51) and outer edge health level calculation processing (step S52) are performed.

ここで健康度判定部22は、図5に例示するように舌Tを六つに分割した部位を舌画像TGから抽出し、これら各部位ごとに、上記特徴の検出、並びにその検出結果を用いた上記各健康度の算出処理を行う。このとき図5に例示するように、第1部位Iは舌Tの先端を含む部位であり、第2部位IIは舌Tの舌根を含む部位であり、第3部位IIIは舌Tの先端左外縁部を含む部位である。また、第4部位IVは舌Tの先端右外縁部を含む部位であり、第5部位Vは舌Tの舌根左外縁部を含む部位であり、第6部位VIは舌Tの舌根右外縁部を含む部位である。なお、第1実施形態に係る上記部位の分け方は、例えば、本発明の基礎となる医学的知見に基づいて予め設定されるのであり、図5に例示した分け方に限られるものではなく、種々の医学的知見に対応して様々に変更し得るものである。   Here, as shown in FIG. 5, the health degree determination unit 22 extracts a part obtained by dividing the tongue T into six parts from the tongue image TG, and uses the detection of the characteristics and the detection result for each of these parts. The above health level calculation processing is performed. At this time, as illustrated in FIG. 5, the first part I is a part including the tip of the tongue T, the second part II is a part including the tongue base of the tongue T, and the third part III is the left end of the tip of the tongue T. It is a part including an outer edge part. The fourth part IV is a part including the right outer edge of the tip of the tongue T, the fifth part V is a part including the left outer edge of the tongue T, and the sixth part VI is the right outer edge of the tongue T. It is a part containing. In addition, how to divide the part according to the first embodiment, for example, is set in advance based on the medical knowledge that is the basis of the present invention, and is not limited to the way illustrated in FIG. Various changes can be made in response to various medical findings.

そして健康度判定部22は、第1部位Iについての色の健康度として図6に例示するように、舌Tの先端が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該先端が赤色であると検出された場合は上記点数として例えば「−1点」を設定し、当該先端が黒色であると検出された場合は上記点数として例えば「−2点」を設定する。また健康度判定部22は、第1部位Iについての形状の健康度として図6に例示するように、舌Tの先端にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該先端に点としてのクラックCRがあれば例えば「−1点」を設定する(ステップS50及びステップS51)。   Then, as illustrated in FIG. 6 as the color health level for the first part I, the health level determination unit 22 determines, for example, a score indicating the health level when the tip of the tongue T is detected to be light red. When “0 point” is set and the tip is detected to be red, for example, “−1 point” is set as the score, and when the tip is detected to be black, the score is set to “ -2 points ". Further, as illustrated in FIG. 6 as the health degree of the shape of the first part I, the health degree determination unit 22 may have a crack CR (see FIG. 4B) as a scratch at the tip of the tongue T, for example, “ -2 point "is set, and if there is a crack CR as a point at the tip, for example," -1 point "is set (step S50 and step S51).

更に健康度判定部22は、第2部位IIについての色の健康度として図6に例示するように、舌Tの舌根が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該舌根が赤色又は白色であると検出された場合は上記点数として例えば「−1点」を設定し、当該舌根が黒色であると検出された場合は上記点数として例えば「−2点」を設定する。また健康度判定部22は、第2部位IIについての形状の健康度として図6に例示するように、舌Tの舌根にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該舌根に点としてのクラックCRがあれば例えば「−1点」を設定する(ステップS50及びステップS51)。   Further, as illustrated in FIG. 6 as the color health level for the second part II, the health level determination unit 22 may detect, for example, a score indicating the health level when the tongue base of the tongue T is detected to be light red. When “0 point” is set and the tongue base is detected to be red or white, for example, “−1 point” is set as the above score, and when the tongue base is detected to be black, the above score is set. For example, “−2 points” is set. Further, as illustrated in FIG. 6 as the health degree of the shape of the second part II, the health degree determination unit 22 may have a crack CR (see FIG. 4B) as a scratch on the tongue base of the tongue T, for example, “ -2 point "is set, and if there is a crack CR as a point at the tongue base, for example," -1 point "is set (step S50 and step S51).

更にまた健康度判定部22は、第3部位IIIについての色の健康度として図6に例示するように、舌Tの先端左外縁部が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該先端左外縁部が薄紅色以外の色であると検出された場合は上記点数として例えば「−1点」を設定する。また健康度判定部22は、第3部位IIIについての形状の健康度として図6に例示するように、舌Tの先端左外縁部にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該先端左外縁部に点又は歯の痕としてのクラックCRがあれば例えばそれぞれ「−1点」を設定する(ステップS50乃至ステップS52)。   Furthermore, as illustrated in FIG. 6 as the color health level for the third part III, the health level determination unit 22 determines the health level when it is detected that the left outer edge of the tip of the tongue T is light red. For example, “0 point” is set as the indicated score, and when it is detected that the left outer edge of the tip is a color other than light red, for example, “−1” is set as the above score. Further, the health degree determination unit 22 has a crack CR (see FIG. 4B) as a scratch on the left outer edge of the tip of the tongue T, as illustrated in FIG. 6 as the health degree of the shape of the third part III. For example, “−2 point” is set, and if there is a crack CR as a mark of a point or a tooth on the left outer edge of the tip, for example, “−1 point” is set (step S50 to step S52).

更に健康度判定部22は、第4部位IVについての色の健康度として図6に例示するように、舌Tの先端右外縁部が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該先端右外縁部が薄紅色以外の色であると検出された場合は上記点数として例えば「−1点」を設定する。また健康度判定部22は、第4部位IVについての形状の健康度として図6に例示するように、舌Tの先端右外縁部にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該先端右外縁部に点又は歯の痕としてのクラックCRがあれば例えばそれぞれ「−1点」を設定する(ステップS50乃至ステップS52)。   Further, as illustrated in FIG. 6 as the color health level for the fourth portion IV, the health level determination unit 22 indicates the health level when it is detected that the tip outer right edge of the tongue T is light red. For example, “0 point” is set as the score, and when the right outer edge of the tip is detected to be a color other than light red, for example, “−1” is set as the score. Further, the health degree determination unit 22 has a crack CR (see FIG. 4B) as a scratch on the right outer edge of the tip of the tongue T as illustrated in FIG. 6 as the health degree of the shape of the fourth part IV. For example, “−2 point” is set, and if there is a crack CR as a point or a tooth mark at the right outer edge of the tip, for example, “−1 point” is set (step S50 to step S52).

更にまた健康度判定部22は、第5部位Vについての色の健康度として図6に例示するように、舌Tの舌根左外縁部が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該舌根左外縁部が赤色であると検出された場合は上記点数として例えば「−1点」を設定し、当該舌根左外縁部が黒色であると検出された場合は上記点数として例えば「−2点」を設定する。また健康度判定部22は、第5部位Vについての形状の健康度として図6に例示するように、舌Tの舌根左外縁部にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該舌根左外縁部に点としてのクラックCRがあれば例えば「−1点」を設定する(ステップS50及びステップS51)。   Furthermore, as illustrated in FIG. 6 as the color health level for the fifth part V, the health level determination unit 22 determines the health level when the tongue base left outer edge portion of the tongue T is detected to be light red. For example, “0 point” is set as the score, and when it is detected that the tongue base left outer edge is red, for example, “−1 point” is set as the score, and the tongue base left outer edge is black. When detected, for example, “−2 points” is set as the above-mentioned score. In addition, as illustrated in FIG. 6 as the health degree of the shape of the fifth region V, the health level determination unit 22 has a crack CR (see FIG. 4B) as a scratch on the left outer edge of the tongue T. For example, “−2 point” is set, and if there is a crack CR as a point at the left outer edge of the tongue base, for example, “−1 point” is set (step S50 and step S51).

最後に健康度判定部22は、第6部位VIについての色の健康度として図6に例示するように、舌Tの舌根右外縁部が薄紅色であると検出された場合はその健康度を示す点数として例えば「0点」を設定し、当該舌根右外縁部が赤色であると検出された場合は上記点数として例えば「−1点」を設定し、当該舌根右外縁部が黒色であると検出された場合は上記点数として例えば「−2点」を設定する。また健康度判定部22は、第6部位VIについての形状の健康度として図6に例示するように、舌Tの舌根右外縁部にキズとしてのクラックCR(図4(b)参照)があれば例えば「−2点」を設定し、当該舌根右外縁部に点としてのクラックCRがあれば例えば「−1点」を設定する(ステップS50及びステップS51)。   Finally, as illustrated in FIG. 6 as the color health degree for the sixth part VI, the health degree determination unit 22 determines the health degree when the right outer edge of the tongue base of the tongue T is detected to be light red. For example, “0 point” is set as the score, and when it is detected that the tongue base right outer edge is red, for example, “−1 point” is set as the score, and the tongue base right outer edge is black. When detected, for example, “−2 points” is set as the above-mentioned score. Further, the health degree determination unit 22 has a crack CR (see FIG. 4B) as a scratch on the right outer edge of the tongue T, as exemplified in FIG. 6 as the health degree of the shape of the sixth part VI. For example, “−2 point” is set, and if there is a crack CR as a point at the right outer edge of the tongue base, for example, “−1 point” is set (step S50 and step S51).

なお、第1実施形態に係る上記の健康度の評価点の設定方法は、最初に異常な(即ち健康ではない)状態を定義付け、その定義された異常な状態が検出された場合に、当該異常の程度に相当する点数だけ減点していく、いわゆる減点法による設定方法である。   In addition, the setting method of the above-described health evaluation score according to the first embodiment defines an abnormal state (that is, not healthy) first, and when the defined abnormal state is detected, This is a setting method based on a so-called deduction method in which points are deducted by a number corresponding to the degree of abnormality.

ここで図6は、三つのサンプル(サンプルA乃至サンプルC)について、上記の健康度の算出処理の結果としての評価点を例示するものである。なお図6におけるハッチング部は、その部位について評価の対象とはならない項目を示す。更に図6に例示するサンプルA乃至サンプルCについては、同一の被験者についての異なった時期に撮像された舌画像TGに基づく各サンプルである場合もあるし、異なる被験者について撮像された舌画像TGに基づく各サンプルであってもよい。   Here, FIG. 6 illustrates an evaluation score as a result of the above-described health degree calculation process for three samples (sample A to sample C). In addition, the hatching part in FIG. 6 shows the item which is not the object of evaluation about the site | part. Further, the samples A to C illustrated in FIG. 6 may be samples based on the tongue images TG captured at different times for the same subject, or the tongue images TG captured for different subjects. Each sample may be based on.

例えば図6に例示するサンプルAにおいては、第1部位Iの色が赤色であったため当該第1部位Iの色の健康度が−1点となっている一方、第1部位Iにはキズ等のクラックCRがなかったため、結果として、第1部位Iとしての健康度の評価点が−1点となっている。これに対し、サンプルAの第4部位IVでは、歯の痕としてのクラックCRが検出されたが、それ以外のクラックCRはなく、更に色も薄紅色であったため、結果として、第4部位IVとしての健康度の評価点も−1点となっている。以下同様に、図6に例示するサンプルBでは、第1部位Iについて色が赤色であったため−1点となり、第2部位IIについて色が赤又は白であり且つキズとしてのクラックCRが検出されたため合計−3点となり、第5部位Vについて点としてのクラックCRが検出されたため−1点となり、第6部位VIについてキズとしてのクラックCRが検出されたため−1点となっている。更に、図6に例示するサンプルCでは、第1部位Iについて色が赤色であり且つ点としてのクラックCRが検出されたため合計−2点となり、第2部位IIについて色が赤又は白であったため−1点となり、第3部位III及び第4部位IVについてそれぞれ歯の痕としてのクラックCRが検出されたため各−1点となり、第5部位V及び第6部位VIについてそれぞれ点としてのクラックCRが検出されたため各−1点となっている。   For example, in the sample A illustrated in FIG. 6, since the color of the first part I is red, the health degree of the color of the first part I is −1, while the first part I has scratches or the like. Since there was no crack CR, as a result, the evaluation score of the health degree as the 1st site | part I is -1. On the other hand, in the fourth part IV of sample A, crack CR as a tooth mark was detected, but there was no other crack CR and the color was light red. As a result, the fourth part IV As a result, the health score is -1. Similarly, in the sample B illustrated in FIG. 6, since the color of the first part I is red, it is −1, the color of the second part II is red or white, and a crack CR as a scratch is detected. Therefore, the total is -3 points, and since the crack CR as a point is detected for the fifth part V, it is -1 point, and since the crack CR as a scratch is detected for the sixth part VI, it is -1 point. Furthermore, in the sample C illustrated in FIG. 6, since the color is red for the first part I and crack CR as a point is detected, the total is −2 points, and the color is red or white for the second part II. Since the crack CR as a tooth mark was detected for each of the third part III and the fourth part IV, each point was -1, and each of the fifth part VI and the sixth part VI had a crack CR as a point. Since it was detected, each point is −1.

図6に例示するように部位ごとの評価点が算出されたら、次に健康度判定部22は、当該算出された評価点について、上記部位ごとに重み付けを行い、最終的な部位ごとの健康度を算出する(ステップS6)。即ち健康度判定部22は、例えば図6に例示する各サンプルについて図7(a)に例示する評価点であった場合、上記第1部位I乃至第6部位VIそれぞれの重み付けの比を、例えば図7(b)に例示するように順に「3:3:1:1:1:1」とする。この重み付けの程度は、本発明の基礎となる医学的知見に基づいて予め設定される。そして健康度判定部22は、例えば図7(a)に例示する評価点に対して図7(b)に例示する重み付けを行い、その結果として図7(b)に例示するような重み付け後の評価点を部位ごとに算出する(ステップS6)。その後健康度判定部22は、図7(b)に例示する重み付け後の評価点をサンプルごとに加算することにより、最高点を減点なしの0点とし、最低点を各部位の全てについての最低の評価点の合計である−50点とする、図7(c)に例示するサンプルごとの重み付け後の評価値の合計を算出する。図7(c)に例示する場合は、サンプルAの重み付け後の評価値の合計が−4点であり、サンプルBの重み付け後の評価値の合計が−14点であり、サンプルCの重み付け後の評価値の合計が−13点であることになる。   When the evaluation score for each part is calculated as illustrated in FIG. 6, the health degree determination unit 22 then weights the calculated evaluation point for each part to determine the final health degree for each part. Is calculated (step S6). That is, when the health degree determination unit 22 is the evaluation point illustrated in FIG. 7A for each sample illustrated in FIG. 6, for example, the weight ratio of each of the first part I to the sixth part VI is set to, for example, As illustrated in FIG. 7B, “3: 3: 1: 1: 1: 1” is sequentially set. The degree of weighting is set in advance based on medical knowledge that forms the basis of the present invention. Then, the health degree determination unit 22 performs the weighting illustrated in FIG. 7B on the evaluation points illustrated in FIG. 7A, for example, and as a result, the weights after the weighting illustrated in FIG. An evaluation score is calculated for each part (step S6). Thereafter, the health degree determination unit 22 adds the weighted evaluation points illustrated in FIG. 7B for each sample, thereby setting the highest score to 0 without any deduction and the lowest score to the lowest score for all the parts. The sum of the weighted evaluation values for each sample illustrated in FIG. 7C is calculated, which is −50 points, which is the sum of the evaluation points. In the case illustrated in FIG. 7C, the sum of the weighted evaluation values of the sample A is −4 points, the sum of the weighted evaluation values of the sample B is −14 points, and the weight of the sample C is weighted. The sum of the evaluation values is -13 points.

その後健康度判定部22は、表示により被験者等に提示する健康度の算出を行う。このとき、例えば図7(c)に例示する評価値の合計が得られている場合に、健康度判定部22は、最高点を100点とし、最低点を0点とする第1実施形態に係る健康度を、以下の式(1)により算出し、その算出結果としての健康度情報を出力制御部23に出力する(ステップS7)。   Thereafter, the health level determination unit 22 calculates the health level to be presented to the subject or the like by display. At this time, for example, when the sum of the evaluation values illustrated in FIG. 7C is obtained, the health level determination unit 22 sets the highest score as 100 points and the lowest score as 0 points in the first embodiment. The health level is calculated by the following equation (1), and the health level information as the calculation result is output to the output control unit 23 (step S7).

健康度=100×〔1−{重み付け後の評価値の合計の絶対値/(最高点−最低点)}〕
…(1)
このとき、例えばサンプルAの場合、図7(c)の例示を引用すれば、上記重み付け後の評価値の合計の絶対値が「4」点となり、上記最高点が0点となり、最低点が−50点であるから、これらを上記式(1)に当て嵌めると、サンプルAとしての健康度は、図7(d)に例示するように「92点」となる。以下、サンプルB及びサンプルCとしても同様に式(1)を用いると、サンプルBとしての健康度及びサンプルCとして健康度は、それぞれ、「72点」と「74点」となることが判る。
Health degree = 100 × [1- {absolute value of sum of evaluation values after weighting / (highest score−lowest score)}]
... (1)
At this time, for example, in the case of sample A, if the example of FIG. 7C is cited, the absolute value of the sum of the weighted evaluation values is “4”, the highest score is 0, and the lowest score is Since it is −50 points, when these are applied to the above equation (1), the health level as the sample A is “92 points” as illustrated in FIG. Hereinafter, it can be understood that the health level as the sample B and the health level as the sample C are “72 points” and “74 points”, respectively, when the formula (1) is similarly used for the sample B and the sample C.

その後出力制御部23は、健康度判定部22から出力された健康度情報に基づき、例えば図8に例示するような表示画面を生成してディスプレイ3に出力し、第1実施形態に係る健康度判定処理の結果として被験者等に提示させる(ステップS8)。このとき図8に例示する場合は、図7(d)に例示した健康度の値に加えて、図7(b)に例示した重み付け後の評価値が部位ごとかつサンプルごとに、いわゆるレーダーチャートとして見易く表示される。なお図8に例示するレーダーチャートでは、各評価値の基準(「−2」、「−6」等の尺度)も合わせて表示されている。   Thereafter, the output control unit 23 generates a display screen as illustrated in FIG. 8 based on the health level information output from the health level determination unit 22 and outputs the display screen to the display 3, for example, and the health level according to the first embodiment. The subject is presented as a result of the determination process (step S8). At this time, in the case illustrated in FIG. 8, in addition to the health value illustrated in FIG. 7D, the weighted evaluation value illustrated in FIG. It is displayed for easy viewing. In the radar chart illustrated in FIG. 8, each evaluation value standard (a scale such as “−2” and “−6”) is also displayed.

その後処理部2は、健康度判定装置Sとしての電源スイッチがオフとされたか、或いは操作部4において既定の終了操作が実行されたこと等を検出することにより、第1実施形態に係る健康度判定処理を終了するか否かを判定する(ステップS9)。ステップS9の判定において引き続き当該健康度判定処理を実行する場合(ステップS9;NO)、処理部2は上記ステップS1に戻って上述してきた健康度判定処理を繰り返す。一方ステップS9の判定において当該健康度判定処理を終了する場合(ステップS9;YES)、処理部2はそのまま当該健康度判定処理を終了する。   Thereafter, the processing unit 2 detects whether the power switch as the health level determination device S is turned off or a predetermined end operation is executed in the operation unit 4, and the like, thereby determining the health level according to the first embodiment. It is determined whether or not to end the determination process (step S9). When the health level determination process is continuously executed in the determination in step S9 (step S9; NO), the processing unit 2 returns to step S1 and repeats the health level determination process described above. On the other hand, when the said health degree determination process is complete | finished in determination of step S9 (step S9; YES), the process part 2 complete | finishes the said health degree determination process as it is.

以上説明したように、第1実施形態に係る健康度判定処理によれば、舌Tの表側の表面を撮像して得られた舌画像情報に基づいて健康の観点から見た特徴を抽出し(図2ステップS40乃至ステップS42参照)、その抽出された特徴に対して、舌Tの部位ごとの既定の重み付けをそれぞれ行い(図2ステップS6参照)、その結果を部位ごとに表示する(図2ステップS8、図8参照)。よって、舌Tの表面を撮像するのみで医学的知見に基づいた舌Tの特徴を認識することができる。また、舌Tの表面の部位ごとに医学的知見に基づいた重み付けを行ったそれらの特徴を認識することができるので、より的確且つ迅速に、舌Tの状態(換言すれば、その舌を持つ人の健康状態)を認識することができる。   As described above, according to the health level determination process according to the first embodiment, the features viewed from the viewpoint of health are extracted based on the tongue image information obtained by imaging the front surface of the tongue T ( 2 (see step S40 to step S42 in FIG. 2), the extracted feature is weighted for each part of the tongue T (see step S6 in FIG. 2), and the result is displayed for each part (see FIG. 2). Step S8, see FIG. 8). Therefore, the feature of the tongue T based on medical knowledge can be recognized only by imaging the surface of the tongue T. In addition, since each feature of the surface of the tongue T that has been weighted based on medical knowledge can be recognized, the state of the tongue T (in other words, the tongue T has the tongue more accurately and quickly). Human health condition).

また、各重み付け後の評価点の加算結果に基づいて健康度を算出して表示するので、舌Tの部位ごとの特徴に基づく具体的な健康度を認識することができる。   In addition, since the health level is calculated and displayed based on the result of adding the weighted evaluation points, the specific health level based on the characteristics of each part of the tongue T can be recognized.

更に、舌Tの表側の評価の対象が、その先端、舌根及び外縁部であるので、評価の対象を特定する(先端等の部位に限る)ことで健康度判定装置Sとしての処理負担の軽減を図りながら、舌Tの表側の状態の特徴を的確に認識することができる。   Furthermore, since the evaluation target on the front side of the tongue T is the tip, tongue base, and outer edge, the processing load as the health degree determination device S can be reduced by specifying the evaluation target (limited to the tip and other parts). The feature of the state of the front side of the tongue T can be accurately recognized.

更にまた、舌Tの各部位としての特徴が、その形状、色及び外縁部のいずれかであるので、舌Tの表側の表面の状態を医学的知見に基づいて的確に認識することができる。   Furthermore, since the characteristic of each portion of the tongue T is any one of its shape, color and outer edge, the state of the surface on the front side of the tongue T can be accurately recognized based on medical knowledge.

(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図9を用いて説明する。なお図9は、第2実施形態に係る健康度の判定を例示する図である。
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present invention will be described with reference to FIG. FIG. 9 is a diagram illustrating determination of the health level according to the second embodiment.

上述してきた第1実施形態に係る健康度判定処理では、被験者の舌Tの表側をカメラCで撮像した舌画像TGを用いて、当該被験者の健康状態を評価した。これに対して、以下に説明する第2実施形態では、舌Tの裏側をカメラCで撮像した舌画像TGを用いて、当該被験者の健康状態を評価する。なお以下の説明において、舌Tの裏側を撮像した舌画像を、単に「裏側の舌画像」と称する。   In the health degree determination process according to the first embodiment described above, the health state of the subject was evaluated using the tongue image TG obtained by capturing the front side of the subject's tongue T with the camera C. On the other hand, in the second embodiment described below, the health condition of the subject is evaluated using a tongue image TG obtained by capturing the back side of the tongue T with the camera C. In the following description, a tongue image obtained by imaging the back side of the tongue T is simply referred to as a “back side tongue image”.

また、第2実施形態に係る健康度判定システムのハードウェア的な構成は、基本的に第1実施形態に係る健康度判定システムSSのハードウェア的な構成と同一である。よって以下の第2実施形態では、第1実施形態に係る健康度判定システムSSと同様の部材番号を用いて、当該健康度判定システムSSと異なる部分及び処理のみについて、第2実施形態に係る健康度判定システムを説明する。   The hardware configuration of the health degree determination system according to the second embodiment is basically the same as the hardware configuration of the health degree determination system SS according to the first embodiment. Therefore, in the following second embodiment, using the same member numbers as the health determination system SS according to the first embodiment, only the parts and processes different from the health determination system SS are related to the health according to the second embodiment. A degree determination system will be described.

第2実施形態に係る健康度判定システムによる健康度判定処理においてカメラCを用いて撮像されるのは、図9(a)に例示するような、舌Tの裏側(表面)である。そして当該裏側の舌画像TGについての分割方法は、図9(b)に例示するように、舌Tの裏側の向かって左側全体に当たる第1部位Iaと、舌Tの裏側の向かって右側全体に当たる第2部位IIaと、の二つの部位とされる。これら第1部位Ia及び第2部位IIaは、舌Tの裏側の長手方向にある舌深静脈VPをそれぞれに含むように、予め設定され分割された部位である。   It is the back side (surface) of the tongue T as exemplified in FIG. 9A that is imaged using the camera C in the health level determination process by the health level determination system according to the second embodiment. Then, as shown in FIG. 9B, the division method for the tongue image TG on the back side corresponds to the first part Ia that hits the entire left side toward the back side of the tongue T and the entire right side toward the back side of the tongue T. The second part IIa and the two parts. These 1st site | part Ia and 2nd site | part IIa are the site | parts preset and divided | segmented so that each may include deep tongue vein VP in the longitudinal direction of the back side of the tongue T, respectively.

そして第2実施形態に係る健康度判定処理において画像処理部21は、上記裏側の舌画像TGに相当する舌画像情報に対してその特徴の抽出を行い、当該抽出した特徴に相当する特徴情報を生成して健康度判定部22に出力する。   Then, in the health degree determination process according to the second embodiment, the image processing unit 21 extracts features of tongue image information corresponding to the tongue image TG on the back side, and obtains feature information corresponding to the extracted features. Generate and output to the health level determination unit 22.

ここで第2実施形態に係る上記特徴とは、裏側の舌画像TGに相当する舌Tの状態を、「形状」、「色」、「外縁部」及び「舌深静脈VP」の各観点からそれぞれ特徴付ける。より具体的に例えば、舌Tの裏側の表面における「キズ」、「隆起」又は「点」等の有無を上記形状の特徴とし、また当該裏側の表面の色としての「色調」や「色模様」等を上記色の特徴とし、当該裏側の外縁部の形状(より具体的には、「歯の痕」、「キズ」又は「点」の有無等)を上記外縁部の特徴とし、更に舌Tの舌深静脈VPの「幅及び長さ」、「蛇行の有無」、「静脈瘤の有無」、「怒張の有無」及び「左右の差の有無」等を上記舌深静脈VPの特徴とする。   Here, the feature according to the second embodiment is that the state of the tongue T corresponding to the back side tongue image TG is determined from the viewpoints of “shape”, “color”, “outer edge”, and “tongue deep vein VP”. Characterize each. More specifically, for example, the presence or absence of “scratches”, “bumps”, or “points” on the back surface of the tongue T is characterized by the above shape, and “color tone” or “color pattern” as the color of the back surface ”Or the like, and the shape of the outer edge of the back side (more specifically, the presence or absence of“ dental marks ”,“ scratches ”or“ dots ”) as the characteristics of the outer edge, and further the tongue The “width and length”, “presence / absence of meandering”, “presence / absence of varicose veins”, “presence / absence of anger”, “presence / absence of left / right difference” and the like of the deep tongue vein VP of T To do.

そして健康度判定部22は、上記各特徴について、第1実施形態に係る健康度判定処理と同様に、評価点の算出処理、重み付け処理及び加算処理を実行し、更にその結果を用いた健康度の算出処理及び表示処理を実行する。   Then, the health level determination unit 22 performs the evaluation score calculation process, the weighting process, and the addition process for each of the features as in the health level determination process according to the first embodiment, and further uses the results to determine the health level. The calculation process and display process are executed.

以上説明したように、第2実施形態に係る健康度判定処理によれば、第1実施形態に係る健康度判定処理と同様に、舌Tの表面を撮像するのみで医学的知見に基づいた舌Tの特徴を認識することができると共に、より的確且つ迅速に、舌Tを持つ人の健康状態を認識することができる。   As described above, according to the health degree determination process according to the second embodiment, the tongue based on the medical knowledge is obtained just by imaging the surface of the tongue T, similarly to the health degree determination process according to the first embodiment. The feature of T can be recognized, and the health condition of a person having the tongue T can be recognized more accurately and quickly.

また、舌Tの裏側(の表面)が、その長手方向の分割線により左右二つに分割された第1部位Ia及び第2部位IIaであるので、評価の対象の部位を特定する(限定する)ことで健康度判定装置Sとしての処理負担の軽減を図りながら、舌Tの裏側の状態の特徴を的確に認識することができる。   Moreover, since the back side (the surface) of the tongue T is the first part Ia and the second part IIa divided into the left and right parts by the dividing line in the longitudinal direction, the part to be evaluated is specified (limited). ), The characteristics of the state of the back side of the tongue T can be accurately recognized while reducing the processing burden as the health degree determination device S.

また、当該各部位としての特徴が、その形状、色、外縁部及び舌深静脈VPの形状等のいずれかであるので、舌Tの裏側の表面の状態を医学的知見に基づいて的確に認識することができる。   In addition, since the feature as each part is any one of its shape, color, outer edge, deep tongue VP shape, etc., the state of the surface on the back side of the tongue T is accurately recognized based on medical knowledge. can do.

なお上述した各実施形態における健康度の評価点の設定方法は、上述したように減点法によるものであったが、これ以外に、最初に正常な(即ち健康な)状態を定義付け、その定義された正常な状態が検出された場合に、当該正常の程度に相当する点数だけ加算していく、いわゆる加算法による設定方法であってもよい。   In addition, although the setting method of the evaluation score of the health degree in each of the above-described embodiments is based on the deduction method as described above, in addition to this, first, a normal (ie, healthy) state is defined and the definition is made. When a normal state is detected, a setting method based on a so-called addition method may be used in which only points corresponding to the normal degree are added.

また上述した各実施形態では、図8に例示するレーダーチャート及びサンプルごとの評価点の合計値を表示したが、これ以外に、レーダーチャート、又はサンプルごとの評価点の合計値のいずれか一つのみでもよい。   In each of the above-described embodiments, the total value of the radar chart and the evaluation score for each sample illustrated in FIG. 8 is displayed, but any one of the radar chart or the total value of the evaluation points for each sample is displayed. It may be only.

更に、時系列的にサンプルを記録部5に蓄積して分析の対象とすることで、より効果的な健康度の判定を行うこともできる。   Furthermore, the health level can be more effectively determined by accumulating the samples in the recording unit 5 in time series and making them subject to analysis.

更にまた、各実施形態に係る舌画像TGの部位の分割方法及び評価点の設定方法の詳細は、医学的知見に基づいているものであれば、各実施形態に係る分割方法等以外にも採用し得るものである。   Furthermore, the details of the method for dividing the region of the tongue image TG and the method for setting the evaluation points according to each embodiment are adopted in addition to the division method according to each embodiment as long as it is based on medical knowledge. It is possible.

以上それぞれ説明したように、本発明は健康度を判定して被験者等に提示する健康度判定システムの分野に利用することが可能であり、特に舌画像TGを取得して当該健康度を判定する健康度判定システムの分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of a health level determination system that determines the health level and presents it to the subject. In particular, the tongue image TG is acquired to determine the health level. When applied to the field of health judgment systems, particularly remarkable effects can be obtained.

1 インターフェース
2 処理部
3 ディスプレイ
4 操作部
5 記録部
20 画像登録部
21 画像処理部
22 健康度判定部
23 出力制御部
SS 健康度判定システム
S 健康度判定装置
C カメラ
T 舌
G 画像
TG 舌画像
M1、M2、M3、M4 マーカ
CR クラック
I、Ia 第1部位
II、IIa 第2部位
III 第3部位
IV 第4部位
V 第5部位
VI 第6部位
DESCRIPTION OF SYMBOLS 1 Interface 2 Processing part 3 Display 4 Operation part 5 Recording part 20 Image registration part 21 Image processing part 22 Health degree determination part 23 Output control part SS Health degree determination system S Health degree determination apparatus C Camera T Tongue G Image TG Tongue image M1 , M2, M3, M4 Marker CR Crack I, Ia First part
II, IIa 2nd site
III Third part
IV 4th part V 5th part
VI Sixth part

Claims (9)

舌の表面を撮像して得られた表面情報を取得する取得手段と、
前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する算出手段と、
前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する生成手段と、
各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力手段と、
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring surface information obtained by imaging the surface of the tongue;
Based on the acquired surface information, calculating means for calculating feature information indicating the characteristics of the surface based on medical knowledge;
For each of the divided surfaces obtained by dividing the surface into parts set in advance based on the medical knowledge, the calculated feature information is weighted in advance corresponding to the medical knowledge, Generating means for generating weighting feature information for each of the divided surfaces;
Output means for outputting each generated weighting feature information for each of the divided surfaces;
An information processing apparatus comprising:
請求項1に記載の情報処理装置において、
各前記出力された重み付け特徴情報を加算して加算情報を生成する加算手段と、
前記生成された加算情報に基づき、前記舌に基づいた健康度を示す健康度情報を、前記医学的知見に基づいて予め設定された算出手法により算出する健康度算出手段と、
を更に備え、
前記出力手段は、前記算出された健康度情報を出力することを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
Adding means for adding each of the output weighting feature information to generate addition information;
Based on the generated addition information, health level calculation means for calculating health level information indicating the level of health based on the tongue by a preset calculation method based on the medical knowledge;
Further comprising
The information processing apparatus characterized in that the output means outputs the calculated health information.
請求項1又は請求項2に記載の情報処理装置において、
前記表面は前記舌の表側の表面であり、
各前記部位は、当該表側の表面における先端部位、舌根部位及び側部位の少なくともいずれかであることを特徴とする情報処理装置。
The information processing apparatus according to claim 1 or 2,
The surface is a surface on the front side of the tongue;
Each of the parts is at least one of a tip part, a tongue base part, and a side part on the front side surface.
請求項3に記載の情報処理装置において、
前記特徴は、各前記分割表面における表面形状、色及び外縁部形状のいずれかであり、
前記算出手段は、当該いずれかを示す前記特徴情報をそれぞれ算出することを特徴とする情報処理装置。
The information processing apparatus according to claim 3.
The feature is any one of a surface shape, a color, and an outer edge shape in each of the divided surfaces,
The information processing apparatus, wherein the calculation unit calculates the feature information indicating any one of the calculation means.
請求項1又は請求項2に記載の情報処理装置において、
前記表面は前記舌の裏側の表面であり、
各前記部位は、長手方向の分割線により当該裏側の表面を左右二つに分割した各分割部位の少なくともいずれかであることを特徴とする情報処理装置。
The information processing apparatus according to claim 1 or 2,
The surface is a surface on the back side of the tongue;
The information processing apparatus according to claim 1, wherein each of the parts is at least one of divided parts obtained by dividing the surface on the back side into two left and right parts by a dividing line in a longitudinal direction.
請求項5に記載の情報処理装置において、
前記特徴は、各前記分割表面における表面形状、色、外縁部形状及び舌深静脈の形状のいずれかであり、
前記算出手段は、当該いずれかを示す前記特徴情報をそれぞれ算出することを特徴とする情報処理装置。
The information processing apparatus according to claim 5,
The feature is any one of a surface shape, a color, an outer edge shape, and a deep tongue vein shape on each of the divided surfaces,
The information processing apparatus, wherein the calculation unit calculates the feature information indicating any one of the calculation means.
請求項1から請求項6のいずれか一項に記載の情報処理装置と、
前記表面を撮像して前記表面情報を生成し、前記取得手段に出力する撮像装置と、
前記出力手段からの出力結果を提示する提示装置と、
を備えることを特徴とする情報処理システム。
The information processing apparatus according to any one of claims 1 to 6,
An imaging device that images the surface to generate the surface information and outputs the surface information;
A presentation device for presenting an output result from the output means;
An information processing system comprising:
舌の表面を撮像して得られた表面情報を取得する取得工程と、
前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する算出工程と、
前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する生成工程と、
各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力工程と、
を含むことを特徴とする情報処理方法。
An acquisition step of acquiring surface information obtained by imaging the surface of the tongue;
Based on the acquired surface information, a calculation step for calculating feature information indicating characteristics of the surface based on medical knowledge;
For each of the divided surfaces obtained by dividing the surface into parts set in advance based on the medical knowledge, the calculated feature information is weighted in advance corresponding to the medical knowledge, A generation step of generating weighting feature information for each of the divided surfaces;
Outputting each of the generated weighting feature information for each of the divided surfaces;
An information processing method comprising:
舌の表面を撮像して得られた表面情報を取得する取得手段を備える情報処理装置に含まれるコンピュータを、
前記取得された表面情報に基づき、医学的知見に基づいた前記表面の特徴を示す特徴情報を算出する算出手段、
前記算出された特徴情報に対して、前記医学的知見に基づいて予め設定された部位に前記表面を分割した分割表面ごとに、当該医学的知見に対応して予め設定された重み付けをそれぞれ行い、当該分割表面ごとの重み付け特徴情報をそれぞれ生成する生成手段、及び、
各前記生成された重み付け特徴情報を、前記分割表面ごとに出力する出力手段、
として機能させることを特徴とする情報処理用プログラム。
A computer included in an information processing apparatus including an acquisition unit that acquires surface information obtained by imaging the surface of the tongue;
Based on the acquired surface information, calculation means for calculating feature information indicating the characteristics of the surface based on medical knowledge,
For each of the divided surfaces obtained by dividing the surface into parts set in advance based on the medical knowledge, the calculated feature information is weighted in advance corresponding to the medical knowledge, Generating means for generating weighting feature information for each of the divided surfaces; and
Output means for outputting each generated weighting feature information for each of the divided surfaces;
An information processing program characterized by functioning as
JP2015023103A 2015-02-09 2015-02-09 Information processing apparatus, information processing system, information processing method, and information processing program Active JP6390458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015023103A JP6390458B2 (en) 2015-02-09 2015-02-09 Information processing apparatus, information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023103A JP6390458B2 (en) 2015-02-09 2015-02-09 Information processing apparatus, information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2016144569A true JP2016144569A (en) 2016-08-12
JP6390458B2 JP6390458B2 (en) 2018-09-19

Family

ID=56685052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023103A Active JP6390458B2 (en) 2015-02-09 2015-02-09 Information processing apparatus, information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP6390458B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017003685T5 (en) 2016-07-22 2019-05-02 Denso Corporation Vehicle air conditioning unit

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004209245A (en) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd Method for extracting region of interest from image of tongue and method and apparatus for monitoring health using image of tongue
JP2006149679A (en) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc Method, device and program for determining degree of health
JP2009028058A (en) * 2007-07-24 2009-02-12 Saieco:Kk System, apparatus, method and program for tongue diagnosis
JP4487535B2 (en) * 2003-11-10 2010-06-23 コニカミノルタホールディングス株式会社 Health measurement system and program
JP2012523947A (en) * 2009-10-05 2012-10-11 イーエルシー マネージメント エルエルシー Computer-aided diagnosis system and method for determining skin composition based on the principles of traditional Chinese medicine (TCM)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004209245A (en) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd Method for extracting region of interest from image of tongue and method and apparatus for monitoring health using image of tongue
JP4487535B2 (en) * 2003-11-10 2010-06-23 コニカミノルタホールディングス株式会社 Health measurement system and program
JP2006149679A (en) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc Method, device and program for determining degree of health
JP2009028058A (en) * 2007-07-24 2009-02-12 Saieco:Kk System, apparatus, method and program for tongue diagnosis
JP2012523947A (en) * 2009-10-05 2012-10-11 イーエルシー マネージメント エルエルシー Computer-aided diagnosis system and method for determining skin composition based on the principles of traditional Chinese medicine (TCM)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
仙頭正四郎: "東洋医学的な舌の診かた:局所から全体を探る診断と治療", 口腔・咽頭科, vol. 第14巻 第2号, JPN4005008888, 28 February 2002 (2002-02-28), JP, pages 231 - 236, ISSN: 0003843166 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017003685T5 (en) 2016-07-22 2019-05-02 Denso Corporation Vehicle air conditioning unit

Also Published As

Publication number Publication date
JP6390458B2 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
US20160171708A1 (en) Computer-aided diagnosis apparatus and computer-aided diagnosis method
KR20200023703A (en) Dental image analyzing method for orthodontic daignosis and apparatus using the same
JP3928978B1 (en) Medical image processing apparatus, medical image processing method, and program
US20160042525A1 (en) Apparatus and method for visualization of region of interest
CN108520512B (en) Method and device for measuring eye parameters
CN103945755B (en) Image processing apparatus
JP2004174254A5 (en)
TW201250608A (en) Image comparison system and method
EP2917894B1 (en) Skin image analysis
CN105938513A (en) Apparatus and method for providing reliability for computer aided diagnosis
Barbosa et al. Towards automatic quantification of the epicardial fat in non-contrasted CT images
JP6471559B2 (en) Diagnostic device, image processing method, image processing system, and program for the diagnostic device
Olsen et al. An image-processing enabled dental caries detection system
JP6390458B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program
US20230214970A1 (en) Skin surface analysis device and skin surface analysis method
JP2011115393A (en) Skin feature determination system, skin feature determination method, and skin feature determination program
KR20190104001A (en) Apparatus and method for Auto classification of skin disease
CN114092399A (en) Focus marking method, device, electronic equipment and readable storage medium
KR20190065060A (en) Apparatus and methdo for measuring body size using open source hardware
Zhang et al. An approach of region of interest detection based on visual attention and gaze tracking
CN111179226B (en) Visual field diagram identification method and device and computer storage medium
CN109949262B (en) Image processing apparatus and image processing method
CN113256625A (en) Electronic equipment and recognition device
JPWO2021112205A5 (en)
JP2012055493A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150