JP2017148386A - Tongue image processing device, tongue image processing method and tongue image processing program - Google Patents

Tongue image processing device, tongue image processing method and tongue image processing program Download PDF

Info

Publication number
JP2017148386A
JP2017148386A JP2016035562A JP2016035562A JP2017148386A JP 2017148386 A JP2017148386 A JP 2017148386A JP 2016035562 A JP2016035562 A JP 2016035562A JP 2016035562 A JP2016035562 A JP 2016035562A JP 2017148386 A JP2017148386 A JP 2017148386A
Authority
JP
Japan
Prior art keywords
tongue
region
area
tooth
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016035562A
Other languages
Japanese (ja)
Other versions
JP6696222B2 (en
Inventor
龍 李
Yong Lee
龍 李
直樹 下袴田
Naoki Shimohakamada
直樹 下袴田
勝浩 梅海
Katsuhiro Umeumi
勝浩 梅海
仁郎 太田
Jinro Ota
仁郎 太田
公香 新納
Kouko Niino
公香 新納
保明 柿木
Yasuaki Kakigi
保明 柿木
達次 西原
Tatsuji Nishihara
達次 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016035562A priority Critical patent/JP6696222B2/en
Publication of JP2017148386A publication Critical patent/JP2017148386A/en
Application granted granted Critical
Publication of JP6696222B2 publication Critical patent/JP6696222B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tongue image processing device capable of individually detecting each tooth mark at high speed more accurately while reducing a processing load without being affected by an environmental factor during imaging of a tongue image.SOLUTION: A tongue image processing device comprises: an interface 1 for acquiring a tongue image obtained by imaging a tongue; an operation part 4 for designating a tooth mark detection area which is used for detecting a tooth mark which occurred on the tongue, in the tongue image; a tongue diagnosis area extraction part 21 for extracting a tongue diagnosis area using an area determination mask which is used for dividing an area into a tongue diagnosis area corresponding to the tongue in the designated tooth mark detection area and a background in the tooth mark detection area other than the tongue, which corresponds to a dimension of the tooth mark detection area, extracting a contour of the tongue from the tongue diagnosis area, and detecting a convex hull which is circumscribed to the contour; a tooth mark state detection part 22 for extracting a tooth mark area corresponding to one or each of plural tooth marks, based on the contour and convex hull; and an output control part 23 for outputting tooth mark area information indicating the tooth mark area.SELECTED DRAWING: Figure 1

Description

本発明は、舌画像処理装置、舌画像処理方法及び舌画像処理用プログラムの技術分野に属する。より詳細には、舌を撮像して得られた舌画像を処理するための舌画像処理装置、舌画像処理方法及び当該舌画像処理装置用のプログラムの技術分野に属する。   The present invention belongs to the technical field of a tongue image processing apparatus, a tongue image processing method, and a tongue image processing program. More specifically, the present invention belongs to the technical field of a tongue image processing device, a tongue image processing method, and a program for the tongue image processing device for processing a tongue image obtained by imaging the tongue.

近年のいわゆる健康志向に鑑み、人の健康状態を外部から客観的に検出又は認識し得る方法の開発が進められている。そして、このような方法に関連する従来技術として、下記特許文献1に記載されている方法がある。   In view of so-called health orientation in recent years, development of a method capable of objectively detecting or recognizing a person's health condition from the outside is underway. And as a prior art relevant to such a method, there exists the method described in the following patent document 1. FIG.

下記特許文献1に記載されている方法では、舌等の体の一部の画像情報に基づき、総合的な健康度の判定を行う構成とされている。より具体的に特許文献1に記載の方法では、デジタルスチルカメラで撮影された舌の画像から、舌の色、舌の形状、舌の周縁部の歯痕、舌表面の裂紋及び舌表面の苔の色等の九種類の特徴量の情報と、予め設定されている健康体基準サンプルと、の間の数学的なマハラノビス距離を求め、その値が健康度を求めるための尺度とされている。ここで上記歯痕とは、舌の側面が歯に普段から接触していることや、誤って歯で舌を噛んでしまったことなどに起因して、舌の側面又は先端等にできる歯の痕のことをいう。   In the method described in Patent Literature 1 below, the overall health level is determined based on image information of a part of the body such as the tongue. More specifically, in the method described in Patent Document 1, the tongue color, the tongue shape, the tooth mark on the peripheral edge of the tongue, the cleft on the tongue surface, and the moss on the tongue surface are obtained from the image of the tongue photographed with a digital still camera. The mathematical Mahalanobis distance between nine types of feature amount information such as the color of the color and a preset healthy body reference sample is obtained, and the value is used as a scale for obtaining the health level. Here, the above-mentioned tooth mark refers to the tooth formed on the side or tip of the tongue due to the fact that the side of the tongue is normally in contact with the tooth or the tongue is accidentally bitten by the tooth. It means a scar.

このとき上記特徴量としての歯痕は、他の特徴量と同様に上記健康度の判定には重要な役割を担う。このような歯痕の検出についてより具体的に特許文献1では、舌に相当する舌画像において、舌の重心からその輪郭までの距離を利用し、隣接する二つの距離の差分の総和を算出し、それにより、差分の総和が大きい場合には歯痕があってその程度が大きいと判断し、差分の総和が小さい場合には、歯痕が殆どなくその程度も小さいと判断することとされている。   At this time, the tooth trace as the feature amount plays an important role in the determination of the health level, like the other feature amounts. More specifically regarding the detection of such a tooth trace, in Patent Document 1, in the tongue image corresponding to the tongue, the distance from the center of gravity of the tongue to its contour is used to calculate the sum of the differences between two adjacent distances. Therefore, if the sum of the differences is large, it is determined that there is a tooth mark and the degree thereof is large, and if the sum of the differences is small, it is determined that there is almost no tooth mark and the degree thereof is small. Yes.

特許第4487535号Japanese Patent No. 4487535

しかしながら、上記特許文献1記載の方法における歯痕の検出方法によると、二つの指標、即ち「歯痕の有無」と「歯痕がある場合の、その程度(歯痕が多いか少ないかの程度)」しか判断することができない。よってこの場合は、舌画像を用いた健康度の算出における重要な情報となる歯痕の数、位置、大きさ又は歯痕領域における色等の詳細な評価ができないという問題点があった。   However, according to the method of detecting a tooth mark in the method described in Patent Document 1, two indexes, that is, “the presence / absence of a tooth mark” and “the degree when there is a tooth mark (the degree of whether there are many or few tooth marks). ) ”Only. Therefore, in this case, there has been a problem that detailed evaluation such as the number, position, size, and color of the tooth mark region, which is important information in calculating the health degree using the tongue image, cannot be performed.

そこで本発明は、上記の問題点に鑑みて為されたもので、その課題の一例は、舌画像の撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ、舌画像から歯根を含む舌領域を抽出すると共に、当該各歯痕をそれぞれ別個に検出することが可能な舌画像処理装置、舌画像処理方法及び当該舌画像処理装置用のプログラムを提供することにある。   Therefore, the present invention has been made in view of the above-mentioned problems, and an example of the problem is that it is more accurate, high-speed, and processing load can be reduced without being affected by environmental factors at the time of capturing a tongue image. A tongue image processing device, a tongue image processing method, and a program for the tongue image processing device capable of extracting a tongue region including a tooth root from a tongue image and separately detecting the respective tooth traces are provided. There is to do.

上記の課題を解決するために、請求項1に記載の発明は、舌を撮像して得られた舌画像に相当する舌画像情報を取得するインターフェース等の舌画像情報取得手段と、前記舌にできた歯痕の検出に用いられる歯痕検出領域を前記舌画像において指定するために用いられる操作部等の指定手段と、前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するインターフェース等のマスク情報取得手段と、前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌診領域抽出部等の舌領域抽出手段と、を備える。   In order to solve the above problems, the invention described in claim 1 is characterized in that tongue image information acquisition means such as an interface for acquiring tongue image information corresponding to a tongue image obtained by imaging the tongue, Designating means such as an operation unit used for designating a tooth mark detection area used for detection of the generated tooth mark in the tongue image, and a tongue area corresponding to the tongue in the designated tooth mark detection area; Area determination mask information corresponding to an area determination mask for separating a background area corresponding to the background in the tooth mark detection area other than the tongue and corresponding to the dimension of the tooth mark detection area Mask information acquisition means, such as an interface for acquiring information, and tongue region extraction means, such as a tongue examination region extraction unit, for extracting the tongue region from the tooth mark detection region using the region determination mask.

上記の課題を解決するために、請求項7に記載の発明は、舌を撮像して得られた舌画像を処理する舌画像処理装置において実行される舌画像処理方法において、前記舌画像に相当する舌画像情報を取得する舌画像情報取得工程と、前記舌にできた歯痕の検出に用いられる歯痕検出領域を前記舌画像において指定する指定工程と、前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するマスク情報取得工程と、前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌領域抽出工程と、を含む。   In order to solve the above-mentioned problem, the invention according to claim 7 corresponds to the tongue image in a tongue image processing method executed in a tongue image processing apparatus for processing a tongue image obtained by imaging the tongue. A tongue image information acquisition step for acquiring the tongue image information, a designation step for designating in the tongue image a tooth mark detection region used for detection of a tooth mark formed on the tongue, and within the designated tooth mark detection region An area determination mask for separating a tongue area corresponding to the tongue and a background area corresponding to the background in the tooth mark detection area other than the tongue, and an area corresponding to the size of the tooth mark detection area A mask information acquisition step of acquiring region determination mask information corresponding to the determination mask, and a tongue region extraction step of extracting the tongue region from the tooth mark detection region using the region determination mask.

上記の課題を解決するために、請求項8に記載の発明は、舌を撮像して得られた舌画像を処理する舌画像処理装置であって、前記舌画像のうち、前記舌にできた歯痕の検出に用いられる歯痕検出領域を指定するために用いられる操作部等の指定手段を備える舌画像処理装置に含まれるコンピュータを、前記舌画像に相当する舌画像情報を取得する舌画像情報取得手段、前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するマスク情報取得手段、及び、前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌領域抽出手段、として機能させる。   In order to solve the above problems, the invention according to claim 8 is a tongue image processing apparatus for processing a tongue image obtained by imaging the tongue, and is formed on the tongue of the tongue image. Tongue image for acquiring tongue image information corresponding to the tongue image from a computer included in a tongue image processing apparatus having a designation unit such as an operation unit used for designating a tooth mark detection region used for detection of a tooth mark An area determination mask for separating information acquisition means, a tongue area corresponding to the tongue in the designated tooth mark detection area, and a background area corresponding to the background in the tooth mark detection area other than the tongue A mask information acquisition means for acquiring area determination mask information corresponding to an area determination mask corresponding to the size of the tooth mark detection area, and extracting the tongue area from the tooth mark detection area using the area determination mask; Tongue region extraction Stage, to function as.

請求項1、請求項7又は請求項8のいずれか一項に記載の発明によれば、歯痕検出領域の寸法に対応した領域判定マスクを用いて舌領域を抽出する。よって、歯痕検出領域の寸法に対応した領域判定マスクを用いて舌領域を抽出するので、歯痕検出領域の全てを用いて舌領域の検出処理を行う場合に比して、舌画像撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ舌領域を検出することができる。   According to the invention described in any one of claims 1, 7, and 8, the tongue region is extracted using the region determination mask corresponding to the size of the tooth mark detection region. Therefore, since the tongue region is extracted using the region determination mask corresponding to the size of the tooth mark detection region, compared with the case where the tongue region detection process is performed using all of the tooth mark detection region, the tongue image is captured. It is possible to detect the tongue region more accurately, at a high speed and while reducing the processing load without being affected by environmental factors.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の舌画像処理装置において、前記領域判定マスクは、前記寸法に対応した半楕円形状を有し且つ前記舌自体の領域に相当する第1マスクと、前記寸法に対応し、前記第1マスクより大きく且つ前記背景領域に相当する第2マスクと、前記寸法に対応し、前記第1マスクの外縁と前記第2マスクの外縁との間の領域に外縁がある第3マスクと、が、それぞれの長手方向の中心線が一致するように重畳されて構成されており、前記舌領域抽出手段は、前記第3マスクの外縁と前記第1マスクの外縁との間の領域に相当する前記舌画像の領域を対象として、前記舌領域の抽出を行うように構成される。   In order to solve the above-mentioned problem, according to a second aspect of the present invention, in the tongue image processing apparatus according to the first aspect, the region determination mask has a semi-elliptical shape corresponding to the dimension and the tongue. A first mask corresponding to its own area, a second mask corresponding to the dimension, larger than the first mask and corresponding to the background area, an outer edge of the first mask corresponding to the dimension, and the first mask A third mask having an outer edge in a region between the outer edges of the two masks, and is superposed so that the respective center lines in the longitudinal direction coincide with each other. The tongue region is extracted with respect to a region of the tongue image corresponding to a region between the outer edge of the mask and the outer edge of the first mask.

請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、第1マスク、第2マスク及び第3マスクが、それぞれの長手方向の中心線が一致するように重畳されて領域判定マスクが構成されており、第3マスクの外縁と第1マスクの外縁との間の領域に相当する舌画像の領域を対象として舌領域の抽出を行う。よって、より高速且つ処理負担の軽減を図りつつ、各歯痕領域を別個に検出することができる。   According to the invention described in claim 2, in addition to the operation of the invention described in claim 1, the first mask, the second mask, and the third mask are overlapped so that the center lines in the longitudinal direction coincide with each other. Thus, a region determination mask is configured, and the tongue region is extracted for the region of the tongue image corresponding to the region between the outer edge of the third mask and the outer edge of the first mask. Therefore, each tooth trace region can be detected separately while at a higher speed and reducing the processing load.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の舌画像処理装置において、前記舌領域抽出手段は、前記指定された歯痕検出領域を縮小した縮小歯痕検出領域の寸法に対応した舌領域抽出マスクを用いて当該縮小歯痕検出領域から縮小舌領域を抽出する処理部等の縮小舌領域抽出手段と、前記抽出された縮小舌領域を、当該縮小舌領域に対応した拡大率を用いて拡大する処理部等の拡大手段と、前記拡大された縮小舌領域に対応した舌領域マスクを生成する処理部等のマスク生成手段と、を備え、前記舌領域抽出手段は、前記生成された舌領域マスクを用いて前記歯痕検出領域から前記舌領域を抽出するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 3 is the tongue image processing apparatus according to claim 1 or 2, wherein the tongue region extracting means uses the designated tooth mark detection region. Reduced tongue region extraction means such as a processing unit for extracting a reduced tongue region from the reduced tooth mark detection region using a tongue region extraction mask corresponding to the size of the reduced reduced tooth mark detection region, and the extracted reduced tongue region Magnifying means such as a processing unit for enlarging using a magnification corresponding to the reduced tongue region, and mask generating means such as a processing unit for generating a tongue region mask corresponding to the enlarged reduced tongue region, The tongue region extracting means is configured to extract the tongue region from the tooth mark detection region using the generated tongue region mask.

請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、指定された歯痕検出領域を縮小した縮小歯痕検出領域の寸法に対応した舌領域抽出マスクを用いて縮小舌領域を抽出し、その縮小舌領域を拡大した領域に対応した舌領域マスクを生成し、その舌領域マスクを用いて歯痕検出領域から舌領域を抽出する。よって、元の舌画像が舌画像情報として過大な情報量を有する場合でも、歯痕検出領域を縮小して舌領域の抽出を行うことで、高速且つ処理負担の軽減を図りつつ各歯痕領域を検出することができる。   According to the invention described in claim 3, in addition to the action of the invention described in claim 1 or 2, the tongue region corresponding to the size of the reduced tooth mark detection region obtained by reducing the specified tooth mark detection region. A reduced tongue region is extracted using the extraction mask, a tongue region mask corresponding to a region obtained by enlarging the reduced tongue region is generated, and the tongue region is extracted from the tooth mark detection region using the tongue region mask. Therefore, even when the original tongue image has an excessive amount of information as the tongue image information, each tooth mark region is extracted at a high speed while reducing the processing load by reducing the tooth mark detection region and extracting the tongue region. Can be detected.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の舌画像処理装置において、前記抽出された舌領域から、前記舌の輪郭を抽出する舌診領域抽出部等の輪郭抽出手段と、前記抽出された輪郭に基づいて、当該輪郭に外接する凸包を検出する舌診領域抽出部等の凸包検出手段と、前記抽出された輪郭及び前記検出された凸包に基づいて、一又は複数の前記歯痕それぞれに相当する歯痕領域を、他の当該歯痕領域から識別しつつそれぞれ抽出する歯痕形態検出部等の歯痕領域抽出手段と、前記検出された歯痕領域を示す歯痕領域情報を出力するディスプレイ等の出力手段と、を更に備える。   In order to solve the above-mentioned problem, the invention according to claim 4 is the tongue image processing apparatus according to any one of claims 1 to 3, wherein the tongue is extracted from the extracted tongue region. Contour extraction means such as a tongue examination region extraction unit for extracting a contour, convex hull detection means such as a tongue examination region extraction unit for detecting a convex hull circumscribing the contour based on the extracted contour, and the extraction Based on the contour and the detected convex hull, a tooth trace form detection unit that extracts a tooth trace area corresponding to each of one or a plurality of the tooth traces while identifying each other from the other tooth trace areas It further comprises tooth trace area extraction means and output means such as a display for outputting the tooth trace area information indicating the detected tooth trace area.

請求項4に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、抽出された舌領域から抽出した舌の輪郭からそれに対応する凸包を検出し、当該輪郭及び凸包に基づいて各歯痕領域を相互に識別しつつそれぞれ検出し、その検出結果を示す歯痕領域情報を出力する。よって、歯痕検出領域の全てを用いて舌領域の検出処理を行う場合に比して、舌画像撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ各歯痕領域を別個に検出することができる。   According to the invention described in claim 4, in addition to the action of the invention described in any one of claims 1 to 3, a convex hull corresponding to the contour of the tongue extracted from the extracted tongue region is provided. Are detected while mutually identifying each tooth trace region based on the contour and the convex hull, and tooth mark region information indicating the detection result is output. Therefore, compared to the case where tongue region detection processing is performed using the entire tooth mark detection region, the processing load is reduced more accurately and quickly without being affected by environmental factors at the time of tongue image capturing. Each tooth trace region can be detected separately.

上記の課題を解決するために、請求項5に記載の発明は、請求項4に記載の舌画像処理装置において、前記歯痕領域抽出手段は、前記抽出された輪郭における歯痕の両端と前記検出された凸包との各接点を結んだ線分の中点を中心とし、且つ当該線分を直径とした半円であって、当該歯痕を含む半円に相当する前記舌画像の領域を、他の前記歯痕領域から識別しつつ、前記歯痕領域としてそれぞれ抽出するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 5 is the tongue image processing device according to claim 4, wherein the tooth trace region extracting means includes both ends of the tooth trace in the extracted contour and the A region of the tongue image corresponding to a semicircle centered at the midpoint of the line segment connecting each contact point with the detected convex hull and having the line segment as a diameter, and including the tooth mark Are extracted as the tooth trace regions while being distinguished from the other tooth trace regions.

請求項5に記載の発明によれば、請求項4に記載の発明の作用に加えて、輪郭における歯痕の両端と凸包との各接点を結んだ線分の中点を中心とし、且つ当該線分を直径とした歯痕を含む半円に相当する舌画像の領域を、他の当該歯痕領域から識別しつつ歯痕領域としてそれぞれ検出するので、歯痕領域を簡易な処理で検出することができる。   According to the invention described in claim 5, in addition to the action of the invention described in claim 4, the center of the line segment connecting the contact points between the both ends of the tooth trace and the convex hull in the contour is the center, and Tongue image areas corresponding to semicircles containing tooth marks with the diameter of the line segment are detected as tooth mark areas while distinguishing from other tooth mark areas, so the tooth mark area is detected with simple processing. can do.

上記の課題を解決するために、請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の舌画像処理措置において、前記出力手段は、前記検出された歯痕領域の色を検出する歯痕形態検出部等の色検出手段と、前記色を予め設定された色レベルに分類するための閾値を示す閾値情報を記憶する記録部等の記憶手段と、を備え、当該出力手段は、前記記憶されている閾値情報と、前記検出された色を示す色情報と、に基づいて、前記検出された色に対応する前記色レベルを示す色情報を、前記歯痕領域情報として前記歯痕領域ごとに出力するように構成される。   In order to solve the above-described problem, the invention according to claim 6 is the tongue image processing measure according to any one of claims 1 to 5, wherein the output means is configured to detect the detected tooth mark. A color detection unit such as a tooth trace form detection unit for detecting a color of the region, and a storage unit such as a recording unit for storing threshold information indicating a threshold for classifying the color into a preset color level. The output means outputs color information indicating the color level corresponding to the detected color based on the stored threshold information and color information indicating the detected color. It is comprised so that it may output for every said tooth mark area | region as area | region information.

請求項6に記載の発明によれば、請求項1から請求項5のいずれか一項に記載の発明の作用に加えて、歯痕領域の色を検出し、閾値との関係で当該色がいずれの色レベルに対応しているかを示す色情報を歯痕領域情報として歯痕領域ごとに出力するので、歯痕領域の色を簡易な方法で高速且つ歯痕領域ごとに判別することができる。   According to invention of Claim 6, in addition to the effect | action of the invention as described in any one of Claims 1-5, the color of a tooth trace area | region is detected, and the said color is related with a threshold value. Since the color information indicating which color level is supported is output as tooth mark area information for each tooth mark area, the color of the tooth mark area can be determined at high speed and for each tooth mark area by a simple method. .

本発明によれば、歯痕検出領域の寸法に対応した領域判定マスクを用いて舌領域を抽出し、その舌領域から抽出した舌の輪郭からそれに対応する凸包を検出し、当該輪郭及び凸包に基づいて、各歯痕領域を相互に識別しつつそれぞれ検出し、その検出結果を示す歯痕領域情報を出力する。   According to the present invention, the tongue region is extracted using the region determination mask corresponding to the size of the tooth mark detection region, the convex hull corresponding to the tongue region extracted from the tongue region is detected, and the contour and the convexity are detected. Based on the capsule, each tooth mark area is detected while being identified with each other, and tooth mark area information indicating the detection result is output.

従って、歯痕検出領域の寸法に対応した領域判定マスクを用いて舌領域を抽出するので、歯痕検出領域の全てを用いて舌領域の検出処理を行う場合に比して、舌画像撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ各歯痕領域を別個に検出することができる。   Therefore, since the tongue region is extracted using the region determination mask corresponding to the size of the tooth mark detection region, the tongue image is captured when compared with the case where the tongue region detection process is performed using all the tooth mark detection regions. Each tooth mark region can be detected separately without being affected by environmental factors or the like, while reducing the processing load more accurately and at high speed.

第1実施形態に係る歯痕検出システムの概要構成を示すブロック図である。It is a block diagram showing a schematic structure of a tooth mark detection system concerning a 1st embodiment. 第1実施形態に係る領域判定マスクを例示する図であり、(a)は第1実施形態に係る舌診領域の指定を例示する図であり、(b)は第1実施形態に係る第1マスクを示す図であり、(c)は第1実施形態に係る第2マスクを示す図であり、(d)は第1実施形態に係る第3−1マスクを示す図であり、(e)は第1実施形態に係る第3−2マスクを示す図であり、(f)は第1実施形態に係る領域判定マスクの構成を示す図であり、(g)は第1実施形態に係る領域判定マスクを示す図である。It is a figure which illustrates the area | region determination mask which concerns on 1st Embodiment, (a) is a figure which illustrates designation | designated of the tongue examination area | region which concerns on 1st Embodiment, (b) is 1st which concerns on 1st Embodiment. It is a figure which shows a mask, (c) is a figure which shows the 2nd mask which concerns on 1st Embodiment, (d) is a figure which shows the 3rd-1 mask which concerns on 1st Embodiment, (e) FIG. 5 is a diagram showing a 3-2 mask according to the first embodiment, (f) is a diagram showing a configuration of a region determination mask according to the first embodiment, and (g) is a region according to the first embodiment. It is a figure which shows a determination mask. 第1実施形態に係る歯痕検出処理を示すフローチャートである。It is a flowchart which shows the tooth-dent detection process which concerns on 1st Embodiment. 第1実施形態に係る歯痕検出処理を説明する図(I)であり、(a)は第1実施形態にかかる舌診領域の指定を例示する図であり、(b)は当該指定された舌診領域を例示する図であり、(c)は第1実施形態に係る舌診領域の抽出結果を例示する図であり、(d)は第1実施形態に係る舌輪郭の抽出結果を例示する図であり、(e)は第1実施形態に係る近似曲線の抽出結果を例示する図である。It is figure (I) explaining the tooth mark detection process which concerns on 1st Embodiment, (a) is a figure which illustrates designation | designated of the tongue examination area concerning 1st Embodiment, (b) is the said designation | designated It is a figure which illustrates a tongue examination area | region, (c) is a figure which illustrates the extraction result of the tongue examination area | region which concerns on 1st Embodiment, (d) illustrates the extraction result of the tongue outline which concerns on 1st Embodiment. (E) is a figure which illustrates the extraction result of the approximate curve which concerns on 1st Embodiment. 第1実施形態に係る歯痕検出処理を説明する図(II)であり、(a)は第1実施形態にかかる凸包の検出結果を例示する図であり、(b)は第1実施形態に係る歯痕の検出結果を例示する図である。It is a figure (II) explaining a tooth mark detection processing concerning a 1st embodiment, (a) is a figure which illustrates a detection result of a convex hull concerning a 1st embodiment, and (b) is a 1st embodiment. It is a figure which illustrates the detection result of the tooth trace concerning. 第1実施形態に係る舌診領域抽出処理の細部を示す図であり、(a)は当該細部を示すフローチャートであり、(b)は当該舌診領域抽出処理における舌診領域の指定を例示する図であり、(c)は当該指定された舌診領域を例示する図であり、(d)は当該舌診領域抽出処理に用いられる領域判定マスクを示す図であり、(e)は当該舌診領域の抽出結果を例示する図である。It is a figure which shows the detail of the tongue examination area | region extraction process which concerns on 1st Embodiment, (a) is a flowchart which shows the said detail, (b) illustrates designation | designated of the tongue examination area | region in the said tongue examination area extraction process (C) is a diagram illustrating the designated tongue examination region, (d) is a diagram showing an area determination mask used for the tongue examination region extraction processing, and (e) is a diagram showing the tongue It is a figure which illustrates the extraction result of a medical examination area. 第1実施形態に係る形態検出処理の細部を示す図(I)であり、(a)は当該細部を示すフローチャートであり、(b)は当該形態検出処理における歯痕検出を例示する図であり、(c)は当該形態検出処理に用いられる歯痕領域の設定を例示する図であり、(d)は当該形態検出処理における色判別画像を例示する図であり、(e)は当該形態検出処理における舌全体の歯痕領域を例示する図である。It is a figure (I) which shows details of form detection processing concerning a 1st embodiment, (a) is a flow chart which shows the details, and (b) is a figure which illustrates tooth mark detection in the form detection processing concerned (C) is a figure which illustrates the setting of the tooth mark area | region used for the said form detection process, (d) is a figure which illustrates the color discrimination | determination image in the said form detection process, (e) is the said form detection It is a figure which illustrates the tooth mark area | region of the whole tongue in a process. 第1実施形態に係る形態検出処理の細部を示す図(II)であり、(a)は当該形態検出処理における歯痕領域のみを例示する図であり、(b)は当該形態検出処理における歯痕領域の拡大図の一例である。It is a figure (II) which shows the detail of the form detection process which concerns on 1st Embodiment, (a) is a figure which illustrates only the tooth mark area | region in the said form detection process, (b) is the tooth | gear in the said form detection process It is an example of the enlarged view of a trace area | region. 第2実施形態に係る舌診領域抽出処理の細部を示す図であり、(a)は当該細部を示すフローチャートであり、(b)は当該舌診領域抽出処理における舌診領域の指定を例示する図であり、(c)は当該指定された舌診領域を例示する図であり、(d)は当該舌診領域抽出処理に用いられる領域判定マスクを示す図であり、(e)は当該舌診領域の暫定的な抽出結果を例示する図であり、(f)は第2実施形態に係る舌診領域マスク等を例示する図であり、(g)は第2実施形態に係る舌診領域の最終的な抽出結果を例示する図である。It is a figure which shows the detail of the tongue examination area | region extraction process which concerns on 2nd Embodiment, (a) is a flowchart which shows the said detail, (b) illustrates designation | designated of the tongue examination area | region in the said tongue examination area extraction process (C) is a diagram illustrating the designated tongue examination region, (d) is a diagram showing an area determination mask used for the tongue examination region extraction processing, and (e) is a diagram showing the tongue It is a figure which illustrates the temporary extraction result of a medical examination area | region, (f) is a figure which illustrates the tongue examination area mask etc. which concern on 2nd Embodiment, (g) is a tongue examination area which concerns on 2nd Embodiment. It is a figure which illustrates the final extraction result of.

次に、本発明を実施するための形態について、図面に基づいて説明する。なお以下に説明する各実施形態は、被験者の健康度をその被験者の舌の状態に基づいて判定する場合において、その舌に相当する舌画像からその舌にある歯痕を検出し、その検出結果を当該被験者又はその担当医師等に提示する歯痕検出システムに対して本発明を適用した場合の実施の形態である。   Next, modes for carrying out the present invention will be described based on the drawings. Each embodiment described below detects a tooth mark on the tongue from a tongue image corresponding to the tongue when determining the health level of the subject based on the state of the tongue of the subject, and the detection result Is an embodiment when the present invention is applied to a tooth mark detection system that presents the subject to the subject or the doctor in charge thereof.

(I)第1実施形態
初めに、本発明に係る第1実施形態について、図1乃至図8を用いて説明する。なお、図1は第1実施形態に係る歯痕検出システムの概要構成を示すブロック図であり、図2は第1実施形態に係る領域判定マスクを例示する図であり、図3は第1実施形態に係る歯痕検出処理を示すフローチャートであり、図4及び図5は第1実施形態に係る歯痕検出処理をそれぞれ説明する図である。また、図6は第1実施形態に係る舌診領域抽出処理の細部を示す図であり、図7及び図8は第1実施形態に係る形態検出処理の細部を示す図である。
(I) First Embodiment First, a first embodiment according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a schematic configuration of the tooth mark detection system according to the first embodiment, FIG. 2 is a diagram illustrating an area determination mask according to the first embodiment, and FIG. 3 is a diagram illustrating the first embodiment. It is a flowchart which shows the tooth mark detection process which concerns on a form, and FIG.4 and FIG.5 is a figure explaining the tooth mark detection process which concerns on 1st Embodiment, respectively. FIG. 6 is a diagram showing details of the tongue examination region extraction process according to the first embodiment, and FIGS. 7 and 8 are diagrams showing details of the form detection process according to the first embodiment.

図1に示すように、第1実施形態に係る歯痕検出システムSSは、例えば従来と同様のデジタルスチルカメラ等からなるカメラCと、当該カメラCに接続された第1実施形態に係る歯痕検出装置Sと、により構成されている。そして、当該カメラCにより被験者の舌を撮像して得られた舌画像に基づき、当該舌にある歯痕を歯痕検出装置Sにより検出してその検出結果を当該被験者又はその担当医師等に提示する。なお以下の説明において、被験者の舌を撮像して得られた舌画像を、単に「舌画像」と称する。   As shown in FIG. 1, the tooth mark detection system SS according to the first embodiment includes, for example, a camera C composed of a digital still camera or the like similar to a conventional one, and a tooth mark according to the first embodiment connected to the camera C. And a detection device S. Based on the tongue image obtained by imaging the tongue of the subject with the camera C, the tooth mark on the tongue is detected by the tooth mark detection device S and the detection result is presented to the subject or the doctor in charge thereof. To do. In the following description, a tongue image obtained by imaging the subject's tongue is simply referred to as a “tongue image”.

そして第1実施形態に係る歯痕検出装置Sは、図1に示すように、インターフェース1と、CPU、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなる処理部2と、液晶ディスプレイ等からなるディスプレイ3と、キーボード及びマウス等からなる操作部4と、例えばハードディスク等からなる記録部5と、により構成されている。このとき歯痕検出装置Sは、具体的には例えばパーソナルコンピュータ等により構成される。また、上記インターフェース1が本発明に係る「舌画像情報取得手段」の一例及び「マスク情報取得手段」の一例にそれぞれ相当し、上記処理部2が本発明に係る「縮小舌領域抽出手段」の一例、「拡大手段」の一例及び「マスク生成手段」の一例にそれぞれ相当する。更に、上記記録部5が本発明に係る「記憶手段」の一例に相当し、ディスプレイ3が本発明に係る「出力手段」の一例に相当し、操作部4が本発明に係る「指定手段」の一例に相当する。   As shown in FIG. 1, the tooth mark detection apparatus S according to the first embodiment includes an interface 1, a processing unit 2 including a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and a liquid crystal display. And the like, a display unit 3 including a keyboard and a mouse, and a recording unit 5 including a hard disk, for example. At this time, the tooth mark detection device S is specifically configured by, for example, a personal computer. The interface 1 corresponds to an example of a “tongue image information acquisition unit” and an example of a “mask information acquisition unit” according to the present invention, respectively, and the processing unit 2 includes a “reduced tongue region extraction unit” according to the present invention. It corresponds to an example, an example of “enlargement means”, and an example of “mask generation means”, respectively. Furthermore, the recording unit 5 corresponds to an example of the “storage unit” according to the present invention, the display 3 corresponds to an example of the “output unit” according to the present invention, and the operation unit 4 corresponds to the “designating unit” according to the present invention. It corresponds to an example.

一方処理部2は、画像登録部20と、舌診領域抽出部21と、歯痕形態検出部22と、出力制御部23と、により構成されている。このとき、上記画像登録部20、舌診領域抽出部21、歯痕形態検出部22及び出力制御部23は、例えば処理部2を構成するハードウェアロジック回路により構成されていてもよいし、或いは、後述する第1実施形態に係る歯痕検出処理を示すフローチャートに相当するプログラムを処理部2のCPUが読み出して実行することにより、ソフトウェア的に実行されるものであってもよい。このとき当該プログラムは、処理部2を構成する上記ROM内又は記録部5内に予め記録されていてもよいし、必要に応じて、例えばインターネット等のネットワークを介して取得してもよい。   On the other hand, the processing unit 2 includes an image registration unit 20, a tongue examination region extraction unit 21, a tooth trace form detection unit 22, and an output control unit 23. At this time, the image registration unit 20, the tongue examination region extraction unit 21, the tooth trace form detection unit 22, and the output control unit 23 may be configured by, for example, a hardware logic circuit that configures the processing unit 2, or The program corresponding to the flowchart showing the tooth mark detection process according to the first embodiment to be described later may be executed by software by the CPU of the processing unit 2 reading and executing the program. At this time, the program may be recorded in advance in the ROM or the recording unit 5 constituting the processing unit 2, or may be acquired through a network such as the Internet as necessary.

また、上記舌診領域抽出部21が本発明に係る「舌領域抽出手段」の一例、「輪郭抽出手段」の一例及び「凸包検出手段」の一例にそれぞれ相当し、上記歯痕形態検出部22が本発明に係る「歯痕領域抽出手段」の一例及び「色検出手段」の一例にそれぞれ相当する。   The tongue examination region extraction unit 21 corresponds to an example of a “tongue region extraction unit”, an example of a “contour extraction unit”, and an example of a “convex hull detection unit” according to the present invention. Reference numeral 22 corresponds to an example of a “dental mark region extracting unit” and an example of a “color detecting unit” according to the present invention.

上記の構成において歯痕検出装置Sのインターフェース1は、後述するように被験者の舌がカメラCにより撮像されると、その舌画像に相当する舌画像情報をカメラCから取得して処理部2の画像登録部20に出力する。ここで当該舌画像には、第1実施形態に係る歯痕検出処理により検出される歯痕がある舌自体の他に、被験者が舌を出した際にその周辺に映り込むことになる上の歯や上唇及び下唇の両端部等が含まれている。次に画像登録部20は、出力されてきた舌画像情報を、例えば被験者又は担当医師等を他の者から識別するための識別情報に関連付けて、記録部5に記録(登録)する。なお以下の説明において、上記被験者又はその担当医師等を、単に「被験者等」と称する。   In the configuration described above, the interface 1 of the tooth mark detection device S acquires the tongue image information corresponding to the tongue image from the camera C when the subject's tongue is imaged by the camera C, as will be described later. The image is output to the image registration unit 20. Here, in the tongue image, in addition to the tongue itself having a tooth mark detected by the tooth mark detection process according to the first embodiment, when the subject takes out the tongue, The teeth, the upper lip, and the lower lip are included. Next, the image registration unit 20 records (registers) the output tongue image information in the recording unit 5 in association with identification information for identifying a subject or a doctor in charge from another person, for example. In the following description, the subject or the doctor in charge thereof is simply referred to as “subject”.

一方記録部5は、画像記録部50と、マスクデータベース51と、色判定閾値データベース52と、により構成されている。このとき、画像記録部50は上記舌画像情報を上記識別情報に関連付けて記録し、マスクデータベース51は第1実施形態に係る領域判定マスクに相当するデータを一又は複数記録し、色判定閾値データベース52は第1実施系形態に係る色判定閾値を一又は複数記録する。なお図1では、上記マスクデータベースを「マスクDB」と表し、上記色判定閾値データベースを「色判定閾値DB」と表している。また、上記第1実施形態に係る領域判定マスク及び上記第1実施形態に係る色判定閾値については、後ほどそれぞれ詳述する。   On the other hand, the recording unit 5 includes an image recording unit 50, a mask database 51, and a color determination threshold database 52. At this time, the image recording unit 50 records the tongue image information in association with the identification information, the mask database 51 records one or a plurality of data corresponding to the region determination mask according to the first embodiment, and the color determination threshold database. 52 records one or more color determination threshold values according to the first embodiment. In FIG. 1, the mask database is represented as “mask DB”, and the color determination threshold database is represented as “color determination threshold DB”. The area determination mask according to the first embodiment and the color determination threshold according to the first embodiment will be described later in detail.

次に舌診領域抽出部21は、上記領域判定マスクを用いて、上記舌画像情報に相当する舌画像から第1実施形態に係る舌診領域の抽出を行い、当該抽出した舌診領域に相当する舌診領域情報を生成して歯痕形態検出部22に出力する。ここで上記舌領域とは、上記舌画像情報に相当する舌画像のうち、上記上の歯や上唇等を除いた、歯痕がある舌の部分を含む領域であって、第1実施形態に係る歯痕の検出対象たる領域をいう。そして歯痕形態検出部22は、上記舌診領域情報に相当する舌にある一又は複数の歯痕について、それらの数や色等を含む歯痕の形態検出を行い、その検出結果を出力制御部23に出力する。この形態検出についても、後ほど詳述する。その後出力制御部23は、上記歯痕形態検出部22から出力された各歯痕の形態検出結果に基づき、当該検出結果を被験者等に提示(表示)するための表示画面を生成し、当該表示画面に相当する情報をディスプレイ3に表示して、当該検出結果の表示を行う。   Next, the tongue examination area extraction unit 21 extracts the tongue examination area according to the first embodiment from the tongue image corresponding to the tongue image information using the area determination mask, and corresponds to the extracted tongue examination area. Tongue area information to be generated is output to the tooth trace form detection unit 22. Here, the tongue region is a region including a portion of the tongue having a tooth mark, excluding the upper teeth and the upper lip, among the tongue images corresponding to the tongue image information, according to the first embodiment. This refers to the region that is the detection target of the tooth trace. Then, the tooth mark form detection unit 22 detects the form of the tooth marks including the number and color of one or a plurality of tooth marks on the tongue corresponding to the tongue examination area information, and outputs the detection result. To the unit 23. This form detection will also be described in detail later. Thereafter, the output control unit 23 generates a display screen for presenting (displaying) the detection result to a subject or the like based on the shape detection result of each tooth mark output from the tooth mark shape detection unit 22, and the display Information corresponding to the screen is displayed on the display 3, and the detection result is displayed.

次に第1実施形態に係る歯痕検出処理について、具体的に図1乃至図8を用いて説明する。   Next, the tooth mark detection process according to the first embodiment will be specifically described with reference to FIGS.

初めに、第1実施形態に係る上記舌診領域の抽出に用いられる上記領域判定マスクについて、図2を用いて詳述する。上述したように領域判定マスクは、上の歯や上唇に相当する画像も含まれている上記舌画像から、舌に相当する上記舌診領域を抽出する際に用いられる。即ち第1実施形態に係る舌診領域の抽出では図2(a)に例示するように、上の歯や上唇が同時に映りこんでいる舌画像TGから舌Tに相当する舌診領域を切り出すべく、上記担当医師等により、舌画像TG内の舌Tの大きさに対応した幅W/長さHの寸法を有する矩形の抽出枠FMが手動で指定される。   First, the region determination mask used for extracting the tongue examination region according to the first embodiment will be described in detail with reference to FIG. As described above, the region determination mask is used when the tongue examination region corresponding to the tongue is extracted from the tongue image including the image corresponding to the upper teeth and the upper lip. That is, in the extraction of the tongue examination area according to the first embodiment, as illustrated in FIG. 2A, the tongue examination area corresponding to the tongue T should be cut out from the tongue image TG in which the upper teeth and the upper lip are simultaneously reflected. A rectangular extraction frame FM having a width W / length H corresponding to the size of the tongue T in the tongue image TG is manually designated by the doctor in charge.

このとき、舌画像TGから舌Tに相当する部分を切り出すための上記抽出枠FMであっても、その内側には、舌Tの背景として、図2(a)には図示していない被験者の顎の両側部や首、或いは上着の襟の部分等の画像が含まれることになる。これに対し、舌Tの上記背景を除外すべく、複雑な舌Tの外形に正確に沿った形状として抽出枠FMを指定するのは困難である。そこで第1実施形態に係る舌診領域の抽出では、指定された矩形の抽出枠FMの上記寸法に対応した形状の領域判定マスクを予め用意し、それに相当するデータをマスクデータベース51に記録しておく。この領域判定マスクは、例えば図2(a)に例示する舌画像TG上において、舌T自体に相当する舌診領域と、それ以外の背景等に相当する領域と、を区別して判定するための画像処理上のマスクである。そして領域判定マスクは、指定された抽出枠FMの上記幅W及び長さHに対応した形状を有し、且つ、舌Tの外形に沿った領域以外の舌画像TGの領域をマスクする(即ち、第1実施形態に係る歯痕検出処理の対象外とする)ために用いられる。ここで領域判定マスクの形状は、上記抽出枠FMの寸法(幅W×長さH)により決定されるため、例えばある被験者と他の被験者とで偶然に抽出枠FMの寸法が同じであれば、たとえ被験者が違っても同じ領域判定マスクを用いて舌診領域の抽出が行われる。   At this time, even if the extraction frame FM is used to cut out the portion corresponding to the tongue T from the tongue image TG, the background of the tongue T is present inside the extraction frame FM as shown in FIG. Images of both sides of the chin, neck, and collar of the jacket are included. On the other hand, in order to exclude the background of the tongue T, it is difficult to designate the extraction frame FM as a shape that exactly follows the complicated outer shape of the tongue T. Therefore, in the extraction of the tongue examination area according to the first embodiment, an area determination mask having a shape corresponding to the dimension of the specified rectangular extraction frame FM is prepared in advance, and data corresponding to the mask is recorded in the mask database 51. deep. This region determination mask is for distinguishing and determining a tongue examination region corresponding to the tongue T itself and a region corresponding to the other background, etc. on the tongue image TG illustrated in FIG. This is a mask for image processing. The region determination mask has a shape corresponding to the width W and length H of the designated extraction frame FM, and masks the region of the tongue image TG other than the region along the outer shape of the tongue T (ie, , To be excluded from the target of the tooth trace detection process according to the first embodiment). Here, since the shape of the area determination mask is determined by the size (width W × length H) of the extraction frame FM, for example, if the size of the extraction frame FM is accidentally the same between another subject and another subject, Even if the subjects are different, extraction of the tongue examination region is performed using the same region determination mask.

より具体的に第1実施形態に係る領域判定マスクMKは、図2(b)に実線で例示する半楕円形(幅Wa×長さHa)のマスクM1と、図2(c)に二点鎖線で例示する矩形(横Wb×縦Hb)のマスクM2と、図2(d)に破線で例示する半楕円形(幅Wc×長さHc)のマスクM3−1と、図2(e)に一点鎖線で例示する矩形(横Wd×縦Hd)のマスクM3−2と、を、図2(f)に例示するようにそれぞれの中心線が一致するように重ね合わせた構成を備えている。このとき図2に例示するように、幅Wa、横Wb、幅Wc及び横Wdの関係は幅Wa<横Wd<横Wb<幅Wcであり、長さHa、縦Hb、長さHc及び縦Hdの関係は長さHa<縦Hd<縦Hb及び長さHcである。そしてこれらの寸法と上記抽出枠FMの上記幅W及び長さHとの関係は実験的又は経験的に予め設定されるものであり、一例としては以下のように予め設定することができる。なお、以下に示す各定数は、抽出枠FMの寸法ごとに異ならせてもよい。   More specifically, the area determination mask MK according to the first embodiment includes a semi-elliptical mask (width Wa × length Ha) illustrated by a solid line in FIG. 2B, and two points in FIG. A rectangular (horizontal Wb × vertical Hb) mask M2 exemplified by a chain line, a semi-elliptical mask (width Wc × length Hc) exemplified by a broken line in FIG. 2D, and FIG. A rectangular (horizontal Wd × longitudinal Hd) mask M3-2 exemplified by a one-dot chain line is superimposed on each other so that the center lines thereof coincide with each other as shown in FIG. 2 (f). . At this time, as illustrated in FIG. 2, the relationship between the width Wa, the width Wb, the width Wc, and the width Wd is width Wa <width Wd <width Wb <width Wc, and the length Ha, length Hb, length Hc, and length Wc. The relationship of Hd is length Ha <vertical Hd <vertical Hb and length Hc. The relationship between these dimensions and the width W and length H of the extraction frame FM is preset experimentally or empirically, and can be preset as follows as an example. In addition, you may vary each constant shown below for every dimension of the extraction frame FM.

幅Wa=幅W×0.40、長さHa=長さH×0.85
横Wb=幅W×0.96、縦Hb=長さH×0.96
幅Wc=幅W×1.04、長さHc=長さH×1.1
横Wd=幅W×0.65、縦Hd=長さH×0.65
そして領域判定マスクMKは図2(g)に例示するように、マスクM1で画されるマスク領域MK1と、マスクM1とマスクM3−1の一部とマスクM3−2の一部とにより画されるマスク領域MK2と、マスクM3−1の一部とマスクM3−2の一部とマスクM2とにより画されるマスク領域MK3と、により構成されている。なお図2(g)において、マスク領域MK2はクロスハッチングで示されており、マスク領域MK3は右上ハッチングで示されている。以上の構成を有する領域判定マスクMKを示すデータがマスクデータベース51として記録部5内に不揮発性に記録されている。このとき、上記マスク領域MK1が抽出枠FMにより切り取られた舌画像TGにおける舌T自体の領域に相当し、マスク領域MK3が抽出枠FMにより切り取られた舌画像TGにおける背景の領域に相当し、マスク領域MK2が舌T自体であるか背景であるかが確定できない領域に相当する。そして第1実施形態に係る舌診領域の抽出では、マスク領域MK1を舌T自体の領域と確定し、マスク領域MK3を背景の領域と確定すると共に、マスク領域MK2に相当する舌画像TGの部分のみを処理対象として後述する舌診領域の抽出を行う。
Width Wa = Width W × 0.40, Length Ha = Length H × 0.85
Width Wb = width W × 0.96, length Hb = length H × 0.96
Width Wc = width W × 1.04, length Hc = length H × 1.1
Horizontal Wd = Width W × 0.65, Vertical Hd = Length H × 0.65
As illustrated in FIG. 2G, the area determination mask MK is defined by a mask area MK1 defined by the mask M1, a mask M1, a part of the mask M3-1, and a part of the mask M3-2. And a mask region MK3 defined by a part of the mask M3-1, a part of the mask M3-2, and the mask M2. In FIG. 2G, the mask area MK2 is indicated by cross hatching, and the mask area MK3 is indicated by upper right hatching. Data indicating the region determination mask MK having the above configuration is recorded in the recording unit 5 in a nonvolatile manner as the mask database 51. At this time, the mask area MK1 corresponds to the area of the tongue T itself in the tongue image TG cut out by the extraction frame FM, and the mask area MK3 corresponds to the background area in the tongue image TG cut out by the extraction frame FM, This corresponds to an area in which it cannot be determined whether the mask area MK2 is the tongue T itself or the background. In the extraction of the tongue examination region according to the first embodiment, the mask region MK1 is determined as the region of the tongue T itself, the mask region MK3 is determined as the background region, and the portion of the tongue image TG corresponding to the mask region MK2 Extraction of the tongue examination area, which will be described later, is performed only on the processing target.

次に、第1実施形態に係る色判定閾値について説明する。当該色判定閾値は、検出された一又は複数の歯痕それぞれの色(赤味)を歯痕形態検出部22により複数の色レベルに分類する際に用いられる閾値である。当該色判定閾値は、例えば医学的な知見に基づき、上記色レベルごとに予め設定されている。より具体的に例えば、各歯痕それぞれの色を五段階の色レベルに分ける場合、色判定閾値としては異なる四つの色判定閾値が、第1色判定閾値乃至第4色判定閾値として設定される。そして、各歯痕それぞれの色(赤味)を検出した結果、当該色が第1色判定閾値未満の赤味である場合は第1色レベルと分類され、当該色が第1色判定閾値以上第2色判定閾値未満の赤味である場合は第2色レベルと分類され、当該色が第2色判定閾値以上第3色判定閾値未満の赤味である場合は第3色レベルと分類され、当該色が第3色判定閾値以上第4色判定閾値未満の赤味である場合は第4色レベルと分類され、当該色が第4色判定閾値以上の赤味である場合は第5色レベルと分類される。そして出力制御部23により、当該分類された結果としての色レベルが、例えば当該色レベルに該当する歯痕の位置と共にディスプレイ3に表示され、被験者等に提示される。   Next, the color determination threshold according to the first embodiment will be described. The color determination threshold value is a threshold value used when the color (redness) of each detected one or a plurality of tooth marks is classified into a plurality of color levels by the tooth mark shape detection unit 22. The color determination threshold is set in advance for each color level based on, for example, medical knowledge. More specifically, for example, when each color of each tooth mark is divided into five color levels, four different color determination threshold values are set as the first color determination threshold value to the fourth color determination threshold value. . As a result of detecting the color (redness) of each tooth mark, if the color is redness less than the first color determination threshold, the color is classified as the first color level, and the color is equal to or higher than the first color determination threshold. If it is reddish below the second color determination threshold, it is classified as the second color level, and if it is reddish above the second color determination threshold and below the third color determination threshold, it is classified as the third color level. If the color is reddish not less than the third color determination threshold and less than the fourth color determination threshold, the color is classified as the fourth color level, and if the color is reddish not less than the fourth color determination threshold, the fifth color. Classified as level. Then, the output control unit 23 displays the classified color level as a result on the display 3 together with the position of the tooth trace corresponding to the color level, for example, and presents it to the subject.

次に第1実施形態に係る歯痕検出処理について纏めて説明する。   Next, the tooth mark detection process according to the first embodiment will be described collectively.

即ち図3に示すように、第1実施形態に係る歯痕検出処理は、例えば使用者たる担当医師等が歯痕検出装置Sの操作部4を用いて、当該歯痕検出処理の実行を指示する操作を行った場合等に開始される。そして当該歯痕検出処理が開始されると、先ずカメラCを用いて、被験者の舌の表側の表面を含む画像が撮像される(ステップS1)。ここで、上記ステップS1により撮像される画像は、例えば図4(a)に例示した被験者の舌Tを含む舌画像TGである。   That is, as shown in FIG. 3, the tooth mark detection process according to the first embodiment is performed by, for example, a doctor in charge as a user using the operation unit 4 of the tooth mark detection apparatus S to instruct execution of the tooth mark detection process. This is started when an operation is performed. When the tooth mark detection process is started, an image including the front surface of the subject's tongue is first captured using the camera C (step S1). Here, the image imaged by said step S1 is the tongue image TG containing the test subject's tongue T illustrated, for example to Fig.4 (a).

上記ステップS1により舌画像TGを含む画像が撮像されたら、次に処理部2の画像登録部20は、インターフェース1を介して当該画像に相当する画像情報を取得し、これを一時的に記録部5に不揮発性に記録する(ステップS2)。このとき画像登録部20は、当該画像情報を、それに対応する上記識別情報に関連付けて記録部5に記録(登録)する。   When an image including the tongue image TG is captured in step S1, the image registration unit 20 of the processing unit 2 acquires image information corresponding to the image via the interface 1, and temporarily stores the image information. 5 is recorded in a nonvolatile manner (step S2). At this time, the image registration unit 20 records (registers) the image information in the recording unit 5 in association with the identification information corresponding thereto.

次に処理部2の舌診領域抽出部21は、例えば操作部4における操作に基づき、記録部5に記録されている画像情報を読み出し、当該読み出した画像情報に相当する舌画像TGをディスプレイ3に表示しつつ、上記抽出枠FMを用いた、当該舌画像TGからの第1実施形態に係る舌診領域の抽出を行う(ステップS3)。より具体的にステップS3の舌診領域の抽出では、先ず図4(a)に例示するように舌画像TGをディスプレイ3に表示し、当該表示上において、上記操作に基づいて抽出枠FMを決定し、その後図4(b)に例示するように当該決定された抽出枠FM内の舌画像を切出舌画像TMとして切り出す。このとき図4(a)に例示する抽出枠FMは、操作部4の例えばマウスによる操作により、その各辺の位置や長さ(即ち、舌画像TG全体における抽出枠FMの位置及び大きさ)がディスプレイ3上で決定される。その後舌診領域抽出部21は、第1実施形態に係る上記領域判定マスクMKを用いて、切出舌画像TMから図4(c)に例示する舌Tに相当する舌診領域の抽出を行う。この場合の舌診領域は図4(c)に例示するように、舌T自体に相当する当該舌診領域と背景BGとが識別された状態で抽出される。このステップS3については、後ほど詳述する。   Next, the tongue examination region extraction unit 21 of the processing unit 2 reads out image information recorded in the recording unit 5 based on, for example, an operation in the operation unit 4, and displays a tongue image TG corresponding to the read image information on the display 3. The tongue examination region according to the first embodiment is extracted from the tongue image TG using the extraction frame FM (step S3). More specifically, in the extraction of the tongue examination area in step S3, first, as illustrated in FIG. 4A, the tongue image TG is displayed on the display 3, and the extraction frame FM is determined based on the above operation on the display. Then, as illustrated in FIG. 4B, the tongue image in the determined extraction frame FM is cut out as a cut-out tongue image TM. At this time, the extraction frame FM illustrated in FIG. 4A is the position and length of each side (that is, the position and size of the extraction frame FM in the entire tongue image TG) by the operation of the operation unit 4 with a mouse, for example. Is determined on the display 3. Thereafter, the tongue examination region extraction unit 21 extracts a tongue examination region corresponding to the tongue T illustrated in FIG. 4C from the cut tongue image TM using the region determination mask MK according to the first embodiment. . The tongue examination area in this case is extracted in a state where the tongue examination area corresponding to the tongue T itself and the background BG are identified as illustrated in FIG. Step S3 will be described in detail later.

次に舌診領域抽出部21は、上記ステップS3の抽出結果を用いて、当該抽出された舌診領域の外縁に相当する舌輪郭RLを、図4(d)に例示するように抽出する(ステップS4)。更に舌診領域抽出部21は、当該抽出された舌輪郭RLにおける角状の突出部や細かな波打ち部を除去するため、当該舌輪郭RLに対する近似曲線ELを、図4(e)に破線で例示するように当該舌輪郭RLに基づいて算出する(ステップS5)。そして歯痕領域抽出部21は、ステップS5により算出された近似曲線ELについての凸包CHを、図5(a)に例示するように更に検出する(ステップS6)。   Next, the tongue examination region extraction unit 21 extracts the tongue contour RL corresponding to the outer edge of the extracted tongue examination region as illustrated in FIG. Step S4). Furthermore, in order to remove the angular protrusions and fine undulations in the extracted tongue contour RL, the tongue examination region extraction unit 21 displays an approximate curve EL for the tongue contour RL with a broken line in FIG. As illustrated, the calculation is performed based on the tongue contour RL (step S5). Then, the tooth trace region extraction unit 21 further detects the convex hull CH about the approximate curve EL calculated in step S5 as illustrated in FIG. 5A (step S6).

ここで上記ステップS6において検出される凸包について説明すると、先ず上記ステップS5により算出される近似曲線ELには、図4(e)及び図5(a)に例示するように、舌Tの中心側から見て舌輪郭RLに対応した凹凸が存在する。そしてステップS6により算出される凸包CHは、図5(a)に例示されるように近似曲線ELの凹凸において隣り合う凸部の先端同士を直線で結ぶことで構成される図形である。よって結果的に凸包CHは、舌Tの中心から見て舌Tの凸部を順に結んで得られる図形となる。   Here, the convex hull detected in step S6 will be described. First, in the approximate curve EL calculated in step S5, the center of the tongue T is exemplified as shown in FIGS. 4 (e) and 5 (a). There are irregularities corresponding to the tongue contour RL when viewed from the side. And the convex hull CH calculated by step S6 is a figure comprised by connecting the front-end | tips of the convex part which adjoins in the unevenness | corrugation of approximate curve EL with a straight line so that it may be illustrated by Fig.5 (a). Therefore, as a result, the convex hull CH is a figure obtained by sequentially connecting the convex portions of the tongue T as viewed from the center of the tongue T.

なお、上記ステップS4の舌輪郭RLの抽出処理自体、上記ステップS5の近似曲線ELの算出処理自体及び上記ステップS6の凸包の検出処理自体は、それぞれ従来と同様の抽出処理及び算出処理である。   The tongue contour RL extraction process in step S4, the approximate curve EL calculation process in step S5, and the convex hull detection process in step S6 are the same extraction process and calculation process as in the prior art. .

次に舌診領域抽出部21は図5(b)に例示するように、上記凸包CH及び上記近似曲線ELにおいて、舌Tの中心から見た近似曲線ELの凹部と凸包CHとが離れている各部分(即ち、凸包CHと近似曲線ELとが、各歯痕の存在により結果として離れることとなる各部分)のそれぞれについて、最も離れている部分の距離Lをそれぞれ検出する。ここで図5(b)において、実線丸印は、近似曲線ELにおける各凹部(即ち歯痕TR)における上記最も離れている部分(即ち、凹部として最も深い部分)をそれぞれ示している。なお以下の説明において、各凹部(歯痕TR)における当該最も深い部分を「谷部」と称する。また図5(b)において、破線丸印は、当該各凹部の両端にある各凸部(即ちその凹部についての近似曲線ELと凸包CHとの二つの接点)をそれぞれ示している。なお以下の説明において、当該各凸部を歯痕TRの「頂点」と称する。そして舌診領域抽出部21は各凹部について、実験的又は経験的に予め設定されている歯痕検出閾値より上記距離Lが長い当該凹部を、歯痕TRとして、例えば付番等の方法により歯痕TRごとに識別しつつ検出する。その後舌診領域抽出部21は、当該検出結果を、処理部2の歯痕形態検出部22に相互識別可能に出力する(ステップS7)。図5(b)に例示する場合は、舌Tについて合計12個の歯痕TRが検出されている。   Next, as illustrated in FIG. 5B, the tongue examination region extraction unit 21 separates the concave portion of the approximate curve EL from the center of the tongue T and the convex hull CH in the convex hull CH and the approximate curve EL. The distance L of the farthest part is detected for each of the parts (that is, the parts where the convex hull CH and the approximate curve EL are separated as a result of the presence of each tooth trace). Here, in FIG. 5B, solid circles indicate the above-mentioned most distant portions (that is, the deepest portions as the recesses) in the respective recesses (that is, the tooth marks TR) in the approximate curve EL. In the following description, the deepest portion in each recess (tooth trace TR) is referred to as a “valley”. Further, in FIG. 5B, the broken-line circles indicate the respective convex portions (that is, two contact points of the approximate curve EL and the convex hull CH for the concave portions) at both ends of the concave portions. In the following description, each convex portion is referred to as a “vertex” of the tooth trace TR. Then, the tongue examination area extraction unit 21 uses, for example, a method such as numbering as the tooth trace TR, with the concave portion having the distance L longer than the tooth trace detection threshold set experimentally or empirically in advance. Detection is performed while identifying each trace TR. Thereafter, the tongue examination region extraction unit 21 outputs the detection result to the tooth trace form detection unit 22 of the processing unit 2 so as to be mutually distinguishable (step S7). In the case illustrated in FIG. 5B, a total of 12 tooth marks TR are detected for the tongue T.

次に歯痕形態検出部22は、上記ステップS7までの各歯痕TRの検出結果に基づき、各歯痕TRをそれぞれに含み且つ第1実施形態に係る歯痕領域を、舌Tに対応する上記舌診領域から抽出する。そして歯痕形態検出部22は、当該抽出された各歯痕領域の画像に基づいて各歯痕領域の形態(特に、各歯痕領域の色)をそれぞれ検出し、その検出結果を処理部2の出力制御部23に出力する(ステップS8)。このステップS8については、後ほど詳述する。   Next, based on the detection result of each tooth mark TR up to step S7, the tooth mark shape detection unit 22 includes each tooth mark TR and corresponds to the tongue T according to the first embodiment. Extract from the tongue examination area. And the tooth trace form detection part 22 detects the form (especially color of each tooth mark area | region) of each tooth mark area | region based on the extracted image of each tooth mark area | region, respectively, and the detection result is the process part 2 Is output to the output controller 23 (step S8). Step S8 will be described in detail later.

その後出力制御部23は、ステップS8の形態の検出結果に基づき、各歯痕領域の形態の検出結果を歯痕領域ごとに表示するための表示画面を生成してディスプレイ3に出力し、第1実施形態に係る歯痕検出処理の結果として被験者等に提示させる(ステップS9)。このときの表示画面としては、例えば各歯痕領域とその形態の検出結果とが一対一に対応付けて表示するような表示画面であることが好ましい。   Thereafter, the output control unit 23 generates a display screen for displaying the detection result of the form of each tooth mark region for each tooth mark area based on the detection result of the form in step S8, and outputs the display screen to the display 3. A test subject is presented as a result of the tooth trace detection process according to the embodiment (step S9). The display screen at this time is preferably a display screen that displays, for example, each tooth mark region and its form detection result in a one-to-one correspondence.

その後処理部2は、例えば歯痕検出装置Sとしての電源スイッチがオフとされたか、或いは操作部4において既定の終了操作が実行されたこと等を検出することにより、第1実施形態に係る歯痕検出処理を終了するか否かを判定する(ステップS10)。ステップS10の判定において引き続き当該歯痕検出処理を実行する場合(ステップS10;NO)、処理部2は上記ステップS1に戻って上述してきた歯痕検出処理を繰り返す。一方ステップS10の判定において当該歯痕検出処理を終了する場合(ステップS10;YES)、処理部2はそのまま当該歯痕検出処理を終了する。   Thereafter, the processing unit 2 detects the tooth according to the first embodiment by detecting, for example, whether the power switch as the tooth mark detection device S is turned off or a predetermined end operation is performed in the operation unit 4. It is determined whether or not to end the mark detection process (step S10). When the tooth mark detection process is continuously executed in the determination in step S10 (step S10; NO), the processing unit 2 returns to step S1 and repeats the above-described tooth mark detection process. On the other hand, when the tooth trace detection process is ended in the determination in step S10 (step S10; YES), the processing unit 2 ends the tooth mark detection process as it is.

次に、上記ステップS3の舌診領域の抽出処理について、より具体的に図6を用いて説明する。   Next, the tongue diagnosis region extraction process in step S3 will be described more specifically with reference to FIG.

図6(a)に示すように、上記ステップS3として舌診領域抽出部21は先ず、例えば操作部4における操作に基づいて図6(b)に例示する舌画像TGに相当する画像情報が記録部5から読み出されると(ステップS30)、当該読み出した画像情報に相当する舌画像TGをディスプレイ3に表示する。そして、当該舌画像TGに重ねて表示される抽出枠FMを用いた担当医師等の操作により舌診領域となるべき領域が指定されると(ステップS31。図6(b)参照。)、舌診領域抽出部21は、当該指定された領域に相当する切出舌画像TMを元の舌画像TGから切り出す(図6(c)参照。)。   As shown in FIG. 6A, in step S3, the tongue examination region extraction unit 21 first records image information corresponding to the tongue image TG illustrated in FIG. 6B based on, for example, an operation in the operation unit 4. When read from the unit 5 (step S30), the tongue image TG corresponding to the read image information is displayed on the display 3. When a region to be a tongue examination region is designated by an operation of a doctor in charge using the extraction frame FM displayed superimposed on the tongue image TG (step S31; see FIG. 6B), the tongue. The examination region extraction unit 21 cuts out the cutout tongue image TM corresponding to the designated region from the original tongue image TG (see FIG. 6C).

次に舌診領域抽出部21は、切り出した切出舌画像TMの幅W及び長さH(換言すれば、抽出枠FMの幅W及び長さH)に対応した形状を有する領域判定マスクMKを示すデータをマスクデータベース51から取得する(ステップS32。図6(d)参照。)。このときの領域判定マスクMKは、図6(c)に示すように、上記切出舌画像TMの幅W及び長さHに対応した形状を有する三つのマスク領域MK1乃至マスク領域MK3により構成されている。そして舌診領域抽出部21は、切出舌画像TMにおいて、マスク領域MK1を舌T自体の領域と確定し、マスク領域MK3を背景の領域と確定すると共に、マスク領域MK2に相当する舌画像TGの部分のみを処理対象として舌診領域の抽出を行う(ステップS33)。ここで、当該舌診領域の抽出の具体的な手法としては従来と同様のものを用いることができる。より具体的に舌診領域抽出部21は、マスク領域MK2に相当する舌画像TGの部分のみを処理対象として、例えばいわゆるGraph Cut法を用いて舌診領域を抽出する。その後舌診領域抽出部21は、ステップS33の抽出結果に対して予め設定されたノイズ除去処理を施し、更に抽出された舌診領域のみを含む矩形の領域を元の切出舌画像TMから切り出す(ステップS34)。これにより図6(e)に例示するような、舌T自体に相当する当該舌診領域と背景BGとが識別された状態で舌診領域が抽出される。その後舌診領域抽出部21は、図3のステップS4に移行する。   Next, the tongue examination area extraction unit 21 has an area determination mask MK having a shape corresponding to the width W and length H of the cut out tongue image TM (in other words, the width W and length H of the extraction frame FM). Is obtained from the mask database 51 (step S32; see FIG. 6D). The area determination mask MK at this time is configured by three mask areas MK1 to MK3 having shapes corresponding to the width W and length H of the cut-out tongue image TM, as shown in FIG. ing. Then, the tongue examination region extraction unit 21 determines the mask region MK1 as the region of the tongue T itself and the mask region MK3 as the background region in the cut out tongue image TM, and the tongue image TG corresponding to the mask region MK2. The tongue examination region is extracted by taking only the part of as a processing target (step S33). Here, as a specific method of extracting the tongue examination region, the same method as the conventional one can be used. More specifically, the tongue examination region extraction unit 21 extracts a tongue examination region using, for example, a so-called Graph Cut method, with only a portion of the tongue image TG corresponding to the mask region MK2 as a processing target. Thereafter, the tongue examination area extraction unit 21 performs a preset noise removal process on the extraction result of step S33, and further cuts out a rectangular area including only the extracted tongue examination area from the original cutout tongue image TM. (Step S34). As a result, the tongue examination region is extracted in a state where the tongue examination region corresponding to the tongue T itself and the background BG are identified as illustrated in FIG. Thereafter, the tongue examination region extraction unit 21 proceeds to step S4 in FIG.

最後に、上記ステップS8の歯痕領域の形態検出処理について、より具体的に図7及び図8を用いて説明する。   Finally, the form detection process of the tooth mark area in step S8 will be described more specifically with reference to FIGS.

図7(a)に示すように、上記ステップS8として歯痕形態検出部22は先ず、上記ステップS7までの各歯痕TRの検出結果を、図7(b)に例示するように舌診領域抽出部21から取得する(ステップS80)。図7(b)に例示する場合、一つの舌Tに合計10個の歯痕TRが、番号により相互に識別可能に検出されている。次に歯痕形態検出部22は、各歯痕TRのそれぞれについて、第1実施形態に係る歯痕領域を設定し、当該設定された歯痕領域と、色判定閾値データベース52に記録されている上記色判定閾値に対応した色判別画像と、に基づいて歯痕領域ごとの色判定範囲を設定する(ステップS81)。このステップS81としてより具体的に歯痕形態検出部22は、先ず図7(c)に例示するように、各歯痕TRのそれぞれについて、歯痕TRを構成する各頂点を結ぶ線分の中点CRを中心とし且つ当該線分の半分を半径rとする円弧(即ち当該線分を直径とする円弧)を、当該線分の舌T側に設定する。そして歯痕形態検出部22は、当該設定された円弧と中点CRを含む上記線分とで囲まれた半円形内の舌Tの領域を、当該歯痕TRについての歯痕領域ARと設定する。その後歯痕形態検出部22は、図7(d)に例示する上記色判別画像と、各歯痕TRについてそれぞれ設定された歯痕領域ARとを図7(e)に例示するように重ね合わせることで、歯痕領域ARごとの上記色判定範囲を設定する(ステップS81)。   As shown in FIG. 7A, in step S8, the tooth trace form detection unit 22 firstly detects the tooth traces TR up to step S7, as shown in FIG. Obtained from the extraction unit 21 (step S80). In the case illustrated in FIG. 7B, a total of ten tooth marks TR are detected on one tongue T so as to be distinguishable from each other by numbers. Next, the tooth mark form detection unit 22 sets a tooth mark area according to the first embodiment for each of the tooth marks TR, and is recorded in the set tooth mark area and the color determination threshold value database 52. Based on the color determination image corresponding to the color determination threshold, a color determination range for each tooth mark region is set (step S81). More specifically, as shown in FIG. 7C, the tooth trace form detection unit 22 first determines the middle of the line segment connecting the vertices constituting the tooth trace TR for each of the tooth traces TR as illustrated in FIG. 7C. An arc whose center is the point CR and whose radius is r of a half of the line segment (that is, an arc whose diameter is the line segment) is set on the tongue T side of the line segment. And the tooth trace form detection part 22 sets the area | region of the tongue T in the semicircle enclosed with the said set circular arc and the said line segment containing the midpoint CR with the tooth trace area | region AR about the said tooth trace TR. To do. Thereafter, the tooth mark shape detection unit 22 superimposes the color discrimination image illustrated in FIG. 7D and the tooth mark area AR set for each tooth mark TR as illustrated in FIG. 7E. Thus, the color determination range for each tooth mark area AR is set (step S81).

次に歯痕形態検出部22は、舌Tに対応する舌診領域から上記設定された各歯痕領域ARのみを図8(a)に例示するように抽出する(ステップS82)。そして歯痕形態検出部22は図8(b)に拡大図を例示するように、当該抽出された各歯痕領域ARのそれぞれについて、上記色判定閾値を用いた色レベルの判定及び分類を行う(ステップS83)。その後歯痕形態検出部22は、歯痕領域ARの形態の検出結果として、上記色レベルの判定及び分類の結果を、歯痕領域ARごとに識別可能に出力制御部23に出力する。その後歯痕形態検出部22は、図3のステップS9に移行する。   Next, the tooth mark form detection unit 22 extracts only the set tooth mark areas AR from the tongue examination area corresponding to the tongue T as illustrated in FIG. 8A (step S82). Then, the tooth mark form detection unit 22 performs color level determination and classification using the color determination threshold for each of the extracted tooth mark regions AR, as illustrated in an enlarged view in FIG. (Step S83). Thereafter, the tooth mark shape detection unit 22 outputs the result of the determination and classification of the color level to the output control unit 23 so as to be identifiable for each tooth mark area AR as the detection result of the form of the tooth mark area AR. Thereafter, the tooth trace shape detection unit 22 proceeds to step S9 in FIG.

そして出力制御部23は、上記ステップS8による各歯痕領域ARの形態の検出結果を歯痕領域ARごとに識別可能にディスプレイ3を介して被験者等に提示する(ステップS9)。   Then, the output control unit 23 presents the detection result of the form of each tooth mark area AR in step S8 to the subject or the like via the display 3 so as to be identifiable for each tooth mark area AR (step S9).

以上説明したように、第1実施形態に係る歯痕検出処理によれば、抽出枠FMの寸法(幅W及び長さH)に対応した領域判定マスクMKを用いて舌診領域を抽出する(図3ステップS3参照)。よって、抽出枠FMの寸法に対応した領域判定マスクMKを用いて舌診領域を抽出するので、舌画像TGの全てを用いて舌診領域の抽出処理を行う場合に比して、舌画像TG撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ舌診領域を検出することができる。   As described above, according to the tooth mark detection process according to the first embodiment, the tongue examination region is extracted using the region determination mask MK corresponding to the dimensions (width W and length H) of the extraction frame FM ( (See step S3 in FIG. 3). Therefore, since the tongue examination area is extracted using the area determination mask MK corresponding to the size of the extraction frame FM, the tongue image TG is compared with the case where the tongue examination area is extracted using all the tongue images TG. The tongue examination region can be detected without being affected by environmental factors at the time of imaging, and more accurately and at high speed while reducing the processing load.

また、マスクM1、マスクM2、マスクM3−1及びマスクM3−2が、それぞれの長手方向の中心線が一致するように重畳されて領域判定マスクMKが構成されており、当該第3マスクの外縁とマスク3−1及びマスクM3−2それぞれの外縁との間のマスク領域MK2に相当する舌画像TGの領域を対象として舌診領域の抽出を行うので(図2参照)、より高速且つ処理負担の軽減を図りつつ、各歯痕領域ARを別個に検出することができる。   In addition, the area determination mask MK is configured by superimposing the mask M1, the mask M2, the mask M3-1, and the mask M3-2 so that the respective center lines in the longitudinal direction coincide with each other, and the outer edge of the third mask. Extraction of the tongue examination region is performed for the region of the tongue image TG corresponding to the mask region MK2 between the outer edge of each of the mask 3-1 and the mask M3-2 (see FIG. 2). Each tooth mark area AR can be detected separately while reducing the above.

また、抽出された舌診領域から抽出した舌Tの舌輪郭RLからそれに対応する凸包CHを検出し、当該舌輪郭RL及び凸包CHに基づいて、各歯痕領域ARを相互に識別しつつそれぞれ検出し、その検出結果を出力する(図3ステップS4乃至ステップS7参照)。よって、舌画像TGの全てを用いて舌診領域の抽出処理を行う場合に比して、舌画像TG撮像時の環境要因等に影響されることなく、より正確、高速且つ処理負担の軽減を図りつつ各歯痕領域ARを別個に検出することができる。   Further, the corresponding convex hull CH is detected from the tongue contour RL of the tongue T extracted from the extracted tongue examination region, and the respective tooth mark regions AR are mutually identified based on the tongue contour RL and the convex hull CH. Each of them is detected, and the detection result is output (see step S4 to step S7 in FIG. 3). Therefore, compared with the case where the entire tongue image TG is used to extract the tongue diagnosis region, the processing load is more accurately and quickly reduced without being influenced by environmental factors at the time of capturing the tongue image TG. Each tooth mark area AR can be detected separately while planning.

更にまた、舌輪郭RLにおける歯痕TRの両端の頂点を結んだ線分の中点CRを中心とし、且つ当該線分を直径とした歯痕TRを含む半円に相当する舌Tの領域を、他の当該歯痕領域ARから識別しつつ歯痕領域ARとしてそれぞれ検出する(図7(c)参照)ので、歯痕領域ARを簡易な処理で検出することができる。   Furthermore, a region of the tongue T corresponding to a semicircle including the tooth mark TR having the center of the line segment connecting the vertices of both ends of the tooth mark TR in the tongue outline RL and having the diameter of the line segment as a center. Since each of the tooth mark areas AR is detected while being distinguished from the other tooth mark area AR (see FIG. 7C), the tooth mark area AR can be detected by a simple process.

また、各歯痕領域ARの色を検出し、色判定閾値との関係で当該色がいずれの色レベルに対応しているかを示す情報を歯痕領域ARごとに出力するので(図7ステップS83参照)、歯痕領域ARの色を簡易な方法で、高速且つ歯痕領域ARごとに判別することができる。   Further, the color of each tooth mark area AR is detected, and information indicating which color level the color corresponds to in relation to the color determination threshold is output for each tooth mark area AR (step S83 in FIG. 7). Reference), the color of the tooth mark area AR can be discriminated at high speed for each tooth mark area AR by a simple method.

(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図9を用いて説明する。このとき図9は、第2実施形態に係る舌診領域抽出処理の細部を示す図である。なお図9(a)において、図6(a)に示す第2実施形態に係る舌診領域抽出処理と同様の処理には、同様のステップ番号を付して細部の説明は省略する。
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present invention will be described with reference to FIG. At this time, FIG. 9 is a diagram showing details of the tongue examination region extraction processing according to the second embodiment. In FIG. 9A, the same step number is assigned to the same process as the tongue examination region extraction process according to the second embodiment shown in FIG. 6A, and the detailed description is omitted.

上述してきた第1実施形態に係る歯痕検出処理では、被験者の舌Tに相当する舌画像TGから抽出枠FMを用いて切り出した切出舌画像TMを歯痕TRの検出対象とした。これに対して、以下に説明する第2実施形態では、処理部2の負担軽減及び処理の高速化を図るべく、上記切出舌画像TMを縮小し、当該縮小後の切出舌画像TMに対して領域判定マスクMKを用いた舌診領域の抽出を行い、その抽出結果を拡大した画像から、各歯痕TRの抽出を行う。   In the tooth mark detection processing according to the first embodiment described above, the cut tongue image TM cut out from the tongue image TG corresponding to the tongue T of the subject using the extraction frame FM is set as the detection target of the tooth mark TR. On the other hand, in the second embodiment described below, the cut-out tongue image TM is reduced to reduce the burden on the processing unit 2 and speed up the processing, and the reduced cut-out tongue image TM is displayed. On the other hand, a tongue examination region is extracted using the region determination mask MK, and each tooth trace TR is extracted from an enlarged image of the extraction result.

また、第2実施形態に係る歯痕検出システムのハードウェア的な構成は、基本的に第1実施形態に係る歯痕検出システムSSのハードウェア的な構成と同一である。よって以下の第2実施形態では、第1実施形態に係る歯痕検出システムSSと同様の部材番号を用いて、当該歯痕検出システムSSと異なる部分及び処理のみについて、第2実施形態に係る歯痕検出システムを説明する。   Further, the hardware configuration of the tooth mark detection system according to the second embodiment is basically the same as the hardware configuration of the tooth mark detection system SS according to the first embodiment. Therefore, in the following second embodiment, the tooth numbers according to the second embodiment are used only for portions and processes different from the tooth mark detection system SS by using the same member numbers as those of the tooth mark detection system SS according to the first embodiment. A trace detection system will be described.

図9(a)に示すように、第2実施形態に係る歯痕検出システムでは、第1実施形態に係る歯痕検出システムSSに対して、舌診領域の抽出処理(図3ステップS3参照)の内容のみが異なっている。   As shown in FIG. 9A, in the tooth trace detection system according to the second embodiment, the tongue examination region extraction process (see step S3 in FIG. 3) with respect to the tooth trace detection system SS according to the first embodiment. Only the contents of are different.

即ち図9(a)に示すように、第2実施形態に係る舌診領域抽出処理では、初めに第1実施形態に係る舌診領域抽出処理と同様のステップS30及びステップS31が、図9(b)に例示する舌画像TGに対して抽出枠FMを用いて行われる。次に第2実施形態に係る舌診領域抽出部21は、当該抽出枠FMに相当する切出舌画像TMを予め設定された縮小率により縮小し、図9(c)に例示する縮小された切出舌画像TMMを生成する(ステップS31−1)。その後第2実施形態に係る舌診領域抽出部21は、切出舌画像TMMの寸法に対応した形状を有する領域判定マスクMK(従って、第1実施形態に係る領域判定マスクMKよりも小さい。図9(d)参照。)を示すデータをマスクデータベース51から取得し、それを用いて、第1実施形態に係る舌診領域抽出処理と同様のステップS32乃至ステップS33を行う。これらにより、背景BGを含む、舌Tに対応した小型の舌診領域が図9(e)に例示するように抽出される。   That is, as shown in FIG. 9A, in the tongue examination area extraction process according to the second embodiment, first, steps S30 and S31 similar to the tongue examination area extraction process according to the first embodiment are performed as shown in FIG. This is performed using the extraction frame FM on the tongue image TG illustrated in b). Next, the tongue examination area extraction unit 21 according to the second embodiment reduces the cut-out tongue image TM corresponding to the extraction frame FM by a preset reduction rate, and reduces the reduction illustrated in FIG. 9C. A cutout tongue image TMM is generated (step S31-1). Thereafter, the tongue examination region extraction unit 21 according to the second embodiment is smaller than the region determination mask MK having a shape corresponding to the size of the cut-out tongue image TMM (therefore, the region determination mask MK according to the first embodiment). 9 (d) is acquired from the mask database 51, and the same steps S32 to S33 as the tongue examination region extraction process according to the first embodiment are performed using the acquired data. As a result, a small tongue examination region corresponding to the tongue T including the background BG is extracted as illustrated in FIG.

次に第2実施形態に係る舌診領域抽出部21は、図9(e)に例示する小型の舌診領域を、上記ステップS31−1で用いられた縮小率に対応した拡大率により拡大し(ステップS33−1)、更に当該拡大後の舌診領域及び背景BGを反転させることで、図9(f)左に例示する第2実施形態に係る舌診領域マスクRMを生成する(ステップS33−2)。この舌診領域マスクRMでは、図9(f)右に例示する元の切出舌画像TMにおける背景BGに相当する領域がマスクされ、舌Tに相当する領域のみが抽出可能とされている。なお、上記縮小率及び上記拡大率は、具体的には実験的又は経験的に設定されるのが好ましい。   Next, the tongue examination area extraction unit 21 according to the second embodiment enlarges the small tongue examination area illustrated in FIG. 9E with an enlargement ratio corresponding to the reduction ratio used in step S31-1. (Step S33-1) Further, by inverting the enlarged tongue examination region and the background BG, the tongue examination region mask RM according to the second embodiment illustrated on the left in FIG. 9F is generated (Step S33). -2). In the tongue examination region mask RM, the region corresponding to the background BG in the original cutout tongue image TM illustrated on the right in FIG. 9F is masked, and only the region corresponding to the tongue T can be extracted. Note that the reduction ratio and the enlargement ratio are preferably set experimentally or empirically.

その後第2実施形態に係る舌診領域抽出部21は、上記舌診領域マスクRMと、図9(f)右に例示する元の切出舌画像TMと、を用いて、当該切出舌画像TMから図9(g)に例示するように舌Tの舌診領域を抽出する(ステップS33−3)。そして第2実施形態に係る舌診領域抽出部21は、当該抽出した舌診領域に対して第1実施形態に係る舌診領域抽出処理と同様のステップS34を行い、その後、図3のステップS4に移行する。この後は、第1実施形態に係る舌診領域抽出処理と同様のステップS4以降が実行される(図3参照)。   Thereafter, the tongue examination region extraction unit 21 according to the second embodiment uses the tongue examination region mask RM and the original cutout tongue image TM illustrated on the right in FIG. The tongue examination region of the tongue T is extracted from the TM as illustrated in FIG. 9G (step S33-3). And the tongue examination area | region extraction part 21 which concerns on 2nd Embodiment performs step S34 similar to the tongue examination area | region extraction process which concerns on 1st Embodiment with respect to the said extracted tongue examination area | region, and after that, step S4 of FIG. Migrate to Thereafter, step S4 and subsequent steps similar to the tongue examination region extraction process according to the first embodiment are executed (see FIG. 3).

以上説明したように、第2実施形態に係る歯痕検出処理によれば、第1実施形態に係る歯痕検出処理による効果に加えて、切出舌画像TMを縮小した切出舌画像TMMの寸法に対応した領域判定マスクMKを用いて小型の舌診領域を抽出し、それを拡大した領域に対応した舌診領域マスクRMを生成し、その舌診領域マスクRMを用いて舌診領域を抽出する。よって、元の舌画像TGが過大な情報量を有する場合でも、切出舌画像TMを縮小して舌診領域の抽出を行うことで、高速且つ処理負担の軽減を図りつつ各歯痕領域ARを検出することができる。   As described above, according to the tooth mark detection process according to the second embodiment, in addition to the effect of the tooth mark detection process according to the first embodiment, the extracted tongue image TMM obtained by reducing the cut-out tongue image TM. A small tongue examination region is extracted using the region determination mask MK corresponding to the size, a tongue examination region mask RM corresponding to the enlarged region is generated, and the tongue examination region is determined using the tongue examination region mask RM. Extract. Therefore, even when the original tongue image TG has an excessive amount of information, each tooth mark area AR can be reduced at high speed while reducing the processing load by reducing the extracted tongue image TM and extracting the tongue examination area. Can be detected.

なお、図3、図6(a)、図7(a)及び図9(a)それぞれに示すフローチャートに対応するプログラムを例えば光ディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得して記録しておき、これらを例えばマイクロコンピュータ等により読み出して実行することにより、当該マイクロコンピュータ等を各実施形態に係る処理部2として機能させることも可能である。   Note that programs corresponding to the flowcharts shown in FIG. 3, FIG. 6 (a), FIG. 7 (a), and FIG. 9 (a) are recorded on a recording medium such as an optical disc or via a network such as the Internet. It is also possible to cause the microcomputer or the like to function as the processing unit 2 according to each embodiment by reading and executing these by using, for example, a microcomputer or the like.

以上それぞれ説明したように、本発明は例えば健康度の判定のために舌Tの歯痕TRを検出する歯痕検出システムの分野に利用することが可能であり、特に舌Tの舌画像TGを取得して歯痕TRを検出する歯痕検出システムの分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used, for example, in the field of the tooth mark detection system for detecting the tooth mark TR of the tongue T for the purpose of determining the health level. In particular, the tongue image TG of the tongue T is used. If it is acquired and applied to the field of a tooth trace detection system that detects the tooth trace TR, a particularly remarkable effect is obtained.

1 インターフェース
2 処理部
3 ディスプレイ
4 操作部
5 記録部
20 画像登録部
21 舌診領域抽出部
22 歯痕形態検出部
23 出力制御部
50 画像記録部
51 マスクデータベース
52 色判定閾値データベース
C カメラ
S 歯痕検出装置
SS 歯痕検出システム
TG 舌画像
T 舌
CR 中点
FM 抽出枠
MK 領域判定マスク
M1、M2、M3−1、M3−2 マスク
MK1、MK2、MK3 マスク領域
TM、TMM 切出舌画像
BG 背景
RL 舌輪郭
EL 近似曲線
CH 凸包
TR 歯痕
AR 歯痕領域
DESCRIPTION OF SYMBOLS 1 Interface 2 Processing part 3 Display 4 Operation part 5 Recording part 20 Image registration part 21 Tongue examination area extraction part 22 Tooth mark form detection part 23 Output control part 50 Image recording part 51 Mask database 52 Color determination threshold value database C Camera S Tooth mark Detecting device SS Tooth mark detection system TG Tongue image T Tongue CR Midpoint FM Extraction frame MK Region determination mask M1, M2, M3-1, M3-2 Mask MK1, MK2, MK3 Mask region TM, TMM Cut tongue image BG Background RL tongue contour EL approximate curve CH convex hull TR tooth mark AR tooth mark area

Claims (8)

舌を撮像して得られた舌画像に相当する舌画像情報を取得する舌画像情報取得手段と、
前記舌にできた歯痕の検出に用いられる歯痕検出領域を前記舌画像において指定するために用いられる指定手段と、
前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するマスク情報取得手段と、
前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌領域抽出手段と、
を備えることを特徴とする舌画像処理装置。
Tongue image information acquisition means for acquiring tongue image information corresponding to a tongue image obtained by imaging the tongue;
Designation means used for designating in the tongue image a tooth mark detection region used for detection of a tooth mark formed on the tongue;
An area determination mask for separating a tongue area corresponding to the tongue in the designated tooth mark detection area and a background area corresponding to the background in the tooth mark detection area other than the tongue, wherein the tooth Mask information acquisition means for acquiring area determination mask information corresponding to an area determination mask corresponding to the size of the mark detection area;
Tongue region extracting means for extracting the tongue region from the tooth mark detection region using the region determination mask;
A tongue image processing apparatus comprising:
請求項1に記載の舌画像処理装置において、
前記領域判定マスクは、
前記寸法に対応した半楕円形状を有し且つ前記舌自体の領域に相当する第1マスクと、
前記寸法に対応し、前記第1マスクより大きく且つ前記背景領域に相当する第2マスクと、
前記寸法に対応し、前記第1マスクの外縁と前記第2マスクの外縁との間の領域に外縁がある第3マスクと、
が、それぞれの長手方向の中心線が一致するように重畳されて構成されており、
前記舌領域抽出手段は、前記第3マスクの外縁と前記第1マスクの外縁との間の領域に相当する前記舌画像の領域を対象として、前記舌領域の抽出を行うことを特徴とする舌画像処理装置。
The tongue image processing apparatus according to claim 1,
The region determination mask is
A first mask having a semi-elliptical shape corresponding to the dimensions and corresponding to the region of the tongue itself;
A second mask corresponding to the dimensions, larger than the first mask and corresponding to the background region;
A third mask corresponding to the dimensions and having an outer edge in a region between the outer edge of the first mask and the outer edge of the second mask;
Are superimposed so that the respective centerlines in the longitudinal direction coincide with each other,
The tongue region extracting means extracts the tongue region for a region of the tongue image corresponding to a region between an outer edge of the third mask and an outer edge of the first mask. Image processing device.
請求項1又は請求項2に記載の舌画像処理装置において、
前記舌領域抽出手段は、
前記指定された歯痕検出領域を縮小した縮小歯痕検出領域の寸法に対応した舌領域抽出マスクを用いて当該縮小歯痕検出領域から縮小舌領域を抽出する縮小舌領域抽出手段と、
前記抽出された縮小舌領域を、当該縮小舌領域に対応した拡大率を用いて拡大する拡大手段と、
前記拡大された縮小舌領域に対応した舌領域マスクを生成するマスク生成手段と、
を備え、
前記舌領域抽出手段は、前記生成された舌領域マスクを用いて前記歯痕検出領域から前記舌領域を抽出することを特徴とする舌画像処理装置。
In the tongue image processing apparatus according to claim 1 or 2,
The tongue region extracting means includes
Reduced tongue region extracting means for extracting a reduced tongue region from the reduced tooth mark detection region using a tongue region extraction mask corresponding to the size of the reduced tooth mark detection region obtained by reducing the designated tooth mark detection region;
Enlarging means for enlarging the extracted reduced tongue area using an enlargement ratio corresponding to the reduced tongue area;
Mask generating means for generating a tongue region mask corresponding to the enlarged reduced tongue region;
With
The tongue image processing apparatus, wherein the tongue region extraction unit extracts the tongue region from the tooth mark detection region using the generated tongue region mask.
請求項1から請求項3のいずれか一項に記載の舌画像処理装置において、
前記抽出された舌領域から、前記舌の輪郭を抽出する輪郭抽出手段と、
前記抽出された輪郭に基づいて、当該輪郭に外接する凸包を検出する凸包検出手段と、
前記抽出された輪郭及び前記検出された凸包に基づいて、一又は複数の前記歯痕それぞれに相当する歯痕領域を、他の当該歯痕領域から識別しつつそれぞれ抽出する歯痕領域抽出手段と、
前記検出された歯痕領域を示す歯痕領域情報を出力する出力手段と、
を更に備えることを特徴とする舌画像処理装置。
In the tongue image processing apparatus according to any one of claims 1 to 3,
Contour extracting means for extracting the contour of the tongue from the extracted tongue region;
A convex hull detecting means for detecting a convex hull circumscribing the contour based on the extracted contour;
Based on the extracted contour and the detected convex hull, a tooth trace region extracting means for extracting a tooth trace region corresponding to each of the one or a plurality of the tooth traces while identifying each other from the other tooth trace regions. When,
Output means for outputting tooth mark area information indicating the detected tooth mark area;
A tongue image processing apparatus further comprising:
請求項4に記載の舌画像処理装置において、
前記歯痕領域抽出手段は、前記抽出された輪郭における歯痕の両端と前記検出された凸包との各接点を結んだ線分の中点を中心とし、且つ当該線分を直径とした半円であって、当該歯痕を含む半円に相当する前記舌画像の領域を、他の前記歯痕領域から識別しつつ、前記歯痕領域としてそれぞれ抽出することを特徴とする舌画像処理装置。
In the tongue image processing apparatus according to claim 4,
The tooth trace region extracting means is centered on a midpoint of a line segment connecting each contact point between both ends of the tooth trace and the detected convex hull in the extracted contour, and the line segment is a half diameter A tongue image processing apparatus, wherein each of the tongue image areas corresponding to a semicircle including the tooth mark is extracted as the tooth mark area while being distinguished from the other tooth mark areas. .
請求項1から請求項5のいずれか一項に記載の舌画像処理措置において、
前記出力手段は、
前記検出された歯痕領域の色を検出する色検出手段と、
前記色を予め設定された色レベルに分類するための閾値を示す閾値情報を記憶する記憶手段と、
を備え、
当該出力手段は、前記記憶されている閾値情報と、前記検出された色を示す色情報と、に基づいて、前記検出された色に対応する前記色レベルを示す色情報を、前記歯痕領域情報として前記歯痕領域ごとに出力することを特徴とする舌画像処理装置。
In the tongue image processing measure according to any one of claims 1 to 5,
The output means includes
Color detection means for detecting the color of the detected tooth trace region;
Storage means for storing threshold information indicating a threshold for classifying the color into a preset color level;
With
The output means outputs color information indicating the color level corresponding to the detected color based on the stored threshold information and color information indicating the detected color, to the tooth mark region. A tongue image processing apparatus, wherein information is output for each tooth mark region as information.
舌を撮像して得られた舌画像を処理する舌画像処理装置において実行される舌画像処理方法において、
前記舌画像に相当する舌画像情報を取得する舌画像情報取得工程と、
前記舌にできた歯痕の検出に用いられる歯痕検出領域を前記舌画像において指定する指定工程と、
前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するマスク情報取得工程と、
前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌領域抽出工程と、
を含むことを特徴とする舌画像処理方法。
In a tongue image processing method executed in a tongue image processing apparatus for processing a tongue image obtained by imaging a tongue,
A tongue image information acquisition step of acquiring tongue image information corresponding to the tongue image;
A designation step for designating a tooth mark detection region used for detection of a tooth mark on the tongue in the tongue image;
An area determination mask for separating a tongue area corresponding to the tongue in the designated tooth mark detection area and a background area corresponding to the background in the tooth mark detection area other than the tongue, wherein the tooth A mask information acquisition step for acquiring area determination mask information corresponding to an area determination mask corresponding to the dimension of the mark detection area;
A tongue region extracting step of extracting the tongue region from the tooth mark detection region using the region determination mask;
Including a tongue image processing method.
舌を撮像して得られた舌画像を処理する舌画像処理装置であって、前記舌画像のうち、前記舌にできた歯痕の検出に用いられる歯痕検出領域を指定するために用いられる指定手段を備える舌画像処理装置に含まれるコンピュータを、
前記舌画像に相当する舌画像情報を取得する舌画像情報取得手段、
前記指定された歯痕検出領域内の前記舌に相当する舌領域と、当該舌以外の当該歯痕検出領域内の背景に相当する背景領域と、を分けるための領域判定マスクであって前記歯痕検出領域の寸法に対応した領域判定マスクに相当する領域判定マスク情報を取得するマスク情報取得手段、及び、
前記領域判定マスクを用いて前記歯痕検出領域から前記舌領域を抽出する舌領域抽出手段、
として機能させることを特徴とする舌画像処理用プログラム。
A tongue image processing apparatus for processing a tongue image obtained by imaging a tongue, which is used to designate a tooth mark detection region used for detecting a tooth mark formed on the tongue of the tongue image. A computer included in the tongue image processing apparatus including the specifying unit;
Tongue image information acquisition means for acquiring tongue image information corresponding to the tongue image;
An area determination mask for separating a tongue area corresponding to the tongue in the designated tooth mark detection area and a background area corresponding to the background in the tooth mark detection area other than the tongue, wherein the tooth Mask information acquisition means for acquiring area determination mask information corresponding to the area determination mask corresponding to the dimension of the mark detection area, and
Tongue region extracting means for extracting the tongue region from the tooth mark detection region using the region determination mask;
A tongue image processing program characterized by being made to function as:
JP2016035562A 2016-02-26 2016-02-26 Tongue image processing device, tongue image processing method, and tongue image processing program Active JP6696222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016035562A JP6696222B2 (en) 2016-02-26 2016-02-26 Tongue image processing device, tongue image processing method, and tongue image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016035562A JP6696222B2 (en) 2016-02-26 2016-02-26 Tongue image processing device, tongue image processing method, and tongue image processing program

Publications (2)

Publication Number Publication Date
JP2017148386A true JP2017148386A (en) 2017-08-31
JP6696222B2 JP6696222B2 (en) 2020-05-20

Family

ID=59739315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016035562A Active JP6696222B2 (en) 2016-02-26 2016-02-26 Tongue image processing device, tongue image processing method, and tongue image processing program

Country Status (1)

Country Link
JP (1) JP6696222B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020043178A1 (en) * 2018-08-30 2020-03-05 深圳市前海安测信息技术有限公司 Device and method for recognizing tooth mark on tongue using tongue contour
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
CN113362334A (en) * 2020-03-04 2021-09-07 北京悦熙兴中科技有限公司 Tongue picture processing method and device
CN116311386A (en) * 2023-05-19 2023-06-23 四川博瑞客信息技术有限公司 Tongue type identification method based on image segmentation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) * 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detecting method and eye position detector
JP2004209245A (en) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd Method for extracting region of interest from image of tongue and method and apparatus for monitoring health using image of tongue
JP2005137756A (en) * 2003-11-10 2005-06-02 Konica Minolta Holdings Inc Health measuring system and program
KR20140104558A (en) * 2013-02-19 2014-08-29 대전대학교 산학협력단 New tongue diagnosis model system developed by analyzing the color of the tongue
JP2014219781A (en) * 2013-05-07 2014-11-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Skin analysis device, skin analysis system, skin analysis method, and skin analysis program
WO2015037316A1 (en) * 2013-09-10 2015-03-19 コニカミノルタ株式会社 Organ-imaging device and organ-imaging method
WO2015060070A1 (en) * 2013-10-21 2015-04-30 コニカミノルタ株式会社 Organ image capture device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) * 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detecting method and eye position detector
JP2004209245A (en) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd Method for extracting region of interest from image of tongue and method and apparatus for monitoring health using image of tongue
JP2005137756A (en) * 2003-11-10 2005-06-02 Konica Minolta Holdings Inc Health measuring system and program
KR20140104558A (en) * 2013-02-19 2014-08-29 대전대학교 산학협력단 New tongue diagnosis model system developed by analyzing the color of the tongue
JP2014219781A (en) * 2013-05-07 2014-11-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Skin analysis device, skin analysis system, skin analysis method, and skin analysis program
WO2015037316A1 (en) * 2013-09-10 2015-03-19 コニカミノルタ株式会社 Organ-imaging device and organ-imaging method
WO2015060070A1 (en) * 2013-10-21 2015-04-30 コニカミノルタ株式会社 Organ image capture device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
JP7160932B2 (en) 2018-02-20 2022-10-25 アップリフト ラブズ インコーポレイテッド Generating prescriptive analytics using motion identification and motion information
WO2020043178A1 (en) * 2018-08-30 2020-03-05 深圳市前海安测信息技术有限公司 Device and method for recognizing tooth mark on tongue using tongue contour
CN113362334A (en) * 2020-03-04 2021-09-07 北京悦熙兴中科技有限公司 Tongue picture processing method and device
CN113362334B (en) * 2020-03-04 2024-05-24 北京悦熙兴中科技有限公司 Tongue photo processing method and device
CN116311386A (en) * 2023-05-19 2023-06-23 四川博瑞客信息技术有限公司 Tongue type identification method based on image segmentation
CN116311386B (en) * 2023-05-19 2023-08-15 四川博瑞客信息技术有限公司 Tongue type identification method based on image segmentation

Also Published As

Publication number Publication date
JP6696222B2 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
US8591414B2 (en) Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
US11164670B2 (en) Methods and apparatus for identifying skin features of interest
JP6045417B2 (en) Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus
TWI526982B (en) Area segmentation method, computer program product and inspection device
JP6696222B2 (en) Tongue image processing device, tongue image processing method, and tongue image processing program
US20160042525A1 (en) Apparatus and method for visualization of region of interest
WO2018170937A1 (en) Marker for occluding foreign matter in acquired image, method for recognizing foreign matter marker in image and book scanning method
JP2008022928A (en) Image analysis apparatus and image analysis program
JP2010082245A (en) Hair information measuring method
JP2008220617A (en) Image analysis system and program
JP5111845B2 (en) Fundus image processing apparatus, fundus photographing apparatus, and program
JP2009000410A (en) Image processor and image processing method
JP5014593B2 (en) Ophthalmic measuring device
JP2008289698A (en) Medical image display device, medical image display method, program, storage medium and mammography apparatus
JP5624505B2 (en) Image processing device
JP5935061B2 (en) Osteoporosis diagnosis support device, osteoporosis diagnosis support program, and bone density change site identification method
JP4901620B2 (en) Fundus examination image analysis system and fundus examination image analysis program
JP2010158279A (en) Ocular-fundus image analyzing system and ocular-fundus image analyzing program
JP2009003842A (en) Image processor and image processing method
KR102067335B1 (en) DlEMENTIA CLASSIFICATION METHOD BY DISTANCE ANALYSIS FROM THE CENTRAL CORONAL PLANE OF THE BRAIN HIPPOCAMPUS
CN111493829A (en) Method, system and equipment for determining mild cognitive impairment recognition parameters
JP6390458B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program
JP2008158904A (en) Method for analyzing linear graphic
JP2005261799A (en) Ophthalmologic image processor
JP2007097633A (en) Image analysis system and image analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200406

R150 Certificate of patent or registration of utility model

Ref document number: 6696222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150