JP2015226599A - Apparatus for measuring chromaticity of living body - Google Patents

Apparatus for measuring chromaticity of living body Download PDF

Info

Publication number
JP2015226599A
JP2015226599A JP2014112893A JP2014112893A JP2015226599A JP 2015226599 A JP2015226599 A JP 2015226599A JP 2014112893 A JP2014112893 A JP 2014112893A JP 2014112893 A JP2014112893 A JP 2014112893A JP 2015226599 A JP2015226599 A JP 2015226599A
Authority
JP
Japan
Prior art keywords
frequency distribution
chromaticity
value
color
tongue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014112893A
Other languages
Japanese (ja)
Inventor
松田 伸也
Shinya Matsuda
伸也 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014112893A priority Critical patent/JP2015226599A/en
Publication of JP2015226599A publication Critical patent/JP2015226599A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To readily obtain values (chromaticity values) of color components except for glossy components (reflecting components) contained in a captured image with a compact and low-cost configuration.SOLUTION: An organ imaging apparatus includes an imaging unit and a calculating unit. The imaging unit takes an image of an imaging target included in a living body. The calculating unit calculates chromaticity values except for reflecting components contained in the image on the basis of frequency distribution of data on the image taken by the imaging unit.

Description

本発明は、生体に含まれる撮影対象を撮影して色度値を算出する生体色度計測装置に関するものである。   The present invention relates to a living body chromaticity measuring apparatus that takes a shooting target included in a living body and calculates a chromaticity value.

東洋医学においては、人間の顔や舌の状態を観察することにより、健康状態や病状を診断する診断手法(望診、舌診)が知られている。例えば舌診では、舌や苔の状態を元に体調や健康度を診断しており、その診断項目に、舌の色、舌の厚さ、舌の表面の亀裂などが含まれている。   In oriental medicine, a diagnostic method (diagnosis, tongue examination) for diagnosing a health condition or medical condition by observing the state of a human face or tongue is known. For example, in the tongue examination, the physical condition and health level are diagnosed based on the state of the tongue and moss, and the diagnosis items include the color of the tongue, the thickness of the tongue, and the crack on the surface of the tongue.

健康な状態では、舌の色は淡い紅色であるが、呼吸器や循環器に問題があると、舌の色が青色になり、発熱や脱水があると、舌の色が赤色になる。また、水分の代謝が悪いと、いわゆるむくんだ状態となり、舌が膨らみ分厚くなる。反対に、血流の不足や水分不足になると、舌が痩せて薄くなる。さらに、栄養不足や血流の不良、ストレスなどによる免疫の低下が生じると、舌細胞の再生力が低下し、舌の表面に亀裂が入る。   In a healthy state, the tongue is light red, but if there is a problem with the respiratory or circulatory system, the tongue will turn blue, and if there is fever or dehydration, the tongue will turn red. Further, when the metabolism of water is poor, the so-called swelled state is formed, and the tongue swells and becomes thick. Conversely, when the blood flow is insufficient or the water is insufficient, the tongue becomes thin and thin. Furthermore, when the immunity decreases due to lack of nutrition, poor blood flow, stress, etc., the regenerative power of the tongue cells decreases and the surface of the tongue cracks.

現在、これらの診断は専門の医師が実施しているが、経験や勘に頼っているため、個人差があり、客観性に乏しい。   Currently, these diagnoses are carried out by specialist doctors, but because they rely on experience and intuition, there are individual differences and poor objectivity.

これらを解決するため、デジタルカメラを用いて被写体を撮影し、撮影画像からその特徴を数値化して記録、診断するシステムが提案されている。例えば特許文献1では、舌をカメラで撮影して、舌尖、舌中、舌辺、舌根のような関心領域を抽出し、関心領域の舌質(舌の色)および舌あか(苔の色)を把握して簡便に個人の健康状態を診断できるようにしている。   In order to solve these problems, a system has been proposed in which a subject is photographed using a digital camera, and the features of the photographed image are digitized and recorded and diagnosed. For example, in Patent Document 1, a tongue is photographed with a camera to extract a region of interest such as a tongue apex, a tongue, a tongue base, a tongue base, and the tongue quality (tongue color) and tongue tongue (moss color) of the region of interest. This makes it easy to diagnose the health status of individuals.

特許文献2では、舌の撮影画像の各画素における赤色(R)の画像データと緑色(G)の画像データとの比を演算し、この比と閾値とを比較することにより、舌の色および苔の色を判断するようにしている。また、舌の重心を原点とする極座標を設定し、角度ごとの半径(舌の重心と輪郭線上の点との距離)の分散を算出し、この分散の値に基づいて舌の外形形状(円形度)を判断するようにしている。具体的には、分散の値が小さい場合には、舌が肥大して(平面視で)円形に近いと判断し、分散の値が大きい場合には舌が痩薄して(平面視で)三角形に近いと判断している。さらに、舌の下地(乳頭以外の部分)の画素の上下左右方向の連結数をカウントし、一方向(例えば上下方向)の連結数が所定値以上であり、他方向(例えば左右方向)の連結数が所定値以下となる部分を、舌の亀裂と判断している。   In Patent Document 2, the ratio between the red (R) image data and the green (G) image data in each pixel of the captured image of the tongue is calculated, and by comparing this ratio with a threshold value, the color of the tongue and I try to judge the color of the moss. Also, polar coordinates with the center of gravity of the tongue as the origin are set, the variance of the radius (distance between the center of gravity of the tongue and the point on the contour line) is calculated, and the outer shape of the tongue (circular) is calculated based on the value of this variance Degree). Specifically, when the variance value is small, it is judged that the tongue is enlarged (in plan view) and close to a circle, and when the variance value is large, the tongue is thinned (in plan view). Judged to be close to a triangle. Furthermore, the number of connections in the vertical and horizontal directions of pixels on the base of the tongue (parts other than the nipple) is counted, and the number of connections in one direction (for example, the vertical direction) is equal to or greater than a predetermined value and the connection in the other direction (for example, the horizontal direction) A portion where the number is equal to or less than a predetermined value is determined as a crack in the tongue.

ところで、体内の水分量が過剰になると、舌の表面が湿り気を帯び、光沢が強くなる。舌の表面に光沢があると、照明光が反射して舌の撮影画像にいわゆる白とびが発生する。このため、撮影画像のデータに基づいて色度値を正確に検出することができなくなる。   By the way, when the amount of water in the body becomes excessive, the surface of the tongue gets wet and the gloss becomes strong. If the surface of the tongue is glossy, the illumination light is reflected and a so-called whiteout occurs in the image of the tongue. For this reason, it becomes impossible to accurately detect the chromaticity value based on the data of the captured image.

そこで、例えば特許文献3では、積分球に形成された複数の開口部のいずれかに、拡散用光源装置、光沢用光源装置、カメラをそれぞれ配置し、拡散用光源装置および光沢用光源装置の点灯を制御して、舌表面をカメラで撮影するようにしている。拡散用光源から出射される光を積分球にて拡散させることで、舌表面の光沢成分を十分に除去し、舌表面の光沢を含まない色彩のみの画像を得て、舌表面の色彩成分を安定して計測するようにしている。このように、積分球を用いて舌表面の光沢成分を除去し、舌表面の色彩成分を計測する構成は、特許文献4でも開示されている。   Therefore, in Patent Document 3, for example, a diffusion light source device, a gloss light source device, and a camera are arranged in any of a plurality of openings formed in the integrating sphere, and the diffusion light source device and the gloss light source device are turned on. Is controlled so that the surface of the tongue is photographed with a camera. By diffusing the light emitted from the light source for diffusion with an integrating sphere, the gloss component on the tongue surface is sufficiently removed, and only the color image that does not include the gloss on the tongue surface is obtained, and the color component on the tongue surface is obtained. I am trying to measure stably. Thus, the structure which removes the gloss component of the tongue surface using an integrating sphere and measures the color component of the tongue surface is also disclosed in Patent Document 4.

特許第3854966号公報(請求項1、段落〔0004〕、〔0009〕、〔0022〕〜〔0024〕等参照)Japanese Patent No. 3854966 (see claim 1, paragraphs [0004], [0009], [0022] to [0024], etc.) 特開2005−137756号公報(請求項3、段落〔0059〕〜〔0063〕、〔0071〕〜〔0074〕、〔0079〕〜〔0081〕、図4〜図6、図8等参照)JP 2005-137756 A (refer to claim 3, paragraphs [0059] to [0063], [0071] to [0074], [0079] to [0081], FIG. 4 to FIG. 6, FIG. 8 etc.) 特開2011−239926号公報(請求項1、段落〔0016〕、〔0017〕、〔0028〕、図1等参照)JP 2011-239926 A (refer to claim 1, paragraphs [0016], [0017], [0028], FIG. 1, etc.) 特開2010−259487号公報(請求項1、段落〔0019〕、〔0031〕、図1等参照)JP 2010-259487 A (refer to claim 1, paragraphs [0019], [0031], FIG. 1, etc.)

ところが、特許文献3および4では、光沢成分を除去するにあたって、積分球という大型で特殊な器具が必要であるため、装置全体のサイズが大きくなり、コストも高くなるという問題が生ずる。   However, in Patent Documents 3 and 4, since a large and special instrument called an integrating sphere is required to remove the gloss component, there arises a problem that the size of the entire apparatus increases and the cost also increases.

本発明は、上記の問題点を解決するためになされたもので、その目的は、撮影画像に含まれる光沢成分(反射成分)を除く色彩成分の値(色度値)を、小型、低コストの構成で容易に得ることができる生体色度計測装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to reduce the color component value (chromaticity value) excluding the glossy component (reflection component) included in the photographed image in a small size and low cost. An object of the present invention is to provide a biological chromaticity measuring device that can be easily obtained with the above-described configuration.

本発明の一側面に係る生体色度計測装置は、生体に含まれる撮影対象を撮影して画像を取得する撮像部と、前記撮像部で取得される前記画像のデータの度数分布を用いて、前記画像に含まれる反射成分を除いた色度値を算出する演算部とを備えている。   The biological chromaticity measuring apparatus according to one aspect of the present invention uses an imaging unit that captures an image of a subject to be captured in a living body and acquires an image, and a frequency distribution of the data of the image acquired by the imaging unit, An arithmetic unit that calculates a chromaticity value excluding the reflection component included in the image.

演算部は、撮像部で取得される画像のデータの度数分布を用いて、画像の反射成分を除いた色度値を算出する。このため、画像から反射成分を除くにあたって、従来のように大型で特殊な積分球を用いる必要がなくなり、小型、低コストの構成で反射成分を除く色度値を容易に得ることができる。   The calculation unit calculates a chromaticity value excluding the reflection component of the image, using the frequency distribution of the image data acquired by the imaging unit. For this reason, when removing the reflection component from the image, it is not necessary to use a large and special integrating sphere as in the prior art, and a chromaticity value excluding the reflection component can be easily obtained with a small and low-cost configuration.

前記撮像部は、異なる色のそれぞれについて前記画像を取得し、前記演算部は、前記画像の度数分布の幅が最も狭い色については、その色の度数分布から前記色度値を算出するとともに、前記度数分布を基準の度数分布とする一方、他の色については、前記基準の度数分布の相似形を他の色の度数分布にフィッティングすることにより、前記他の色の度数分布を、前記相似形が重なる領域よりも高輝度側に位置する反射領域と、残りの色度領域とに切り分け、前記色度領域の分布から前記色度値を算出してもよい。   The imaging unit acquires the image for each of the different colors, and the calculation unit calculates the chromaticity value from the frequency distribution of the color for the narrowest frequency distribution of the image, and While the frequency distribution is used as a reference frequency distribution, for other colors, the similar distribution of the reference frequency distribution is fitted to the frequency distribution of the other colors, so that the frequency distribution of the other colors is converted to the similarity distribution. The chromaticity value may be calculated from the distribution of the chromaticity region by dividing the reflection region located on the higher luminance side than the region where the shapes overlap and the remaining chromaticity region.

度数分布の幅が最も狭い色(例えばR)については、その度数分布に反射成分がほとんど含まれていないと考えることができる。したがって、演算部は、その度数分布(基準の度数分布)から色度値を算出することで、反射成分を含まない色度値を得ることができる。一方、他の色(例えばBやG)については、度数分布の幅が例えばRに比べて広く、度数分布に反射成分が含まれていると考えられるため、演算部は、上記度数分布を、反射成分を含む領域(反射領域)と、それ以外の領域(色度領域)とに切り分ける。すなわち、演算部は、基準の度数分布の相似形を他の色の度数分布にフィッティングすることにより、他の色の度数分布を、上記の相似形が重なる領域よりも高輝度側の反射領域と、残りの色度領域とに切り分ける。そして、演算部は、色度領域の分布から色度値を算出することにより、他の色についても、反射成分を除いた色度値を得ることができる。   For the color having the narrowest frequency distribution width (for example, R), it can be considered that the frequency distribution hardly includes reflection components. Therefore, the calculation unit can obtain a chromaticity value that does not include a reflection component by calculating a chromaticity value from the frequency distribution (reference frequency distribution). On the other hand, for other colors (for example, B and G), the frequency distribution is wider than R, for example, and it is considered that the frequency distribution includes a reflection component. A region including the reflection component (reflection region) and another region (chromaticity region) are separated. That is, the arithmetic unit fits the similarity shape of the reference frequency distribution to the frequency distribution of the other colors, thereby converting the frequency distribution of the other colors into the reflection region on the higher luminance side than the region where the similarity shapes overlap. Divide into the remaining chromaticity areas. Then, the calculation unit can obtain chromaticity values excluding the reflection component for other colors by calculating the chromaticity values from the distribution of the chromaticity regions.

前記演算部は、前記基準の度数分布の形状を、前記他の色の度数分布との最頻値の比率に応じて拡大または縮小し、拡大または縮小後の前記基準の度数分布の形状を、その最頻値の半価幅の中心が前記他の色の度数分布の最頻値の半価幅の中心と一致するようにフィッティングしてもよい。   The calculation unit enlarges or reduces the shape of the reference frequency distribution in accordance with the mode ratio with the frequency distribution of the other color, and forms the shape of the reference frequency distribution after the enlargement or reduction, Fitting may be performed so that the center of the half-value width of the mode value coincides with the center of the half-value width of the mode value of the frequency distribution of the other color.

最頻値の比率に応じて拡大または縮小した基準の度数分布の相似形を、他の色の度数分布にフィッティングする際に、最頻値の半価幅の中心同士を合わせることにより、精度の高いフィッティングを行うことができる。   When fitting the similar shape of the standard frequency distribution expanded or reduced according to the ratio of the mode to the frequency distribution of other colors, the centers of the half-value widths of the mode are matched to each other. High fitting can be performed.

前記演算部は、前記基準の度数分布の形状を、前記他の色の度数分布との最頻値の比率に応じて拡大または縮小し、拡大または縮小後の前記基準の度数分布の形状を、その最頻値の半価幅の中心が前記他の色の度数分布の最頻値の半価幅の中心よりも低輝度側または高輝度側にずれるようにフィッティングしてもよい。   The calculation unit enlarges or reduces the shape of the reference frequency distribution in accordance with the mode ratio with the frequency distribution of the other color, and forms the shape of the reference frequency distribution after the enlargement or reduction, Fitting may be performed so that the center of the half-value width of the mode value is shifted to the lower luminance side or the higher luminance side than the center of the half-value width of the mode value of the frequency distribution of the other color.

このように、最頻値の比率に応じて拡大または縮小した基準の度数分布の相似形を、他の色の度数分布にフィッティングする際に、最頻値の半価幅の中心同士をずらすことにより、他の色の度数分布の形状に応じてフィッティングの仕方を変えることができる。これにより、他の色の度数分布の形状に応じて反射領域および色度領域を切り分けて、色度値を算出することが可能となる。   In this way, when fitting the similarity of the standard frequency distribution expanded or reduced according to the mode ratio to the frequency distribution of other colors, the centers of the half-value widths of the mode are shifted from each other. Thus, the fitting method can be changed according to the shape of the frequency distribution of other colors. Accordingly, it is possible to calculate the chromaticity value by separating the reflection area and the chromaticity area according to the shape of the frequency distribution of other colors.

前記基準の度数分布は、赤色の度数分布であることが望ましい。生体に含まれる撮像対象を撮影して得られるRの画像の度数分布は、正規分布に近い形状となり、反射成分をほとんど含まない。したがって、Rの度数分布からRの色度値を容易に得ることができる。また、Rの度数分布におけるデータのバラツキは、他の色(例えばBやG)の度数分布におけるデータのバラツキと、反射成分を除いてほぼ同じと考えられる。したがって、Rの度数分布を基準とし、これの相似形を他の色(例えばBやG)の度数分布にフィッティングすることにより、Rの度数分布のデータのバラツキを他の色の度数分布にも反映させて、他の色の度数分布を反射領域と色度領域とに良好に切り分けることができる。   The reference frequency distribution is preferably a red frequency distribution. The frequency distribution of the R image obtained by photographing the imaging target included in the living body has a shape close to a normal distribution and contains almost no reflection component. Therefore, the R chromaticity value can be easily obtained from the R frequency distribution. The data variation in the frequency distribution of R is considered to be substantially the same as the data variation in the frequency distribution of other colors (for example, B and G), except for the reflection component. Therefore, by using the frequency distribution of R as a reference and fitting the similar shape to the frequency distribution of other colors (for example, B and G), the variation in the data of the frequency distribution of R can also be applied to the frequency distribution of other colors. Reflecting this, the frequency distribution of other colors can be well separated into the reflection area and the chromaticity area.

前記演算部は、前記度数分布の反射成分を除いた領域での最頻値をとる画像データを、前記色度値として算出してもよい。また、前記演算部は、前記度数分布の反射成分を除いた領域での最頻値の半価幅の中心の画像データを、前記色度値として算出してもよい。さらに、前記演算部は、前記度数分布の反射成分を除いた領域における度数の中間値の画像データを、前記色度値として算出してもよい。   The calculation unit may calculate, as the chromaticity value, image data having a mode value in a region excluding the reflection component of the frequency distribution. In addition, the calculation unit may calculate, as the chromaticity value, image data at the center of the half-value width of the mode value in a region excluding the reflection component of the frequency distribution. Furthermore, the calculation unit may calculate, as the chromaticity value, image data having an intermediate frequency value in a region excluding the reflection component of the frequency distribution.

演算部が、度数分布の反射成分を除いた領域での、最頻値をとる画像データ、最頻値の半価幅の中心の画像データ、度数の中間値の画像データのいずれかを色度値として算出することで、画像に含まれる反射成分を除いた色度値を確実に得ることができる。   The chromaticity of the image data that takes the mode value, the image data at the center of the half-value width of the mode value, or the image data of the intermediate value of the frequency in the area excluding the reflection component of the frequency distribution By calculating as a value, it is possible to reliably obtain a chromaticity value excluding the reflection component included in the image.

上記の生体色度計測装置は、前記演算部にて算出された前記色度値に基づいて、生体の健康度の診断に用いる特徴量を抽出する特徴量抽出部をさらに備えていてもよい。   The living body chromaticity measuring apparatus may further include a feature amount extracting unit that extracts a feature amount used for diagnosis of the health level of the living body based on the chromaticity value calculated by the calculating unit.

特徴量抽出部は、算出された色度値に基づいて、健康度の診断に用いる特徴量を抽出するので、検出した特徴量に基づく健康度の診断が可能となる。なお、健康度の診断は、上記の特徴量が得られる当該生体色度計測装置(例えば特徴量抽出部)にて行われてもよいし、上記の特徴量を外部の装置に送信して外部にて行われてもよい。   Since the feature quantity extraction unit extracts the feature quantity used for the health degree diagnosis based on the calculated chromaticity value, the health degree diagnosis based on the detected feature quantity becomes possible. The health degree diagnosis may be performed by the biological chromaticity measurement device (for example, the feature amount extraction unit) from which the feature amount is obtained, or the feature amount is transmitted to an external device to be externally transmitted. It may be done at.

前記特徴量は、舌の色、苔の色、苔の形の少なくともいずれかであってもよい。この場合、舌の色、苔の色、苔の形に基づく健康度の診断が可能となる。   The feature amount may be at least one of a tongue color, a moss color, and a moss shape. In this case, the health level can be diagnosed based on the color of the tongue, the color of the moss, and the shape of the moss.

本発明によれば、従来のように大型で特殊な積分球を用いることなく、小型、低コストの構成で、反射成分を除く色度値を容易に得ることができる。   According to the present invention, a chromaticity value excluding a reflection component can be easily obtained with a small and low-cost configuration without using a large and special integrating sphere as in the prior art.

本発明の実施の一形態に係る器官画像撮影装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of the organ imaging device which concerns on one Embodiment of this invention. 上記器官画像撮影装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the said organ image imaging device. 撮影対象に対する照明部と撮像部との位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the illumination part with respect to imaging | photography object, and an imaging part. 舌の撮影画像およびエッジ抽出フィルタの一例と、上記フィルタを用いて抽出された舌の輪郭線を示す説明図である。It is explanatory drawing which shows an example of the picked-up image of a tongue, an edge extraction filter, and the outline of the tongue extracted using the said filter. 上記輪郭線に基づいて設定される、色度値を抽出する各領域を示す説明図である。It is explanatory drawing which shows each area | region which extracts the chromaticity value set based on the said outline. 光沢が少ない舌の撮影画像と、その撮影画像の中央領域におけるRGBの度数分布とを示す説明図である。It is explanatory drawing which shows the picked-up image of a tongue with few glossiness, and the frequency distribution of RGB in the center area | region of the picked-up image. 光沢が多い舌の撮影画像と、その撮影画像の下部領域におけるRGBの度数分布とを示す説明図である。It is explanatory drawing which shows the picked-up image of a tongue with much glossiness, and the RGB frequency distribution in the lower area | region of the picked-up image. 光沢が多い舌の撮影画像と、その撮影画像の中央領域におけるRGBの度数分布とを示す説明図である。It is explanatory drawing which shows the picked-up image of a tongue with much glossiness, and the RGB frequency distribution in the center area | region of the picked-up image. 舌および苔の分光分布を示すグラフである。It is a graph which shows the spectral distribution of a tongue and moss. BおよびGの度数分布の各領域を模式的に示す説明図である。It is explanatory drawing which shows each area | region of frequency distribution of B and G typically. Rの度数分布の一例を示すグラフである。It is a graph which shows an example of the frequency distribution of R. 上記Rの度数分布の形状を拡大または縮小して、Gの度数分布に当てはめる一例を示す説明図である。It is explanatory drawing which shows an example which expands or reduces the shape of the said R frequency distribution, and applies it to the G frequency distribution. 上記Rの度数分布の形状を拡大または縮小して、Bの度数分布に当てはめる一例を示す説明図である。It is explanatory drawing which shows an example which expands or reduces the shape of the frequency distribution of said R, and applies it to the frequency distribution of B. Gの度数分布の反射領域を除く色度領域から、Gの色度値を算出する手法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of calculating the chromaticity value of G from the chromaticity area | region except the reflection area | region of the frequency distribution of G. Gの度数分布の反射領域を除く色度領域から、Gの色度値を算出する手法の他の例を示す説明図である。It is explanatory drawing which shows the other example of the method of calculating G chromaticity value from the chromaticity area | region except the reflective area | region of G frequency distribution. Gの度数分布の反射領域を除く色度領域から、Gの色度値を算出する手法のさらに他の例を示す説明図である。It is explanatory drawing which shows the further another example of the method of calculating G chromaticity value from the chromaticity area | region except the reflection area of G frequency distribution. 上記Rの度数分布の形状を拡大または縮小して、Gの度数分布に当てはめる他の例を示す説明図である。It is explanatory drawing which shows the other example which expands or reduces the shape of the frequency distribution of said R, and applies it to the frequency distribution of G. 上記Rの度数分布の形状を拡大または縮小して、Gの度数分布に当てはめるさらに他の例を示す説明図である。It is explanatory drawing which shows the further another example which expands or reduces the shape of the said R frequency distribution, and applies it to the G frequency distribution. 上記器官画像撮影装置における動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement in the said organ imaging device. 大腸の内壁を内視鏡で観察した画像を模式的に示す説明図である。It is explanatory drawing which shows typically the image which observed the inner wall of the large intestine with the endoscope.

本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本明細書において、数値範囲をA〜Bと表記した場合、その数値範囲に下限Aおよび上限Bの値は含まれるものとする。   An embodiment of the present invention will be described below with reference to the drawings. In the present specification, when the numerical range is expressed as A to B, the numerical value range includes the values of the lower limit A and the upper limit B.

〔器官画像撮影装置の全体構成〕
図1は、本実施形態の器官画像撮影装置1の外観を示す斜視図であり、図2は、器官画像撮影装置1の概略の構成を示すブロック図である。器官画像撮影装置1は、生体に含まれる撮影対象を撮影して、撮影対象の診断に必要な情報を抽出するものである。特に、本実施形態では、器官画像撮影装置1は、上記の撮影対象を撮影して、診断に必要な特徴量(例えば舌の色、苔の色、苔の形)を取得するための色度値を算出する生体色度計測装置を構成している。上記の撮影対象には、生体の器官(例えば舌)、体内組織(例えば胃や大腸などの消化器系の臓器の内壁)、眼のまぶた、などが含まれる。以下では、例として、撮影対象が生体の舌である場合を示す。
[Overall configuration of organ imaging system]
FIG. 1 is a perspective view showing an external appearance of an organ image photographing apparatus 1 of the present embodiment, and FIG. 2 is a block diagram showing a schematic configuration of the organ image photographing apparatus 1. The organ image photographing apparatus 1 photographs a photographing target included in a living body and extracts information necessary for diagnosis of the photographing target. In particular, in the present embodiment, the organ image photographing device 1 photographs the above-described photographing object, and acquires chromaticity for obtaining a characteristic amount (for example, tongue color, moss color, moss shape) necessary for diagnosis. A biological chromaticity measuring apparatus for calculating a value is configured. The subject to be photographed includes a living organ (for example, tongue), a body tissue (for example, an inner wall of a digestive organ such as the stomach or the large intestine), an eyelid, and the like. Hereinafter, as an example, a case where the subject to be imaged is a living body tongue is shown.

器官画像撮影装置1は、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7を備えている。照明部2は筐体21に設けられており、照明部2以外の構成(例えば撮像部3、表示部4、操作部5、通信部6、音声出力部7)は、筐体22に設けられている。筐体21と筐体22とは相対的に回転可能に連結されているが、必ずしも回転は必要ではなく、一方が他方に完全に固定されていてもよい。なお、上記の照明部2等は、単一の筐体に設けられていてもよい。   The organ imaging apparatus 1 includes an illumination unit 2, an imaging unit 3, a display unit 4, an operation unit 5, a communication unit 6, and an audio output unit 7. The illumination unit 2 is provided in the housing 21, and the configuration other than the illumination unit 2 (for example, the imaging unit 3, the display unit 4, the operation unit 5, the communication unit 6, and the audio output unit 7) is provided in the housing 22. ing. Although the housing | casing 21 and the housing | casing 22 are connected so that relative rotation is possible, rotation is not necessarily required and one side may be completely fixed to the other. In addition, said illumination part 2 grade | etc., May be provided in the single housing | casing.

照明部2は、撮影対象である生体の器官(ここでは舌)を照明するものであり、撮影対象を上方より照明する照明器で構成されている。照明部2の光源としては、色再現性を向上させるために、例えばキセノンランプなどの昼光色を発光するものを用いている。光源の明るさは、撮像部3の感度や撮影対象までの距離により異なるが、一例としては、撮影対象の照度が1000〜10000lxとなるような明るさを考えることができる。照明部2は、上記の光源の他に、点灯回路や調光回路を有しており、照明制御部11からの指令によって点灯/消灯および調光が制御される。   The illuminating unit 2 illuminates a living organ (here, tongue) that is a subject to be imaged, and includes an illuminator that illuminates the subject to be photographed from above. As the light source of the illuminating unit 2, in order to improve color reproducibility, a light source that emits a daylight color such as a xenon lamp is used. The brightness of the light source varies depending on the sensitivity of the imaging unit 3 and the distance to the shooting target, but as an example, it can be considered that the shooting target has an illuminance of 1000 to 10,000 lx. The illumination unit 2 includes a lighting circuit and a dimming circuit in addition to the above light source, and lighting / extinguishing and dimming are controlled by a command from the illumination control unit 11.

撮像部3は、照明部2による照明下で、健康度を判定する対象者の器官(ここでは舌)を撮影して画像を取得するものであり、撮像レンズとエリアセンサ(撮像素子)とを有している。撮像レンズの絞り(レンズの明るさ)、シャッター速度、焦点距離は、撮影対象の全ての範囲に焦点が合うように設定されている。一例としては、Fナンバー:16、シャッター速度:1/120秒、焦点距離:20mmである。   The imaging unit 3 captures an image of an organ (here, a tongue) of a subject whose health is to be determined under illumination by the illumination unit 2, and acquires an image. An imaging lens and an area sensor (imaging element) Have. The aperture (brightness of the lens), shutter speed, and focal length of the imaging lens are set so that the entire range to be photographed is in focus. As an example, F number: 16, shutter speed: 1/120 seconds, focal length: 20 mm.

エリアセンサは、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)のような撮像素子で構成されており、撮影対象の色および形状を十分に検出できるように、感度や解像度などが設定されている。一例としては、感度:60db、解像度:1000万画素である。   The area sensor is composed of an image sensor such as CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), and the sensitivity and resolution are set so that the color and shape of the subject can be detected sufficiently. Has been. As an example, sensitivity: 60 db, resolution: 10 million pixels.

撮像部3による撮影は、撮像制御部12によって制御されている。また、撮像部3は、撮像レンズやエリアセンサの他にも、不図示のフォーカス機構、絞り機構、駆動回路およびA/D変換回路などを有しており、撮像制御部12からの指令により、フォーカスや絞りの制御、A/D変換などが制御される。撮像部3では、撮影画像のデータとして、赤(R)、緑(G)、青(B)のそれぞれについて、例えば8ビットで0〜255のデータが取得される。すなわち、撮像部3では、異なる色(RGB)のそれぞれについて、撮影対象を撮影した画像が取得され、これによって、各色の画像データが取得される。   Imaging by the imaging unit 3 is controlled by the imaging control unit 12. In addition to the imaging lens and area sensor, the imaging unit 3 includes a focus mechanism (not shown), a diaphragm mechanism, a drive circuit, an A / D conversion circuit, and the like. Focus, aperture control, A / D conversion, and the like are controlled. In the imaging unit 3, for example, data of 0 to 255 in 8 bits is acquired for each of red (R), green (G), and blue (B) as captured image data. That is, the imaging unit 3 acquires images obtained by shooting the shooting target for each of different colors (RGB), and thereby acquires image data of each color.

図3は、撮影対象(舌や顔)に対する照明部2と撮像部3との位置関係を示す説明図である。同図に示すように、撮像部3は、撮影対象に正対して配置されている。照明部2は、撮影対象を通る撮像部3の撮影光軸Xに対して、例えば0°〜45°の角度Aで撮影対象を照明するように配置されている。なお、撮影光軸Xとは、撮像部3が有する撮像レンズの光軸を指す。   FIG. 3 is an explanatory diagram showing a positional relationship between the illumination unit 2 and the imaging unit 3 with respect to a photographing target (tongue or face). As shown in the figure, the imaging unit 3 is arranged to face the subject to be photographed. The illumination unit 2 is arranged so as to illuminate the imaging target at an angle A of, for example, 0 ° to 45 ° with respect to the imaging optical axis X of the imaging unit 3 passing through the imaging target. The imaging optical axis X refers to the optical axis of the imaging lens that the imaging unit 3 has.

照明時の角度Aが大きいと、表面の凹凸の計測精度が向上するが、上唇の影により、舌を撮影できる範囲が小さくなる。逆に、角度Aが小さいと、撮影範囲は拡大されるが、計測精度が低下したり、照明光の正反射による色とびが大きくなる。以上のことを考慮すると、照明時の角度Aの好ましい範囲は、15°〜30°である。   When the angle A at the time of illumination is large, the measurement accuracy of the surface unevenness is improved, but the range in which the tongue can be photographed becomes small due to the shadow of the upper lip. On the contrary, if the angle A is small, the photographing range is enlarged, but the measurement accuracy is lowered, and the color jump due to the regular reflection of the illumination light is increased. Considering the above, a preferable range of the angle A at the time of illumination is 15 ° to 30 °.

表示部4は、不図示の液晶パネル、バックライト、点灯回路および制御回路を有しており、撮像部3での撮影によって取得される画像や、後述する演算部15や特徴量抽出部16にて算出されて出力された情報を表示する。また、表示部4は、通信部6を介して外部から取得した情報(例えば外部の医療機関に情報を送信して診断された結果)を表示することもできる。表示部4における各種の情報の表示は、表示制御部13によって制御されている。   The display unit 4 includes a liquid crystal panel, a backlight, a lighting circuit, and a control circuit (not shown). The display unit 4 includes an image acquired by photographing with the imaging unit 3, an arithmetic unit 15 and a feature amount extraction unit 16 described later. The information calculated and output is displayed. The display unit 4 can also display information acquired from the outside via the communication unit 6 (for example, a result of diagnosis by transmitting information to an external medical institution). Display of various types of information on the display unit 4 is controlled by the display control unit 13.

操作部5は、撮像部3による撮影を指示するための入力部であり、OKボタン(撮影実行ボタン)5aおよびCANCELボタン5bで構成されている。本実施形態では、表示部4および操作部5を、共通のタッチパネル表示装置41で構成し、タッチパネル表示装置41における表示部4の表示領域と操作部5の表示領域とを別々にしている。タッチパネル表示装置41における操作部5の表示は、操作制御部14によって制御される。なお、操作部5は、タッチパネル表示装置41以外の入力部で構成されてもよい(タッチパネル表示装置41の表示領域外の位置に操作部5を設けてもよい)。   The operation unit 5 is an input unit for instructing imaging by the imaging unit 3, and includes an OK button (imaging execution button) 5a and a CANCEL button 5b. In the present embodiment, the display unit 4 and the operation unit 5 are configured by a common touch panel display device 41, and the display area of the display unit 4 and the display area of the operation unit 5 in the touch panel display device 41 are separated. The display of the operation unit 5 on the touch panel display device 41 is controlled by the operation control unit 14. The operation unit 5 may be configured by an input unit other than the touch panel display device 41 (the operation unit 5 may be provided at a position outside the display area of the touch panel display device 41).

通信部6は、撮像部3にて取得された画像のデータや、演算部15および特徴量抽出部16で算出された情報を、通信回線を介して外部に送信したり、外部からの情報を受信するためのインターフェースである。通信部6における情報の送受信は、通信制御部18によって制御されている。   The communication unit 6 transmits the image data acquired by the imaging unit 3 and the information calculated by the calculation unit 15 and the feature amount extraction unit 16 to the outside via the communication line, or receives information from the outside. It is an interface for receiving. Transmission / reception of information in the communication unit 6 is controlled by the communication control unit 18.

音声出力部7は、各種の情報を音声で出力するものであり、例えばスピーカーで構成される。音声で出力される情報には、演算部15や特徴量抽出部16で算出された情報や、外部の装置で診断されて、器官画像撮影装置1に送信された情報(診断結果)が含まれる。音声出力部7における音声出力は、音声出力制御部19によって制御される。   The audio output unit 7 outputs various kinds of information as audio, and is constituted by, for example, a speaker. The information output by voice includes information calculated by the calculation unit 15 and the feature amount extraction unit 16 and information (diagnosis result) transmitted to the organ imaging apparatus 1 after being diagnosed by an external device. . The sound output in the sound output unit 7 is controlled by the sound output control unit 19.

また、器官画像撮影装置1は、さらに、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、演算部15、特徴量抽出部16、記憶部17、通信制御部18、音声出力制御部19およびこれらの各部を制御する全体制御部20を備えている。照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19は、上述したように、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7をそれぞれ制御する。全体制御部20は、例えばCPU(Central Processing Unit)で構成されている。なお、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19と、全体制御部20とは、一体的に(例えば1つのCPUで)構成されてもよい。   In addition, the organ imaging apparatus 1 further includes an illumination control unit 11, an imaging control unit 12, a display control unit 13, an operation control unit 14, a calculation unit 15, a feature amount extraction unit 16, a storage unit 17, a communication control unit 18, An audio output control unit 19 and an overall control unit 20 for controlling these units are provided. As described above, the illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, and the audio output control unit 19 are the illumination unit 2, the imaging unit 3, the display unit 4, and the operation. The unit 5, the communication unit 6, and the audio output unit 7 are controlled. The overall control unit 20 is composed of, for example, a CPU (Central Processing Unit). The illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, the audio output control unit 19, and the overall control unit 20 are integrated (for example, with one CPU). ) May be configured.

演算部15は、撮像部3にて取得された画像から器官の輪郭線を抽出する処理を行う。本実施形態では、演算部15は、撮影画像の輝度エッジ(画像の中で急激に明るさが変化している部分)に基づいて、器官としての舌の輪郭線を抽出する。   The calculation unit 15 performs a process of extracting an organ outline from the image acquired by the imaging unit 3. In the present embodiment, the calculation unit 15 extracts the contour line of the tongue as an organ based on the luminance edge of the photographed image (the part where the brightness is rapidly changed in the image).

輝度エッジの抽出は、例えば図4に示すようなエッジ抽出フィルタを用いて行うことができる。エッジ抽出フィルタは、1次微分をするときに(隣接画素間で画像データの差分をとるときに)、注目画素の近傍の画素に重みを付けるフィルタである。このようなエッジ抽出フィルタを用い、例えば、撮影画像の各画素のGの画像データについて、注目画素と近傍画素とで画像データの差分を取り、その差分値が所定の閾値を超える画素を抽出することで、輝度エッジとなる画素を抽出できる。舌の周囲には、その影に起因する輝度差が存在するため、上記のように輝度エッジとなる画素を抽出することにより、舌の輪郭線を抽出することができる。なお、ここでは、輝度への影響が最も大きいGの画像データを演算に用いているが、RやBの画像データを用いてもよい。   Luminance edge extraction can be performed using an edge extraction filter as shown in FIG. 4, for example. The edge extraction filter is a filter that weights pixels in the vicinity of the target pixel when performing first-order differentiation (when obtaining a difference in image data between adjacent pixels). Using such an edge extraction filter, for example, for the G image data of each pixel of the captured image, the difference between the image data is calculated between the target pixel and the neighboring pixel, and the pixel whose difference value exceeds a predetermined threshold is extracted. Thus, a pixel that becomes a luminance edge can be extracted. Since there is a luminance difference due to the shadow around the tongue, the contour line of the tongue can be extracted by extracting pixels that become luminance edges as described above. Here, although G image data having the greatest influence on the luminance is used for the calculation, R or B image data may be used.

また、演算部15は、撮像部3で取得される画像のデータの度数分布を用いて、撮影画像に含まれる反射成分を除いた色度値(例えばRGBの画像データの値(画素値))を算出する色度値算出部としても機能する。なお、演算部15による色度値の算出の詳細については後述する。   Further, the calculation unit 15 uses the frequency distribution of the image data acquired by the imaging unit 3 to remove chromaticity values (for example, RGB image data values (pixel values)) from which reflection components included in the captured image are removed. It also functions as a chromaticity value calculation unit for calculating. Details of the calculation of the chromaticity value by the calculation unit 15 will be described later.

記憶部17は、撮像部3にて取得した画像のデータ、演算部15で取得したデータ、特徴量抽出部16で算出されたデータ、外部から受信した情報などを記憶したり、上述した各種の制御部を動作させるためのプログラムを記憶するメモリである。   The storage unit 17 stores image data acquired by the imaging unit 3, data acquired by the calculation unit 15, data calculated by the feature amount extraction unit 16, information received from the outside, and the like. It is a memory which memorize | stores the program for operating a control part.

特徴量抽出部16は、演算部15にて算出された、反射成分を除く色度値に基づいて、生体の健康度の診断に用いる特徴量を抽出する。上記の特徴量には、舌の色、苔の色、苔の形(厚さ)などがある。これらの特徴量は、例えば以下のようにして抽出(検出)することができる。   The feature amount extraction unit 16 extracts a feature amount used for diagnosis of the health level of the living body based on the chromaticity value excluding the reflection component calculated by the calculation unit 15. The feature amount includes a tongue color, a moss color, a moss shape (thickness), and the like. These feature amounts can be extracted (detected) as follows, for example.

図5は、舌の撮影画像を示している。以下では、舌の撮影画像において、舌の左右方向の中央で上下方向に帯状に形成される領域を上下方向に並ぶ3つの領域に分けたときに、それぞれの領域を、上部領域A1、中央領域A2、下部領域A3と称することとする。なお、これらの領域は、演算部15で検出される舌の輪郭線で囲まれる領域の左右方向の幅W、上下方向の長さHをもとに、図5に示すサイズで規定されるが、図示したサイズは一例であり、これに限定されるわけではない。   FIG. 5 shows a photographed image of the tongue. In the following, in the photographed image of the tongue, when the region formed in the vertical direction at the center in the left-right direction of the tongue is divided into three regions arranged in the vertical direction, each region is divided into an upper region A1, a central region. These are referred to as A2 and lower region A3. These areas are defined by the size shown in FIG. 5 based on the width W in the horizontal direction and the length H in the vertical direction of the area surrounded by the contour line of the tongue detected by the calculation unit 15. The illustrated size is an example, and the present invention is not limited to this.

舌の色は、血液の色を反映するため、RGBの画像データのうちで、主にR成分またはB成分が増減する。このため、舌の下部領域A3におけるRの比率(R/(R+G+B))またはBの比率(B/(R+G+B))を求めることにより、舌の色を定量化して抽出することができる。上記のRGBのデータとしては、下部領域A3を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   Since the color of the tongue reflects the color of blood, the R component or the B component mainly increases or decreases in the RGB image data. Therefore, by obtaining the ratio of R (R / (R + G + B)) or the ratio of B (B / (R + G + B)) in the lower tongue region A3, the color of the tongue can be quantified and extracted. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the lower region A3 can be used.

なお、舌の色の抽出の際に、舌の下部領域A3の画像データを使用しているのは、以下の理由による。すなわち、漢方医学で用いられている舌診では、舌の色は、一般に、苔の無い舌の左右端部か、舌の中心下部で診断されているが、舌の左右端部は、表面の凹凸により照明光の当たり方が変化して濃淡が発生しやすく、画像データが本来の舌の色を示す値から変動しやすいためである。   The reason why the image data of the lower tongue area A3 is used when extracting the color of the tongue is as follows. That is, in tongue examination used in Kampo medicine, the color of the tongue is generally diagnosed at the left and right ends of the tongue without moss or at the lower center of the tongue, but the left and right ends of the tongue are This is because the way in which the illumination light strikes changes due to the unevenness, so that shading tends to occur, and the image data tends to fluctuate from a value indicating the original tongue color.

苔の色は、角化組織の分量により、白から茶色を呈するため、RGBの画像データのうちで、主にG成分または(G+R)成分が増減する。このため、舌の上部領域A1におけるGの比率(G/(R+G+B))または(G+R)の比率((G+R)/(R+G+B))を求めることにより、苔の色を定量化して抽出することができる。上記のRGBのデータとしては、上部領域A1を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   The moss color changes from white to brown depending on the amount of keratinized tissue, and therefore the G component or (G + R) component mainly increases or decreases in the RGB image data. Therefore, it is possible to quantify and extract the color of moss by determining the ratio of G (G / (R + G + B)) or the ratio of (G + R) ((G + R) / (R + G + B)) in the upper region A1 of the tongue. it can. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the upper region A1 can be used.

なお、苔の色の抽出の際に、舌の上部領域A1の画像データを使用しているのは、苔は、舌粘膜の乳頭組織が角化したものであり、舌の上部から中央にかけて存在し、特に上部に多いためである。   When extracting the color of the moss, the image data of the upper region A1 of the tongue is used because the moss is a keratinized papillary tissue of the lingual mucosa and exists from the upper part of the tongue to the center. This is because there are many at the top.

苔は、厚くなると舌の赤色から苔の白色に変化するため、RGBの画像データのうちで、主にR成分またはG成分が増減する。このため、舌の中央領域A2におけるRの比率(R/(R+G+B))またはGの比率(G/(R+G+B))を求めることにより、苔の厚さを定量化して抽出することができる。上記のRGBのデータとしては、中央領域A2を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   As the moss becomes thicker, the red color of the tongue changes to the white color of the moss, so that the R component or G component mainly increases or decreases in the RGB image data. For this reason, the thickness of moss can be quantified and extracted by obtaining the ratio of R (R / (R + G + B)) or the ratio of G (G / (R + G + B)) in the central region A2 of the tongue. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the central region A2 can be used.

なお、苔の厚さの抽出の際に、舌の中央領域A2の画像データを使用しているのは、苔は上述のように舌の上部に存在し、中央領域A2の色が上部領域A1の色に近いか否かで、苔の厚さを判断できるためである。舌の上部領域A1と中央領域A2との色の差(例えば色度差)と、中央領域A2と下部領域A3との色の差(例えば色度差)との比率を求めることにより、苔の厚さを定量化することもできる。   Note that the image data of the tongue central area A2 is used when extracting the thickness of the moss because the moss exists at the upper part of the tongue as described above, and the color of the central area A2 is the upper area A1. This is because the thickness of the moss can be determined by whether or not the color of the moss is close. By determining the ratio of the color difference (for example, chromaticity difference) between the upper region A1 and the central region A2 of the tongue and the color difference (for example, chromaticity difference) between the central region A2 and the lower region A3, Thickness can also be quantified.

〔色度値の算出について〕
次に、上記した演算部15による色度値の算出方法について説明する。
[Calculation of chromaticity value]
Next, a method for calculating chromaticity values by the above-described calculation unit 15 will be described.

(舌に光沢が少ない場合)
図6は、光沢が少ない舌の撮影画像と、その撮影画像の中央領域A2におけるRGBの度数分布(画素値(画像データ)と度数との関係)とを示している。図6で示した撮影画像では、舌の側部を除いて、舌の表面に光沢による白とびをした領域はなく、中央領域A2におけるRGBの度数分布の形状は、各色とも、比較的に幅の狭い正規分布に近い形状となっている。したがって、演算部15は、度数分布の幅が小さいか否かを、画像データの最大値と最小値との差と閾値との比較によって判断し、度数分布の幅が小さい場合には、光沢が少ないとして、RGBのそれぞれについて画像データの平均値を求め、これを色度値とする。これにより、特徴量抽出部16は、RGBの色度値(画像データ)から上述のように所定の比率を求めて、特徴量(例えば苔の厚さ)を定量化し、抽出することができる。
(If the tongue has less gloss)
FIG. 6 shows the photographed image of the tongue with less gloss and the RGB frequency distribution (the relationship between the pixel value (image data) and the frequency) in the center area A2 of the photographed image. In the photographed image shown in FIG. 6, there is no glossy whiteout area on the surface of the tongue except for the side of the tongue, and the shape of the RGB frequency distribution in the central area A2 is relatively wide for each color. The shape is close to a narrow normal distribution. Therefore, the calculation unit 15 determines whether the width of the frequency distribution is small or not by comparing the difference between the maximum value and the minimum value of the image data and the threshold value. Assuming that there is little, the average value of the image data is obtained for each of RGB, and this is used as the chromaticity value. Thereby, the feature quantity extraction unit 16 can obtain the predetermined ratio from the RGB chromaticity values (image data) as described above, and quantify and extract the feature quantity (for example, the thickness of the moss).

なお、図6では、舌の中央領域A2における度数分布を示したが、撮影画像に光沢による白とびがなければ、上部領域A1および下部領域A3においても、RGBともに、図6と同様に正規分布に近い度数分布が得られる。したがって、演算部15は、上部領域A1および下部領域A3において得られるRGBの度数分布から、RGBのそれぞれについて画像データの平均値を求めて、これを色度値とすることで、特徴量抽出部16は、RGBの色度値から所定の比率を求めて、特徴量(例えば舌の色、苔の色)を定量化し、抽出することができる。   6 shows the frequency distribution in the central area A2 of the tongue. However, if the photographed image does not have overexposure due to gloss, both the RGB in the upper area A1 and the lower area A3 are normal distributions as in FIG. A frequency distribution close to is obtained. Therefore, the calculation unit 15 obtains an average value of the image data for each of RGB from the RGB frequency distribution obtained in the upper region A1 and the lower region A3, and uses this as a chromaticity value, thereby obtaining a feature amount extraction unit. No. 16 can obtain a predetermined ratio from RGB chromaticity values and quantify and extract feature amounts (for example, tongue color, moss color).

(舌に光沢が多い場合)
図7は、光沢が多い舌の撮影画像と、その撮影画像の下部領域A3におけるRGBの度数分布とを示している。また、図8は、光沢が多い舌の撮影画像と、その撮影画像の中央領域A2におけるRGBの度数分布とを示している。図7および図8の撮影画像では、舌全体が湿り気を帯びているため、舌の表面に光沢による白とびが発生している。特に、舌の下部で照明光が反射する部分に白とびが多い。以下、舌の撮影画像において、白とびが発生している領域を、領域Lとする。また、苔が発生している領域を、領域Mとする。なお、領域Mは中央領域A2に含まれているが(図8参照)、下部領域A3には含まれていない(図7参照)。
(If the tongue is glossy)
FIG. 7 shows a photographed image of a glossy tongue and RGB frequency distribution in the lower area A3 of the photographed image. FIG. 8 shows a photographed image of a glossy tongue and RGB frequency distribution in the central area A2 of the photographed image. In the captured images of FIGS. 7 and 8, the entire tongue is moistened, so that the glossy whiteout occurs on the surface of the tongue. In particular, there are many overexposures in the portion of the tongue where the illumination light reflects. Hereinafter, an area where overexposure occurs in a photographed image of the tongue is referred to as an area L. A region where moss is generated is defined as a region M. Note that the region M is included in the central region A2 (see FIG. 8), but is not included in the lower region A3 (see FIG. 7).

図7および図8において、Rの度数分布は、幅の狭い正規分布に近い形状をしているが、BおよびGの度数分布は、正規分布の中央よりも高輝度側が、さらに高輝度側に伸びた形状となっている。これは、BおよびGは、Rに比べて、舌表面の光沢による正反射の影響を受けやすく、正反射による高輝度のデータ(反射成分)が生じるためである。したがって、BおよびGの度数分布において、本来の舌の色は低輝度側に現れるが、正反射した高輝度部のデータにより、BおよびGの色度値(例えば平均値)は、本来の舌の色を示す値よりも大きく計測される。なお、高輝度部のデータは、正反射の多少に応じて変化し、また、舌表面の湿り気具合、舌の出し方や角度により、正反射の度合いは変化する。このように、舌表面に光沢があると、本来の舌の色(色度値)を正確に計測することができないため、RGBの色度値に基づく特徴量の抽出および診断を正確に行うことができなくなる。   7 and 8, the frequency distribution of R has a shape close to a narrow normal distribution, but the frequency distribution of B and G is higher on the higher luminance side than the center of the normal distribution and further on the higher luminance side. It has an elongated shape. This is because B and G are more susceptible to regular reflection due to gloss on the tongue surface than R, and high brightness data (reflection component) is generated due to regular reflection. Therefore, in the frequency distribution of B and G, the original tongue color appears on the low luminance side, but the chromaticity values (for example, average values) of B and G are determined based on the data of the high-reflectance portion that is regularly reflected. It is measured to be larger than the value indicating the color. Note that the data of the high luminance part changes according to the degree of specular reflection, and the degree of specular reflection changes depending on the wetness of the tongue surface, the way the tongue is put out, and the angle. In this way, if the tongue surface is glossy, the original tongue color (chromaticity value) cannot be measured accurately, so that feature amount extraction and diagnosis based on RGB chromaticity values can be performed accurately. Can not be.

また、図9は、舌および苔の分光分布を示している。舌および苔のいずれについても、R(波長600〜700nm)の反射率は高く、舌と苔とで反射率の差はほとんどない。これに対して、舌および苔のいずれについても、B(波長400〜500nm)およびG(波長500〜600nm)の反射率は低く、舌と苔とで反射率に差が生じている。つまり、BおよびGの反射率は、舌よりも苔のほうが高い。このため、苔は舌よりも白く観察され、図10に示すように、BおよびGの度数分布では、舌色を示す分布よりも高輝度側に苔色を示す分布が現れる。なお、BおよびGの度数分布において、苔色を示す分布よりもさらに高輝度側には、上述した正反射に起因するさらに高輝度の分布(反射成分)が現れる。図8で示したBおよびGの度数分布は、図10で示した分布と類似の形状を有していることがわかる。また、図7のBおよびGの度数分布は、下部領域A3の度数分布であり、この下部領域A3には苔の領域Mが含まれていないため、図10で示した分布のうち、苔色を示す分布を除いた部分と類似の形状を有する。   FIG. 9 shows the spectral distribution of the tongue and moss. For both the tongue and moss, the reflectance of R (wavelength 600 to 700 nm) is high, and there is almost no difference in reflectance between the tongue and moss. On the other hand, the reflectance of B (wavelength 400 to 500 nm) and G (wavelength 500 to 600 nm) is low for both the tongue and moss, and there is a difference in reflectance between the tongue and moss. That is, the reflectance of B and G is higher for moss than for the tongue. For this reason, the moss is observed to be whiter than the tongue, and as shown in FIG. 10, in the frequency distribution of B and G, a distribution showing the moss color appears on the higher luminance side than the distribution showing the tongue color. In the frequency distribution of B and G, a higher luminance distribution (reflection component) due to the above-described regular reflection appears on the higher luminance side than the distribution indicating the moss color. It can be seen that the frequency distribution of B and G shown in FIG. 8 has a shape similar to the distribution shown in FIG. Further, the frequency distribution of B and G in FIG. 7 is the frequency distribution of the lower region A3, and the lower region A3 does not include the moss region M. Therefore, among the distributions shown in FIG. It has a shape similar to the part excluding the distribution showing.

以上の点に鑑み、本実施形態では、演算部15は、以下のようにしてRGBの色度値を求める。   In view of the above points, in the present embodiment, the calculation unit 15 obtains RGB chromaticity values as follows.

まず、図11に示すように、演算部15は、度数分布の幅(画像データの最大値と最小値との差)の最も狭い、舌表面での正反射の影響のないRの度数分布(実線参照)を基準の度数分布とし、このRの度数分布の最大高さ(最頻値)H1と半価幅W1とを求め、これを正規分布に当てはめてRの度数分布の形状R1(破線参照)を求める。この度数分布R1は、撮影対象の色分布、照明光の色分布、撮像部3の感度の分布によって決まるが、撮影対象、照明部2および撮像部3が共通しているので、RGBの色ごとの画像データのバラツキ度合いは同じと考えてもよい。つまり、BおよびGの画像データのバラツキは、Rの画像データのバラツキと同じと考えることができる。   First, as shown in FIG. 11, the calculation unit 15 has the frequency distribution of R (the difference between the maximum value and the minimum value of the image data) having the narrowest width and the influence of regular reflection on the tongue surface ( The reference frequency distribution is used as a standard frequency distribution, and the maximum height (mode) H1 and the half-value width W1 of the frequency distribution of R are obtained and applied to the normal distribution to form the shape R1 of the frequency distribution of R (broken line) Request). The frequency distribution R1 is determined by the color distribution of the imaging target, the color distribution of the illumination light, and the sensitivity distribution of the imaging unit 3. However, since the imaging target, the illumination unit 2, and the imaging unit 3 are common, each of the RGB colors is used. The degree of variation in the image data may be considered to be the same. That is, the variation in the B and G image data can be considered to be the same as the variation in the R image data.

そこで、演算部15は、図12および図13に示すように、Rの度数分布の形状R1を拡大または縮小して形状R1の相似形を作成し、この相似形をBおよびGの度数分布にそれぞれ当てはめるフィッティングを行い、BおよびGの色度値を求める。以下、例として、Gの色度値を求める手法を具体的に説明するが、Bの色度値を求める場合も同様である。   Therefore, as shown in FIG. 12 and FIG. 13, the calculation unit 15 enlarges or reduces the shape R1 of the R frequency distribution to create a similar shape of the shape R1, and converts the similar shape into the frequency distribution of B and G. Each fitting is performed to obtain B and G chromaticity values. Hereinafter, as an example, a method for obtaining the chromaticity value of G will be specifically described, but the same applies to the case of obtaining the chromaticity value of B.

演算部15は、図12に示すGの度数分布の最大高さ(最頻値)H2を求め、Rの度数分布の最頻値H1との比率(H2/H1)を求める。そして、演算部15は、上記の比率を、Rの度数分布の半価幅W1に掛け合わせて、Gの度数分布の最頻値H2の半価幅W2を求め、求めた半価幅W2の中心(半価幅W2の左端と右端との中間値)G0と、拡大または縮小したRの度数分布の形状R1の半価幅W1の中心(半価幅W1の左端と右端との中間値)R0とが一致するように、形状R1をGの度数分布に当てはめる。そして、演算部15は、Gの度数分布を、当てはめた形状R1の分布よりも高輝度側の反射領域と、反射領域以外の色度領域とに切り分ける。すなわち、この色度領域が、Gの度数分布から反射領域を除いた領域に相当する。Gの度数分布に苔を示す分布が元々存在しない場合は、この色度領域は舌色のみを示す分布となる。   The calculation unit 15 obtains the maximum height (mode) H2 of the G frequency distribution shown in FIG. 12, and obtains the ratio (H2 / H1) to the mode H1 of the R frequency distribution. Then, the calculation unit 15 multiplies the above-mentioned ratio by the half-value width W1 of the R frequency distribution to obtain the half-value width W2 of the mode H2 of the G frequency distribution, and the calculated half-value width W2 Center (intermediate value between left end and right end of half width W2) G0 and center of half width W1 of enlarged or reduced frequency distribution shape R1 (intermediate value between left end and right end of half width W1) The shape R1 is applied to the frequency distribution of G so that R0 matches. Then, the calculation unit 15 cuts the frequency distribution of G into a reflection area on the higher luminance side than the distribution of the fitted shape R1 and a chromaticity area other than the reflection area. That is, this chromaticity region corresponds to a region obtained by removing the reflection region from the G frequency distribution. When a distribution indicating moss does not originally exist in the frequency distribution of G, this chromaticity region is a distribution indicating only the tongue color.

演算部15は、上記のようにして切り分けた色度領域から、Gの色度値を算出する。このとき、演算部15は、図14に示すように、色度領域の最頻値をとる画素値を、Gの色度値として算出してもよいし、図15に示すように、色度領域の最頻値の半価幅の中心の画素値を、Gの色度値として算出してもよいし、図16に示すように、色度領域における度数の中間値(例えば色度領域の度数(画素)が100個ある場合は低輝度側から50個目の度数の画素値)を、Gの色度値としてもよい。   The computing unit 15 calculates a G chromaticity value from the chromaticity region that has been cut as described above. At this time, the calculation unit 15 may calculate a pixel value taking the mode value of the chromaticity region as shown in FIG. 14 as the G chromaticity value, or as shown in FIG. The pixel value at the center of the half-value width of the mode of the region may be calculated as the G chromaticity value, or as shown in FIG. 16, the intermediate value of the frequency in the chromaticity region (for example, the chromaticity region If there are 100 frequencies (pixels), the 50th frequency pixel value from the low luminance side) may be used as the G chromaticity value.

一方、度数分布の幅が最も狭いRについては、Rの度数分布の全体の領域において、最頻値をとる画素値、最頻値の半価幅の中心の画素値、度数の中間の画素値のいずれかを、Rの色度値とすることができる。   On the other hand, for R having the narrowest frequency distribution width, in the entire region of the frequency distribution of R, the pixel value taking the mode value, the pixel value at the center of the half value width of the mode value, and the pixel value in the middle of the frequency Any of these can be used as the R chromaticity value.

以上では、Rの度数分布の形状R1をGの度数分布に当てはめるフィッティングを行う際に、Gの度数分布の半価幅W2の中心G0と、拡大または縮小したRの度数分布の半価幅W1の中心R0とが一致するようにフィッティングを行っているが、Gの度数分布に、舌色を示す分布と苔色を示す分布とが存在する場合、Gの度数分布の半価幅W2の中心G0と、拡大または縮小したRの度数分布の半価幅W1の中心R0とがずれるようにフィッティングを行ってもよい。   In the above, when fitting the shape R1 of the R frequency distribution to the G frequency distribution, the center G0 of the half width W2 of the G frequency distribution and the half width W1 of the expanded or reduced R frequency distribution Although the fitting is performed so that the center R0 of the G coincides with the distribution of G, if the distribution of the tongue color and the distribution of the moss color exist in the G frequency distribution, the center of the half-value width W2 of the G frequency distribution The fitting may be performed so that G0 and the center R0 of the half-value width W1 of the expanded or reduced frequency distribution of R are shifted.

例えば図17に示すように、半価幅W1の中心R0が半価幅W2の中心G0よりも低輝度側にずれるようにフィッティングを行ってもよい。この場合は、苔色よりも舌色に重点をおいた色度値の算出が可能となり、舌色の検出精度が向上する。つまり、この場合、舌色の寄与が大きくなって、色度値が低輝度側に移動する。逆に、図18に示すように、半価幅W1の中心R0が半価幅W2の中心G0よりも高輝度側にずれるようにフィッティングを行うと、舌色よりも苔色に重点をおいた色度値の算出が可能となり、苔色の検出精度が向上する。つまり、この場合、苔色の寄与が大きくなって、色度値が高輝度側に移動する。   For example, as shown in FIG. 17, the fitting may be performed so that the center R0 of the half width W1 is shifted to the lower luminance side than the center G0 of the half width W2. In this case, it is possible to calculate a chromaticity value that emphasizes the tongue color rather than the moss color, and the detection accuracy of the tongue color is improved. That is, in this case, the contribution of the tongue color increases, and the chromaticity value moves to the low luminance side. On the contrary, as shown in FIG. 18, when fitting is performed such that the center R0 of the half width W1 is shifted to the higher luminance side than the center G0 of the half width W2, the emphasis is on the moss color rather than the tongue color. The chromaticity value can be calculated, and the moss color detection accuracy is improved. In other words, in this case, the contribution of the moss color increases, and the chromaticity value moves to the high luminance side.

〔制御フロー〕
図19は、本実施形態の器官画像撮影装置1における動作の流れを示すフローチャートである。器官画像撮影装置1は、操作部5または不図示の入力部により、撮影指示を受け付けると、照明制御部11は照明部2を点灯させて(S1)、照度等の撮影条件の設定を行う(S2)。撮影条件の設定が終了すると、撮像制御部12は撮像部3を制御して撮影対象である舌を撮影する(S3)。これにより、舌の撮影画像が得られる。
[Control flow]
FIG. 19 is a flowchart showing an operation flow in the organ image photographing apparatus 1 of the present embodiment. When the organ image photographing apparatus 1 receives a photographing instruction from the operation unit 5 or an unillustrated input unit, the illumination control unit 11 turns on the illumination unit 2 (S1) and sets photographing conditions such as illuminance (S1). S2). When the setting of the shooting conditions is completed, the imaging control unit 12 controls the imaging unit 3 to shoot the tongue that is the shooting target (S3). Thereby, a photographed image of the tongue is obtained.

撮影が終了すると、演算部15は、舌の撮影画像から舌の輪郭線を抽出し(S4)、抽出し輪郭線から、舌の上下端および左右端を検出し、特徴量(舌の色、苔の色、苔の厚さ)を検出するための領域(上部領域A1、中央領域A2、下部領域A3)を設定する(S5)。   When the photographing is finished, the calculation unit 15 extracts the contour line of the tongue from the photographed image of the tongue (S4), detects the upper and lower ends and the left and right ends of the tongue from the extracted contour line, and the feature amount (tongue color, Regions (upper region A1, central region A2, lower region A3) for detecting moss color and moss thickness are set (S5).

次に、演算部15は、S5にて設定した少なくともいずれかの領域について、RGBの度数分布を作成し(S6)、上述の手法によって、度数分布から反射成分を除去し、残りの領域(色度領域)の分布からRGBの色度値を算出する(S7)。その後、特徴量抽出部16は、演算部15にて算出されたRGBの色度値を用いて所定の比率を演算して特徴量(舌の色、苔の色、苔の厚さ)を抽出し(S8)、特徴量を例えば3段階に数値化する(S9)。特徴量を数値化した値は、特徴量抽出部16から出力されて表示部4にて表示され、また、記憶部17に記憶されるが、必要に応じて音声出力部7から音声で出力されたり、図示しない出力装置にて記録されたり、通信部6を介して外部に転送される(S10)。また、器官画像撮影装置1では、特徴量を数値化した値に基づいて、対象者の健康度を判断してもよいし、外部装置で判断された結果を器官画像撮影装置1にて表示するようにしてもよい。   Next, the computing unit 15 creates an RGB frequency distribution for at least one of the regions set in S5 (S6), removes the reflection component from the frequency distribution by the above-described method, and then performs the remaining regions (colors). RGB chromaticity values are calculated from the distribution of the degree region) (S7). After that, the feature amount extraction unit 16 calculates a predetermined ratio using the RGB chromaticity values calculated by the calculation unit 15 and extracts feature amounts (tongue color, moss color, moss thickness). In step S9, the feature amount is digitized in, for example, three levels. A value obtained by quantifying the feature value is output from the feature value extraction unit 16 and displayed on the display unit 4 and is also stored in the storage unit 17, but is output from the voice output unit 7 as a voice as necessary. Or recorded by an output device (not shown) or transferred to the outside via the communication unit 6 (S10). Further, the organ image capturing apparatus 1 may determine the health level of the subject based on the value obtained by quantifying the feature amount, and the organ image capturing apparatus 1 displays the result determined by the external device. You may do it.

以上のように、本実施形態では、演算部15が、撮像部3で取得される画像のデータの度数分布を用いて、画像に含まれる反射成分を除いた色度値を算出するので、画像から反射成分を除くにあたって、従来のように大型で特殊な積分球を用いる必要がなくなり、小型、低コストの構成でありながら、反射成分を除く色度値を容易に得ることができる。   As described above, in the present embodiment, the calculation unit 15 uses the frequency distribution of the image data acquired by the imaging unit 3 to calculate the chromaticity value excluding the reflection component included in the image. When removing the reflection component from the lens, it is not necessary to use a large and special integrating sphere as in the prior art, and it is possible to easily obtain a chromaticity value excluding the reflection component while having a small and low-cost configuration.

また、演算部15は、撮影画像の度数分布の幅が最も狭いRについては、Rの度数分布(基準の度数分布)から色度値を算出する。Rは正反射による影響をほとんど受けないため、Rの度数分布から色度値を算出することで、反射成分を除く色度値を得ることができる。一方、演算部15は、Rの度数分布の相似形をBやGの度数分布にフィッティングすることにより、BやGの度数分布を反射領域と色度領域とに切り分け、上記色度領域の分布からBやGの色度値を算出する。GやBについては、度数分布の反射成分を除いた領域(色度領域)から色度値を算出するため、BやGの色度値を正確に得ることができる。   The computing unit 15 calculates a chromaticity value from the frequency distribution of R (reference frequency distribution) for R having the narrowest frequency distribution width of the captured image. Since R is hardly affected by regular reflection, the chromaticity value excluding the reflection component can be obtained by calculating the chromaticity value from the frequency distribution of R. On the other hand, the calculation unit 15 fits the similar shape of the frequency distribution of R to the frequency distribution of B or G, thereby dividing the frequency distribution of B or G into the reflection region and the chromaticity region, and the distribution of the chromaticity region. To calculate B and G chromaticity values. For G and B, since the chromaticity value is calculated from the area (chromaticity area) excluding the reflection component of the frequency distribution, the B and G chromaticity values can be obtained accurately.

さらに、演算部15は、基準となるRの度数分布の形状を、BやGの度数分布との最頻値の比率に応じて拡大または縮小し、拡大または縮小後のRの度数分布の形状を、その最頻値の半価幅の中心がBやGの度数分布の最頻値の半価幅の中心と一致するようにフィッティングするので、精度の高いフィッティングを行うことができる。また、Rの度数分布における画像データのバラツキを、BやGの度数分布に適切に反映させて、BやGの度数分布を、反射成分を含む反射領域と残りの色度領域とに良好に切り分けることができる。   Further, the calculation unit 15 expands or contracts the shape of the R frequency distribution serving as a reference in accordance with the mode ratio with the frequency distribution of B or G, and shapes the R frequency distribution after expansion or reduction. Are fitted so that the center of the half-value width of the mode value coincides with the center of the half-value width of the mode value of the frequency distribution of B or G, so that fitting with high accuracy can be performed. Also, the dispersion of image data in the frequency distribution of R is appropriately reflected in the frequency distribution of B and G, and the frequency distribution of B and G is favorably applied to the reflection region including the reflection component and the remaining chromaticity region. Can be carved.

一方、演算部15は、上述したように、Rの度数分布の半価幅の中心が、BやGの度数分布の半価幅の中心よりも高輝度側または低輝度側にずれるようにフィッティングを行ってもよい。この場合、BやGの度数分布の形状に応じてフィッティングの仕方を変えることができる。これにより、BやGの度数分布の形状に応じて反射領域および色度領域を切り分けて、色度値を算出することが可能となる。   On the other hand, as described above, the arithmetic unit 15 performs fitting so that the center of the half-value width of the R frequency distribution is shifted to the higher luminance side or the lower luminance side than the center of the half value width of the B or G frequency distribution. May be performed. In this case, the fitting method can be changed according to the shape of the frequency distribution of B or G. Accordingly, it is possible to calculate the chromaticity value by separating the reflection region and the chromaticity region according to the shape of the frequency distribution of B or G.

また、演算部15は、度数分布の反射成分を除いた色度領域での最頻値をとる画像データ、上記色度領域での最頻値の半価幅の中心の画像データ、または上記色度領域における度数の中間値の画像データを色度値として算出するので、画像に含まれる反射成分を除いた色度値を確実に得ることができる。特に、最頻値の半価幅の中心の画像データ、または上記色度領域における度数の中間値の画像データを色度値とする場合は、最頻値をとる画像データを色度値とする場合に比べて、度数分布の小さなノイズに対して強く(ノイズの影響を受けにくく)、色度値を安定して得ることができる(ノイズによって変動しにくい色度値を得ることができる)。   Further, the calculation unit 15 is configured to obtain image data having a mode value in the chromaticity region excluding the reflection component of the frequency distribution, image data at the center of the half value width of the mode value in the chromaticity region, or the color. Since the intermediate value image data of the frequency in the degree region is calculated as the chromaticity value, the chromaticity value excluding the reflection component included in the image can be obtained with certainty. In particular, when the image data at the center of the half-value width of the mode value or the image data of the intermediate value of the frequency in the chromaticity region is set as the chromaticity value, the image data taking the mode value is set as the chromaticity value. Compared to the case, it is strong against noise with a small frequency distribution (not easily influenced by noise), and chromaticity values can be stably obtained (chromaticity values that are not easily changed by noise can be obtained).

特徴量抽出部16は、演算部15にて算出された色度値に基づいて、健康度の診断に用いる特徴量を抽出するので、上記色度値に基づく特徴量の抽出を容易にかつ正確に行うことができる。その結果、特徴量に基づく健康度の診断を正確に行うことが可能となる。   Since the feature quantity extraction unit 16 extracts the feature quantity used for the diagnosis of health based on the chromaticity value calculated by the calculation unit 15, the feature quantity extraction based on the chromaticity value can be easily and accurately extracted. Can be done. As a result, it is possible to accurately diagnose the health level based on the feature amount.

また、撮影対象が舌である場合、舌の湿り気が多い症例、照明光が反射しやすい角度で撮影対象に当たるときでも、色度値に基づく特徴量を正確に抽出することができるため、特徴量に基づく診断の精度が向上する。さらに、本実施形態の器官画像撮影装置1は、上述したように小型、低コストの構成であるため、在宅看護やオフィスでの健康管理に用いる装置として好適となる。   In addition, if the subject is a tongue, the feature amount based on the chromaticity value can be accurately extracted even when the tongue is wet, even when the subject hits the subject at an angle at which illumination light easily reflects. The accuracy of diagnosis based on this is improved. Furthermore, since the organ image capturing apparatus 1 of the present embodiment has a small size and a low cost configuration as described above, it is suitable as an apparatus used for home nursing or health management in an office.

上記の特徴量は、舌の色、苔の色、苔の形の少なくともいずれかであるので、これらの特徴量に基づく健康度の診断が可能となり、東洋医学の診断手法に即した診断が可能となる。   The above feature amount is at least one of tongue color, moss color, and moss shape, so it is possible to diagnose the health based on these feature amounts, and to make a diagnosis according to the Oriental medicine diagnosis method It becomes.

〔その他〕
以上では、撮影対象が人間の舌である場合について説明したが、生体(生きているもの)であれば人間でなくてもよく、人間以外の動物であってもよい。例えば、ペットや家畜などの動物の舌であっても、本実施形態の手法を適用して診断項目を正確に検出することが可能である。この場合、意思の伝達ができない動物の体調不良を速やかに、かつ的確に判断することができる。
[Others]
In the above, the case where the subject to be photographed is a human tongue has been described. However, as long as it is a living body (living object), it may not be a human but may be an animal other than a human. For example, even for the tongue of an animal such as a pet or livestock, the diagnostic item can be accurately detected by applying the method of the present embodiment. In this case, it is possible to quickly and accurately determine the poor physical condition of an animal that cannot communicate its intention.

本実施形態では、生体の撮影対象が舌である場合を例として説明したが、例えば、まぶたなど、水分代謝の良否によりむくみが現れ、照明光の当たり方によって正反射が生じるような部位を撮影対象とすることもできる。この場合でも、撮影画像から得られるRGBの画像データの度数分布から、反射成分を除いた色度値を算出して特徴量を抽出することも可能である。   In the present embodiment, the case where the subject to be imaged is a tongue has been described as an example. However, for example, a part such as an eyelid that appears to be swollen due to the quality of moisture metabolism and causes specular reflection depending on how the illumination light hits is taken. It can also be targeted. Even in this case, it is also possible to extract the feature amount by calculating the chromaticity value excluding the reflection component from the frequency distribution of the RGB image data obtained from the photographed image.

また、図20は、人間の体内組織である大腸の内壁31を内視鏡で観察した画像を模式的に示している。消化器官内は消化液が存在するため、内壁31の表面が濡れている。内視鏡は先端が細く、光源とレンズ(撮像部)とが近接配置されているため、撮影対象に対して光源と撮像部とのなす角度が小さくなっている。その結果、消化器官内では正反射が出やすい。図20では、大腸の内壁31に、潰瘍による突起32が現れているが、突起32の部分では正反射が出やすい。このような場合でも、本実施形態で説明した、撮影画像のRGBの度数分布から色度値を求める手法を適用することにより、反射成分を除く色度値を正確に求めることができ、診察の精度を向上させることができる。   FIG. 20 schematically shows an image obtained by observing the inner wall 31 of the large intestine, which is a human body tissue, with an endoscope. Since the digestive juice exists in the digestive organ, the surface of the inner wall 31 is wet. Since an endoscope has a thin tip and a light source and a lens (imaging unit) are arranged close to each other, an angle formed between the light source and the imaging unit with respect to a subject to be photographed is small. As a result, regular reflection tends to occur in the digestive organs. In FIG. 20, a protrusion 32 due to an ulcer appears on the inner wall 31 of the large intestine, but regular reflection tends to occur at the protrusion 32 portion. Even in such a case, by applying the method for obtaining the chromaticity value from the RGB frequency distribution of the photographed image described in the present embodiment, the chromaticity value excluding the reflection component can be obtained accurately, and the examination is performed. Accuracy can be improved.

本発明は、生体に含まれる撮影対象を撮影して色度値を算出する装置に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for an apparatus that captures an imaging target included in a living body and calculates a chromaticity value.

1 器官画像撮影装置(生体色度計測装置)
3 撮像部
15 演算部
16 特徴量抽出部
1. Organ image photographing device (biological chromaticity measuring device)
3 imaging unit 15 calculation unit 16 feature amount extraction unit

Claims (10)

生体に含まれる撮影対象を撮影して画像を取得する撮像部と、
前記撮像部で取得される前記画像のデータの度数分布を用いて、前記画像に含まれる反射成分を除いた色度値を算出する演算部とを備えていることを特徴とする生体色度計測装置。
An imaging unit that captures an image of an imaging target included in a living body and acquires an image;
A biological chromaticity measurement comprising: an arithmetic unit that calculates a chromaticity value excluding a reflection component included in the image using a frequency distribution of the image data acquired by the imaging unit apparatus.
前記撮像部は、異なる色のそれぞれについて前記画像を取得し、
前記演算部は、前記画像の度数分布の幅が最も狭い色については、その色の度数分布から前記色度値を算出するとともに、前記度数分布を基準の度数分布とする一方、他の色については、前記基準の度数分布の相似形を他の色の度数分布にフィッティングすることにより、前記他の色の度数分布を、前記相似形が重なる領域よりも高輝度側に位置する反射領域と、残りの色度領域とに切り分け、前記色度領域の分布から前記色度値を算出することを特徴とする請求項1に記載の生体色度計測装置。
The imaging unit acquires the image for each of different colors,
For the color with the narrowest frequency distribution of the image, the calculation unit calculates the chromaticity value from the frequency distribution of the color, and sets the frequency distribution as a reference frequency distribution, while regarding other colors By fitting the similar shape of the reference frequency distribution to the frequency distribution of the other color, so that the frequency distribution of the other color is reflected on a higher brightness side than the region where the similar shape overlaps; and The living body chromaticity measurement apparatus according to claim 1, wherein the chromaticity value is calculated from a distribution of the chromaticity region by dividing into a remaining chromaticity region.
前記演算部は、前記基準の度数分布の形状を、前記他の色の度数分布との最頻値の比率に応じて拡大または縮小し、拡大または縮小後の前記基準の度数分布の形状を、その最頻値の半価幅の中心が前記他の色の度数分布の最頻値の半価幅の中心と一致するようにフィッティングすることを特徴とする請求項2に記載の生体色度計測装置。   The calculation unit enlarges or reduces the shape of the reference frequency distribution in accordance with the mode ratio with the frequency distribution of the other color, and forms the shape of the reference frequency distribution after the enlargement or reduction, The biochromaticity measurement according to claim 2, wherein fitting is performed so that the center of the half-value width of the mode value coincides with the center of the half-value width of the mode value of the other color. apparatus. 前記演算部は、前記基準の度数分布の形状を、前記他の色の度数分布との最頻値の比率に応じて拡大または縮小し、拡大または縮小後の前記基準の度数分布の形状を、その最頻値の半価幅の中心が前記他の色の度数分布の最頻値の半価幅の中心よりも低輝度側または高輝度側にずれるようにフィッティングすることを特徴とする請求項2に記載の生体色度計測装置。   The calculation unit enlarges or reduces the shape of the reference frequency distribution in accordance with the mode ratio with the frequency distribution of the other color, and forms the shape of the reference frequency distribution after the enlargement or reduction, The center of the half value width of the mode value is fitted so as to be shifted to the lower luminance side or the higher luminance side than the center of the half value width of the mode value of the frequency distribution of the other color. 2. The biological chromaticity measuring device according to 2. 前記基準の度数分布は、赤色の度数分布であることを特徴とする請求項2から4のいずれかに記載の生体色度計測装置。   5. The biological chromaticity measuring apparatus according to claim 2, wherein the reference frequency distribution is a red frequency distribution. 前記演算部は、前記度数分布の反射成分を除いた領域での最頻値をとる画像データを、前記色度値として算出することを特徴とする請求項1から5のいずれかに記載の生体色度計測装置。   The living body according to claim 1, wherein the calculation unit calculates, as the chromaticity value, image data having a mode value in a region excluding the reflection component of the frequency distribution. Chromaticity measuring device. 前記演算部は、前記度数分布の反射成分を除いた領域での最頻値の半価幅の中心の画像データを、前記色度値として算出することを特徴とする請求項1から5のいずれかに記載の生体色度計測装置。   6. The calculation unit according to claim 1, wherein the arithmetic unit calculates, as the chromaticity value, image data at a center of a half value width of a mode value in a region excluding the reflection component of the frequency distribution. The biological chromaticity measuring device according to claim 1. 前記演算部は、前記度数分布の反射成分を除いた領域における度数の中間値の画像データを、前記色度値として算出することを特徴とする請求項1から5のいずれかに記載の生体色度計測装置。   6. The biological color according to claim 1, wherein the calculation unit calculates, as the chromaticity value, image data of an intermediate frequency value in a region excluding the reflection component of the frequency distribution. Degree measuring device. 前記演算部にて算出された前記色度値に基づいて、生体の健康度の診断に用いる特徴量を抽出する特徴量抽出部をさらに備えていることを特徴とする請求項1から8の何れかに記載の生体色度計測装置。   9. The method according to claim 1, further comprising a feature amount extraction unit that extracts a feature amount used for diagnosis of a health level of a living body based on the chromaticity value calculated by the calculation unit. The biological chromaticity measuring device according to claim 1. 前記特徴量は、舌の色、苔の色、苔の形の少なくともいずれかであることを特徴とする請求項9に記載の生体色度計測装置。   The biological chromaticity measuring apparatus according to claim 9, wherein the feature amount is at least one of a tongue color, a moss color, and a moss shape.
JP2014112893A 2014-05-30 2014-05-30 Apparatus for measuring chromaticity of living body Pending JP2015226599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112893A JP2015226599A (en) 2014-05-30 2014-05-30 Apparatus for measuring chromaticity of living body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112893A JP2015226599A (en) 2014-05-30 2014-05-30 Apparatus for measuring chromaticity of living body

Publications (1)

Publication Number Publication Date
JP2015226599A true JP2015226599A (en) 2015-12-17

Family

ID=54884540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112893A Pending JP2015226599A (en) 2014-05-30 2014-05-30 Apparatus for measuring chromaticity of living body

Country Status (1)

Country Link
JP (1) JP2015226599A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011736A (en) * 2016-07-20 2018-01-25 国立大学法人千葉大学 Tongue coat amount estimation system and tongue coat amount estimation method
JP7465399B1 (en) 2023-08-02 2024-04-10 株式会社エクサウィザーズ Tongue evaluation method, tongue evaluation system, and tongue evaluation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011736A (en) * 2016-07-20 2018-01-25 国立大学法人千葉大学 Tongue coat amount estimation system and tongue coat amount estimation method
JP7465399B1 (en) 2023-08-02 2024-04-10 株式会社エクサウィザーズ Tongue evaluation method, tongue evaluation system, and tongue evaluation program

Similar Documents

Publication Publication Date Title
WO2015114950A1 (en) Organ image capturing device
WO2016076059A1 (en) Organ image capture device and program
WO2015029537A1 (en) Organ imaging apparatus
EP3366191B1 (en) Endoscope system
WO2016067892A1 (en) Degree-of-health outputting device, degree-of-health outputting system, and program
JP5800119B1 (en) Health level determination device and health level determination system
CN112469323B (en) Endoscope system
KR20200070062A (en) System and method for detecting lesion in capsule endoscopic image using artificial neural network
WO2022037397A1 (en) Endoscope system and method for detecting when tail end of endoscope comes into contact with tissue
JPWO2020170791A1 (en) Medical image processing equipment and methods
JP6774552B2 (en) Processor device, endoscopic system and how to operate the processor device
JP2006223376A (en) Medical image processing apparatus
JP2006149679A (en) Method, device and program for determining degree of health
WO2015049936A1 (en) Organ imaging apparatus
JP2016150024A (en) Organ imaging device
WO2015068494A1 (en) Organ image capturing device
JP2015226599A (en) Apparatus for measuring chromaticity of living body
WO2015060070A1 (en) Organ image capture device
WO2015156039A1 (en) Organ imaging apparatus
JP2016198140A (en) Organ image capturing device
JP2016168303A (en) Organ photographing apparatus
JP2016151584A (en) Organ image capturing device
WO2015068495A1 (en) Organ image capturing device
WO2022230563A1 (en) Endoscope system and operation method for same
JP2016198141A (en) Organ image capturing device