WO2015166692A1 - 健康度判定装置および健康度判定システム - Google Patents

健康度判定装置および健康度判定システム Download PDF

Info

Publication number
WO2015166692A1
WO2015166692A1 PCT/JP2015/054703 JP2015054703W WO2015166692A1 WO 2015166692 A1 WO2015166692 A1 WO 2015166692A1 JP 2015054703 W JP2015054703 W JP 2015054703W WO 2015166692 A1 WO2015166692 A1 WO 2015166692A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
distribution
feature amount
unit
determination
Prior art date
Application number
PCT/JP2015/054703
Other languages
English (en)
French (fr)
Inventor
松田 伸也
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to EP15785990.1A priority Critical patent/EP3139339A1/en
Priority to JP2015530180A priority patent/JP5800119B1/ja
Priority to CN201580022577.5A priority patent/CN106462926A/zh
Priority to US15/307,737 priority patent/US20170112429A1/en
Publication of WO2015166692A1 publication Critical patent/WO2015166692A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4552Evaluating soft tissue within the mouth, e.g. gums or tongue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to a health level determination device and a health level determination system for determining the health level of a subject.
  • Patent Document 1 proposes a system that comprehensively performs health degree determination using the Mahalanobis distance.
  • Japanese Patent No. 4487535 see claim 1, paragraphs [0006], [0018], [0096], etc.
  • Japanese Patent No. 4649965 see claim 1, paragraph [0008] etc.
  • the present invention has been made to solve the above problems, and its purpose is to accurately determine the health level (physical condition) while reducing the influence of the constitutional bias, and to improve the constitutional bias.
  • An object of the present invention is to provide a health level determination device and a health level determination system that can be easily confirmed.
  • a health degree determination apparatus is a health degree determination apparatus that determines a subject's health degree, and is input from a feature amount that is extracted from a captured image of an organ of the subject person and used for the health degree determination.
  • a determination unit that determines a bias in the constitution and a change in the physical condition of the subject, and when the determination unit determines the bias in the subject's constitution, the distribution of the feature quantity of the population targets another person
  • the change in the physical condition of the subject is determined using the distribution of the feature quantity of the other person created as the characteristics of the subject person collected within the evaluation period for evaluating the physical condition as the distribution of the feature quantity of the population Use quantity distribution.
  • the health degree can be accurately determined while reducing the influence of the constitutional bias, and the improvement effect of the constitutional bias can be easily confirmed.
  • the numerical value range includes the values of the lower limit A and the upper limit B.
  • FIG. 1 is an explanatory diagram illustrating a schematic configuration of a health degree determination system 50 according to the present embodiment.
  • the health degree determination system 50 includes an organ image capturing device 1 and a terminal device 51.
  • the organ image capturing apparatus 1 captures an organ of a living body and extracts (detects) information (features, diagnosis items) necessary for health diagnosis, and is configured by, for example, a multifunctional portable information terminal. Yes.
  • the terminal device 51 determines the health level of the living body based on the information acquired by the organ imaging device 1, and is configured by a personal computer or the like.
  • the organ image capturing apparatus 1 and the terminal apparatus 51 are communicably connected via a communication line.
  • the communication line may be wired or wireless.
  • the organ image capturing apparatus 1 may have at least a part of the functions of the terminal device 51, or conversely, the terminal apparatus 51 may have at least a part of the functions of the organ image capturing apparatus 1.
  • details of the organ image photographing apparatus 1 and the terminal device 51 will be described. In the following, a case where the living body is a human and the organ is a tongue will be described as an example.
  • FIG. 2 is a perspective view showing an appearance of the organ image photographing apparatus 1 of the present embodiment
  • FIG. 3 is a block diagram showing a schematic configuration of the organ image photographing apparatus 1.
  • the organ imaging apparatus 1 includes an illumination unit 2, an imaging unit 3, a display unit 4, an operation unit 5, a communication unit 6, and an audio output unit 7.
  • the illumination unit 2 is provided in the housing 21, and the configuration other than the illumination unit 2 (for example, the imaging unit 3, the display unit 4, the operation unit 5, the communication unit 6, and the audio output unit 7) is provided in the housing 22.
  • casing 22 are connected so that relative rotation is possible, rotation is not necessarily required and one side may be completely fixed to the other.
  • etc., May be provided in the single housing
  • the illuminating unit 2 illuminates a living organ (herein, tongue) that is a subject to be imaged, and is configured by an illuminator that illuminates the subject to be photographed from above.
  • a light source of the illuminating unit 2 in order to improve color reproducibility, a light source that emits a daylight color such as a xenon lamp is used.
  • the brightness of the light source varies depending on the sensitivity of the imaging unit 3 and the distance to the shooting target. As an example, it is possible to consider the brightness at which the illuminance of the shooting target is 1000 to 10000 lx.
  • the illumination unit 2 includes a lighting circuit and a dimming circuit in addition to the above light source, and lighting / extinguishing and dimming are controlled by a command from the illumination control unit 11.
  • the imaging unit 3 captures an image of an organ (here, a tongue) of a subject whose health is to be determined under illumination by the illumination unit 2, and acquires an image.
  • An imaging lens and an area sensor (imaging element) Have.
  • the aperture (brightness of the lens), shutter speed, and focal length of the imaging lens are set so that the entire range to be photographed is in focus. As an example, F number: 16, shutter speed: 1/120 seconds, focal length: 20 mm.
  • the area sensor is composed of image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor), and the sensitivity and resolution are set so that the color and shape of the subject can be detected sufficiently.
  • image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor)
  • sensitivity and resolution are set so that the color and shape of the subject can be detected sufficiently.
  • sensitivity 60 db
  • resolution 10 million pixels.
  • Imaging by the imaging unit 3 is controlled by the imaging control unit 12.
  • the imaging unit 3 includes a focus mechanism (not shown), a diaphragm mechanism, a drive circuit, an A / D conversion circuit, and the like. Focus, aperture control, A / D conversion, and the like are controlled.
  • the imaging unit 3 acquires, for example, data of 0 to 255 in 8 bits for each of red (R), green (G), and blue (B) as captured image data.
  • FIG. 4 is an explanatory diagram showing the positional relationship between the illumination unit 2 and the imaging unit 3 with respect to the imaging target (tongue or face).
  • the imaging unit 3 is arranged to face the subject to be photographed.
  • the illumination unit 2 is arranged so as to illuminate the imaging target at an angle A of, for example, 0 ° to 45 ° with respect to the imaging optical axis X of the imaging unit 3 passing through the imaging target.
  • the imaging optical axis X refers to the optical axis of the imaging lens that the imaging unit 3 has.
  • the preferable range of the angle A at the time of illumination is 15 ° to 30 °.
  • the display unit 4 includes a liquid crystal panel (not shown), a backlight, a lighting circuit, and a control circuit, and is calculated by an image acquired by photographing with the imaging unit 3 or a feature amount extraction unit 16 described later. Display the output information. In addition, the display unit 4 displays items necessary for an inquiry to be described later, or displays information acquired from the outside via the communication unit 6 (for example, results of diagnosis by transmitting information to an external medical institution). You can also. Display of various types of information on the display unit 4 is controlled by the display control unit 13.
  • the operation unit 5 is an input unit for instructing imaging by the imaging unit 3, and includes an OK button (imaging execution button) 5a and a CANCEL button 5b.
  • the display unit 4 and the operation unit 5 are configured by a common touch panel display device 41, and the display area of the display unit 4 and the display area of the operation unit 5 in the touch panel display device 41 are separated.
  • the display of the operation unit 5 on the touch panel display device 41 is controlled by the operation control unit 14.
  • the operation unit 5 may be configured by an input unit other than the touch panel display device 41 (the operation unit 5 may be provided at a position outside the display area of the touch panel display device 41).
  • the operation unit 5 also functions as an information input unit for responding to items necessary for the inquiry displayed on the display unit 4.
  • the display unit 4 and the operation unit 5 are configured by the touch panel display device 41 as described above, the display unit 4 displays the above items and the keys necessary for the operator to respond (for example, numeric keys, shift keys, OK). By displaying a button or the like, the operator can input necessary information via the displayed key. Therefore, in this case, the display unit 4 also functions as the information input unit of the operation unit 5.
  • the communication unit 6 transmits the image data acquired by the imaging unit 3 and the information calculated and output by the feature amount extraction unit 16 described later to the outside via the communication line, or information from the outside It is an interface for receiving.
  • the communication unit 6 constitutes a transmission unit that transmits information on the feature amount of the subject extracted by the feature amount extraction unit 16 to the terminal device 51. Transmission / reception of information in the communication unit 6 is controlled by the communication control unit 18.
  • the audio output unit 7 outputs various types of information as audio, and is composed of, for example, a speaker.
  • the information output by voice includes a result determined by a determination unit 53 (see FIG. 16) described later of the terminal device 51.
  • the sound output in the sound output unit 7 is controlled by the sound output control unit 19.
  • the organ image capturing apparatus 1 further includes an illumination control unit 11, an imaging control unit 12, a display control unit 13, an operation control unit 14, an image processing unit 15, a feature amount extraction unit 16, a storage unit 17, and a communication control unit 18. And an audio output control unit 19 and an overall control unit 20 for controlling each of these units.
  • the illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, and the audio output control unit 19 are the illumination unit 2, the imaging unit 3, the display unit 4, and the operation.
  • the unit 5, the communication unit 6, and the audio output unit 7 are controlled.
  • the overall control unit 20 is composed of, for example, a CPU (Central Processing Unit).
  • the illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, the audio output control unit 19, and the overall control unit 20 are integrated (for example, with one CPU). ) May be configured.
  • the image processing unit 15 performs a process of extracting an organ outline from the image acquired by the imaging unit 3.
  • the image processing unit 15 extracts the contour line of the tongue as an organ based on the luminance edge of the photographed image (the part where the brightness has suddenly changed in the image).
  • Luminance edge extraction can be performed using an edge extraction filter as shown in FIG. 5, for example.
  • the edge extraction filter is a filter that weights pixels in the vicinity of the target pixel when performing first-order differentiation (when obtaining a difference in image data between adjacent pixels).
  • the edge extraction filter for example, for the G image data of each pixel of the captured image, the difference between the image data is calculated between the target pixel and the neighboring pixel, and the pixel whose difference value exceeds a predetermined threshold is extracted.
  • a pixel that becomes a luminance edge can be extracted. Since there is a luminance difference due to the shadow around the tongue, the contour line of the tongue can be extracted by extracting pixels that become luminance edges as described above.
  • G image data having the greatest influence on the luminance is used for the calculation, R or B image data may be used.
  • the storage unit 17 stores image data acquired by the imaging unit 3, data acquired by the image processing unit 15, data calculated by the feature amount extraction unit 16, information received from the outside, and the like described above. It is a memory which memorize
  • the feature amount extraction unit 16 extracts feature amounts used for determination of health from the image data acquired by the imaging unit 3. Examples of the feature amount include tongue color, moss color, moss shape (thickness), tooth marks, dampness (glossiness), fissure (crack), and tongue shape (thickness). These feature amounts can be extracted (detected) as follows, for example.
  • FIG. 6 shows a photographed image of the tongue.
  • the photographed image of the tongue when the region formed in the vertical direction at the center in the left-right direction of the tongue is divided into three regions arranged in the vertical direction, each region is divided into the upper region R1, the central region. These are referred to as R2 and lower region R3.
  • R2 and lower region R3 These areas are defined by the size shown in FIG. 6 based on the width W in the horizontal direction and the length H in the vertical direction of the area surrounded by the contour of the tongue detected by the image processing unit 15.
  • the illustrated size is an example, and the present invention is not limited to this.
  • the tongue color reflects the color of blood, and therefore the R component or B component mainly increases or decreases in the RGB image data. Therefore, by obtaining the ratio of R (R / (R + G + B)) or the ratio of B (B / (R + G + B)) in the lower tongue region R3, the color of the tongue can be quantified and extracted.
  • the RGB data an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the lower region R3 can be used. .
  • the reason why the image data of the lower tongue region R3 is used when extracting the tongue color is as follows. That is, in tongue examination used in Kampo medicine, the color of the tongue is generally diagnosed at the left and right ends of the tongue without moss or at the lower center of the tongue, but the left and right ends of the tongue are This is because the way in which the illumination light strikes changes due to the unevenness, so that shading tends to occur, and the image data tends to fluctuate from a value indicating the original tongue color.
  • the G component or (G + R) component mainly increases or decreases in the RGB image data. Therefore, it is possible to quantify and extract the color of moss by determining the ratio of G (G / (R + G + B)) or the ratio of (G + R) ((G + R) / (R + G + B)) in the upper region R1 of the tongue. it can.
  • the RGB data an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the upper region R1 can be used. .
  • the image data of the upper region R1 of the tongue is used because the moss is a keratinized papillary tissue of the lingual mucosa and exists from the upper part of the tongue to the center. This is because there are many in the upper part.
  • the thickness of moss can be quantified and extracted by determining the ratio of R (R / (R + G + B)) or the ratio of G (G / (R + G + B)) in the central region R2 of the tongue.
  • R R / (R + G + B)
  • G G / (R + G + B)
  • the RGB data an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the central region R2 can be used. .
  • the image data of the tongue central region R2 is used when extracting the thickness of the moss because the moss exists at the upper part of the tongue as described above, and the color of the central region R2 is the upper region R1. This is because the thickness of the moss can be determined by whether or not the color of the moss is close.
  • the thickness of moss can also be quantified.
  • the feature amount extraction unit 16 approximates the contour line of the tongue obtained by the image processing unit 15 with an approximate curve, detects irregularities (smoothness) of the contour line based on the degree of correlation between the contour line and the approximate curve, As a result, the tooth mark on the tongue is detected. Since the approximate curve is a smooth curve without fine irregularities, it can be said that the closer the contour line is to the approximate curve, the smoother and less the tooth trace. That is, the higher the degree of correlation between the contour line and the approximate curve, the fewer the tooth traces, and the lower the degree of correlation, the more tooth traces.
  • the state of the tooth trace is intermediate (level 2) between mild and severe.
  • first to third indices can be used as indices representing the degree of correlation between the two.
  • a first index representing the degree of correlation is a determination coefficient R 2 represented by the following equation.
  • R 2 1 ⁇ ⁇ ( ⁇ (yi ⁇ fi) 2 ) / ( ⁇ (yi ⁇ Y) 2 ) ⁇
  • i On the xy plane, let j be the x coordinate of one end of the contour line or approximate curve, Any value from j to k when the x-coordinate of the other end is set to k.
  • i, j, and k are all integers, j ⁇ k, and j ⁇ i ⁇ k.
  • ⁇ (yi ⁇ fi) 2 indicates the sum of (yi ⁇ fi) 2 when i is changed from j to k, and ⁇ (yi ⁇ Y) 2 changes i from j to k. Is the sum of (yi-Y) 2 .
  • Figure 7 shows the tongue contour lines (see the solid line) and the approximate curve (see the broken line), and the polynomial representing the approximate curve, and a coefficient of determination R 2.
  • the approximate curve is obtained by the least square method and is expressed by the following polynomial.
  • the determination coefficient R 2 at this time is 0.9942.
  • the notation “E ⁇ n” indicates ⁇ 10 ⁇ n .
  • y 5 ⁇ 10 ⁇ 7 ⁇ x 4 + 6 ⁇ 10 ⁇ 6 ⁇ x 3 + 2 ⁇ 10 ⁇ 3 ⁇ x 2 + 6.29 ⁇ 10 ⁇ 2 ⁇ x + 21.213
  • the difference between the contour line and the approximate curve is determined by the determination coefficient R even in the portion A where the tooth trace is severe (the contour contour is large) and in the portion B where the tooth trace is mild (the contour contour is small). Reflected in 2 . Therefore, if a method of detecting a tooth trace based on the determination coefficient R 2 is used, even if the tooth trace is only a slight tooth trace, the light tooth trace is detected based on the determination coefficient R 2. This makes it possible to improve the detection accuracy of tooth marks.
  • the second index representing the degree of correlation is a value obtained based on the difference in the coordinate value (y coordinate) between the contour line and the approximate curve, and is the maximum value of
  • FIG. 8 is a graph in which the difference (
  • is larger in the part A where the tooth mark is severe and in the part B where the tooth mark is mild than in the part without the tooth mark. Therefore, even if the tooth mark is only a slight tooth mark, it is possible to detect a light tooth mark based on that value by detecting the maximum value of
  • i, j, and k are all integers, j ⁇ k, and j ⁇ i ⁇ k. Further, ⁇
  • FIG. 9 shows a photographed image of the tongue and a sectional shape of the tongue.
  • the tongue is projected forward from the oral cavity. Since the surface of the protruding upper lip side of the tongue is photographed by the imaging unit 3, the tongue is curved so that the upper lip side surface is convex toward the imaging unit 3 (see the CC ′ cross section).
  • the tongue may be defined in a specification or manual so that the tongue is guided to an appropriate photographing position.
  • both the center and left and right ends of the tongue are recessed and curved in an M shape (see section D-D ').
  • Such a cross-sectional shape is substantially the same from the upper part to the lower part of the tongue.
  • the central part E of the tongue may have a crack pattern. Therefore, in this embodiment, the angle A at the time of illumination is set to 15 degrees, and the remaining area on the upper half of the tongue and avoiding the center and both ends in the left-right direction is suitable for detecting the glossiness. It is set as a detection area.
  • the feature amount extraction unit 16 detects the upper and lower ends and left and right ends of the tongue from the contour line of the tongue detected by the image processing unit 15, and the vertical length H and the left and right widths of the tongue. G is detected, and glossiness detection areas R4 and R5 are set based on the contour line of the tongue so that the positional relationship shown in FIG. 10 is detected.
  • FIG. 11 is a graph showing the spectral distribution of the tongue. Since the tongue has a mucosal structure and no epidermis, the color of the blood appears as the color of the tongue. Blood has a large amount of R component (wavelength 600 nm to 700 nm) and a small amount of B component (wavelength 500 nm or less). Further, when the color of the tongue is light, the ratio of the R component decreases, and when it is dark, the ratio of the R component increases.
  • moss is formed of keratinized papillae cells and exhibits a white to yellow color. And when the moss is thin, the base tongue color appears, so the ratio of the R component increases as shown in the figure, and when the moss is white and dark, the G component (wavelength 500 nm to 600 nm) The ratio goes up.
  • the glossiness of the tongue surface is detected as follows based on the B image data obtained from the photographed image of the tongue.
  • the feature amount extraction unit 16 extracts B image data from each pixel in the detection regions R4 and R5 of the photographed image, and creates a frequency distribution thereof.
  • FIG. 12 schematically shows the frequency distribution of the extracted B image data.
  • the horizontal axis indicates the B pixel value (image data)
  • the vertical axis indicates the frequency (number of pixels).
  • the pixel value is a value from 1 to 100, and the larger the pixel value, the brighter the pixel value.
  • a function that continuously indicates the frequency change may be obtained and smoothed to remove the noise, and then the pixel value Dp corresponding to the maximum frequency Np may be obtained.
  • the number of upper pixels may be obtained by integrating the smoothed function over a predetermined interval.
  • the frequency distribution of the B image data is only a distribution close to the normal distribution (first group G1) when there is no regular reflection on the surface of the tongue at the time of photographing, but when there is a regular reflection, the first distribution is first.
  • a distribution (second group G2) having a large frequency on the high pixel value side is added to the group G1.
  • the width of the first group G1 (the width from the minimum pixel value to the maximum pixel value of the first group G1) is This is narrower than the frequency distribution (normal distribution) of other R and G image data.
  • the boundary between the first group G1 and the second group G2 is the value of the image data (pixel value Dp) and the image where the frequency is maximum. It clearly appears between the maximum value of data (pixel value Dm), and the first group G1 and the second group G2 can be easily identified.
  • the feature amount extraction unit 16 sets a threshold value M larger than the pixel value Dp, and obtains the sum of the frequencies between the threshold value M and the pixel value Dm as the number of upper pixels, whereby the second group G2 A value close to the sum of the frequencies is obtained.
  • the sum of the frequencies between the threshold value M and the pixel value Dm is obtained as the upper pixel number.
  • the feature quantity extraction unit 16 can detect the glossiness by quantifying the glossiness from, for example, level 1 (high glossiness) to level 3 (low glossiness) based on the number of upper pixels.
  • FIG. 13 shows a photographed image of a tongue having a crack on the surface.
  • the imaging unit 3 captures the surface of the protruding upper lip side of the tongue.
  • the upper and lower and right and left central portions (regions including the center in the vertical and horizontal directions) of the photographed image are suitable for crack detection. Is set as a detection area.
  • the feature amount extraction unit 16 detects the upper and lower ends and left and right ends of the tongue from the contour line of the tongue extracted by the image processing unit 15, and the vertical length (vertical dimension) H of the tongue and The left and right widths (lateral dimensions) W are detected, and the center area of the tongue of the vertical H / 4 and the horizontal W / 4, which is determined by the dimensional relationship shown in FIG.
  • the base of the tongue appears more than when there is no crack, so the range of values that can be taken by the image data of the pixels that make up the base is expanded for both RGB. For this reason, when the frequency distribution of the image data of the captured image is created, the width of the frequency distribution is widened.
  • the width of the frequency distribution is remarkably widened for R and B contained in a large amount of blood color compared to the case where there is no crack. It is known that such a tendency appears regardless of the thickness of the moss on the tongue surface and the length of the crack.
  • the feature amount extraction unit 16 creates a frequency distribution of, for example, B image data from the photographed image of the tongue (particularly, the image of the detection region D described above) and shows the spread of the frequency distribution.
  • a standard deviation ⁇ indicating variation in image data is obtained by calculation.
  • the standard deviation ⁇ is a positive square root of the variance ⁇ 2 represented by the following equation when the value of the image data takes N values x 1 , x 2 ,.
  • FIG. 14 schematically shows the frequency distribution of the B image data created by the feature amount extraction unit 16.
  • the upper frequency distribution shows a case where there is no crack on the tongue surface
  • the lower frequency distribution shows the tongue distribution.
  • the case where there is a crack on the surface is shown.
  • the horizontal axis of these frequency distributions indicates the B pixel value (image data)
  • the vertical axis indicates the frequency (number of pixels).
  • the pixel value is a value from 0 to 255, and the larger the pixel value, the brighter the pixel value.
  • the feature quantity extraction unit 16 can detect the cracks numerically from, for example, level 1 (crack many) to level 3 (crack few) based on the standard deviation of the frequency distribution.
  • the crack is detected using the frequency distribution of the B image data, but the crack can be detected using the frequency distribution of other R and G image data.
  • FIG. 15 is a distribution of image data obtained when the surface of the tongue is imaged by the imaging unit 4 under illumination by the illuminating unit 2, and the captured image in the horizontal direction passing through a substantially vertical center of the tongue surface.
  • the distribution of RGB image data is shown. However, the upper distribution is for the case where the tongue is thin, and the lower distribution is for the case where the tongue is thick.
  • the solid line indicates the distribution of R image data, the alternate long and short dash line indicates the distribution of G image data, and the broken line indicates the distribution of B image data.
  • the tongue When the tongue is thick, the tongue includes a portion that protrudes upward from its end to the center. Since such a convex portion on the tongue surface is brightly illuminated as it approaches the illumination unit 2, the value of the image data increases in the portion corresponding to the convex portion in the photographed image of the tongue. Conversely, when the tongue is thin, the surface of the tongue includes a portion that is substantially flat from the end to the center or concave downward. Since the flat part and recessed part of the tongue surface move away from the illumination part 2 compared with said convex part, even if illuminated, it is darker than a convex part. For this reason, in the photographed image of the tongue, the value of the image data decreases in the portion corresponding to the flat portion or the concave portion on the surface compared to the portion corresponding to the convex portion. This tendency is the same for all RGB image data.
  • the feature amount extraction unit 16 determines whether the tongue is based on the unevenness of the horizontal image data distribution (monochromatic distribution) of one of the RGB colors in the captured image of the tongue obtained under illumination of the illumination unit 2. Thickness or thinness can be detected. That is, the horizontal distribution of RGB image data included in the photographed image of the tongue is used as a data distribution indicating the degree of unevenness on the tongue surface, and the degree of unevenness is set to level 1 (thick tongue), for example. By quantifying to level 5 (thin tongue is thin), tongue thickness can be detected accurately (regardless of the outer shape of the tongue).
  • the degree of unevenness of the data distribution is calculated by, for example, calculating an approximate curve (for example, a quadratic equation) approximating the center of the data distribution by the least square method, etc., and looking at the quadratic coefficient of the approximate curve and its absolute value. Can be determined. Incidentally, if the quadratic coefficient of the approximate curve is positive, it is a concave shape, and if it is negative, it is a convex shape.
  • an approximate curve for example, a quadratic equation
  • the distribution of the image data the distribution of data indicating the R component ratio (R / (R + G + B)), the G component ratio (G / (R + G + B)), and the B component ratio (B / (R + G + B)). Even if it is used, the tongue thickness can be detected with high accuracy as described above.
  • Patent Document 1 The method described in Patent Document 1 may be used to extract feature quantities such as the shape of the tongue, tooth marks, and crests. Further, as described in Patent Document 2, the captured image of the tongue may be divided into a plurality of regions, and RGB data may be read for each region to extract the feature amount.
  • FIG. 16 is a block diagram illustrating a schematic configuration of the terminal device 51.
  • the terminal device 51 is a health level determination device that determines the health level of the subject, and includes a storage unit 52, a determination unit 53, a communication unit 54, and a control unit 55.
  • the storage unit 52 is a memory that stores captured image data of a plurality of other organs (here, tongues) and data transmitted from an external device including the organ image capturing apparatus 1.
  • the communication unit 54 is an interface for performing communication with an external device.
  • the communication unit 54 constitutes a feature amount input unit that is extracted from a photographed image of the organ of the subject and is used to input a feature amount used to determine the health level. It constitutes a receiving unit that receives information on the feature amount of the subject transmitted from the image capturing device 1).
  • the terminal device 51 may include a reading unit that reads a feature amount from a recording medium in which the feature amount extracted from the captured image of the organ of the subject is recorded.
  • the terminal device 51 can acquire the feature amount by reading information with the reading unit. Therefore, in this case, the reading unit can function as the feature amount input unit.
  • the control unit 55 is configured by a CPU, for example, and controls the operation of each unit of the terminal device 51.
  • the determination unit 53 compares the feature amount of the target person transmitted from the organ image capturing apparatus 1 and input via the communication unit 54 as the feature amount input unit with the distribution of the feature amount of the population, so that The difference in the constitution of the subject corresponding to the individual difference and the change in the physical condition of the subject are determined.
  • the distribution of the feature quantity of the above-mentioned population the distribution of the feature quantity of another person or the distribution of the feature quantity of the target person can be used.
  • These distributions are created by the determination unit 53. That is, the distribution of the feature quantity of the other person is created by extracting the feature quantity from the captured image data of the other person stored in the storage unit 52 by the same extraction method as the feature quantity extraction unit 16.
  • the distribution of the feature amount of the target person is created using the feature amount extracted by the feature amount extraction unit 16 within the evaluation period for evaluating the physical condition.
  • FIG. 17 schematically shows the distribution of the feature amount of another person created by the determination unit 53.
  • the x mark in the figure indicates the plot position of the feature value of each other person.
  • the distribution in the case where the feature amount is two-dimensional (Xi, Xj) is shown.
  • the color of the tongue can be considered as Xi
  • the color of moss can be considered as Xj.
  • the horizontal axis of a 1 and a 2 represents a value corresponding to the different colors
  • b 1 and b 2 of the vertical axis also shows the values corresponding to the different colors.
  • the origin O of this feature quantity distribution is a point indicating the average of Xi and the average of Xj.
  • the distribution of Xi and Xj is biased and there is a correlation between them. That is, in a 1 side of the origin the value of Xi is O, the value of Xj is often more of b 1-side value than b 2 side, in a 2 side of the origin the value of Xi is O, the value of Xj is b 1 side b 2 side of there are more than. Even when the feature quantity is multi-dimensional with three or more dimensions, it is considered that some kind of correlation occurs.
  • the distance from the origin O of the distribution of the feature quantity of the other person to the feature quantity (for example, point A) of the input subject is set as an evaluation value (first evaluation value) of the physical condition.
  • This evaluation value is not the Euclidean distance but the Mahalanobis distance.
  • the Mahalanobis distance is a distance scale calculated in consideration of variations and correlations for many measurement items (features).
  • the number of population is n
  • the average value of data for each measurement item is m
  • the standard deviation is ⁇
  • the element of the inverse matrix for the correlation matrix representing the correlation between the measurement items is aij
  • the number of measurement items is k
  • the average vector of m1, m2,... mk is the origin of the distribution (space) created by the population.
  • the Mahalanobis distance D is the following number: It is obtained by the two formulas.
  • the average of n Mahalanobis distances that are all objects of the population space is “1”.
  • the origin of the scale indicating the physical condition evaluation value and the unit of distance are determined. Note that the smaller the Mahalanobis distance, the closer the subject is to the population, and the greater the Mahalanobis distance, the farther from the population.
  • FIG. 18 shows an image of a long-term change in physical condition for a patient A with a disease, a healthy person B, and a subject C who is a target for determining the health level.
  • the origin O in the figure corresponds to the origin O of the other person's feature quantity distribution shown in FIG. 17, the horizontal axis indicates the time since birth, and the vertical axis indicates the above-described physical condition evaluation. The value is shown.
  • a unit amount U on the vertical axis indicates a unit of distance from the origin O.
  • FIG. 19 shows the physical condition change in a certain evaluation period in an enlarged manner for the subject C in FIG.
  • his / her physical condition changes due to poor gastrointestinal tract, motives and shortness of breath, cold and fever. If such a condition exceeds the limit, it becomes manifest as a disease and requires treatment.
  • the change in the evaluation value of the subject C within a certain evaluation period is defined as “change in physical condition”.
  • a basic processing flow including a determination method by the determination unit 53 will be described.
  • FIG. 20 is a flowchart showing the flow of processing in the health level determination system 50 of the present embodiment.
  • the following first to third steps are sequentially performed.
  • a tongue image of a young healthy person (other person) with no constitution bias is collected by a photographing apparatus (for example, a digital camera) equipped with a flash.
  • said healthy person belongs to the population P1 of FIG. It is said that the appearance of the tongue will be almost the same as adults in their 10s.
  • images of healthy individuals in the early 10s who do not have a constitutional bias due to lifestyle such as adult diseases are collected as samples.
  • the standard for the number of samples is preferably about 10 to 100 examples. In order to obtain the Mahalanobis distance described above, more samples than the number of features are required (in order to calculate an inverse matrix).
  • the collected image data is sent to the terminal device 51 and stored in the storage unit 52.
  • the determination unit 53 of the terminal device 51 extracts the feature amount of the other person used for the health degree determination from the other person's captured image data stored in the storage unit 52 by the same extraction method as the feature amount extraction unit 16. .
  • tongue color, moss color, moss shape (thickness), tooth marks, dampness (glossiness), cleft (crack), tongue shape (thickness), etc. are extracted as feature quantities of others. .
  • feature quantities used in the Oriental medicine diagnosis method may be extracted.
  • the determination unit 53 sets an origin O 1 and a unit amount U 1 of a distribution (for example, a distribution as shown in FIG. 17 if the feature amount is two-dimensional) having the extracted feature amount of another person as a population.
  • the origin O 1 is a point indicating the average of the feature quantities of others, and the unit amount U 1 indicates a unit of distance from the origin O 1 .
  • These settings can be made by multivariate analysis using the Mahalanobis distance described above. As other multivariate analysis methods, there are a method using a linear function and a method using regression analysis, but any method may be used.
  • the imaging unit 3 of the organ image capturing apparatus 1 collects the daily tongue images of the subject in the same manner as described above.
  • the standard for the number of samples is preferably about twice the above (about 20 to 200 cases).
  • the feature amount extraction unit 16 extracts a feature amount such as a tongue color from the tongue image data of the subject by the above-described method.
  • the image captured by the imaging unit 3 and the feature amount information extracted by the feature amount extraction unit 16 are transmitted to the terminal device 51 and stored in the storage unit 52.
  • the determination unit 53 of the terminal device 51 compares the feature amount of the subject and the distribution of the population (distribution of the feature amount of the other person) to obtain a difference (Mahalanobis distance) from the population, and the Mahalanobis distance with respect to time. Is determined as a change in the evaluation value (first evaluation value) of the subject's physical condition.
  • FIG. 21 shows a change in the evaluation value of the physical condition of the subject at this time. Note that the difference between the feature amount of the subject and the population corresponds to the distance (1) in FIG.
  • the determination part 53 calculates
  • FIG. 22 shows enlarged changes in the evaluation value of the physical condition of the subject during the evaluation period of FIG.
  • the determination unit 53 uses the distance M as a threshold value, and extracts an image of (shooting date) on the date and time when the evaluation value is equal to or less than the threshold value within the evaluation period.
  • the distance M (average value ⁇ standard deviation) or the like may be used as a threshold, and an image with an evaluation value equal to or less than the threshold may be extracted (an image with a higher health degree may be extracted ). In this case, it is desirable to increase the number of samples by a considerable amount.
  • the determination unit 53 extracts the feature amount of the target person from the captured images of the target person for all the dates and times when the evaluation value is equal to or less than the threshold, and the distribution with the extracted feature amount of the target person as a population is extracted.
  • the origin O 2 is a point indicating the average of the feature quantities of the subject, and the unit quantity U 2 is a unit of distance from the origin O 2 .
  • the determination unit 53 compares the feature amount of the subject at the time of determination with the distribution of the population (distribution of the feature amount of the subject), obtains a difference (Mahalanobis distance) from the population, and calculates the Mahalanobis distance with respect to time. Is determined as a change in the evaluation value (second evaluation value) of the subject's physical condition.
  • FIG. 23 shows a change in the evaluation value of the physical condition of the subject at this time. Note that the difference between the feature amount of the subject and the population corresponds to the distance (2) in FIG.
  • the determination unit 53 determines a change in the distance (2) in the evaluation period as a change in the physical condition of the subject. Since the distribution of the feature quantity of the subject person is used as the population, there is no increase due to the constitutional bias, and daily physical condition changes can be measured with high sensitivity.
  • FIG. 24 shows a medium-term change in the evaluation value (first evaluation value) of the subject's physical condition.
  • evaluation period 1 When a certain evaluation period (for example, evaluation period 1) ends, the process proceeds to the next evaluation period (for example, evaluation period 2).
  • the population used for determining the change in physical condition that is, the distribution of the feature amount of the subject whose first evaluation value is equal to or less than the threshold value is updated at regular intervals.
  • the population P2 distributed of the feature amount of the subject whose first evaluation value is equal to or less than the distance M
  • the distance M is used when determining a change in physical condition.
  • population P3 distributed of feature quantity of the subject whose first evaluation value is equal to or less than distance N
  • the distance N is the average of the distances (Mahalanobis distances) from the origin O 1 of the first evaluation value in the evaluation period 2. Updating the population may be performed by replacing all data at once, or by adding new ones every day and deleting old ones.
  • FIG. 24 shows an example of the former.
  • the determination unit 53 uses the distance N described above as a threshold, extracts an image on the shooting date in which the first evaluation value is equal to or less than the threshold within the evaluation period 2, and distributes the feature amount distribution (mother of the subject) The origin O 2 and the unit amount U 2 of the group P3 distribution) are set. Then, the distance between the feature amount of the subject at the time of determination in the evaluation period 2 and the population P3 is defined as a change in the physical condition of the subject in the evaluation period 2.
  • Q1 indicates the width of the physical condition change in the evaluation period 1
  • Q2 indicates the width of the physical condition change in the evaluation period 2.
  • the difference between the distance M and the distance N is an improvement in the constitution from the evaluation period 1 to the evaluation period 2. Note that the difference from the population P2 in the previous evaluation period 1 may be the distance from the population in the evaluation period 2.
  • the population P1 described above does not have to be changed.
  • the distance M is also updated to the distance N by updating from the population P2 to P3, but the distance N is similarly updated in the subsequent evaluation period. Note that the distance (2) shown in FIG. 23 is updated by daily shooting.
  • the terminal device 51 may graph daily fluctuations in distance and present it to the subject (organ image capturing apparatus 1).
  • the improvement method may be presented together.
  • the method of improvement presented may be based on oriental medicine or on Western medicine.
  • the improvement method may be specifically shown using the contribution degree of the feature amount. For example, a treatment for improving blood flow can be presented when the contribution of the tongue color is large to a decrease in health, and a treatment for improving immunity can be presented when the contribution of moss thickness is large.
  • a certain standard As a reference at that time, the person's past history may be used. For example, if there is a tongue image of the subject at the time of illness in the past, it is transmitted to the terminal device 51, and the terminal device 51 extracts the feature amount from the tongue image, and the population at that time (other person) The distance from the origin of the distribution of the feature amount (the average of the distances when there are a plurality of tongue images at the time of illness) may be obtained and used as the reference.
  • determining whether or not the physical condition is good using such a standard it is possible to determine whether or not the current physical condition of the subject is close to the physical condition at the time of past illness. Can present a physical condition improvement method at a more appropriate timing.
  • the obtained constitutional deviation (distance M) of the subject may be further compared with a certain standard to determine whether or not the constitutional deviation is large.
  • a certain standard For example, if the target person is in their 50s, it is more individual difference at the same age to judge the constitutional bias compared to others of the same age than to judge the constitutional bias compared to others in the 10s Therefore, it is possible to accurately grasp the constitutional bias.
  • the determination unit 53 of the terminal device 51 determines the bias of the subject's constitution
  • the distribution of the feature quantity of the other person is set as the population distribution, and this is compared with the feature quantity of the subject person.
  • the determination unit 53 determines a change in the physical condition of the subject
  • the distribution of the feature quantity of the subject person collected within the evaluation period is set as a population distribution, and this is compared with the feature quantity of the subject person. set to target. Since the distribution of the feature quantity of the target person is used as a comparison target, there is almost no influence of individual differences from others, and the physical condition (health level) of the target person is accurately determined while reducing the influence of the constitutional bias. be able to.
  • the determination unit 53 obtains the distance from the origin O 1 of the distribution of the feature quantity of the other person as the first evaluation value of the input feature quantity of the subject, and the first change that changes with time in the evaluation period. Since the average of the evaluation values is determined as the bias of the subject's constitution, even if the first evaluation value varies or varies within the evaluation period, the bias of the subject's constitution can be appropriately determined.
  • the determination unit 53 collects feature quantities of dates and times when the first evaluation value that changes over time within the evaluation period is equal to or less than a threshold, and creates a distribution of the feature quantities of the subject person.
  • the distance from the origin O 2 of the distribution is obtained as a second evaluation value, and a change in the second evaluation value that changes with time in the evaluation period is determined as a change in the physical condition of the subject.
  • the distribution of the feature amount of the target person described above is a distribution of feature amounts in which the first evaluation value is equal to or less than a threshold, and it can be determined that the constitutional bias is small.
  • the second evaluation value is obtained using the distribution of the feature amount of the target person as a comparison target, and the change in the physical condition is determined using the second evaluation value, thereby reliably reducing the influence of the constitutional bias.
  • the change in physical condition can be determined.
  • the determination unit 53 compares the input feature quantity of the subject person with the distribution of the feature quantity of the population using the Mahalanobis distance. Even if the feature quantity is multidimensional, it is possible to appropriately determine the constitutional bias and the physical condition change by comparing with the population distribution on a single scale called Mahalanobis distance.
  • the distribution of the feature amount of the other person used as the distribution of the population is the characteristics of the other person in their 10s, that is, the age of 10 to 19 years old. Distribution of quantity. Young people in their 10s are considered to have almost no constitutional bias due to lifestyle habits, and therefore, using the above distribution makes it possible to accurately determine the subject's constitutional bias.
  • the distribution of the feature amount of the subject as the population distribution used when the determination unit 53 determines the change in the physical condition may be the distribution of the feature amount of the subject who is 20 years or older.
  • constitutional bias occurs, and thus the distribution of the population may include constitutional bias.
  • the above distribution is effective.
  • the distribution is a distribution of feature quantities of a healthy subject who is 20 years of age or older, it is possible to determine a change in physical condition including a constitutional deviation based on a healthy state. .
  • the organ to be imaged is a tongue.
  • the organ may be other than the tongue.
  • a region where swelling occurs due to the quality of water metabolism, such as eyelids may be taken as an object to be imaged, and a feature amount of such a region may be extracted to determine a constitutional bias or a change in physical condition.
  • the color of the tongue, the color of the moss, the shape of the tongue (thickness), the thickness of the moss (shape), and the like are used as the feature amount of the subject. That is, the feature amount of the subject includes information about at least one of the color and shape of the organ. By using at least information on the color and shape of the organ as a feature amount, it is possible to determine the constitutional bias and the change in physical condition.
  • the above-mentioned items necessary for the inquiry are displayed on the display unit 4 of the organ imaging apparatus 1.
  • the subject operates the operation unit 5 and inputs a response to the above item.
  • the input response is transmitted to the terminal device 51.
  • the determination unit 53 of the terminal device 51 is based on the comparison with the population distribution of the feature amount of the target person and the response result input to the terminal device 51 and transmitted via the operation unit 5.
  • the bias of constitution and the change in the physical condition of the subject are determined. For example, when determining the change in physical condition, it is determined whether or not the change in physical condition is large by referring to the response results for the items 1 to 5, 9, 10, and 14.
  • the response results to the items 6 to 8 and 11 to 13 are referred to determine whether or not the constitutional bias is large.
  • the determination result and the improvement method of the constitution and the physical condition are fed back to the organ imaging apparatus 1 and displayed on the display unit 4.
  • a service for obtaining a consideration by providing a determination result and an improvement method to a target person may be constructed.
  • the contents to be provided are three patterns: (a) only a change in image feature amount, (b) a change in physical condition in addition to (a), and (c) a change in constitution in addition to (b)
  • the price may be set higher in the order of (a), (b) and (c).
  • the price may be differentiated according to the time from image capture to answering the health degree determination result.
  • FIG. 25 shows a frequency distribution when the feature amount is univariate (for example, tongue color). Note that the value on the vertical axis indicates tongue color image data (for example, R / (R + G + B)). However, the origin corresponds to the average value of the tongue color.
  • the origin of the distribution in FIG. 25 is made to correspond to the origin in FIGS. 22 and 23, and ⁇ 3 ⁇ ( ⁇ : standard deviation) in FIG. 25 is made to correspond to the unit quantity in FIG. 22 and FIG. Changes in physical condition can be determined.
  • any image photographed before, at the same time as, or after the determination of the health level may be used.
  • any image taken before, at the same time, or after the subject's age of 40 is used. May be.
  • any image photographed before, at the same time as, or after the determination of the health level may be used. By comparing with the characteristic amount of another person's unhealthy state, the health state of the subject can be determined more clearly.
  • a photographed image of a person who is healthy or unhealthy in their 10s may be used. Since it is not necessary to compare with others, a simple comparison is possible.
  • a distribution of feature amounts extracted from the following images may be used. That is, any image taken before or after the determination may be used as long as it is an image of the person who is healthy or unhealthy at any age. By increasing the number of types of images and comparing with a plurality of unhealthy states, the health state can be determined more clearly.
  • the health level determination device and the health level determination system described above can be expressed as follows, thereby producing the following effects.
  • the health level determination device described above is a health level determination device that determines the health level of a subject, and is a feature that is extracted from a photographed image of the organ of the subject and features that are used to determine the health level are input.
  • the feature quantity of the subject person corresponding to individual differences from others by comparing the feature quantity of the subject inputted via the quantity input unit and the feature quantity input unit with the distribution of the feature quantity of the population
  • a determination unit that determines a change in the physical condition of the subject, and the determination unit is created for another person as a distribution of the feature quantity of the population when determining the bias of the subject's constitution
  • the change in the physical condition of the subject is determined using the distribution of the feature quantity of the other person, as the distribution of the feature quantity of the population, the distribution of the feature quantity of the subject person collected within the evaluation period for evaluating the physical condition Is used.
  • the determination unit determines the subject's constitutional bias and physical condition change by comparing the feature amount of the subject input via the feature amount input unit with the distribution of the feature amount of the population.
  • the distribution of the feature quantity of another person is used as the distribution of the feature quantity of the population.
  • the distribution of the feature quantity of the subject himself collected within the evaluation period is used as the distribution of the feature quantity of the population. Since the distribution of the feature quantity of the target person is used as a comparison target, the influence of individual differences from others is eliminated. Thus, the physical condition (health level) of the subject person can be accurately determined while reducing the influence of the constitutional bias.
  • the determination unit obtains a distance from the origin of the distribution of the feature quantity of the other person as a first evaluation value of the feature quantity of the target person input via the feature quantity input unit, and changes over time in the evaluation period. You may determine the average of the said 1st evaluation value which changes to as a bias
  • the bias of the subject's constitution can be determined regardless of fluctuations or variations in the first evaluation value.
  • the determination unit collects feature amounts of dates and times when the first evaluation value that changes over time within the evaluation period is equal to or less than a threshold value, creates a feature amount distribution of the subject, and the feature amount input unit The distance from the origin of the distribution of the feature amount of the subject input via the second time is obtained as a second evaluation value, and the change in the second evaluation value that changes over time during the evaluation period is determined as the physical condition of the subject. It may be determined as a change in.
  • the distribution of feature quantities of the target person which is a collection of feature quantities for the date and time when the first evaluation value is equal to or less than the threshold, is a distribution of feature quantities that can be determined to have a small individual difference from others, that is, a constitutional bias. Therefore, by obtaining a second evaluation value using such a distribution of feature values as a comparison target and determining a change in physical condition using the second evaluation value, while reliably reducing the influence of the constitutional bias, Changes in physical condition can be determined.
  • the determination unit may perform a comparison between the feature amount of the subject input via the feature amount input unit and the distribution of the feature amount of the population using the Mahalanobis distance. In this case, even if the feature value input via the feature value input unit is multidimensional, it is possible to appropriately determine the constitutional bias and the change in physical condition.
  • the distribution of the feature quantity of the other person may be the distribution of the feature quantity of another person who is 10 to 19 years old.
  • the distribution of the feature quantity of the other person may be the distribution of the feature quantity of a healthy other person who is 10 to 19 years old.
  • the distribution of the feature amount of the subject may be the distribution of the feature amount of the subject who is 20 years old or older.
  • the constitutional bias will occur, so the distribution of the population may contain the constitutional bias.
  • it is desired to determine the change in the physical condition of the subject person including the bias in the constitution it is effective to use the above distribution.
  • the distribution of the feature amount of the subject may be a distribution of the feature amount of a healthy subject who is over 20 years old.
  • the distribution of the population may include constitutional bias
  • the distribution of feature values of healthy subjects is used as a comparison target (distribution of feature values of the population), so that the healthy state is used as a reference. It becomes possible to determine a change in physical condition including a constitutional bias.
  • the organ may be a tongue.
  • the above-described effect can be obtained in the configuration in which the health level of the subject is determined by photographing the tongue.
  • the feature amount of the subject input via the feature amount input unit may include information on at least one of the color and shape of the organ. By using at least information on the color and shape of the organ as a feature amount, it is possible to determine the constitutional bias and the change in physical condition.
  • the feature amount input unit may include a receiving unit that receives feature amount information of a subject transmitted from the outside.
  • the above-described effect can be obtained in the configuration in which the information about the feature amount of the subject is acquired by the receiving unit.
  • the health level determination system described above is formed by connecting the above-described health level determination apparatus and an organ image capturing apparatus through a communication line so that they can communicate with each other.
  • a transmission unit that transmits information to the health degree determination apparatus.
  • the organ imaging apparatus may include a display unit that displays information related to the constitutional bias and physical condition determined by the determination unit of the health level determination device. Because information on the subject's constitutional bias and physical condition changes is displayed on the display unit, the subject can easily improve both the constitutional improvement and physical condition (health level) based on the information displayed on the display unit. Can grasp.
  • the organ imaging apparatus further includes a display unit for displaying items necessary for an inquiry, and an information input unit for responding to the items displayed on the display unit, and the health level determination device includes: The determination unit compares the feature amount of the subject included in the information transmitted from the organ imaging apparatus with the distribution of the feature amount of the population, and is input by the information input unit to the health determination device. Based on the transmitted response result, the bias in the subject's constitution and the change in the subject's physical condition may be determined.
  • Judgment of constitutional bias and changes in physical condition based not only on comparison of sent feature values and distribution of feature values of population, but also based on results returned by information input unit for interview items By doing so, a more appropriate determination can be made.
  • the present invention can be used in a system that extracts a feature amount from a photographed image of an organ of a subject and determines the health level of the subject.

Abstract

 対象者の健康度を判定する健康度判定装置(端末装置(51))は、対象者の器官の撮影画像から抽出され、健康度の判定に用いる特徴量が入力される特徴量入力部(通信部(54))と、上記特徴量入力部を介して入力された対象者の特徴量を、母集団の特徴量の分布と比較することにより、他人との個人差に相当する対象者の体質の偏りと、対象者の体調の変化とを判定する判定部(53)とを備えている。判定部(53)は、対象者の体質の偏りを判定する場合、母集団の特徴量の分布として、他人を対象として作成される、他人の特徴量の分布を用い、対象者の体調の変化を判定する場合、母集団の特徴量の分布として、体調を評価する評価期間内で集めた対象者本人の特徴量の分布を用いる。

Description

健康度判定装置および健康度判定システム
 本発明は、対象者の健康度を判定する健康度判定装置および健康度判定システムに関するものである。
 従来から、生体(例えば人間)の健康状態を測定する手法として、健康診断での生化学検査、問診票による自覚症状の記述、体力測定などが知られている。しかし、健康診断は、費用や時間がかかるため、日常の体調変化のモニタリングには適さない。また、健康診断では、個別の疾病の有無を判断することはできるが、診断項目が細分化されているため、総合的な健康状態を表すことは難しい。
 問診票を利用する場合、自覚症状を回答しているため、個人差が大きく、過去の履歴や他人と比較することが難しい。体力測定は、健康診断と同様に、費用や時間がかかるため、日常の体調変化のモニタリングには適さない。また、体力測定では、運動能力を測定できるが、体力と健康状態との関連性は明らかではなく、体力測定によって健康状態を把握できるとは必ずしも言えない。
 そこで、近年では、デジタルカメラを用いて舌を撮影し、その画像の特徴量を用いて健康度を診断するシステムが提案されている。例えば、特許文献1では、舌画像から得られる多くの特徴量から、1種類の出力情報(具体的にはマハラノビス距離)を算出することにより、撮影された舌を持つ人についての総合的な健康度の判定を容易にかつ客観的に行うことが可能となっている。このように、マハラノビス距離を用いて健康度判定を総合的に行うシステムは、例えば特許文献2でも提案されている。
特許第4487535号公報(請求項1、段落〔0006〕、〔0018〕、〔0096〕等参照) 特許第4649965号公報(請求項1、段落〔0008〕等参照)
 ところで、遺伝的な要因や長年の生活習慣により、健康時でも舌の状態に個人差(年齢差を含む)がある。つまり、健康時でも、舌の色が元々青っぽい人や赤っぽい人などが存在する。このため、舌を撮影して得られる画像から、特徴量として舌の色を抽出して健康度を判定するだけでは、舌の色が青っぽい場合、それが体質の偏り(個人差)によるものなのか、体調(健康度)の変化によるものなのかを判別することができない。その結果、体質の偏りを含んだ状態でしか健康度を判定することができず、健康度を精度よく判定することができない。また、体質の偏りがわからないため、食事療法や生活習慣の改善などの長期的な改善策による効果を確認することも困難である。このような問題は、マハラノビス距離を用いて多変量解析を行う特許文献1および2でも同様に生ずる。
 本発明は、上記の問題点を解決するためになされたもので、その目的は、体質の偏りの影響を低減しながら健康度(体調)を精度よく判定できるとともに、体質の偏りの改善効果を容易に確認できる健康度判定装置および健康度判定システムを提供することにある。
 本発明の一側面に係る健康度判定装置は、対象者の健康度を判定する健康度判定装置であって、対象者の器官の撮影画像から抽出され、健康度の判定に用いる特徴量が入力される特徴量入力部と、前記特徴量入力部を介して入力された対象者の特徴量を、母集団の特徴量の分布と比較することにより、他人との個人差に相当する対象者の体質の偏りと、対象者の体調の変化とを判定する判定部とを備え、前記判定部は、対象者の体質の偏りを判定する場合、前記母集団の特徴量の分布として、他人を対象として作成される、他人の特徴量の分布を用い、対象者の体調の変化を判定する場合、前記母集団の特徴量の分布として、体調を評価する評価期間内で集めた対象者本人の特徴量の分布を用いる。
 上記の構成によれば、体質の偏りの影響を低減しながら健康度を精度よく判定できるとともに、体質の偏りの改善効果を容易に確認することができる。
本発明の実施の一形態に係る健康度判定システムの概略の構成を示す説明図である。 上記健康度判定システムを構成する器官画像撮影装置の外観を示す斜視図である。 上記器官画像撮影装置の概略の構成を示すブロック図である。 撮影対象に対する照明部と撮像部との位置関係を示す説明図である。 舌の撮影画像およびエッジ抽出フィルタの一例と、上記フィルタを用いて抽出された舌の輪郭線を示す説明図である。 舌の撮影画像における特徴量を抽出する領域を示す説明図である。 舌の輪郭線およびその近似曲線を示すグラフである。 上記輪郭線と上記近似曲線とでのy座標の差をプロットしたグラフである。 舌の撮影画像と舌の断面形状とを示す説明図である。 上記撮影画像における光沢度の検出領域を示す説明図である。 舌の分光分布を示すグラフである。 上記検出領域から抽出したBの画像データの度数分布を模式的に示すグラフである。 表面に亀裂がある舌の撮影画像を示す説明図である。 舌表面に亀裂がない場合と亀裂がある場合の各度数分布を示すグラフである。 水平方向の画像データの分布を、舌が薄い場合と厚い場合とで示すグラフである。 上記健康度判定システムを構成する端末装置の概略の構成を示すブロック図である。 上記端末装置の判定部が作成する他人の特徴量の分布を模式的に示す説明図である。 患者、健常者、対象者について、長期的な体調変化のイメージを示すグラフである。 図18の対象者について、ある評価期間における体調変化を拡大して示すグラフである。 上記健康度判定システムにおける処理の流れを示すフローチャートである。 対象者の体調の評価値(第1の評価値)の変化を示すグラフである。 図21の評価期間における対象者の体調の評価値の変化を拡大して示すグラフである。 対象者の体調の評価値(第2の評価値)の変化を示すグラフである。 対象者の体調の評価値(第1の評価値)の中期的な変化を示すグラフである。 特徴量が1変量の場合の度数分布を示すグラフである。
 本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本明細書において、数値範囲をA~Bと表記した場合、その数値範囲に下限Aおよび上限Bの値は含まれるものとする。
 〔健康度判定システムの全体構成〕
 図1は、本実施形態の健康度判定システム50の概略の構成を示す説明図である。健康度判定システム50は、器官画像撮影装置1と、端末装置51とを有している。器官画像撮影装置1は、生体の器官を撮影して、健康度の診断に必要な情報(特徴量、診断項目)を抽出(検出)するものであり、例えば多機能携帯情報端末で構成されている。端末装置51は、器官画像撮影装置1で取得された情報をもとに、生体の健康度を判定するものであり、パーソナルコンピュータ等で構成されている。
 器官画像撮影装置1と端末装置51とは、通信回線を介して通信可能に接続されている。上記の通信回線は、有線であってもよいし、無線であってもよい。また、端末装置51の少なくとも一部の機能を器官画像撮影装置1に持たせたり、逆に、器官画像撮影装置1の少なくとも一部の機能を端末装置51に持たせてもよい。以下、器官画像撮影装置1および端末装置51の詳細について説明する。なお、以下では、生体は人間であり、器官は舌である場合を例として説明する。
 〔器官画像撮影装置の構成〕
 図2は、本実施形態の器官画像撮影装置1の外観を示す斜視図であり、図3は、器官画像撮影装置1の概略の構成を示すブロック図である。器官画像撮影装置1は、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7を備えている。照明部2は筐体21に設けられており、照明部2以外の構成(例えば撮像部3、表示部4、操作部5、通信部6、音声出力部7)は、筐体22に設けられている。筐体21と筐体22とは相対的に回転可能に連結されているが、必ずしも回転は必要ではなく、一方が他方に完全に固定されていてもよい。なお、上記の照明部2等は、単一の筐体に設けられていてもよい。
 照明部2は、撮影対象である生体の器官(ここでは舌)を照明するものであり、撮影対象を上方より照明する照明器で構成されている。照明部2の光源としては、色再現性を向上させるために、例えばキセノンランプなどの昼光色を発光するものを用いている。光源の明るさは、撮像部3の感度や撮影対象までの距離により異なるが、一例としては、撮影対象の照度が1000~10000lxとなるような明るさを考えることができる。照明部2は、上記の光源の他に、点灯回路や調光回路を有しており、照明制御部11からの指令によって点灯/消灯および調光が制御される。
 撮像部3は、照明部2による照明下で、健康度を判定する対象者の器官(ここでは舌)を撮影して画像を取得するものであり、撮像レンズとエリアセンサ(撮像素子)とを有している。撮像レンズの絞り(レンズの明るさ)、シャッター速度、焦点距離は、撮影対象の全ての範囲に焦点が合うように設定されている。一例としては、Fナンバー:16、シャッター速度:1/120秒、焦点距離:20mmである。
 エリアセンサは、例えばCCD(Charge Coupled  Device)やCMOS(Complementary  Metal Oxide  Semiconductor)のような撮像素子で構成されており、撮影対象の色および形状を十分に検出できるように、感度や解像度などが設定されている。一例としては、感度:60db、解像度:1000万画素である。
 撮像部3による撮影は、撮像制御部12によって制御されている。また、撮像部3は、撮像レンズやエリアセンサの他にも、不図示のフォーカス機構、絞り機構、駆動回路およびA/D変換回路などを有しており、撮像制御部12からの指令により、フォーカスや絞りの制御、A/D変換などが制御される。撮像部3では、撮影画像のデータとして、赤(R)、緑(G)、青(B)のそれぞれについて、例えば8ビットで0~255のデータが取得される。
 図4は、撮影対象(舌や顔)に対する照明部2と撮像部3との位置関係を示す説明図である。同図に示すように、撮像部3は、撮影対象に正対して配置されている。照明部2は、撮影対象を通る撮像部3の撮影光軸Xに対して、例えば0°~45°の角度Aで撮影対象を照明するように配置されている。なお、撮影光軸Xとは、撮像部3が有する撮像レンズの光軸を指す。
 照明時の角度Aが大きいと、上唇の影により、舌を撮影できる範囲が小さくなる。逆に、角度Aが小さいと、正反射による色とびが大きくなる。以上のことを考慮すると、照明時の角度Aの好ましい範囲は、15°~30°である。
 表示部4は、不図示の液晶パネル、バックライト、点灯回路および制御回路を有しており、撮像部3での撮影によって取得される画像や、後述する特徴量抽出部16にて算出されて出力された情報を表示する。また、表示部4は、後述する問診に必要な項目を表示したり、通信部6を介して外部から取得した情報(例えば外部の医療機関に情報を送信して診断された結果)を表示することもできる。表示部4における各種の情報の表示は、表示制御部13によって制御されている。
 操作部5は、撮像部3による撮影を指示するための入力部であり、OKボタン(撮影実行ボタン)5aおよびCANCELボタン5bで構成されている。本実施形態では、表示部4および操作部5を、共通のタッチパネル表示装置41で構成し、タッチパネル表示装置41における表示部4の表示領域と操作部5の表示領域とを別々にしている。タッチパネル表示装置41における操作部5の表示は、操作制御部14によって制御される。なお、操作部5は、タッチパネル表示装置41以外の入力部で構成されてもよい(タッチパネル表示装置41の表示領域外の位置に操作部5を設けてもよい)。
 また、操作部5は、表示部4に表示された問診に必要な項目に対して返答するための情報入力部としても機能する。上記のように表示部4および操作部5がタッチパネル表示装置41で構成される場合、表示部4が上記項目を表示するとともに、操作者が返答するのに必要なキー(例えばテンキー、シフトキー、OKボタンなど)を表示することにより、操作者は、表示されたキーを介して必要な情報を入力することができる。したがって、この場合、表示部4は操作部5の上記情報入力部としての機能を兼ねる。
 通信部6は、撮像部3にて取得された画像のデータや、後述する特徴量抽出部16で算出されて出力された情報を、通信回線を介して外部に送信したり、外部からの情報を受信するためのインターフェースである。特に、通信部6は、特徴量抽出部16にて抽出された対象者の特徴量の情報を、端末装置51に送信する送信部を構成している。通信部6における情報の送受信は、通信制御部18によって制御されている。
 音声出力部7は、各種の情報を音声で出力するものであり、例えばスピーカーで構成される。音声で出力される情報には、端末装置51の後述する判定部53(図16参照)で判定された結果が含まれる。音声出力部7における音声出力は、音声出力制御部19によって制御される。
 また、器官画像撮影装置1は、さらに、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、画像処理部15、特徴量抽出部16、記憶部17、通信制御部18、音声出力制御部19およびこれらの各部を制御する全体制御部20を備えている。照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19は、上述したように、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7をそれぞれ制御する。全体制御部20は、例えばCPU(Central  Processing  Unit)で構成されている。なお、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19と、全体制御部20とは、一体的に(例えば1つのCPUで)構成されてもよい。
 画像処理部15は、撮像部3にて取得された画像から器官の輪郭線を抽出する処理を行う。本実施形態では、画像処理部15は、撮影画像の輝度エッジ(画像の中で急激に明るさが変化している部分)に基づいて、器官としての舌の輪郭線を抽出する。
 輝度エッジの抽出は、例えば図5に示すようなエッジ抽出フィルタを用いて行うことができる。エッジ抽出フィルタは、1次微分をするときに(隣接画素間で画像データの差分をとるときに)、注目画素の近傍の画素に重みを付けるフィルタである。このようなエッジ抽出フィルタを用い、例えば、撮影画像の各画素のGの画像データについて、注目画素と近傍画素とで画像データの差分を取り、その差分値が所定の閾値を超える画素を抽出することで、輝度エッジとなる画素を抽出できる。舌の周囲には、その影に起因する輝度差が存在するため、上記のように輝度エッジとなる画素を抽出することにより、舌の輪郭線を抽出することができる。なお、ここでは、輝度への影響が最も大きいGの画像データを演算に用いているが、RやBの画像データを用いてもよい。
 記憶部17は、撮像部3にて取得した画像のデータ、画像処理部15で取得したデータ、特徴量抽出部16で算出されたデータ、外部から受信した情報などを記憶したり、上述した各種の制御部を動作させるためのプログラムを記憶するメモリである。
 特徴量抽出部16は、撮像部3にて取得された画像のデータから、健康度の判定に用いる特徴量を抽出する。上記の特徴量には、舌の色、苔の色、苔の形(厚さ)、歯痕、湿り気(光沢度)、裂紋(亀裂)、舌の形(厚さ)などがある。これらの特徴量は、例えば以下のようにして抽出(検出)することができる。
 (舌の色、苔の色、苔の厚さの抽出)
 図6は、舌の撮影画像を示している。以下では、舌の撮影画像において、舌の左右方向の中央で上下方向に帯状に形成される領域を上下方向に並ぶ3つの領域に分けたときに、それぞれの領域を、上部領域R1、中央領域R2、下部領域R3と称することとする。なお、これらの領域は、画像処理部15で検出される舌の輪郭線で囲まれる領域の左右方向の幅W、上下方向の長さHをもとに、図6に示すサイズで規定されるが、図示したサイズは一例であり、これに限定されるわけではない。
 舌の色は、血液の色を反映するため、RGBの画像データのうちで、主にR成分またはB成分が増減する。このため、舌の下部領域R3におけるRの比率(R/(R+G+B))またはBの比率(B/(R+G+B))を求めることにより、舌の色を定量化して抽出することができる。なお、上記のRGBのデータとしては、下部領域R3を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。
 なお、舌の色の抽出の際に、舌の下部領域R3の画像データを使用しているのは、以下の理由による。すなわち、漢方医学で用いられている舌診では、舌の色は、一般に、苔の無い舌の左右端部か、舌の中心下部で診断されているが、舌の左右端部は、表面の凹凸により照明光の当たり方が変化して濃淡が発生しやすく、画像データが本来の舌の色を示す値から変動しやすいためである。
 苔の色は、角化組織の分量により、白から茶色を呈するため、RGBの画像データのうちで、主にG成分または(G+R)成分が増減する。このため、舌の上部領域R1におけるGの比率(G/(R+G+B))または(G+R)の比率((G+R)/(R+G+B))を求めることにより、苔の色を定量化して抽出することができる。なお、上記のRGBのデータとしては、上部領域R1を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。
 なお、苔の色の抽出の際に、舌の上部領域R1の画像データを使用しているのは、苔は、舌粘膜の乳頭組織が角化したものであり、舌の上部から中央にかけて存在し、特に上部に多いためである。
 苔は、厚くなると舌の赤色から苔の白色に変化するため、RGBの画像データのうちで、主にR成分またはG成分が増減する。このため、舌の中央領域R2におけるRの比率(R/(R+G+B))またはGの比率(G/(R+G+B))を求めることにより、苔の厚さを定量化して抽出することができる。なお、上記のRGBのデータとしては、中央領域R2を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。
 なお、苔の厚さの抽出の際に、舌の中央領域R2の画像データを使用しているのは、苔は上述のように舌の上部に存在し、中央領域R2の色が上部領域R1の色に近いか否かで、苔の厚さを判断できるためである。なお、舌の上部領域R1と中央領域R2との色の差(例えば色度差)と、中央領域R2と下部領域R3との色の差(例えば色度差)との比率を求めることにより、苔の厚さを定量化することもできる。
 (歯痕の抽出)
 特徴量抽出部16は、画像処理部15で得られる舌の輪郭線を近似曲線で近似し、輪郭線と近似曲線との相関度に基づいて、輪郭線の凹凸(滑らかさ)を検出し、それによって舌の歯痕を検出する。近似曲線は細かい凹凸の無い滑らかな曲線であるため、輪郭線がこの近似曲線に近いほど、滑らかで歯痕が少ないと言える。すなわち、輪郭線と近似曲線との相関度が高いほど歯痕が少なく、相関度が低いほど歯痕が多いことになる。
 したがって、相関度に基づいて、歯痕の状態を検出することができる。例えば、相関度が高い場合は、歯痕の状態が軽度(レベル1)であり、相関度が低い場合は、歯痕の状態が重度(レベル3)であり、相関度がその中間の場合は、歯痕の状態が軽度と重度との中間(レベル2)であると判断することができる。
 ここで、2者の相関度を表す指標としては、以下の第1~第3の指標を用いることができる。
 相関度を表す第1の指標は、以下の式で表わされる決定係数R2である。
  R2=1-{(Σ(yi-fi)2)/(Σ(yi-Y)2)}
 ただし、
  i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
     他端部のx座標をkとしたときの、jからkまでのいずれかの値
  yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
  fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
  Y :輪郭線上の全ての点についてのyiの平均値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。また、Σ(yi-fi)2は、iをjからkまで変化させたときの(yi-fi)2の総和を指し、Σ(yi-Y)2は、iをjからkまで変化させたときの(yi-Y)2の総和を指す。
 図7は、舌の輪郭線(実線参照)およびその近似曲線(破線参照)と、近似曲線を表す多項式と、決定係数R2とを示している。近似曲線は、最小二乗法によって求められ、以下の多項式で表されている。このときの決定係数R2は、0.9942である。なお、同図の近似曲線の係数において、「E-n」の表記は、×10-nであることを示す。
 y=5×10-7・x4+6×10-6・x3+2×10-3・x2+6.29×10-2・x+21.213
 歯痕が重度である(輪郭線の凹凸が大きい)A部においても、歯痕が軽度である(輪郭線の凹凸が小さい)B部においても、輪郭線と近似曲線との差が決定係数R2に反映される。したがって、決定係数R2に基づいて歯痕を検出する手法を用いると、仮に、歯痕が軽度の歯痕のみである場合でも、決定係数R2に基づいて、その軽度の歯痕を検出することが可能となり、歯痕の検出精度を向上させることができる。
 相関度を表す第2の指標は、輪郭線と近似曲線とにおける座標値(y座標)の差に基づいて得られる値であって、|yi-fi|の最大値(以下では「座標値差の最大値」とも言う)である。ただし、
  i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
     他端部のx座標をkとしたときの、jからkまでのいずれかの値
  yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
  fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。
 図8は、図7で示した舌の輪郭線とその近似曲線(xy多項式)とでのy座標の差(|yi-fi|)をプロットしたグラフである。歯痕が重度であるA部においても、歯痕が軽度であるB部においても、|yi-fi|の値が歯痕のない部位に比べて大きくなる。したがって、仮に、歯痕が軽度の歯痕のみである場合でも、|yi-fi|の最大値を検出することで、その値に基づいて軽度の歯痕を検出することが可能となり、歯痕の検出精度を向上させることができる。
 相関度を表す第3の指標は、輪郭線と近似曲線とにおける座標値(y座標)の差に基づいて得られる値であって、以下の式で表される係数Aである。すなわち、
  A=Σ|yi-fi|
 ただし、
  i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
     他端部のx座標をkとしたときの、jからkまでのいずれかの値
  yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
  fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。また、Σ|yi-fi|は、iをjからkまで変化させたときの|yi-fi|の総和(以下では「座標値差の総和」とも言う)を指す。
 座標値差の最大値の代わりに、座標値差の総和を用いることにより、細かな歯痕の影響を正確に反映した歯痕検出を行うことができ、歯痕の検出精度をさらに向上させることができる。
 なお、相関度として、座標値差の総和の逆数、すなわち、1/(Σ|yi-fi|)の値を用いてもよい。
 (湿り気(光沢度)の抽出)
 図9は、舌の撮影画像と舌の断面形状とを示している。舌を撮影する際、舌は口腔から前方に突き出される。その突き出された舌の上唇側の表面を撮像部3で撮影するため、舌はその上唇側の表面が撮像部3側に凸になるように湾曲している(C-C’断面参照)。なお、必要に応じて、仕様書やマニュアルに舌の出し方を規定しておき、舌を適切な撮影位置に案内するようにしてもよい。
 図4で示した照明部2および撮像部3の配置で舌を撮影すると、舌の上半分に正反射領域が発生する(照明部2が撮影光軸Xに対して上方にあるため)。一方、舌の左右方向については、舌の中心と左右端がともに凹んでM字状に湾曲している(D-D’断面参照)。このような断面形状は、舌の上部から下部にかけてほぼ同様である。さらに、舌の中央部Eには、亀裂による模様が入っていることがある。したがって、本実施形態では、照明時の角度Aを15度に設定し、舌の上半分で、かつ、左右方向の中央部および両端部を避けた残りの領域を、光沢度の検出に適した検出領域として設定している。
 より具体的には、特徴量抽出部16は、画像処理部15で検出された舌の輪郭線から、舌の上下端および左右端を検出して、舌の上下の長さHおよび左右の幅Wを検出し、図10に示す位置関係となるように、舌の輪郭線を基準にして光沢度の検出領域R4・R5を設定している。
 図11は、舌の分光分布を示すグラフである。舌は粘膜構造であり、表皮が無いため、舌の色としては、血液の色が現れる。血液は、R成分(波長600nm~700nm)が多く、B成分(波長500nm以下)が少ない。また、舌の色が淡い場合には、R成分の比率が下がり、濃い場合にはR成分の比率が上がる。
 一方、苔は角化した乳頭細胞で形成されており、白色から黄色を呈する。そして、苔が薄い場合には、下地となる舌の色が現れるため、同図のようにR成分の比率が高くなり、苔が白く、濃い場合には、G成分(波長500nm~600nm)の比率が上がる。
 生体の体調や個人差により、舌と苔の色は上記のように変化するが、B成分の変化は少ない。そこで、本実施形態では、舌の撮影画像から得られるBの画像データに基づき、以下のようにして舌の表面の光沢度を検出する。
 まず、特徴量抽出部16は、撮影画像の検出領域R4・R5の各画素からBの画像データを抽出して、その度数分布を作成する。図12は、抽出したBの画像データの度数分布を模式的に示している。なお、図12の横軸は、Bの画素値(画像データ)を示し、縦軸は度数(画素数)を示している。ただし、ここでの説明を簡略化するため、画素値は、1から100までの値とし、画素値が大きいほど明るいことを示す。
 次に、特徴量抽出部16は、上記の度数分布より、最大度数Npに対応する画素値Dpを求め(図12の例ではDp=70)、この画素値Dpを1.2倍した値を閾値Mとし(図12の例ではM=84)、閾値Mから画像データの最大値(最大画素値Dm=100)までの区間における度数の総和を上位画素数として積算する。なお、画素値Dpを求めるにあたって、度数の変化を連続的に示す関数を求めてこれをスムージングし、ノイズを除去してから、最大度数Npに対応する画素値Dpを求めるようにしてもよい。また、スムージング後の関数を所定の区間で積分して上位画素数を求めるようにしてもよい。
 ここで、Bの画像データの度数分布は、撮影時に舌の表面での正反射がない場合、正規分布に近い分布(第1の群G1)のみとなるが、正反射がある場合、第1の群G1に、高画素値側で度数が大きい分布(第2の群G2)が加算されたものとなる。しかも、Bの画像データは、上述のように生体の体調や個人差による変化が少ないため、第1の群G1の幅(第1の群G1の最小画素値から最大画素値までの幅)は、他のRやGの画像データの度数分布(正規分布)に比べて狭くなる。その結果、第1の群G1と第2の群G2との境界(度数が減少から増加に転じるような極小となる部分)が、度数が最大となる画像データの値(画素値Dp)と画像データの最大値(画素値Dm)との間で明確に現れ、第1の群G1と第2の群G2とを容易に識別することが可能となる。光沢度を検出するためには、光沢成分(正反射成分)を含まない第1の群G1ではなく、光沢成分を表す第2の群G2に基づいて光沢度を検出することが望ましい。
 そこで、特徴量抽出部16は、画素値Dpよりも大きい閾値Mを設定し、この閾値Mと画素値Dmとの間の度数の総和を上位画素数として求めることにより、第2の群G2の度数の総和に近い値を得るようにしている。
 特に、Bの画像データの度数分布においては、第1の群G1と第2の群G2との境界が、画素値Dpの1.1~1.3倍の範囲内で現れることが実験的にわかっている。このため、本実施形態では、特徴量抽出部16は、上記の閾値Mを、画素値Dpの1.1~1.3倍の範囲内(図12の例では、1.2Dp=84)に設定し、閾値Mと画素値Dmとの間の度数の総和を上位画素数として求めるようにしている。
 舌が乾燥している(光沢度が低い)症例では、上位画素数が少ないことがわかっており、舌が湿潤である(光沢度が高い)症例では、上位画素数が多いことがわかっている。したがって、特徴量抽出部16は、上位画素数に基づいて、光沢度を例えばレベル1(光沢度高い)~レベル3(光沢度低い)に数値化して検出することができる。
 (裂紋(亀裂)の抽出)
 図13は、表面に亀裂がある舌の撮影画像を示している。舌を撮影する際、舌は口腔から前方に突き出される。その突き出された舌の上唇側の表面を撮像部3で撮影する。一般に、舌表面の亀裂は、舌の中心付近で多く発生するため、本実施形態では、撮影画像における舌の上下左右の中心部(上下左右方向の中心を含む領域)を、亀裂の検出に適した検出領域として設定している。
 より具体的には、特徴量抽出部16は、画像処理部15が抽出した舌の輪郭線から、舌の上下端および左右端を検出して、舌の上下の長さ(縦寸法)Hおよび左右の幅(横寸法)Wを検出し、図13に示した寸法関係で定まる、縦H/4、横W/4の舌の中心領域を亀裂の検出領域Dとして設定している。
 舌の表面に亀裂があると、亀裂がない場合に比べて、舌の下地がより現れるため、下地を構成する画素の画像データの取り得る値の範囲が、RGBともに広がる。このため、撮影画像の画像データの度数分布を作成したときに、度数分布の幅が広がる。特に、下地は血液の色を強く表しているため、血液の色に多く含まれるRやBについては、亀裂がない場合に比べて度数分布の幅が顕著に広がる。このような傾向は、舌表面の苔の厚さや亀裂の長さに関係なく現れることがわかっている。
 そこで、本実施形態では、特徴量抽出部16は、舌の撮影画像(特に上述した検出領域Dの画像)から、例えばBの画像データの度数分布を作成するとともに、当該度数分布の広がりを示す指標として、画像データのバラツキを示す標準偏差σを演算により取得するようにしている。標準偏差σは、画像データの値が、N個の値x1、x2、・・・xNをとるとき、以下の式で示される分散σ2の正の平方根である。
Figure JPOXMLDOC01-appb-M000001
 図14は、特徴量抽出部16が作成したBの画像データの度数分布を模式的に示したものであり、上段の度数分布は舌表面に亀裂がない場合を示し、下段の度数分布は舌表面に亀裂がある場合を示している。なお、これらの度数分布の横軸は、Bの画素値(画像データ)を示し、縦軸は度数(画素数)を示している。画素値は0から255までの値とし、画素値が大きいほど明るいことを示す。
 上段の度数分布における標準偏差σ1を求めると、σ1=13.18であった。これに対して、下段の度数分布における標準偏差σ2を求めると、σ2=26.78であった。このことから、舌表面に亀裂があると、亀裂がない場合に比べて標準偏差σが大きくなり、度数分布の幅が広がることがわかる。ちなみに、上段の度数分布における画素値の平均値m1を求めると、m1=177.71であり、下段の度数分布における画素値の平均値m2を求めると、m2=112.75であった。
 亀裂の多い症例では、上記度数分布の標準偏差が大きく、亀裂の少ない症例では、上記度数分布の標準偏差が小さいことがわかっている。したがって、特徴量抽出部16は、上記度数分布の標準偏差に基づいて、亀裂を例えばレベル1(亀裂多い)~レベル3(亀裂少ない)に数値化して検出することができる。なお、上記の例では、Bの画像データの度数分布を用いて亀裂を検出しているが、他のRやGの画像データの度数分布を用いても亀裂を検出することは可能である。
 (舌の厚さの抽出)
 図15は、照明部2による照明下で、撮像部4にて舌の表面を撮影したときに得られる画像データの分布であって、舌表面の上下方向のほぼ中心を通る水平方向における撮影画像のRGBの画像データの分布を示している。ただし、上段の分布は、舌が薄い場合のものであり、下段の分布は、舌が厚い場合のものである。なお、実線はRの画像データの分布を示し、1点鎖線はGの画像データの分布を示し、破線はBの画像データの分布を示している。
 舌が厚い場合、舌はその端部から中央部にかけて上に凸となる部分を含む。このような舌表面の凸部は、照明部2に近づいて明るく照明されるため、舌の撮影画像において凸部に対応する部分では、画像データの値が増大する。逆に、舌が薄い場合、舌の表面は、端部から中央部にかけてほぼ平坦か、下に凹となる部分を含む。舌表面の平坦部や凹部は、上記の凸部に比べて照明部2から遠ざかるため、照明されても凸部よりも暗い。このため、舌の撮影画像において、表面の平坦部や凹部に対応する部分では、画像データの値が凸部に対応する部分に比べて減少する。このような傾向は、RGBのいずれの画像データについても同様である。
 そこで、特徴量抽出部16は、照明部2の照明下で得られる舌の撮影画像におけるRGBのいずれかの色の水平方向の画像データの分布(単色の分布)の凹凸に基づいて、舌が厚いか、薄いかの検出を行うことができる。つまり、舌の撮影画像に含まれるRGBのいずれかの色の画像データの水平方向の分布を、舌表面の凹凸の度合いを示すデータ分布として用い、凹凸の度合いを例えばレベル1(舌が厚い)~レベル5(舌が薄い)に数値化することで、舌厚の検出を精度よく(舌の外形形状に関係なく)行うことができる。なお、データ分布の凹凸の度合いは、例えばデータ分布の中央部を近似する近似曲線(例えば2次式)を最小二乗法等で算出し、近似曲線の2次の係数およびその絶対値を見ることで判別することができる。ちなみに、近似曲線の2次の係数が正であれば凹形状であり、負であれば凸形状である。
 なお、上記画像データの分布として、Rの成分比(R/(R+G+B))、Gの成分比(G/(R+G+B))、Bの成分比(B/(R+G+B))を示すデータの分布を用いても、上記と同様に、舌厚を精度よく検出することができる。
 (その他)
 舌の形、歯痕、裂紋等の特徴量を抽出するにあたり、特許文献1に記載の方法を用いてもよい。また、特許文献2に記載のように、舌の撮影画像を複数の領域に分割し、個々の領域ごとにRGBのデータを読み出して特徴量を抽出するようにしてもよい。
 〔端末装置について〕
 次に、端末装置51について説明する。図16は、端末装置51の概略の構成を示すブロック図である。端末装置51は、対象者の健康度を判定する健康度判定装置であり、記憶部52、判定部53、通信部54および制御部55を有している。
 記憶部52は、複数の他人の器官(ここでは舌)の撮影画像のデータや、器官画像撮影装置1を含む外部装置から送信されるデータを記憶するメモリである。通信部54は、外部装置との間で通信を行うためのインターフェースである。特に、本実施形態では、通信部54は、対象者の器官の撮影画像から抽出され、健康度の判定に用いる特徴量が入力される特徴量入力部を構成しており、また、外部(器官画像撮影装置1)から送信される対象者の特徴量の情報を受信する受信部を構成している。なお、端末装置51は、対象者の器官の撮影画像から抽出された特徴量が記録された記録媒体から、その特徴量を読み取る読取部を備えていてもよい。この場合、端末装置51は、読取部での情報の読み取りにより、特徴量を取得することができる。したがって、この場合は、読取部を上記の特徴量入力部として機能させることができる。制御部55は、例えばCPUで構成され、端末装置51の各部の動作を制御する。
 判定部53は、器官画像撮影装置1から送信され、特徴量入力部としての通信部54を介して入力された対象者の特徴量を、母集団の特徴量の分布と比較することによって、他人との個人差に相当する対象者の体質の偏りと、対象者の体調の変化とを判定する。上記の母集団の特徴量の分布としては、他人の特徴量の分布または対象者本人の特徴量の分布を用いることができる。これらの分布は、判定部53によって作成される。すなわち、他人の特徴量の分布は、記憶部52に記憶された他人の撮影画像のデータから、特徴量抽出部16と同様の抽出方法で特徴量を抽出することで作製される。対象者の特徴量の分布は、体調を評価する評価期間内で特徴量抽出部16にて抽出された特徴量を用いて作成される。
 図17は、判定部53が作成する他人の特徴量の分布を模式的に示している。同図中の×印は、個々の他人の特徴量のプロット位置を示している。ここでは、例として、特徴量が2次元(Xi、Xj)の場合の分布を示している。Xiとしては、例えば舌の色を考えることができ、Xjとしては、例えば苔の色を考えることができる。また、横軸のa1およびa2は互いに異なる色に対応する値を示し、縦軸のb1およびb2も互いに異なる色に対応する値を示している。この特徴量の分布の原点Oは、Xiの平均およびXjの平均を示す点である。
 同図の例では、XiおよびXjの分布に偏りがあり、これらの間に相関があることがわかる。つまり、Xiの値が原点Oよりもa1側では、Xjの値はb2側よりもb1側の値のほうが多く、Xiの値が原点Oよりもa2側では、Xjの値はb1側よりもb2側の値のほうが多い。特徴量が3次元以上の多次元の場合でも、互いにある種の相関関係が生ずるものと考えられる。
 ここで、図17において、入力された対象者の特徴量(例えば点A)の、他人の特徴量の分布の原点Oからの距離を、体調の評価値(第1の評価値)とする。この評価値は、ユークリッド距離ではなく、マハラノビス距離である。マハラノビス距離とは、多くの計測項目(特徴量)ごとのばらつきや相関関係を考慮して計算される距離の尺度である。母集団の個数をn、計測項目毎のデータの平均値をm、標準偏差をσ、計測項目相互の相関を表す相関行列に対する逆行列の要素をaijとし、計測項目の数をkとすると、m1、m2、・・・mkの平均値ベクトルが、母集団の作る分布(空間)の原点となる。ここで標準偏差のベクトルをσ1、σ2、・・・σk、健康度を判定する対象者の計測値(特徴量)をx1、x2、・・・xkとすると、マハラノビス距離Dは、次の数2式により求められる。
Figure JPOXMLDOC01-appb-M000002
 上記の数2式において、母集団空間の全対象であるn個のマハラノビス距離の平均は「1」となる。これにより、体調の評価値を示す尺度の原点と距離の単位が定まることになる。なお、マハラノビス距離が小さいほど、対象者は母集団に近く、マハラノビス距離が大きいほど、母集団から遠い。
 図18は、疾患のある患者A、健常者B、健康度を判定する対象となる対象者Cについて、長期的な体調変化のイメージを示している。なお、図中の原点Oは、図17で示した他人の特徴量の分布の原点Oに対応しており、横軸は、生まれてからの時間を示し、縦軸は、上記した体調の評価値を示している。縦軸の単位量Uは、原点Oからの距離の単位を示す。
 特別な疾患が無い場合、生後から10歳代までは、患者A、健常者B、対象者Cともに、体調に関する個人差は少ない(原点Oとの距離が短い)。20歳を超えると、飲酒や喫煙、不規則な生活習慣などにより、体調に個人差が現れ、健常者Bであっても、胃腸が弱い、血圧が高い、風邪をひきやすい、などによる個人差が生じる(原点Oとの距離が増大する)。これらの個人差を、ここでは「体質の偏り」と定義する。
 一方、図19は、図18の対象者Cについて、ある評価期間における体調変化を拡大して示している。同一人の中でも、胃腸の調子が悪い、動機や息切れがする、風邪で熱がある、などにより、日常の体調は変化する。このような状態が限度を超えると、病気となって顕在化し、治療が必要な状態となる。一定の評価期間内での対象者Cの評価値の変動を、「体調の変化」と定義する。以下、判定部53による判定方法も含めて、基本的な処理の流れについて説明する。
 (処理の流れ)
 図20は、本実施形態の健康度判定システム50における処理の流れを示すフローチャートである。健康度判定システム50では、以下の第1~第3ステップが順に行われる。
 <第1ステップ>
 (1-1.健常者の舌画像収集)
 まず、フラッシュを備えた撮影装置(例えばデジタルカメラ)により、体質の偏りの無い、若い健常者(他人)の舌画像を収集する。なお、上記の健常者は、図18の母集団P1に属する。舌の様相は、10歳代でほぼ成人と同じになると言われている。ここでは、成人病など生活習慣による体質の偏りが現れていない、10歳代前半の健常者の画像をサンプルとして収集する。サンプル数の目安は、10~100例程度が望ましい。上述したマハラノビス距離を求めるには、特徴量の数以上のサンプルが必要となる(逆行列を演算するため)。収集した画像のデータは、端末装置51に送られて記憶部52に記憶される。
 (1-2.特徴量の抽出)
 端末装置51の判定部53は、記憶部52に記憶されている他人の撮影画像のデータから、健康度の判定に用いる他人の特徴量を、特徴量抽出部16と同様の抽出方法で抽出する。これにより、舌の色、苔の色、苔の形(厚さ)、歯痕、湿り気(光沢度)、裂紋(亀裂)、舌の形(厚さ)などが他人の特徴量として抽出される。その他、東洋医学の診断方法で用いられる特徴量を抽出してもよい。
 (1-3.距離尺度の演算1)
 次に、判定部53は、抽出した他人の特徴量を母集団とする分布(特徴量が2次元であれば例えば図17のような分布)の原点O1と単位量U1を設定する。原点O1は、他人の特徴量の平均を示す点であり、単位量U1は、原点O1からの距離の単位を示す。これらの設定は、上述したマハラノビス距離を用いた多変量解析によって行うことができる。多変量解析の方法としては、この他にも、線形関数を用いる方法や、回帰分析を用いる方法があるが、どの方法を用いてもよい。
 (1-4.日々の撮影)
 器官画像撮影装置1の撮像部3により、対象者の日々の舌画像を上記と同様に収集する。サンプル数の目安は、上記の約2倍(20~200例程度)が望ましい。特徴量抽出部16は、対象者の舌画像のデータから、舌色等の特徴量を上述の方法で抽出する。撮像部3にて撮影された画像、および特徴量抽出部16にて抽出された特徴量の情報は、端末装置51に送信され、記憶部52に記憶される。
 (1-5.体質の偏りの演算)
 端末装置51の判定部53は、対象者の特徴量と母集団の分布(他人の特徴量の分布)とを比較して、母集団との差異(マハラノビス距離)を求め、時間経過に対するマハラノビス距離の変化を、対象者の体調の評価値(第1の評価値)の変化として求める。図21は、このときの対象者の体調の評価値の変化を示している。なお、対象者の特徴量と母集団との差異は、図21の距離(1)に相当する。判定部53は、評価期間における距離(1)の平均(距離M)を求め、この距離Mを対象者の体質の偏りとして判定する。
 <第2ステップ>
 (2-1.対象者の健康時の舌画像収集)
 図22は、図21の評価期間における対象者の体調の評価値の変化を拡大して示している。判定部53は、上記の距離Mを閾値とし、評価期間内で評価値が閾値以下となる日時の(撮影日)の画像を抽出する。このとき、距離Mの代わりに、(平均値-標準偏差)などを閾値として、評価値が閾値以下となる画像を抽出してもよい(より健康度の高い日の画像を抽出してもよい)。この場合、サンプル数を相当分増やしておくことが望ましい。
 (2-2.距離尺度の演算2)
 次に、判定部53は、評価値が閾値以下となる全ての日時の対象者本人の撮影画像から、対象者の特徴量を抽出し、抽出した対象者の特徴量を母集団とする分布の原点O2と単位量U2とを設定する。原点O2は、対象者の特徴量の平均を示す点であり、単位量U2は、原点O2からの距離の単位を示すものである。これらの設定は、上述したマハラノビス距離を用いた多変量解析によって行うことができ、また、線形関数や回帰分析を用いて多変量解析を行うこともできる。
 (2-3.体調の変化の演算)
 判定部53は、判定時の対象者の特徴量と母集団の分布(対象者の特徴量の分布)とを比較して、母集団との差異(マハラノビス距離)を求め、時間経過に対するマハラノビス距離の変化を、対象者の体調の評価値(第2の評価値)の変化として求める。図23は、このときの対象者の体調の評価値の変化を示している。なお、対象者の特徴量と母集団との差異は、図23の距離(2)に相当する。判定部53は、評価期間における距離(2)の変化を、対象者の体調の変化として判定する。対象者本人の特徴量の分布を母集団としているため、体質の偏りによる底上げが無く、日々の体調変化を感度良く測定することができる。
 <第3ステップ>
 (3-1.データの更新)
 図24は、対象者の体調の評価値(第1の評価値)の中期的な変化を示している。ある評価期間(例えば評価期間1)が終了すると、次の評価期間(例えば評価期間2)に移行する。このとき、体調の変化を判定する際に用いる母集団、すなわち、第1の評価値が閾値以下となる対象者の特徴量の分布を、一定期間ごとに更新する。図24の例では、評価期間1では、体調の変化を判定する際に、母集団P2(第1の評価値が距離M以下となる対象者の特徴量の分布)を用いているが、評価期間2では、母集団P3(第1の評価値が距離N以下となる対象者の特徴量の分布)を用いる。なお、距離Nは、評価期間2における、第1の評価値の原点O1からの距離(マハラノビス距離)の平均である。母集団の更新は、総てのデータを一度に入れ替えてもよいし、日々新しいものを追加し、古いものを削除する方法でもよい。図24は、前者の例を示している。
 評価期間2では、判定部53は、上記の距離Nを閾値とし、評価期間2内で第1の評価値が閾値以下となる撮影日の画像を抽出し、対象者の特徴量の分布(母集団P3の分布)の原点O2と単位量U2とを設定する。そして、評価期間2における判定時の対象者の特徴量と母集団P3との距離を、評価期間2における対象者の体調の変化とする。なお、図24において、Q1は、評価期間1における体調の変化の幅を示し、Q2は、評価期間2における体調の変化の幅を示す。また、距離Mと距離Nとの差は、評価期間1から評価期間2における体質の改善となる。なお、前の評価期間1における母集団P2との差異を、評価期間2における母集団との距離としてもよい。なお、前述した母集団P1は変えなくてもよい。
 母集団P2からP3への更新により、距離Mも距離Nに更新されるが、以降の評価期間においても同様に、距離Nが順に更新される。なお、図23で示した距離(2)は、毎日の撮影によって更新される。
 (3-2.結果の出力)
 評価期間において判定された体質の偏りおよび体調の変化に関する情報(図22の距離Mまたは図24の距離Nの値、図23の距離(2)の値)は、端末装置51から器官画像撮影装置1に送信され、表示部4にて表示される。
 (3-3.データの活用)
 端末装置51は、日々の距離の変動をグラフ化して対象者(器官画像撮影装置1)に提示してもよい。また、体調変化を示す距離(2)の増大により、対象者の健康度が低下していたり、体質の偏りを示す距離Mが大きい場合、その改善の方法を併せて提示してもよい。提示する改善の方法は、東洋医学に基づくものでも、西洋医学に基づくものでもよい。
 また、特徴量の寄与度を用いて、改善方法を具体的に示してもよい。例えば、健康度の低下に舌色の寄与が大きい場合には、血流を改善する処置を、苔の厚さの寄与が大きい場合には、免疫を改善する処置などを提示することができる。
 求めた体調の変化(距離(2))をある基準とさらに比較して、体調が良好か否かを判断してもよい。その際の基準として、本人の過去の履歴を利用してもよい。例えば、過去に病気になった時点の対象者の舌画像があれば、それを端末装置51に送信し、端末装置51にて、舌画像から特徴量を抽出してそのときの母集団(他人の特徴量の分布)の原点からの距離(病気になった時点の舌画像が複数ある場合は上記距離の平均)を求め、これを上記の基準としてもよい。このような基準を用いて体調の良否を判定することにより、対象者の現在の体調が、過去の病気になったときの体調に近いか否かを判定することが可能となり、近づいた場合には、体調の改善方法をより的確なタイミングで提示することができる。
 求めた対象者の体質の偏り(距離M)をある基準とさらに比較して、体質の偏りが大きいか否かを判断してもよい。その際の基準として、同年齢の他の健常者の第1の評価値の平均値を用いてもよい。例えば対象者が50歳代の場合、10歳代の他人との比較で体質の偏りを判断するよりも、同年齢の他人との比較で体質の偏りを判断するほうが、同年齢での個人差がわかるため、体質の偏りを的確に把握することができる。
 以上のように、端末装置51の判定部53は、対象者の体質の偏りを判定する場合、他人の特徴量の分布を母集団の分布とし、これを対象者の特徴量との比較対象とする。他人の特徴量の分布を比較対象とすることで、他人との個人差である体質の偏りがわかるため、体質の偏りの改善策の効果を容易に確認することが可能となる。また、判定部53は、対象者の体調の変化を判定する場合、評価期間内で集めた対象者本人の特徴量の分布を母集団の分布とし、これを対象者本人の特徴量との比較対象とする。対象者本人の特徴量の分布を比較対象とするため、他人との個人差の影響はほとんどなく、体質の偏りの影響を低減しながら、対象者本人の体調(健康度)を精度よく判定することができる。
 また、判定部53は、入力された対象者の特徴量の、他人の特徴量の分布の原点O1からの距離を第1の評価値として求め、評価期間において経時的に変化する第1の評価値の平均を、対象者の体質の偏りとして判定するため、評価期間内で第1の評価値が変動したり、ばらついても、対象者の体質の偏りを適切に判定することができる。
 また、判定部53は、評価期間内において経時的に変化する第1の評価値が閾値以下となる日時の特徴量を集めて対象者の特徴量の分布を作成し、対象者の特徴量の、上記分布の原点O2からの距離を第2の評価値として求め、評価期間において経時的に変化する第2の評価値の変化を、対象者の体調の変化として判定している。上記した対象者の特徴量の分布は、第1の評価値が閾値以下となる特徴量の分布であり、体質の偏りが小さいと判断できる。したがって、このような対象者の特徴量の分布を比較対象として第2の評価値を求め、第2の評価値を用いて体調の変化を判定することにより、体質の偏りの影響を確実に低減しながら、体調の変化を判定することができる。
 また、判定部53は、入力された対象者本人の特徴量と母集団の特徴量の分布との比較を、マハラノビス距離を用いて行っている。特徴量が多次元であっても、マハラノビス距離という1つの尺度で母集団の分布と比較することにより、体質の偏りと体調の変化とを適切に判定することができる。
 また、本実施形態では、判定部53が体質の偏りを判定する際に、母集団の分布として用いる他人の特徴量の分布は、10歳代、つまり、10歳以上19歳以下の他人の特徴量の分布となっている。10歳代の若い人は、生活習慣による体質の偏りがほとんどないと考えられるため、上記分布を用いることにより、対象者の体質の偏りを精度よく判定することができる。
 特に、10歳代の健康で若い人は、生活習慣による体質の偏りがほとんどなく、特徴量の均一性も高いと考えられるため、10歳以上19歳以下で、かつ、健康な他人の特徴量の分布を用いることにより、対象者の体質の偏りをさらに精度よく判定することができる。
 また、判定部53が体調の変化を判定する際に用いる母集団の分布としての対象者の特徴量の分布は、20歳以上である対象者の特徴量の分布であってもよい。対象者の年齢が10歳代を超えると、体質の偏りが生じてくるため、母集団の分布に体質の偏りが含まれる可能性が出てくる。対象者本人の体調の変化を、体質の偏りも含めて判定したい場合には、上記分布とすることが有効となる。特に、上記分布が、20歳以上で、かつ、健康な対象者の特徴量の分布であれば、健康な状態を基準として、体質の偏りも含めた体調の変化を判定することが可能となる。
 また、本実施形態では、撮影対象となる器官を舌としている。このように舌を撮影して対象者の健康度を判定する構成において、上述の効果を得ることができる。なお、器官は舌以外であってもよい。例えば、まぶたなど、水分代謝の良否によりむくみが現れる部位を撮影対象とし、そのような部位の特徴量を抽出して体質の偏りや体調の変化を判定するようにしてもよい。
 また、本実施形態では、対象者の特徴量として、舌の色、苔の色、舌の形(厚さ)、苔の厚さ(形)等を用いている。つまり、対象者の特徴量には、器官の色および形の少なくとも一方についての情報が含まれている。少なくとも器官の色や形の情報を特徴量として用いることにより、体質の偏りおよび体調の変化を判定することができる。
 〔問診の付加について〕
 漢方の問診により、体の状態を診断する方法が知られている(例えば、寺澤捷年、「症例から学ぶ和漢診療学(第2版)」、医学書院、1998 参照)。画像の特徴量にこれらの項目を加えて健康度の指標としてもよい。
 例えば、漢方の「気虚」を診断する項目として、以下のものが紹介されている。
 1.身体がだるい
 2.気力がない
 3.疲れやすい
 4.日中の睡気
 5.食欲不振
 6.風邪をひきやすい
 7.物事に驚きやすい
 8.眼光・音声に力が無い
 9.舌が淡白紅・腫大
 10.脈が弱い
 11.腹力が軟弱
 12.内臓のアトニー
 13.下腹部が軟弱
 14.下痢傾向
 具体的な処理としては、器官画像撮影装置1の表示部4に、問診に必要な上記項目を表示する。対象者は、舌画像の撮影に加えて、操作部5を操作して、上記項目に対する返答を入力する。入力された返答は、端末装置51に送信される。端末装置51の判定部53は、対象者の特徴量の母集団の分布との比較と、操作部5を介して入力されて端末装置51に送信された返答結果とに基づいて、対象者の体質の偏りと、対象者の体調の変化とを判定する。例えば、体調変化の判定の際には、項目1~5、9、10、14に対する返答結果を参照し、体調の変化が大きいか否かを判定する。一方、体質の偏りの判定の際には、項目6~8、11~13に対する返答結果を参照し、体質の偏りが大きいか否かを判定する。判定結果および体質や体調の改善方法は、器官画像撮影装置1にフィードバックされ、表示部4に表示される。
 このように、外部から入力された特徴量と母集団の分布との比較のみならず、問診項目に対して操作部5により返答された結果に基づいて、体質の偏りと体調の変化とを判定することにより、漢方診断の蓄積を活かして、また本人の主訴も考慮して、より適切な判定を行うことができる。
 〔課金サービスについて〕
 本実施形態の健康度判定システム50において、判定結果や改善方法を対象者に提供して対価を得るサービスを構築してもよい。この場合、提供する内容に応じて、代金に差を付けることもできる。例えば、提供する内容が、(a)画像特徴量の変化のみ、(b)(a)に加えて体調の変化、(c)(b)に加えて体質の変化、の3パターンであった場合、(a)(b)(c)の順に代金を高く設定してもよい。また、画像の撮影から健康度の判定結果の回答までの時間に応じて、代金に差をつけてもよい。
 〔1次元の特徴量について〕
 以上では、特徴量が多次元(多変量)の場合について説明したが、特徴量は1次元(1変量)であってもよい。図25は、特徴量が1変量(例えば舌色)の場合の度数分布を示している。なお、縦軸の値は、舌色の画像データ(例えばR/(R+G+B))を示している。ただし、原点は、舌色の平均値に対応している。図25の分布の原点を、図22および図23の原点に対応させ、図25の±3σ(σ:標準偏差)を、図22および図23の単位量に対応させることにより、体質の偏りや体調の変化を判定することができる。
 〔母集団の他の例〕
 体質の偏りを判定する際の比較対象として、以下の画像から抽出される特徴量の分布を用いてもよい。
 (1)10歳代の健康な他人の撮影画像であれば、健康度の判定時よりも前、判定時と同じとき、判定時よりも後、に撮影したいずれの画像を用いてもよい。例えば対象者の現在の年齢が50歳で、対象者の40歳のときの健康度を判定する場合、対象者の40歳のときよりも前、同じとき、後に撮影されたいずれの画像を用いてもよい。画像の種類が増えることにより、健康度をより明確に判断できる。
 (2)10歳代の不健康な他人の撮影画像であれば、健康度の判定時よりも前、判定時と同じとき、判定時よりも後、に撮影したいずれの画像を用いてもよい。他人の不健康状態の特徴量と比較することにより、対象者の健康状態をより明確に判断できる。
 (3)10歳代の健康または不健康な対象者本人の撮影画像を用いてもよい。他人と比べる必要がないので、簡便な比較が可能となる。
 また、体調の変化を判定する際の比較対象として、以下の画像から抽出される特徴量の分布を用いてもよい。すなわち、あらゆる年代で、健康または不健康な本人の画像であれば、判定時よりも前または後に撮影したいずれの画像を用いてもよい。画像の種類が増え、複数の不健康状態と比較することにより、健康状態をより明確に判断できる。
 以上で説明した健康度判定装置および健康度判定システムは、以下のように表現することができ、これによって以下の作用効果を奏する。
 以上で説明した健康度判定装置は、対象者の健康度を判定する健康度判定装置であって、対象者の器官の撮影画像から抽出され、健康度の判定に用いる特徴量が入力される特徴量入力部と、前記特徴量入力部を介して入力された対象者の特徴量を、母集団の特徴量の分布と比較することにより、他人との個人差に相当する対象者の体質の偏りと、対象者の体調の変化とを判定する判定部とを備え、前記判定部は、対象者の体質の偏りを判定する場合、前記母集団の特徴量の分布として、他人を対象として作成される、他人の特徴量の分布を用い、対象者の体調の変化を判定する場合、前記母集団の特徴量の分布として、体調を評価する評価期間内で集めた対象者本人の特徴量の分布を用いる。
 判定部は、特徴量入力部を介して入力された対象者の特徴量を母集団の特徴量の分布と比較することにより、対象者の体質の偏りと体調の変化とを判定する。ここで、対象者の体質の偏りを判定する場合は、他人の特徴量の分布を母集団の特徴量の分布として用いる。他人の特徴量の分布を比較対象とすることにより、他人との個人差、つまり、対象者の体質の偏りがわかるため、体質の偏りの改善策の効果を確認することが容易となる。
 また、対象者の体調の変化を判定する場合、評価期間内で集めた対象者本人の特徴量の分布を母集団の特徴量の分布として用いる。対象者本人の特徴量の分布を比較対象とするため、他人との個人差の影響は排除される。これにより、体質の偏りの影響を低減しながら、対象者本人の体調(健康度)を精度よく判定することができる。
 前記判定部は、前記特徴量入力部を介して入力された対象者の特徴量の、前記他人の特徴量の分布の原点からの距離を第1の評価値として求め、前記評価期間において経時的に変化する前記第1の評価値の平均を、対象者の体質の偏りとして判定してもよい。
 経時的に変化する第1の評価値の平均を、対象者の体質の偏りとして判定するため、第1の評価値の変動やばらつきに関係なく、対象者の体質の偏りを判定することができる。
 前記判定部は、前記評価期間内において経時的に変化する前記第1の評価値が閾値以下となる日時の特徴量を集めて対象者の特徴量の分布を作成し、前記特徴量入力部を介して入力された対象者の特徴量の、前記分布の原点からの距離を第2の評価値として求め、前記評価期間において経時的に変化する第2の評価値の変化を、対象者の体調の変化として判定してもよい。
 第1の評価値が閾値以下となる日時の特徴量を集めてなる対象者の特徴量の分布は、他人との個人差、つまり、体質の偏りが小さいと判断できる特徴量の分布である。したがって、このような特徴量の分布を比較対象として第2の評価値を求め、第2の評価値を用いて体調の変化を判定することにより、体質の偏りの影響を確実に低減しながら、体調の変化を判定することができる。
 前記判定部は、前記特徴量入力部を介して入力された対象者の特徴量と前記母集団の特徴量の分布との比較を、マハラノビス距離を用いて行ってもよい。この場合、特徴量入力部を介して入力された特徴量が多次元であっても、体質の偏りと体調の変化とを適切に判定することができる。
 前記他人の特徴量の分布は、10歳以上19歳以下の他人の特徴量の分布であってもよい。
 10歳代の若い人は、生活習慣による体質の偏りがほとんどないと考えられる。このため、母集団の特徴量の分布として、10歳代の他人の特徴量の分布を用いることにより、その分布を用いて対象者の体質の偏りを精度よく判定することができる。
 前記他人の特徴量の分布は、10歳以上19歳以下で、かつ、健康な他人の特徴量の分布であってもよい。
 10歳代の健康で若い人は、生活習慣による体質の偏りがほとんどなく、特徴量の均一性も高いと考えられる。このため、母集団の特徴量の分布として、10歳代の健康な他人の特徴量の分布を用いることにより、その分布を用いて対象者の体質の偏りをさらに精度よく判定することができる。
 前記対象者の特徴量の分布は、20歳以上である対象者の特徴量の分布であってもよい。
 対象者の年齢が10歳代を超えると、体質の偏りが生じてくるため、母集団の分布に体質の偏りが含まれる可能性が出てくる。対象者本人の体調の変化を、体質の偏りも含めて判定したい場合には、上記分布を用いることが有効となる。
 前記対象者の特徴量の分布は、20歳以上で、かつ、健康な対象者の特徴量の分布であってもよい。
 母集団の分布に体質の偏りが含まれる可能性が出てくるものの、健康な対象者の特徴量の分布を比較対象(母集団の特徴量の分布)とするため、健康な状態を基準として、体質の偏りも含めた体調の変化を判定することが可能となる。
 前記器官は、舌であってもよい。この場合、舌を撮影して対象者の健康度を判定する構成において、上述の効果を得ることができる。
 前記特徴量入力部を介して入力された対象者の特徴量は、器官の色および形の少なくとも一方についての情報を含んでいてもよい。少なくとも器官の色や形の情報を特徴量として用いることにより、体質の偏りおよび体調の変化を判定することができる。
 前記特徴量入力部は、外部から送信される対象者の特徴量の情報を受信する受信部で構成されていてもよい。この場合、対象者の特徴量の情報を受信部にて取得する構成において、上述の効果を得ることができる。
 以上で説明した健康度判定システムは、上述した健康度判定装置と、器官画像撮影装置とを、通信回線を介して通信可能に接続してなり、前記器官画像撮影装置は、対象者の器官を撮影する撮像部と、前記撮像部にて撮影された画像から、健康度の判定に用いる特徴量を抽出する特徴量抽出部と、前記特徴量抽出部にて抽出された対象者の特徴量の情報を、前記健康度判定装置に送信する送信部とを備えている。健康度の判定に用いる対象者の特徴量が、器官画像撮影装置で取得されて健康度判定装置に送信されるシステムにおいて、上述の効果を得ることができる。
 前記器官画像撮影装置は、前記健康度判定装置の前記判定部により判定された体質の偏りおよび体調の変化に関する情報を表示する表示部を備えていてもよい。対象者の体質の偏りと体調の変化とに関する情報が表示部に表示されるため、対象者は表示部に表示された情報に基づき、体質の改善効果と体調(健康度)との両方を容易に把握することができる。
 前記器官画像撮影装置は、問診に必要な項目を表示する表示部と、前記表示部に表示された前記項目に対して返答するための情報入力部とをさらに備え、前記健康度判定装置の前記判定部は、前記器官画像撮影装置から送信された情報に含まれる対象者の特徴量と前記母集団の特徴量の分布との比較と、前記情報入力部により入力されて該健康度判定装置に送信される返答結果とに基づいて、対象者の体質の偏りと、対象者の体調の変化とを判定してもよい。
 送信された対象者の特徴量と母集団の特徴量の分布との比較のみならず、問診項目に対して情報入力部により返答された結果に基づいて、体質の偏りと体調の変化とを判定することにより、より適切な判定を行うことができる。
 本発明は、対象者の器官の撮影画像から特徴量を抽出して対象者の健康度を判定するシステムに利用可能である。
   1   器官画像撮影装置
   3   撮像部
   4   表示部
   5   操作部(情報入力部)
   6   通信部(送信部)
  16   特徴量抽出部
  50   健康度判定システム
  51   端末装置(健康度判定装置)
  53   判定部
  54   通信部(特徴量入力部、受信部)

Claims (14)

  1.  対象者の健康度を判定する健康度判定装置であって、
     対象者の器官の撮影画像から抽出され、健康度の判定に用いる特徴量が入力される特徴量入力部と、
     前記特徴量入力部を介して入力された対象者の特徴量を、母集団の特徴量の分布と比較することにより、他人との個人差に相当する対象者の体質の偏りと、対象者の体調の変化とを判定する判定部とを備え、
     前記判定部は、対象者の体質の偏りを判定する場合、前記母集団の特徴量の分布として、他人を対象として作成される、他人の特徴量の分布を用い、対象者の体調の変化を判定する場合、前記母集団の特徴量の分布として、体調を評価する評価期間内で集めた対象者本人の特徴量の分布を用いることを特徴とする健康度判定装置。
  2.  前記判定部は、前記特徴量入力部を介して入力された対象者の特徴量の、前記他人の特徴量の分布の原点からの距離を第1の評価値として求め、前記評価期間において経時的に変化する前記第1の評価値の平均を、対象者の体質の偏りとして判定することを特徴とする請求項1に記載の健康度判定装置。
  3.  前記判定部は、前記評価期間内において経時的に変化する前記第1の評価値が閾値以下となる日時の特徴量を集めて対象者の特徴量の分布を作成し、前記特徴量入力部を介して入力された対象者の特徴量の、前記分布の原点からの距離を第2の評価値として求め、前記評価期間において経時的に変化する第2の評価値の変化を、対象者の体調の変化として判定することを特徴とする請求項2に記載の健康度判定装置。
  4.  前記判定部は、前記特徴量入力部を介して入力された対象者の特徴量と前記母集団の特徴量の分布との比較を、マハラノビス距離を用いて行うことを特徴とする請求項1から3のいずれかに記載の健康度判定装置。
  5.  前記他人の特徴量の分布は、10歳以上19歳以下の他人の特徴量の分布であることを特徴とする請求項1から4のいずれかに記載の健康度判定装置。
  6.  前記他人の特徴量の分布は、10歳以上19歳以下で、かつ、健康な他人の特徴量の分布であることを特徴とする請求項1から5のいずれかに記載の健康度判定装置。
  7.  前記対象者の特徴量の分布は、20歳以上である対象者の特徴量の分布であることを特徴とする請求項1から6のいずれかに記載の健康度判定装置。
  8.  前記対象者の特徴量の分布は、20歳以上で、かつ、健康な対象者の特徴量の分布であることを特徴とする請求項1から7のいずれかに記載の健康度判定装置。
  9.  前記器官は、舌であることを特徴とする請求項1から8のいずれかに記載の健康度判定装置。
  10.  前記特徴量入力部を介して入力された対象者の特徴量は、器官の色および形の少なくとも一方についての情報を含むことを特徴とする請求項1から9のいずれかに記載の健康度判定装置。
  11.  前記特徴量入力部は、外部から送信される対象者の特徴量の情報を受信する受信部で構成されていることを特徴とする請求項1から10のいずれかに記載の健康度判定装置。
  12.  請求項1から11のいずれかに記載の健康度判定装置と、器官画像撮影装置とを、通信回線を介して通信可能に接続してなり、
     前記器官画像撮影装置は、
     対象者の器官を撮影する撮像部と、
     前記撮像部にて撮影された画像から、健康度の判定に用いる特徴量を抽出する特徴量抽出部と、
     前記特徴量抽出部にて抽出された対象者の特徴量の情報を、前記健康度判定装置に送信する送信部とを備えていることを特徴とする健康度判定システム。
  13.  前記器官画像撮影装置は、
     前記健康度判定装置の前記判定部により判定された体質の偏りおよび体調の変化に関する情報を表示する表示部を備えていることを特徴とする請求項12に記載の健康度判定システム。
  14.  前記器官画像撮影装置は、
     問診に必要な項目を表示する表示部と、
     前記表示部に表示された前記項目に対して返答するための情報入力部とをさらに備え、
     前記健康度判定装置の前記判定部は、前記器官画像撮影装置から送信された情報に含まれる対象者の特徴量と前記母集団の特徴量の分布との比較と、前記情報入力部により入力されて該健康度判定装置に送信される返答結果とに基づいて、対象者の体質の偏りと、対象者の体調の変化とを判定することを特徴とする請求項12に記載の健康度判定システム。
PCT/JP2015/054703 2014-04-30 2015-02-20 健康度判定装置および健康度判定システム WO2015166692A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15785990.1A EP3139339A1 (en) 2014-04-30 2015-02-20 Health degree assessing device and health degree assessing system
JP2015530180A JP5800119B1 (ja) 2014-04-30 2015-02-20 健康度判定装置および健康度判定システム
CN201580022577.5A CN106462926A (zh) 2014-04-30 2015-02-20 健康度判定装置以及健康度判定系统
US15/307,737 US20170112429A1 (en) 2014-04-30 2015-02-20 Level-of-health determining device and level-of-health determining system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014093475 2014-04-30
JP2014-093475 2014-04-30

Publications (1)

Publication Number Publication Date
WO2015166692A1 true WO2015166692A1 (ja) 2015-11-05

Family

ID=54358433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/054703 WO2015166692A1 (ja) 2014-04-30 2015-02-20 健康度判定装置および健康度判定システム

Country Status (5)

Country Link
US (1) US20170112429A1 (ja)
EP (1) EP3139339A1 (ja)
JP (1) JP5800119B1 (ja)
CN (1) CN106462926A (ja)
WO (1) WO2015166692A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208805A (ja) * 2018-06-04 2019-12-12 麻衣子 下郷 生命予後予測方法
JP2022052910A (ja) * 2020-09-24 2022-04-05 株式会社東芝 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI614624B (zh) * 2017-04-24 2018-02-11 太豪生醫股份有限公司 雲端醫療影像分析系統與方法
US20190014996A1 (en) * 2017-07-14 2019-01-17 Hai Rong Qian Smart medical diagnosis system
JP6512648B1 (ja) * 2017-11-15 2019-05-15 前田商事株式会社 ソフトウェア、健康状態判定装置及び健康状態判定方法
CN113470820A (zh) * 2021-08-25 2021-10-01 郑州大学 一种艾灸机器人智能控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314376A (ja) * 2000-05-11 2001-11-13 Res Dev Corp Of Japan 舌診用システムと問診用システム、及び舌診問診教育支援装置
JP2004113581A (ja) * 2002-09-27 2004-04-15 Asahi:Kk 健康管理装置
JP2006149679A (ja) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc 健康度判定方法、装置、及びプログラム
US20060247502A1 (en) * 2005-04-28 2006-11-02 Eastman Kodak Company Method for diagnosing disease from tongue image
JP2008054835A (ja) * 2006-08-30 2008-03-13 Toshiba Corp 健康状態診断システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314376A (ja) * 2000-05-11 2001-11-13 Res Dev Corp Of Japan 舌診用システムと問診用システム、及び舌診問診教育支援装置
JP2004113581A (ja) * 2002-09-27 2004-04-15 Asahi:Kk 健康管理装置
JP2006149679A (ja) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc 健康度判定方法、装置、及びプログラム
US20060247502A1 (en) * 2005-04-28 2006-11-02 Eastman Kodak Company Method for diagnosing disease from tongue image
JP2008054835A (ja) * 2006-08-30 2008-03-13 Toshiba Corp 健康状態診断システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208805A (ja) * 2018-06-04 2019-12-12 麻衣子 下郷 生命予後予測方法
JP2022052910A (ja) * 2020-09-24 2022-04-05 株式会社東芝 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法
JP7183232B2 (ja) 2020-09-24 2022-12-05 株式会社東芝 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法

Also Published As

Publication number Publication date
EP3139339A1 (en) 2017-03-08
JP5800119B1 (ja) 2015-10-28
CN106462926A (zh) 2017-02-22
US20170112429A1 (en) 2017-04-27
JPWO2015166692A1 (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP5800119B1 (ja) 健康度判定装置および健康度判定システム
WO2015114950A1 (ja) 器官画像撮影装置
WO2016076059A1 (ja) 器官画像撮影装置およびプログラム
KR102317478B1 (ko) 상처의 평가 및 관리를 위한 방법 및 시스템
US20140313303A1 (en) Longitudinal dermoscopic study employing smartphone-based image registration
US20140378810A1 (en) Physiologic data acquisition and analysis
US20120078113A1 (en) Convergent parameter instrument
CN104244802B (zh) 图像处理装置、图像处理方法以及图像处理程序
US20080260218A1 (en) Medical Imaging Method and System
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
WO2016067892A1 (ja) 健康度出力装置、健康度出力システムおよびプログラム
JP4649965B2 (ja) 健康度判定装置、及びプログラム
Cassidy et al. Artificial intelligence for automated detection of diabetic foot ulcers: A real-world proof-of-concept clinical evaluation
KR100926769B1 (ko) 혀 영상을 이용한 후태 박태 판별 방법
WO2015049936A1 (ja) 器官画像撮影装置
WO2015068494A1 (ja) 器官画像撮影装置
JP2005094185A (ja) 画像処理システム、画像処理装置、および撮像制御方法
WO2015060070A1 (ja) 器官画像撮影装置
WO2019092723A1 (en) System and method for determining pathological status of a laryngopharyngeal area in a patient
JP2016198140A (ja) 器官画像撮影装置
US20230031995A1 (en) Motion-Based Cardiopulmonary Function Index Measuring Device, and Senescence Degree Prediction Apparatus and Method
KR20090055171A (ko) 스테레오 영상을 이용한 안면 진단 방법
JP2022000686A (ja) 画像表示システム、及び画像表示方法
US20220051399A1 (en) Method and system for determining well-being indicators
JP2016198141A (ja) 器官画像撮影装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015530180

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15785990

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015785990

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015785990

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15307737

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE