WO2015114950A1 - 器官画像撮影装置 - Google Patents

器官画像撮影装置 Download PDF

Info

Publication number
WO2015114950A1
WO2015114950A1 PCT/JP2014/082393 JP2014082393W WO2015114950A1 WO 2015114950 A1 WO2015114950 A1 WO 2015114950A1 JP 2014082393 W JP2014082393 W JP 2014082393W WO 2015114950 A1 WO2015114950 A1 WO 2015114950A1
Authority
WO
WIPO (PCT)
Prior art keywords
ratio
tongue
image
image data
calculation
Prior art date
Application number
PCT/JP2014/082393
Other languages
English (en)
French (fr)
Inventor
松田 伸也
栄治 黒田
元杭 康之
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to EP14881298.5A priority Critical patent/EP3100672A1/en
Priority to US15/115,517 priority patent/US20170164888A1/en
Priority to JP2015559768A priority patent/JPWO2015114950A1/ja
Publication of WO2015114950A1 publication Critical patent/WO2015114950A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4552Evaluating soft tissue within the mouth, e.g. gums or tongue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4255Intestines, colon or appendix
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4519Muscles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/682Mouth, e.g., oral cavity; tongue; Lips; Teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes

Definitions

  • the present invention relates to an organ image photographing apparatus for photographing a tongue which is a living organ and extracting information necessary for diagnosis of health.
  • Patent Document 1 proposes a system that comprehensively performs health degree determination using the Mahalanobis distance.
  • Japanese Patent No. 4487535 see claim 1, paragraphs [0006], [0018], [0096], etc.
  • Japanese Patent No. 4649965 see claim 1, paragraph [0008] etc.
  • Patent Documents 1 and 2 perform comprehensive (single) health level determination from a photographed tongue image, and include a plurality of indicators (for example, blood pressure and body temperature) regarding the health level. Information about is not available. As a result, users are not able to grasp their physical condition and symptoms in detail, such as purchasing over-the-counter drugs that match their physical condition and symptoms, and consulting medical institutions that match their physical condition and symptoms. Is not easy to determine.
  • the present invention has been made to solve the above-mentioned problems, and its purpose is to manage daily physical condition changes of users, compare current information with past history and information of others, and An object of the present invention is to provide an organ imaging apparatus that makes it easy to determine a specific response that matches a symptom.
  • An organ imaging apparatus provides an imaging unit that images a tongue of a living body, and an operation using chromaticity values obtained from data of a captured image of the tongue acquired by the imaging unit.
  • a calculation unit that calculates and outputs a numerical value indicating a state of at least one of the plurality of indices related to the degree.
  • the user's daily physical condition change based on numerical values calculated for at least one of a plurality of indicators relating to health, the user's daily physical condition change, comparison with past history and other data, physical condition and symptoms It is easy to determine a specific response according to the situation.
  • It is explanatory drawing which shows the positional relationship of the illumination part and imaging part of the said organ image imaging device with respect to imaging
  • It is explanatory drawing which shows the picked-up image of the tongue by the said imaging part, the edge extraction filter, and the outline of the tongue extracted from the said picked-up image using the said edge extraction filter.
  • the numerical value range includes the values of the lower limit A and the upper limit B.
  • FIG. 1 is a perspective view showing an external appearance of an organ image photographing apparatus 1 of the present embodiment
  • FIG. 2 is a block diagram showing a schematic configuration of the organ image photographing apparatus 1.
  • the organ image capturing apparatus 1 captures a tongue, which is a living organ, and extracts information necessary for diagnosis of health.
  • the organ image photographing apparatus 1 includes an illumination unit 2, an imaging unit 3, a display unit 4, an operation unit 5, a communication unit 6, and an audio output unit 7.
  • the illumination unit 2 is provided in the housing 21, and the configuration other than the illumination unit 2 (for example, the imaging unit 3, the display unit 4, the operation unit 5, the communication unit 6, and the audio output unit 7) is provided in the housing 22. ing.
  • casing 22 are connected so that relative rotation is possible, rotation is not necessarily required and one side may be completely fixed to the other.
  • etc., May be provided in the single housing
  • the organ image photographing device 1 may be composed of a multifunctional portable information terminal.
  • the illumination unit 2 is composed of an illuminator that illuminates a subject to be photographed from above.
  • a light source that emits a daylight color such as a xenon lamp is used.
  • the brightness of the light source varies depending on the sensitivity of the imaging unit 3 and the distance to the shooting target. As an example, it is possible to consider the brightness at which the illuminance of the shooting target is 1000 to 10000 lx.
  • the illumination unit 2 includes a lighting circuit and a dimming circuit in addition to the above light source, and lighting / extinguishing and dimming are controlled by a command from the illumination control unit 11.
  • the imaging unit 3 captures an image of a living organ (here, tongue) under illumination by the illumination unit 2 and acquires an image, and includes an imaging lens and an area sensor (imaging element).
  • the aperture (brightness of the lens), shutter speed, and focal length of the imaging lens are set so that the entire range to be photographed is in focus.
  • F number 16
  • shutter speed 1/120 seconds
  • focal length 20 mm.
  • the area sensor is composed of image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor), and the sensitivity and resolution are set so that the color and shape of the subject can be detected sufficiently.
  • image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor)
  • sensitivity and resolution are set so that the color and shape of the subject can be detected sufficiently.
  • sensitivity 60 db
  • resolution 10 million pixels.
  • Imaging by the imaging unit 3 is controlled by the imaging control unit 12.
  • the imaging unit 3 includes a focus mechanism (not shown), a diaphragm mechanism, a drive circuit, an A / D conversion circuit, and the like. Focus, aperture control, A / D conversion, and the like are controlled.
  • the imaging unit 3 acquires, for example, data of 0 to 255 in 8 bits for each of red (R), green (G), and blue (B) as captured image data.
  • FIG. 3 is an explanatory diagram showing a positional relationship between the illumination unit 2 and the imaging unit 3 with respect to an imaging target (tongue or face).
  • the imaging unit 3 is arranged to face the subject to be photographed.
  • the illumination unit 2 is arranged so as to illuminate the imaging target at an angle A of, for example, 0 ° to 45 ° with respect to the imaging optical axis X of the imaging unit 3 passing through the imaging target.
  • the imaging optical axis X refers to the optical axis of the imaging lens that the imaging unit 3 has.
  • the preferable range of the angle A at the time of illumination is 15 ° to 30 °.
  • the display unit 4 includes a liquid crystal panel (not shown), a backlight, a lighting circuit, and a control circuit.
  • the display unit 4 calculates and outputs an image acquired by photographing with the imaging unit 3 and a calculation unit 16 described later. Displayed information.
  • the display unit 4 can also display information acquired from the outside via the communication unit 6 (for example, a result of diagnosis by transmitting information to an external medical institution). Display of various types of information on the display unit 4 is controlled by the display control unit 13.
  • the operation unit 5 is an input unit for instructing imaging by the imaging unit 3, and includes an OK button (imaging execution button) 5a and a CANCEL button 5b.
  • the display unit 4 and the operation unit 5 are configured by a common touch panel display device 31, and the display area of the display unit 4 and the display area of the operation unit 5 in the touch panel display device 31 are separated.
  • the display of the operation unit 5 on the touch panel display device 31 is controlled by the operation control unit 14.
  • the operation unit 5 may be configured by an input unit other than the touch panel display device 31 (the operation unit 5 may be provided at a position outside the display area of the touch panel display device 31).
  • the communication unit 6 transmits the image data acquired by the imaging unit 3 and the information calculated and output by the calculation unit 16 described below to the outside via a communication line (including wired and wireless). It is an interface for receiving information from the outside. Transmission / reception of information in the communication unit 6 is controlled by the communication control unit 18.
  • the audio output unit 7 outputs various types of information as audio, and is composed of, for example, a speaker.
  • the information output by voice includes the result (numerical value for each index) calculated by the calculation unit 16.
  • the sound output in the sound output unit 7 is controlled by the sound output control unit 19.
  • the organ imaging apparatus 1 further includes an illumination control unit 11, an imaging control unit 12, a display control unit 13, an operation control unit 14, an image processing unit 15, a calculation unit 16, a storage unit 17, a communication control unit 18, and a voice.
  • An output control unit 19 and an overall control unit 20 that controls these units are provided.
  • the illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, and the audio output control unit 19 are the illumination unit 2, the imaging unit 3, the display unit 4, and the operation.
  • the unit 5, the communication unit 6, and the audio output unit 7 are controlled.
  • the overall control unit 20 is composed of, for example, a CPU (Central Processing Unit).
  • the illumination control unit 11, the imaging control unit 12, the display control unit 13, the operation control unit 14, the communication control unit 18, the audio output control unit 19, and the overall control unit 20 are integrated (for example, with one CPU). ) May be configured.
  • the image processing unit 15 has a function of extracting an organ outline from the image acquired by the imaging unit 3. Extraction of the outline of the organ can be performed by extracting the luminance edge of the captured image (the portion in which the brightness changes abruptly in the image). The luminance edge is extracted, for example, as shown in FIG. Such an edge extraction filter can be used.
  • the edge extraction filter is a filter that weights pixels in the vicinity of the target pixel when performing first-order differentiation (when obtaining a difference in image data between adjacent pixels).
  • the edge extraction filter for example, for the G image data of each pixel of the captured image, the difference between the image data is calculated between the target pixel and the neighboring pixel, and the pixel whose difference value exceeds a predetermined threshold is extracted. Thus, a pixel that becomes a luminance edge can be extracted. Since there is a luminance difference due to the shadow around the tongue, the contour line of the tongue can be extracted by extracting pixels that become luminance edges as described above.
  • G image data having the greatest influence on the luminance is used for the calculation, R or B image data may be used.
  • the speckled white portion found in the center of the tongue is called moss, and its color is called moss.
  • the color of the red part other than the above in the tongue is called the tongue color.
  • the storage unit 17 stores image data acquired by the imaging unit 3, data acquired by the image processing unit 15, data calculated by the calculation unit 16, information received from the outside, and the like.
  • the calculation unit 16 obtains a chromaticity value from data of a captured image of the tongue acquired by the imaging unit 3, and calculates at least one of a plurality of indicators (determination items) related to health by calculation using the obtained chromaticity value. A numerical value indicating the state of one is calculated and output.
  • the above-mentioned indicators include, for example, systolic blood pressure / diastolic blood pressure, constipation state, diarrhea state, fatigue state due to fatigue (whether there is general fatigue), blood circulation state, body temperature, bronchial state, muscle fatigue There is a state.
  • the numerical value calculated by the calculation unit 16 is displayed on the display unit 4 or output from the voice output unit 7 by voice. Therefore, it can be said that the display unit 4 and the audio output unit 7 constitute an output unit that displays or outputs the above numerical values calculated and output by the calculation unit 16. Further, the numerical data calculated by the calculation unit 16 may be output to an external terminal device via the communication unit 6.
  • the chromaticity value used for calculating the numerical value is an optimum value corresponding to the index in any one of the three regions of the upper, middle, and lower portions of the center portion in the horizontal direction of the captured image of the tongue. Required in the area.
  • the three areas will be described first.
  • FIG. 5 shows a positional relationship between the contour line Q of the tongue and the three regions R1, R2, and R3 for calculating chromaticity values.
  • Each region R1, R2, and R3 corresponds to each of the upper, middle, and lower regions at the center in the left-right direction of the captured image of the tongue.
  • Each region R1, R2, R3 has the size and position shown in the figure, where the vertical length of the contour line Q extracted by the image processing unit 15 is H, and the horizontal length (width) is W. Set by relationship. Note that the sizes of the regions R1, R2, and R3 are merely examples, and are not limited thereto. The reason why the three regions R1, R2, and R3 are set as regions for calculating chromaticity values in this way is as follows.
  • Moss is a keratinized papillary tissue of the lingual mucosa, and is present from the upper part to the middle part in a band-like region above and below the center in the left-right direction of the tongue, and particularly in the upper region. Therefore, the change in the color of the moss appears as a change in the chromaticity of the upper region R1. That is, the moss color changes from white to brown depending on the amount of the keratinized tissue, and therefore the G component mainly increases or decreases in the RGB image data in the upper region R1.
  • the color of the tongue is generally diagnosed at the left and right ends without moss or at the bottom.
  • the left and right end portions of the tongue are subject to variations in how the illumination light strikes due to surface irregularities, so that light and shade are likely to occur. For this reason, it is desirable to determine the color of the tongue using the image data of the lower region R3. Since the color of the tongue reflects the color of blood, the R component or the B component mainly increases or decreases in the RGB image data in the region R3. That is, when the color of the tongue changes, the chromaticity of the lower region R3 also changes.
  • the thickness of the moss can be detected using a difference from the color of the tongue as a base. That is, at the center in the left-right direction in the photographed image of the tongue, the moss is thick when the middle color between the upper part and the lower part is close to the upper color, and the moss is light when it is close to the lower color. Therefore, the change in the thickness of the moss appears as a change in the chromaticity of the middle region R2. That is, as the moss becomes thicker, the red color of the tongue changes to the white color of the moss, and therefore, the R component or the G component mainly increases or decreases in the RGB image data in the region R2.
  • a diagnosis method (tongue diagnosis) of Oriental medicine that diagnoses the degree of health by judging the color or shape of the tongue or moss from the chromaticity value. Can be reproduced.
  • the ratio of R image data (R ratio), the ratio of G image data (G ratio) to the reference data composed of the sum of RGB image data in each of the regions R1 to R3, or
  • R ratio ratio of R image data
  • G ratio ratio of G image data
  • B ratio ratio of the B image data
  • the R ratio in each of the regions R1 to R3 can be considered as an average of the R ratio of each pixel in each of the regions R1 to R3.
  • the average of the G ratio and the B ratio in each of the regions R1 to R3 can be considered.
  • chromaticity values described above may be quantified using various color systems other than RGB (for example, Yxy, Lab, etc.), and in any case, the Oriental medicine diagnostic method (tongue diagnosis) is reproduced. be able to.
  • the R ratio, G ratio, and B ratio shown below are the ratio of R image data to the total sum of RGB image data (R / (R + G + B)) and the ratio of G image data (G / (R + G + B)), the ratio of B image data (B / (R + G + B)).
  • the inventor of the present application investigated the relationship between the feature amount extracted from the photographed image of the tongue and the inspection item related to the health level.
  • the extracted feature amounts are the R ratio, G ratio, and B ratio (total of 9) in each of the three regions R1 to R3 in the photographed image of the tongue.
  • the inspection items are a total of 35 items including 30 items related to living conditions, physical condition, etc. and 5 items such as body temperature, pulse, blood pressure and the like.
  • the answer was acquired by the individual question, and the latter 5 items were investigated by actual measurement. As a result, we found that some items are related.
  • FIG. 6 is a graph showing the relationship between the B ratio in the upper region (region R1) of the photographed image of the tongue and the systolic blood pressure / diastolic blood pressure. From the figure, it can be seen that the B ratio in the upper region is decreased regardless of whether the highest blood pressure or the lowest blood pressure is increased, and both are correlated. Therefore, if a regression equation (approximate equation) indicating the relationship between the two can be obtained, the systolic blood pressure / minimum blood pressure can be estimated from the B ratio in the upper region using this regression equation.
  • the regression equation is obtained from the discrete data shown in FIG. 6 by the least square method, the following equation is obtained.
  • the variable x is the B ratio of the upper region
  • the variable y is the blood pressure (mmHg).
  • Maximum blood pressure: y -950x + 400
  • Minimum blood pressure: y -1000x + 400
  • the calculation unit 16 obtains the B ratio of the upper region from the data of the captured image of the tongue (RGB image data) and substitutes it in one of the regression equations described above, thereby obtaining the maximum health index.
  • the value of hypertension / diastolic blood pressure can be calculated.
  • FIG. 7 is a graph showing the relationship between the R ratio in the upper region (region R1) of the photographed image of the tongue and the state of constipation.
  • the constipation state is indicated by a rank (0 to 3) when the subjective symptoms are quantified in four levels. At this time, constipation becomes worse as the rank goes from 0 to 3. From the figure, it can be seen that when the constipation becomes severe, the R ratio in the upper region increases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the state of constipation can be estimated from the R ratio of the upper region using this regression equation.
  • the calculation unit 16 calculates the numerical value (rank) indicating the state of constipation as an index related to the health degree by calculating the R ratio of the upper region from the data of the photographed image of the tongue and substituting this into the regression equation. can do.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 8 is a graph showing the relationship between the G ratio in the middle region (region R2) of the tongue image and the diarrhea state.
  • region R2 region of the tongue image
  • FIG. 8 shows by the rank (0-3) when the subjective symptom is digitized in four steps.
  • diarrhea becomes worse as the rank goes from 0 to 3. From the figure, it can be seen that when the diarrhea becomes severe, the G ratio in the middle region increases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the state of diarrhea can be estimated from the G ratio in the middle region using this regression equation.
  • the regression equation is obtained from the discrete data shown in FIG. 8 by the least square method, the following equation is obtained.
  • the variable x is the G ratio of the middle region
  • the variable y is a numerical value (rank) indicating the state of diarrhea.
  • the calculation unit 16 calculates a numerical value (rank) indicating the state of diarrhea as an index relating to the degree of health by obtaining the G ratio of the middle region from the photographed image data of the tongue and substituting it into the regression equation. can do.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 9 is a graph showing the relationship between the G ratio in the middle region (region R2) of the photographed image of the tongue and general fatigue.
  • the subjective symptoms are expressed in ranks (0 to 3) when the subjective symptoms are quantified in four stages.
  • the fatigue increases (becomes worse) as the rank goes from 0 to 3. From the figure, it can be seen that when the feeling of fatigue increases, the G ratio in the middle region decreases, and both are correlated. Therefore, if a regression equation showing the relationship between the two can be obtained, the state of fatigue due to fatigue can be estimated from the G ratio in the middle region using this regression equation.
  • the calculation unit 16 obtains the G ratio of the middle region from the data of the captured image of the tongue, and substitutes this in the regression equation, thereby indicating a numerical value (rank) indicating the state of fatigue due to fatigue as an index relating to health. Can be calculated.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 10 is a graph showing the relationship between the B ratio in the middle region (region R2) of the photographed image of the tongue and the state of the bear under the eyes.
  • region R2 the state of a bear
  • the rank (0-3) when the degree is digitized in four steps by self-evaluation.
  • bears appear darker as the rank goes from 0 to 3, and blood circulation is deteriorated.
  • the B ratio in the middle region increases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the state of blood circulation can be estimated from the B ratio in the middle region using this regression equation.
  • the regression equation is obtained from the discrete data shown in FIG. 10 by the least square method, the following equation is obtained.
  • the variable x is the B ratio of the middle region
  • the variable y is a numerical value (rank) indicating the state of the bear under the eyes.
  • the calculation unit 16 obtains the B ratio of the middle region from the data of the photographed image of the tongue, and substitutes this in the regression equation, thereby obtaining a numerical value (rank) indicating the state of blood circulation as an index relating to health. Can be calculated.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 11 is a graph showing the relationship between the R ratio in the lower region (region R3) of the photographed image of the tongue and the body temperature. From the figure, it can be seen that as the body temperature rises, the R ratio in the lower region increases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the body temperature can be estimated from the R ratio in the lower region using this regression equation.
  • the calculation unit 16 can calculate the body temperature numerical value as an index related to the health degree by obtaining the R ratio of the lower region from the photographed image data of the tongue and substituting it into the regression equation.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 12 is a graph showing the relationship between the G ratio in the lower region (region R3) of the tongue image and the sore throat.
  • the subjective symptom is expressed as a rank (0 to 3) when quantified in four stages.
  • the rank goes from 0 to 3
  • sore throat increases and the bronchial state deteriorates.
  • the G ratio in the lower region decreases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the bronchial state can be estimated from the G ratio in the lower region using this regression equation.
  • the calculation unit 16 can calculate a numerical value indicating the state of the bronchus as an index relating to the health degree by obtaining the G ratio of the lower region from the data of the captured image of the tongue and substituting the G ratio in the regression equation. it can.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 13 is a graph showing the relationship between the G ratio in the lower region (region R3) of the photographed image of the tongue and the degree of foot balance (degree of muscle contraction / convulsion).
  • the degree of foot balance is indicated by the rank (0 to 3) when the subjective symptoms are digitized in four stages.
  • the rank goes from 0 to 3
  • the foot balance increases and muscle fatigue increases. From this figure, it can be seen that when the foot balance increases and muscle fatigue increases, the G ratio in the lower region increases and there is a correlation between the two. Therefore, if a regression equation showing the relationship between the two can be obtained, the state of muscle fatigue can be estimated from the G ratio in the lower region using this regression equation.
  • the calculation unit 16 calculates a numerical value indicating the state of muscle fatigue as an index relating to the health level by calculating the G ratio of the lower region from the data of the photographed image of the tongue and substituting this into the regression equation. Can do.
  • the correction of the individual difference is the same as the case of calculating the maximum blood pressure / minimum blood pressure.
  • FIG. 14 is a flowchart showing an operation flow in the organ image photographing apparatus 1 of the present embodiment.
  • the illumination control unit 11 turns on the illumination unit 2 (S1) and sets photographing conditions such as illuminance (S1). S2).
  • the imaging control unit 12 controls the imaging unit 3 to photograph the tongue that is the photographing target (S3).
  • the image processing unit 15 extracts the tongue outline Q from the photographed image of the tongue (S4). Then, the calculation unit 16 detects the upper and lower ends and left and right ends of the tongue from the extracted contour line Q, and as shown in FIG. 5, the three regions R1 for obtaining the chromaticity value with the contour line Q as a reference. To R3 are set (S5).
  • the calculation unit 16 obtains chromaticity values in each of the regions R1 to R3, that is, the R ratio, the G ratio, and the B ratio from the captured image data of the tongue (S6), and sets the color to the regression equation set in advance.
  • the degree value is substituted, and a numerical value indicating the state of each of the plurality of indices relating to the health degree is calculated (S7).
  • the arithmetic unit 16 only needs to calculate a numerical value indicating a state of at least one of the plurality of indices, and may calculate a numerical value for only one index.
  • the calculated numerical value is output from the calculation unit 16 and displayed on the display unit 4 and is also stored in the storage unit 17. However, the calculated numerical value is output from the audio output unit 7 by voice as necessary, or an output device (not shown). Or transferred to the outside via the communication unit 6 (S8).
  • the calculation unit 16 does not collectively output the state of a plurality of indicators related to the health level as one piece of comprehensive information, but at least one of the plurality of indicators. Since each state is calculated and output as a specific numerical value, the user quantitatively determines the current physical condition and symptoms based on the information at the output destination (for example, the display unit 4). It becomes possible. Thereby, it becomes easy to compare the information regarding the current physical condition or symptom with the past history or information of another person, or to determine a specific response according to the physical condition or symptom. For example, it becomes easy to select and purchase a commercially available drug that matches the physical condition and symptoms, and to select and receive a medical institution that matches the physical condition and symptoms. In particular, the calculation unit 16 calculates a numerical value indicating the state of a plurality of indices, so that the user can determine the physical condition and symptoms more finely than when calculating the numerical value for only one index. Become.
  • the calculation unit 16 performs calculation using the tongue image (data) photographed by the imaging unit 3, it takes a long time to obtain the result as in a general health checkup.
  • the numerical value of the index can be acquired at low cost and in a short time. As a result, the user can easily manage (monitor) daily physical condition changes using the calculated numerical values.
  • the numerical value for each index calculated by the calculation unit 16 is displayed on the display unit 4 or output by voice from the voice output unit 7, so that the user can immediately display the numerical value by display or voice. Can grasp. As a result, it is possible to reliably obtain the above-described effects such as easy comparison of current information with past history and other person's data.
  • the user can grasp the numerical value by the terminal device.
  • a specialist can obtain the numerical value by the terminal device.
  • grasping it is also possible to grasp the user's physical condition and symptoms in detail, and to give appropriate advice in selecting over-the-counter drugs and medical institutions.
  • the calculation unit 16 is configured to obtain an R ratio, a G ratio, and an R area obtained in an optimum area according to the index among the upper area (area R1), the middle area (area R2), and the lower area (R3) of the captured image of the tongue.
  • a numerical value indicating the state of each index is calculated by calculation using one of the B ratios as a chromaticity value. Therefore, it becomes easy for the user to grasp the specific state for each index and to specifically determine the response.
  • FIG. 15 is a graph showing the relationship between the B ratio in the upper region (region R1) of the photographed image of the tongue, and the maximum blood pressure and the minimum blood pressure.
  • the B ratio is a ratio of B image data to reference data, that is, a B / R ratio when only R image data is considered as reference data. Also in this figure, when the systolic blood pressure and the systolic blood pressure rise, the B / R ratio in the upper region decreases, and it can be seen that there is a correlation between both.
  • the regression equation was obtained from the discrete data shown in FIG. 15 by the least square method, the following equation was obtained.
  • the variable x is the B / R ratio of the upper region
  • the variable y is the blood pressure (mmHg).
  • Maximum blood pressure: y -180x + 270
  • Minimum blood pressure: y -150x + 200
  • the numerical value of the systolic blood pressure / minimum blood pressure can be calculated from the above regression equation.
  • FIG. 16 is a graph showing the relationship between the B ratio in the upper region (region R1) of the photographed image of the tongue, and the maximum blood pressure and the minimum blood pressure.
  • the B ratio here is the ratio of the B image data to the reference data when considering the sum of the R image data and the G image data as the reference data, that is, the B / (R + G) ratio. is there.
  • the B / (R + G) ratio in the upper region decreases, and it can be seen that there is a correlation between both.
  • the regression equation was obtained from the discrete data shown in FIG. 16 by the least square method, the following equation was obtained.
  • the variable x is the B / (R + G) ratio of the upper region
  • the variable y is the blood pressure (mmHg).
  • Maximum blood pressure: y -500x + 340
  • Minimum blood pressure: y -530x + 300
  • the maximum blood pressure / minimum blood pressure has been described as an example of the index, but it is known that the numerical value indicating the index state can be calculated for other indexes (such as constipation state) as in the above. That is, the numerical value indicating the state of the index can be calculated using the ratio of any of the RGB image data to the reference data other than the sum of the RGB image data as the chromaticity value.
  • the ratio of the R image data to the reference data is 1 regardless of the size of the R image data, and there is no point in using the ratio as the chromaticity value. The same applies to the ratio of the G or B image data to the reference data.
  • the chromaticity value used for the calculation of the index is the ratio of the R image data, the ratio of the G image data, or the ratio of the B image data to the reference data including at least one of the RGB image data.
  • any value other than 1 ((image data / reference data) other than R / R, G / G, B / B) may be used.
  • the organ image capturing apparatus described above can be expressed as follows, and has the following effects.
  • the organ image capturing apparatus described above includes a plurality of images related to health by an image capturing unit that captures a tongue of a living body and a calculation using chromaticity values obtained from data of a captured image of the tongue acquired by the image capturing unit.
  • An arithmetic unit that calculates and outputs a numerical value indicating a state of at least one of the indices.
  • the state of at least one of the plurality of indices related to the health level is calculated and output as a numerical value in the calculation unit, for example, if the output destination is a display unit, the user If the output can be grasped by the display on the display unit and the output destination is an audio output unit, the user can grasp the numerical value by the sound output from the audio output unit, and the output destination is an external terminal device If so, the user can grasp the numerical value by the terminal device. Thereby, the user can quantitatively and finely judge the physical condition and the symptom based on the figure of the grasped index.
  • the numerical value can be acquired at a low cost and in a short time from the start of photographing the tongue. For this reason, it becomes easy for the user to manage daily physical condition changes by using the above numerical values.
  • the chromaticity value is a value obtained in a region corresponding to the index among three regions of an upper portion, a middle portion, and a lower portion of a central portion in the horizontal direction of the photographed image of the tongue.
  • a diagnostic technique for diagnosing a health condition or medical condition by observing the state of a human tongue.
  • the color of the moss, the shape (thickness) of the moss, and the color of the tongue appear in the chromaticities of the upper, middle, and lower regions at the center in the left-right direction of the image of the tongue. Therefore, when the calculation unit performs calculation using the chromaticity value obtained in at least one of the three regions, an oriental medical diagnosis method (diagnosis of health condition or medical condition) can be reproduced.
  • the calculation unit performs calculation using the chromaticity value obtained in the optimum region corresponding to the index among the above three regions, so that the numerical value indicating the state of the index can be accurately obtained (actual health state (As a numerical value close to).
  • the chromaticity value is a ratio of red image data, a ratio of green image data, or a ratio of blue image data to reference data including at least one of red, green, and blue image data. Other values may be used.
  • the image is bright at the time of shooting, at least one of the RGB image data increases.
  • the ratio of the image data of a desired color with respect to the reference data as the chromaticity value, it is possible to reduce the influence of brightness at the time of shooting. That is, it is possible to reduce fluctuations in the numerical value of the calculated index due to fluctuations in chromaticity values depending on the brightness at the time of shooting.
  • the ratio of the R image data to the reference data is always 1 regardless of the size of the R image data, and it means that the ratio is used as the chromaticity value. Therefore, the selection of the reference data is excluded (the above effect can be obtained when the chromaticity value is a value other than 1).
  • the chromaticity value is a ratio of the blue image data to the reference data in the upper area of the photographed image of the tongue, and the calculation unit calculates the maximum blood pressure as the index by calculation using the ratio.
  • the numerical value of the minimum blood pressure may be calculated. In this case, it becomes easy for the user to specifically grasp the maximum blood pressure or the minimum blood pressure from the above numerical values and to specifically determine the correspondence.
  • the chromaticity value is a ratio of red image data to the reference data in the upper area of the photographed image of the tongue, and the calculation unit calculates constipation as the index by calculation using the ratio.
  • a numerical value indicating the state may be calculated. In this case, it becomes easy for the user to specifically grasp the state of constipation from the above numerical values and to specifically determine the correspondence.
  • the chromaticity value is a ratio of the green image data to the reference data in the middle region of the photographed image of the tongue, and the calculation unit calculates diarrhea as the index by calculation using the ratio.
  • a numerical value indicating the state may be calculated. In this case, the user can easily grasp the state of diarrhea from the above numerical values and determine the correspondence specifically.
  • the chromaticity value is a ratio of the green image data to the reference data in the middle region of the photographed image of the tongue, and the calculation unit is caused by fatigue as the index by calculation using the ratio.
  • a numerical value indicating the state of fatigue may be calculated. In this case, it becomes easy for the user to specifically grasp the state of fatigue due to fatigue from the above numerical values and to specifically determine the response.
  • the chromaticity value is a ratio of the blue image data to the reference data in the middle region of the photographed image of the tongue, and the calculation unit calculates blood circulation as the index by calculation using the ratio.
  • a numerical value indicating the state may be calculated. In this case, the user can easily grasp the state of blood circulation from the above numerical values, and easily determine the correspondence specifically.
  • the chromaticity value is a ratio of the red image data to the reference data in the lower region of the photographed image of the tongue, and the calculation unit calculates the body temperature as the index by the calculation using the ratio.
  • a numerical value may be calculated. In this case, it becomes easy for the user to specifically grasp the body temperature from the above numerical values and to specifically determine the correspondence.
  • the chromaticity value is a ratio of the green image data to the reference data in the lower region of the photographed image of the tongue, and the calculation unit calculates the bronchus as the index by the calculation using the ratio.
  • a numerical value indicating the state may be calculated. In this case, the user can easily grasp the state of the bronchus from the above numerical values and determine the correspondence specifically.
  • the chromaticity value is a ratio of green image data with respect to the reference data in the lower region of the photographed image of the tongue, and the calculation unit calculates muscle fatigue as the index by calculation using the ratio.
  • a numerical value indicating the state may be calculated. In this case, the user can easily grasp the state of muscular fatigue from the above numerical values and determine the correspondence specifically.
  • the reference data may be the sum of red, green and blue image data. Since the RGB image data increases when it is bright at the time of shooting, the ratio of the image data of the desired color to the reference data consisting of the sum of the RGB image data is considered as the chromaticity value, so that the brightness at the time of shooting is The impact can be reliably reduced.
  • the organ imaging apparatus may further include an output unit that displays or outputs the numerical value output from the arithmetic unit.
  • the user can immediately grasp the numerical value for each index from the display or output sound in the output unit, monitor the daily physical condition change, past history and data of others. It becomes even easier to compare and determine specific responses according to physical condition and symptoms.
  • the present invention can be used for an apparatus that captures a tongue that is an organ of a living body and extracts information necessary for health diagnosis.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hematology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Endocrinology (AREA)
  • Cardiology (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 器官画像撮影装置(1)は、生体の舌を撮影する撮像部(3)と、演算部(16)とを備える。演算部(16)は、撮像部(3)にて取得される舌の撮影画像のデータから得られる色度値を用いた演算により、健康度に関する複数の指標のうちの少なくとも1つについての状態を示す数値を算出し、出力する。

Description

器官画像撮影装置
 本発明は、生体の器官である舌を撮影して、健康度の診断に必要な情報を抽出する器官画像撮影装置に関するものである。
 従来、人間の健康状態を把握する手法として、健康診断での生化学検査、体力測定、質問票による自覚症状の記述、などが知られている。
 しかし、健康診断および体力測定は、費用や時間がかかり、日常の体調変化のモニタリングには適さない。また、質問票では、自覚症状を回答しているため、個人差が大きく、過去の履歴や他人のデータと適切に比較することが難しい。
 そこで、近年では、デジタルカメラを用いて舌を撮影し、その画像の特徴量を用いて健康度を診断するシステムが提案されている。例えば、特許文献1では、舌画像から得られる多くの特徴量から、1種類の出力情報(具体的にはマハラノビス距離)を算出することにより、撮影された舌を持つ人についての総合的な健康度の判定を容易にかつ客観的に行うことが可能となっている。このように、マハラノビス距離を用いて健康度判定を総合的に行うシステムは、例えば特許文献2でも提案されている。
特許第4487535号公報(請求項1、段落〔0006〕、〔0018〕、〔0096〕等参照) 特許第4649965号公報(請求項1、段落〔0008〕等参照)
 ところが、上記した特許文献1および2のシステムは、撮影された舌の画像から、総合的な(単一の)健康度判定を行うものであり、健康度に関する複数の指標(例えば血圧や体温)についての情報が得られるものではない。そのため、使用者は、自分の体調や症状を細かく把握することはできず、体調や症状に合った市販薬を購入したり、体調や症状に合った医療機関を受診するなど、具体的な対応を決定することが容易ではない。
 本発明は、上記の問題点を解決するためになされたもので、その目的は、使用者の日常の体調変化の管理、現在の情報と過去の履歴や他人の情報との比較、および体調や症状に合った具体的な対応の決定が容易となる器官画像撮影装置を提供することにある。
 本発明の一側面に係る器官画像撮影装置は、生体の舌を撮影する撮像部と、前記撮像部にて取得される舌の撮影画像のデータから得られる色度値を用いた演算により、健康度に関する複数の指標のうちの少なくとも1つについての状態を示す数値を算出し、出力する演算部とを備えている。
 上記構成によれば、健康度に関する複数の指標の少なくともいずれかについて算出された数値をもとに、使用者の日常の体調変化の管理、過去の履歴や他人のデータとの比較、体調や症状に応じた具体的な対応の決定が容易となる。
本発明の実施の一形態に係る器官画像撮影装置の外観を示す斜視図である。 上記器官画像撮影装置の概略の構成を示すブロック図である。 撮影対象に対する、上記器官画像撮影装置の照明部と撮像部との位置関係を示す説明図である。 上記撮像部による舌の撮影画像と、エッジ抽出フィルタと、上記撮影画像から上記エッジ抽出フィルタを用いて抽出される舌の輪郭線とを示す説明図である。 上記舌の輪郭線と、色度値を演算する3つの領域との位置関係を示す説明図である。 上記舌の撮影画像の上部領域におけるB比率と、最高血圧/最低血圧との関係を示すグラフである。 上記舌の撮影画像の上部領域におけるR比率と、便秘の状態との関係を示すグラフである。 上記舌の撮影画像の中部領域におけるG比率と、下痢の状態との関係を示すグラフである。 上記舌の撮影画像の中部領域におけるG比率と、全身の倦怠感との関係を示すグラフである。 上記舌の撮影画像の中部領域におけるB比率と、眼下のクマの状態との関係を示すグラフである。 上記舌の撮影画像の下部領域におけるR比率と、体温との関係を示すグラフである。 上記舌の撮影画像の下部領域におけるG比率と、喉の痛みとの関係を示すグラフである。 上記舌の撮影画像の下部領域におけるG比率と、足のつり具合との関係を示すグラフである。 上記器官画像撮影装置における動作の流れを示すフローチャートである。 上記舌の撮影画像の上部領域におけるB/Rの比と、最高血圧および最低血圧との関係を示すグラフである。 上記舌の撮影画像の上部領域におけるB/(R+G)の比と、最高血圧および最低血圧との関係を示すグラフである。
 本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本明細書において、数値範囲をA~Bと表記した場合、その数値範囲に下限Aおよび上限Bの値は含まれるものとする。
 〔器官画像撮影装置の全体構成〕
 図1は、本実施形態の器官画像撮影装置1の外観を示す斜視図であり、図2は、器官画像撮影装置1の概略の構成を示すブロック図である。器官画像撮影装置1は、生体の器官である舌を撮影して、健康度の診断に必要な情報を抽出するものである。
 上記の器官画像撮影装置1は、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7を備えている。照明部2は筐体21に設けられており、照明部2以外の構成(例えば撮像部3、表示部4、操作部5、通信部6、音声出力部7)は、筐体22に設けられている。筐体21と筐体22とは相対的に回転可能に連結されているが、必ずしも回転は必要ではなく、一方が他方に完全に固定されていてもよい。なお、上記の照明部2等は、単一の筐体に設けられていてもよい。また、器官画像撮影装置1は、多機能携帯情報端末で構成されてもよい。
 照明部2は、撮影対象を上方より照明する照明器で構成されている。照明部2の光源としては、色再現性を向上するため、例えばキセノンランプなどの昼光色を発光するものを用いている。光源の明るさは、撮像部3の感度や撮影対象までの距離により異なるが、一例としては、撮影対象の照度が1000~10000lxとなるような明るさを考えることができる。照明部2は、上記の光源の他に、点灯回路や調光回路を有しており、照明制御部11からの指令によって点灯/消灯および調光が制御される。
 撮像部3は、照明部2による照明下で、生体の器官(ここでは舌)を撮影して画像を取得するものであり、撮像レンズとエリアセンサ(撮像素子)とを有している。撮像レンズの絞り(レンズの明るさ)、シャッター速度、焦点距離は、撮影対象の全ての範囲に焦点が合うように設定されている。一例としては、Fナンバー:16、シャッター速度:1/120秒、焦点距離:20mmである。
 エリアセンサは、例えばCCD(Charge Coupled  Device)やCMOS(Complementary  Metal Oxide  Semiconductor)のような撮像素子で構成されており、撮影対象の色および形状を十分に検出できるように、感度や解像度などが設定されている。一例としては、感度:60db、解像度:1000万画素である。
 撮像部3による撮影は、撮像制御部12によって制御されている。また、撮像部3は、撮像レンズやエリアセンサの他にも、不図示のフォーカス機構、絞り機構、駆動回路およびA/D変換回路などを有しており、撮像制御部12からの指令により、フォーカスや絞りの制御、A/D変換などが制御される。撮像部3では、撮影画像のデータとして、赤(R)、緑(G)、青(B)のそれぞれについて、例えば8ビットで0~255のデータが取得される。
 図3は、撮影対象(舌や顔)に対する照明部2と撮像部3との位置関係を示す説明図である。同図に示すように、撮像部3は、撮影対象に正対して配置されている。照明部2は、撮影対象を通る撮像部3の撮影光軸Xに対して、例えば0°~45°の角度Aで撮影対象を照明するように配置されている。なお、撮影光軸Xとは、撮像部3が有する撮像レンズの光軸を指す。
 照明時の角度Aが大きいと、上唇の影により、舌を撮影できる範囲が小さくなる。逆に、角度Aが小さいと、正反射による色とびが大きくなる。以上のことを考慮すると、照明時の角度Aの好ましい範囲は、15°~30°である。
 表示部4は、不図示の液晶パネル、バックライト、点灯回路および制御回路を有しており、撮像部3での撮影によって取得される画像や、後述する演算部16にて算出されて出力された情報を表示する。また、表示部4は、通信部6を介して外部から取得した情報(例えば外部の医療機関に情報を送信して診断された結果)を表示することもできる。表示部4における各種の情報の表示は、表示制御部13によって制御されている。
 操作部5は、撮像部3による撮影を指示するための入力部であり、OKボタン(撮影実行ボタン)5aおよびCANCELボタン5bで構成されている。本実施形態では、表示部4および操作部5を、共通のタッチパネル表示装置31で構成し、タッチパネル表示装置31における表示部4の表示領域と操作部5の表示領域とを別々にしている。タッチパネル表示装置31における操作部5の表示は、操作制御部14によって制御される。なお、操作部5は、タッチパネル表示装置31以外の入力部で構成されてもよい(タッチパネル表示装置31の表示領域外の位置に操作部5を設けてもよい)。
 通信部6は、撮像部3にて取得された画像のデータや、後述する演算部16で算出されて出力された情報を、通信回線(有線や無線を含む)を介して外部に送信したり、外部からの情報を受信するためのインターフェースである。通信部6における情報の送受信は、通信制御部18によって制御されている。
 音声出力部7は、各種の情報を音声で出力するものであり、例えばスピーカーで構成される。音声で出力される情報には、演算部16で演算された結果(指標ごとの数値)が含まれる。音声出力部7における音声出力は、音声出力制御部19によって制御される。
 また、器官画像撮影装置1は、さらに、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、画像処理部15、演算部16、記憶部17、通信制御部18、音声出力制御部19およびこれらの各部を制御する全体制御部20を備えている。照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19は、上述したように、照明部2、撮像部3、表示部4、操作部5、通信部6および音声出力部7をそれぞれ制御する。全体制御部20は、例えばCPU(Central  Processing  Unit)で構成されている。なお、照明制御部11、撮像制御部12、表示制御部13、操作制御部14、通信制御部18および音声出力制御部19と、全体制御部20とは、一体的に(例えば1つのCPUで)構成されてもよい。
 画像処理部15は、撮像部3にて取得された画像から器官の輪郭線を抽出する機能を有する。器官の輪郭線の抽出は、撮影画像の輝度エッジ(画像の中で急激に明るさが変化している部分)を抽出することによって行うことができ、輝度エッジの抽出は、例えば図4に示すようなエッジ抽出フィルタを用いて行うことができる。エッジ抽出フィルタは、1次微分をするときに(隣接画素間で画像データの差分をとるときに)、注目画素の近傍の画素に重みを付けるフィルタである。
 このようなエッジ抽出フィルタを用い、例えば、撮影画像の各画素のGの画像データについて、注目画素と近傍画素とで画像データの差分を取り、その差分値が所定の閾値を超える画素を抽出することで、輝度エッジとなる画素を抽出できる。舌の周囲には、その影に起因する輝度差が存在するため、上記のように輝度エッジとなる画素を抽出することにより、舌の輪郭線を抽出することができる。なお、ここでは、輝度への影響が最も大きいGの画像データを演算に用いているが、RやBの画像データを用いてもよい。
 なお、東洋医学では、舌の中央部に見られる斑点状の白い部分を苔と言い、その色を苔色と呼んでいる。また、舌における上記以外の赤い部分の色を舌色と呼んでいる。
 記憶部17は、撮像部3にて取得した画像のデータ、画像処理部15で取得したデータ、演算部16で算出されたデータ、外部から受信した情報などを記憶したり、上述した各種の制御部を動作させるためのプログラムを記憶するメモリである。
 演算部16は、撮像部3にて取得される舌の撮影画像のデータから色度値を求め、得られた色度値を用いた演算により、健康度に関する複数の指標(判定項目)の少なくとも1つについての状態を示す数値を算出し、出力するものである。上記の指標としては、例えば、最高血圧/最低血圧、便秘の状態、下痢の状態、疲労による倦怠の状態(全身の倦怠感の有無)、血液循環の状態、体温、気管支の状態、筋肉疲労の状態、がある。演算部16にて算出された上記数値は、表示部4に表示されたり、音声出力部7から音声で出力される。したがって、表示部4および音声出力部7は、演算部16にて算出され、出力された上記数値を表示または音声出力する出力部を構成していると言える。また、演算部16にて算出された上記数値のデータは、通信部6を介して外部の端末装置に出力されてもよい。
 ここで、上記数値を算出するために用いられる色度値は、舌の撮影画像の左右方向の中央部の、上部、中部、下部の3つの領域のいずれかの、上記指標に応じた最適な領域において求められる。以下、上記3つの領域についてまず説明する。
 〔色度値演算領域について〕
 図5は、舌の輪郭線Qと、色度値を演算する3つの領域R1、R2、R3との位置関係を示している。各領域R1、R2、R3は、舌の撮影画像の左右方向の中央部の、上部、中部、下部の各領域にそれぞれ対応している。各領域R1、R2、R3は、画像処理部15にて抽出された輪郭線Qの上下方向の長さをHとし、左右方向の長さ(幅)をWとして、同図に示すサイズおよび位置関係で設定される。なお、各領域R1、R2、R3のサイズは一例であり、これに限定されるわけではない。このように色度値を演算する領域として、3つの領域R1、R2、R3を設定した理由は、以下の通りである。
 東洋医学(漢方医学)で用いられている舌診には、様々な診断項目が提案されている。主要な診断項目は、舌の色と形(厚さ)、苔の色と形(厚さ)の4種である。苔は、舌粘膜の乳頭組織が角化したものであり、舌の左右方向の中央の上下に帯状の領域において、上部から中部に存在し、特に上部の領域に多い。したがって、苔の色の変化は、上部の領域R1の色度の変化として現れる。つまり、苔の色は、角化組織の分量により、白から茶色を呈するため、上部の領域R1では、RGBの画像データのうちで、主にG成分が増減する。
 一方、舌の色は、一般に、苔の無い左右端部か、下部で診断されている。舌の左右端部は、表面の凹凸により照明光の当たり方が変化して、濃淡が発生しやすい。このため、舌の色は、下部の領域R3の画像データを用いて判断することが望ましい。舌の色は、血液の色を反映するため、領域R3では、RGBの画像データのうちで、主にR成分またはB成分が増減する。つまり、舌の色が変化すると、下部の領域R3の色度も変化する。
 また、苔の厚さは、下地となる舌の色との差異を用いて検出することができる。すなわち、舌の撮影画像における左右方向の中央において、上部と下部との間の中部の色が、上部の色に近ければ苔が厚く、下部の色に近ければ苔が薄いことになる。したがって、苔の厚さの変化は、中部の領域R2の色度の変化として現れる。つまり、苔は、厚くなると舌の赤色から苔の白色に変化するため、領域R2では、RGBの画像データのうちで、主にR成分またはG成分が増減する。
 したがって、各領域R1~R3の少なくともいずれかの色度値を用いることにより、色度値から舌や苔の色または形を判断して健康度を診断する東洋医学の診断法(舌診)を再現することができる。
 このとき、色度値として、各領域R1~R3における、RGBの画像データの総和からなる基準データに対する、Rの画像データの比率(R比率)、Gの画像データの比率(G比率)、またはBの画像データの比率(B比率)を考えることにより、舌の撮影時の明るさの影響を確実に低減することができる。つまり、撮影時に明るいと、RGBの画像データの少なくともいずれかが増大するが、上記総和からなる基準データに対する所望の色の画像データの比率を色度値として用いることにより、撮影時の明るさによって、色度値および算出される指標の数値が変化するのを低減することができる。
 なお、各領域R1~R3におけるR比率とは、各領域R1~R3のそれぞれにおいて、各画素のR比率の平均を考えることができる。また、G比率、B比率についても同様に、各領域R1~R3のそれぞれにおけるG比率、B比率の平均を考えることができる。
 なお、上記した色度値は、RGB以外の様々な表色系(例えばYxy、Labなど)を用いて数値化してもよく、いずれの場合でも、東洋医学の診断法(舌診)を再現することができる。
 〔指標の数値化について〕
 次に、演算部16が上記色度値を用いた演算によって、健康度に関する複数の指標を数値化する具体例について説明する。なお、以下で示すR比率、G比率、B比率とは、上記と同様に、RGBの画像データの総和に対するRの画像データの比率(R/(R+G+B))、Gの画像データの比率(G/(R+G+B))、Bの画像データの比率(B/(R+G+B))のことを指すものとする。
 本願発明者は、舌の撮影画像から抽出した特徴量と、健康度に関する検査項目との関連性について調査した。抽出した特徴量は、舌の撮影画像における上記3つの領域R1~R3のそれぞれにおけるR比率、G比率およびB比率(合計9個)である。検査項目は、生活状況、体調などに関する30項目と、体温、脈拍、血圧などの5項目の計35項目である。なお、前者の30項目については、個別の質問によって回答を取得し、後者の5項目については、実際の測定によって調べた。その結果、いくつかの項目間に関連性があることを見出した。
 (血圧について)
 図6は、舌の撮影画像の上部領域(領域R1)におけるB比率と、最高血圧/最低血圧との関係を示すグラフである。同図より、最高血圧、最低血圧のどちらが上昇しても、上部領域のB比率が低下し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式(近似式)を求めることができれば、この回帰式を利用して、上部領域のB比率から最高血圧/最低血圧を推定することができる。
 具体的に、図6に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは上部領域のB比率であり、変数yは血圧(mmHg)である。
 最高血圧:y=-950x+400
 最低血圧:y=-1000x+400
 したがって、演算部16は、舌の撮影画像のデータ(RGBの画像データ)から上部領域のB比率を求め、これを上記のいずれかの回帰式に代入することにより、健康度に関する指標としての最高血圧/最低血圧の数値を算出することができる。
 なお、上部領域のB比率と最高血圧/最低血圧との関係には、個人差があることが分かっている。個人差を補正して算出精度を高めるためには、データのサンプリングを一定期間行って、両者の関係式(回帰式)を求め、この回帰式を用いて最高血圧/最低血圧を算出するようにすればよい。
 (便秘について)
 図7は、舌の撮影画像の上部領域(領域R1)におけるR比率と、便秘の状態との関係を示すグラフである。なお、便秘の状態については、その自覚症状を4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれて便秘がひどくなるものとする。同図より、便秘がひどくなると、上部領域のR比率が増加し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、上部領域のR比率から便秘の状態を推定することができる。
 具体的に、図7に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは上部領域のR比率であり、変数yは便秘の状態を示す数値(ランク)である。
 y=80x-30
 したがって、演算部16は、舌の撮影画像のデータから上部領域のR比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての便秘の状態を示す数値(ランク)を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (下痢について)
 図8は、舌の撮影画像の中部領域(領域R2)におけるG比率と、下痢の状態との関係を示すグラフである。なお、下痢の状態については、その自覚症状を4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれて下痢がひどくなるものとする。同図より、下痢がひどくなると、中部領域のG比率が増加し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、中部領域のG比率から下痢の状態を推定することができる。
 具体的に、図8に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは中部領域のG比率であり、変数yは下痢の状態を示す数値(ランク)である。
 y=190x-60
 したがって、演算部16は、舌の撮影画像のデータから中部領域のG比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての下痢の状態を示す数値(ランク)を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (疲労による倦怠について)
 図9は、舌の撮影画像の中部領域(領域R2)におけるG比率と、全身の倦怠感との関係を示すグラフである。なお、倦怠感については、その自覚症状を4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれて倦怠感が増大する(ひどくなる)ものとする。同図より、倦怠感が増大すると、中部領域のG比率が減少し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、中部領域のG比率から疲労による倦怠の状態を推定することができる。
 具体的に、図9に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは中部領域のG比率であり、変数yは倦怠感を示す数値(ランク)である。
 y=-180x+60
 したがって、演算部16は、舌の撮影画像のデータから中部領域のG比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての疲労による倦怠の状態を示す数値(ランク)を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (血液循環について)
 図10は、舌の撮影画像の中部領域(領域R2)におけるB比率と、眼下のクマの状態との関係を示すグラフである。なお、クマの状態については、その程度を自己評価により4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれてクマが濃く現れ、血液循環が悪くなっているものとする。同図より、クマが濃く、血液循環が悪くなると、中部領域のB比率が増加し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、中部領域のB比率から血液循環の状態を推定することができる。
 具体的に、図10に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは中部領域のB比率であり、変数yは眼下のクマの状態を示す数値(ランク)である。
 y=30x-10
 したがって、演算部16は、舌の撮影画像のデータから中部領域のB比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての血液循環の状態を示す数値(ランク)を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (体温について)
 図11は、舌の撮影画像の下部領域(領域R3)におけるR比率と、体温との関係を示すグラフである。同図より、体温が上昇すると、下部領域のR比率が増加し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、下部領域のR比率から体温を推定することができる。
 具体的に、図11に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは下部領域のR比率であり、変数yは体温(℃)である。
 y=15x+30
 したがって、演算部16は、舌の撮影画像のデータから下部領域のR比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての体温の数値を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (気管支の状態について)
 図12は、舌の撮影画像の下部領域(領域R3)におけるG比率と、喉の痛みとの関係を示すグラフである。なお、喉の痛みについては、その自覚症状を4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれて喉の痛みが増大し、気管支の状態が悪くなっているものとする。同図より、喉の痛みが増大し、気管支の状態が悪くなると、下部領域のG比率が減少し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、下部領域のG比率から気管支の状態を推定することができる。
 具体的に、図12に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは下部領域のG比率であり、変数yは喉の痛みの状態を示すランクである。
 y=-80x+20
 したがって、演算部16は、舌の撮影画像のデータから下部領域のG比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての気管支の状態を示す数値を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 (筋肉疲労の状態について)
 図13は、舌の撮影画像の下部領域(領域R3)におけるG比率と、足のつり具合(足の筋肉の収縮・けいれんの度合い)との関係を示すグラフである。なお、足のつり具合については、その自覚症状を4段階で数値化したときのランク(0~3)で示す。このとき、ランクが0から3に向かうにつれて足のつり具合が増大し、筋肉疲労が増大しているものとする。同図より、足のつり具合が増大し、筋肉疲労が増大すると、下部領域のG比率が増加し、両者に相関があることがわかる。したがって、両者の関係を示す回帰式を求めることができれば、この回帰式を利用して、下部領域のG比率から筋肉疲労の状態を推定することができる。
 具体的に、図13に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは下部領域のG比率であり、変数yは足のつり具合を示すランクである。
 y=170x-50
 したがって、演算部16は、舌の撮影画像のデータから下部領域のG比率を求め、これを上記回帰式に代入することにより、健康度に関する指標としての筋肉疲労の状態を示す数値を算出することができる。なお、個人差の補正については、最高血圧/最低血圧の算出の場合と同様である。
 〔制御フロー〕
 図14は、本実施形態の器官画像撮影装置1における動作の流れを示すフローチャートである。器官画像撮影装置1は、操作部5または不図示の入力部により、撮影指示を受け付けると、照明制御部11は照明部2を点灯させて(S1)、照度等の撮影条件の設定を行う(S2)。撮影条件の設定が終了すると、撮像制御部12は撮像部3を制御して撮影対象である舌を撮影する(S3)。
 撮影が終了すると、画像処理部15は、舌の撮影画像から舌の輪郭線Qを抽出する(S4)。そして、演算部16は、抽出された輪郭線Qから、舌の上下端および左右端を検出し、図5で示したように、輪郭線Qを基準として、色度値を求める3つの領域R1~R3を設定する(S5)。
 次に、演算部16は、舌の撮影画像のデータから、各領域R1~R3における色度値、すなわち、R比率、G比率、B比率を求め(S6)、予め設定された回帰式に色度値を代入し、健康度に関する複数の指標のそれぞれについての状態を示す数値を算出する(S7)。なお、演算部16は、上記複数の指標のうちの少なくとも1つについての状態を示す数値を算出すればよく、1つの指標についてのみ数値を算出してもよい。算出した数値は、演算部16から出力されて表示部4にて表示され、また、記憶部17に記憶されるが、必要に応じて音声出力部7から音声で出力されたり、図示しない出力装置にて記録されたり、通信部6を介して外部に転送される(S8)。
 以上のように、本実施形態では、演算部16が、健康度に関する複数の指標の状態をまとめて総合的な1つの情報として出力するのではなく、複数の指標のうちの少なくとも1つについて、個々の状態を具体的な数値として算出し、出力するので、使用者は、その出力先(例えば表示部4)での情報をもとに、現在の体調や症状を定量的に、細かく判断することが可能となる。これにより、現在の体調や症状に関する情報と過去の履歴や他人の情報とを比較したり、体調や症状に応じた具体的な対応を決定することが容易となる。例えば、体調や症状に合った市販薬の選択および購入や、体調や症状に合った医療機関の選択および受診が容易となる。特に、演算部16が複数の指標についての状態を示す数値を算出することで、1つの指標についてのみ数値を算出する場合に比べて、使用者は体調や症状をより細かく判断することが可能となる。
 また、演算部16は、撮像部3にて撮影された舌の画像(データ)を利用して演算を行うため、一般的な健康診断のように、結果の取得までに長期間かかるということはなく、低コストおよび短時間で指標の数値を取得することができる。その結果、使用者は、算出された数値を用いて日常の体調変化を管理(モニタリング)することも容易となる。
 特に、演算部16にて算出された指標ごとの数値が、表示部4に表示される、または音声出力部7から音声で出力されることにより、使用者は、表示または音声によって上記数値を即座に把握することができる。その結果、現在の情報と過去の履歴や他人のデータとの比較が容易となる等の上記の効果を確実に得ることができる。
 また、演算部16にて算出された指標の数値が外部の端末装置に転送されても、使用者は上記端末装置にて上記数値を把握できるが、例えば専門医が上記端末装置にて上記数値を把握することにより、使用者の体調や症状を細かく把握して、市販薬の選択や医療機関の選択にあたって適切な助言を与えることもできる。
 また、演算部16は、舌の撮影画像の上部領域(領域R1)、中部領域(領域R2)、下部領域(R3)のうち、指標に応じた最適な領域で得られるR比率、G比率、B比率のいずれかを色度値として用いた演算により、各指標(最高血圧/最低血圧、便秘、下痢、疲労による倦怠、血液循環、体温、気管支、筋肉疲労)の状態を示す数値を算出するので、使用者は、各指標ごとに具体的な状態を把握して、その対応を具体的に決定することが容易となる。
 〔指標の数値化の他の例について〕
 以上では、色度値として、RGBの画像データの総和からなる基準データに対する、Rの画像データの比率、Gの画像データの比率、またはBの画像データの比率を用いた例について説明したが、上記基準データは、RGBの画像データの総和でなくてもよい。
 図15は、舌の撮影画像の上部領域(領域R1)におけるB比率と、最高血圧および最低血圧との関係を示すグラフである。ただし、ここでのB比率とは、基準データとしてRの画像データのみを考えたときの、基準データに対するBの画像データの比率、すなわち、B/R比である。同図においても、最高血圧および最低血圧が上昇すると、上部領域のB/R比が低下し、両者に相関があることがわかる。
 図15に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは上部領域のB/R比であり、変数yは血圧(mmHg)である。
 最高血圧:y=-180x+270
 最低血圧:y=-150x+200
 したがって、B/R比を用いても、上記の回帰式から、最高血圧/最低血圧の数値を算出することができる。
 図16は、舌の撮影画像の上部領域(領域R1)におけるB比率と、最高血圧および最低血圧との関係を示すグラフである。ただし、ここでのB比率とは、基準データとしてRの画像データとGの画像データとの和を考えたときの、基準データに対するBの画像データの比率、すなわち、B/(R+G)比である。同図においても、最高血圧および最低血圧が上昇すると、上部領域のB/(R+G)比が低下し、両者に相関があることがわかる。
 図16に示した離散的なデータから、回帰式を最小二乗法によって求めると、以下の式が得られた。ただし、変数xは上部領域のB/(R+G)比であり、変数yは血圧(mmHg)である。
 最高血圧:y=-500x+340
 最低血圧:y=-530x+300
 したがって、B/(R+G)比を用いた場合でも、上記の回帰式から、最高血圧/最低血圧の数値を算出することができる。
 以上では、指標として最高血圧/最低血圧を例に挙げて説明したが、他の指標(便秘の状態など)についても、上記と同様に、指標の状態を示す数値を算出できることがわかっている。つまり、色度値として、RGBの画像データの総和以外の基準データに対するRGBのいずれかの画像データの比を用いても、指標の状態を示す数値を算出することができる。
 ただし、色度値が1となるような基準データの選択は除かれる。例えば、基準データとしてRの画像データのみを考えた場合、基準データに対するRの画像データの比率は、Rの画像データの大小に関係なく1となり、色度値として比率を用いる意味がなくなる。基準データに対するGやBの画像データの比率についても同様である。
 以上のことから、指標の演算に用いる色度値は、RGBの画像データの少なくともいずれかを含む基準データに対する、Rの画像データの比率、Gの画像データの比率、またはBの画像データの比率であって、1以外の値((画像データ/基準データ)がR/R、G/G、B/B以外の値)であればよいと言える。
 〔その他〕
 以上では、撮影対象が人間の舌である場合について説明したが、生体(生きているもの)であれば人間でなくてもよく、人間以外の動物であってもよい。例えば、ペットや家畜などの動物の舌であっても、本実施形態の手法を適用して指標の数値を演算し、その数値に基づいて体調や症状を判断することが可能である。この場合、意思の伝達ができない動物の体調不良を速やかに、かつ的確に判断することができる。
 以上で説明した器官画像撮影装置は、以下のように表現することができ、これによって以下の作用効果を奏する。
 以上で説明した器官画像撮影装置は、生体の舌を撮影する撮像部と、前記撮像部にて取得される舌の撮影画像のデータから得られる色度値を用いた演算により、健康度に関する複数の指標のうちの少なくとも1つについての状態を示す数値を算出し、出力する演算部とを備えている。
 上記の構成によれば、演算部にて、健康度に関する複数の指標の少なくとも1つについての状態が数値として算出され、出力されるので、例えば、出力先が表示部であれば、使用者は表示部での表示によって上記数値を把握することができ、出力先が音声出力部であれば、使用者は音声出力部から出力される音声によって上記数値を把握でき、出力先が外部の端末装置であれば、使用者は上記端末装置にて上記数値を把握できる。これにより、使用者は、把握した指標の数値をもとに、体調や症状を定量的にかつ細かく判断することが可能となる。その結果、現在の体調や症状に関する情報と過去の履歴や他人の情報との比較、および体調や症状に応じた具体的な対応の決定が容易となる。また、舌の撮影画像を利用した演算によって上記数値を算出する構成では、低コストで、かつ、舌の撮影開始から短時間で上記数値を取得できる。このため、使用者は上記数値を用いて日常の体調変化を管理することも容易となる。
 前記色度値は、前記舌の撮影画像の左右方向の中央部の、上部、中部、下部の3つの領域のうち、前記指標に応じた領域で得られる値であることが望ましい。
 東洋医学においては、人間の舌の状態を観察することにより、健康状態や病状を診断する診断手法(舌診)が知られている。苔の色、苔の形(厚さ)、舌の色は、舌の撮影画像の左右方向の中央部の上部、中部、下部の3つの領域の色度にそれぞれ現れる。したがって、演算部が上記3つの領域の少なくともいずれかで得られる色度値を用いて演算を行うことにより、東洋医学の診断手法(健康状態や病状の診断)を再現することができる。また、演算部が、上記3つの領域のうち、指標に応じた最適な領域で得られる色度値を用いて演算を行うことで、指標についての状態を示す数値を精度よく(実際の健康状態に近い数値として)算出することができる。
 前記色度値は、赤、緑、青の画像データの少なくともいずれかを含む基準データに対する、赤の画像データの比率、緑の画像データの比率、または青の画像データの比率であって、1以外の値であってもよい。
 撮影時に明るいと、RGBの画像データの少なくともいずれかが増大する。基準データに対する所望の色の画像データの比率を色度値として用いることにより、撮影時の明るさの影響を低減することができる。つまり、撮影時の明るさによって色度値が変動して、算出される指標の数値が変動するのを低減することができる。
 なお、例えば、基準データがRの画像データのみからなる場合の、基準データに対するRの画像データの比率は、Rの画像データの大小に関係なく常に1となり、色度値として比率を用いる意味がなくなるため、このような基準データの選択は除かれる(色度値が1以外の値の場合に上記の効果を得ることができる)。
 前記色度値は、前記舌の撮影画像の前記上部の領域における、前記基準データに対する青の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての最高血圧または最低血圧の数値を算出してもよい。この場合、使用者は、上記数値より、最高血圧または最低血圧を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記上部の領域における、前記基準データに対する赤の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての便秘の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、便秘の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する緑の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての下痢の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、下痢の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する緑の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての疲労による倦怠の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、疲労による倦怠の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する青の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての血液循環の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、血液循環の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する赤の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての体温の数値を算出してもよい。この場合、使用者は、上記数値より、体温を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する緑の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての気管支の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、気管支の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する緑の画像データの比率であり、前記演算部は、前記比率を用いた演算により、前記指標としての筋肉疲労の状態を示す数値を算出してもよい。この場合、使用者は、上記数値より、筋肉疲労の状態を具体的に把握して、その対応を具体的に決定することが容易となる。
 前記基準データは、赤、緑、青の画像データの総和であってもよい。撮影時に明るいと、RGBの画像データはそれぞれ増大するため、RGBの画像データの総和からなる基準データに対する、所望の色の画像データの比率を色度値として考えることにより、撮影時の明るさの影響を確実に低減できる。
 前記器官画像撮影装置は、前記演算部から出力された前記数値を表示または音声出力する出力部をさらに備えていてもよい。この場合、使用者は、出力部での表示または出力される音声によって、指標ごとの数値を即座に把握することが可能となり、日常の体調変化をモニタリングしたり、過去の履歴や他人のデータと比較したり、体調や症状に応じた具体的な対応を決定することがさらに容易となる。
 本発明は、生体の器官である舌を撮影して、健康度の診断に必要な情報を抽出する装置に利用可能である。
   1   器官画像撮影装置
   3   撮像部
   4   表示部(出力部)
   7   音声出力部(出力部)
  16   演算部
   Q   輪郭線
   R1  領域(上部の領域)
   R2  領域(中部の領域)
   R3  領域(下部の領域)

Claims (13)

  1.  生体の舌を撮影する撮像部と、
     前記撮像部にて取得される舌の撮影画像のデータから得られる色度値を用いた演算により、健康度に関する複数の指標のうちの少なくとも1つについての状態を示す数値を算出し、出力する演算部とを備えていることを特徴とする器官画像撮影装置。
  2.  前記色度値は、前記舌の撮影画像の左右方向の中央部の、上部、中部、下部の3つの領域のうち、前記指標に応じた領域で得られる値であることを特徴とする請求項1に記載の器官画像撮影装置。
  3.  前記色度値は、赤、緑、青の画像データの少なくともいずれかを含む基準データに対する、赤の画像データの比率、緑の画像データの比率、または青の画像データの比率であって、1以外の値であることを特徴とする請求項2に記載の器官画像撮影装置。
  4.  前記色度値は、前記舌の撮影画像の前記上部の領域における、前記基準データに対する青の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての最高血圧または最低血圧の数値を算出することを特徴とする請求項3に記載の器官画像撮影装置。
  5.  前記色度値は、前記舌の撮影画像の前記上部の領域における、前記基準データに対する赤の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての便秘の状態を示す数値を算出することを特徴とする請求項3または4に記載の器官画像撮影装置。
  6.  前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する緑の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての下痢の状態を示す数値を算出することを特徴とする請求項3から5のいずれかに記載の器官画像撮影装置。
  7.  前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する緑の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての疲労による倦怠の状態を示す数値を算出することを特徴とする請求項3から6のいずれかに記載の器官画像撮影装置。
  8.  前記色度値は、前記舌の撮影画像の前記中部の領域における、前記基準データに対する青の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての血液循環の状態を示す数値を算出することを特徴とする請求項3から7のいずれかに記載の器官画像撮影装置。
  9.  前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する赤の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての体温の数値を算出することを特徴とする請求項3から8のいずれかに記載の器官画像撮影装置。
  10.  前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する緑の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての気管支の状態を示す数値を算出することを特徴とする請求項3から9のいずれかに記載の器官画像撮影装置。
  11.  前記色度値は、前記舌の撮影画像の前記下部の領域における、前記基準データに対する緑の画像データの比率であり、
     前記演算部は、前記比率を用いた演算により、前記指標としての筋肉疲労の状態を示す数値を算出することを特徴とする請求項3から10のいずれかに記載の器官画像撮影装置。
  12.  前記基準データは、赤、緑、青の画像データの総和であることを特徴とする請求項3から11のいずれかに記載の器官画像撮影装置。
  13.  前記演算部でから出力された前記数値を表示または音声出力する出力部をさらに備えていることを特徴とする請求項1から12のいずれかに記載の器官画像撮影装置。
PCT/JP2014/082393 2014-01-30 2014-12-08 器官画像撮影装置 WO2015114950A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14881298.5A EP3100672A1 (en) 2014-01-30 2014-12-08 Organ image capturing device
US15/115,517 US20170164888A1 (en) 2014-01-30 2014-12-08 Organ imaging device
JP2015559768A JPWO2015114950A1 (ja) 2014-01-30 2014-12-08 器官画像撮影装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-015411 2014-01-30
JP2014015411 2014-01-30

Publications (1)

Publication Number Publication Date
WO2015114950A1 true WO2015114950A1 (ja) 2015-08-06

Family

ID=53756544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082393 WO2015114950A1 (ja) 2014-01-30 2014-12-08 器官画像撮影装置

Country Status (4)

Country Link
US (1) US20170164888A1 (ja)
EP (1) EP3100672A1 (ja)
JP (1) JPWO2015114950A1 (ja)
WO (1) WO2015114950A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR102210150B1 (ko) 2016-09-23 2021-02-02 애플 인크. 아바타 생성 및 편집
KR102435337B1 (ko) 2017-05-16 2022-08-22 애플 인크. 이모지 레코딩 및 전송
DK179867B1 (en) 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
US20190014996A1 (en) * 2017-07-14 2019-01-17 Hai Rong Qian Smart medical diagnosis system
CN110403611B (zh) * 2018-04-28 2022-06-07 张世平 血液中糖化血红蛋白成分值预测方法、装置、计算机设备和存储介质
CN110046020B (zh) * 2018-05-07 2021-01-15 苹果公司 电子设备、计算机可读存储介质及电子设备处执行的方法
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004113581A (ja) * 2002-09-27 2004-04-15 Asahi:Kk 健康管理装置
JP2004209245A (ja) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd 舌映像からの関心領域の抽出方法及び舌映像を利用した健康モニタリング方法及び装置
JP2006149679A (ja) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc 健康度判定方法、装置、及びプログラム
JP2006166990A (ja) * 2004-12-13 2006-06-29 Olympus Corp 医用画像処理方法
JP4487535B2 (ja) 2003-11-10 2010-06-23 コニカミノルタホールディングス株式会社 健康度測定システムおよびプログラム
CN102509312B (zh) * 2011-09-20 2013-10-02 哈尔滨工业大学 人体数字舌图像颜色色域空间及其提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080139966A1 (en) * 2006-12-07 2008-06-12 The Hong Kong Polytechnic University Automatic tongue diagnosis based on chromatic and textural features classification using bayesian belief networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004113581A (ja) * 2002-09-27 2004-04-15 Asahi:Kk 健康管理装置
JP2004209245A (ja) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd 舌映像からの関心領域の抽出方法及び舌映像を利用した健康モニタリング方法及び装置
JP4487535B2 (ja) 2003-11-10 2010-06-23 コニカミノルタホールディングス株式会社 健康度測定システムおよびプログラム
JP2006149679A (ja) * 2004-11-29 2006-06-15 Konica Minolta Holdings Inc 健康度判定方法、装置、及びプログラム
JP4649965B2 (ja) 2004-11-29 2011-03-16 コニカミノルタホールディングス株式会社 健康度判定装置、及びプログラム
JP2006166990A (ja) * 2004-12-13 2006-06-29 Olympus Corp 医用画像処理方法
CN102509312B (zh) * 2011-09-20 2013-10-02 哈尔滨工业大学 人体数字舌图像颜色色域空间及其提取方法

Also Published As

Publication number Publication date
JPWO2015114950A1 (ja) 2017-03-23
EP3100672A1 (en) 2016-12-07
US20170164888A1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
WO2015114950A1 (ja) 器官画像撮影装置
US9468356B2 (en) Lesion evaluation information generator, and method and computer readable medium therefor
JP7068487B2 (ja) 電子内視鏡システム
WO2016067892A1 (ja) 健康度出力装置、健康度出力システムおよびプログラム
KR101998595B1 (ko) 이미지 기반 황달 진단 방법 및 장치
WO2016076059A1 (ja) 器官画像撮影装置およびプログラム
JP5800119B1 (ja) 健康度判定装置および健康度判定システム
JP2022137109A (ja) 画像表示システム、及び画像表示方法
WO2015037316A1 (ja) 器官画像撮影装置および器官画像撮影方法
US20160210746A1 (en) Organ imaging device
WO2015068494A1 (ja) 器官画像撮影装置
WO2015060070A1 (ja) 器官画像撮影装置
JP2015226599A (ja) 生体色度計測装置
JP7104913B2 (ja) 撮像装置と撮像プログラムと画像判定装置と画像判定プログラムと画像処理システム
WO2015068495A1 (ja) 器官画像撮影装置
JP2016198140A (ja) 器官画像撮影装置
WO2015156039A1 (ja) 器官画像撮影装置
CN113747825B (zh) 电子内窥镜系统
JP2016168303A (ja) 器官画像撮影装置
KR20230081189A (ko) 스마트폰을 이용한 동공반응 검사방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14881298

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015559768

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014881298

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014881298

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15115517

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE