WO2024106391A1 - 画像処理方法、画像処理装置、及び、プログラム - Google Patents

画像処理方法、画像処理装置、及び、プログラム Download PDF

Info

Publication number
WO2024106391A1
WO2024106391A1 PCT/JP2023/040799 JP2023040799W WO2024106391A1 WO 2024106391 A1 WO2024106391 A1 WO 2024106391A1 JP 2023040799 W JP2023040799 W JP 2023040799W WO 2024106391 A1 WO2024106391 A1 WO 2024106391A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
rgb image
pixels
image processing
pixel
Prior art date
Application number
PCT/JP2023/040799
Other languages
English (en)
French (fr)
Inventor
岳史 浜崎
祥光 浅井
俊幸 中嶋
泰雄 大塚
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2024106391A1 publication Critical patent/WO2024106391A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Definitions

  • This disclosure relates to an image processing method, an image processing device, and a program.
  • Patent Document 1 discloses an intraoral camera system that captures images of teeth inside the oral cavity.
  • the present disclosure therefore provides an image processing method that can easily identify plaque areas in tooth images.
  • An image processing method includes: acquiring a first RGB image obtained by photographing the teeth and dental plaque that are undergoing a fluorescent reaction by irradiating the teeth with light including a wavelength range of blue light; and generating a second RGB image by performing image processing including a first image processing on the first RGB image; the first image processing is a process of adjusting the gain of at least two color components of the red, green, and blue components of the RGB image to be processed so that a first red pixel average value of multiple red pixel values of multiple first pixels constituting the tooth region of the RGB image to be processed, a first green pixel average value of multiple green pixel values of the multiple first pixels, and a first blue pixel average value of multiple blue pixel values of the multiple first pixels are equal.
  • the image processing method and the like disclosed herein can easily identify plaque areas in dental images.
  • FIG. 1A is a perspective view of an intraoral camera in an intraoral camera system according to an embodiment.
  • FIG. 1B is a cross-sectional view that illustrates a schematic diagram of a photographing optical system incorporated in an intraoral camera in an intraoral camera system according to an embodiment.
  • FIG. 2 is a schematic configuration diagram of an intraoral camera system according to an embodiment.
  • FIG. 3 is a diagram showing a flow of an intraoral photographing operation in the intraoral camera system according to the embodiment.
  • FIG. 4 is a functional block diagram of the mobile terminal according to the embodiment.
  • FIG. 5 is a diagram showing the state in which the front teeth of the upper jaw are photographed from the cheek side (labial side).
  • FIG. 6A is a diagram showing an example of a first RGB image of the front teeth captured in the state shown in FIG. 5.
  • FIG. 6B is a diagram showing an example of color difference data between a plaque region and a tooth region when light including a wavelength range of blue light is irradiated onto the tooth in the absence of a blue light cut filter.
  • FIG. 6C is a diagram showing an example of color difference data between a plaque region and a tooth region when the tooth is irradiated with light including a wavelength range of blue light using a blue light cut filter.
  • FIG. 6A is a diagram showing an example of a first RGB image of the front teeth captured in the state shown in FIG. 5.
  • FIG. 6B is a diagram showing an example of color difference data between a plaque region and a tooth region when light including a wavelength range of blue light is irradiated onto the tooth in the absence of a blue light cut filter.
  • FIG. 6C is a diagram showing an example of color difference data between a plaque region and
  • FIG. 6D is a diagram showing an example of color difference data between a plaque region and a tooth region when light including a wavelength range of blue light and white light are irradiated onto the tooth in the absence of a blue light cut filter.
  • FIG. 7A is a diagram showing an example of a second RGB image of the front teeth captured in the state shown in FIG. 5.
  • FIG. 7B shows an example of color difference data between the plaque region and the tooth region after exposure control processing and white balance adjustment processing are performed when light including the blue light wavelength range is irradiated onto the tooth without a blue light cut filter.
  • FIG. 7C shows an example of color difference data between the plaque region and the tooth region after exposure control processing and white balance adjustment processing are performed when light including the wavelength range of blue light is irradiated onto the tooth using a blue light cut filter.
  • FIG. 7D shows an example of color difference data of the plaque region and the tooth region after exposure control processing and white balance adjustment processing are performed when light including the blue light wavelength range and white light are irradiated onto the tooth without a blue light cut filter.
  • FIG. 8 is a diagram showing an example of a fourth RGB image of the front teeth captured in the state shown in FIG.
  • FIG. 9 is a diagram showing another example of the fourth RGB image of the front teeth captured in the state shown in FIG.
  • FIG. 10 is a flowchart of image processing in the mobile terminal.
  • FIG. 11 is a flowchart showing the details of the process for detecting the natural tooth region.
  • FIG. 12 is a diagram showing an example of an RGB image (first RGB image).
  • FIG. 13 is a diagram showing an example of the detected first natural tooth region.
  • FIG. 14 is a diagram showing an example of a detected gingival region.
  • FIG. 15 is a diagram showing an example of the second natural tooth region.
  • the image processing method involves obtaining a first RGB image obtained by photographing the teeth and plaque that are undergoing a fluorescent reaction by irradiating the teeth with light including a wavelength range of blue light, and generating a second RGB image by performing image processing including a first image processing on the first RGB image, the first image processing being a process of adjusting the gains of at least two color components of the red, green, and blue components of the RGB image to be processed so that a first red pixel average value of multiple red pixel values of multiple first pixels constituting the tooth region of the RGB image to be processed, a first green pixel average value of multiple green pixel values of the multiple first pixels, and a first blue pixel average value of multiple blue pixel values of the multiple first pixels are equal.
  • the first image processing it is possible to adjust the white balance of the first RGB image in which the fluorescently reacting teeth are captured.
  • This makes it possible to generate a second RGB image in which it is easy to distinguish plaque regions, which are regions on the teeth where plaque has adhered.
  • This makes it easy to identify plaque regions in the tooth image.
  • This makes it possible, for example, to capture an image of the teeth after brushing, identify plaque regions, and present the user with areas that have not been brushed.
  • the image processing method is the image processing method according to the first aspect, and the first image processing is a process of adjusting the gain of at least two color components of the red component, the green component, and the blue component of the RGB image to be processed so that a first red pixel average value of multiple red pixel values possessed by multiple first pixels constituting a natural tooth region in the RGB image to be processed, a first green pixel average value of multiple green pixel values possessed by the multiple first pixels, and a first blue pixel average value of multiple blue pixel values possessed by the multiple first pixels are equal.
  • the image processing method is the image processing method according to the first or second aspect, and further includes generating an HSV image by converting the color space of the second RGB image into an HSV space, identifying a specific pixel region in which one or more fourth pixels of the multiple fourth pixels in the HSV image that satisfy at least one of a first predetermined range for saturation, a second predetermined range for hue, and a third predetermined range for brightness are located, and generating a fourth RGB image by performing saturation enhancement processing on the specific pixel region in the second RGB image.
  • a specific pixel area is identified as a plaque area in the second RGB image, and saturation enhancement processing is performed on the specific pixel area, so that a third RGB image can be generated in which the plaque area is easily distinguished. Therefore, the plaque area in the tooth image can be easily identified.
  • the image processing method is the image processing method according to the first or second aspect, further comprising: generating an HSV image by converting the color space of the second RGB image into an HSV space; identifying a specific pixel area in which one or more fourth pixels of the multiple fourth pixels in the HSV image are located, the one or more fourth pixels having at least one of a first predetermined range for saturation, a second predetermined range for hue, and a third predetermined range for brightness; and generating a fourth RGB image by replacing the specific pixel area in the second RGB image with a predetermined pattern.
  • a specific pixel area in the second RGB image is identified as a plaque area, and the specific pixel area is replaced with a predetermined pattern, so that a fourth RGB image in which the plaque area is easily distinguished can be generated. Therefore, the plaque area in the tooth image can be easily identified.
  • the image processing method is an image processing method according to any one of the first to fourth aspects, wherein the image processing further includes a second image processing, the second image processing being a process of determining a gain such that an average value of a plurality of index values calculated from a plurality of second pixel values respectively possessed by a plurality of second pixels included in an RGB image to be processed becomes a predetermined value, and generating a third RGB image by applying the determined gain to the RGB image to be processed, and the first image processing being a process in which the third RGB image is the processing target.
  • the second image processing being a process of determining a gain such that an average value of a plurality of index values calculated from a plurality of second pixel values respectively possessed by a plurality of second pixels included in an RGB image to be processed becomes a predetermined value, and generating a third RGB image by applying the determined gain to the RGB image to be processed, and the first image processing being a process in which the third RGB image is the processing target.
  • exposure control processing is performed by adjusting the gain of the luminance values of multiple second pixels, so that the conditions for multiple luminance values can be kept constant even if there is variation in the shooting conditions.
  • the conditions for the luminance distribution of the third RGB image to be processed in the first image processing can be kept constant regardless of the shooting conditions, so that the first image processing can be performed more effectively.
  • the image processing method according to the sixth aspect of the present disclosure is the image processing method according to the fifth aspect, in which the average value of the plurality of index values is the average value of the color component having the maximum average value among the red component, the green component, and the blue component of the first RGB image.
  • the image processing method according to the seventh aspect of the present disclosure is the image processing method according to the fifth aspect, in which the index values are obtained by calculating, for each of the second pixel values, the red pixel value, the green pixel value, and the blue pixel value contained in the second pixel value.
  • the image processing method according to the eighth aspect of the present disclosure is the image processing method according to the fifth aspect, and the second pixels are pixels among the third pixels constituting the first RGB image, which satisfy the following: the pixel value of the maximum color component is smaller than a first threshold value, and the pixel value of the minimum color component is equal to or smaller than a second threshold value.
  • the second image processing can be performed by excluding areas in the first RGB image that are strongly affected by reflection from the irradiated light.
  • the image processing method according to the ninth aspect of the present disclosure is an image processing method according to any one of the first to fourth aspects, further detecting an intraoral position where the first RGB image was captured, and storing the intraoral position in association with the second RGB image.
  • the image processing device includes an acquisition unit that acquires a first RGB image obtained by photographing the teeth and plaque that are undergoing a fluorescent reaction by irradiating the teeth with light including a wavelength range of blue light, and a generation unit that generates a second RGB image by performing image processing including a first image processing on the first RGB image, the first image processing being a process of adjusting the gains of at least two color components of the red component, the green component, and the blue component of the RGB image to be processed so that a first red pixel average value of multiple red pixel values of multiple first pixels constituting the tooth region of the RGB image to be processed, a first green pixel average value of multiple green pixel values of the multiple first pixels, and a first blue pixel average value of multiple blue pixel values of the multiple first pixels are equal.
  • the first image processing it is possible to adjust the white balance of the first RGB image in which the fluorescently reacting teeth are captured.
  • This makes it possible to generate a second RGB image in which it is easy to distinguish plaque regions, which are regions on the teeth where plaque has adhered.
  • This makes it easy to identify plaque regions in the tooth image.
  • This makes it possible, for example, to capture an image of the teeth after brushing, identify plaque regions, and present the user with areas that have not been brushed.
  • the image processing device is the image processing device according to the tenth aspect, and the first image processing is a process of adjusting the gain of at least two color components of the red component, the green component, and the blue component of the RGB image to be processed so that a first red pixel average value of multiple red pixel values possessed by multiple first pixels constituting a natural tooth region in the RGB image to be processed, a first green pixel average value of multiple green pixel values possessed by the multiple first pixels, and a first blue pixel average value of multiple blue pixel values possessed by the multiple first pixels are equal.
  • the program according to the twelfth aspect of the present disclosure is a program for causing a computer to execute an image processing method according to any one of the first to ninth aspects.
  • an intraoral camera 10 has a toothbrush-like housing that can be handled with one hand, and the housing includes a head portion 10a that is placed in a user's oral cavity when photographing a dentition, a handle portion 10b that the user holds, and a neck portion 10c that connects the head portion 10a and the handle portion 10b.
  • the imaging optical system 12 is incorporated into the head portion 10a and the neck portion 10c.
  • the imaging optical system 12 includes an image sensor 14 and a lens arranged on its optical axis LA.
  • the imaging optical system 12 of the intraoral camera 10 is incorporated into the head portion 10a and the neck portion 10c.
  • the imaging optical system 12 includes an image sensor 14 and a lens 16 arranged on its optical axis LA.
  • the imaging element 14 is a photographing device such as a C-MOS sensor or a CCD element, and an image of the tooth D is formed by the lens 16.
  • the imaging element 14 outputs a signal (image data) corresponding to the formed image to the outside.
  • the lens 16 is, for example, a focusing lens, and forms an image of the tooth D that is incident on the imaging element 14.
  • the lens 16 may be a single lens or a lens group consisting of multiple lenses.
  • the imaging optical system 12 further includes a mirror 18 that reflects the image of the tooth D toward the lens 16, a blue light cut filter (blue light blocking element) 20 arranged between the mirror 18 and the lens 16, and an aperture 24 arranged between the lens 16 and the image sensor 14.
  • a mirror 18 that reflects the image of the tooth D toward the lens 16
  • a blue light cut filter (blue light blocking element) 20 arranged between the mirror 18 and the lens 16
  • an aperture 24 arranged between the lens 16 and the image sensor 14.
  • the mirror 18 is positioned on the optical axis LA of the imaging optical system 12 so as to reflect the image of the tooth D that passes through the entrance 12a of the imaging optical system 12 toward the lens 16.
  • the blue light cut filter 20 is a filter that cuts out the blue wavelength light components contained in the light that enters the image sensor 14.
  • the blue light cut filter 20 cuts out light including the blue wavelength range from the light before it enters the image sensor 14.
  • the aperture 24 is a plate-shaped member with a through hole on the optical axis LA of the imaging optical system 12, and achieves a deep focal depth. This allows the focus to be adjusted in the depth direction within the oral cavity, and an image of the dentition with clear contours can be obtained.
  • the intraoral camera 10 is also equipped with a plurality of first to fourth LEDs 26A to 26D as lighting devices that irradiate light onto the tooth D to be photographed during photography.
  • the first to fourth LEDs 26A to 26D are, for example, blue LEDs.
  • the first to fourth LEDs 26A to 26D are arranged to surround the entrance 12a.
  • a translucent cover 28 that covers the first to fourth LEDs 26A to 26D and the entrance 12a is provided on the head unit 10a so that the gums G and the like do not come into contact with the first to fourth LEDs 26A to 26D and cause a shortage of illumination light.
  • Some of the first to fourth LEDs 26A to 26D may be white LEDs. By using white LEDs as some of the first to fourth LEDs 26A to 26D, the first RGB image can be brightened and the balance of the blue pixel value relative to the red pixel value and the green pixel value can be improved.
  • the intraoral camera 10 has a composition adjustment mechanism 30 and a focus adjustment mechanism 32, as shown in FIG. 1B.
  • the composition adjustment mechanism 30 is composed of a housing 34 that holds the image sensor 14 and lens 16, and an actuator 36 that moves the housing 34 in the direction in which the optical axis LA extends.
  • the actuator 36 adjusts the position of the housing 34 to adjust the angle of view, i.e., the size of the row of teeth imaged on the image sensor 14.
  • the composition adjustment mechanism 30 automatically adjusts the position of the housing 34 so that, for example, an entire tooth is captured in the captured image.
  • the composition adjustment mechanism 30 also adjusts the position of the housing 34 based on the user's operation so that the angle of view desired by the user is achieved.
  • the focus adjustment mechanism 32 is held within the housing 34 of the composition adjustment mechanism 30 and is composed of a lens holder 38 that holds the lens 16, and an actuator 40 that moves the lens holder 38 in the direction in which the optical axis LA extends.
  • the actuator 40 adjusts the relative position of the lens holder 38 with respect to the image sensor 14, thereby adjusting the focus, i.e., the focal point.
  • the focus adjustment mechanism 32 automatically adjusts the position of the lens holder 38 so that, for example, a tooth located in the center of the captured image is brought into focus.
  • the focus adjustment mechanism 32 also adjusts the position of the lens holder 38 based on the user's operation.
  • the components of the imaging optical system 12, except for the mirror 18, may be provided on the handle portion 10bc of the intraoral camera 10.
  • the imaging element 14 is a photographing device such as a C-MOS sensor or CCD element, and an image of the teeth is formed by a lens.
  • the imaging element 14 outputs a signal (image data) corresponding to the formed image to the outside.
  • the image output by the imaging element 14 is an RGB image in which each of the multiple pixels that make up the image has RGB sub-pixels.
  • the intraoral camera 10 is also equipped with multiple first to fourth LEDs 26A to 26D as lighting devices that irradiate light onto the teeth to be photographed during photography.
  • the first to fourth LEDs 26A to 26D are, for example, blue LEDs that irradiate blue light with a wavelength that peaks at 405 nm. Note that the first to fourth LEDs 26A to 26D are not limited to blue LEDs as long as they are light sources that irradiate light that includes the wavelength range of blue light.
  • FIG. 2 is a schematic diagram of an intraoral camera system according to this embodiment.
  • the intraoral camera system according to this embodiment is generally configured to capture an image of the dentition using an intraoral camera 10 and perform image processing on the captured image.
  • the intraoral camera system includes an intraoral camera 10, a mobile terminal 70, and a cloud server 80.
  • the mobile terminal 70 is, for example, a smartphone or tablet terminal capable of wireless communication.
  • the mobile terminal 70 is equipped with, as an input device and an output device, a touch screen 72 capable of displaying, for example, an image of a dentition.
  • the mobile terminal 70 functions as a user interface for the intraoral camera system.
  • the cloud server 80 is a server that can communicate with the mobile terminal 70 via the Internet or the like, and provides the mobile terminal 70 with an application for using the intraoral camera 10. For example, a user downloads an application from the cloud server 80 and installs it on the mobile terminal 70. The cloud server 80 also acquires dentition images captured by the intraoral camera 10 via the mobile terminal 70.
  • the intraoral camera system includes a central control unit 50 as the main part that controls the system, an LED control unit 54 that controls the multiple LEDs 26A-26D, a lens driver 56 that controls the actuator 36 of the composition adjustment mechanism and the actuator 40 of the focus adjustment mechanism, and a position sensor 90.
  • the intraoral camera system also includes a wireless communication module 58 that communicates wirelessly with the mobile terminal 70, and a power supply control unit 60 that supplies power to the central control unit 50, etc.
  • the central control unit 50 of the intraoral camera system is mounted, for example, on the handle portion 10b of the intraoral camera 10.
  • the central control unit 50 also includes a controller 62 such as a CPU or MPU that executes various processes described below, and a memory 64 such as a RAM or ROM that stores programs for causing the controller 62 to execute various processes.
  • the memory 64 also stores a dentition image (image data) captured by the imaging element 14, various setting data, and the like.
  • the dentition image captured by the imaging element 14 is an example of a first RGB image.
  • the controller 62 transmits the dentition image output from the imaging element 14 to the mobile terminal 70 via the wireless communication module 58.
  • the mobile terminal 70 displays the transmitted dentition image on the touch screen 72, thereby presenting the dentition image to the user.
  • the LED control unit 54 is mounted, for example, on the handle portion 10b of the intraoral camera 10, and turns on and off the first to fourth LEDs 26A to 26D based on a control signal from the controller 62.
  • the LED control unit 54 is, for example, composed of a circuit. For example, when a user performs an operation on the touch screen 72 of the mobile terminal 70 to start the intraoral camera 10, a corresponding signal is sent from the mobile terminal 70 to the controller 62 via the wireless communication module 58. Based on the received signal, the controller 62 sends a control signal to the LED control unit 54 to turn on the first to fourth LEDs 26A to 26D.
  • the lens driver 56 is mounted, for example, on the handle portion 10b of the intraoral camera 10, and controls the actuator 36 of the composition adjustment mechanism and the actuator 40 of the focus adjustment mechanism based on a control signal from the controller 62 of the central control unit 50.
  • the lens driver 56 is, for example, composed of a circuit.
  • a corresponding signal is transmitted from the mobile terminal 70 to the central control unit 50 via the wireless communication module 58.
  • the controller 62 of the central control unit 50 transmits a control signal to the lens driver 56 to perform composition adjustment or focus adjustment.
  • the controller 62 calculates the control amount of the actuators 36, 40 required for composition adjustment or focus adjustment based on the dentition image from the imaging element 14, and transmits a control signal corresponding to the calculated control amount to the lens driver 56.
  • the wireless communication module 58 is mounted, for example, on the handle portion 10b of the intraoral camera 10, and performs wireless communication with the mobile terminal 70 based on a control signal from the controller 62.
  • the wireless communication module 58 performs wireless communication with the mobile terminal 70 that complies with existing communication standards such as WiFi (registered trademark) or Bluetooth (registered trademark).
  • WiFi registered trademark
  • Bluetooth registered trademark
  • the power supply control unit 60 is mounted on the handle portion 10b of the intraoral camera 10, and distributes power from a battery 66 to the central control unit 50, the LED control unit 54, the lens driver 56, and the wireless communication module 58.
  • the power supply control unit 60 is composed of, for example, a circuit.
  • the battery 66 is a rechargeable secondary battery, and is wirelessly charged by an external charger 69 connected to a commercial power source via a coil 68 mounted on the intraoral camera 10.
  • the position sensor 90 is a sensor for detecting the posture and position of the intraoral camera 10, and is, for example, a multi-axis (here, three axes: x, y, and z) acceleration sensor.
  • the position sensor 90 may be a six-axis sensor having a three-axis acceleration sensor and a three-axis gyro sensor.
  • the z-axis coincides with the optical axis LA.
  • the y-axis is parallel to the imaging surface and extends in the longitudinal direction of the intraoral camera 10.
  • the x-axis is parallel to the imaging surface and perpendicular to the y-axis.
  • the output of each axis of the position sensor 90 may be transmitted to the mobile terminal 70 via the central control unit 50 and the wireless communication module 58.
  • the position sensor 90 may be a piezoresistance type, capacitance type, or heat detection type MEMS sensor. Although not shown, it is advisable to provide a correction circuit for correcting the balance of the sensor sensitivity for each axis, the temperature characteristics of sensitivity, temperature drift, etc. Also, a band-pass filter (low-pass filter) may be provided to remove dynamic acceleration components and noise. Noise may also be reduced by smoothing the output waveform of the acceleration sensor.
  • a band-pass filter low-pass filter
  • Figure 3 is a diagram showing the flow of the intraoral photography operation in the intraoral camera system. Note that the process shown in Figure 3 is, for example, a process that is performed in real time, and is performed each time one frame or multiple frames of image data are obtained.
  • the user uses the intraoral camera 10 to capture an image of the teeth and gums in their mouth, generating image data (S101).
  • the intraoral camera 10 transmits the captured image data to the mobile device 70 (S102).
  • the image data may be a video or one or more still images.
  • the sensor data may be transmitted for each frame of the video or for each still image.
  • the image data is a video, the sensor data may be transmitted for each set of frames.
  • image data may be transmitted in real time, or may be transmitted all at once after a series of photographs (e.g., photographs of all teeth in the oral cavity) have been taken.
  • the mobile terminal 70 performs image processing on the received image data (first RGB image) (S103), and displays the image data after image processing (S104).
  • the user can take images of the inside of their own oral cavity with the intraoral camera 10 and check the condition of the oral cavity displayed on the mobile terminal 70. This allows the user to easily check the health condition of their own teeth, etc.
  • the mobile terminal 70 may also generate a three-dimensional model of multiple teeth in the oral cavity from multiple captured image data.
  • the mobile terminal 70 may also display an image based on the generated three-dimensional model.
  • the mobile terminal 70 processes the tooth images, some or all of this processing may be performed by the intraoral camera 10.
  • the mobile terminal 70 is an example of an image processing device.
  • FIG. 4 is a functional block diagram of the mobile terminal 70.
  • the mobile terminal 70 includes an acquisition unit 101, a generation unit 102, and a display unit 103.
  • the acquisition unit 101 acquires image data (first RGB image) transmitted from the intraoral camera 10.
  • the acquisition unit 101 may acquire sensor data in addition to image data from the intraoral camera 10.
  • the first RGB image is an image obtained by the intraoral camera 10 photographing the teeth that are undergoing a fluorescent reaction by irradiating the teeth with light that includes the wavelength range of blue light.
  • the generating unit 102 may generate a third RGB image by performing an exposure control process (second image processing) on the first RGB image, and generate a second RGB image by performing a white balance adjustment process (first image processing) on the third RGB image.
  • the generation unit 102 first extracts a plurality of pixels whose RGB values satisfy the following formulas 1 and 2 from among the plurality of first RGB pixels (third pixels) constituting the first RGB image.
  • min(R,G,B) indicates the minimum of the pixel values of the three RGB subpixels (i.e., the red pixel value, the green pixel value, and the blue pixel value) of the first RGB pixel.
  • Ths is a threshold value for removing areas in the first RGB image that are strongly affected by the reflection of the irradiated light (e.g., glossy areas). Ths is, for example, 900 in 10-bit representation.
  • max(R,G,B) indicates the maximum pixel value of the three RGB subpixels (i.e., the red pixel value, the green pixel value, and the blue pixel value) that the first RGB pixel has.
  • Thmax indicates the maximum value that a pixel value can take.
  • Thmax is expressed as 1023 in 10-bit representation.
  • Thmax is an example of a first threshold value.
  • Gmax is the maximum value of the multiple green pixel values in the first RGB image. In other words, it is the pixel value of the green pixel with the maximum pixel value among the multiple first RGB green pixels that make up the first RGB image.
  • Thb is a threshold value for extracting the second green pixel from the first RGB pixels. If the Thb value is made large, the image will become too bright, so for example, it is set to a value of 10 or less in 10-bit representation.
  • Equation 1 excludes glossy regions, and equation 2 extracts the tooth region in the first RGB image.
  • the multiple pixels extracted by equations 1 and 2 are the multiple second pixels that make up the tooth region.
  • the multiple second pixels are pixels that, among the multiple first RGB pixels (third pixels) that make up the first RGB image, satisfy the following: the pixel value max (R, G, B) of the maximum color component is smaller than the first threshold value (Thmax), and the pixel value min (R, G, B) of the minimum color component is equal to or smaller than the second threshold value (Ths).
  • the generating unit 102 calculates the average value of the green pixels of the second pixels, and determines the gain to be multiplied to the pixel values of the three RGB subpixels according to the calculated average value of the green pixels.
  • the generating unit 102 determines the gain to be multiplied to the pixel values of the three RGB subpixels, for example, using the following formula 3.
  • the gain is obtained by dividing the target pixel value by the average value of the green pixels.
  • the generating unit 102 generates a third RGB image by multiplying each of the first RGB pixels constituting the first RGB image by the determined gain. More specifically, the generating unit 102 generates a third RGB image by multiplying the pixel values of the three subpixels of each of the first RGB pixels by the determined gain for each of the first RGB pixels.
  • the pixel values of the third RGB pixels constituting the third RGB image are pixel values calculated by multiplying the pixel values of the first RGB pixels constituting the first RGB image by the determined gain.
  • the generation unit 102 replaces the pixel value with 1023.
  • the average value of the green pixels of the multiple second pixels extracted from the first RGB pixel is calculated using Equation 2, and the gain to be multiplied to the pixel values of the three RGB subpixels is determined according to the calculated average value of the green pixels, but this is not limited to the above.
  • the average value of the red pixels of the multiple second pixels extracted from the first RGB pixel may be calculated, and the gain to be multiplied to the pixel values of the three RGB subpixels may be determined according to the calculated average value of the red pixels.
  • the average value of the blue pixels of the multiple second pixels extracted from the first RGB pixel may be calculated, and the gain to be multiplied to the pixel values of the three RGB subpixels may be determined according to the calculated average value of the blue pixels.
  • the exposure control process is a process for generating a third RGB image by determining a gain for multiple second pixel values so that the average value of multiple index values calculated from multiple second pixel values owned by each of multiple second pixels (pixels corresponding to the tooth area) included in the RGB image to be processed (here, the first RGB image) becomes a predetermined value, and applying the determined gain to multiple first RGB pixel values owned by multiple first RGB pixels in the first RGB image.
  • the index value may be a value calculated from the pixel values of the three RGB subpixels that make up one pixel, or it may be the pixel value of any one of the three subpixels.
  • the average value of the multiple index values is the average value of the color component having the maximum pixel value among the red, green, and blue components of the first RGB image.
  • the color component having the maximum average value is the color component having the maximum average value among the three average values: the first red pixel average value of the multiple red pixel values of the multiple first pixels constituting the first RGB image, the first green pixel average value of the multiple green pixel values of the multiple first pixels, and the first blue pixel average value of the multiple blue pixel values of the multiple first pixels. Note that the color component having the maximum average value does not need to be determined by calculating and comparing the first red pixel average value, the first green pixel average value, and the first blue pixel average value, and may be fixed to the green component.
  • the generating unit 102 calculates the average value of the green pixels of the second pixels in determining the gain, and determines the gain according to the calculated average value of the green pixels.
  • the generating unit 102 may calculate the average value of the luminance values of the second pixels as the average value of the index values, and determine the gain according to the calculated average value of the luminance values.
  • the index value may be the pixel value of any one of the three RGB subpixels constituting one pixel, or may be a value calculated from the pixel values of the three subpixels.
  • the generating unit 102 calculates the luminance value of each of the second pixels using the subpixel values of the three subpixels of the second pixel. For example, the generating unit 102 calculates the luminance value using the following formula 3.
  • Equation 3 Y is the luminance value, R is the red pixel value, G is the green pixel value, and B is the blue pixel value.
  • multiple luminance values may be obtained for each of multiple pixel values by calculating them based on the red pixel value, the green pixel value, and the blue pixel value contained in the pixel value.
  • the generation unit 102 extracts a plurality of pixels whose RGB values satisfy Expression 1 and the following Expression 4 from among a plurality of third RGB pixels constituting the third RGB image to be processed.
  • Thl is a threshold value indicating the lower limit of the tooth area
  • Thu is a threshold value indicating the upper limit of the tooth area.
  • the tooth area in the third RGB image is extracted using equation 4.
  • the multiple pixels extracted using equations 1 and 4 are the multiple second pixels that make up the tooth area.
  • the generation unit 102 calculates a first red pixel average value Rave, which is the average value of multiple red pixel values in the tooth region that satisfy Equations 1 and 4, a first green pixel average value Gave, which is the average value of multiple green pixel values in the tooth region, and a first blue pixel average value Bave, which is the average value of multiple blue pixel values in the tooth region.
  • the generation unit 102 then adjusts the gains of at least two color components, the red component, the green component, and the blue component, of the RGB image to be processed so that the first red pixel average value Rave, the first green pixel average value Gave, and the first blue pixel average value Bave are equal.
  • the generating unit 102 calculates the gains of the multiple red pixel values (gain for red pixels) by dividing the first green pixel average value Gave by the first red pixel average value Rave.
  • the generating unit 102 also calculates the gains of the multiple blue pixel values (gain for blue pixels) by dividing the first green pixel average value Gave by the first blue pixel average value Bave.
  • the generating unit 102 then multiplies each red pixel of the multiple third RGB pixels constituting the third RGB image by the gain for red pixels, and multiplies each blue pixel of the multiple third RGB pixels by the gain for blue pixels, to generate a second RGB image.
  • the pixel values of the multiple second RGB pixels constituting the second RGB image are pixel values calculated by multiplying the red pixel values of the multiple third RGB pixels constituting the third RGB image by the gain for red pixels, and multiplying the blue pixel values of the multiple third RGB pixels by the gain for blue pixels.
  • the generation unit 102 performs white balance adjustment by calculating the red pixel gain and the blue pixel gain based on the green pixel average value and multiplying each gain by the pixel value of the corresponding color component, but this is not limited to the above.
  • the green pixel gain and the blue pixel gain may be calculated based on the red pixel average value, or the red pixel gain and the green pixel gain may be calculated based on the blue pixel average value.
  • the generating unit 102 replaces the pixel value with 1023.
  • the generating unit 102 may emphasize the plaque area in the tooth area in the second RGB image by performing a third image process as described below on the second RGB image. Specifically, the generating unit 102 generates an HSV image by converting the color space of the second RGB image into an HSV space.
  • the generating unit 102 identifies, as the plaque area, a specific pixel area in which one or more fourth pixels are located that satisfy at least one of the following conditions among the multiple fourth pixels in the HSV image: a saturation within a first predetermined range (e.g., 30 to 80 in 8-bit representation), a hue within a second predetermined range (e.g., 140 to 170 in 8-bit representation), and a brightness within a third predetermined range (e.g., 100 to 180 in 8-bit representation).
  • the first, second, and third predetermined ranges are not limited to the above-mentioned numerical ranges, and may be determined by comparing the actual plaque region, tooth region, and HSV image.
  • the generating unit 102 generates the fourth RGB image by performing saturation enhancement processing on the plaque region in the second RGB image. Instead of performing saturation enhancement processing, the generating unit 102 may generate the fourth RGB image by replacing the plaque region with a predetermined pattern.
  • the predetermined pattern may be, for example, graphics having a constant pixel value, or graphics including a specific pattern.
  • the display unit 103 is a display device included in the mobile terminal 70, and displays the image after image processing has been performed by the generation unit 102.
  • the display unit 103 may display the second RGB image or the fourth RGB image.
  • FIG. 5 is a diagram showing a state in which a user is vertically holding the intraoral camera 10 and photographing the upper front teeth from the cheek side (labial side).
  • Fig. 6A is a diagram showing an example of a first RGB image of the front teeth photographed in the state shown in Fig. 5 by irradiating the oral cavity with blue light (peak wavelength is 405 nm).
  • FIG. 6B is a diagram showing an example of color difference data of the plaque region 201 and tooth region detected in FIG. 6A.
  • FIG. 6B shows the color difference data of the plaque region 201 and tooth region detected from the first RGB image captured without the blue light cut filter 20 shown in FIG. 1B.
  • the color difference average coordinates of the hue of the plaque region are (0.16, 0.06)
  • the color difference average coordinates of the hue of the tooth region are (0.25, -0.02). Note that these color difference average coordinates of the hues are only reference values, and may vary depending on the intensity of blue light and the sensitivity of the camera.
  • a blue light cut filter is effective as a method for reducing noise.
  • light including the blue wavelength range can be cut off by a blue light cut filter 20 from the light reflected from the teeth before it enters the image sensor 14.
  • Figure 6C is a diagram showing an example of color difference data of the plaque region 201 and tooth region detected from a first RGB image of a front tooth captured with the blue light cut filter 20 cutting out light including the wavelength range of blue light.
  • the color difference average coordinates of the hue of the plaque region in Figure 6C are (0.058, 0.068), and the color difference average coordinates of the hue of the tooth region are (0.050, -0.004). Note that these color difference average coordinates of the hues are for reference only, and may vary depending on the intensity of blue light and the sensitivity of the camera.
  • cutting light that includes the wavelength range of blue light using a blue light cut filter reduces the saturation of blue (makes the color lighter). Because the plaque area fluoresces a reddish pink color, it is possible to reduce the brightness of the tooth area while maintaining the brightness of the plaque area. This reduces the blue pixel value and reduces the difference between the red and green pixel values, thereby reducing the white balance gain multiplied by the red and green pixel values, resulting in the effect of suppressing noise.
  • some of the first to fourth LEDs 26A to 26D in FIG. 1 may be white LEDs.
  • FIG. 6D shows an example of color difference data of the plaque region 201 and tooth region detected from a first RGB image of a front tooth captured by illuminating the oral cavity with blue light (peak wavelength 405 nm) and white light.
  • FIG. 6D shows color difference data of the plaque region 201 and tooth region detected from a first RGB image captured without the blue light cut filter 20 shown in FIG. 1B.
  • FIG. 6C shows color difference data of the plaque region 201 and tooth region detected from a first RGB image captured without the blue light cut filter 20 shown in FIG. 1B.
  • the color difference average coordinates of the hue of the plaque region were (0.089, 0.041), and the color difference average coordinates of the hue of the tooth region were (0.15, -0.013). Note that these color difference average coordinates of the hues are reference values and may vary depending on the intensity of the blue light and white light and the sensitivity of the camera.
  • the mobile terminal 70 performs image processing (exposure control processing and white balance adjustment processing) to generate a second RGB image 210 in which the plaque region 211 is easily distinguishable, as shown in Fig. 7A.
  • the image processing essentially makes the tooth region colorless, making the plaque region 211 easier to distinguish.
  • Figure 7B shows an example of color difference data for the plaque region and tooth region after exposure control processing and white balance adjustment processing when light including the wavelength range of blue light is irradiated onto the tooth without a blue light cut filter.
  • the tooth region is considered to be substantially white.
  • the color difference average coordinates of the hue of the plaque region in Figure 7B were (0.033, 0.071). Note that these color difference average coordinates of the hues are for reference only and may change depending on the intensity of the blue light and the sensitivity of the camera.
  • Figure 7C shows an example of color difference data for the plaque region and tooth region after exposure control processing and white balance adjustment processing when a tooth is irradiated with light including the wavelength range of blue light using a blue light cut filter.
  • the tooth region is considered to be substantially white.
  • the color difference average coordinates of the hue of the plaque region in Figure 6C were (0.033, 0.071). Note that these color difference average coordinates of the hues are for reference only and may change depending on the intensity of the blue light and the sensitivity of the camera.
  • Figure 7D shows an example of color difference data for the plaque region and tooth region after exposure control processing and white balance adjustment processing when light including the wavelength range of blue light and white light are irradiated onto the tooth without a blue light cut filter.
  • the tooth region is considered to be substantially white.
  • the color difference average coordinates of the hue of the plaque region in Figure 6D were (0.014, 0.048). Note that these color difference average coordinates of the hues are for reference only and may change depending on the intensity of the blue light and white light and the sensitivity of the camera.
  • the hue of the plaque area can be displayed in roughly the same reddish pink color regardless of the type of light source used to illuminate the oral cavity.
  • FIG. 8 is a diagram showing an example of a fourth RGB image of the front teeth photographed in the state shown in Fig. 5.
  • Fig. 9 is a diagram showing another example of the fourth RGB image of the front teeth photographed in the state shown in Fig. 5.
  • the mobile terminal 70 acquires a first RGB image 200 from the intraoral camera 10 as shown in FIG. 6A.
  • the mobile terminal 70 can also perform saturation enhancement processing on the plaque region 211 of the second RGB image 210 to generate a fourth RGB image 220 in which the plaque region 221 is easily distinguishable, as shown in FIG. 8.
  • the mobile terminal 70 can further replace the plaque region 211 of the second RGB image 210 with a predetermined pattern to generate a fourth RGB image 230 in which the plaque region 231 has been replaced with a predetermined pattern as shown in FIG. 9.
  • FIG. 10 is a flowchart of image processing in the mobile terminal 70.
  • the mobile terminal 70 acquires a first RGB image from the intraoral camera 10 (S111).
  • the mobile terminal 70 generates a third RGB image by performing exposure control processing on the first RGB image (S112).
  • the mobile terminal 70 generates a second RGB image by performing a white balance adjustment process on the third RGB image (S113).
  • the mobile terminal 70 identifies the plaque area in the second RGB image (S114).
  • the mobile terminal 70 generates a fourth RGB image by performing saturation enhancement processing on the plaque region of the second RGB image, or by replacing the plaque region with a predetermined pattern (S115).
  • the image processing device (e.g., mobile terminal 70) according to this embodiment includes an acquisition unit 101 and a generation unit 102.
  • the acquisition unit 101 acquires a first RGB image obtained by photographing a tooth undergoing a fluorescent reaction by irradiating the tooth with light including a wavelength range of blue light.
  • the generation unit 102 generates a second RGB image by performing image processing including a first image processing on the first RGB image.
  • the first image processing is a process of adjusting the gain of at least two color components of the red component, the green component, and the blue component of the first RGB image so that a first red pixel average value of multiple red pixel values of multiple first pixels constituting a tooth region in the RGB image to be processed, a first green pixel average value of multiple green pixel values of multiple first pixels, and a first blue pixel average value of multiple blue pixel values of multiple first pixels are equal.
  • the first image processing it is possible to adjust the white balance of the first RGB image in which the fluorescently reacting teeth are captured.
  • This makes it possible to generate a second RGB image in which it is easy to distinguish plaque regions, which are regions on the teeth where plaque has adhered.
  • This makes it easy to identify plaque regions in the tooth image.
  • This makes it possible, for example, to capture an image of the teeth after brushing, identify plaque regions, and present the user with areas that have not been brushed.
  • an HSV image is generated by converting the color space of the second RGB image into an HSV space, a specific pixel region is identified in which one or more fourth pixels of the multiple fourth pixels in the HSV image that satisfy at least one of a first predetermined range for saturation, a second predetermined range for hue, and a third predetermined range for brightness are located, and a fourth RGB image is generated by performing saturation enhancement processing on the specific pixel region in the second RGB image.
  • a specific pixel area is identified as a plaque area in the second RGB image, and saturation enhancement processing is performed on the specific pixel area, so that a third RGB image can be generated in which the plaque area is easily distinguished. Therefore, the plaque area in the tooth image can be easily identified.
  • an HSV image is generated by converting the color space of the second RGB image into an HSV space, a specific pixel area is identified in which one or more fourth pixels of the multiple fourth pixels in the HSV image that satisfy at least one of a first predetermined range for saturation, a second predetermined range for hue, and a third predetermined range for brightness are located, and a fourth RGB image is generated by replacing the specific pixel area in the second RGB image with a predetermined pattern.
  • a specific pixel area in the second RGB image is identified as a plaque area, and the specific pixel area is replaced with a predetermined pattern, so that a fourth RGB image in which the plaque area is easily distinguished can be generated. Therefore, the plaque area in the tooth image can be easily identified.
  • the image processing further includes a second image processing.
  • the second image processing is a process for determining a gain such that the average value of multiple luminance values calculated from multiple second pixel values possessed by each of multiple second pixels included in the RGB image to be processed becomes a predetermined value, and for generating a third RGB image by applying the determined gain to the RGB image to be processed.
  • the first image processing is a process for processing the third RGB image.
  • exposure control processing is performed by adjusting the gain of the luminance values of multiple second pixels, so that the conditions for multiple luminance values can be kept constant even if there is variation in the shooting conditions.
  • the conditions for the luminance distribution of the third RGB image to be processed in the first image processing can be kept constant regardless of the shooting conditions, so that the first image processing can be performed more effectively.
  • the average value of the multiple luminance values is the average value of the color component that has the maximum average value among the red component, green component, and blue component of the first RGB image.
  • multiple luminance values are obtained by calculating, for each of multiple pixel values, based on the red pixel value, green pixel value, and blue pixel value contained in the pixel value.
  • the second pixels are pixels among the third pixels constituting the first RGB image, which satisfy the following: the pixel value of the maximum color component is smaller than the first threshold value, and the pixel value of the minimum color component is equal to or smaller than the second threshold value.
  • the second image processing can be performed by excluding areas in the first RGB image that are strongly affected by reflection from the irradiated light.
  • the generating unit 102 performs exposure control processing on the first RGB image and performs white balance adjustment processing on the third RGB image generated by the exposure control processing, but the present invention is not limited to this and the exposure control processing may not be performed. For example, if a first RGB image in which the occurrence of variations in the luminance distribution is reduced is obtained, the exposure control processing may not be performed. For example, the variation in the luminance distribution of the obtained first RGB image may be reduced by controlling the illumination so that the shooting conditions are constant.
  • a guidance for specifying an intraoral position to be photographed may be displayed on the display unit 103 of the mobile terminal 70.
  • the guidance may be output as audio from a speaker (not shown) of the mobile terminal 70.
  • the intraoral position may be the position of a front tooth, a back tooth, or the like.
  • the mobile terminal 70 may store, in association with the intraoral position indicated in the guidance, a second RGB image or a fourth RGB image generated by image processing performed on the first RGB image acquired while the intraoral position was being indicated.
  • the intraoral camera 10 transmits the first RGB image to the mobile terminal 70, and the image processing of the first RGB image is performed in the mobile terminal 70, but this is not limited thereto.
  • the first RGB image may be transmitted to the cloud server 80, the cloud server 80 performs the image processing, and the second RGB image or the fourth RGB image resulting from the image processing may be transmitted to the mobile terminal 70.
  • the first RGB image may be transmitted from the intraoral camera 10 to the cloud server 80 without passing through the mobile terminal 70, or may be transmitted from the intraoral camera 10 to the cloud server 80 via the mobile terminal 70.
  • a tooth region is extracted from the RGB image to be processed, and the gains of at least two color components among the red, green, and blue components of the RGB image to be processed are adjusted so that the first red pixel average value, the first green pixel average value, and the first blue pixel average value in the tooth region are equal, but this is not limited to the above.
  • the pixel average values of each color targeted for adjusting the gain are not limited to the average values in the tooth region, and may be the average values in the natural tooth region.
  • Fig. 11 is a flowchart showing the details of the process of detecting natural tooth regions.
  • FIG. 12 is a diagram showing an example of an RGB image (first RGB image).
  • the RGB image shown in FIG. 12 is an image of a natural tooth 241, an artificial tooth 242, and gums 243 (gums).
  • the artificial tooth 242 is, for example, a prosthesis made of a metal such as gold or silver.
  • the natural tooth 241 is a natural tooth, and is the part of the tooth excluding the artificial tooth 242.
  • the generating unit 102 detects a first natural tooth region using the RGB image (first RGB image) (S201). Specifically, the generating unit 102 detects, as the first natural tooth region, a region in the RGB image that satisfies both a first condition that the green pixel value (G) is equal to or greater than a predetermined first threshold value, and a second condition that the respective differences between the green pixel value (G), red pixel value (R), and blue pixel value (B) are less than a predetermined third threshold value.
  • excitation light blue light
  • excitation fluorescence is emitted from the dentin. This excitation fluorescence passes through the enamel. This causes the natural tooth to fluoresce green.
  • blue light is irradiated onto a filling in a caries treatment scar, it appears dark (low brightness) in the image captured by the camera, unlike when white light is irradiated.
  • natural teeth covered with enamel appear bright (high brightness) in the image. Therefore, by extracting this green fluorescence according to the first condition, it is possible to identify the area of the natural tooth and exclude the area of the artificial tooth.
  • the red, green, and blue pixel values are small, so that when the data values vary, the gain varies widely, and the hue of the natural tooth, which is a high-brightness part, varies widely.
  • the natural tooth, which should be displayed in white varies greatly in the red and blue directions. Therefore, by extracting the area of the natural tooth excluding the area of the artificial tooth as the tooth region and performing white balance adjustment processing, it is possible to adjust the white balance more appropriately.
  • the second condition is specifically a condition that (1) the absolute value of the difference between the red pixel value (R) and the green pixel value (G) (abs(R-G)) is less than the threshold value rg_th, (2) the absolute value of the difference between the green pixel value (G) and the blue pixel value (B) (abs(G-B)) is less than the threshold value gb_th, and (3) the absolute value of the difference between the blue pixel value (B) and the red pixel value (R) (abs(B-R)) is less than the threshold value gb_th.
  • the threshold values rg_th, gb_th, and br_th may be the same value or different values.
  • the luminance value (Y) may be used instead of the green pixel value (G).
  • the luminance value (Y) is calculated using the above-mentioned formula 3.
  • the ratio of green pixel values to luminance values is high, so detection can be performed using luminance values in the same way as when green pixel values are used.
  • first condition only one of the first condition and the second condition may be used.
  • first condition only the first condition may be used.
  • FIG. 13 is a diagram showing an example of a detected first natural tooth region 251. Note that for the sake of explanation, FIG. 13 shows the shape of teeth, etc. in addition to the first natural tooth region 251, but the detected information does not necessarily have to include the shape of teeth, etc. This also applies to FIG. 14 and FIG. 15.
  • the area including the area of the natural tooth 241 and the area of the gums 243 is detected as the first natural tooth area 251.
  • the first natural tooth area 251 does not include the area of the artificial tooth 242.
  • the first natural tooth region 251 includes the entire area of the gums 243, depending on the shooting conditions, there may be cases in which only a portion of the area of the gums 243 is included in the first natural tooth region 251, or where the area of the gums 243 is not included in the first natural tooth region 251.
  • the generating unit 102 generates an HSV image by converting the color space of the RGB image (first RGB image) into an HSV space (S202).
  • the generating unit 102 detects a gingival region using the HSV image (S203). Specifically, the generating unit 102 detects a region whose hue (H) falls within a predetermined range as the gingival region.
  • FIG. 14 is a diagram showing an example of a detected gum region 252. As shown in FIG. 14, the gum 243 region is detected as the gum region 252. Note that, although an example of detecting the gum region is shown here, in addition to the gums, lips, etc. may also be detected as the gum region 252.
  • FIG. 15 is a diagram showing an example of the second natural tooth area 253.
  • the second natural tooth area 253 includes the area of the natural tooth 241, but does not include the areas of the artificial tooth 242 and the gums 243.
  • the generating unit 102 determines the third natural tooth region by excluding small regions from the second natural tooth region 253 (S205).
  • a small region is, for example, a region whose area is smaller than a predetermined value. This makes it possible to prevent high-brightness regions caused by reflected light, etc., outside the natural tooth region (for example, the gum region) from being erroneously determined to be a natural tooth region.
  • the generating unit 102 determines the fourth natural tooth region by expanding the third natural tooth region (S206). Specifically, the generating unit 102 determines the fourth natural tooth region as an area obtained by expanding the boundary of the third natural tooth region outward by a predetermined amount. This makes it possible to add the boundary between the teeth and gums, etc. to the natural tooth region, and prevents the plaque region from being displayed excessively.
  • the generating unit 102 finally detects the fourth natural tooth area as the natural tooth area to be used in the white balance adjustment process.
  • the image data obtained by the intraoral camera 10 is an RGB image, but it may be a CMYG image obtained by a CMYG complementary color filter of four colors, cyan, magenta, yellow, and green.
  • the CMYG image may be converted into an RGB image by a calculation using an approximation formula, and the mobile terminal 70 may perform image processing on the converted RGB image.
  • the conversion from the CMYG image to the RGB image may be performed by the intraoral camera 10, the mobile terminal 70, or another information processing device.
  • Mg stands for magenta
  • Ye stands for yellow
  • Cy stands for cyan
  • the intraoral camera system according to the embodiment of the present disclosure has been described above, but the present disclosure is not limited to this embodiment.
  • the intraoral camera 10 is used primarily for photographing teeth, but the intraoral camera 10 may also be an oral care device equipped with a camera.
  • the intraoral camera 10 may also be an oral irrigator equipped with a camera.
  • each processing unit included in the intraoral camera system according to the above embodiment is typically realized as an LSI, which is an integrated circuit. These may be individually implemented as single chips, or may be integrated into a single chip that includes some or all of them.
  • the integrated circuit is not limited to LSI, but may be realized by a dedicated circuit or a general-purpose processor. It is also possible to use an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI.
  • FPGA Field Programmable Gate Array
  • each component may be configured with dedicated hardware, or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or processor reading and executing a software program recorded on a recording medium such as a hard disk or semiconductor memory.
  • the present disclosure may also be realized as an image display method executed by an intraoral camera system.
  • the present disclosure may also be realized as an intraoral camera, a mobile terminal, or a cloud server included in an intraoral camera system.
  • the division of functional blocks in the block diagram is one example, and multiple functional blocks may be realized as one functional block, one functional block may be divided into multiple blocks, or some functions may be transferred to other functional blocks. Furthermore, the functions of multiple functional blocks having similar functions may be processed in parallel or in a time-shared manner by a single piece of hardware or software.
  • This disclosure can be applied to intraoral camera systems.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Biomedical Technology (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

画像処理方法は、青色光の波長域を含む光を歯牙に照射することで蛍光反応している歯牙及び歯垢を撮影することで得られた第1RGB画像(200)を取得し(S111)、第1RGB画像(200)に対して第1画像処理を含む画像処理を行うことで第2RGB画像(210)を生成し(S113)、第1画像処理は、処理対象のRGB画像のうちの歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。

Description

画像処理方法、画像処理装置、及び、プログラム
 本開示は、画像処理方法、画像処理装置、及び、プログラムに関する。
 口腔内の歯牙の画像を撮影する口腔内カメラシステムが特許文献1に開示されている。
特開2019-141582号公報
 このような、口腔内カメラシステムでは、歯牙の画像において歯垢が付着している領域である歯垢領域を容易に特定できることが望まれている。
 そこで、本開示は、歯牙の画像における歯垢領域を容易に特定できる画像処理方法などを提供する。
 本開示の一態様に係る画像処理方法は、青色光の波長域を含む光を歯牙に照射することで蛍光反応している前記歯牙および歯垢を撮影することで得られた第1RGB画像を取得し、前記第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成し、前記第1画像処理は、処理対象のRGB画像のうちの前記歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。また、記録媒体は、非一時的な記録媒体であってもよい。
 本開示に係る画像処理方法などは、歯牙の画像における歯垢領域を容易に特定できる。
図1Aは、実施の形態に係る口腔内カメラシステムにおける口腔内カメラの斜視図である。 図1Bは、実施の形態に係る口腔内カメラシステムにおける口腔内カメラに組み込まれた撮影光学系を概略的に示す断面図である。 図2は、実施の形態に係る口腔内カメラシステムの概略的構成図である。 図3は、実施の形態に係る口腔内カメラシステムにおける口腔内撮影動作の流れを示す図である。 図4は、実施の形態に係る携帯端末の機能ブロック図である。 図5は、上顎の前歯を頬側(唇側)から撮影している状態を示す図である。 図6Aは、図5に示した状態で撮影した前歯の第1RGB画像の一例を示す図である。 図6Bは、青色光カットフィルタがない状態で、青色光の波長域を含む光を歯牙に照射したときの、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図6Cは、青色光カットフィルタを用いて、青色光の波長域を含む光を歯牙に照射したときの、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図6Dは、青色光カットフィルタがない状態で、青色光の波長域を含む光と白色光を歯牙に照射したときの、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図7Aは、図5に示した状態で撮影した前歯の第2RGB画像の一例を示す図である。 図7Bは、青色光カットフィルタがない状態で、青色光の波長域を含む光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図7Cは、青色光カットフィルタを用いて、青色光の波長域を含む光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図7Dは、青色光カットフィルタがない状態で、青色光の波長域を含む光と白色光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。 図8は、図5に示した状態で撮影した前歯の第4RGB画像の一例を示す図である。 図9は、図5に示した状態で撮影した前歯の第4RGB画像の他の一例を示す図である。 図10は、携帯端末における画像処理のフローチャートである。 図11は、天然歯牙の領域の検出処理の詳細を示すフローチャートである。 図12は、RGB画像(第1RGB画像)の例を示す図である。 図13は、検出される第1天然歯牙領域の例を示す図である。 図14は、検出された歯肉領域の例を示す図である。 図15は、第2天然歯牙領域の例を示す図である。
 本開示の第1の態様に係る画像処理方法は、青色光の波長域を含む光を歯牙に照射することで蛍光反応している前記歯牙および歯垢を撮影することで得られた第1RGB画像を取得し、前記第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成し、前記第1画像処理は、処理対象のRGB画像のうちの前記歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 これによれば、第1画像処理を行うことで、蛍光反応している歯牙が撮影されている第1RGB画像のホワイトバランスを調整することができる。このため、歯牙において歯垢が付着している領域である歯垢領域を区別しやすい第2RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。これにより、例えば、歯磨き後の歯牙の画像を撮影し、歯垢領域を特定することで、磨き残しの領域をユーザに提示することができる。
 本開示の第2の態様に係る画像処理方法は、第1の態様に係る画像処理方法であって、前記第1画像処理は、処理対象のRGB画像のうちの天然歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 本開示の第3の態様に係る画像処理方法は、第1の態様または第2の態様に係る画像処理方法であって、さらに、前記第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、前記HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、前記第2RGB画像における前記特定画素領域に対して彩度強調処理を行うことで第4RGB画像を生成する。
 これによれば、第2RGB画像において歯垢領域としての特定画素領域を特定し、特定画素領域に対して彩度強調処理を行うため、さらに、歯垢領域を区別しやすい第3RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。
 本開示の第4の態様に係る画像処理方法は、第1の態様または第2の態様に係る画像処理方法であって、さらに、前記第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、前記HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、前記第2RGB画像における前記特定画素領域を所定パターンで置き換えることで第4RGB画像を生成する。
 これによれば、第2RGB画像において歯垢領域としての特定画素領域を特定し、特定画素領域を所定パターンで置き換えるため、さらに、歯垢領域を区別しやすい第4RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。
 本開示の第5の態様に係る画像処理方法は、第1の態様から第4の態様のいずれか1つの態様に係る画像処理方法であって、前記画像処理は、さらに、第2画像処理を含み、前記第2画像処理は、処理対象のRGB画像に含まれる複数の第2画素がそれぞれ有する複数の第2画素値から算出した複数の指標値の平均値が所定値になるようにゲインを決定し、決定した前記ゲインを前記処理対象のRGB画像に適用することで第3RGB画像を生成する処理であり、前記第1画像処理は、前記第3RGB画像を処理対象とする処理である。
 これによれば、複数の第2画素の輝度値のゲインを調整することで露出制御処理を行うため、撮影条件にバラツキがあっても複数の輝度値の条件を一定にすることができる。つまり、第1画像処理を行う処理対象の第3RGB画像の輝度分布の条件を撮影条件によらず一定にすることができるため、より効果的に第1画像処理を行うことができる。
 本開示の第6の態様に係る画像処理方法は、第5の態様に係る画像処理方法であって、前記複数の指標値の平均値は、前記第1RGB画像の赤成分、緑成分、及び、青成分のうちの最大平均値を有する色成分の平均値である。
 本開示の第7の態様に係る画像処理方法は、第5の態様に係る画像処理方法であって、前記複数の指標値は、前記複数の第2画素値のそれぞれについて、当該第2画素値に含まれる赤画素値、緑画素値、及び、青画素値に基づいて算出することで得られる。
 本開示の第8の態様に係る画像処理方法は、第5の態様に係る画像処理方法であって、前記複数の第2画素は、前記第1RGB画像を構成する複数の第3画素のうち、最大の色成分の画素値が第1閾値より小さく、かつ、最小の色成分の画素値が第2閾値以下であることを満たす画素である。
 このため、第1RGB画像において照射している光による反射の影響を強く受けている領域を除外して、第2画像処理を行うことができる。
 本開示の第9の態様に係る画像処理方法は、第1の態様から第4の態様のいずれか1つの態様に係る画像処理方法であって、さらに、前記第1RGB画像が撮影された口腔内位置を検出し、前記口腔内位置と、前記第2RGB画像とを対応付けて記憶する。
 このため、第2RGB画像または第4RGB画像に含まれる歯牙の口腔内位置を容易に特定することができる。
 本開示の第10の態様に係る画像処理装置は、青色光の波長域を含む光を歯牙に照射することで蛍光反応している前記歯牙及び歯垢を撮影することで得られた第1RGB画像を取得する取得部と、前記第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成する生成部と、を備え、前記第1画像処理は、処理対象のRGB画像のうちの前記歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 これによれば、第1画像処理を行うことで、蛍光反応している歯牙が撮影されている第1RGB画像のホワイトバランスを調整することができる。このため、歯牙において歯垢が付着している領域である歯垢領域を区別しやすい第2RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。これにより、例えば、歯磨き後の歯牙の画像を撮影し、歯垢領域を特定することで、磨き残しの領域をユーザに提示することができる。
 本開示の第11の態様に係る画像処理装置は、第10の態様に係る画像処理装置であって、前記第1画像処理は、処理対象のRGB画像のうちの天然歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 本開示の第12の態様に係るプログラムは、第1の態様から第9の態様のいずれか1つの態様に係る画像処理方法をコンピュータに実行させるためのプログラムである。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者らは、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するものであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態)
 図1Aは、本実施の形態に係る口腔内カメラシステムにおける口腔内カメラの斜視図である。図1Aに示すように、口腔内カメラ10は、片手で取り扱うことが可能な歯ブラシ状の筺体を備え、その筺体は、歯列撮影時にユーザの口腔内に配置されるヘッド部10aと、ユーザが把持するハンドル部10bと、ヘッド部10aとハンドル部10bとを接続するネック部10cとを含んでいる。
 撮影光学系12は、ヘッド部10aとネック部10cとに組み込まれている。撮影光学系12は、その光軸LA上に配置された撮像素子14とレンズとを含んでいる。
 図1Bに示すように、本実施の形態の場合、口腔内カメラ10の撮影光学系12は、ヘッド部10aとネック部10cとに組み込まれている。撮影光学系12は、その光軸LA上に配置された撮像素子14とレンズ16とを含んでいる。
 撮像素子14は、例えばC-MOSセンサまたはCCD素子などの撮影デバイスであって、レンズ16によって歯牙Dの像が結像される。その結像した像に対応する信号(画像データ)を、撮像素子14は外部に出力する。
 レンズ16は、例えば集光レンズであって、入射した歯牙Dの像を撮像素子14に結像する。なお、レンズ16は、1つのレンズであってもよいし、複数のレンズから構成されるレンズ群であってもよい。
 本実施の形態1の場合、撮影光学系12はさらに、歯牙Dの像をレンズ16に向かって反射するミラー18と、ミラー18とレンズ16との間に配置された青色光カットフィルタ(青色遮断要素)20と、レンズ16と撮像素子14との間に配置された絞り24とを含んでいる。
 ミラー18は、撮影光学系12の入射口12aを通過した歯牙Dの像をレンズ16に向かって反射するように、撮影光学系12の光軸LA上に配置されている。
 青色光カットフィルタ20は、撮像素子14に入射する光に含まれる青色波長の光成分をカットするフィルタである。青色光の波長域を含む光を歯牙に照射し、歯垢を検出する場合、歯垢の励起蛍光を強くするため青色光の波長域を含む光を強くすると第1RGB画像の全体が青色を帯びる。この状態は、青画素値が赤画素値及び緑画素値に比べて支配的になるため、後述する画像処理(露出制御処理及びホワイトバランス調整処理)を行うことで歯垢領域を区別しやすくできる効果が小さくなる場合がある。この対処として、青色光カットフィルタ20が撮像素子14に入射する前の光から青色光の波長域を含む光をカットする。
 絞り24は、撮影光学系12の光軸LA上に貫通穴を備える板状部材であって、深い焦点深度を実現する。これにより、口腔内の奥行方向についてピントを合わせることができ、輪郭が明瞭な歯列画像を得ることができる。
 また、口腔内カメラ10は、撮影時に撮影対象の歯牙Dに対して光を照射する照明デバイスとして、複数の第1~第4のLED26A~26Dを搭載している。第1~第4のLED26A~26Dは、例えば青色LEDである。また、図1Aに示すように、本実施の形態1の場合、第1~第4のLED26A~26Dが、入射口12aを囲むように配置されている。なお、歯茎Gなどが第1~第4のLED26A~26Dに当接して照明光が不足しないように、第1~第4のLED26A~26Dと入射口12aとを覆う透光性のカバー28がヘッド部10aに設けられている。なお、第1~第4のLED26A~26Dの一部を白色LEDとしてもよい。第1~第4のLED26A~26Dの一部を白色LEDとすることで、第1RGB画像を明るくすることができ、青画素値の赤画素値及び緑画素値に対するバランスを改善することができる。
 さらに、本実施の形態の場合、口腔内カメラ10は、図1Bに示すように、構図調節機構30と焦点調節機構32とを有する。
 構図調節機構30は、撮像素子14とレンズ16とを保持する筺体34と、筺体34を光軸LAの延在方向に移動させるアクチュエータ36とから構成される。アクチュエータ36が筺体34の位置を調節することにより、画角が調節される、すなわち撮像素子14に結像する歯列の大きさが調節される。なお、構図調節機構30は、例えば1つの歯牙全体が撮影画像に写るように筺体34の位置を自動的に調節する。また、構図調節機構30は、ユーザの操作に基づいて、ユーザが所望する画角になるように筺体34の位置を調節する。
 焦点調節機構32は、構図調節機構30の筺体34内に保持され、レンズ16を保持するレンズホルダ38と、レンズホルダ38を光軸LAの延在方向に移動させるアクチュエータ40とから構成される。アクチュエータ40が撮像素子14に対するレンズホルダ38の相対位置を調節することにより、焦点が調節される、すなわちピントが調節される。なお、焦点調節機構32は、例えば撮影画像の中央に位置する歯牙にピントが合うようにレンズホルダ38の位置を自動的に調節する。また、焦点調節機構32は、ユーザの操作に基づいて、レンズホルダ38の位置を調節する。
 なお、ミラー18を除く撮影光学系12の構成要素は、口腔内カメラ10のハンドル部10bcに設けられてもよい。
 撮像素子14は、例えばC-MOSセンサまたはCCD素子などの撮影デバイスであって、レンズによって歯牙の像が結像される。その結像した像に対応する信号(画像データ)を、撮像素子14は外部に出力する。撮像素子14により出力される画像は、当該画像を構成する複数の画素のそれぞれがRGBのサブ画素を有するRGB画像である。
 また、口腔内カメラ10は、撮影時に撮影対象の歯牙に対して光を照射する照明デバイスとして、複数の第1~第4のLED26A~26Dを搭載している。第1~第4のLED26A~26Dは、例えば、405nmをピークとする波長を有する青色光を照射する青色LEDである。なお、第1~第4のLED26A~26Dは、青色光の波長域を含む光を照射する光源であればよく、青色LEDに限るものではない。
 図2は、本実施の形態に係る口腔内カメラシステムの概略的構成図である。図2に示すように、本実施の形態に係る口腔内カメラシステムは、概略的には、口腔内カメラ10を用いて歯列を撮影し、その撮影画像に対して画像処理を実行するように構成されている。
 図2に示すように、口腔内カメラシステムは、口腔内カメラ10と、携帯端末70と、クラウドサーバ80とを含んでいる。携帯端末70は、例えば、無線通信可能なスマートフォン又はタブレット端末等である。携帯端末70は、入力デバイス及び出力デバイスとして、例えば歯列画像を表示可能なタッチスクリーン72を備える。携帯端末70は、口腔内カメラシステムのユーザインタフェースとして機能する。
 クラウドサーバ80は、携帯端末70に対してインターネットなどを介して通信可能なサーバであって、携帯端末70に口腔内カメラ10を使用するためのアプリケーションを提供する。例えば、ユーザがアプリケーションをクラウドサーバ80からダウンロードして携帯端末70にインストールする。また、クラウドサーバ80は、口腔内カメラ10によって撮影された歯列画像を、携帯端末70を介して取得する。
 口腔内カメラシステムは、システムの制御を行う主要部分として中央制御部50と、複数のLED26A~26Dを制御するLED制御部54と、構図調節機構のアクチュエータ36と焦点調節機構のアクチュエータ40を制御するレンズドライバ56と、位置センサ90とを含んでいる。
 また、口腔内カメラシステムは、携帯端末70と無線通信を行う無線通信モジュール58と、中央制御部50などに電力供給を行う電源制御部60とを有する。
 口腔内カメラシステムの中央制御部50は、例えば、口腔内カメラ10のハンドル部10bに搭載されている。例えば、また、中央制御部50は、後述する様々な処理を実行するCPUやMPUなどのコントローラ62と、コントローラ62に様々な処理を実行させるためのプログラムを記憶するRAMやROMなどのメモリ64とを含んでいる。なお、メモリ64には、プログラム以外に、撮像素子14によって撮影された歯列画像(画像データ)や種々の設定データなどが記憶される。撮像素子14によって撮影された歯列画像は、第1RGB画像の一例である。
 コントローラ62は、撮像素子14から出力された歯列画像を、無線通信モジュール58を介して携帯端末70に送信する。携帯端末70は、その送信された歯列画像をタッチスクリーン72に表示し、それによりユーザに歯列画像を提示する。
 LED制御部54は、例えば、口腔内カメラ10のハンドル部10bに搭載され、コントローラ62からの制御信号に基づいて、第1~第4のLED26A~26Dの点灯および消灯を実行する。LED制御部54は、例えば回路で構成される。例えば、ユーザが携帯端末70のタッチスクリーン72に対して口腔内カメラ10を起動させる操作を実行すると、携帯端末70から対応する信号が無線通信モジュール58を介してコントローラ62に送信される。コントローラ62は、受信した信号に基づいて、第1~第4のLED26A~26Dを点灯させるようにLED制御部54に制御信号を送信する。
 レンズドライバ56は、例えば、口腔内カメラ10のハンドル部10bに搭載され、中央制御部50のコントローラ62からの制御信号に基づいて、構図調節機構のアクチュエータ36と焦点調節機構のアクチュエータ40を制御する。レンズドライバ56は、例えば回路で構成される。例えば、ユーザが携帯端末70のタッチスクリーン72に対して構図調節やピント調節に関する操作を実行すると、携帯端末70から対応する信号が無線通信モジュール58を介して中央制御部50に送信される。中央制御部50のコントローラ62は、受信した信号に基づいて、構図調節やピント調節を実行するようにレンズドライバ56に制御信号を送信する。また例えば、コントローラ62が撮像素子14からの歯列画像に基づいて構図調節やピント調節に必要なアクチュエータ36、40の制御量を演算し、その演算された制御量に対応する制御信号がレンズドライバ56に送信される。
 無線通信モジュール58は、例えば、口腔内カメラ10のハンドル部10bに搭載され、コントローラ62からの制御信号に基づいて、携帯端末70と無線通信を行う。無線通信モジュール58は、例えばWiFi(登録商標)やBluetooth(登録商標)などの既存の通信規格に準拠した無線通信を携帯端末70との間で実行する。無線通信モジュール58を介して、口腔内カメラ10から歯牙Dが写る歯列画像が携帯端末70に送信されたり、携帯端末70から口腔内カメラ10に操作信号が送信される。
 電源制御部60は、本実施の形態の場合、口腔内カメラ10のハンドル部10bに搭載され、中央制御部50、LED制御部54、レンズドライバ56、および無線通信モジュール58に、電池66の電力を分配する。電源制御部60は、例えば回路で構成される。なお、本実施の形態の場合、電池66は、充電可能な二次電池であって、口腔内カメラ10に搭載されたコイル68を介して、商用電源に接続された外部の充電器69によってワイヤレス充電される。
 位置センサ90は、口腔内カメラ10の姿勢及び位置を検出するためのセンサであり、例えば、多軸(ここではx,y,zの三軸)の加速度センサである。例えば、位置センサ90は、三軸の加速度センサと三軸のジャイロセンサとを有する六軸センサであってもよい。例えば、図1に示すように、z軸は光軸LAに一致する。y軸は、撮像面と平行であり、かつ口腔内カメラ10の長手方向に延びる。また、x軸は、撮像面と平行であり、y軸と直交する。位置センサ90の各軸の出力は、中央制御部50及び無線通信モジュール58を介して、携帯端末70に送信されてもよい。
 位置センサ90としては、ピエゾ抵抗タイプ、静電容量タイプ、もしくは熱検知タイプのMEMSセンサが用いられてもよい。また特に図示しないが、各軸のセンサの感度のバランス、感度の温度特性、温度ドリフトなどを補正するための補正回路を設けるとよい。また、動加速度成分やノイズを除去するためのバンドパスフィルタ(ローパスフィルタ)を設けてもよい。また、加速度センサの出力波形を平滑化することによりノイズを低減してもよい。
 次に、口腔内カメラシステムにおける口腔内撮影動作について説明する。図3は、口腔内カメラシステムにおける口腔内撮影動作の流れを示す図である。なお、図3に示す処理は、例えば、リアルタイムに行われる処理であり、1フレーム又は複数フレームの画像データが得られる毎に行われる。
 ユーザが口腔内カメラ10を用いて、自身の口腔内の歯牙及び歯茎を撮影することで画像データが生成される(S101)。次に、口腔内カメラ10は、撮影された画像データを携帯端末70に送信する(S102)。なお、ここで、画像データは、動画であってもよいし、1又は複数の静止画であってもよい。また、画像データが動画又は複数の静止画である場合には、動画のフレーム毎、又は静止画毎に、センサデータが送信されてもよい。なお、画像データが動画である場合において複数フレーム毎にセンサデータが送信されてもよい。
 また、画像データの送信は、リアルタイムで行われてもよいし、一連の撮影(例えば口腔内の全ての歯牙の撮影)が行われた後にまとめて送信されてもよい。
 携帯端末70は、受信した画像データ(第1RGB画像)に対して画像処理し(S103)、画像処理後の画像データを表示する(S104)。
 このような、口腔内カメラシステムを用いることで、ユーザは、口腔内カメラ10でユーザ自身の口腔内の画像を撮影し、携帯端末70に表示された口腔内の状態を確認できる。これにより、ユーザは自身の歯牙の健康状態の確認などを容易に行うことができる。
 また、携帯端末70は、例えば、撮影された複数の画像データから、口腔内の複数の歯牙の三次元モデルを生成してもよい。また、携帯端末70は、生成された三次元モデルに基づく画像を表示してもよい。
 なお、ここでは、携帯端末70が歯牙の画像の画像処理を行う例を述べるが、この処理の一部又は全てを口腔内カメラ10が行ってもよい。携帯端末70は、画像処理装置の一例である。
 図4は、携帯端末70の機能ブロック図である。携帯端末70は、取得部101と、生成部102と、表示部103とを備える。
 取得部101は、口腔内カメラ10から送信された画像データ(第1RGB画像)を取得する。取得部101は、口腔内カメラ10から、画像データの他にセンサデータを取得してもよい。第1RGB画像は、口腔内カメラ10が青色光の波長域を含む光を歯牙に照射することで蛍光反応している歯牙を撮影することで得られた画像である。
 生成部102は、第1RGB画像に対して、露出制御処理(第2画像処理)を行うことで第3RGB画像を生成し、第3RGB画像に対してホワイトバランス調整処理(第1画像処理)を行うことで第2RGB画像を生成してもよい。
 (露出制御処理)
 露出制御処理では、生成部102は、まず、第1RGB画像を構成する複数の第1RGB画素(第3画素)のうちで、RGBの値が下記の式1及び式2を満たす複数の画素を抽出する。
 min(R,G,B)≦Ths、and、max(R,G,B)<Thmax                            (式1)
 Gmax - G ≦ Thb               (式2)
 min(R,G,B)は、第1RGB画素が有するRGBそれぞれの3つのサブピクセルの画素値(つまり、赤画素値、緑画素値、及び、青画素値)のうちの最小値を示す。
 Thsは、第1RGB画像において照射している光による反射の影響を強く受けている領域(例えば、光沢領域)を除外するための閾値である。Thsは、例えば、10bit表現において900である。
 max(R,G,B)は、第1RGB画素が有するRGBの3つのサブピクセルの画素値(つまり、赤画素値、緑画素値、及び、青画素値)のうちの最大値を示す。
 Thmaxは、画素値が取り得る最大値を示す。Thmaxは、例えば、10bit表現において1023で表される。Thmaxは、第1閾値の一例である。
 Gmaxは、第1RGB画像中の複数の緑画素値の最大値である。つまり、第1RGB画像を構成する複数の第1RGB画素の緑画素のうち、最大の画素値を有する緑画素の画素値である。Thbは、第1RGB画素中から第2画素の緑画素を抽出するための閾値である。Thbの値を大きくすると画像が明るくなり過ぎるため、例えば、10bit表現において10以下の値に設定される。
 式1により、光沢領域が除外され、式2により、第1RGB画像中の歯牙の領域が抽出される。つまり、式1及び式2により抽出される複数の画素は、歯牙の領域を構成する複数の第2画素である。このように、複数の第2画素は、第1RGB画像を構成する複数の第1RGB画素(第3画素)のうち、最大の色成分の画素値max(R,G,B)が第1閾値(Thmax)より小さく、かつ、最小の色成分の画素値min(R,G,B)が第2閾値(Ths)以下であることを満たす画素である。
 生成部102は、複数の第2画素の緑画素の平均値を算出し、算出した緑画素の平均値に応じて、RGBの3つのサブピクセルの画素値に乗ずるゲインを決定する。生成部102は、例えば、下記の式3を用いて、RGBの3つのサブピクセルの画素値に乗ずるゲインを決定する。ゲインは、目標画素値を緑画素の平均値で除算することで得られる。生成部102は、第1RGB画像を構成する複数の第1RGB画素のそれぞれに決定したゲインを乗じることで、第3RGB画像を生成する。より具体的には、生成部102は、複数の第1RGB画素のそれぞれについて、当該第1RGB画素が有する3つのサブピクセルの画素値に、決定したゲインを乗じることで、第3RGB画像を生成する。言い換えると、第3RGB画像を構成する複数の第3RGB画素の画素値は、第1RGB画像を構成する複数の第1RGB画素の画素値に、決定したゲインを乗じて算出された画素値である。なお、生成部102は、ゲインを乗じることで画素値が最大値(10bit表現の場合は1023)を超える場合、当該画素値を1023に置き換える。
 上記説明では、式2で第1RGB画素中から抽出した複数の第2画素の緑画素の平均値を算出し、算出した緑画素の平均値に応じて、RGBの3つのサブピクセルの画素値に乗ずるゲインを決定したが、これに限定されない。第1RGB画素中から抽出した複数の第2画素の赤画素の平均値を算出し、算出した赤画素の平均値に応じて、RGBの3つのサブピクセルの画素値に乗ずるゲインを決定してもよい。同様に、第1RGB画素中から抽出した複数の第2画素の青画素の平均値を算出し、算出した青画素の平均値に応じて、RGBの3つのサブピクセルの画素値に乗ずるゲインを決定してもよい。
 以上のように、露出制御処理は、処理対象のRGB画像(ここでは、第1RGB画像)に含まれる複数の第2画素(歯牙の領域に対応する画素)がそれぞれ有する複数の第2画素値から算出した複数の指標値の平均値が所定値になるように複数の第2画素値に対するゲインを決定し、決定したゲインを第1RGB画像が備える複数の第1RGB画素が有する複数の第1RGB画素値に適用することで、第3RGB画像を生成する処理である。なお、指標値は、1つの画素を構成するRGBの3つのサブピクセルの画素値から算出された値であってもよいし、3つのサブピクセルのいずれか1つの画素値であってもよい。ここで、複数の指標値の平均値は、第1RGB画像の赤成分、緑成分、及び、青成分のうちの最大画素値を有する色成分の平均値である。また、最大平均値を有する色成分は、第1RGB画像を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、複数の第1画素が有する複数の青画素値の第1青画素平均値との3つの平均値のうちで最大の平均値を有する色成分である。なお、最大平均値を有する色成分は、第1赤画素平均値と、第1緑画素平均値と、第1青画素平均値とを算出して比較しなくてもよく、緑成分に固定で決定されていてもよい。
 なお、生成部102は、ゲインの決定において、複数の第2画素の緑画素の平均値を算出し、算出した緑画素の平均値に応じてゲインを決定するとしたが、これに限らない。生成部102は、複数の第2画素の輝度値の平均値を複数の指標値の平均値として算出し、算出した輝度値の平均値に応じてゲインを決定してもよい。このように、指標値は、1つの画素を構成するRGBの3つのサブピクセルのいずれか1つの画素値であってもよいし、当該3つのサブピクセルの画素値から算出された値であってもよい。具体的には、生成部102は、複数の第2画素のそれぞれについて、当該第2画素が有する3つのサブピクセルのサブ画素値を用いて当該第2画素の輝度値を算出する。例えば、生成部102は、下記の式3を用いて輝度値を算出する。
 Y=0.21*R+0.72*G+0.07*B     (式3)
 式3においてYは輝度値であり、Rは赤画素値であり、Gは緑画素値であり、Bは青画素値である。
 このように、複数の輝度値は、複数の画素値のそれぞれについて、当該画素値に含まれる赤画素値、緑画素値、及び、青画素値に基づいて算出することで得られてもよい。
 (ホワイトバランス調整処理)
 ホワイトバランス調整処理では、生成部102は、処理対象の第3RGB画像を構成する複数の第3RGB画素の内で、RGBの値が式1及び下記の式4を満たす複数の画素を抽出する。
 Thl≦Y≦Thu                   (式4)
 式4においてThlは歯牙の領域の下限値を示す閾値であり、Thuは歯牙の領域の上限値を示す閾値である。
 式4により、第3RGB画像中の歯牙の領域が抽出される。つまり、式1及び式4により抽出される複数の画素は、歯牙の領域を構成する複数の第2画素である。
 そして、生成部102は、式1及び式4を満たす歯牙の領域における複数の赤画素値の平均値である第1赤画素平均値Raveと、当該歯牙の領域における複数の緑画素値の平均値である第1緑画素平均値Gaveと、当該歯牙の領域における複数の青画素値の平均値である第1青画素平均値Baveとを算出する。そして、生成部102は、第1赤画素平均値Raveと、第1緑画素平均値Gaveと、第1青画素平均値Baveとが等しくなるように、処理対象のRGB画像の赤成分、緑成分、及び、青成分の少なくとも2つの色成分のゲインを調整する。
 具体的には、生成部102は、複数の赤画素値のゲイン(赤画素用ゲイン)を、第1緑画素平均値Gaveを第1赤画素平均値Raveで除すことで算出する。また、生成部102は、複数の青画素値のゲイン(青画素用ゲイン)を、第1緑画素平均値Gaveを第1青画素平均値Baveで除すことで算出する。そして、生成部102は、第3RGB画像を構成する複数の第3RGB画素のそれぞれの赤画素に赤画素用ゲインを乗じ、かつ、複数の第3RGB画素のそれぞれの青画素に青画素用ゲインを乗じることで、第2RGB画像を生成する。言い換えると、第2RGB画像を構成する複数の第2RGB画素の画素値は、第3RGB画像を構成する複数の第3RGB画素の赤画素値に赤画素用ゲインを乗じ、かつ、複数の第3RGB画素の青画素値に青画素用ゲインを乗じて算出された画素値である。なお、生成部102は、緑画素平均値を基準として、赤画素用ゲイン及び青画素用ゲインを算出し各ゲインを対応する色成分の画素値に乗算することでホワイトバランス調整を行うとしたがこれに限らずに、赤画素平均値を基準として、緑画素用ゲイン及び青画素用ゲインを算出してもよいし、青画素平均値を基準として、赤画素用ゲイン及び緑画素用ゲインを算出してもよい。
 なお、生成部102は、ゲインを乗じることで画素値が最大値(10bit表現の場合は1023)を超える場合、当該画素値を1023に置き換える。
 また、生成部102は、以下のような第3画像処理を第2RGB画像に対して行うことで、第2RGB画像における歯牙の領域内の歯垢領域を強調してもよい。具体的には、生成部102は、第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成する。そして、生成部102は、HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲(例えば、8bit表現で30以上80以下)内、色相が第2の所定範囲(例えば、8bit表現で140以上170以下)内、及び、明度が第3の所定範囲(例えば、8bit表現で100以上180以下)内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を歯垢領域として特定する。なお、第1の所定範囲、第2の所定範囲及び第3の所定範囲は、実際の歯垢領域と歯牙の領域とHSV画像とを比較することで特定されればよく、上記の数値範囲に限るものではない。生成部102は、第2RGB画像における歯垢領域に対して彩度強調処理を行うことで第4RGB画像を生成する。なお、生成部102は、彩度強調処理を行う代わりに、歯垢領域を所定パターンに置き換えることで第4RGB画像を生成してもよい。所定パターンは、例えば、一定の画素値を有するグラフィックスであってもよいし、特定の模様を含むグラフィックスであってもよい。
 表示部103は、携帯端末70が備える表示デバイスであり、生成部102により画像処理が行われた後の画像を表示する。表示部103は、第2RGB画像を表示してもよいし、第4RGB画像を表示してもよい。
 (各種照射光での第1RGB画像から検出した歯垢領域と歯牙領域の色差データ比較)
 (1)口腔内を青色光(ピーク波長は405nm)のみで照射した場合
 図5は、ユーザが口腔内カメラ10を垂直に把持した状態で上顎の前歯を頬側(唇側)から撮影している状態を示す図である。図6Aは口腔内を青色光(ピーク波長は405nm)で照射し、図5に示した状態で撮影した前歯の第1RGB画像の一例を示す図である。
 また、図6Bは図6Aで検出した歯垢領域201と歯牙の領域の色差データの一例を示す図である。なお、後述の青色光カットフィルタにより青色光の波長域を含む光をカットして撮影した前歯の第1RGB画像から検出した歯垢領域201ならびに歯牙領域の色差データと比較するため、図6Bは図1Bに示した青色光カットフィルタ20がない状態で撮影した第1RGB画像から検出した歯垢領域201と歯牙の領域の色差データを示している。参考として、図6Bにおいて歯垢領域の色相の色差平均座標は(0.16、0.06)、歯牙領域の色相の色差平均座標は(0.25、-0.02)であった。なお、これらの色相の色差平均座標は参考値であり、青色光の強度やカメラの感度の影響で変わり得る値である。
 定量的可視光誘起蛍光法(QLF法)でも知られているように、青色光が照射されると歯垢内のバクテリアが赤みを帯びたピンク色に蛍光することが知られている。また、青色光の波長域を含む光を歯牙に照射すると、象牙質から励起蛍光が発せられ、エナメル層を透過して緑色に発光することが知られている。一方で、唇や歯茎は青みを帯びるので、歯牙や歯垢は唇や歯茎と識別が容易である。
 (2)青色光カットフィルタで青色光の波長域を含む光をカットした場合
 ノイズを低減する方法として、青色光カットフィルタが有効である。図1Bに示したように、歯牙から反射して撮像素子14に入射する前の光から青色光カットフィルタ20により青色光の波長域を含む光をカットすることができる。
 図6Cは、青色光カットフィルタ20により青色光の波長域を含む光をカットして撮影した前歯の第1RGB画像から検出した歯垢領域201と歯牙の領域の色差データの一例を示す図である。参考として、図6Cにおいて歯垢領域の色相の色差平均座標は(0.058、0.068)、歯牙領域の色相の色差平均座標は(0.050、-0.004)であった。なお、これらの色相の色差平均座標は参考値であり、青色光の強度やカメラの感度の影響で変わり得る値である。
 図6Bと図6Cを比較すると、青色光カットフィルタにより青色光の波長域を含む光をカットすることで、青色の彩度が低く(色が薄く)なる。歯垢領域は赤みを帯びたピンク色に蛍光するので、歯垢領域の明度を維持した状態で、歯牙領域の明度を抑えることができる。これにより、青画素値を低減させ、赤画素値、緑画素値との差を小さくすることで、赤画素値、緑画素値に乗算されるホワイトバランスゲインを小さくでき、ノイズを抑制する効果が得られる。
 (3)口腔内を青色光(ピーク波長は405nm)と白色光で照射した場合
 白色光を加えることで、第1RGB画像における歯牙領域の赤画素値、緑画素値の値を大きくし、青色光のみで口腔内を照射した場合よりも露出補正ゲインを小さく抑えることができる。ただし、白色光の強度を上げていくと、歯垢領域の色相と歯茎や唇の色相との差が小さくなっていくため、歯茎や唇を歯垢と判断する誤検出を招きやすくなる。そのため、青色光の波長域を含む光の強度と白色光の強度の比率は、誤検出を避けるため、予め最適化しておく必要がある。
 なお、口腔内を青色光と白色光で照射するには、図1において第1~第4のLED26A~26Dの一部を白色LEDとすればよい。
 図6Dは、口腔内を青色光(ピーク波長は405nm)と白色光で照射して撮影した前歯の第1RGB画像から検出した歯垢領域201と歯牙の領域の色差データの一例を示す図である。前述した青色光カットフィルタにより青色光の波長域を含む光をカットして撮影した前歯の第1RGB画像から検出した歯垢領域201ならびに歯牙領域の色差データ(図6C)と比較するため、図6Dは図1Bに示した青色光カットフィルタ20がない状態で撮影した第1RGB画像から検出した歯垢領域201と歯牙の領域の色差データを示している。参考として、図6Dにおいて歯垢領域の色相の色差平均座標は(0.089、0.041)、歯牙領域の色相の色差平均座標は(0.15、-0.013)であった。なお、これらの色相の色差平均座標は参考値であり、青色光、白色光の強度やカメラの感度の影響で変わり得る値である。
 図6Bと図6Dを比較すると、口腔内に青色光に加えて白色光を照射することで、歯垢領域の明度を維持した状態で、青みを帯びた歯牙領域の明度を抑える効果が確認できる。これにより、青画素値を低減させ、赤画素値、緑画素値との差を小さくすることで、赤画素値、緑画素値に乗算されるホワイトバランスゲインを小さくでき、ノイズを小さくする効果が得られる。
 (ホワイトバランス処理)
 携帯端末70は、画像処理(露出制御処理及びホワイトバランス調整処理)を行うことで図7Aに示されるように歯垢領域211を区別しやすい第2RGB画像210を生成することができる。画像処理により、実質的に歯牙の領域が無色化されることで、歯垢領域211が区別しやすくなる。
 図7Bは、青色光カットフィルタがない状態で、青色光の波長域を含む光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。歯牙領域は実質的に白色と見なしている。参考として、図7Bにおいて歯垢領域の色相の色差平均座標は(0.033、0.071)であった。なお、これらの色相の色差平均座標は参考値であり、青色光の強度やカメラの感度の影響で変わり得る値である。
 同様に、図7Cは、青色光カットフィルタを用いて、青色光の波長域を含む光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。歯牙領域は実質的に白色と見なしている。参考として、図6Cにおいて歯垢領域の色相の色差平均座標は(0.033、0.071)であった。なお、これらの色相の色差平均座標は参考値であり、青色光の強度やカメラの感度の影響で変わり得る値である。
 同様に、図7Dは、青色光カットフィルタがない状態で、青色光の波長域を含む光と白色光を歯牙に照射したとき、露出制御処理及びホワイトバランス調整処理を行った後の、歯垢領域と歯牙の領域の色差データの一例を示す図である。歯牙領域は実質的に白色と見なしている。参考として、図6Dにおいて歯垢領域の色相の色差平均座標は(0.014、0.048)であった。なお、これらの色相の色差平均座標は参考値であり、青色光、白色光の強度やカメラの感度の影響で変わり得る値である。
 図7B~図7Dより、口腔内を照射する光源の種類によらず、歯垢領域の色相をほぼ同じく、赤みを帯びたピンク色に表示することができる。
 (歯垢領域の強調表示)
 図8は、図5に示した状態で撮影した前歯の第4RGB画像の一例を示す図である。図9は、図5に示した状態で撮影した前歯の第4RGB画像の他の一例を示す図である。
 携帯端末70は、図6Aに示されるように第1RGB画像200を口腔内カメラ10から取得する。
 また、携帯端末70は、さらに、第2RGB画像210の歯垢領域211に対して彩度強調処理を行うことで図8に示されるように歯垢領域221を区別しやすい第4RGB画像220を生成することができる。
 一方で、携帯端末70は、さらに、第2RGB画像210の歯垢領域211を所定パターンに置き換えることで図9に示されるように歯垢領域231が所定パターンに置き換えられた第4RGB画像230を生成することができる。
 (画像処理フロー)
 図10は、携帯端末70における画像処理のフローチャートである。
 携帯端末70は、第1RGB画像を口腔内カメラ10から取得する(S111)。
 次に、携帯端末70は、第1RGB画像に対して露出制御処理を行うことで第3RGB画像を生成する(S112)。
 次に、携帯端末70は、第3RGB画像に対してホワイトバランス調整処理を行うことで第2RGB画像を生成する(S113)。
 次に、携帯端末70は、第2RGB画像における歯垢領域を特定する(S114)。
 次に、携帯端末70は、第2RGB画像の歯垢領域に対して彩度強調処理を行うか、歯垢領域を所定パターンに置き換えることで第4RGB画像を生成する(S115)。
 以上のように、本実施の形態に係る画像処理装置(例えば、携帯端末70)は、取得部101と、生成部102とを備える。取得部101は、青色光の波長域を含む光を歯牙に照射することで蛍光反応している歯牙を撮影することで得られた第1RGB画像を取得する。生成部102は、第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成する。第1画像処理は、処理対象のRGB画像のうちの歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、第1RGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である。
 これによれば、第1画像処理を行うことで、蛍光反応している歯牙が撮影されている第1RGB画像のホワイトバランスを調整することができる。このため、歯牙において歯垢が付着している領域である歯垢領域を区別しやすい第2RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。これにより、例えば、歯磨き後の歯牙の画像を撮影し、歯垢領域を特定することで、磨き残しの領域をユーザに提示することができる。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、さらに、第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、第2RGB画像における特定画素領域に対して彩度強調処理を行うことで第4RGB画像を生成する。
 これによれば、第2RGB画像において歯垢領域としての特定画素領域を特定し、特定画素領域に対して彩度強調処理を行うため、さらに、歯垢領域を区別しやすい第3RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、さらに、第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、第2RGB画像における特定画素領域を所定パターンで置き換えることで第4RGB画像を生成する。
 これによれば、第2RGB画像において歯垢領域としての特定画素領域を特定し、特定画素領域を所定パターンで置き換えるため、さらに、歯垢領域を区別しやすい第4RGB画像を生成することができる。よって、歯牙の画像における歯垢領域を容易に特定することができる。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、画像処理は、さらに、第2画像処理を含む。第2画像処理は、処理対象のRGB画像に含まれる複数の第2画素がそれぞれ有する複数の第2画素値から算出した複数の輝度値の平均値が所定値になるようにゲインを決定し、決定したゲインを処理対象のRGB画像に適用することで第3RGB画像を生成する処理である。第1画像処理は、第3RGB画像を処理対象とする処理である。
 これによれば、複数の第2画素の輝度値のゲインを調整することで露出制御処理を行うため、撮影条件にバラツキがあっても複数の輝度値の条件を一定にすることができる。つまり、第1画像処理を行う処理対象の第3RGB画像の輝度分布の条件を撮影条件によらず一定にすることができるため、より効果的に第1画像処理を行うことができる。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、複数の輝度値の平均値は、第1RGB画像の赤成分、緑成分、及び、青成分のうちの最大平均値を有する色成分の平均値である。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、複数の輝度値は、複数の画素値のそれぞれについて、当該画素値に含まれる赤画素値、緑画素値、及び、青画素値に基づいて算出することで得られる。
 また、本実施の形態に係る画像処理装置(例えば、携帯端末70)において、複数の第2画素は、第1RGB画像を構成する複数の第3画素のうち、最大の色成分の画素値が第1閾値より小さく、かつ、最小の色成分の画素値が第2閾値以下であることを満たす画素である。
 このため、第1RGB画像において照射している光による反射の影響を強く受けている領域を除外して、第2画像処理を行うことができる。
 以下、上述した実施の形態の変形例について説明する。
 (変形例1)
 上記実施の形態では、生成部102は、第1RGB画像に対して露出制御処理を行い、露出制御処理で生成された第3RGB画像に対してホワイトバランス調整処理を行うとしたが、これに限らずに、露出制御処理を行わなくてもよい。例えば、輝度分布にバラツキが生じることを低減された第1RGB画像が得られていれば、露出制御処理は行われなくてもよい。例えば、撮影条件が一定になるように照明制御を行うことで、得られる第1RGB画像の輝度分布のバラツキを低減してもよい。
 (変形例2)
 上記実施の形態では、口腔内カメラ10を用いてユーザが口腔内の撮影を行うときに、携帯端末70の表示部103に、撮影する口腔内位置を指定するガイダンスを表示してもよい。ガイダンスは、携帯端末70の図示しないスピーカから音声で出力してもよい。これにより、ユーザは、ガイダンスに従って、指定された口腔内位置で撮影が行われるように、口腔内カメラ10を指定された口腔内位置に移動させることができる。例えば、口腔内位置とは、前歯の位置、奥歯の位置などである。
 そして、携帯端末70は、ガイダンスで指示している口腔内位置と、当該口腔内位置が指示されている間に取得された第1RGB画像に対して行われた画像処理によって生成された第2RGB画像または第4RGB画像とを対応付けて記憶してもよい。
 このため、第2RGB画像または第4RGB画像に含まれる歯牙の口腔内位置を容易に特定することができる。
 (変形例3)
 上記実施の形態では、口腔内カメラ10は、携帯端末70に第1RGB画像を送信し、携帯端末70において第1RGB画像に対する画像処理が行われるとしたが、これに限らない。第1RGB画像は、クラウドサーバ80に送信され、クラウドサーバ80が上記画像処理を行い、画像処理結果の第2RGB画像または第4RGB画像を携帯端末70へ送信する構成であってもよい。この場合、第1RGB画像は、口腔内カメラ10から携帯端末70を経由せずにクラウドサーバ80へ送信されてもよいし、口腔内カメラ10から携帯端末70を経由してクラウドサーバ80へ送信されてもよい。
 (変形例4)
 上記実施の形態では、ホワイトバランス調整処理(第1画像処理)において、処理対象のRGB画像のうちの歯牙の領域を抽出し、歯牙の領域における第1赤画素平均値と、第1緑画素平均値と、第1青画素平均値とが等しくなるように、処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整するとしたがこれに限らない。ゲインを調整するための目標とする、各色の画素平均値は歯牙の領域における平均値に限らずに、天然歯牙の領域の平均値としてもよい。
 以下に、天然歯牙の領域を検出する処理について図11~図15を用いて説明する。図11は、天然歯牙の領域の検出処理の詳細を示すフローチャートである。
 図12は、RGB画像(第1RGB画像)の例を示す図である。図12に示すRGB画像は、天然歯牙241と、人工歯牙242と、歯肉243(歯茎)とが撮影された画像である。人工歯牙242は、例えば、金又は銀等の金属で構成される補綴物等である。天然歯牙241は、天然の歯牙であり、歯牙のうち人工歯牙242を除く部分である。
 まず、生成部102は、RGB画像(第1RGB画像)を用いて第1天然歯牙領域を検出する(S201)。具体的には、生成部102は、RGB画像において、緑画素値(G)が予め定められた第1閾値以上であるという第1条件と、緑画素値(G)、赤画素値(R)及び青画素値(B)のそれぞれの差が予め定められた第3閾値未満であるという第2条件との両方を満たす領域を、第1天然歯牙領域として検出する。
 ここで、天然歯牙に励起光(青色光)を照射した場合、象牙質から励起蛍光が発せられる。この励起蛍光は、エナメル質を透過する。これにより、天然歯牙は緑色に蛍光する。また、齲歯治療痕の詰め物は、青色光が照射されている状態では、白色光が照射されている状態とは異なり、カメラで撮影された画像において暗く(低輝度に)なる。一方で、エナメル質で覆われた天然の歯牙は画像において明るく(高輝度に)なる。よって、第1条件により、この緑色の蛍光を抽出することで天然歯牙の領域を判別するとともに人工歯牙の領域を除外することができる。
 上記のように、補綴物などの人工歯牙は、低輝度のため、RGB画像の人工歯牙の領域において、赤画素値、緑画素値、及び、青画素値が小さくなる。そのため、緑画素値にレベルを合わせるために赤画素値、青画素値に乗算するホワイトバランスゲインをAR、ABとすると、
 AR=G/R
 AB=G/B
となる。人工歯牙の領域では赤画素値、緑画素値、及び、青画素値が小さいので、データの値がばらついた場合のゲインのばらつきが大きくなり、高輝度部である天然歯牙の色相変動が大きくなる。すなわち、白色表示なるべき天然歯牙が、赤方向や青方向に変動する量が大きくなる。よって、人工歯牙の領域を除いた天然歯牙の領域を歯牙領域として抽出し、ホワイトバランス調整処理を行うことでより適切にホワイトバランスを調整することができる。
 また、第2条件は、具体的には、(1)赤画素値(R)と緑画素値(G)との差分の絶対値(abs(R-G))が閾値rg_th未満であり、かつ、(2)緑画素値(G)と青画素値(B)との差分の絶対値(abs(G-B))が閾値gb_th未満であり、かつ(3)青画素値(B)と赤画素値(R)との差分の絶対値(abs(B-R))が閾値gb_th未満であるという条件である。なお、閾値rg_th、閾値gb_th、閾値br_thは、同一の値であってもよいし、異なる値であってもよい。
 また、第1条件において、緑画素値(G)の代わりに輝度値(Y)が用いられもよい。輝度値(Y)は、上述した式3を用いて算出される。
 式3に示すように、輝度値は緑画素値の割合が大きいため、輝度値を用いても緑画素値を用いた場合と同様の検出を行うことができる。
 なお、ここでは、第1条件と第2条件との両方が用いられる場合を示したが、第1条件と第2条件とのいずれか一方のみが用いられてもよい。例えば、第1条件のみが用いられてもよい。
 図13は、検出される第1天然歯牙領域251の例を示す図である。なお、図13では、説明のため第1天然歯牙領域251に加え、歯牙等の形状を図示しているが、検出される情報には、歯牙等の形状は含まれなくもよい。この点については、図14及び図15も同様である。
 図13に示すように、天然歯牙241の領域及び歯肉243の領域を含む領域が第1天然歯牙領域251として検出される。つまり、第1天然歯牙領域251は、人工歯牙242の領域を含まない。
 なお、ここでは、第1天然歯牙領域251が歯肉243の領域の全てを含む例を示しているが、撮影状況に応じて、歯肉243の領域の一部のみが第1天然歯牙領域251に含まれる場合、又は、歯肉243の領域が第1天然歯牙領域251に含まれない場合も発生しうる。
 次に、生成部102は、RGB画像(第1RGB画像)の色空間をHSV空間に変換することでHSV画像を生成する(S202)。次に、生成部102は、HSV画像を用いて歯肉領域を検出する(S203)。具体的には、生成部102は、色相(H)が予め定められた範囲に含まれる領域を歯肉領域として検出する。
 図14は、検出された歯肉領域252の例を示す図である。図14に示すように、歯肉243の領域が歯肉領域252として検出される。なお、ここでは、歯茎の領域が検出される例を示すが、歯茎に加え、唇等も歯肉領域252として検出されてもよい。
 次に、生成部102は、第1天然歯牙領域251から歯肉領域252を除外した領域を第2天然歯牙領域253に決定する(S204)。図15は、第2天然歯牙領域253の例を示す図である。図15に示すように、第2天然歯牙領域253は、天然歯牙241の領域を含み、人工歯牙242及び歯肉243の領域を含まない。
 次に、生成部102は、第2天然歯牙領域253から小領域を除外することで第3天然歯牙領域を決定する(S205)。ここで、小領域とは、例えば、面積が予め定められた値より小さい領域である。これにより、天然歯牙の領域以外(例えば歯肉の領域)における反射光等に起因する高輝度の領域等が誤って天然歯牙領域と判定されることを抑制できる。
 次に、生成部102は、第3天然歯牙領域を拡張することで第4天然歯牙領域を決定する(S206)。具体的には、生成部102は、第3天然歯牙領域の境界を予め定められた量だけ外側に拡張した領域を第4天然歯牙領域に決定する。これにより、歯牙と歯茎の境界等を天然歯牙領域に加えることができ、歯垢領域が過剰に表示されなくなることを抑制できる。
 生成部102は、最終的に、第4天然歯牙領域を、ホワイトバランス調整処理に用いられる天然歯牙領域として検出する。
 (変形例5)
 上記実施の形態では、口腔内カメラ10で得られた画像データはRGB画像であるとしたが、シアン、マゼンタ、イエロー、及び、グリーンの4色によるCMYG補色系フィルタで得られるCMYG画像であってもよい。CMYG画像は、近似式を用いた演算によりRGB画像に変換され、携帯端末70は変換されたRGB画像に対して画像処理を行ってもよい。CMYG画像からRGB画像への変換は、口腔内カメラ10で行われてもよいし、携帯端末70で行われてもよいし、他の情報処理装置で行われてもよい。
 CMYGの各値からRGBの各値を演算する方法としては例えば下記のような演算式(式5~式9)を用いることができる。
 Mg≒R+B     (式5)
 Ye≒R+G     (式6)
 Cy≒G+B     (式7)
 (Mg+Ye-Cy)/2≒{(R+B)+(R+G)-(G+B)}/2=R   (式8)
 (Mg+Cy-Ye)/2≒{(R+B)+(G+B)-(R+G)}/2=B    (式9)
 ここで、Mgはマゼンタを示し、Yeはイエローを示し、Cyはシアンを示す。
 以上、本開示の実施の形態に係る口腔内カメラシステムについて説明したが、本開示は、この実施の形態に限定されるものではない。
 例えば、上記説明では、歯牙を撮影することを主目的とした口腔内カメラ10を用いる例を説明したが、口腔内カメラ10は、カメラを備える口腔内ケア機器であってもよい。例えば、口腔内カメラ10は、カメラを備える口腔内洗浄機等であってもよい。
 また、上記実施の形態に係る口腔内カメラシステムに含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、本開示は、口腔内カメラシステムにより実行される画像表示方法等として実現されてもよい。また、本開示は、口腔内カメラシステムに含まれる口腔内カメラ、携帯端末、又はクラウドサーバとして実現されてもよい。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 以上、一つまたは複数の態様に係る口腔内カメラシステム等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、口腔内カメラシステムに適用できる。
 10 口腔内カメラ
 10a ヘッド部
 10b ハンドル部
 10c ネック部
 12 撮影光学系
 12a 入射口
 14 撮像素子
 26A 第1のLED
 26B 第2のLED
 26C 第3のLED
 26D 第4のLED 
 36、40 アクチュエータ
 38 レンズホルダ
 50 中央制御部
 54 LED制御部
 56 レンズドライバ
 58 無線通信モジュール
 60 電源制御部
 62 コントローラ
 64 メモリ
 66 電池
 68 コイル
 69 充電器
 70 携帯端末
 72 タッチスクリーン
 80 クラウドサーバ
 90 位置センサ
101 取得部
102 生成部
103 表示部
200 第1RGB画像
201、211、221、231 歯垢領域
210 第2RGB画像
220、230 第4RGB画像
241 天然歯牙
242 人工歯牙
243 歯肉
251 第1天然歯牙領域
252 歯肉領域
253 第2天然歯牙領域

Claims (12)

  1.  青色光の波長域を含む光を歯牙に照射することで蛍光反応している前記歯牙及び歯垢を撮影することで得られた第1RGB画像を取得し、
     前記第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成し、
     前記第1画像処理は、処理対象のRGB画像のうちの前記歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である
     画像処理方法。
  2.  前記第1画像処理は、処理対象のRGB画像のうちの天然歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である
     請求項1記載の画像処理方法。
  3.  さらに、
     前記第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、前記HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、前記第2RGB画像における前記特定画素領域に対して彩度強調処理を行うことで第4RGB画像を生成する
     請求項1に記載の画像処理方法。
  4.  さらに、
     前記第2RGB画像の色空間をHSV空間に変換することでHSV画像を生成し、前記HSV画像が有する複数の第4画素のうち彩度が第1の所定範囲内、色相が第2の所定範囲内、及び、明度が第3の所定範囲内の少なくとも1つを満たす1以上の第4画素が位置する特定画素領域を特定し、前記第2RGB画像における前記特定画素領域を所定パターンで置き換えることで第4RGB画像を生成する
     請求項1に記載の画像処理方法。
  5.  前記画像処理は、さらに、第2画像処理を含み、
     前記第2画像処理は、処理対象のRGB画像に含まれる複数の第2画素がそれぞれ有する複数の第2画素値から算出した複数の指標値の平均値が所定値になるようにゲインを決定し、決定した前記ゲインを前記処理対象のRGB画像に適用することで第3RGB画像を生成する処理であり、
     前記第1画像処理は、前記第3RGB画像を処理対象とする処理である
     請求項1から4のいずれか1項に記載の画像処理方法。
  6.  前記複数の指標値の平均値は、前記第1RGB画像の赤成分、緑成分、及び、青成分のうちの最大平均値を有する色成分の平均値である
     請求項5に記載の画像処理方法。
  7.  前記複数の指標値は、前記複数の第2画素値のそれぞれについて、当該第2画素値に含まれる赤画素値、緑画素値、及び、青画素値に基づいて算出することで得られる
     請求項5に記載の画像処理方法。
  8.  前記複数の第2画素は、前記第1RGB画像を構成する複数の第3画素のうち、最大の色成分の画素値が第1閾値より小さく、かつ、最小の色成分の画素値が第2閾値以下であることを満たす画素である
     請求項5に記載の画像処理方法。
  9.  さらに、
     前記第1RGB画像が撮影された口腔内位置を検出し、
     前記口腔内位置と、前記第2RGB画像とを対応付けて記憶する
     請求項1から4のいずれか1項に記載の画像処理方法。
  10.  青色光の波長域を含む光を歯牙に照射することで蛍光反応している前記歯牙及び歯垢を撮影することで得られた第1RGB画像を取得する取得部と、
     前記第1RGB画像に対して第1画像処理を含む画像処理を行うことで第2RGB画像を生成する生成部と、を備え、
     前記第1画像処理は、処理対象のRGB画像のうちの前記歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である
     画像処理装置。
  11.  前記第1画像処理は、処理対象のRGB画像のうちの天然歯牙の領域を構成する複数の第1画素が有する複数の赤画素値の第1赤画素平均値と、前記複数の第1画素が有する複数の緑画素値の第1緑画素平均値と、前記複数の第1画素が有する複数の青画素値の第1青画素平均値とが等しくなるように、前記処理対象のRGB画像の赤成分、緑成分、及び、青成分のうちの少なくとも2つの色成分のゲインを調整する処理である
     請求項10記載の画像処理装置。
  12.  請求項1から4のいずれか1項に記載の画像処理方法をコンピュータに実行させるためのプログラム。
PCT/JP2023/040799 2022-11-17 2023-11-13 画像処理方法、画像処理装置、及び、プログラム WO2024106391A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022183836 2022-11-17
JP2022-183836 2022-11-17

Publications (1)

Publication Number Publication Date
WO2024106391A1 true WO2024106391A1 (ja) 2024-05-23

Family

ID=91084376

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/040799 WO2024106391A1 (ja) 2022-11-17 2023-11-13 画像処理方法、画像処理装置、及び、プログラム

Country Status (1)

Country Link
WO (1) WO2024106391A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162715A (ja) * 2001-11-22 2003-06-06 Sharp Corp 画像処理装置、画像処理方法および画像処理プログラムを記録した記録媒体、並びに画像入力装置および画像出力装置
JP2005064853A (ja) * 2003-08-12 2005-03-10 Minolta Co Ltd 撮像装置、プログラム、および色バランス補正方法
JP2009100252A (ja) * 2007-10-17 2009-05-07 Mitsubishi Electric Corp 撮像装置
JP2014133029A (ja) * 2013-01-11 2014-07-24 Panasonic Corp 歯垢検知システム及び歯垢検知方法
US20200022582A1 (en) * 2018-07-23 2020-01-23 Quanta Computer Inc. Image-processing methods for marking plaque fluorescent reaction area and systems therefor
WO2021060158A1 (ja) * 2019-09-24 2021-04-01 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2022523597A (ja) * 2019-03-11 2022-04-25 3シェイプ アー/エス デジタル3次元歯科モデルを生成するシステムおよび方法
WO2022113995A1 (ja) * 2020-11-27 2022-06-02 パナソニックIpマネジメント株式会社 歯列画像撮影システムおよび歯列画像撮影方法
WO2022187654A1 (en) * 2021-03-05 2022-09-09 Greenmark Biomedical Inc. Dental imaging system and image analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162715A (ja) * 2001-11-22 2003-06-06 Sharp Corp 画像処理装置、画像処理方法および画像処理プログラムを記録した記録媒体、並びに画像入力装置および画像出力装置
JP2005064853A (ja) * 2003-08-12 2005-03-10 Minolta Co Ltd 撮像装置、プログラム、および色バランス補正方法
JP2009100252A (ja) * 2007-10-17 2009-05-07 Mitsubishi Electric Corp 撮像装置
JP2014133029A (ja) * 2013-01-11 2014-07-24 Panasonic Corp 歯垢検知システム及び歯垢検知方法
US20200022582A1 (en) * 2018-07-23 2020-01-23 Quanta Computer Inc. Image-processing methods for marking plaque fluorescent reaction area and systems therefor
JP2022523597A (ja) * 2019-03-11 2022-04-25 3シェイプ アー/エス デジタル3次元歯科モデルを生成するシステムおよび方法
WO2021060158A1 (ja) * 2019-09-24 2021-04-01 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022113995A1 (ja) * 2020-11-27 2022-06-02 パナソニックIpマネジメント株式会社 歯列画像撮影システムおよび歯列画像撮影方法
WO2022187654A1 (en) * 2021-03-05 2022-09-09 Greenmark Biomedical Inc. Dental imaging system and image analysis

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASAFUMI INUIYA: "Fundamentals of Digital Photography 3 Signal Processing Technology for Digital Still Camera (I)", JOURNAL OF THE SOCIETY OF PHOTOGRAPHIC SCIENCE AND TECHNOLOGY OF JAPAN, vol. 72, no. 5, 1 January 2009 (2009-01-01), pages 360 - 365, XP093169587 *

Similar Documents

Publication Publication Date Title
JP6905540B2 (ja) 統合されたカメラを有する歯科ミラーおよびそのアプリケーション
JP4527166B2 (ja) 双方向歯科治療ネットワーク
JP5968944B2 (ja) 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
US8050519B2 (en) Image combining apparatus
JP2007047045A (ja) 画像処理装置及び方法並びにプログラム
US20070140553A1 (en) Dental colorimetry apparatus
WO2017085793A1 (ja) 内視鏡システム、画像処理装置、画像処理方法およびプログラム
JP2005000652A (ja) 歯科用カラー画像システム
JP2012020130A (ja) 歯色調マッピング
JP6817154B2 (ja) プロセッサ装置及びその作動方法
CN106714651B (zh) 评价值计算装置以及电子内窥镜系统
JP2002529122A (ja) 歯のシェードを解析するシステムならびに方法
JP3989521B2 (ja) 画像合成装置およびその方法並びにプログラム
WO2022113995A1 (ja) 歯列画像撮影システムおよび歯列画像撮影方法
JP3989522B2 (ja) 歯科用測色装置、システム、方法、およびプログラム
JP2010081057A (ja) 画像処理装置、画像処理方法および測色システム
WO2024106391A1 (ja) 画像処理方法、画像処理装置、及び、プログラム
US10842383B2 (en) Dental health assessment assisting apparatus and dental health assessment assisting system
JPWO2019155816A1 (ja) 内視鏡システム
JP5074066B2 (ja) 画像処理装置、及び、画像処理方法
JP7015382B2 (ja) 内視鏡システム
JP2009195495A (ja) 歯科用測色装置
JP2016095577A (ja) 視覚補助装置,視覚補助プログラム,視覚補助方法,検査装置,検査プログラム,及び検査方法
JP4831962B2 (ja) 撮影装置
WO2023163051A1 (ja) 口腔洗浄装置、制御装置、口腔洗浄方法、及び、プログラム