WO2009113492A1 - 電動歯ブラシ - Google Patents

電動歯ブラシ Download PDF

Info

Publication number
WO2009113492A1
WO2009113492A1 PCT/JP2009/054423 JP2009054423W WO2009113492A1 WO 2009113492 A1 WO2009113492 A1 WO 2009113492A1 JP 2009054423 W JP2009054423 W JP 2009054423W WO 2009113492 A1 WO2009113492 A1 WO 2009113492A1
Authority
WO
WIPO (PCT)
Prior art keywords
brush
brushing
angle
electric toothbrush
brush angle
Prior art date
Application number
PCT/JP2009/054423
Other languages
English (en)
French (fr)
Inventor
岩堀敏之
三木章利
高橋邦芳
Original Assignee
オムロンヘルスケア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロンヘルスケア株式会社 filed Critical オムロンヘルスケア株式会社
Priority to US12/922,597 priority Critical patent/US8393037B2/en
Priority to DE112009000546.2T priority patent/DE112009000546B4/de
Priority to CN200980109011.0A priority patent/CN101969879B/zh
Publication of WO2009113492A1 publication Critical patent/WO2009113492A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C17/00Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
    • A61C17/16Power-driven cleaning or polishing devices
    • A61C17/22Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
    • A61C17/221Control arrangements therefor
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • A46B15/0002Arrangements for enhancing monitoring or controlling the brushing process
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • A46B15/0002Arrangements for enhancing monitoring or controlling the brushing process
    • A46B15/0004Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
    • A46B15/0006Arrangements for enhancing monitoring or controlling the brushing process with a controlling means with a controlling brush technique device, e.g. stroke movement measuring device
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • A46B15/0002Arrangements for enhancing monitoring or controlling the brushing process
    • A46B15/0004Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
    • A46B15/0008Arrangements for enhancing monitoring or controlling the brushing process with a controlling means with means for controlling duration, e.g. time of brushing
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • A46B15/0002Arrangements for enhancing monitoring or controlling the brushing process
    • A46B15/0004Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
    • A46B15/0012Arrangements for enhancing monitoring or controlling the brushing process with a controlling means with a pressure controlling device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C17/00Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
    • A61C17/16Power-driven cleaning or polishing devices
    • A61C17/22Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
    • A61C17/222Brush body details, e.g. the shape thereof or connection to handle

Definitions

  • the present invention relates to an electric toothbrush.
  • Patent Document 1 discloses a configuration that detects the brushing time, the brush pressure, and the left and right directions of the brush, and displays the degree of achievement of each of the left and right brushing.
  • Patent Document 2 discloses a configuration in which when a toothbrush is taken out from a charging stand, a timer is activated to measure the brushing time.
  • Patent Document 3 discloses a configuration in which the brushing time is accumulated only when the brush pressure is appropriate, and notification is made when the accumulated value reaches a preset target time.
  • Patent Document 4 discloses the idea of detecting the direction around the axis of the toothbrush body in four or eight stages and estimating the brushing site from the detection result.
  • a plurality of fan-shaped sections are provided in the circumferential direction inside the main body, and the direction of the toothbrush main body is estimated by detecting which section the conductive sphere is in from the change in electrical resistance. is doing.
  • Patent Document 4 the number and time of brushing are recorded for each part, and an evaluation of whether or not the brushing is performed properly is output.
  • Patent Document 5 discloses an electric toothbrush that continuously displays intervals for brushing each region in the oral cavity.
  • Patent Document 6 discloses a toothpaste learning instrument for children that guides the order of brushing by lighting each tooth in turn on a display unit that imitates a dentition.
  • JP-A-6-315413 Special table 2003-534095 gazette JP-A-57-190506 JP 2005-152217 A Japanese National Patent Publication No. 10-508765 JP 2000-116554 A
  • the brushing guide can only guide the user as determined in advance, and lacks flexibility.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for supporting proper usage and correct brushing of an electric toothbrush.
  • the present invention adopts the following configuration.
  • the electric toothbrush according to the first aspect of the present invention is based on a detected position, a brush, a driving unit that moves the brush, a posture detecting unit that detects the posture of the brush based on an output of an acceleration sensor, A part estimating means for estimating a brushing part brushed from a plurality of parts defined by dividing the dentition surface, a time measuring means for measuring the brushing time for each part, and the measured brushing time And an evaluation output means for evaluating and outputting the brushing result for each part.
  • the posture of the brush can be determined with high accuracy, and the brushing site can be identified with higher accuracy and higher resolution than before. Therefore, it is possible to evaluate the brushing result in a smaller section (part) than before, and to provide a user with a useful and reliable evaluation guideline.
  • the acceleration sensor is small, it can be easily incorporated into the electric toothbrush body.
  • a uniaxial acceleration sensor can be used, and preferably a multiaxial (biaxial, triaxial, or more) acceleration sensor can be used.
  • the electric toothbrush of the present invention is composed of an electric toothbrush body and an external device.
  • Brush angle estimating means for estimating a brush angle that is an angle of the brush with respect to the tooth axis based on the detected posture is further provided, and the evaluation output means is further configured for each part based on the estimated brush angle. It is preferable to evaluate and output the brushing result.
  • the plaque removal force is inferior to the optimal brush angle, so the desired brushing effect may not be obtained or the brushing may take time.
  • the configuration of the present invention since the evaluation in consideration of the brush angle is output, it is possible to make the user aware of brushing with the correct brush angle.
  • brush pressure detecting means for detecting brush pressure is further provided, and that the evaluation output means further evaluates and outputs a brushing result for each part based on the detected brush pressure.
  • each item of brushing time, brush angle, and brush pressure may be evaluated individually, or a plurality of items may be evaluated comprehensively.
  • the brush angle guide means informs that the brush angle is the optimum value or that the brush angle is not the optimum value.
  • the notification method may be any method such as sound, light, vibration, and voice.
  • the brush angle guide means changes the notification level stepwise in accordance with the magnitude of the difference between the brush angle and the optimum value.
  • the user can grasp that the brush angle is approaching the optimum value by the change in the notification level, the user can easily match the brush angle with the optimum value.
  • Such a guide makes it possible to brush efficiently without polishing. That is, the portion to be brushed next is selected from the portions where brushing is not sufficient, so that there is no unpolished portion and there is no waste such as brushing the same portion repeatedly. Further, in the present invention, since the part that is actually brushed is identified, even if the user brushes another part without following the guide, the brushing result can be recorded and evaluated correctly, and the brushing can be performed. The order guide will be modified accordingly.
  • the brushing part guide means preferably guides the change of the brushing part when the current brushing part is different from the part to be brushed.
  • the electric toothbrush according to the second aspect of the present invention includes a brush, a drive unit that moves the brush, a posture detection unit that detects the posture of the brush, and a tooth surface based on the detected posture.
  • a part estimating means for estimating a brushed part brushed from a plurality of parts defined by dividing, and a brush for estimating a brush angle which is an angle of the brush with respect to the tooth axis based on the detected posture
  • a brush angle guide means for comparing the estimated brush angle with the optimum value of the brush angle at the brushing site and outputting a guide for notifying the user whether the brush angle is appropriate; Is provided.
  • the brush angle guide means informs that the brush angle is the optimum value or that the brush angle is not the optimum value. Further, it is preferable that the brush angle guide means changes the notification level stepwise according to the difference between the brush angle and the optimum value.
  • the present invention can support proper usage and correct brushing of the electric toothbrush.
  • FIG. 1 is a block diagram of the electric toothbrush of the first embodiment.
  • FIG. 2 is a cross-sectional view showing the internal configuration of the electric toothbrush of the first embodiment.
  • FIG. 3 is a perspective view showing the appearance of the electric toothbrush.
  • FIG. 4 is a diagram showing the classification of the brushing part.
  • FIG. 5 is a flowchart showing a main routine of the brushing evaluation process according to the first embodiment.
  • FIG. 6 is a flowchart of posture detection processing according to the first embodiment.
  • FIG. 7 is a flowchart of the brushing site estimation process (upper jaw) of the first embodiment.
  • FIG. 8 is a flowchart of the brushing part estimation process (mandible) of the first embodiment.
  • FIG. 9 is a diagram illustrating an example of acceleration sensor outputs Ax, Ay, Az for each brushing region of the upper jaw.
  • FIG. 10 is a diagram illustrating an example of acceleration sensor outputs Ax, Ay, and Az for each lower brushing region.
  • FIG. 11 is a diagram illustrating an example of brushing information.
  • FIG. 12 is a diagram illustrating the brush angle.
  • FIG. 13 is a diagram showing a change in the waveform of the sensor output accompanying a change in the brush angle.
  • FIG. 14 is a diagram illustrating an output example of a brushing result (brushing time).
  • FIG. 15 is a diagram illustrating an output example of a brushing result (brush angle).
  • FIG. 16 is a diagram illustrating an output example of a brushing result (brush pressure).
  • FIG. 17 is a diagram illustrating an output example of a brushing result (brushing index).
  • FIG. 18 is a flowchart showing a main routine of the brushing evaluation process according to the second embodiment.
  • FIG. 19 is a flowchart of brush angle estimation processing according to the third embodiment.
  • FIG. 20 is a diagram illustrating an example in which the notification sound changes according to the brush angle.
  • FIG. 21 is a flowchart showing a main routine of the brushing evaluation process of the fourth embodiment.
  • FIG. 22 is a modification of the flowchart of FIG.
  • FIG. 23 is a block diagram of the electric toothbrush of the fifth embodiment.
  • FIG. 24 is a perspective view showing the appearance of the charger of the fifth embodiment.
  • FIG. 25 is a flowchart showing a main routine of the brushing evaluation process of the sixth embodiment.
  • FIG. 26 is a perspective view showing a brush portion of the electric toothbrush of the seventh embodiment.
  • FIG. 27 is a flowchart of the brushing site estimation process (upper jaw) of the seventh embodiment.
  • FIG. 28 is a flowchart of a brushing site estimation process (mandible) according to the seventh embodiment.
  • FIG. 29 is a diagram illustrating noise reduction of the acceleration sensor output.
  • FIG. 30 is a diagram showing the definition of the posture angle of the electric toothbrush.
  • FIG. 31 is a perspective view showing a brush portion of the electric toothbrush of the eighth embodiment.
  • FIG. 32 is a diagram for explaining posture detection according to the ninth embodiment.
  • FIG. 33 is a view showing a brush portion of the electric toothbrush of the tenth embodiment.
  • FIG. 34 is a table showing the relationship between the brushing site and the optical sensor output.
  • FIG. 35 is a flowchart of the brushing part estimation process of the tenth embodiment.
  • FIG. 1 is a block diagram of the electric toothbrush of the first embodiment
  • FIG. 2 is a cross-sectional view showing the internal configuration of the electric toothbrush of the first embodiment
  • FIG. 3 is a perspective view showing the appearance of the electric toothbrush.
  • the electric toothbrush includes an electric toothbrush main body 1 (hereinafter also simply referred to as “main body 1”) including a motor 10 as a driving source, and a vibration member 2 having a brush 210.
  • the main body 1 has a generally cylindrical shape, and also serves as a handle portion for a user to hold with his / her hand when brushing teeth.
  • the electric toothbrush of the present embodiment includes a charger 100 for placing and charging the main body 1 and a display 110 for outputting a brushing result.
  • the main body 1 is provided with a switch S for turning on / off the power and switching the operation mode.
  • a motor 10 as a drive source
  • a drive circuit 12 a rechargeable battery 13 as a 2.4V power source, a charging coil 14 and the like are provided.
  • the drive circuit 12 includes a CPU (input / output processing unit) 120 that executes various calculations and controls, a memory 121 that stores programs and various setting values, a timer 122, a data transmission unit 123, and the like.
  • the data transmission unit 123 is a communication unit for performing wireless communication with the data reception unit 112 of the display device 110.
  • the display device 110 includes a display 111 for outputting data such as a brushing result received by the data receiving unit 112.
  • a multi-axis (three axes of x, y, z in this case) acceleration sensor 15 is provided inside the main body 1.
  • the acceleration sensor 15 is installed so that the x-axis is parallel to the brush surface, the y-axis coincides with the longitudinal direction of the main body 1, and the z-axis is perpendicular to the brush surface. Is done. That is, when the main body 1 is placed on the charger 100, the gravitational acceleration vector is parallel to the y-axis, and when the brush surface is directed upward, the gravitational acceleration vector is parallel to the z-axis. When the brush surface is oriented horizontally, the gravitational acceleration vector becomes parallel to the x axis.
  • the output of each axis of the acceleration sensor 15 is input to the CPU 120 and used to detect the three-dimensional posture of the brush.
  • the acceleration sensor 15 a piezoresistive type, a capacitance type, or a heat detection type MEMS sensor can be preferably used. This is because the MEMS sensor is very small and can be easily incorporated into the body 1.
  • the form of the acceleration sensor 15 is not limited to this, and an electrodynamic sensor, a strain gauge sensor, a piezoelectric sensor, or the like may be used.
  • a band pass filter (low pass filter) for removing dynamic acceleration components and noise may be provided. Further, noise may be reduced by smoothing the output waveform of the acceleration sensor.
  • FIG. 29 shows an example in which high-frequency noise in the output waveform is reduced by averaging data of several hundreds of milliseconds before and after.
  • a load sensor (brush pressure detecting means) 17 for detecting brush pressure (load acting on the brush) is provided inside the main body 1.
  • the load sensor 17 any type such as a strain gauge, a load cell, and a pressure sensor can be used, but a MEMS sensor can be suitably used because it is small and can be easily incorporated into the main body 1. .
  • the vibration member 2 includes a stem portion 20 fixed to the main body 1 side and a brush component 21 attached to the stem portion 20.
  • a brush 210 is planted at the tip of the brush component 21. Since the brush part 21 is a consumable part, it is configured to be detachable from the stem portion 20 so that it can be replaced with a new one.
  • the stem portion 20 is made of a resin material.
  • the stem portion 20 is attached to the main body 1 via an elastic member 202 made of an elastomer.
  • the stem portion 20 is a cylindrical member whose tip (brush side end) is closed, and has a bearing 203 at the tip inside the tube.
  • the tip of the eccentric shaft 30 connected to the rotating shaft 11 of the motor 10 is inserted into the bearing 203 of the stem portion 20.
  • the eccentric shaft 30 has a weight 300 in the vicinity of the bearing 203, and the center of gravity of the eccentric shaft 30 is deviated from the center of rotation. A minute clearance is provided between the tip of the eccentric shaft 30 and the bearing 203.
  • the CPU 120 supplies a drive signal (for example, a pulse width modulation signal) corresponding to the operation mode to the motor 10 to rotate the rotating shaft 11 of the motor 10.
  • the eccentric shaft 30 also rotates with the rotation of the rotating shaft 11, but the eccentric shaft 30 performs a movement that turns around the center of rotation because the center of gravity is shifted. Therefore, the tip of the eccentric shaft 30 repeatedly collides with the inner wall of the bearing 203, and the stem portion 20 and the brush component 21 attached thereto are vibrated (moved) at high speed.
  • the motor 10 serves as a driving unit that vibrates (moves) the brush
  • the eccentric shaft 30 is a motion transmission mechanism (motion converting mechanism) that converts the output (rotation) of the motor 10 into the vibration of the vibration member 2.
  • the user can perform brushing by holding the main body 1 by hand and applying a brush 210 that vibrates at high speed to the teeth.
  • the CPU 120 monitors the continuous operation time using the timer 122, and automatically stops the vibration of the brush when a predetermined time (for example, 2 minutes) elapses.
  • the eccentric shaft 30 that is a motion transmission mechanism is included in the vibration member 2, and in particular, the weight 300 is disposed in the vicinity of the brush 210. Therefore, the portion of the brush 210 can be vibrated efficiently.
  • the vibration member 2 stem portion 20
  • the vibration of the vibration member 2 is hardly transmitted to the main body 1. Therefore, the vibration of the main body 1 and the hand when brushing teeth can be reduced, and the feeling of use can be improved.
  • the electric toothbrush of the present embodiment realizes the brushing evaluation for each part by accurately estimating the brushing part based on the posture of the brush detected by the acceleration sensor 15.
  • Various evaluation items are conceivable, but here, three items of brushing time, brush angle, and brush pressure are evaluated.
  • the upper and lower dentitions are divided into “maxillary anterior cheek side”, “maxillary anterior tongue side”, “maxillary left cheek side”, “maxillary left lingual side”, “maxillary right cheek side”.
  • Side Maxillary right tongue side, Mandibular front cheek side, Mandibular anterior tongue side, Mandible left cheek side, Mandible left tongue side, Mandible right cheek side, Mandibular right tongue side ”, are divided into 12 parts.
  • the division of the dentition is not limited to this, and may be a broader division or a finer division.
  • upper, lower, left and right meshing surfaces may be considered.
  • FIG. 5 is a flowchart of the main routine
  • FIGS. 6 to 8 are flowcharts showing details of each process of the main routine. Note that the processing described below is processing executed by the CPU 120 according to a program unless otherwise specified.
  • the CPU 120 detects the posture (tilt) of the brush based on the output of the acceleration sensor 15 (S10). Next, CPU120 estimates a brushing site
  • FIG. 6 is a flowchart of the posture detection process (S10).
  • CPU 120 obtains the respective outputs Ax, Ay, Az of x, y, z from the acceleration sensor 15 (S100).
  • Ax represents an acceleration component in the x direction
  • Ay represents an acceleration component in the y direction
  • Az represents an acceleration component in the z direction.
  • A (Ax, Ay, Az) is called an attitude vector.
  • FIGS. 9 and 10 are diagrams illustrating examples of acceleration sensor outputs Ax, Ay, and Az for each brushing part.
  • the CPU 120 determines whether the upper jaw or the lower jaw based on the output Az of the acceleration sensor in the z direction (S700).
  • the determination is focused on the fact that the brush surface is upward rather than downward, and when brushing the lower jaw dentition, the brush surface is not lower than downward.
  • Az>0 the lower jaw (S801) is determined, and when Az ⁇ 0, the upper jaw (S701) is determined.
  • the CPU 120 determines whether or not it is an anterior tooth based on the output Ay of the acceleration sensor in the y direction (S702).
  • Ay threshold value a
  • the CPU 120 determines whether it is the cheek side or the tongue side based on the output Ax of the acceleration sensor in the x direction (S704). This determination is focused on the fact that the direction of the brush is reversed between the cheek side and the tongue side. When Ax> 0, it is determined as “upper front cheek side” (S705), and when Ax ⁇ 0, it is determined as “upper front tongue side” (S706).
  • the CPU 120 determines the direction of the brush based on the output Ax of the acceleration sensor in the x direction (S707).
  • Ax>0 it is determined as “maxillary right cheek side or maxillary left lingual side” (S708)
  • Ax ⁇ it is determined as “maxillary left cheek side or maxillary right lingual side” (S712).
  • the CPU 120 narrows down the parts based on the brushing part determined in the previous process (process one clock before) (S709, S713).
  • the previous brushing part is any one of “upper front cheek side, upper right cheek side, upper maxillary tongue side, lower maxillary front cheek side, lower jaw right cheek side, lower jaw right tongue side”
  • the current brushing site is estimated to be “maxillary right cheek side” (S710), and the previous brushing site is “maxillary anterior tongue side, maxillary left cheek side, maxillary left lingual side, mandibular anterior tongue side, mandibular left cheek. If it is one of the left side and the lower left lingual side, it is estimated that the current brushing site is the upper left lingual side (S711).
  • the previous brushing site is any of “upper maxillary cheek side, maxillary left cheek side, maxillary left tongue side, mandibular front cheek side, mandibular left cheek side, mandibular left tongue side” It is estimated that the part is “upper left cheek side” (S714), and the previous brushing part is “upper front tongue side, upper right cheek side, upper right tongue side, lower front tongue side, lower right jaw side, lower right jaw If it is one of “lingual side”, it is estimated that the current brushing site is “maxillary right lingual side” (S715). The reason for this estimation is that there is a high probability that the brushing part is moved so that the amount of movement and the direction change of the brush are minimized.
  • the CPU 120 determines whether or not it is an anterior tooth based on the output Ay of the acceleration sensor in the y direction (S802).
  • Ay ⁇ threshold b it is determined that the lower jaw is an anterior tooth (S803).
  • the CPU 120 determines whether it is the cheek side or the tongue side based on the output Ax of the acceleration sensor in the x direction (S804). This determination is focused on the fact that the direction of the brush is reversed between the cheek side and the tongue side. When Ax ⁇ 0, it is determined as “mandibular anterior cheek side” (S805), and when Ax ⁇ 0, it is determined as “mandibular anterior tongue side” (S806).
  • the CPU 120 determines the direction of the brush based on the output Ax of the acceleration sensor in the x direction (S807).
  • Ax>0 it is determined as “mandibular right cheek side or mandibular left lingual side” (S808), and when Ax ⁇ 0, it is determined as “mandibular left cheek side or mandibular right lingual side” (S812).
  • the current brushing sites are “maxillary anterior cheek side” (S705), “maxillary anterior tongue side” (S706), “maxillary right cheek side” (S710), and “maxillary left lingual side” (S711).
  • the above determination algorithm is merely an example, and any determination algorithm may be used as long as the brushing part can be specified from the outputs Ax, Ay, and Az of the acceleration sensor.
  • secondary variables obtained by appropriately combining Ax, Ay, Az may be used for determination.
  • the secondary variable can be arbitrarily set, for example, Ay / Az, Ax ⁇ Ax + Ay ⁇ Ay, Az ⁇ Ax, and the like.
  • the brushing part may be determined after converting the acceleration information Ax, Ay, Az of each axis into angle information (attitude angles) ⁇ , ⁇ , ⁇ as shown in FIG. In the example of FIG.
  • the x-axis angle with respect to the gravitational acceleration direction is defined as a roll angle ⁇
  • the y-axis angle with respect to the gravitational acceleration direction is defined as a pitch angle ⁇
  • the z-axis angle with respect to the gravitational acceleration direction is defined as a yaw angle ⁇ .
  • FIG. 11 shows an example of brushing information recorded in the memory.
  • FIG. 11 is an example of a state in which the lower jaw left cheek side is brushed. Before the lower jaw left cheek side, the upper jaw cheek side is brushed for 7.5 seconds, and the upper jaw left cheek side is brushed for 12.2 seconds. Note that “-” indicates that no data is recorded, that is, the portion has not been brushed yet.
  • the CPU 120 counts up the brushing time of the brushing site estimated in S20 (in the example of FIG. 11, the lower jaw left cheek side). For example, if the processes of S10 to S50 in FIG. 6 are executed once every 0.1 second, the brushing time on the lower jaw left cheek side is counted up by +0.1 and becomes 2.1 seconds.
  • the cumulative value of the brushing time is recorded. That is, for example, when the brushing part moves again to the upper left cheek side, the stored brushing time is not reset, but the brushing time is added to the stored value of 12.2 seconds.
  • the CPU 120 estimates the brush angle based on the posture (output of the acceleration sensor) detected in S10, and updates the brush angle value of the current brushing part (the lower jaw left cheek side in the example of FIG. 11). . At this time, it is preferable that the CPU 120 calculates and records the average value of the brush angle from the stored brush angle value and the current estimated value.
  • the brush angle is the contact angle of the brush with respect to the tooth axis (axis along the tooth head and root).
  • the brush angle is preferably in the range of 35 to 55 degrees.
  • the brush angle can be estimated from, for example, the acceleration component Az in the z direction. As shown in FIG. 13, when the brush angle is about 90 degrees, Az is almost 0, and as the brush angle becomes smaller, the value of Az increases. Thus, the value of Az changes significantly according to the brush angle. Because it does. Since the acceleration component Ax in the x direction also changes according to the brush angle, the brush angle is estimated from Ax instead of Az, or the brush angle is calculated from both Ax and Az (the direction of the combined vector of Ax and Az). It is also preferable to estimate.
  • the brush angle may be calculated as a continuous amount or may be a rough estimate such as “less than 35 degrees”, “35 degrees to 55 degrees”, or “55 degrees or more”.
  • the CPU 120 calculates the brush pressure based on the output of the load sensor 17, and updates the brush pressure value of the current brushing part (the lower jaw left cheek side in the example of FIG. 11). At this time, the CPU 120 preferably calculates and records the average value of the brush pressure from the stored brush pressure value and the current detected value.
  • the brush pressure of an electric toothbrush may be smaller than that of an ordinary toothbrush, it is said that most people who have started using an electric toothbrush tend to exceed the brush pressure.
  • the optimum value of the brush pressure is about 100 g.
  • the CPU 120 evaluates the brushing result for each part based on the brushing information recorded in the memory 121, and outputs the evaluation result to the display unit 110 (display 111).
  • FIG. 14 is an output example of the evaluation result of the brushing time.
  • the CPU 120 reads the brushing time of each part from the memory 121 and evaluates, for example, “insufficient” for less than 7 seconds, “good” for 7 to 15 seconds, and “excess” for more than 15 seconds.
  • the evaluation result is transmitted to the display device 110.
  • a tooth row is drawn on the display 111 of the display device 110, and the corresponding part in the tooth row is a color corresponding to the evaluation result (“insufficient” is white, “good” is yellow, “excess” is red, etc.) Lights on. By viewing such a display, the user can intuitively grasp which part of the dentition is insufficient (or excessive).
  • FIG. 15 is an output example of brush angle evaluation results.
  • the evaluation is made in three stages, “less than 35 degrees”, “35 degrees to 55 degrees”, and “55 degrees or more”, and each part in the dentition is lit in a color according to the evaluation result.
  • the plaque removing power is inferior to the optimal brush angle, so that the desired brushing effect may not be obtained or the brushing may take time. If the evaluation of the brush angle for each part is output as shown in FIG. 15, the user can be made aware of brushing by the correct brush angle.
  • FIG. 16 is an output example of the evaluation result of the brush pressure. For example, if it is less than 80 g, it is evaluated as “insufficient”, 80 g to 150 g is “good”, and if it exceeds 150 g, it is evaluated as “excessive”, and each part in the dentition is lit in a color corresponding to the evaluation result.
  • the brush pressure is not appropriate, problems such as a decrease in plaque removal power, a decrease in brush life, and an increase in burden on the gums may occur.
  • FIG. 17 is an output example of the evaluation result of the brushing index.
  • the brushing index is an index for comprehensively evaluating a plurality of evaluation items (brushing time, brush angle, brush pressure), and represents the achievement level of brushing.
  • the formula for calculating the brushing index may be defined in any way.
  • the brushing time and the brush pressure are evaluated with a maximum of 35 points
  • the brush angle is evaluated with a maximum of 30 points
  • the total of these evaluation values (100 points maximum) is used as a brushing index.
  • 80 points or more are “excellent”, 60 to 80 points are “good”, and less than 60 points are “impossible”. By outputting such a comprehensive evaluation, a more useful guideline can be given to the user.
  • the configuration of the present embodiment described above it is possible to determine the posture of the brush with high accuracy by using the output of the acceleration sensor, and it is possible to identify the brushing site with higher accuracy and higher resolution than before. Therefore, it is possible to evaluate the brushing result in a smaller section (part) than before, and to provide a user with a useful and reliable evaluation guideline. Moreover, since the acceleration sensor is small, there is an advantage that it can be easily incorporated into the electric toothbrush body.
  • evaluation results in FIGS. 14 to 17 may be displayed on the display 111 simultaneously or sequentially. In the latter case, display switching may be performed automatically or by a user's button operation.
  • the result is automatically displayed when the power of the toothbrush is turned off.
  • toothbrushing is performed at a location different from the location where the display is installed. For example, when the user presses a button provided on the display or toothbrush body, the brushing information is displayed from the toothbrush body to the display. It is also preferable to provide a function that displays the result on the display.
  • a printer may be mounted on a charger or a display, or print data may be transmitted from a toothbrush body, a charger or a display to an external printer.
  • a function of transferring brushing information and evaluation result data to an external device such as a personal computer, a mobile phone, or a PDA) by wireless communication or wired communication is also preferable.
  • a memory card slot may be provided in the toothbrush main body, charger, display, etc. so that brushing information and evaluation result data can be recorded in an external memory card.
  • optimum values target values
  • a brush angle of 35 ° to 55 ° is preferable in order to effectively scrape food residue and plaque from the periodontal pockets and teeth between the brush tips.
  • a larger angle for example, 55 to 90 degrees
  • the brush angle is preferably about 0 degree with respect to the mating surface of the molar.
  • the optimal brushing time, brush angle, and brush pressure can be determined not from the viewpoint of the brushing effect but from the viewpoint of avoiding damage to tissues such as gums. If an optimum value is set and evaluated for each part in this way, it is possible to provide a more useful and reliable evaluation guideline.
  • FIG. 18 is a flowchart of the brushing evaluation process of the second embodiment.
  • the brushing result is output after the brushing is completed, whereas in the second embodiment, the intermediate result is output even during the brushing (S55).
  • Other configurations are the same as those in the first embodiment.
  • the processing of the present embodiment since the brushing can be performed while checking the progress of the brushing time and the brushing index (achievement level) in real time, the convenience is improved. Further, by checking the evaluation result of the brush angle and the brush pressure, the user can determine whether or not the brush angle and the brush pressure are appropriate.
  • the function of outputting the intermediate result of the brush angle corresponds to the brush angle guide means of the present invention.
  • FIG. 19 is a flowchart of the brush angle estimation process (S40 in FIG. 5) according to the third embodiment.
  • the CPU 120 After estimating the brush angle, the CPU 120 outputs a guide for notifying the user whether or not the brush angle is appropriate as necessary.
  • the CPU 120 first estimates the brush angle based on posture vector A (especially acceleration component Az in the z direction) obtained from the acceleration sensor (S1900). Then, the CPU 120 updates the brush angle value of the current brushing part estimated in S20 (S1901). At this time, it is preferable that the CPU 120 calculates and records the average value of the brush angle from the stored brush angle value and the current estimated value.
  • the CPU 120 compares the estimated value of the brush angle with the optimum value of the brush angle at the current brushing part (S1902). For example, it is assumed that the optimum value of the brush angle is “35 to 55 degrees”. If the estimated brush angle is within the range (S1903; YES), a level 1 notification (guide) is output (S1904). If the difference between the estimated brush angle value and the optimum value is within 15 degrees (that is, 20 degrees to 35 degrees or 55 degrees to 70 degrees) (S1905; YES), level 2 notification is output (S1906). . If the difference between the estimated value and the optimum value is within 30 degrees (that is, 5 to 20 degrees or 70 to 85 degrees) (S1907; YES), level 3 notification is output (S1908). If the difference is greater than 30 degrees, no notification is made (S1907; NO).
  • FIG. 20 shows an example in which the notification sound changes according to the brush angle. None is reported when the brush angle is 90 degrees.
  • “beep” and a level 3 notification sound are output when the brush angle reaches 85 degrees.
  • “Beep” and level 2 notification sound are output when the brush angle reaches 70 degrees
  • “Beep” and level 1 notification sound are output when the brush angle reaches 55 degrees. Is done.
  • the user can grasp that the brush angle is approaching the optimum value due to such a change in the notification sound, the user can easily match the brush angle with the optimum value.
  • the operation is intuitive and fun, it is also useful as a learning tool for teaching children the correct brush angle.
  • the notification method can use light, vibration, voice, etc. in addition to sound.
  • the color or flashing pattern may be changed according to the level.
  • vibration the strength and length of vibration may be changed according to the level.
  • voice for example, it may be notified of contents such as “tilt about 30 degrees more”, “tilt a little more”, “best brush angle”.
  • the notification that the brush angle is the optimum value is made, but conversely, nothing is notified when the brush angle is the optimum value, and the notification is made when the brush angle is away from the optimum value. (Warning) may be output.
  • FIG. 21 is a flowchart of the brushing evaluation process of the fourth embodiment. The difference from the second embodiment is that processing (S56, S57) for determining and guiding a site to be brushed next based on the brushing result for each site is added. Other configurations are the same as those of the second embodiment.
  • the CPU 120 determines whether the brushing target has been achieved for the current brushing part (S56). For example, it may be determined whether or not the target has been achieved or not based on whether the brushing time has reached 10 seconds or whether the brushing index has exceeded 80 points. If the target is not reached (S56; NO), since the brushing of the current brushing part should be continued, the process returns to S10. If the target is achieved (S56; YES), the brushing of the current brushing part is completed and the process should proceed to another part, so the process proceeds to S57.
  • the CPU 120 refers to the brushing result of each part, and selects a target unachieved part (that is, a part where brushing is not sufficient). If there are a plurality of target unachieved parts, a part that is easily moved from the current brushing part is determined as a part to be brushed next. In general, it is said that if the brush is moved sequentially in the manner of one-stroke writing, it is effective to prevent unpolished.
  • Pattern data that defines the brushing order of one-stroke writing, such as “right lingual side ⁇ upper front lingual side ⁇ upper left lingual side”, is prepared in advance, and the next brushing site may be determined according to this brushing order. Then, the CPU 120 displays the determined next brushing part on the display device 110. For example, the corresponding part in the dentition may be blinked or lighted with a predetermined color.
  • Such a guide makes it possible to brush efficiently without polishing. That is, the portion to be brushed next is selected from the portions where brushing is not sufficient, so that there is no unpolished portion and there is no waste such as brushing the same portion repeatedly.
  • the toothbrush of the present embodiment identifies the part that is actually brushed, so even if the user brushes another part without following the guide, the brushing result can be recorded and evaluated correctly.
  • the brushing order guide is also modified as appropriate.
  • the CPU 120 can determine whether the user is brushing a portion as per the guide. For example, as shown in the flowchart of FIG. 22, after estimating the current brushing part (S20), the CPU 120 determines whether or not the current brushing part is appropriate (S25). (S25; NO), the change of the brushing site may be guided (S57). Since the user is prompted to change the brushing part when the user tries to brush the part that has already been brushed, efficient brushing becomes possible.
  • FIG. 23 is a block diagram of the electric toothbrush of the fifth embodiment.
  • the electric toothbrush of the present embodiment includes a multi-axis (three-axis here) gyroscope 16 inside the main body 1.
  • a display 111 and a data receiving unit 112 are provided in the charger 100.
  • FIG. 24 is a perspective view showing the appearance of the charger 100 of the fifth embodiment.
  • the display 111 may be configured with a liquid crystal panel or a light emitting element such as an LED.
  • the gyroscope 16 is installed so as to detect an angular velocity around the z axis, an angular velocity around the x axis, and an angular velocity around the y axis.
  • any type such as a vibration type, an optical type, and a mechanical type can be used, but a MEMS sensor is preferably used because it is small and can be easily incorporated into the main body 1. it can.
  • a rate gyro that outputs an angular velocity a rate integration gyro or an attitude gyro that outputs an angle may be used.
  • a band pass filter may be applied to the output of the gyroscope.
  • the output of the acceleration sensor 15 substantially includes only the gravitational acceleration component.
  • the acceleration sensor 15 includes not only the gravitational acceleration component but also the dynamic acceleration component. Can be.
  • the dynamic acceleration component is an unnecessary signal component (noise) in calculating the three-dimensional posture.
  • the output of the gyroscope 16 is not observed when the toothbrush body 1 is in a stationary state, and a significant signal is output only when the toothbrush body 1 is moving.
  • the three-dimensional posture of the toothbrush is detected based on the outputs of both the acceleration sensor 15 and the gyroscope 16 by utilizing such a difference in sensor characteristics.
  • the CPU 120 first obtains the output of the acceleration sensor 15 and the output of the gyroscope 16.
  • the CPU 120 considers the toothbrush body 1 to be stationary and obtains a three-dimensional posture from the outputs Ax, Ay, Az of the acceleration sensor 15.
  • the CPU 120 estimates the dynamic acceleration components in the x, y, and z directions from the output of the gyroscope 16, and Ax, Ay , Az values are corrected. As a result, the dynamic acceleration components included in Ax, Ay, and Az are canceled, and the three-dimensional posture of the brush can be calculated with high accuracy.
  • a process of not detecting the posture of the brush when the output of the gyroscope is obtained may be used. That is, only when the output of the gyroscope is smaller than a predetermined threshold value, processes such as posture detection, brushing site estimation, brushing time measurement, brush angle estimation, and brush pressure detection are performed. Thereby, the recording / evaluation of the brushing result is executed only when the posture estimated from the output of the acceleration sensor has a certain degree of reliability.
  • the angle change amount ⁇ yz around the x axis, the angle change amount ⁇ zx around the y axis, and the angle change amount ⁇ xy around the z axis are calculated from the output of the gyroscope, and the posture obtained by the posture detection process one clock before
  • the posture of the electric toothbrush may be calculated and evaluated based on the angle information (see FIG. 30) of the roll angle ⁇ , the pitch angle ⁇ , and the yaw angle ⁇ instead of the acceleration information Ax, Ay, and Az.
  • the tertiary of the electric toothbrush by combining the output of the acceleration sensor and the gyroscope (including selecting either the output of the acceleration sensor or the gyroscope according to the condition), the tertiary of the electric toothbrush
  • the original posture can be obtained with higher accuracy.
  • posture information with sufficient accuracy can be obtained even with a combination of an acceleration sensor and a bandpass filter.
  • the method of this embodiment using the angular velocity information of the gyroscope is effective.
  • FIG. 25 is a flowchart of the sixth embodiment.
  • the CPU 120 first determines whether or not a load is acting on the brush based on the output of the load sensor 17 (S5). For example, when the output value of the load sensor 17 exceeds a predetermined threshold value, it may be considered that “a load is applied to the brush”. Until the load is applied to the brush, the processing after the next step is in a waiting state (S5; NO).
  • FIG. 26 shows a brush portion of the electric toothbrush of the seventh embodiment.
  • the electric toothbrush of this embodiment is provided with the temperature sensor 18 which detects the temperature of a brush part.
  • the temperature sensor 18 is installed on the back surface of the brush. Any type of temperature sensor 18 such as an infrared sensor or a thermistor can be used.
  • FIGS. 27 and 28 are flowcharts of the brushing part estimation process (S20).
  • the difference from the brushing part estimation process (FIGS. 7 and 8) of the first embodiment is that discrimination between the cheek side and the tongue side is performed based on the output of the temperature sensor 18.
  • the CPU 120 determines whether the output value of the temperature sensor 18 is within a predetermined range. It is determined whether or not (S2709).
  • the brush is on the cheek side, since the temperature sensor 18 is in contact with or close to the back side of the cheek, an output value close to body temperature is obtained.
  • the brush is on the lingual side, since the temperature sensor 18 touches the outside air, an output value lower than the body temperature is obtained.
  • the CPU 120 determines “upper right jaw” when the output value of the temperature sensor 18 is in the range of 36 ° to 38 ° (S710), and “upper left tongue” otherwise. Determination is made (S711). Similarly, “upper left cheek side” and “upper right lingual side” can be discriminated based on the output value of the temperature sensor 18 (S2713). Similarly, in the processing of the lower jaw, based on the output value of the temperature sensor 18, the determination of “mandibular left lingual side” and “mandibular right cheek side” (S 2809), and “mandibular right lingual side” and “mandibular left cheek side” “Side” can be determined (S2813).
  • FIG. 31 shows a brush portion of the electric toothbrush of the eighth embodiment.
  • the temperature information by the temperature sensor 18 is used for identifying the brushing part (discrimination between the cheek side and the tongue side), but in the seventh embodiment, image information is used.
  • a camera 19 is provided at the tip of the brush head in the y-axis direction.
  • any camera such as a visible light camera or an infrared camera may be used as long as it can acquire intraoral image information.
  • An infrared camera monitors radiant heat (also called thermography).
  • An infrared camera is preferable to a visible light camera because the oral cavity during brushing may be dark. In the present embodiment, as described below, it is only necessary to know the outline of the uvula, so the resolution of the camera may not be so high.
  • the CPU 120 narrows down to “maxillary left cheek side or maxillary right lingual side” based on the output of the acceleration sensor 15 as in the seventh embodiment (see S708 in FIG. 27).
  • the CPU 120 acquires an image from the camera 19 and detects the uvula from the image.
  • a known image analysis technique can be used for detection of the uvula. For example, detection of the contour of the uvula by edge extraction or Hough transform, detection of the uvula by pattern matching, or the like can be considered.
  • the tip of the brush head faces toward the throat, so there is a high probability that the uvula appears in the image.
  • the CPU 120 determines “maxillary right tongue side” when the uvula can be detected, and determines “maxillary left cheek side” when the uvula cannot be detected.
  • “maxillary left cheek side” and “maxillary right tongue side”, “mandibular left tongue side” and “mandibular right cheek side”, “mandibular right tongue side” and “mandibular left cheek side” can be distinguished. It is.
  • the left and right meshing surfaces can be discriminated as the brushing part. Whether it is the meshing surface or not can be determined based on the acceleration component Ax in the x direction, for example. This is because when brushing the meshing surfaces, the brush surfaces are almost horizontal and the output of Ax is close to zero. It is also possible to determine whether the surface is a meshing surface based on the z-direction acceleration component Az or the yaw angle ⁇ .
  • the upper jaw or the lower jaw can be determined by the vertical orientation of the uvula in the image, and whether it is left or right can be determined by the horizontal position of the uvula in the image.
  • the upper and lower dentitions are “maxillary front cheek side”, “maxillary anterior tongue side”, “maxillary left cheek side”, “maxillary left tongue side”, “maxillary left occlusal surface”, “maxillary right cheek side” , “Maxillary right tongue side”, “maxillary right occlusal surface”, “mandibular anterior cheek side”, “mandibular anterior tongue side”, “mandibular left cheek side”, “mandibular left lingual side”, “mandibular left occlusal surface” ”,“ Mandibular right buccal side ”,“ mandibular right lingual side ”, and“ mandibular right occlusal surface ”.
  • image information is used only for discrimination between the cheek side / lingual side, but it is also preferable to identify all brushing sites based on the image information.
  • image information is used only for discrimination between the cheek side / lingual side, but it is also preferable to identify all brushing sites based on the image information.
  • the inside of the oral cavity is narrow and it is difficult to understand the overall positional relationship, it is better to use it in combination with posture information from an acceleration sensor (acceleration sensor and gyroscope) than to identify all brushing sites only from image information.
  • the uvula is the detection target, but the position and posture of the brush may be determined by recognizing other parts in the oral cavity (for example, tongue, throat, teeth, gingiva, etc.). For example, if a tongue or throat appears in the image, it can be determined that the brush is on the lingual side.
  • the ninth embodiment employs a configuration in which posture detection and brushing site identification are performed by a uniaxial acceleration sensor.
  • the upper part of FIG. 32 shows a state where the buccal or lingual tooth surface is brushed.
  • the brush angle (yaw angle ⁇ ) is about 90 degrees
  • the x-axis direction component of gravity acceleration is about 1 g or ⁇ 1 g (positive or negative corresponds to the left and right of the dentition)
  • the lower part of FIG. 32 shows a state where the meshing surface is brushed.
  • the brush angle (yaw angle ⁇ ) is approximately 0 degrees
  • the x-axis direction component of gravitational acceleration is approximately 0
  • the z-axis direction component of gravitational acceleration is approximately 1 g or ⁇ 1 g (positive or negative is the dentition) Corresponding to the top and bottom).
  • the x-axis acceleration sensor or the z-axis acceleration sensor can be used to determine whether the tooth surface is a cheek or lingual side or a meshing surface. Is also possible.
  • the brush head is provided with a plurality of optical sensors, and the brushing part is identified based on the output signals of the optical sensors and the output signals of the acceleration sensor.
  • the optical sensor a photodiode, a phototransistor, or the like can be used.
  • FIG. 33 (A) to (C) show the configuration of the electric toothbrush of the tenth embodiment.
  • FIG. 33A shows a state before the brush part 21 is attached to the stem part 20 of the toothbrush body 1
  • FIG. 33B shows a state after the brush part 21 is attached to the stem part 20.
  • FIG. 33C is a view of FIG. 33B viewed from the direction of arrow D3 (the back side of the brush).
  • each of the optical sensors 41 to 44 is connected to a circuit board inside the main body 1 by a wiring 40, and power supply and signal transmission are performed through the wiring 40.
  • the brush component 21 is made of a material having high translucency, and each of the optical sensors 41 to 44 passes through the brush component 21 in a state where the brush component 21 is attached to the stem portion 20 as shown in FIG. It has a configuration capable of detecting light.
  • the entire brush component 21 may not be formed of a highly light-transmitting material, but only the light sensor portion may be formed of a highly light-transmitting material, or a hole may be provided in the light sensor portion.
  • the power supply structure of the photosensor can be simplified. Moreover, since it is not necessary to provide an optical sensor in a brush part, the cost of the brush part which is a consumable part can be reduced. Although there is a disadvantage in cost, a configuration in which an optical sensor is provided on the brush component can also be adopted.
  • the power supply structure for example, (1) a configuration in which a coil is provided in each of the brush component 21 and the stem portion 20 to supply power by electromagnetic induction, or (2) the brush component 21 and the stem portion 20
  • a configuration in which an electrode or a connector is provided for each of them and the brush part 21 is attached to the stem portion 20 can be electrically connected to each other can be employed.
  • the optical sensor 41 is disposed at the tip of the brush head and detects light in the direction of the arrow D1.
  • the optical sensor 42 is arrange
  • the optical sensor 43 is disposed on the back surface of the brush head and detects light in the direction of arrow D3, and the optical sensor 44 is disposed on the front surface of the brush head and detects light in the direction of arrow D4.
  • FIG. 34 shows the relationship between the brushing site and the output of each photosensor. In this example, the signal intensity (brightness) of the sensor output is evaluated in five stages.
  • the optical sensor 43 when brushing the upper left cheek side, the optical sensor 43 is in a “very dark” state because it is in close contact with the cheek, whereas the optical sensor 44 is in a “relatively bright” state because it faces the mouth. .
  • the optical sensor 43 faces the inside of the oral cavity and becomes “relatively bright”, and the optical sensor 44 faces the gingival side. “Slightly dark” state.
  • the brushing part distinguishable by the optical sensor output and the brushing part distinguishable by the acceleration sensor are different, the brushing part can be specified with high accuracy by mutually complementing the output results of both sensors.
  • FIG. 35 is a flowchart showing an example of the brushing part estimation process.
  • the threshold value used for the comparison with the optical sensor output in each step of FIG. 35 is determined in advance by experiments or the like. The same threshold value may be used in all steps, or a different threshold value may be used for each step.
  • the CPU 120 When the CPU 120 acquires the output signals of the optical sensors 41 to 44, the CPU 120 first checks whether or not all the optical sensor outputs are larger than the threshold value (S3500). When all the optical sensor outputs are larger than the threshold value (S3500; YES), there is a possibility that the brush head is outside the oral cavity. In this case, since the determination based on the optical sensor output cannot be performed, the brushing part is determined based only on the acceleration sensor output (S3502). Note that the determination processing in S3502 can use, for example, the same algorithm as in the first embodiment (FIGS. 7 and 8).
  • the CPU 120 checks whether or not all optical sensor outputs are smaller than a threshold value (S3501). If all light sensor outputs are less than the threshold, the ambient environment may be very dark. In this case, since determination by the optical sensor output is difficult, the brushing part is determined only by the acceleration sensor output (S3502).
  • the CPU 12 first checks whether the output of the optical sensor 41 is greater than the threshold (S3503). When the output of the optical sensor 41 is large (S3503; YES), it is determined as “front teeth” (S3504), and otherwise (S3503; NO) is determined as “not front teeth” (S3505). In the case of “not front tooth”, the CPU 12 determines whether it is “upper jaw” (S3506) or “lower jaw” (S3507) based on the output Az of the acceleration sensor in the z direction.
  • the CPU 12 determines whether the “meshing surface” (S3508), “left cheek side or right tongue side” (S3509), “left tongue side or It is determined whether the “right cheek side” (S3510).
  • the CPU 12 determines whether the “meshing surface” (S3511), “left cheek side or right tongue side” (S3512), “left tongue side or It is determined whether the “right cheek side” (S3513).
  • the CPU 12 determines whether it is “left jaw” (S3514) or “right jaw” (S3515) by comparing the output of the optical sensor 42, 43, or 44 with a threshold value. As a result, it is possible to discriminate between the left cheek side and the right tongue side, and the discrimination between the right cheek side and the left tongue side, which are difficult to distinguish with the acceleration sensor output.
  • the processing after brushing site estimation (brushing time measurement, brush angle estimation, brush pressure detection, etc.) is the same as in the above-described embodiment.
  • the operation mode can be switched by switching the motion frequency in accordance with the brushing part or switching between the reciprocating motion and the linear reciprocating motion.
  • the present invention can also be preferably applied to an electric toothbrush that has an ultrasonic vibration element in the brush portion and performs brushing with both vibration and ultrasonic waves of the brush.
  • the amount of movement of the brush and the relative posture from the output of the acceleration sensor and the gyroscope.
  • the posture at the time of turning on the power may be set to the reference position, or a mechanism for allowing the user to input the reference position (the position to start polishing) (for example, holding the toothbrush body horizontally)
  • a switch may be provided in a state where the brush is applied to the front cheek side of the upper jaw).
  • the movement amount (movement distance) can be calculated by second-order integration of dynamic acceleration components in the x-axis direction, y-axis direction, and z-axis direction obtained from the acceleration sensor output.
  • the coordinate system xyz of the toothbrush is converted into a coordinate system XYZ (the reference position may be the origin) with the gravitational acceleration direction as the Z axis.
  • the relative position with respect to the reference position can be determined by calculating and accumulating the movement distances of X, Y, and Z for each clock. If the relative position with respect to the reference position is known, the brushing site can be identified more accurately and in detail than in the above-described embodiment.
  • the posture of the brush changes by 180 degrees depending on whether the left or right hand holds the toothbrush body, so the user can register the dominant hand (the hand holding the toothbrush) and brushing according to the registered dominant hand
  • the part determination algorithm may be changed, or the operation mode (motor rotation direction, brush movement) may be changed.
  • the three items of brushing time, brush angle, and brush pressure are evaluated, but only one of them may be evaluated. It is also preferable to add other evaluation items.
  • the toothbrush body It is advisable to provide the toothbrush body with an uneven shape for guiding (or defining) the gripping position. For example, if there is a protrusion or dent on the tip of the toothbrush body (the position where the thumb or index finger touches the joint or joint when the user grips the toothbrush body), the user consciously or unconsciously protrudes or dents the finger. Hold a toothbrush to match. By utilizing this, the user can be guided to a predetermined holding state. Typically, when the direction of the brush (minus direction of the z-axis) is 0 degree at an angle around the y-axis in FIG. Two recesses (or protrusions) may be provided at a position of about 135 degrees. If a toothbrush is gripped by aligning a finger with the unevenness, the brush angle is easily maintained at 45 degrees.
  • the CPU 120 of the electric toothbrush body 1 executes processing such as brushing site estimation, brushing time measurement, brush angle estimation, brush pressure detection, and brushing result evaluation.
  • processing such as brushing site estimation, brushing time measurement, brush angle estimation, brush pressure detection, and brushing result evaluation.
  • part or all of these processes may be executed by an external device different from the electric toothbrush body 1.
  • the outputs of various sensors provided in the electric toothbrush body 1 such as an acceleration sensor and a gyroscope are sequentially transferred to an external device, and processing such as brushing site estimation is executed by the CPU of the external device.
  • High-speed processing can be performed by using resources of an external device having a large CPU power for complicated arithmetic processing and arithmetic processing with a large calculation amount.
  • the CPU mounted on the electric toothbrush main body needs to have a low function, the cost and size of the electric toothbrush itself can be reduced.
  • the external device any device having a built-in CPU, such as an electric toothbrush indicator and a charger, as well as a personal computer and a game device, may be used.
  • the configuration using the temperature sensor, the camera, and the optical sensor for identifying the brushing part is exemplified, but other distance sensors such as an ultrasonic sensor are also used. It is also possible to do.
  • a distance sensor is installed on the back surface of the brush. When brushing on the cheek side, the distance sensor is close to or in contact with the cheek, so the measured value of the distance sensor is a very small value.
  • the distance sensor faces the inside of the oral cavity, so that the measured value of the distance sensor becomes relatively large. Therefore, by comparing the measured value of the distance sensor with a threshold value (for example, 5 mm), it is possible to distinguish between the cheek side and the tongue side.
  • a threshold value for example, 5 mm

Abstract

 電動歯ブラシの本体1に3軸の加速度センサ15を設置する。CPU120は、加速度センサ15の出力から歯ブラシ本体1の三次元姿勢を検出し、ブラシの姿勢に基づいてブラッシング部位を推定する。そして、CPU120は、タイマにより、当該ブラッシング部位のブラッシング時間を計測する。計測されたブラッシング時間に基づいて、部位ごとのブラッシング結果が評価し出力される。

Description

電動歯ブラシ
 本発明は、電動歯ブラシに関する。
 電動歯ブラシの正しい使い方を支援するためのアイデアとしては、たとえば次のものが知られている。
 特許文献1には、ブラッシング時間とブラシ圧とブラシの左右の向きを検出し、左右それぞれのブラッシングの達成度を表示する構成が開示されている。特許文献2には、充電台から歯ブラシを取り出すとタイマが作動して、ブラッシング時間を計測する構成が開示されている。特許文献3には、ブラシ圧が適正な場合のみブラッシング時間を累積し、累積値が予め設定された目標時間に達すると報知を行う構成が開示されている。また、特許文献4には、歯ブラシ本体の軸周りの向きを4段階または8段階に検出し、その検出結果からブラッシング部位を推定するというアイデアが開示されている。具体的には、本体内部に複数の扇状の区画が周方向に設けられており、導電性の球がどの区画に入っているかを電気抵抗の変化から検知することで、歯ブラシ本体の向きを推定している。ただしこのような機構は小型化が難しく、また歯ブラシの運動により球の位置が安定しないため高い検知精度を得るのが難しい。なお特許文献4では、部位ごとに、ブラッシングの回数や時間を記録し、ブラッシングが適正に行われたかどうかの評価を出力している。
 特許文献5には、口腔内の各領域をブラッシングするためのインターバルを連続的に表示する電動歯ブラシが開示されている。また特許文献6には、歯列を模した表示部において各歯を順番に点灯することで、ブラッシングの順番をガイドする子供用の歯磨学習器具が開示されている。
特開平6-315413号公報 特表2003-534095号公報 特開昭57-190506号公報 特開2005-152217号公報 特表平10-508765号公報 特開2000-116554号公報
 従来の電動歯ブラシでは、ブラッシングしている部位を精度よく推定することが困難であったため、大まかな区分での達成度表示しかできず、ブラッシングの評価指針としては有用性・信頼性が低かった。また、ブラッシングのガイドも、予め決められた通りに使用者を誘導することしかできず、柔軟性に欠けていた。
 本発明は、上記実情に鑑みてなされたものであって、その目的とするところは、電動歯ブラシの適切な使い方や正しいブラッシングを支援するための技術を提供することである。
 上記目的を達成するために本発明は、以下の構成を採用する。
 本発明の第1態様に係る電動歯ブラシは、ブラシと、前記ブラシを運動させる駆動手段と、加速度センサの出力に基づき前記ブラシの姿勢を検出する姿勢検出手段と、検出された姿勢に基づいて、歯列表面を区分することで定義される複数の部位の中からブラッシングされているブラッシング部位を推定する部位推定手段と、部位ごとにブラッシング時間を計測する時間計測手段と、計測されたブラッシング時間に基づいて、部位ごとのブラッシング結果を評価し出力する評価出力手段と、を備える。
 加速度センサの出力を利用することにより、高精度にブラシの姿勢を判定でき、従来よりも高精度かつ高分解能なブラッシング部位の同定が可能となる。したがって、従来よりも細かい区分(部位)でブラッシング結果を評価でき、有用かつ信頼性の高い評価指針を使用者に提供することが可能となる。しかも加速度センサは小型ゆえ、電動歯ブラシ本体への組み込みも容易である。1軸の加速度センサを用いることもできるし、好ましくは、多軸(2軸、3軸、それ以上)の加速度センサを用いることもできる。
 なお、本発明の構成のすべてを電動歯ブラシ本体に設ける必要はなく、構成の一部を、電動歯ブラシ本体とは別体の外部機器(たとえば歯ブラシの充電器、ホルダ、専用の表示器など)に設けても構わない。後者の場合、本発明の電動歯ブラシは、電動歯ブラシ本体と外部機器とから構成される。
 検出された姿勢に基づいて、歯軸に対する前記ブラシの角度であるブラシ角を推定するブラシ角推定手段をさらに備え、前記評価出力手段は、さらに、推定されたブラシ角に基づいて、部位ごとのブラッシング結果を評価し出力することが好ましい。
 適切でないブラシ角でブラッシングを行った場合、最適なブラシ角に比べて歯垢除去力が劣るため、所期のブラッシング効果が得られなかったり、ブラッシングに時間がかかったりする可能性がある。本発明の構成によれば、ブラシ角を考慮した評価が出力されるので、使用者に対して正しいブラシ角によるブラッシングを意識させることができる。
 ブラシ圧を検知するブラシ圧検知手段をさらに備え、前記評価出力手段は、さらに、検知されたブラシ圧に基づいて、部位ごとのブラッシング結果を評価し出力することが好ましい。
 適切でないブラシ圧でブラッシングを行った場合、歯垢除去力の低下、ブラシ寿命の低下、歯肉への負担増などの問題が生じる可能性がある。電動歯ブラシのブラシ圧は普通の歯ブラシよりも小さくてよいことから、電動歯ブラシを使いはじめたほとんどの人はブラシ圧超過の傾向にあるといわれている。本発明の構成によれば、ブラシ圧を考慮した評価が出力されるので、使用者に対して正しいブラシ圧によるブラッシングを意識させることができる。
 なお、ブラッシング時間、ブラシ角、ブラシ圧の各項目を個別に評価してもよいし、複数の項目を総合的に評価してもよい。
 推定されたブラシ角と予め決められたブラシ角の最適値とを比較して、ブラシ角が適切か否かを使用者に知らせるためのガイドを出力するブラシ角ガイド手段、をさらに備えることが好ましい。
 これにより、最適なブラシ角を使用者に理解させ、正しいブラッシングを学習させることができる。
 たとえば、前記ブラシ角ガイド手段は、ブラシ角が前記最適値であること、または、ブラシ角が前記最適値でないこと、を報知することが好ましい。
 これにより、使用者はブラシ角と最適値の一致(または乖離)を容易に認識することができる。報知の方法は、音、光、振動、音声などどのようなものでもよい。
 さらに、前記ブラシ角ガイド手段は、ブラシ角と前記最適値との差の大きさに応じて、報知のレベルを段階的に変化させることが好ましい。
 使用者は、報知のレベルの変化により、ブラシ角が最適値に近づいていることを把握できるため、ブラシ角を最適値に容易に一致させることができる。
 部位ごとのブラッシング結果に基づいて、ブラッシングが十分でない部位の中から次にブラッシングすべき部位を決定しガイドするブラッシング部位ガイド手段、をさらに備えることが好ましい。
 このようなガイドにより、磨き残しがなくかつ効率的なブラッシングが可能となる。すなわち、次にブラッシングすべき部位は、ブラッシングが十分でない部位の中から選ばれるため、磨き残しがなくなるし、同じ部位を重複してブラッシングするなどの無駄がなくなる。また、本発明では実際にブラッシングされている部位が同定されるため、たとえ使用者がガイドに従わずに別の部位をブラッシングした場合でも、ブラッシング結果の正しい記録・評価が可能であるとともに、ブラッシング順のガイドも適宜修正される。
 前記ブラッシング部位ガイド手段は、現在のブラッシング部位がブラッシングすべき部位と異なる場合に、ブラッシング部位の変更をガイドすることが好ましい。
 既にブラッシングが終了した部位を使用者が重複してブラッシングしようとした場合などに、ブラッシング部位の変更が促されるため、効率的なブラッシングが可能となる。
 また、本発明の第2態様に係る電動歯ブラシは、ブラシと、前記ブラシを運動させる駆動手段と、前記ブラシの姿勢を検出する姿勢検出手段と、検出された姿勢に基づいて、歯列表面を区分することで定義される複数の部位の中からブラッシングされているブラッシング部位を推定する部位推定手段と、検出された姿勢に基づいて、歯軸に対する前記ブラシの角度であるブラシ角を推定するブラシ角推定手段と、推定されたブラシ角と前記ブラッシング部位におけるブラシ角の最適値とを比較して、ブラシ角が適切か否かを使用者に知らせるためのガイドを出力するブラシ角ガイド手段と、を備える。ここで、前記ブラシ角ガイド手段は、ブラシ角が前記最適値であること、または、ブラシ角が前記最適値でないこと、を報知することが好ましい。また、前記ブラシ角ガイド手段は、ブラシ角と前記最適値との差の大きさに応じて、報知のレベルを段階的に変化させることが好ましい。
 なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
 本発明は、電動歯ブラシの適切な使い方や正しいブラッシングを支援することができる。
図1は第1実施形態の電動歯ブラシのブロック図である。 図2は第1実施形態の電動歯ブラシの内部構成を示す断面図である。 図3は電動歯ブラシの外観を示す斜視図である。 図4はブラッシング部位の区分を示す図である。 図5は第1実施形態のブラッシング評価処理のメインルーチンを示すフローチャートである。 図6は第1実施形態の姿勢検出処理のフローチャートである。 図7は第1実施形態のブラッシング部位推定処理(上顎)のフローチャートである。 図8は第1実施形態のブラッシング部位推定処理(下顎)のフローチャートである。 図9は上顎のブラッシング部位ごとの加速度センサ出力Ax、Ay、Azの一例を示す図である。 図10は下顎のブラッシング部位ごとの加速度センサ出力Ax、Ay、Azの一例を示す図である。 図11はブラッシング情報の一例を示す図である。 図12はブラシ角を説明する図である。 図13はブラシ角の変化にともなうセンサ出力の波形変化を示す図である。 図14はブラッシング結果(ブラッシング時間)の出力例を示す図である。 図15はブラッシング結果(ブラシ角)の出力例を示す図である。 図16はブラッシング結果(ブラシ圧)の出力例を示す図である。 図17はブラッシング結果(ブラッシング指標)の出力例を示す図である。 図18は第2実施形態のブラッシング評価処理のメインルーチンを示すフローチャートである。 図19は第3実施形態のブラシ角推定処理のフローチャートである。 図20はブラシ角に応じて報知音が変化する例を示す図である。 図21は第4実施形態のブラッシング評価処理のメインルーチンを示すフローチャートである。 図22は図21のフローチャートの変形例である。 図23は第5実施形態の電動歯ブラシのブロック図である。 図24は第5実施形態の充電器の外観を示す斜視図である。 図25は第6実施形態のブラッシング評価処理のメインルーチンを示すフローチャートである。 図26は第7実施形態の電動歯ブラシのブラシ部分を示す斜視図である。 図27は第7実施形態のブラッシング部位推定処理(上顎)のフローチャートである。 図28は第7実施形態のブラッシング部位推定処理(下顎)のフローチャートである。 図29は加速度センサ出力のノイズ低減について説明する図である。 図30は電動歯ブラシの姿勢角の定義を示す図である。 図31は第8実施形態の電動歯ブラシのブラシ部分を示す斜視図である。 図32は第9実施形態の姿勢検出を説明する図である。 図33は第10実施形態の電動歯ブラシのブラシ部分を示す図である。 図34はブラッシング部位と光センサ出力との関係を示す表である。 図35は第10実施形態のブラッシング部位推定処理のフローチャートである。
 以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。
 (第1実施形態)
 <電動歯ブラシの構成>
 図1、図2、図3を参照して、電動歯ブラシの構成を説明する。図1は第1実施形態の電動歯ブラシのブロック図であり、図2は第1実施形態の電動歯ブラシの内部構成を示す断面図であり、図3は電動歯ブラシの外観を示す斜視図である。
 電動歯ブラシは、駆動源であるモータ10を内蔵する電動歯ブラシ本体1(以下、単に「本体1」ともいう。)と、ブラシ210を有する振動部材2とを備えている。本体1は、概ね円筒形状を呈しており、歯を磨く際に使用者が手で握るためのハンドル部を兼ねている。さらに、本実施形態の電動歯ブラシは、本体1を載置・充電するための充電器100と、ブラッシング結果を出力するための表示器110と、を備えている。
 本体1には、電源のオン/オフおよび動作モードの切り替えを行うためのスイッチSが設けられている。また本体1の内部には、駆動源であるモータ10、駆動回路12、2.4V電源である充電池13、充電用のコイル14などが設けられている。充電池13を充電する際には、充電器100に本体1を載置するだけで、電磁誘導により非接触で充電可能である。駆動回路12は、各種演算・制御を実行するCPU(入出力処理部)120、プログラムや各種設定値を記憶するメモリ121、タイマ122、データ送信部123などを有している。データ送信部123は、表示器110のデータ受信部112との間で無線通信を行うための通信手段である。表示器110は、データ受信部112で受信したブラッシング結果などのデータを出力するためのディスプレイ111を備えている。
 さらに本体1の内部には、多軸(ここではx,y,zの三軸)の加速度センサ15が設けられる。加速度センサ15は、図3に示すように、x軸がブラシ面に対して平行になり、y軸が本体1の長手方向に一致し、z軸がブラシ面に対して垂直になるように設置される。つまり、本体1を充電器100に載置したときに、重力加速度ベクトルがy軸に平行になり、ブラシ面を上に向けたときに、重力加速度ベクトルがz軸に平行になり、本体1を水平にしてブラシ面を横に向けたときに、重力加速度ベクトルがx軸に平行になる。加速度センサ15の各軸の出力はCPU120に入力され、ブラシの三次元姿勢を検出するために利用される。
 加速度センサ15としては、ピエゾ抵抗タイプ、静電容量タイプ、もしくは熱検知タイプのMEMSセンサを好ましく利用できる。MEMSセンサは非常に小型であるため、本体1の内部への組み込みが容易だからである。ただし、加速度センサ15の形式はこれに限らず、動電式、歪みゲージ式、圧電式などのセンサを利用しても構わない。また特に図示しないが、各軸のセンサの感度のバランス、感度の温度特性、温度ドリフトなどを補正するための補正回路を設けるとよい。また、動加速度成分やノイズを除去するためのバンドパスフィルタ(ローパスフィルタ)を設けてもよい。また、加速度センサの出力波形を平滑化することによりノイズを低減してもよい。図29は、前後数100msecのデータを平均化することで、出力波形の高周波ノイズを低減した例である。
 また、本体1の内部には、ブラシ圧(ブラシに作用する荷重)を検知する荷重センサ(ブラシ圧検知手段)17を備えている。荷重センサ17としては、ストレインゲージ、ロードセル、圧力センサなどどのようなタイプのものも利用可能であるが、小型で本体1への組み込みが容易であるという理由からMEMSセンサを好適に用いることができる。
 振動部材2は、本体1側に固定されているステム部20と、このステム部20に装着されるブラシ部品21とを備える。ブラシ部品21の先端にはブラシ210が植毛されている。ブラシ部品21は消耗部品ゆえ、新品に交換できるよう、ステム部20に対して着脱自在な構成となっている。
 ステム部20は、樹脂材からなる。ステム部20は、エラストマからなる弾性部材202を介して本体1に取り付けられている。ステム部20は、先端(ブラシ側の端部)が閉じた筒状の部材であり、筒の内部の先端に軸受203を有している。モータ10の回転軸11に連結された偏心軸30の先端が、ステム部20の軸受203に挿入される。この偏心軸30は、軸受203の近傍に重り300を有しており、偏心軸30の重心はその回転中心からずれている。なお、偏心軸30の先端と軸受203の間には微小なクリアランスが設けられている。
 <電動歯ブラシの駆動原理>
 CPU120が動作モードに応じた駆動信号(たとえばパルス幅変調信号)をモータ10に供給し、モータ10の回転軸11を回転させる。回転軸11の回転に伴って偏心軸30も回転するが、偏心軸30は重心がずれているために回転中心の回りに旋回するような運動を行う。よって、偏心軸30の先端が軸受203の内壁に対して衝突を繰り返し、ステム部20とそれに装着されたブラシ部品21とを高速に振動(運動)させることとなる。つまり、モータ10が、ブラシを振動(運動)させる駆動手段の役割を担い、偏心軸30が、モータ10の出力(回転)を振動部材2の振動に変換する運動伝達機構(運動変換機構)の役割を担っている。
 使用者は、本体1を手で持ち、高速に振動するブラシ210を歯に当てることで、ブラッシングを行うことができる。なお、CPU120はタイマ122を用いて継続動作時間を監視しており、所定時間(たとえば2分間)が経過したら自動的にブラシの振動を停止させる。
 本実施形態の電動歯ブラシでは、運動伝達機構である偏心軸30が振動部材2に内包され、特に重り300がブラシ210の近傍に配置されている。よって、ブラシ210の部分を効率的に振動させることができる。その一方で、振動部材2(ステム部20)が弾性部材202を介して本体1に取り付けられているので、振動部材2の振動が本体1に伝わり難くなっている。よって、歯を磨く際の本体1および手の振動を低減でき、使用感の向上を図ることができる。
 <電動歯ブラシの動作>
 歯の種類(上顎/下顎、臼歯/切歯など)や部分(舌側/頬側、歯面/噛み合わせ面など)によって、食物残渣や歯垢の付き方が異なる。よって、たとえばブラシの当て方(ブラシ角やブラシ圧)、動かし方、スピード、ブラッシング時間など、歯列の部位ごとに効果的なブラッシング動作に違いがある。それゆえ、適切なブラッシングが行われているかどうかの評価は、部位ごとに行うことが望ましい。
 そこで、本実施形態の電動歯ブラシは、加速度センサ15で検出されたブラシの姿勢に基づいてブラッシング部位を精度よく推定することにより、部位ごとのブラッシング評価を実現する。評価項目は種々考えられるが、ここではブラッシング時間、ブラシ角、ブラシ圧の3項目についての評価を行う。
 本実施形態では、図4に示すように、上下の歯列を、「上顎前頬側」、「上顎前舌側」、「上顎左頬側」、「上顎左舌側」、「上顎右頬側」、「上顎右舌側」、「下顎前頬側」、「下顎前舌側」、「下顎左頬側」、「下顎左舌側」、「下顎右頬側」、「下顎右舌側」、の12箇所の部位に区分する。ただし、歯列の区分はこれに限らず、もっと大まかな区分でもよいし、より細かい区分でもよい。たとえば、上下左右の噛み合わせ面を考慮してもよい。
 図5~図8のフローチャートを参照して、ブラッシング評価のフローを具体的に説明する。図5はメインルーチンのフローチャートであり、図6~図8はメインルーチンの各処理の詳細を示すフローチャートである。なお、以下に説明する処理は、特にことわりのない限り、CPU120がプログラムに従って実行する処理である。
 電動歯ブラシの電源がONになると、CPU120は、加速度センサ15の出力に基づきブラシの姿勢(傾き)を検出する(S10)。次に、CPU120は、S10で検出された姿勢に基づいてブラッシング部位を推定する(S20)。次に、CPU120は、ブラッシング時間の計測(S30)、ブラシ角の推定(S40)、ブラシ圧の検知(S50)を行う。これらの情報は、部位別にメモリに記録される(図11参照)。S10~S50の処理は一定時間ごとに繰り返し実行される。電源がOFFになるか、継続動作時間が所定時間(たとえば2分間)に達すると、CPU120は、メモリに記録されたブラッシング情報(ブラッシング時間、ブラシ角、ブラシ圧)に基づいて、部位ごとのブラッシング結果を評価し、その評価結果を表示部110に出力する(S60)。なお、メモリ内のブラッシング情報は、電動歯ブラシの電源がONになるたびにクリアされる。
 以下、S10~S60の処理を詳しく説明する。
 <姿勢の検出>
 図6は姿勢検出処理(S10)のフローチャートである。
 CPU120は、加速度センサ15からx、y、zそれぞれの出力Ax、Ay、Azを取得する(S100)。Axはx方向の加速度成分、Ayはy方向の加速度成分、Azはz方向の加速度成分を表す。歯ブラシが静止状態にあるとき(加速度センサ15に動加速度が作用していないとき)は、Ax、Ay、Azの合成ベクトルAが重力加速度に相当する。ここでは、A=(Ax、Ay、Az)を姿勢ベクトルとよぶ。
 ここで、姿勢ベクトルA=(Ax、Ay、Az)の大きさが1.2g(gは重力加速度)より大きい場合は(S101;YES)、エラーを返す(S102)。加速度センサ出力に動加速度成分が多く含まれていると、重力加速度の方向(つまりブラシの三次元姿勢)を正確に特定するのが難しくなるからである。なお、S102のようにエラーを返すのではなく、合成ベクトルの大きさが1.2g以下となる加速度センサ出力Ax、Ay、Azが得られるまでS100とS101の処理を繰り返すようにしてもよい。なお、エラー判定のしきい値は1.2gに限らず、他の値でもよい。
 <ブラッシング部位の推定>
 図7、図8はブラッシング部位推定処理(S20)のフローチャートである。また図9、図10は、ブラッシング部位ごとの加速度センサ出力Ax、Ay、Azの一例を示す図である。
 まずCPU120は、z方向の加速度センサの出力Azに基づき、上顎か下顎かを判定する(S700)。上顎の歯列をブラッシングするときはブラシ面が少なからず上向きになり、下顎の歯列をブラッシングするときはブラシ面が少なからず下向きになることに着目した判定である。Az>0の場合は下顎(S801)、Az≦0の場合は上顎(S701)と判定される。
 (1)上顎の場合
 CPU120は、y方向の加速度センサの出力Ayに基づいて前歯か否かを判定する(S702)。前歯をブラッシングするときは歯ブラシ本体1が比較的水平になるが、臼歯をブラッシングするときは唇との干渉があるため歯ブラシ本体1が斜めにならざるをえないことに着目した判定である。Ay≦閾値aの場合は上顎前歯と判定される(S703)。
 上顎前歯と判定した場合、CPU120は、x方向の加速度センサの出力Axに基づいて頬側か舌側かを判定する(S704)。頬側と舌側とではブラシの向きが反転することに着目した判定である。Ax>0の場合は「上顎前頬側」と判定され(S705)、Ax≦0の場合は「上顎前舌側」と判定される(S706)。
 一方、S702で上顎前歯でないと判定した場合、CPU120は、x方向の加速度センサの出力Axに基づいてブラシの向きを判定する(S707)。Ax>0の場合は「上顎右頬側または上顎左舌側」と判定され(S708)、Ax≦0の場合は「上顎左頬側または上顎右舌側」と判定される(S712)。
 加速度センサの出力のみでは、上顎右頬側と上顎左舌側の区別、および、上顎左頬側と上顎右舌側の区別は難しい。そこでCPU120は、前回の処理(1クロック前の処理)で判定されたブラッシング部位に基づき、部位の絞り込みを行う(S709、S713)。具体的には、S709において、前回のブラッシング部位が「上顎前頬側、上顎右頬側、上顎右舌側、下顎前頬側、下顎右頬側、下顎右舌側」のいずれかであれば、現在のブラッシング部位は「上顎右頬側」であると推定し(S710)、前回のブラッシング部位が「上顎前舌側、上顎左頬側、上顎左舌側、下顎前舌側、下顎左頬側、下顎左舌側」のいずれかであれば、現在のブラッシング部位は「上顎左舌側」であると推定する(S711)。S713においては、前回のブラッシング部位が「上顎前頬側、上顎左頬側、上顎左舌側、下顎前頬側、下顎左頬側、下顎左舌側」のいずれかの場合は、現在のブラッシング部位が「上顎左頬側」であると推定し(S714)、前回のブラッシング部位が「上顎前舌側、上顎右頬側、上顎右舌側、下顎前舌側、下顎右頬側、下顎右舌側」のいずれかであれば、現在のブラッシング部位は「上顎右舌側」であると推定する(S715)。このような推定が成り立つのは、ブラシの移動量や向き変更がなるべく少なくなるようにブラッシング部位の移動が行われる蓋然性が高いからである。
 (2)下顎の場合
 CPU120は、y方向の加速度センサの出力Ayに基づいて前歯か否かを判定する(S802)。前歯をブラッシングするときは歯ブラシ本体1が比較的水平になるが、臼歯をブラッシングするときは唇との干渉があるため歯ブラシ本体1が斜めにならざるをえないことに着目した判定である。Ay≦閾値bの場合は下顎前歯と判定される(S803)。
 下顎前歯と判定した場合、CPU120は、x方向の加速度センサの出力Axに基づいて頬側か舌側かを判定する(S804)。頬側と舌側とではブラシの向きが反転することに着目した判定である。Ax<0の場合は「下顎前頬側」と判定され(S805)、Ax≧0の場合は「下顎前舌側」と判定される(S806)。
 一方、S802で下顎前歯でないと判定した場合、CPU120は、x方向の加速度センサの出力Axに基づいてブラシの向きを判定する(S807)。Ax>0の場合は「下顎右頬側または下顎左舌側」と判定され(S808)、Ax≦0の場合は「下顎左頬側または下顎右舌側」と判定される(S812)。
 S809において、前回のブラッシング部位が「下顎前頬側、下顎右頬側、下顎右舌側、下顎前頬側、上顎右頬側、上顎右舌側」のいずれかであれば、現在のブラッシング部位は「下顎右頬側」であると推定し(S810)、前回のブラッシング部位が「下顎前舌側、下顎左頬側、下顎左舌側、上顎前舌側、上顎左頬側、上顎左舌側」のいずれかであれば、現在のブラッシング部位は「下顎左舌側」であると推定する(S811)。S813においては、前回のブラッシング部位が「下顎前頬側、下顎左頬側、下顎左舌側、上顎前頬側、上顎左頬側、上顎左舌側」のいずれかの場合は、現在のブラッシング部位が「下顎左頬側」であると推定し(S814)、前回のブラッシング部位が「下顎前舌側、下顎右頬側、下顎右舌側、上顎前舌側、上顎右頬側、上顎右舌側」のいずれかであれば、現在のブラッシング部位は「下顎右舌側」であると推定する(S815)。
 以上の処理によって、現在のブラッシング部位が、「上顎前頬側」(S705)、「上顎前舌側」(S706)、「上顎右頬側」(S710)、「上顎左舌側」(S711)、「上顎左頬側」(S714)、「上顎右舌側」(S715)、「下顎前頬側」(S805)、「下顎前舌側」(S806)、「下顎右頬側」(S810)、「下顎左舌側」(S811)、「下顎左頬側」(S814)、「下顎右舌側」(S815)のいずれかに特定される。
 なお、上記判定アルゴリズムはあくまでも一例を示したものにすぎず、加速度センサの出力Ax、Ay、Azからブラッシング部位を特定できるのであればどのような判定アルゴリズムでも構わない。たとえばAx、Ay、Azの値をそのまま判定の変数として用いるのでなく、Ax、Ay、Azを適宜組み合わせることで得られる2次変数を判定に用いてもよい。2次変数は、たとえば、Ay/Az、Ax・Ax+Ay・Ay、Az-Axなど、任意に設定できる。あるいは、各軸の加速度情報Ax、Ay、Azを、図30に示すように角度情報(姿勢角)α、β、γに変換した後で、ブラッシング部位を判定してもよい。図30の例では、重力加速度方向に対するx軸の角度をロール角α、重力加速度方向に対するy軸の角度をピッチ角β、重力加速度方向に対するz軸の角度をヨー角γのように定義している。判定に用いる閾値は臨床実験等の結果から決定することができる。
 <ブラッシング時間の計測>
 図11は、メモリに記録されているブラッシング情報の一例を示している。図11は、下顎左頬側をブラッシングしている状態の例である。下顎左頬側よりも前に、上顎前頬側が7.5秒間ブラッシングされ、上顎左頬側が12.2秒間ブラッシングされている。なお「-」はデータが記録されていないこと、つまりその部位がまだブラッシングされていないことを表している。
 S30において、CPU120は、S20で推定されたブラッシング部位(図11の例では下顎左頬側)のブラッシング時間をカウントアップする。たとえば、図6のS10~S50の処理が0.1秒に1回実行されるのであれば、下顎左頬側のブラッシング時間が+0.1だけカウントアップされ、2.1秒となる。
 なおブラッシング情報には、ブラッシング時間の累積値が記録される。すなわち、たとえばブラッシング部位が再び上顎左頬側に移った場合には、メモリされているブラッシング時間がリセットされるのではなく、メモリされている値12.2秒にブラッシング時間が加算されていく。
 <ブラシ角の推定>
 S40において、CPU120は、S10で検出された姿勢(加速度センサの出力)に基づいてブラシ角を推定し、現在のブラッシング部位(図11の例では下顎左頬側)のブラシ角の値を更新する。このとき、CPU120はメモリされているブラシ角の値と今回の推定値とから、ブラシ角の平均値を算出して記録することが好ましい。
 ブラシ角とは、歯軸(歯の頭と根に沿った軸)に対するブラシの当たり角である。図12の上段がブラシ角=15度の状態、中段がブラシ角=45度の状態、下段がブラシ角=90度の状態を示している。歯周ポケットや歯間から食物残渣や歯垢を効果的に掻き出すには、ブラシの毛先が歯周ポケットや歯間に入り込むようにブラシを動かすとよい。したがって、ブラシ角は35度~55度の範囲が好ましい。
 ブラシ角は、たとえば、z方向の加速度成分Azから推定可能である。図13に示すように、ブラシ角が約90度の場合はAzはほとんど0を示し、ブラシ角が小さくなるほどAzの値が大きくなる、というようにブラシ角に応じてAzの値が有意に変化するからである。なお、ブラシ角に応じてx方向の加速度成分Axも変化するため、Azの代わりにAxからブラシ角を推定したり、AxとAzの両方(AxとAzの合成ベクトルの方向)からブラシ角を推定することも好ましい。ブラシ角は連続量で算出してもよいし、「35度未満」「35度~55度」「55度以上」のような大まかな推定でもよい。
 <ブラシ圧の検知>
 S50において、CPU120は、荷重センサ17の出力に基づいてブラシ圧を算出し、現在のブラッシング部位(図11の例では下顎左頬側)のブラシ圧の値を更新する。このとき、CPU120はメモリされているブラシ圧の値と今回の検出値とから、ブラシ圧の平均値を算出して記録することが好ましい。
 ブラシ圧が小さすぎると歯垢除去力が低下し、逆に高すぎるとブラシ寿命の低下や歯肉への負担増などの問題が生じる可能性がある。電動歯ブラシのブラシ圧は普通の歯ブラシよりも小さくてよいことから、電動歯ブラシを使いはじめたほとんどの人はブラシ圧超過の傾向にあるといわれている。ブラシ圧の最適値は100g程度である。
 <ブラッシング結果の評価・出力>
 CPU120は、メモリ121に記録されたブラッシング情報に基づいて、部位ごとのブラッシング結果を評価し、その評価結果を表示部110(ディスプレイ111)に出力する。
 図14は、ブラッシング時間の評価結果の出力例である。CPU120は、メモリ121から各部位のブラッシング時間を読み込み、たとえば、7秒未満を「不足」、7秒~15秒を「良好」、15秒超を「過剰」と評価する。その評価結果は表示器110に送信される。表示器110のディスプレイ111には歯列が描画されており、その歯列中の該当部位が評価結果に応じた色(「不足」は白色、「良好」は黄色、「過剰」は赤色など)で点灯する。このような表示をみることで、使用者は歯列中のどの部位のブラッシングが不足しているか(あるいは過剰であったか)を直感的に把握できる。
 図15は、ブラシ角の評価結果の出力例である。たとえば、「35度未満」、「35度~55度」、「55度以上」の三段階で評価され、歯列中の各部位が評価結果に応じた色で点灯する。適切でないブラシ角でブラッシングを行った場合、最適なブラシ角に比べて歯垢除去力が劣るため、所期のブラッシング効果が得られなかったり、ブラッシングに時間がかかったりする可能性がある。図15のように部位別にブラシ角の評価を出力すれば、使用者に対して正しいブラシ角によるブラッシングを意識させることができる。
 図16は、ブラシ圧の評価結果の出力例である。たとえば、80g未満は「不足」、80g~150gは「良好」、150g超は「過大」と評価され、歯列中の各部位が評価結果に応じた色で点灯する。上述のようにブラシ圧が適切でないと、歯垢除去力の低下、ブラシ寿命の低下、歯肉への負担増などの問題が生じる可能性がある。とはいえ、使用者にとっては、どれくらいの力を加えたときに最適なブラシ圧なのかを理解するのは難しい。その点、図16のように部位別にブラシ圧の評価を出力すれば、使用者に対して適切なブラシ圧を教示できるとともに、正しいブラシ圧によるブラッシングを意識させることができる。
 図17は、ブラッシング指標の評価結果の出力例である。ブラッシング指標とは、複数の評価項目(ブラッシング時間、ブラシ角、ブラシ圧)を総合的に評価するための指標であり、ブラッシングの達成度を表すものである。ブラッシング指標の算出式はどのように定義してもよい。本実施形態では、ブラッシング時間とブラシ圧をそれぞれ35点満点で評価し、ブラシ角を30点満点で評価して、それらの評価値の合計(100点満点)をブラッシング指標として用いる。図17の例では、80点以上を「優」、60点~80点を「良」、60点未満を「不可」としている。このような総合評価を出力することで、使用者に対してより有益な指針を与えることができる。
 以上述べた本実施形態の構成によれば、加速度センサの出力を利用することにより、高精度にブラシの姿勢を判定でき、従来よりも高精度かつ高分解能なブラッシング部位の同定が可能となる。したがって、従来よりも細かい区分(部位)でブラッシング結果を評価でき、有用かつ信頼性の高い評価指針を使用者に提供することが可能となる。しかも加速度センサは小型ゆえ、電動歯ブラシ本体への組み込みも容易であるという利点もある。
 なお、図14~図17の評価結果は、ディスプレイ111上に同時に表示してもよいし、順番に表示してもよい。後者の場合、表示の切り替えは自動で行われてもよいし、使用者のボタン操作により行われてもよい。
 また上記実施形態では、歯ブラシの電源がオフになると自動的に結果が表示される。しかし、表示器の設置場所とは異なる場所で歯磨きが行われることも想定されるため、たとえば、使用者が表示器または歯ブラシ本体に設けられたボタンを押すと、歯ブラシ本体から表示器にブラッシング情報が送信され、表示器に結果が表示されるような機能を設けることも好ましい。
 メモリに蓄積されたブラッシング情報や評価結果を印刷できるとよい。たとえば充電器や表示器にプリンタを搭載してもよいし、歯ブラシ本体や充電器や表示器から外部のプリンタに印刷データを送信できるようにしてもよい。またブラッシング情報や評価結果のデータを無線通信もしくは有線通信により外部機器(パーソナルコンピュータ、携帯電話、PDAなど)に転送する機能も好ましい。また歯ブラシ本体、充電器、表示器などにメモリカードスロットを設け、ブラッシング情報や評価結果のデータを外部メモリカードに記録できるようにしてもよい。
 また、ブラッシング時間、ブラシ角、ブラシ圧の最適値(目標値)を部位ごとに異なる値を設定できるようにしてもよい。たとえば、臼歯の歯面(側面)では、ブラシの毛先で歯周ポケットや歯間から食物残渣や歯垢を効果的に掻き出すために、35度~55度のブラシ角が好ましいが、歯面が比較的大きい前歯ではそれよりも大きい角度(たとえば55度~90度)が好ましい。また臼歯の噛み合わせ面に対しては、ブラシ角は約0度がよい。さらに、刷掃効果の観点からではなく、歯肉などの組織にダメージを与えることを避けるという観点から、最適なブラッシング時間、ブラシ角、ブラシ圧を決定することもできる。このように部位ごとに最適値を設定し、評価を行えば、より有用かつ信頼性の高い評価指針の提供が可能となる。
 (第2実施形態)
 図18は第2実施形態のブラッシング評価処理のフローチャートである。第1実施形態では、ブラッシング終了後にブラッシング結果を出力したのに対し、第2実施形態では、ブラッシング中にも途中結果を出力する(S55)。その他の構成については第1実施形態のものと同様である。
 本実施形態の処理によれば、ブラッシング時間やブラッシング指標(達成度)の進み具合をリアルタイムに確認しながらブラッシングを行うことができるため、利便性が向上する。また、ブラシ角やブラシ圧の評価結果を確認することで、利用者はブラシ角やブラシ圧が適切か否かを判断できる。なお、第2実施形態では、ブラシ角の途中結果を出力する機能が、本発明のブラシ角ガイド手段に対応する。
 (第3実施形態)
 図19は第3実施形態のブラシ角推定処理(図5のS40)のフローチャートである。本実施形態では、CPU120が、ブラシ角を推定した後、必要に応じてブラシ角が適切か否かを使用者に知らせるためのガイドを出力する。
 CPU120は、まず、加速度センサから得られる姿勢ベクトルA(とくにz方向の加速度成分Az)に基づいて、ブラシ角を推定する(S1900)。そして、CPU120は、S20で推定された現在のブラッシング部位のブラシ角の値を更新する(S1901)。このとき、CPU120はメモリされているブラシ角の値と今回の推定値とから、ブラシ角の平均値を算出して記録することが好ましい。
 次に、CPU120は、ブラシ角の推定値と、現在のブラッシング部位におけるブラシ角の最適値とを比較する(S1902)。たとえば、ブラシ角の最適値が「35度~55度」であると仮定する。もしブラシ角の推定値がその範囲内に入っていた場合は(S1903;YES)、レベル1の報知(ガイド)を出力する(S1904)。ブラシ角の推定値と最適値との差が15度以内(つまり、20度~35度または55度~70度)である場合は(S1905;YES)、レベル2の報知を出力する(S1906)。推定値と最適値との差が30度以内(つまり、5度~20度または70度~85度)である場合は(S1907;YES)、レベル3の報知を出力する(S1908)。差が30度より大きい場合は報知を行わない(S1907;NO)。
 図20は、ブラシ角に応じて報知音が変化する例を示している。ブラシ角が90度の状態では何も報知されない。ブラシを徐々に回転していくと、ブラシ角が85度になった時点で「ピッ」とレベル3の報知音が出力される。さらにブラシを回転すると、ブラシ角が70度になった時点で「ピッピッ」とレベル2の報知音が出力され、最適値の55度になった時点で「ピッピッピッ」とレベル1の報知音が出力される。
 使用者は、このような報知音の変化により、ブラシ角が最適値に近づいていることを把握できるため、ブラシ角を最適値に容易に一致させることができる。また操作が直感的で楽しいため、子供などに正しいブラシ角を教えるための学習器具としても有用である。
 なお、報知の方法は、音以外にも、光、振動、音声などを用いることができる。光の場合は、レベルに応じて色を変えたり点滅パターンを変えたりすればよい。振動の場合は、レベルに応じて振動の強さや長さを変えたりすればよい。音声の場合は、たとえば、「あと30度くらい傾けて下さい」「もう少し傾けてください」「最適なブラシ角です」のような内容を報知するとよい。
 また、本実施形態では、ブラシ角が最適値であることを報知するようにしたが、逆に、ブラシ角が最適値であるときは何も報知せず、ブラシ角が最適値から離れると報知(警告)を出力するようにしてもよい。
 (第4実施形態)
 図21は第4実施形態のブラッシング評価処理のフローチャートである。第2実施形態と異なる点は、部位ごとのブラッシング結果に基づいて次にブラッシングすべき部位を決定しガイドする処理(S56、S57)が追加されている点である。その他の構成については第2実施形態のものと同様である。
 S10~S55の処理において現在のブラッシング部位のブラッシング結果が更新されると、CPU120は、現在のブラッシング部位に関してブラッシング目標が達成されたかどうかを判定する(S56)。たとえば、ブラッシング時間が10秒に達したか否かや、ブラッシング指標が80点を超えたか否か、などで目標達成か未達かを判定すればよい。目標未達の場合は(S56;NO)、現在のブラッシング部位のブラッシングを継続すべきなので、S10の処理に戻る。目標達成の場合は(S56;YES)、現在のブラッシング部位のブラッシングは完了し、別の部位に移るべきなので、S57の処理に進む。
 S57において、CPU120は、各部位のブラッシング結果を参照して、目標未達部位(つまりブラッシングが十分でない部位)を選択する。目標未達部位が複数存在する場合には、現在のブラッシング部位からの移動が容易な部位を次にブラッシングすべき部位に決定する。一般に、一筆書きの要領でブラシを順に移動させると、磨き残し防止に効果的であるといわれている。そこで、たとえば「上顎左頬側→上顎前頬側→上顎右頬側→下顎右頬側→下顎前頬側→下顎左頬側→下顎左舌側→下顎前舌側→下顎右舌側→上顎右舌側→上顎前舌側→上顎左舌側」のように一筆書きのブラッシング順を定義するパターンデータを予め用意しておき、このブラッシング順に従って次のブラッシング部位を決定するとよい。そして、CPU120は、決定した次のブラッシング部位を表示器110に表示する。たとえば、歯列中の該当部位を点滅させたり、所定の色で点灯させたりすればよい。
 このようなガイドにより、磨き残しがなくかつ効率的なブラッシングが可能となる。すなわち、次にブラッシングすべき部位は、ブラッシングが十分でない部位の中から選ばれるため、磨き残しがなくなるし、同じ部位を重複してブラッシングするなどの無駄がなくなる。また、本実施形態の歯ブラシでは実際にブラッシングされている部位が同定されるため、たとえ使用者がガイドに従わずに別の部位をブラッシングした場合でも、ブラッシング結果の正しい記録・評価が可能であるとともに、ブラッシング順のガイドも適宜修正される。
 なお、使用者がガイド通りの部位をブラッシングしているかどうかをCPU120が判定することもできる。たとえば図22のフローチャートに示すように、現在のブラッシング部位を推定した後に(S20)、CPU120が、現在のブラッシング部位が適切か否かを判定し(S25)、ブラッシングすべき部位と異なる場合には(S25;NO)、ブラッシング部位の変更をガイドすればよい(S57)。既にブラッシングが終了した部位を使用者が重複してブラッシングしようとした場合などに、ブラッシング部位の変更が促されるため、効率的なブラッシングが可能となる。
 (第5実施形態)
 図23は第5実施形態の電動歯ブラシのブロック図である。本実施形態の電動歯ブラシは、本体1の内部に多軸(ここでは3軸)のジャイロスコープ16を備えている。また、ディスプレイ111とデータ受信部112が充電器100に設けられている。図24は第5実施形態の充電器100の外観を示す斜視図である。なおディスプレイ111は液晶パネルで構成してもよいし、LEDなどの発光素子で構成してもよい。
 ジャイロスコープ16は、z軸周りの角速度、x軸周りの角速度、y軸周りの角速度を検出可能なように設置されている。ジャイロスコープ16としては、振動式、光学式、機械式などどのようなタイプのものも利用可能であるが、小型で本体1への組み込みが容易であるという理由からMEMSセンサを好適に用いることができる。なお、角速度を出力するレートジャイロではなく、角度を出力するレート積分ジャイロや姿勢ジャイロを利用しても構わない。またブラシの振動によるノイズ(たとえばブラシの駆動周波数である100Hz~300Hz程度の周波数成分)を除去するために、ジャイロスコープの出力にバンドパスフィルタをかけてもよい。
 歯ブラシ本体1が静止状態にあるとき(たとえば、一つのブラッシング部位にブラシを当て続けている状態のとき)は、加速度センサ15の出力には実質的に重力加速度成分しか含まれない。この場合は、ブラシの三次元姿勢を正確に検出できるため、ブラッシング部位やブラシ角を精度よく推定することが可能である。しかし、歯ブラシ本体1が移動状態にあるとき(たとえば、あるブラッシング部位から他のブラッシング部位へとブラシが移動するとき)は、加速度センサ15の出力に、重力加速度成分だけでなく動加速度成分が含まれ得る。動加速度成分は三次元姿勢を算出する上では不要な信号成分(ノイズ)となる。一方、ジャイロスコープ16の出力は、歯ブラシ本体1が静止状態にあるときは観測されず、歯ブラシ本体1が移動しているときのみ有意な信号が出力される。このようなセンサ特性の差を利用し、本実施形態では、加速度センサ15とジャイロスコープ16の両方の出力に基づいて、歯ブラシの三次元姿勢の検出を行う。
 具体的には、姿勢検出処理(S10)において、CPU120はまず加速度センサ15の出力とジャイロスコープ16の出力を得る。ジャイロスコープ16の出力の絶対値が所定の閾値より小さいときには、CPU120は、歯ブラシ本体1が静止しているものとみなし、加速度センサ15の出力Ax、Ay、Azから三次元姿勢を求める。いずれかの軸のジャイロスコープ16の出力の絶対値が所定の閾値以上となったときには、CPU120は、ジャイロスコープ16の出力からx、y、z各方向の動加速度成分を推定し、Ax、Ay、Azの値を補正する。これにより、Ax、Ay、Azに含まれる動加速度成分がキャンセルされ、ブラシの三次元姿勢を精度良く算出することができる。
 なお、ジャイロスコープの出力を用いて加速度センサの出力を補正するのではなく、ジャイロスコープの出力が得られた場合にブラシの姿勢検出を行わない、という処理でも構わない。つまり、ジャイロスコープの出力が所定の閾値より小さいときのみ、姿勢検出、ブラッシング部位推定、ブラッシング時間計測、ブラシ角推定、ブラシ圧検知などの処理を行うのである。これにより、加速度センサの出力から推定した姿勢がある程度の信頼性を有しているときのみ、ブラッシング結果の記録・評価が実行されるようになる。
 また、ジャイロスコープの出力から、x軸周りの角度変化量Δθyz、y軸周りの角度変化量Δθzx、z軸周りの角度変化量Δθxyを算出し、1クロック前の姿勢検出処理で得られた姿勢ベクトルA´=(Ax´、Ay´、Az´)を角度(Δθyz、Δθzx、Δθxy)だけ回転することにより、現在の姿勢ベクトルA=(Ax、Ay、Az)を算出してもよい。また、加速度情報Ax、Ay、Azではなく、ロール角α、ピッチ角β、ヨー角γの角度情報(図30参照)により、電動歯ブラシの姿勢を算出・評価してもよい。
 以上述べた本実施形態の構成によれば、加速度センサとジャイロスコープの出力を組み合わせること(条件に応じて加速度センサとジャイロスコープの出力のいずれかを選択することを含む)により、電動歯ブラシの三次元姿勢をより高精度に求めることができる。なお、並進運動が多いバス方式の電動歯ブラシの場合は、加速度センサとバンドパスフィルタの組み合わせでも十分な精度の姿勢情報が得られる。しかし、ローリング方式の場合は、歯ブラシ本体の三次元的なうねりが発生するため、加速度情報だけでは誤差因子が大きく、姿勢検出の精度が低下するおそれがある。そのような場合には、ジャイロスコープの角速度情報を利用する本実施形態の手法が有効である。
 (第6実施形態)
 図25は第6実施形態のフローチャートである。本実施形態では、CPU120が、まず荷重センサ17の出力に基づいて、ブラシに対して荷重が作用しているか否かを判定する(S5)。たとえば荷重センサ17の出力値が所定の閾値を超えたときに「ブラシに荷重が作用した」とみなせばよい。ブラシに荷重が作用するまで、次ステップ以降の処理は待ち状態となる(S5;NO)。
 ブラシに荷重が作用していないということは、ブラシが部位間を移動している可能性が高い。移動のあいだはブラシの姿勢が大きく変わるためブラッシング部位の推定精度は低下するし、またそもそも移動中のブラッシング時間やブラシ角などを記録・評価するのは妥当でない。そこで本実施形態のように、ブラシに荷重が作用していない間は、姿勢検出、ブラッシング部位推定、ブラッシング時間の計測、ブラシ角の推定、ブラシ圧の検知、ブラッシング結果の出力などの処理を禁止することにより、無駄な処理を省略できるとともに、推定精度や評価の信頼性を向上することができる。
 (第7実施形態)
 図26は第7実施形態の電動歯ブラシのブラシ部分を示している。本実施形態の電動歯ブラシは、ブラシ部分の温度を検出する温度センサ18を備えている。温度センサ18はブラシの背面に設置されている。温度センサ18としては、赤外線センサ、サーミスタなどどのようなタイプのものも利用可能である。
 図27、図28はブラッシング部位推定処理(S20)のフローチャートである。第1実施形態のブラッシング部位推定処理(図7、図8)との違いは、温度センサ18の出力に基づいて頬側と舌側の判別を行っている点である。
 図27の上顎の処理において、加速度センサ15の出力に基づき「上顎左頬側または上顎右舌側」まで絞り込んだら(S708)、CPU120は、温度センサ18の出力値が所定の範囲内にあるか否か判定する(S2709)。ブラシが頬側にあるときは、温度センサ18が頬の裏側に接触または近接するため、体温に近い出力値が得られる。それに対し、ブラシが舌側にあるときは、温度センサ18が外気に触れるため、体温よりも低い出力値が得られる。したがって、CPU120は、たとえば、温度センサ18の出力値が36度~38度の範囲内の場合に「上顎右頬側」と判定し(S710)、それ以外の場合に「上顎左舌側」と判定する(S711)。同様に、温度センサ18の出力値に基づいて、「上顎左頬側」と「上顎右舌側」も判別可能である(S2713)。下顎の処理においても同様に、温度センサ18の出力値に基づいて、「下顎左舌側」と「下顎右頬側」の判別(S2809)、ならびに、「下顎右舌側」と「下顎左頬側」の判別(S2813)が可能である。
 (第8実施形態)
 図31は第8実施形態の電動歯ブラシのブラシ部分を示している。第7実施形態では、ブラッシング部位の同定(頬側と舌側の判別)のために温度センサ18による温度情報を利用したが、この第7実施形態では、画像情報を利用する。
 図31に示すように、ブラシヘッドのy軸方向の先端に、カメラ19が設けられている。カメラ19としては、可視光カメラや赤外線カメラなど、口腔内の画像情報を取得できればどのようなカメラを利用してもよい。赤外線カメラは放射熱をモニタするもの(サーモグラフィともいう)である。ブラッシング中の口腔内は暗い可能性があるので、可視光カメラよりも赤外線カメラのほうが好ましいといえる。本実施形態では、以下に述べるように口蓋垂の輪郭がわかればよいので、カメラの分解能はそれほど高くなくてもよい。
 CPU120は、第7実施形態と同様、加速度センサ15の出力に基づき「上顎左頬側または上顎右舌側」まで絞り込む(図27のS708参照)。次に、CPU120は、カメラ19から画像を取得し、その画像から口蓋垂を検出する。口蓋垂の検出には公知の画像解析技術を利用可能である。たとえば、エッジ抽出やハフ変換による口蓋垂の輪郭検出とか、パターンマッチングによる口蓋垂の検出などが考えられる。ブラシが舌側にあるときは、ブラシヘッドの先端が喉のほうに向くため、画像中に口蓋垂が写る蓋然性が高い。一方、ブラシが頬側にあるときは、画像には口蓋垂は写らない。したがって、CPU120は、口蓋垂が検出できた場合は「上顎右舌側」と判定し、口蓋垂が検出できなかった場合は「上顎左頬側」と判定する。同じようにして、「上顎左頬側」と「上顎右舌側」、「下顎左舌側」と「下顎右頬側」、「下顎右舌側」と「下顎左頬側」の判別も可能である。
 さらに、ブラッシング部位として、左右の噛み合わせ面を判別することもできる。噛み合わせ面かそうでないかは、たとえば、x方向の加速度成分Axに基づいて判定することができる。噛み合わせ面をブラッシングするときはブラシ面がほぼ水平になり、Axの出力が0に近くなるからである。なおz方向の加速度成分Azもしくはヨー角γにより噛み合わせ面か否かを判定することも可能である。そして、上顎か下顎かは画像中の口蓋垂の上下の向きにより判定でき、左か右かは画像中の口蓋垂の水平方向の位置により判定できる。
 以上述べたように、本実施形態では、第1実施形態よりもブラッシング部位を細かく判別することができる。たとえば、上下の歯列を、「上顎前頬側」、「上顎前舌側」、「上顎左頬側」、「上顎左舌側」、「上顎左噛み合わせ面」、「上顎右頬側」、「上顎右舌側」、「上顎右噛み合わせ面」、「下顎前頬側」、「下顎前舌側」、「下顎左頬側」、「下顎左舌側」、「下顎左噛み合わせ面」、「下顎右頬側」、「下顎右舌側」、「下顎右噛み合わせ面」、の16箇所の部位に区分することができる。
 なお本実施形態では、頬側/舌側の判別だけに画像情報を利用したが、画像情報によりすべてのブラッシング部位を同定することも好ましい。ただし、口腔内は狭く、全体の位置関係がわかりづらいため、画像情報のみですべてのブラッシング部位を同定するよりも、加速度センサ(加速度センサおよびジャイロスコープ)による姿勢情報と併用するほうがよい。また本実施形態では、口蓋垂を検出対象としたが、口腔内の他の部位(たとえば、舌、喉、歯、歯肉など)を認識することでブラシの位置や姿勢を判定してもよい。たとえば画像に舌や喉が写っていたらブラシが舌側にあると判定することができる。
 (第9実施形態)
 第9実施形態は、1軸の加速度センサにより姿勢検出とブラッシング部位同定を行う構成を採用する。
 図32上段は、頬側または舌側の歯面をブラッシングしている状態を示している。このとき、ブラシ角(ヨー角γ)は約90度になり、重力加速度のx軸方向成分は約1gもしくは-1gとなり(正負は歯列の左右に対応する)、重力加速度のz軸方向成分はほぼ0となる。一方、図32下段は、噛み合わせ面をブラッシングしている状態を示している。このとき、ブラシ角(ヨー角γ)はほぼ0度になり、重力加速度のx軸方向成分はほぼ0となり、重力加速度のz軸方向成分は約1gもしくは-1gとなる(正負は歯列の上下に対応する)。
 このような特性を利用すれば、x軸の加速度センサまたはz軸の加速度センサのみでも、「頬側または舌側の歯面」か「噛み合わせ面」かの判別や、さらには左右上下の判別も可能である。
 (第10実施形態)
 前述のように加速度センサの出力信号のみでは、上顎右頬側と上顎左舌側を区別することは難しい。上顎右頬側と上顎左舌側との間で、加速度センサの出力信号に有意な差が生じないからである。同様に、上顎左頬側と上顎右舌側の区別、下顎右頬側と下顎左舌側の区別、下顎左頬側と下顎右舌側の区別も困難である。
 そこで第10実施形態では、ブラシヘッドに複数の光センサを設けて、この光センサの出力信号と加速度センサの出力信号をもとにブラッシング部位の同定を行う。光センサとしては、フォトダイオード、フォトトランジスタなどを用いることができる。
 図33(A)~(C)は、第10実施形態の電動歯ブラシの構成を示している。図33(A)は、ブラシ部品21を歯ブラシ本体1のステム部20に取り付ける前の状態を示し、図33(B)は、ブラシ部品21をステム部20に取り付けた後の状態を示している。また図33(C)は、図33(B)を矢印D3方向(ブラシの背面側)からみた図である。
 図33(A)に示すように、ステム部20の表面には、4つの光センサ41、42、43、44が設けられている。光センサ41~44はそれぞれ配線40により本体1内部の回路基板に接続されており、この配線40を介して電力供給や信号伝送が行われる。一方、ブラシ部品21は透光性の高い材料で作製されており、図33(B)のようにブラシ部品21をステム部20に取り付けた状態において、各光センサ41~44がブラシ部品21を通して光を検知可能な構成となっている。なお、ブラシ部品21全体を透光性の高い材料で形成するのではなく、光センサの部分のみを透光性の高い材料で形成したり、光センサの部分に孔を設ける構成でもよい。このように光センサを歯ブラシ本体1の側(ステム部20)に設ける構成を採用したことにより、光センサの電力供給構造をシンプルにできる。また、ブラシ部品に光センサを設けなくてもよいので、消耗部品であるブラシ部品のコストを低減することができる。コスト的な不利はあるが、ブラシ部品に光センサを設ける構成を採用することもできる。この場合の電力供給構造としては、例えば、(1)ブラシ部品21とステム部20のそれぞれにコイルを設けて、電磁誘導により電力を供給する構成や、(2)ブラシ部品21とステム部20のそれぞれに電極又はコネクタを設けて、ブラシ部品21をステム部20に取り付けたときに両者の電気的接続が図られる構成などを採用することができる。
 図33(B)および(C)に示すように、光センサ41はブラシヘッドの先端に配置され、矢印D1方向の光を検知する。また、光センサ42はブラシヘッドの側面に配置され、矢印D2方向の光を検知する。また、光センサ43はブラシヘッドの背面に配置され、矢印D3方向の光を検知し、光センサ44はブラシヘッドの前面に配置され、矢印D4方向の光を検知する。図34は、ブラッシング部位と各光センサの出力との関係を示している。この例では、センサ出力の信号強度(明るさ)を5段階で評価している。例えば、上顎左頬側をブラッシングしているときは、光センサ43は頬に密着するため「非常に暗い」状態となるが、光センサ44は口腔内に向くため「比較的明るい」状態となる。一方、加速度センサの出力では上顎左頬側と区別困難であった上顎右舌側の場合は、光センサ43が口腔内を向き「比較的明るい」状態となり、光センサ44が歯肉側を向くため「若干暗い」状態となる。このようにブラッシング部位に応じて各光センサの出力に有意な差が生じるため、複数の光センサの出力で場合分けすることにより、ブラッシング部位の絞込みが可能となる。このとき、光センサ出力により区別可能なブラッシング部位と加速度センサにより区別可能なブラッシング部位とが異なるため、両センサの出力結果を相互補完することにより精度良くブラッシング部位を特定することができる。
 図35は、ブラッシング部位推定処理の一例を示すフローチャートである。なお図35の各ステップにおいて光センサ出力との比較に用いられる閾値は実験等により予め定められている。全てのステップで同一の閾値を用いてもよいし、ステップごとに異なる閾値を用いてもよい。
 CPU120は、光センサ41~44の出力信号を取得すると、まず全ての光センサ出力が閾値よりも大きいか否かを調べる(S3500)。全ての光センサ出力が閾値より大きい場合は(S3500;YES)、ブラシヘッドが口腔外にある可能性がある。その場合は光センサ出力による判定はできないため、加速度センサ出力のみでブラッシング部位を判定する(S3502)。なおS3502の判定処理は、例えば第1実施形態(図7、図8)と同様のアルゴリズムを用いることができる。
 次にCPU120は、全ての光センサ出力が閾値よりも小さいか否かを調べる(S3501)。全ての光センサ出力が閾値より小さい場合は、周囲環境が非常に暗い可能性がある。この場合、光センサ出力による判定は困難であるため、やはり加速度センサ出力のみでブラッシング部位を判定する(S3502)。
 光センサ出力による判定が可能な場合(S3501;NO)、CPU12はまず光センサ41の出力が閾値よりも大きいか否かを調べる(S3503)。光センサ41の出力が大きい場合は(S3503;YES)は「前歯」と判定され(S3504)、それ以外の場合は(S3503;NO)は「前歯ではない」と判定される(S3505)。「前歯ではない」場合、CPU12はz方向の加速度センサの出力Azに基づいて、「上顎」(S3506)か「下顎」(S3507)かの判定を行う。続いて、「上顎」の場合、CPU12はx方向の加速度センサの出力Axに基づいて、「噛合せ面」(S3508)か「左頬側又は右舌側」(S3509)か「左舌側又は右頬側」(S3510)かの判定を行う。「下顎」の場合も同様に、CPU12はx方向の加速度センサの出力Axに基づいて、「噛合せ面」(S3511)か「左頬側又は右舌側」(S3512)か「左舌側又は右頬側」(S3513)かの判定を行う。
 次に、CPU12は光センサ42、43、又は44の出力と閾値を比較することにより、「左顎」(S3514)か「右顎」(S3515)かの判定を行う。これにより、加速度センサ出力では区別困難であった、左頬側と右舌側の判別や、右頬側と左舌側の判別が可能となる。ブラッシング部位推定後の処理(ブラッシング時間計測、ブラシ角推定、ブラシ圧検知など)については前述の実施形態と同様である。
 以上述べた本実施形態の構成によれば、2種類のセンサ出力を組み合わせることにより詳細かつ正確なブラッシング部位の推定が可能となるため、部位ごとのブラッシング達成度を適切に評価することができる。よって、有用かつ信頼性の高い評価指針を使用者に提供することができる。
 (その他)
 上述した実施形態の構成は本発明の一具体例を例示したものにすぎない。本発明の範囲は上記実施形態に限られるものではなく、その技術思想の範囲内で種々の変形が可能である。たとえば、上述した各実施形態の構成を互いに組み合わせることも好ましい。また、上記実施形態では、偏心分銅による振動方式の電動歯ブラシを例示したが、本発明は他の運動方式の電動歯ブラシにも適用可能である。例えば、回転往復運動や直線往復運動やブラシ毛回転運動やそれらを切り替えて組み合わせた電動歯ブラシにおいても適用可能である。その場合、ブラッシング部位に応じて運動周波数を切り替えたり、回転往復運動と直線往復運動とを切り替えることで、動作モードを切り替えることができる。また、ブラシ部に超音波振動素子を有し、ブラシの振動と超音波の両方でブラッシングを行うタイプの電動歯ブラシにも本発明を好ましく適用できる。
 また、ブラシの姿勢検出の精度とブラッシング部位やブラシ角の推定精度をさらに高めるために、加速度センサとジャイロスコープの出力から、基準位置に対するブラシの移動量や相対姿勢を算出することも好ましい。基準位置については、電源ONの時点の姿勢を基準位置に設定してもよいし、あるいは、使用者に基準位置(磨き始めの位置)を入力させるような仕組み(たとえば、歯ブラシ本体を水平に構えブラシを上顎前頬側に当てた状態でスイッチを押させる)を設けてもよい。移動量(移動距離)は、加速度センサ出力から得られるx軸方向、y軸方向、z軸方向それぞれの動加速度成分を二階積分することにより算出することができる。ただし、移動量を算出する際は、歯ブラシの座標系xyzを、重力加速度方向をZ軸とする座標系XYZ(上記基準位置が原点であるとよい)に変換する。たとえば、1クロックごとにX、Y、Zそれぞれの移動距離を算出し累積していくことにより、基準位置(初期位置)に対する相対位置を割り出すことができる。そして、基準位置に対する相対位置がわかれば、上述した実施形態よりもさらに正確かつ詳細にブラッシング部位を同定することが可能である。さらに、磁気センサなどから得られる方位情報を利用してブラシの位置を算出することも好ましい。なお、加速度センサ出力から動加速度成分を抽出するには、ハイパスフィルタなどのバンドパスフィルタを用いることができる。このとき、ブラシの振動によるノイズを除去するために、ブラシの駆動周波数に相当する100Hz~300Hz程度の周波数成分をカットすることも好ましい。またジャイロスコープと組み合わせてより正確な移動量や移動方向を算出することも好ましい。さらに、前歯に関しては、左右どちらの手で歯ブラシ本体を持つかによってブラシの姿勢が180度変わるため、使用者に利き手(歯ブラシを持つほうの手)を登録させ、登録された利き手に応じてブラッシング部位の判定アルゴリズムを変更したり、動作モード(モータ回転方向、ブラシの動き)を変更したりしてもよい。
 また上記実施形態では、ブラッシング時間、ブラシ角、ブラシ圧の3つの項目について評価を行ったが、これらのうちいずれか1つを評価するだけでもよい。さらに他の評価項目を追加することも好ましい。
 歯ブラシ本体に、把持位置をガイド(もしくは規定)するための凹凸形状を設けるとよい。例えば、歯ブラシ本体の先端部分(使用者が歯ブラシ本体を把持した際に親指や人差し指の指先若しくは関節が触れる位置)に突起や凹みが存在すると、使用者は意識的又は無意識に指を突起や凹みに合わせるように歯ブラシを持つ。これを利用して、所定の把持状態に使用者を誘導することができる。典型的には、図3のy軸周りの角度においてブラシの向き(z軸のマイナス方向)を0度とした場合に、±約45度の位置に2つの突起(もしくは凹み)を設け、±約135度の位置に2つの凹み(もしくは突起)を設けるとよい。この凹凸に指を合わせて歯ブラシを把持すると、ブラシ角を45度に保ちやすくなる。
 上記実施形態では、電動歯ブラシ本体1のCPU120がブラッシング部位の推定、ブラッシング時間の計測、ブラシ角の推定、ブラシ圧の検知、ブラッシング結果の評価などの処理を実行する。しかし、これらの処理の一部又は全部を電動歯ブラシ本体1とは別の外部機器に実行させるようにしてもよい。例えば、加速度センサやジャイロスコープなど電動歯ブラシ本体1に設けられた各種センサの出力を順次外部機器に転送し、外部機器のCPUによってブラッシング部位推定などの処理を実行するのである。複雑な演算処理や計算量の多い演算処理にCPUパワーの大きい外部機器のリソースを利用することにより、高速に処理することができる。一方、電動歯ブラシ本体に搭載するCPUは低機能なものでよくなるため、電動歯ブラシ自体の低コスト化や小型化を図ることができる。なお外部機器としては、電動歯ブラシの表示器、充電器の他、パーソナルコンピュータやゲーム機器など、CPUを内蔵する機器であればどのようなものを利用してもよい。
 上記実施形態では、ブラッシング部位の同定(頬側と舌側の判別)のために温度センサ、カメラ、光センサを利用する構成を例示したが、他にも、超音波センサなどの距離センサを利用することも可能である。たとえば、図26の温度センサと同様、ブラシの背面に距離センサを設置する。頬側をブラッシングしている場合は、距離センサが頬に近接または接触するため、距離センサの測定値は非常に小さい値となる。一方、舌側をブラッシングしている場合は、距離センサが口腔内を向くため、距離センサの測定値が相対的に大きくなる。したがって、距離センサの測定値を閾値(たとえば5mm)と比較することにより、頬側か舌側かの判別が可能となる。

Claims (11)

  1.  ブラシと、
     前記ブラシを運動させる駆動手段と、
     加速度センサの出力に基づき前記ブラシの姿勢を検出する姿勢検出手段と、
     検出された姿勢に基づいて、歯列表面を区分することで定義される複数の部位の中からブラッシングされているブラッシング部位を推定する部位推定手段と、
     部位ごとにブラッシング時間を計測する時間計測手段と、
     計測されたブラッシング時間に基づいて、部位ごとのブラッシング結果を評価し出力する評価出力手段と、を備えることを特徴とする電動歯ブラシ。
  2.  検出された姿勢に基づいて、歯軸に対する前記ブラシの角度であるブラシ角を推定するブラシ角推定手段をさらに備え、
     前記評価出力手段は、さらに、推定されたブラシ角に基づいて、部位ごとのブラッシング結果を評価し出力することを特徴とする請求の範囲第1項に記載の電動歯ブラシ。
  3.  ブラシ圧を検知するブラシ圧検知手段をさらに備え、
     前記評価出力手段は、さらに、検知されたブラシ圧に基づいて、部位ごとのブラッシング結果を評価し出力することを特徴とする請求の範囲第1項または第2項に記載の電動歯ブラシ。
  4.  推定されたブラシ角と予め決められたブラシ角の最適値とを比較して、ブラシ角が適切か否かを使用者に知らせるためのガイドを出力するブラシ角ガイド手段、をさらに備えることを特徴とする請求の範囲第2項に記載の電動歯ブラシ。
  5.  前記ブラシ角ガイド手段は、ブラシ角が前記最適値であること、または、ブラシ角が前記最適値でないこと、を報知することを特徴とする請求の範囲第4項に記載の電動歯ブラシ。
  6.  前記ブラシ角ガイド手段は、ブラシ角と前記最適値との差の大きさに応じて、報知のレベルを段階的に変化させることを特徴とする請求の範囲第5項に記載の電動歯ブラシ。
  7.  部位ごとのブラッシング結果に基づいて、ブラッシングが十分でない部位の中から次にブラッシングすべき部位を決定しガイドするブラッシング部位ガイド手段、をさらに備えることを特徴とする請求の範囲第1項に記載の電動歯ブラシ。
  8.  前記ブラッシング部位ガイド手段は、現在のブラッシング部位がブラッシングすべき部位と異なる場合に、ブラッシング部位の変更をガイドすることを特徴とする請求の範囲第7項に記載の電動歯ブラシ。
  9.  ブラシと、
     前記ブラシを運動させる駆動手段と、
     前記ブラシの姿勢を検出する姿勢検出手段と、
     検出された姿勢に基づいて、歯列表面を区分することで定義される複数の部位の中からブラッシングされているブラッシング部位を推定する部位推定手段と、
     検出された姿勢に基づいて、歯軸に対する前記ブラシの角度であるブラシ角を推定するブラシ角推定手段と、
     推定されたブラシ角と前記ブラッシング部位におけるブラシ角の最適値とを比較して、ブラシ角が適切か否かを使用者に知らせるためのガイドを出力するブラシ角ガイド手段と、を備えることを特徴とする電動歯ブラシ。
  10.  前記ブラシ角ガイド手段は、ブラシ角が前記最適値であること、または、ブラシ角が前記最適値でないこと、を報知することを特徴とする請求の範囲第9項に記載の電動歯ブラシ。
  11.  前記ブラシ角ガイド手段は、ブラシ角と前記最適値との差の大きさに応じて、報知のレベルを段階的に変化させることを特徴とする請求の範囲第10項に記載の電動歯ブラシ。
PCT/JP2009/054423 2008-03-14 2009-03-09 電動歯ブラシ WO2009113492A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/922,597 US8393037B2 (en) 2008-03-14 2009-03-09 Electric toothbrush
DE112009000546.2T DE112009000546B4 (de) 2008-03-14 2009-03-09 Elektrische Zahnbürste
CN200980109011.0A CN101969879B (zh) 2008-03-14 2009-03-09 电动牙刷

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-065762 2008-03-14
JP2008065762 2008-03-14
JP2008-291285 2008-11-13
JP2008291285A JP5359210B2 (ja) 2008-03-14 2008-11-13 電動歯ブラシ

Publications (1)

Publication Number Publication Date
WO2009113492A1 true WO2009113492A1 (ja) 2009-09-17

Family

ID=41065159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/054423 WO2009113492A1 (ja) 2008-03-14 2009-03-09 電動歯ブラシ

Country Status (6)

Country Link
US (1) US8393037B2 (ja)
JP (1) JP5359210B2 (ja)
CN (1) CN101969879B (ja)
DE (1) DE112009000546B4 (ja)
RU (1) RU2445938C1 (ja)
WO (1) WO2009113492A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479341B2 (en) 2010-01-08 2013-07-09 Omron Healthcare Co., Ltd. Electric toothbrush
CN108112231A (zh) * 2015-06-29 2018-06-01 博朗公司 用于口腔位置检测的牙刷
EP2603112B1 (en) 2010-08-11 2018-06-13 Brushgate Oy Toothbrushing monitoring device
JP2021519662A (ja) * 2018-04-26 2021-08-12 ベイジン キユ テクノロジーズ カンパニー リミテッド マウスピース式歯牙清掃方法

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2189198B1 (de) * 2008-11-20 2017-06-21 Braun GmbH Körperpflegegerät des persönlichen Bedarfs
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
EP2229916B1 (en) * 2009-03-19 2016-06-01 Braun GmbH Method for determining a pattern of use of an electric toothbrush and electric toothbrush
EP2427138B1 (en) * 2009-05-08 2017-06-21 The Gillette Company LLC Oral care system for comparing brushing routines of several users
RU2552992C2 (ru) * 2009-12-23 2015-06-10 Конинклейке Филипс Электроникс Н.В. Зубная щетка с отслеживанием положения
JP5526825B2 (ja) * 2010-02-02 2014-06-18 オムロンヘルスケア株式会社 口腔ケア装置
RU2615857C2 (ru) * 2011-10-24 2017-04-11 Конинклейке Филипс Н.В. Система определения амплитуды движения электромеханической зубной щетки в полости рта
US20140065588A1 (en) * 2012-08-31 2014-03-06 Ideas That Work, Llc Toothbrush Training System
EP2934372B1 (en) * 2012-12-21 2019-05-01 Koninklijke Philips N.V. An adaptive system for modifying user brushing action
GB2511554A (en) * 2013-03-07 2014-09-10 Dent Innovations For Dentistry Sa I Dental apparatus for a dental treatment in a mouth
JP6358730B2 (ja) * 2013-04-11 2018-07-18 ライオン株式会社 歯ブラシの位置姿勢伝達方法、および歯ブラシの位置姿勢伝達システム
US20140331422A1 (en) * 2013-05-09 2014-11-13 HCT Group Holdings Limited Combination cosmetic applicator
WO2014202250A1 (en) * 2013-06-19 2014-12-24 Kolibree Toothbrush system with sensors for a dental hygiene monitoring system
WO2014202438A1 (de) 2013-06-19 2014-12-24 Benjamin Ohmer Verfahren zur bestimmung von bewegungsmustern bei einer zahnbehandlung
US10477956B2 (en) 2013-08-20 2019-11-19 HCT Group Holdings Limited Cosmetic systems
WO2015061651A1 (en) * 2013-10-25 2015-04-30 Quip NYC Inc. Toothbrush
GB2519579B (en) * 2013-10-25 2017-10-11 Pogolab Ltd Improvements in training devices for tooth brushing
US9801460B2 (en) 2013-11-04 2017-10-31 HCT Group Holdings Limited Retractable cosmetic implement with multiple positions
US20160296163A1 (en) * 2013-11-14 2016-10-13 Mubashir A. CHAUDHRY Method, system and apparatus for a toothbrush with smart sensors for communication with electronic devices
WO2015103755A1 (zh) * 2014-01-09 2015-07-16 深圳市祥涛瑞杰贸易有限公司 一种监测刷牙效果的方法、装置及系统
EP2976966A1 (en) 2014-07-22 2016-01-27 Braun GmbH Fastenable device for oral cavity position detection
EP2976965A1 (en) 2014-07-22 2016-01-27 Braun GmbH Fastenable device for oral cavity position detection
US20160027327A1 (en) * 2014-07-25 2016-01-28 Dov Jacobson Toothbrush Training Game for Children
EP2989927A1 (en) * 2014-08-27 2016-03-02 Spranger, Nimrod Automatic tooth brush
USD767903S1 (en) 2014-09-22 2016-10-04 HCT Group Holdings Limited Cosmetic brush
JPWO2016047793A1 (ja) * 2014-09-26 2017-07-06 株式会社Temari 歯磨き支援システム、歯ブラシアタッチメント、歯磨き支援装置及び電動式歯ブラシ
WO2016055925A1 (en) 2014-10-07 2016-04-14 Koninklijke Philips N.V. Toothbrush with automatic detection of brushing angle
USD779140S1 (en) 2014-10-23 2017-02-14 HCT Group Holdings Limited Brush cleansing mitt
US9826824B2 (en) 2014-10-23 2017-11-28 HCT Group Holdings Limited Cosmetic brush cleaning aid
EP3420849A1 (en) * 2014-12-22 2019-01-02 Sunstar Inc. Brushing assistance system, brushing assistance device, and brushing assistance program
USD773192S1 (en) * 2015-01-09 2016-12-06 Ranir, Llc Powered toothbrush handle
USD778069S1 (en) 2015-03-18 2017-02-07 HCT Group Holdings Limited Dual ended kabuki brush
USD787835S1 (en) 2015-03-18 2017-05-30 HCT Group Holdings Limited Multi-head dual end cosmetic applicator
KR101568105B1 (ko) 2015-04-06 2015-11-11 지우솔루션주식회사 운동체 착탈형 운동체 자세 또는 운동 추적 장치, 이를 이용한 칫솔 자세 또는 운동 추적 장치
EP3280350B1 (en) 2015-04-10 2019-01-23 3M Innovative Properties Company A dental light irradiation device
RU2707324C2 (ru) * 2015-04-29 2019-11-26 Конинклейке Филипс Н.В. Системы и способы для обеспечения наведения по углу для пользователя, оперирующего устройством для гигиены полости рта
EP3294201B1 (en) 2015-05-13 2021-11-24 Kolibree Toothbrush system with magnetometer for dental hygiene monitoring
GB2538304B (en) 2015-05-15 2017-11-22 Dyson Technology Ltd Cleaning appliance
EP3622917B1 (en) * 2015-06-12 2023-10-11 Colgate-Palmolive Company Electric toothbrush
JP6599656B2 (ja) * 2015-06-18 2019-10-30 オムロンヘルスケア株式会社 電動歯ブラシ及びブラッシング部位推定方法
JP6548971B2 (ja) * 2015-06-19 2019-07-24 オムロンヘルスケア株式会社 電動歯ブラシ装置
AU2016280610B2 (en) 2015-06-18 2018-07-26 Colgate-Palmolive Company Electric toothbrush device and method
GB2541416B (en) * 2015-08-18 2017-08-23 Playbrush Ltd Toothbrush holder
WO2017029570A1 (en) * 2015-08-19 2017-02-23 Koninklijke Philips N.V. Methods and systems for oral cleaning device localization
EP3141151B1 (en) * 2015-09-08 2023-10-18 Braun GmbH Determination of a currently treated body portion of a user
JP6690166B2 (ja) * 2015-09-25 2020-04-28 サンスター株式会社 歯ブラシモジュール、及び歯磨支援システム
EP3393299B1 (en) * 2015-12-22 2023-06-07 Koninklijke Philips N.V. Systems, methods, and devices for providing guidance and feedback based on location and performance
RU2721510C2 (ru) * 2015-12-29 2020-05-19 Конинклейке Филипс Н.В. Способы и системы для предоставления обратной связи о сеансе чистки
JP6645842B2 (ja) * 2016-01-22 2020-02-14 オムロンヘルスケア株式会社 歯磨き指導システム
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
CN117016947A (zh) * 2016-02-25 2023-11-10 皇家飞利浦有限公司 用于通过反馈的手段实现最优口腔卫生的方法和系统
MX2018010750A (es) 2016-03-14 2019-01-14 Kolibree Sistema de higiene oral con reconocimiento visual para monitoreo del cumplimiento.
CN105935318A (zh) * 2016-04-13 2016-09-14 南京牙小白智能科技有限公司 具有刷牙导航装置的交互式智能牙刷
US11051609B2 (en) 2016-05-24 2021-07-06 Koninklijke Philips N.V. Methods and systems for optical sensing of forces in a toothbrush
CN105963040A (zh) * 2016-06-12 2016-09-28 叶雨玲 防牙膏飞溅的电动牙刷
US10588400B2 (en) * 2016-06-27 2020-03-17 L'oreal System to promote optimum performance of handheld cosmetic device
CN110213980A (zh) 2016-08-22 2019-09-06 科利布里有限公司 用于依从性监测的口腔卫生系统及远程-牙科系统
CN106094602B (zh) * 2016-08-23 2019-08-06 深圳市云利智能技术有限公司 智能牙刷刷牙区域识别装置
CN110419853B (zh) * 2016-08-30 2021-09-07 北京易得道科技有限公司 牙刷系统
US10299742B2 (en) * 2016-09-14 2019-05-28 Dental Imaging Technologies Corporation Multiple-dimension imaging sensor with fault condition detection
EP3300864B1 (en) * 2016-09-28 2021-12-15 Braun GmbH Electric shaver
GB2555417B (en) 2016-10-26 2020-01-22 Dyson Technology Ltd Cleaning Appliance
GB2555418B (en) 2016-10-26 2019-03-06 Dyson Technology Ltd Cleaning Appliance
WO2018087627A1 (en) * 2016-11-10 2018-05-17 Koninklijke Philips N.V. Method and system for localization of an oral cleaning device
US11096477B2 (en) * 2016-11-10 2021-08-24 Koninklijke Philips N.V. Method and system for determining compliance with a guided cleaning session
US11043141B2 (en) 2016-11-14 2021-06-22 Colgate-Palmolive Company Oral care system and method
US11213120B2 (en) 2016-11-14 2022-01-04 Colgate-Palmolive Company Oral care system and method
US10582764B2 (en) 2016-11-14 2020-03-10 Colgate-Palmolive Company Oral care system and method
US10835028B2 (en) 2016-11-14 2020-11-17 Colgate-Palmolive Company Oral care system and method
US11361672B2 (en) 2016-11-14 2022-06-14 Colgate-Palmolive Company Oral care system and method
JP7121006B2 (ja) * 2016-12-01 2022-08-17 コーニンクレッカ フィリップス エヌ ヴェ 口腔洗浄装置の校正方法及びシステム
US10076306B2 (en) * 2016-12-22 2018-09-18 Ning Chen Electric toothbrush with ultrasound sensor
CN115050106A (zh) 2017-03-13 2022-09-13 田谷圭司 电子设备以及信息处理方法
JP7044340B2 (ja) * 2017-03-31 2022-03-30 公立大学法人札幌市立大学 口腔ケア用トレーニング装置
JP6467657B2 (ja) * 2017-05-29 2019-02-13 株式会社ミック 歯磨き支援システム、歯磨き支援方法、歯磨き支援装置、及び、歯磨き支援プログラム
CN107595421B (zh) * 2017-07-28 2020-09-04 广州智丰设计研发有限公司 一种提醒声波电动牙刷移动刷头位置的方法
CN107797470B (zh) * 2017-10-31 2021-06-15 北京小米移动软件有限公司 刷柄的控制方法及控制装置
CN107714223A (zh) * 2017-11-10 2018-02-23 刘婷婷 一种电动牙刷
CN107714224A (zh) * 2017-11-10 2018-02-23 刘婷婷 一种电动牙刷及其控制方法
US10589437B2 (en) * 2018-01-19 2020-03-17 The Gillette Company Llc Personal appliance
EP4327776A2 (en) 2018-01-31 2024-02-28 Quip NYC Inc. A toothbrush system
CN108606853B (zh) * 2018-04-13 2020-09-08 深圳市力博得科技有限公司 基于人工智能的刷牙推荐方法、装置、设备及存储介质
CN108904085B (zh) * 2018-04-13 2020-09-08 深圳市力博得科技有限公司 基于智能牙刷的刷牙评价方法、装置、设备及存储介质
GB2575022B (en) 2018-06-20 2020-09-30 Dyson Technology Ltd Dental treatment appliance
BR112021001471A2 (pt) 2018-08-03 2021-04-27 Colgate-Palmolive Company sistema para higiene bucal incluindo um instrumento para higiene bucal e um acessório de acompanhamento, o acessório de acompanhamento e método de montagem do mesmo
US11297933B2 (en) * 2018-08-03 2022-04-12 Colgate-Palmolive Company Powered oral care implement including a tracking module and tracking module thereof
CN109758253A (zh) * 2019-01-29 2019-05-17 舒可士(深圳)科技有限公司 电动牙刷控制系统和方法
JP2020185141A (ja) * 2019-05-14 2020-11-19 シースター株式会社 歯ブラシ
CN110013335A (zh) * 2019-05-23 2019-07-16 河海大学文天学院 口腔卫生检测护理系统及其工作方法
WO2020254561A1 (en) * 2019-06-21 2020-12-24 Koninklijke Philips N.V. System for determining a brushing angle of an oral care device
WO2020257555A1 (en) * 2019-06-21 2020-12-24 The Research Foundation For The State University Of New York System and method for toothbrush monitoring using magneto-inductive coil sensor
EP3788985A1 (en) * 2019-09-05 2021-03-10 Koninklijke Philips N.V. Proportional division of a total operation time of a dental care procedure
GB201912787D0 (en) * 2019-09-05 2019-10-23 Playbrush Ltd Electric toothbrush system with pressure detection
KR20220121771A (ko) 2019-12-24 2022-09-01 라이온 가부시키가이샤 칫솔 디바이스
CN111150514A (zh) * 2020-01-17 2020-05-15 杭州涂鸦信息技术有限公司 一种检测刷牙姿态的电动牙刷以及牙刷姿态监测方法
JP7336688B2 (ja) * 2020-02-07 2023-09-01 パナソニックIpマネジメント株式会社 歯ブラシシステム、および歯ブラシシステム用プログラム
US20220142349A1 (en) * 2020-11-11 2022-05-12 Astr Industrial Co., Ltd. Smart electric toothbrush

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58139937U (ja) * 1982-03-18 1983-09-20 村田 欽吾 歯刷子の角度表示板
JPH06315413A (ja) * 1993-03-24 1994-11-15 Philips Electron Nv 電動歯ブラシ
JP2003501137A (ja) * 1999-06-09 2003-01-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電動歯ブラシと独立型制御ユニットとの間で作動データを通信するためのシステム
JP2003009950A (ja) * 2001-07-03 2003-01-14 Michihiro Yano 歯ブラシ
JP2005152217A (ja) * 2003-11-25 2005-06-16 Sunstar Inc ブラッシング方法学習用支援装置及びそれを用いた口腔内衛生装置
WO2006137648A1 (en) * 2005-06-20 2006-12-28 Jin-Sang Hwang Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57190506A (en) 1981-04-30 1982-11-24 Birutenberugitsushie Pafuyuuma Electromotive toothbrush
JPH06139937A (ja) 1992-10-26 1994-05-20 Matsushita Electric Ind Co Ltd 画像表示素子の信頼性試験方法
EP0634151B1 (en) 1993-03-24 1999-07-28 Koninklijke Philips Electronics N.V. Electric toothbrush
US5561881A (en) * 1994-03-22 1996-10-08 U.S. Philips Corporation Electric toothbrush
US5544382A (en) 1994-09-14 1996-08-13 Optiva Corp. Pacing toothbrush
JP4457418B2 (ja) 1998-10-09 2010-04-28 サンスター株式会社 歯ブラシ保持台
DE10026859C1 (de) 2000-05-31 2001-08-30 Braun Gmbh Elektromotorisch angetriebene Zahnbürste mit Signalgeber

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58139937U (ja) * 1982-03-18 1983-09-20 村田 欽吾 歯刷子の角度表示板
JPH06315413A (ja) * 1993-03-24 1994-11-15 Philips Electron Nv 電動歯ブラシ
JP2003501137A (ja) * 1999-06-09 2003-01-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電動歯ブラシと独立型制御ユニットとの間で作動データを通信するためのシステム
JP2003009950A (ja) * 2001-07-03 2003-01-14 Michihiro Yano 歯ブラシ
JP2005152217A (ja) * 2003-11-25 2005-06-16 Sunstar Inc ブラッシング方法学習用支援装置及びそれを用いた口腔内衛生装置
WO2006137648A1 (en) * 2005-06-20 2006-12-28 Jin-Sang Hwang Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479341B2 (en) 2010-01-08 2013-07-09 Omron Healthcare Co., Ltd. Electric toothbrush
EP2603112B1 (en) 2010-08-11 2018-06-13 Brushgate Oy Toothbrushing monitoring device
CN108112231A (zh) * 2015-06-29 2018-06-01 博朗公司 用于口腔位置检测的牙刷
JP2021519662A (ja) * 2018-04-26 2021-08-12 ベイジン キユ テクノロジーズ カンパニー リミテッド マウスピース式歯牙清掃方法
JP7249675B2 (ja) 2018-04-26 2023-03-31 ベイジン キユ テクノロジーズ カンパニー リミテッド マウスピース式歯牙清掃装置

Also Published As

Publication number Publication date
US8393037B2 (en) 2013-03-12
US20110010876A1 (en) 2011-01-20
JP5359210B2 (ja) 2013-12-04
DE112009000546B4 (de) 2019-07-04
DE112009000546T5 (de) 2011-01-27
RU2445938C1 (ru) 2012-03-27
JP2009240760A (ja) 2009-10-22
CN101969879B (zh) 2014-06-25
CN101969879A (zh) 2011-02-09

Similar Documents

Publication Publication Date Title
JP5359210B2 (ja) 電動歯ブラシ
JP5482209B2 (ja) 電動歯ブラシ
JP5526825B2 (ja) 口腔ケア装置
JP5293101B2 (ja) 電動歯ブラシ
CN108112231B (zh) 用于口腔位置检测的牙刷
CN110419853B (zh) 牙刷系统
JP5251265B2 (ja) 電動歯ブラシ
US10779924B2 (en) Electric toothbrush device and method
WO2013027462A1 (ja) 歯の歯垢除去に適用される口腔ケア装置
US11484113B2 (en) Electric toothbrush, system, brushing site detection method, and computer-readable recording medium
JP2009291316A (ja) 電動歯ブラシ
JP6548971B2 (ja) 電動歯ブラシ装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980109011.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09720180

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1120090005462

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 12922597

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010141981

Country of ref document: RU

RET De translation (de og part 6b)

Ref document number: 112009000546

Country of ref document: DE

Date of ref document: 20110127

Kind code of ref document: P

122 Ep: pct application non-entry in european phase

Ref document number: 09720180

Country of ref document: EP

Kind code of ref document: A1