WO2019098466A1 - 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템 - Google Patents

스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템 Download PDF

Info

Publication number
WO2019098466A1
WO2019098466A1 PCT/KR2018/004111 KR2018004111W WO2019098466A1 WO 2019098466 A1 WO2019098466 A1 WO 2019098466A1 KR 2018004111 W KR2018004111 W KR 2018004111W WO 2019098466 A1 WO2019098466 A1 WO 2019098466A1
Authority
WO
WIPO (PCT)
Prior art keywords
toothbrush
face
smart
user
motion data
Prior art date
Application number
PCT/KR2018/004111
Other languages
English (en)
French (fr)
Inventor
최승주
김성혁
이기혁
이윤재
이현진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180040016A external-priority patent/KR20190056944A/ko
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019098466A1 publication Critical patent/WO2019098466A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Definitions

  • the present invention relates to a smart toothbrush system including a toothbrush guide module and a smart toothbrush and a toothbrush guide module interlocked with a smart toothbrush, and more particularly, to a smart toothbrush system including a toothbrush guide module for accurately determining a toothbrush area, a smart toothbrush and a toothbrush guide module Gt; toothbrush < / RTI >
  • the toothbrush includes a bristle portion having a handle portion and a bristle brush, and performs a function of removing foreign matter between a tooth and a gingiva mainly by a physical friction method.
  • the smart toothbrush can be connected to an electronic device such as a smart phone to guide the method of brushing or to provide feedback on the result of brushing.
  • the smart toothbrush is provided with at least one sensor therein.
  • the smart toothbrush detects a toothbrush area that the user is brushing through the detection result of the sensor. Based on the detected toothbrush area, the smart toothbrush determines whether the user is properly brushing teeth, Where the tooth area is, and so on.
  • the user can move his / her head while brushing the teeth with the smart toothbrush. Since the smart toothbrush only senses the motion of the toothbrush, it is difficult to detect the movement of the user's head, and an error may occur when detecting the toothbrush area.
  • the present invention seeks to provide a smart toothbrush system that accurately determines a toothbrush area to be toothbrushed through a smart toothbrush.
  • a smart toothbrush system includes a wireless communication unit for receiving smart toothbrush and toothbrush motion data having a sensing unit for acquiring toothbrush motion data, a face recognizing unit for recognizing a face of a user and acquiring face posture information, A toothbrush guide module having a controller for correcting the toothbrush motion data based on the face attitude information and detecting a toothbrush area where the smart toothbrush is located based on the corrected toothbrush motion data.
  • the brushing guide module may include a mobile terminal, a mirror display, and a toothbrush holder for storing a smart toothbrush.
  • the brushing guide module further includes a sensing module for sensing attitude information of the mobile terminal by sensing a change in attitude of the mobile terminal when the brushing guide module is a mobile terminal, and the controller is configured to determine, based on at least one of face attitude information and attitude information of the terminal The toothbrush motion data can be corrected.
  • the brushing guide module further includes a display for displaying a toothbrush guide screen including the detected toothbrush area, and the display can display the toothbrushing area in a different color depending on the progress of the brushing.
  • the display can display the brushed-on brushing area with a brighter color than the brushing-less brushing area.
  • the toothbrush guide module is a toothbrush holder for storing the smart toothbrush, and the display can be formed on the toothbrush holder.
  • the display may further display current tooth brush area information indicating the current position of the smart toothbrush.
  • the smart toothbrush senses the use of the smart toothbrush through motion detection and can be connected wirelessly with the toothbrush guide module when the smart toothbrush is detected in use.
  • the face recognizing unit may photograph a face of a user who is using the smart toothbrush, recognize a plurality of face parts in the user's face, and detect a change in the posture of the user's face based on the interval between the recognized face parts.
  • the face recognition unit can detect whether the user's face moves left / right, whether the user's face is tilted to the left / right, or whether the user's face is tilted up / down.
  • the toothbrush area can be determined more accurately regardless of whether the user who is brushing with the smart toothbrush moves the face.
  • a detection error which may occur when the toothbrush area is sensed by only the smart toothbrush, can be easily corrected using a mobile terminal located nearby.
  • a detection error which may occur when the toothbrush area is sensed by the smart toothbrush, can be easily corrected through the mirror display, and the user can immediately check the toothbrush state through the mirror display.
  • the embodiment of the present invention it is possible to correct a detection error that can be generated when the toothbrush area is sensed only by the smart toothbrush on the toothbrush holder in which the smart toothbrush is stored, thereby eliminating the need to purchase a separate device for correcting the toothbrush area of the smart toothbrush .
  • the color of the toothbrush area is displayed differently according to the progress of the toothbrush area, so that the user can easily identify the area requiring more toothbrushing and guide the effective brushing.
  • FIG. 1 is a block diagram of a smart toothbrush system in accordance with an embodiment of the present invention.
  • FIG. 2 is a control block diagram of a smart toothbrush in accordance with an embodiment of the present invention.
  • FIG. 3 is a control block diagram of a configuration of a mobile terminal according to an embodiment of the present invention.
  • FIG. 4 is a view for schematically explaining an actual configuration of a smart toothbrush according to an embodiment of the present invention.
  • FIG. 5 is a ladder diagram illustrating a method of operating a smart toothbrush system in accordance with an embodiment of the present invention.
  • FIG. 6 is an exemplary diagram illustrating a method of calculating a roll value, a pitch value, and a yaw value according to an embodiment of the present invention.
  • FIG. 7 is an exemplary view for explaining a face angle calculating algorithm stored in the toothbrush guide module according to the embodiment of the present invention.
  • FIGS. 8 to 9 are exemplary diagrams illustrating a method of correcting toothbrush motion data based on face posture information by the toothbrush guide module according to an embodiment of the present invention.
  • FIG. 10 is an exemplary view for explaining a method of correcting toothbrush motion data based on face posture information and terminal posture information by the brushing guide module according to an embodiment of the present invention.
  • FIG. 11 is a flow diagram illustrating a saliva area sensing algorithm for acquiring a saliva region of a smart toothbrush in accordance with an embodiment of the present invention.
  • FIG. 12 is a view showing an example of a toothbrush area according to an embodiment of the present invention.
  • FIG. 13 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a mirror display.
  • FIG. 14 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a toothbrush holder.
  • 15 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a toothbrush holder for a baby.
  • 16 is an exemplary view showing changes in toothbrush motion data when the toothbrush guide module is corrected according to the toothbrush area according to the embodiment of the present invention.
  • FIG. 1 is a block diagram of a smart toothbrush system in accordance with an embodiment of the present invention.
  • the smart toothbrush system may be configured with a smart toothbrush 100 and a brush guide module 200.
  • the smart toothbrush 100 may be a toothbrush having a wireless communication module.
  • the smart toothbrush 100 can send and receive signals to and from the toothbrush guide module 200.
  • the toothbrush guide module 200 is capable of wireless communication with the smart toothbrush 100 and can guide the gargle using information received from the smart toothbrush 100,
  • the brushing guide module 200 may be embodied in various forms such as a mobile terminal, a mirror display, and a toothbrush holder.
  • the brushing guide module 200 may include any electronic device capable of communicating with the smart toothbrush 100 and capable of recognizing a user's face brushing with the smart toothbrush 100 via a camera or the like.
  • the mobile terminal may include a portable electronic device such as a smart phone, a tablet PC, and the like.
  • a mirror display is a mirror-like function capable of outputting information to a mirror.
  • the mirror display is composed of an upper polarizer, a liquid crystal display panel, a polarizer, and a back light.
  • the upper polarizer has a mirror film Lt; / RTI >
  • the toothbrush holder is a device in which the smart toothbrush 100 is stored, and may include a camera for recognizing a user's face and a display for displaying toothbrush related information.
  • the mobile terminal, the mirror display, and the toothbrush holder are merely illustrative for convenience of explanation, and the felting guide module 200 can be implemented in various electronic devices.
  • the smart toothbrush 100 and the toothbrush guide module 200 are wirelessly connected to each other and can exchange information.
  • the toothbrush guide module 200 can recognize the movement of the user's face and correct the toothbrush motion data detected by the smart toothbrush 100.
  • the toothbrush motion data correction allows the user to more accurately determine the toothbrush area being cleaned.
  • FIG. 2 is a control block diagram of a smart toothbrush according to an embodiment of the present invention.
  • the smart toothbrush 100 may include at least some or all of the sensing unit 110, the wireless communication unit 130, the motor 150, the power supply unit 170 and the processor 190 .
  • the smart toothbrush 100 may further include other components in addition to the components shown in Fig.
  • the sensing unit 110 may include at least one sensing unit, and the sensing unit may include an acceleration sensor, an angular velocity sensor, and a gyro sensor.
  • the sensing unit 110 may acquire toothbrush motion data.
  • the toothbrush motion data may be obtained through any one of the acceleration sensor, the angular velocity sensor, and the gyro sensor, or may be a sensing value obtained by a combination of data measured by the acceleration sensor, the angular velocity sensor, and the gyro sensor.
  • the toothbrush motion data indicates a change in posture of the smart toothbrush 100, and may include a roll value, a pitch value, and a yaw value.
  • the wireless communication unit 130 may perform short-range wireless communication with the wireless communication unit 210 of the brush-tooth guide module 200 described below.
  • the short-range wireless communication standard may be a low-power Bluetooth standard, but this is merely an example.
  • the wireless communication unit 130 may transmit toothbrush motion data, which is sensing data of the sensing unit 110, to the toothbrush guide module 200.
  • the motor 150 can output a vibration signal.
  • the vibration signal can serve to vibrate the bristles 103, which will be described later.
  • the power supply 170 may supply power to the components of the smart toothbrush 100.
  • the processor 190 may control the overall operation of the smart toothbrush 100.
  • Processor 190 may transmit toothbrush motion data to toothbrushing guide module 200 to control toothbrushing guide module 200 to acquire toothbrushing area based on toothbrush motion data.
  • the processor 190 may obtain the toothbrush area directly based on the toothbrush motion data. In this case, the processor 190 may transmit information on the obtained toothbrush area to the toothbrush guide module 200.
  • FIG. 3 is a control block diagram of a configuration of a mobile terminal according to an embodiment of the present invention.
  • the brushing guide module 200 includes a wireless communication unit 210, a memory 230, an acoustic output unit 250, a sensor module 260, a display 270, a face recognition unit 280, Controller 290.
  • a wireless communication unit 210 includes a wireless communication unit 210, a memory 230, an acoustic output unit 250, a sensor module 260, a display 270, a face recognition unit 280, Controller 290.
  • the brushing guide module 200 may further include other components in addition to the components shown in FIG.
  • the wireless communication unit 210 may perform short-range wireless communication with the wireless communication unit 130 of the smart toothbrush 100.
  • the short-range wireless communication standard may be a low-power Bluetooth standard.
  • the memory 230 may store toothbrush motion data or toothbrush area information received from the smart toothbrush 100, face posture information to be described later, posture information of the mobile terminal, and the like.
  • the sound output unit 250 can output the tooth brushing method guide or the like by voice.
  • the sensor module 260 may be a component for sensing the attitude information of the mobile terminal when the brushing guide module 200 is a mobile terminal.
  • the sensor module 260 may include at least some or all of the acceleration sensor, the angular velocity sensor, and the gyro sensor, and may sense a change in the posture of the brushing guide module 200.
  • the sensor module 260 when the toothbrush guide module 200 is implemented to be used in a fixed state, the sensor module 260 may not be provided. That is, when the brushing guide module 200 is implemented so as to move arbitrarily like a mobile terminal, the sensor module 260 may be included.
  • the display 270 may display various information related to the smart toothbrush 100, such as status information of the smart toothbrush 100, brushing status information, and brushing guide information.
  • the display 270 may be implemented in the form of a touch screen.
  • the face recognizing unit 280 can recognize the face of the user.
  • the face recognition unit 280 can recognize the face of the user who is using the smart toothbrush 100.
  • the face recognizing unit 280 may include a camera for photographing a user's face.
  • the face recognizing unit 280 can detect the face of the user in the image photographed by the camera and apply the facial angle calculating algorithm to the detected face to obtain facial attitude information indicating the face motion of the user.
  • the face recognizing unit 280 can acquire face attitude information indicating how much the user moves his / her face to the left / right, how much the face is left / right or how much the user nods the face up / down have.
  • the controller 290 can control the overall configuration of the brushing guide module 200.
  • the controller 290 may acquire the toothbrush area information brushing with the smart toothbrush 100, and then correct toothbrush motion data obtained based on the face attitude information acquired by the face recognizing unit 280 . A detailed description thereof will be described later.
  • the controller 290 may use toothbrush area information and tooth contact information received from the smart toothbrush 100 to measure tooth brushing time for each of a plurality of tooth brush areas.
  • the controller 290 can obtain brushing time statistical information based on the brushing time measured for each brushing area.
  • the controller 290 may display a toothbrush calibration guide on the display 270 based on the acquired brushing time statistical information.
  • FIG. 4 is a schematic view for explaining an actual configuration of a smart toothbrush according to an embodiment of the present invention.
  • the smart toothbrush 100 may include at least some or all of the body 101, the bristles 103, and the sensing portion 110.
  • the main body 101 may include the wireless communication unit 130, the motor 150, and the processor 190 described with reference to FIG.
  • the sensing unit 110 may include a vibration sensor.
  • the vibration sensor senses vibration of the smart toothbrush 100, and at least one of an acceleration sensor, an angular velocity sensor, and a gyro sensor may be used.
  • the vibration sensor can detect vibration using an acceleration sensor.
  • the sensing unit 110 can obtain the rotation angle of the x-axis (or the roll axis), the y-axis (or the pitch axis), and the z-axis (or yaw axis).
  • FIG. 5 is a ladder diagram illustrating a method of operating a smart toothbrush system in accordance with an embodiment of the present invention.
  • the smart toothbrush 100 can sense the movement of the toothbrush (S11).
  • the smart toothbrush 100 may sense the movement of the smart toothbrush 100 to sense if the user is using the smart toothbrush 100.
  • the smart toothbrush 100 may determine that the user is using the smart toothbrush 100 when motion is detected and may determine that the user is not using the smart toothbrush 100 if motion is not detected.
  • the smart toothbrush 100 may sense motion based on the sensing data of the sensing unit 110.
  • the processor 190 may sense the movement of the smart toothbrush 100 through the data change sensed by the sensing unit 110.
  • the processor 190 can detect that the smart toothbrush 100 is being used when the acceleration value or the angular velocity sensed by the acceleration sensor or the angular velocity sensor changes by a predetermined reference value or more.
  • the processor 190 may be connected to the toothbrush guide module 200 when the movement of the smart toothbrush 100 is sensed (S13).
  • the wireless communication unit 130 of the smart toothbrush 100 and the wireless communication unit 210 of the brushing guide module 200 may be connected to each other through a low-power Bluetooth standard.
  • each of the wireless communication unit 130 of the smart toothbrush 100 and the wireless communication unit 210 of the brushing guide module 200 may include a low-power Bluetooth module.
  • the toothbrush guide module 200 may be a mobile terminal capable of executing a toothbrush guide application, and when the toothbrush guide application is executed in the mobile terminal, the smart toothbrush 100 and the toothbrush guide module 200 Can be connected.
  • Processor 190 may obtain toothbrush motion data (S15).
  • the processor 190 may obtain toothbrush motion data indicative of movement of the toothbrush through the sensing unit 110.
  • the toothbrush motion data may include a roll value, a pitch value, and a yaw value obtained using at least one of an acceleration sensor, an angular velocity sensor, and a gyro sensor.
  • the sensing unit 110 acquires sensing data sensed by an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor, and the processor 190 may calculate a roll value, a pitch value, and a yaw value through sensing data.
  • FIG. 6 is an exemplary diagram illustrating a method of calculating a roll value, a pitch value, and a yaw value according to an embodiment of the present invention.
  • the bristles 103 have a roll value of 0 degrees with respect to the roll axis, toward the sky.
  • the roll value can be obtained based on the angle of rotation based on 0 degree.
  • the pitch value is 0 degrees when facing the bottom, and 180 degrees when facing the sky, with respect to the pitch axis.
  • the yaw value can also be obtained according to the angle of rotation with respect to the yaw axis.
  • the processor 190 may transmit the toothbrush motion data to the toothbrushing guide module 200 (S17).
  • the controller 290 of the brushing guide module 200 may receive toothbrush motion data from the smart toothbrush 100.
  • the smart toothbrush 100 may acquire toothbrush motion data in real time and transmit it to the toothbrush guide module 200.
  • the smart toothbrush 100 may acquire toothbrush motion data and transmit it to the toothbrush guide module 200 at predetermined intervals.
  • the toothbrush guide module 200 may apply the toothbrush motion detection algorithm to the received toothbrush motion data to obtain toothbrush area information.
  • the toothbrush area is determined only by the motion detection of the smart toothbrush 100, when the user moves the face, the toothbrush area may be erroneously judged, .
  • the toothbrush guide module 200 can correct the toothbrush motion data by detecting an element that affects the determination of the feces area, such as the face motion of the user using the smart toothbrush 100 and the posture information of the mobile terminal .
  • the controller 290 of the brushing guide module 200 can acquire the face attitude information of the user (S19).
  • the controller 290 can acquire the face attitude information of the user through the face recognizing unit 280.
  • the face recognition unit 280 may include a camera for photographing a user's face and a storage unit for storing a face angle calculation algorithm applied to the face of the user.
  • the camera can photograph the face of the user using the smart toothbrush 100.
  • the camera senses the smart toothbrush 100 in a manner that recognizes the shape of the smart toothbrush 100, recognizes the receiving location of the toothbrush motion data, So that the smart toothbrush 100 can be determined as the face of the user in use.
  • the face posture information includes an angle at which the user rotates the head (Yaw) relative to when the user's face faces the front of the camera, an angle at which the user rolls the head sideways (Roll) It may include an audible or a falling angle when lifting the head up or down.
  • the face angle calculation algorithm may be an algorithm for calculating a face angle by recognizing a facial part such as eyes, nose, and mouth from the face of a user and changing the interval between the parts.
  • FIG. 7 is an exemplary view for explaining a face angle calculating algorithm stored in the toothbrush guide module according to the embodiment of the present invention.
  • the face recognizing unit 280 can detect eyes, nose, mouth, and the like after photographing the user's face with the camera.
  • the camera can photograph the face of the user using the smart toothbrush 100.
  • the face recognition unit 280 obtains the center points of the detected eyes, nose, and mouth to calculate the distance D1 between the eyes and the eyes, the distance D2 between the nose and mouth, and the distance between the eyes and the mouth can do.
  • the face recognizing unit 280 recognizes a plurality of face parts on the user's face and can detect a change in the posture of the user's face based on the interval between the recognized face parts.
  • the face recognition unit 280 can sense whether the user's face moves left / right, whether the user's face is tilted to the left / right, or whether the user's face is tilted up / down.
  • the face recognizing unit 280 determines the angle (Yaw) at which the head moves to the left / right based on the change in the distance D1 between the eyes and the eyes, To determine the angle at which the head is lifted or lowered and determine the angle at which the head is tilted sideways based on the slope change of the axis P connecting the nose and mouth.
  • the face angle calculation algorithm described with reference to FIG. 7 is merely an example, and the face recognition unit 280 can determine a change in the face angle of the user in various ways.
  • the controller 290 can determine whether the brush guide module is a mobile terminal (S21).
  • the controller 290 can judge whether the toothbrush guide module is not fixed and which can change the posture.
  • the controller 290 can correct the toothbrush motion data based on the face attitude information when the toothbrush guide module is not a mobile terminal (S23).
  • the controller 290 can correct the toothbrush motion data based on the face attitude information when the toothbrush guide module is a device whose posture is fixed, such as a mirror display or a toothbrush holder.
  • the toothbrush motion data is composed of a roll value, a pitch value, and a yaw value of the smart toothbrush 100
  • the face attitude information is composed of a roll value, a pitch value, and a yaw value of the face of the user, The pitch value, and the yaw value of the user's face in each of the roll value, the pitch value, and the yaw value of the smart toothbrush.
  • FIGS. 8 to 9 are exemplary diagrams illustrating a method of correcting toothbrush motion data based on face posture information by the toothbrush guide module according to an embodiment of the present invention.
  • Fig. 8 shows how the user's head calculates the movement angle (Yaw) of the left / right movement and corrects the toothbrush motion data.
  • the controller 290 can detect whether the user's face has shifted to the left from the reference angle to? Degrees, whether the user's face coincides with the reference angle, or whether the user's face has moved? Degrees to the right from the reference angle.
  • the controller 290 obtains (0, 0, + ⁇ ) as face attitude information (roll, pitch, yaw) when the face of the user is shifted to the left from the reference angle by ⁇ °, (0, 0, 0) is acquired with face attitude information (roll, pitch, yaw) when the user's face moves to the right from the reference angle 0, 0, -?).
  • the controller 290 may be in a state of acquiring (x, y, z) with toothbrush motion data.
  • the controller 290 corrects the toothbrush motion data to (x, y, z + alpha) when the face of the user is shifted to the left from the reference angle by degrees, and if the user's face matches the reference angle, (x, y, z), and the toothbrush motion data can be corrected to (x, y, z-a) when the user's face moves to the right by a degree from the reference angle.
  • FIG. 9 shows a method of calculating the angle of movement when the user lifts the head upward or downward (pitch) and corrects the toothbrush motion data.
  • the controller 290 can detect whether the face of the user has shifted upward from the reference angle by?, Whether the face of the user coincided with the reference angle, or whether the face of the user has moved by? Degrees downward from the reference angle.
  • the controller 290 obtains (0, + ⁇ , 0) with face attitude information (roll, pitch, yaw) when the face of the user is shifted upward by ⁇ ° from the reference angle, (0, 0, 0) is acquired with face attitude information (roll, pitch, yaw) when the user's face moves downward from the reference angle, 0, - [beta], 0).
  • is 30 degrees, but this is merely an example.
  • the controller 290 may be in a state of acquiring (x, y, z) with toothbrush motion data.
  • the controller 290 corrects the toothbrush motion data to (x, y + beta, z) when the face of the user is shifted upward from the reference angle by [beta], and if the user's face coincides with the reference angle, (x, y, z), and the toothbrush motion data can be corrected to (x, y-beta, z) when the user's face moves down by?
  • the method of calculating the movement angle of the roll when the user tilts the head to the left / right (Roll) and correcting the toothbrush motion data may be similar to that described with reference to Figs. 8 to 9. Fig. A detailed description will be omitted.
  • the controller 290 acquires the attitude information of the mobile terminal when the toothbrush guide module is a mobile terminal (S25), and can correct the toothbrush motion data based on the face attitude information and the attitude information of the mobile terminal (S27).
  • the controller 290 can correct the toothbrush motion data based on the posture information of the mobile terminal as well as the face posture information in the case where the toothbrush guide module is not fixed at a specific place and can move arbitrarily.
  • the attitude information of the mobile terminal is used to solve the error when the mobile terminal itself, which is a device for detecting a user's face movement, moves, and may include a roll value, a pitch value and a yaw value of the mobile terminal.
  • the controller 290 can be used to acquire the posture information of the mobile terminal and correct the toothbrush motion data together with the face posture information.
  • 10 is an exemplary view for explaining a method of correcting toothbrush motion data based on face posture information and terminal posture information by the brushing guide module according to an embodiment of the present invention. 10, it is assumed that the brushing guide module 200 is a mobile terminal.
  • the face recognition unit 280 of the mobile terminal recognizes that the user moves the head of the head through the camera to the left by a degree of? Degrees, and the controller 290 recognizes 0, + ⁇ ). Meanwhile, the mobile terminal recognizes that the mobile terminal moves to the right through the sensor module 260, and the controller 290 can obtain (0, 0, - ⁇ ) as the terminal attitude information. Accordingly, the controller 290 can correct the toothbrush motion data (x, y, z) received from the smart toothbrush 100 to (x, y, z + y-y).
  • the face recognition unit 280 of the mobile terminal recognizes that the user faces the front of the camera through the camera, and the controller 290 recognizes that the user faces the front of the camera through the camera, 0). Meanwhile, the mobile terminal recognizes that the mobile terminal is not moving through the sensor module 260, and the controller 290 can obtain (0, 0, 0) as the terminal attitude information. Thus, the controller 290 may maintain the toothbrush motion data (x, y, z) received from the smart toothbrush 100 at (x, y, z).
  • the face recognition unit 280 of the mobile terminal recognizes that the user moves the head through the camera to the right by a degree of? Degrees, and the controller 290 recognizes that the face orientation information (0, 0, - ⁇ ). Meanwhile, the mobile terminal recognizes that the mobile terminal moves to the left through the sensor module 260, and the controller 290 can obtain (0, 0, + ⁇ ) as the terminal attitude information. Accordingly, the controller 290 can correct the toothbrush motion data (x, y, z) received from the smart toothbrush 100 to (x, y, z- gamma + gamma).
  • < RTI ID 0.0 > y < / RTI > is 45 degrees, but this is merely exemplary.
  • Fig. 10 is merely an example for convenience of description and is not limited thereto.
  • the brushing guide module 200 is a moving device, it is possible to correct the toothbrush motion data by sensing the movement of the brushing guide module together with the movement of the user's face.
  • the controller 290 can determine the tooth brush area based on the corrected toothbrush motion data (S29).
  • the controller 290 can obtain a toothbrush area indicating the position of the bristles 103 using a roll value, a pitch value, and a yaw value according to the corrected toothbrush motion data.
  • the toothbrushing area is information on the position of the toothbrush area in the mouth of the user brushing through the smart toothbrush 100, for example, including positional information on any one of the plurality of toothbrush areas shown in FIG. 12 can do.
  • FIG. 11 is a flow diagram illustrating a saliva area sensing algorithm for acquiring a saliva region of a smart toothbrush in accordance with an embodiment of the present invention.
  • Fig. 11 it is assumed that there are five toothbrush areas indicating areas where the bristles 103 can be positioned in the mouth of the user, but these are only illustrative for convenience of explanation.
  • the controller 290 may extract a roll value, a pitch value, and a yaw value according to the toothbrush motion data (S503).
  • the controller 290 extracts x as a roll value, extracts y as a pitch value, and extracts z as a yaw value when the result is (x, y, z) obtained by acquiring and correcting the toothbrush motion data .
  • the processor 190 determines whether the extracted roll value is between 90 degrees and 270 degrees (S505).
  • the processor 190 determines that the brush head 103 is positioned on the lower tooth (S507).
  • the processor 190 determines whether the yaw value is 90 degrees (S509). If the yaw value is 90 degrees, the processor 190 determines that the bristles 103 are located in the front tooth area (S511).
  • the processor 190 determines that the bristles 103 are located in the right undersurface area (515).
  • the processor 190 determines that the bristles 103 are located in the left undersurface area (S517).
  • the processor 190 determines that the bristles 103 are positioned on the upper teeth (S519).
  • the processor 190 determines that the bristles 103 are located in the forehead area (S511).
  • the processor 190 determines that the bristles 103 are located in the upper right tooth region (S525) when the yaw value is 180 degrees or more (S523).
  • the processor 190 determines that the bristles 103 are located in the upper left tooth area when the yaw value is less than 180 degrees and not 90 degrees (S527).
  • the processor 190 can measure the position and orientation of the bristles 103 using the extracted roll values, pitch values, and yaw values based on the sensing data of the sensing unit 110.
  • the processor 190 may obtain the toothbrush area being cleaned with the smart toothbrush 100 through an algorithm other than the algorithm described with reference to FIG.
  • FIG. 12 is a view showing an example of a toothbrush area according to an embodiment of the present invention.
  • the oral cavity region 700 may include five regions 710 to 750.
  • the first clean area 710 may be the left upper-sole region.
  • the processor 190 may determine that the bristles 103 are located in the first brushing area 710 if the roll value is outside the range of 90 degrees to 270 degrees and the yaw value is greater than 180 degrees.
  • the second brushing area 720 may be the left undersurface area.
  • the processor 190 may determine that the bristles 103 are located in the second toothbrush area 720 if the roll value is between 90 degrees and 270 degrees and the yaw value is not 90 degrees but less than 180 degrees.
  • Third tooth cleaning area 730 may be the right upper tooth area.
  • the processor 190 may determine that the bristles 103 are located in the third brushing area 730 if the roll value is outside the range of 90 degrees to 270 degrees and the yaw value is greater than 180 degrees.
  • the fourth brushing area 740 may be the right undersurface area.
  • the processor 190 may determine that the bristles 103 are located in the fourth brushing area 740 if the roll value is between 90 degrees and 270 degrees and the yaw value is greater than 180 degrees.
  • the fifth tooth cleaning area 710 may be a forehead area.
  • the processor 190 may determine that the bristles 103 are located in the fifth toothbrush area 750 when the yaw value is 90 degrees.
  • the controller 290 can display the tooth brush guide screen including the obtained tooth brush area (S31).
  • FIG. 13 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a mirror display.
  • the mirror display 201 may include a display 270 that mirrors and simultaneously outputs a toothbrush guide screen.
  • the mirror display 201 also includes a face recognition unit 280 for photographing and recognizing the user's face, an acoustic output unit 250 for audibly outputting the toothbrush guide information, A communication unit (not shown), and a controller (not shown) for controlling the overall operation of the mirror display 201.
  • the display 270 can display the brushing guide screen, and the brushing guide screen can display the brushing area information 1410 and the brushing time information 1420.
  • the cleansing area information 1410 may include the progress of the cleansing for each tooth brushing area.
  • the display 270 may be displayed in a bright color as the brushing area is progressed with a large amount of brushing, and may be displayed in a darker color as the brushing area is progressively decreased. That is, the display 270 can display the color of the toothbrush area differently according to the progress of the brushing, and the user can easily confirm the area requiring more brushing based on the color of the brushing area.
  • the grooming time information 1420 is for guiding the appropriate time for gargling.
  • the gauge is displayed at a maximum (Max) at the time of connection with the smart toothbrush 100.
  • Min Min
  • the display 280 may display the cleansing time information 1420 differently for each tooth area to guide tooth brushing time per tooth brush area.
  • the sound output unit 250 may output a sound whenever at least one of the cleansing area information 1410 and the cleansing time information 1420 is changed.
  • the user's face and teeth can be directly projected onto the display 270 of the mirror display 201.
  • FIG. 14 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a toothbrush holder.
  • the toothbrush cradle 202 may include a cradle body 202b having a cradle 202a in which the smart toothbrush 100 is received.
  • the body 202b may be formed with a display 270 for outputting a toothbrush guide screen, a face recognition unit 280, an acoustic output unit 250, a wireless communication unit (not shown) and a controller (not shown).
  • the display 270 can display the brushing guide screen, and the brushing guide screen is similar to that described with reference to FIG. 13, so a detailed description thereof will be omitted.
  • 15 is an exemplary view showing a toothbrush guide screen when the toothbrush guide module according to the embodiment of the present invention is a toothbrush holder for a baby.
  • the baby toothbrush holder 202 may include a cradle body portion 202b having a cradle 202a in which the smart toothbrush 100 is received.
  • the body 202b may be formed with a display 270 for outputting a toothbrush guide screen, a face recognition unit 280, an acoustic output unit 250, a wireless communication unit (not shown) and a controller (not shown).
  • the display 270 can display the brushing guide screen, and the brushing guide screen can be similar to that shown in Figs. 13 and 14, and a description of similar contents will be omitted.
  • the display 270 of the baby toothbrush holder 202 displays the color of the toothbrush area differently according to the progress of the brushing.
  • the display 270 of the toothbrush holder 202 displays the current position of the toothbrush 100, So that the toothbrush area information 1520 can be further displayed. Accordingly, children who are not able to brush the toothbrush have the advantage of being able to identify and brush their teeth through the toothbrush area information 1520.
  • 16 is an exemplary view showing changes in toothbrush motion data when the toothbrush guide module is corrected according to the toothbrush area according to the embodiment of the present invention.
  • the horizontal axis of the graph shown in Figs. 16 (a) and 16 (b) may be a yaw axis, and the vertical axis may be a roll axis. Accordingly, the area 1310 corresponding to the yaw value from 0 to 180 represents the left tooth brushing area, and the area 1320 corresponding to the yaw values from 181 to 360 can represent the right tooth brushing area.
  • each of the areas indicated by different hues in Figs. 16 (a) and 16 (b) may refer to brushing areas.
  • each region may correspond to a left upper-back region, a left lower region, a right upper-region, a right lower region, and a front region.
  • FIG. 16 (a) and 16 (b) can represent the toothbrush area acquired by the toothbrushing guide module 200.
  • FIG. 16 (a) shows the toothbrush area based on the toothbrush motion data obtained through the smart toothbrush 100, and the points shown in Fig. 16 (b) are the same toothbrush Based on the motion data, but may indicate the tooth-brushing area based on at least one of the face posture information and the posture information of the mobile terminal.
  • the first points 1301 representing the left upper-level region and the second points 1302 representing the right upper-level region are distributed in the region where the yaw values are 120 to 180, and the second points 1302 ) Can be confirmed that an error occurs.
  • the first points 1301 representing the left upper level region are distributed in regions where the yaw values are mainly in the range of 150 to 180, and the second points 1302 representing the right upper level region, It can be confirmed that this is mainly distributed in the region where the yaw value is in the range of 180 to 200. That is, it can be confirmed that the toothbrush motion data can be more accurately judged by correcting the toothbrush motion data based on the face posture information and the posture information of the mobile terminal.
  • the present invention not only can determine the toothbrushing area based on the toothbrush motion data, but also corrects the reference point of the toothbrush motion data based on the movement of the user's movement or the device for judging the toothbrushing area to more accurately detect the toothbrushing area
  • the present invention it is possible to pick up a smart toothpaste while brushing teeth and to detect a toothbrush area, and more accurately detect a toothbrush area even when a lot of head is shaken while children are brushing teeth.
  • the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded.
  • Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.
  • the above-described toothbrush guide module can be applied to a configuration and a method of the above-described embodiments in a limited manner, but the embodiments can be modified so that all or some of the embodiments are selectively combined .

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Brushes (AREA)

Abstract

본 발명은 스마트 칫솔을 통해 양치되는 양치 영역을 정확하게 판단하는 스마트 칫솔 시스템에 관한 것으로, 칫솔모션 데이터를 획득하는 센싱부를 갖는 스마트 칫솔 및 칫솔모션 데이터를 수신하는 무선 통신부와, 사용자의 얼굴을 인식하여 얼굴자세 정보를 획득하는 얼굴 인식부와, 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정하고, 보정된 칫솔모션 데이터에 기초하여 스마트 칫솔이 위치하고 있는 양치 영역을 검출하는 컨트롤러를 갖는 양치 가이드 모듈을 포함할 수 있다.

Description

스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템
본 발명은 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템에 관한 것으로, 보다 상세하게는 양치 영역을 정확하게 판단하기 위한 양치 가이드 모듈과, 스마트 칫솔 및 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템에 관한 것이다.
일반적으로 칫솔은 손잡이부와 양치모가 구비된 양치부를 포함하여 구성되고 주로 물리적 마찰방식에 의해 치아 및 잇몸 사이의 이물질을 제거하는 기능을 수행하고 있다.
그러나, 물리적 마찰을 통한 이물질 제거만으로는 구강 내에 생존하는 각종 세균에 대해 대처하기가 어려우므로, 보통 칫솔과 치약을 함께 이용하여 양치질을 수행하게 되며, 최근에는 양치질을 한 이후의 칫솔에 세균이 다수 잔존한다는 연구결과가 부각되면서 효과적으로 양치질을 수행할 수 있는 양치도구에 대한 필요성이 증가하여 이와 관련된 기술들도 다양하게 개발되었다.
이에 맞추어, 최근에는 진동을 이용하여, 효과적인 양치질을 위한 스마트 칫솔들이 개발되고 있다. 스마트 칫솔은 스마트폰 등과 같은 전자기기와 연결되어 양치질 방법을 안내하거나, 양치질에 대한 결과를 피드백 해줄 수 있다.
이러한 스마트 칫솔은 내부에 적어도 하나의 센서를 구비하고 있어 센서의 감지 결과를 통해 사용자가 양치질하고 있는 양치 영역을 검출하고, 검출된 양치 영역에 기초하여 사용자가 양치질을 제대로 하고 있는지, 양치질이 더 필요한 치아 영역은 어디인지 등을 판단할 수 있다.
한편, 사용자는 스마트 칫솔을 통해 양치질을 하면서 고개를 움직일 수 있다. 스마트 칫솔은 칫솔의 모션만을 감지하기 때문에 사용자의 고개가 움직이는 것까지 감지하기 어려워, 양치 영역 검출 시 오차가 발생할 수 있다.
따라서, 사용자의 움직임과 관계없이 양치 영역을 보다 정확하게 검출할 수 있는 방안이 요구된다.
본 발명은 스마트 칫솔을 통해 양치되는 양치 영역을 정확하게 판단하는 스마트 칫솔 시스템을 제공하고자 한다.
본 발명의 실시 예에 따른 스마트 칫솔 시스템은 칫솔모션 데이터를 획득하는 센싱부를 갖는 스마트 칫솔 및 칫솔모션 데이터를 수신하는 무선 통신부와, 사용자의 얼굴을 인식하여 얼굴자세 정보를 획득하는 얼굴 인식부와, 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정하고, 보정된 칫솔모션 데이터에 기초하여 스마트 칫솔이 위치하고 있는 양치 영역을 검출하는 컨트롤러를 갖는 양치 가이드 모듈을 포함할 수 있다.
양치 가이드 모듈은 이동 단말기, 미러 디스플레이 및 스마트 칫솔이 보관되는 칫솔 거치대를 포함할 수 있다.
양치 가이드 모듈은 양치 가이드 모듈이 이동 단말기인 경우 이동 단말기의 자세 변화를 감지하여 단말기의 자세 정보를 획득하는 센싱 모듈을 더 포함하고, 컨트롤러는 얼굴자세 정보 및 단말기의 자세 정보 중 적어도 하나에 기초하여 칫솔모션 데이터를 보정할 수 있다.
양치 가이드 모듈은 검출된 양치 영역을 포함하는 양치 가이드 화면을 표시하는 디스플레이를 더 포함하고, 디스플레이는 양치질의 진행 상황에 따라 상이한 색상으로 양치 영역을 표시할 수 있다.
디스플레이는 양치질이 많이 진행된 양치 영역을 양치질이 적게 진행된 양치 영역 보다 밝은 색상으로 표시할 수 있다.
양치 가이드 모듈은 스마트 칫솔이 보관되는 칫솔 거치대이고, 디스플레이는 칫솔 거치대에 형성될 수 있다.
디스플레이는 스마트 칫솔의 현재 위치를 나타내는 현재 양치 영역 정보를 더 표시할 수 있다.
스마트 칫솔은 움직임 감지를 통해 스마트 칫솔의 사용 여부를 감지하고, 스마트 칫솔이 사용 중으로 감지되면 양치 가이드 모듈과 무선 통신으로 연결될 수 있다.
얼굴 인식부는 스마트 칫솔을 사용 중인 사용자의 얼굴을 촬영하고, 사용자의 얼굴에서 복수개의 얼굴 부위를 인식하고, 인식된 각 얼굴 부위 간의 간격에 기초하여 사용자 얼굴의 자세변화를 감지할 수 있다.
얼굴 인식부는 사용자의 얼굴이 좌/우로 움직이는지, 사용자의 얼굴이 좌/우로 기울어지는지 또는 사용자의 얼굴이 위/아래로 기울어지는지 감지할 수 있다.
본 발명의 실시 예에 따르면, 스마트 칫솔로 양치질 중인 사용자가 얼굴을 움직이는 것과 관계없이 양치 영역을 보다 정확하게 판단 가능한 이점이 있다.
본 발명의 실시 예에 따르면, 스마트 칫솔만으로 양치 영역 감지시 발생 가능한 검출 오류를 주변에 위치한 이동 단말기를 이용하여 용이하게 보정 가능한 이점이 있다.
본 발명의 실시 예에 따르면, 스마트 칫솔만으로 양치 영역 감지시 발생 가능한 검출 오류를 미러 디스플레이를 통해 용이하게 보정 가능하며, 사용자가 미러 디스플레이를 통해 양치 상태를 바로 확인 가능한 이점이 있다.
본 발명의 실시 예에 따르면, 스마트 칫솔만으로 양치 영역 감지시 발생 가능한 검출 오류를 스마트 칫솔이 보관되는 칫솔 거치대에서 보정 가능하여, 스마트 칫솔의 양치 영역을 보정하기 위한 별도의 기기를 구매하지 않아도 되는 이점이 있다.
본 발명의 실시 예에 따르면, 스마트 칫솔만으로 양치 영역 감지시 발생 가능한 검출 오류를 주변에 위치한 이동 단말기를 이용시 이동 단말기의 움직임으로 발생 가능한 오류까지 고려함으로써 양치 영역 판단의 정확도를 향상시킬 수 있는 이점이 있다.
본 발명의 실시 예에 따르면, 양치 영역의 진행 상황에 따라 양치 영역의 색상을 다르게 표시함으로써, 사용자가 양치질이 더 필요한 영역을 용이하게 확인하여 효과적인 양치질을 안내 가능한 이점이 있다.
도 1은 본 발명의 실시 예에 따른 스마트 칫솔 시스템의 블록도이다.
도 2는 본 발명의 실시 예에 따른 스마트 칫솔의 제어 블록도이다.
도 3은 본 발명의 실시 예에 따른 이동 단말기의 구성의 제어 블록도이다.
도 4는 본 발명의 실시 예에 따른 스마트 칫솔의 실제 구성을 개략적으로 설명하는 도면이다.
도 5는 본 발명의 실시 예에 따른 스마트 칫솔 시스템이 동작하는 방법을 나타내는 래더 다이어 그램이다.
도 6은 본 발명의 실시 예에 따른 스마트 칫솔이 롤 값, 피치 값 및 요 값을 산출하는 방법을 설명하는 예시 도면이다.
도 7은 본 발명의 실시 예에 따른 양치 가이드 모듈에 저장된 얼굴각도산출 알고리즘을 설명하기 위한 예시 도면이다.
도 8 내지 도 9는 본 발명의 실시 예에 따른 양치 가이드 모듈이 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정하는 방법을 설명하는 예시 도면이다.
도 10은 본 발명의 실시 예에 따른 양치 가이드 모듈이 얼굴자세 정보 및 단말기 자세 정보에 기초하여 칫솔모션 데이터를 보정하는 방법을 설명하는 예시 도면이다.
도 11은 본 발명의 실시 예에 따른 스마트 칫솔의 양치 영역을 획득하는 양치영역 감지 알고리즘을 나타내는 순서도이다.
도 12는 본 발명의 실시 예에 따른 양치 영역의 예를 보여주는 도면이다.
도 13은 본 발명의 실시 예에 따른 양치 가이드 모듈이 미러 디스플레이인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
도 14는 본 발명의 실시 예에 따른 양치 가이드 모듈이 칫솔 거치대인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
도 15는 본 발명의 실시 예에 따른 양치 가이드 모듈이 유아용 칫솔 거치대인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
도 16은 본 발명의 실시 예에 따른 양치 가이드 모듈에 의해 양치 영역의 보정시 칫솔모션 데이터 변화를 나타내는 예시 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
도 1은 본 발명의 실시 예에 따른 스마트 칫솔 시스템의 블록도이다.
본 발명의 실시 예에 따른 스마트 칫솔 시스템은 스마트 칫솔(100)과 양치 가이드 모듈(200)로 구성될 수 있다.
스마트 칫솔(100)은 무선 통신 모듈을 구비하는 칫솔일 수 있다. 스마트 칫솔(100)은 양치 가이드 모듈(200)과 신호를 송수신할 수 있다.
양치 가이드 모듈(200)은 스마트 칫솔(100)과 무선 통신이 가능하며, 스마트 칫솔(100)로부터 수신되는 정보를 이용하여 양치질을 가이드할 수 있다,
양치 가이드 모듈(200)은 이동 단말기, 미러 디스플레이, 칫솔 거치대 등 다양한 형태로 구현될 수 있다. 양치 가이드 모듈(200)은 스마트 칫솔(100)과 통신이 가능하며, 카메라 등을 통해 스마트 칫솔(100)로 양치질하고 있는 사용자 얼굴을 인식 가능한 모든 전자 기기를 포함할 수 있다.
이동 단말기는 스마트폰, 태플릿 PC 등과 같은 휴대 가능한 전자기기를 포함할 수 있다.
미러 디스플레이(mirror display)는 거울과 같은 기능을 하는 동시에 거울에 정보를 출력 가능한 것으로, 상부 편광판(Polarizer), 액정 표시 패널, 편광판(Polarizer) 및 백라이트(Back light)로 구성되며 상부 편광판에 미러 필름이 위치될 수 있다.
칫솔 거치대는 스마트 칫솔(100)이 보관되는 장치로, 사용자 얼굴을 인식하기 위한 카메라와, 양치 관련 정보를 표시하는 디스플레이를 포함할 수 있다.
그러나, 이동 단말기, 미러 디스플레이 및 칫솔 거치대는 설명의 편의를 위해 예시로 든 것에 불과하고, 양치 가이드 모듈(200)은 다양한 전자 기기의 형태로 구현될 수 있다.
스마트 칫솔(100)과 양치 가이드 모듈(200)는 무선 연결되어 상호간에 정보를 송수신할 수 있다.
본 발명의 실시 예에 따르면, 양치 가이드 모듈(200)는 사용자의 얼굴 움직임을 인식하여, 스마트 칫솔(100)이 검출한 칫솔모션 데이터를 보정할 수 있다. 이와 같이 칫솔모션 데이터 보정을 통해, 사용자가 양치질 중인 양치 영역을 보다 정확하게 판단 가능한 이점이 있다.
도 2은 본 발명의 실시 예에 따른 스마트 칫솔의 제어 블록도이다.
본 발명의 실시 예에 따른 스마트 칫솔(100)은 센싱부(110), 무선 통신부(130), 모터(150), 전원 공급부(170) 및 프로세서(190) 중 적어도 일부 또는 전부를 포함할 수 있도. 또한, 스마트 칫솔(100)은 도 2에 도시된 구성요소 외에 다른 구성요소를 더 포함할 수도 있다.
센싱부(110)는 적어도 하나 이상의 센싱 유닛을 포함할 수 있고, 센싱 유닛은 가속도 센서, 각속도 센서 및 자이로 센서를 포함할 수 있다.
센싱부(110)는 칫솔모션 데이터를 획득할 수 있다. 여기서, 칫솔모션 데이터는 가속도 센서, 각속도 센서 및 자이로 센서 중 어느 하나를 통해 얻어지거나, 가속도 센서, 각속도 센서 및 자이로 센서에서 측정된 데이터의 조합에 의해 얻어진 센싱 값일 수 있다.
칫솔모션 데이터는 스마트 칫솔(100)의 자세변화를 나타내는 것으로, 롤(Roll) 값, 피치(Pitch) 값, 요(Yaw) 값을 포함할 수 있다.
무선 통신부(130)는 후술하는 양치 가이드 모듈(200)의 무선 통신부(210)와 근거리 무선 통신을 수행할 수 있다. 일 예로, 근거리 무선 통신 규격은 저전력 블루투스 규격일 수 있으나, 이는 예시에 불과하다.
무선 통신부(130)는 센싱부(110)의 센싱 데이터인 칫솔모션 데이터를 양치 가이드 모듈(200)로 전송할 수 있다.
모터(150)는 진동 신호를 출력할 수 있다. 진동 신호는 후술할 칫솔모(103)를 진동시키는 역할을 수행할 수 있다.
전원 공급부(170)는 스마트 칫솔(100)의 구성 요소에 전원을 공급할 수 있다.
프로세서(190)는 스마트 칫솔(100)의 전반적인 동작을 제어할 수 있다.
프로세서(190)는 칫솔모션 데이터를 양치 가이드 모듈(200)로 전송함으로써, 양치 가이드 모듈(200)이 칫솔모션 데이터에 기초하여 양치 영역을 획득하도록 제어할 수 있다.
또는, 프로세서(190)는 칫솔모션 데이터에 기초하여 직접 양치 영역을 획득할 수 있다. 이 경우, 프로세서(190)는 획득된 양치 영역에 대한 정보를 양치 가이드 모듈(200)에 전송할 수 있다.
프로세서(190)의 구체적인 동작은 후술한다.
도 3는 본 발명의 실시 예에 따른 이동 단말기의 구성의 제어 블록도이다.
본 발명의 실시 예에 따른 양치 가이드 모듈(200)는 무선 통신부(210), 메모리(230), 음향 출력부(250), 센서 모듈(260), 디스플레이(270), 얼굴 인식부(280) 및 컨트롤러(290) 중 적어도 일부 또는 전부를 포함한다.
또한, 양치 가이드 모듈(200)는 도 3에 도시된 구성요소 외에 다른 구성요소를 더 포함할 수도 있다.
무선 통신부(210)는 스마트 칫솔(100)의 무선 통신부(130)와 근거리 무선 통신을 수행할 수 있다. 근거리 무선 통신 규격은 저전력 블루투스 규격이 사용될 수 있다.
메모리(230)는 스마트 칫솔(100)로부터 수신된 칫솔모션 데이터 또는 양치 영역에 대한 정보와, 후술하는 얼굴자세 정보, 이동 단말기의 자세 정보 등을 저장할 수 있다.
음향 출력부(250)는 양치 방법 가이드 등을 음성으로 출력할 수 있다.
센서 모듈(260)은 양치 가이드 모듈(200)이 이동 단말기인 경우 이동 단말기의 자세 정보를 센싱하기 위한 구성요소일 수 있다. 센서 모듈(260)은 가속도 센서, 각속도 센서 및 자이로 센서 중 적어도 일부 또는 전부를 포함할 수 있고, 양치 가이드 모듈(200)의 자세 변화를 센싱할 수 있다.
실시 예에 따라, 양치 가이드 모듈(200)이 고정된 상태로 사용되도록 구현될 경우 센서 모듈(260)은 구비되지 않을 수 있다. 즉, 양치 가이드 모듈(200)이 이동 단말기 등과 같이 임의로 움직일 수 있도록 구현될 경우 센서 모듈(260)을 포함할 수 있다.
디스플레이(270)는 스마트 칫솔(100)의 상태 정보, 양치 상태 정보 및 양치 가이드 정보 등 스마트 칫솔(100)과 관련된 다양한 정보를 표시할 수 있다.
디스플레이(270)는 터치 스크린의 형태로 구현될 수도 있다.
얼굴 인식부(280)는 사용자의 얼굴을 인식할 수 있다. 특히, 얼굴 인식부(280)는 스마트 칫솔(100)을 사용 중인 사용자의 얼굴을 인식할 수 있다.
얼굴 인식부(280)는 사용자의 얼굴을 촬영하기 위해 카메라를 포함할 수 있다. 얼굴 인식부(280)는 카메라로 촬영된 이미지에서 사용자 얼굴을 검출하고, 검출된 얼굴에 후술하는 얼굴각도산출 알고리즘을 적용하여 사용자의 얼굴 움직임을 나타내는 얼굴자세 정보를 획득할 수 잇다.
얼굴 인식부(280)는 사용자가 얼굴을 좌/우로 얼마나 움직이는지, 얼굴을 좌/우로 얼마나 갸우뚱하는지, 또는 사용자가 얼굴을 위/아래로 얼마나 끄덕이는지 등을 나타내는 얼굴자세 정보를 획득할 수 있다.
컨트롤러(290)는 양치 가이드 모듈(200)의 전반적인 구성을 제어할 수 있다.
예를 들어, 컨트롤러(290)는 스마트 칫솔(100)로 양치 중인 양치 영역 정보를 획득한 후, 얼굴 인식부(280)로 획득한 얼굴자세 정보에 기초하여 획득된 칫솔모션 데이터를 보정할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다.
다른 예로, 컨트롤러(290)는 스마트 칫솔(100)로부터 수신된 양치 영역 정보 및 치아 접촉 정보를 이용하여, 복수의 양치 영역들 각각에 대한 양치 시간을 측정할 수 있다. 컨트롤러(290)는 각 양치 영역에 대해 측정된 양치 시간에 기초하여, 양치 시간 통계 정보를 획득할 수 있다. 컨트롤러(290)는 획득된 양치 시간 통계 정보에 기반하여, 양치법 교정 가이드를 디스플레이(270) 상에 표시할 수 있다.
도 4은 본 발명의 실시 예에 따른 스마트 칫솔의 실제 구성을 개략적으로 설명하는 도면이다.
도 4을 참조하면, 스마트 칫솔(100)은 본체(101), 칫솔모(103) 및 센싱부(110) 중 적어도 일부 또는 전부를 포함할 수 있다.
본체(101)에는 도 2에서 설명된 무선 통신부(130), 모터(150), 프로세서(190)가 구비될 수 있다.
센싱부(110)는 진동 센서를 포함할 수 있다. 진동 센서는 스마트 칫솔(100)의 진동을 감지하는 센서로, 가속도 센서, 각속도 센서, 자이로 센서 중 적어도 하나 이상이 사용될 수 있다. 특히, 진동 센서는 가속도 센서를 사용하여 진동을 감지할 수 있다.
또한, 센싱부(110)는 x축(또는 롤 축), y축(또는 피치 축), z축(또는 요 축)의 회전 각도를 획득할 수 있다.
도 5는 본 발명의 실시 예에 따른 스마트 칫솔 시스템이 동작하는 방법을 나타내는 래더 다이어 그램이다.
스마트 칫솔(100)은 칫솔의 움직임을 감지할 수 있다(S11).
스마트 칫솔(100)은 사용자가 스마트 칫솔(100)을 사용 중인지 감지하기 위해 스마트 칫솔(100)의 움직임을 감지할 수 있다.
스마트 칫솔(100)은 움직임이 감지되면 사용자가 스마트 칫솔(100)을 사용 중인 것으로 판단하고, 움직임이 감지되지 않으면 사용자가 스마트 칫솔(100)을 미사용 중인 것으로 판단할 수 있다.
스마트 칫솔(100)은 센싱부(110)의 센싱 데이터에 기초하여 움직임을 감지할 수 있다. 예를 들어, 프로세서(190)는 센싱부(110)가 센싱하는 데이터 변화를 통해 스마트 칫솔(100)의 움직임을 감지할 수 있다. 프로세서(190)는 가속도 센서 또는 각속도 센서가 센싱하는 가속도 값 또는 각속도가 값이 소정 기준 값 이상 변하면 스마트 칫솔(100)이 사용 중인 것으로 감지할 수 있다.
프로세서(190)는 스마트 칫솔(100)의 움직임이 감지되면 양치 가이드 모듈(200)과 연결될 수 있다(S13).
예를 들어, 스마트 칫솔(100)의 무선 통신부(130)와 양치 가이드 모듈(200)의 무선 통신부(210)는 저전력 블루투스 규격을 통해 서로 연결될 수 있다. 이를 위해, 스마트 칫솔(100)의 무선 통신부(130) 및 양치 가이드 모듈(200)의 무선 통신부(210) 각각은 저전력 블루투스 모듈을 구비할 수 있다.
다른 실시 예에 따르면, 양치 가이드 모듈(200)은 양치 가이드 어플리케이션을 실행할 수 있는 이동 단말기일 수 있고, 이동 단말기에서 양치 가이드 어플리케이션이 실행되면 자동으로 스마트 칫솔(100)과 양치 가이드 모듈(200)이 연결될 수 있다.
프로세서(190)는 칫솔모션 데이터를 획득할 수 있다(S15).
프로세서(190)는 센싱부(110)를 통해 칫솔의 움직임을 나타내는 칫솔모션 데이터를 획득할 수 있다.
칫솔모션 데이터는 가속도 센서, 각속도 센서 및 자이로 센서 중 적어도 하나 이상을 이용하여 획득되는 롤(Roll) 값, 피치(Pitch) 값 및 요(Yaw) 값을 포함할 수 있다.
센싱부(110)는 가속도 센서, 각속도 센서 및 지자기 센서로 감지되는 센싱 데이터를 획득하고, 프로세서(190)는 센싱 데이터를 통해 롤 값, 피치 값 및 요 값을 산출할 수 있다.
도 6은 본 발명의 실시 예에 따른 스마트 칫솔이 롤 값, 피치 값 및 요 값을 산출하는 방법을 설명하는 예시 도면이다.
도 6을 참조하면, 칫솔모(103)는 롤 축을 기준으로, 하늘을 향할 때 롤 값은 0도가 된다. 롤 값은 0도를 기준으로, 회전한 각도에 따라 그 값이 얻어질 수 있다.
피치 값은 피치 축을 기준으로, 바닥을 향할 때 0도이고, 하늘을 향할 때 180도가 된다.
요 값 또한, 요 축을 기준으로, 회전한 각도에 따라 얻어질 수 있다.
다시, 도 5를 설명한다.
프로세서(190)는 칫솔모션 데이터를 양치 가이드 모듈(200)에 전송할 수 있다(S17).
양치 가이드 모듈(200)의 컨트롤러(290)는 스마트 칫솔(100)로부터 칫솔모션 데이터를 수신할 수 있다.
스마트 칫솔(100)은 실시간으로 칫솔모션 데이터를 획득하여 양치 가이드 모듈(200)에 전송할 수 있다.
또는, 스마트 칫솔(100)은 기 설정된 주기마다 칫솔모션 데이터를 획득하여 양치 가이드 모듈(200)에 전송할 수 있다.
실시 예에 따라, 양치 가이드 모듈(200)은 수신된 칫솔모션 데이터에 양치영역 감지 알고리즘을 적용하여 양치 영역 정보를 획득할 수 있다. 그러나, 이 경우 스마트 칫솔(100)의 모션 감지만으로 양치 영역을 판단한 것이기 때문에, 사용자가 얼굴을 움직이는 경우 등에는 양치 영역이 잘못 판단될 수 있고, 이에 따라 양치질 피드백을 잘못하는 등의 문제가 발생할 수 있다.
따라서, 본 발명에서는 양치 가이드 모듈(200)이 스마트 칫솔(100)을 사용 중인 사용자의 얼굴 움직임, 이동 단말기의 자세 정보 등 양치 영역 판단에 영향을 미치는 요소를 감지하여 칫솔모션 데이터를 보정할 수 있다.
양치 가이드 모듈(200)의 컨트롤러(290)는 사용자의 얼굴자세 정보를 획득할 수 있다(S19).
컨트롤러(290)는 얼굴 인식부(280)를 통해 사용자의 얼굴자세 정보를 획득할 수 있다.
얼굴 인식부(280)는 사용자의 얼굴을 촬영하는 카메라와, 촬영된 사용자의 얼굴에 적용되는 얼굴각도산출 알고리즘을 저장하고 있는 저장부를 포함할 수 있다.
카메라는 스마트 칫솔(100)을 사용 중인 사용자의 얼굴을 촬영할 수 있다. 예를 들어, 카메라는 스마트 칫솔(100)의 형태를 인식하거나, 칫솔모션 데이터의 수신 위치를 인식하는 등의 방법으로 스마트 칫솔(100)을 감지하고, 감지된 스마트 칫솔(100)과 인접한 사용자의 얼굴을 획득하여, 스마트 칫솔(100)을 사용 중인 사용자의 얼굴로 판단할 수 있다.
얼굴자세 정보는 사용자 얼굴이 카메라를 정면으로 향할 때를 기준으로 사용자가 고개를 좌우로 돌릴 경우(Yaw) 돌아간 각도, 사용자가 고개를 옆으로 까딱 하는 경우(Roll) 옆으로 기울어진 각도 및 사용자가 고개를 위쪽으로 들거나 아래쪽으로 내리는 경우 들리거나 내려간 각도를 포함할 수 있다.
얼굴각도산출 알고리즘은 촬영된 사용자의 얼굴에서 눈, 코 및 입과 같은 얼굴 부위를 인식한 후 각 부위간의 간격 변화 등을 통해 얼굴 각도를 산출하는 알고리즘일 수 있다.
도 7은 본 발명의 실시 예에 따른 양치 가이드 모듈에 저장된 얼굴각도산출 알고리즘을 설명하기 위한 예시 도면이다.
도 7에 도시된 바와 같이, 얼굴 인식부(280)는 카메라로 사용자 얼굴을 촬영한 후 눈, 코 및 입 등을 검출할 수 있다. 카메라는 스마트 칫솔(100)을 사용 중인 사용자의 얼굴을 촬영할 수 있다.
얼굴 인식부(280)는 검출된 눈, 코 및 입 각각의 중심점을 획득하여, 눈과 눈 사이의 간격(D1), 코와 입 사이의 간격(D2) 및 눈과 입 사이의 간격 등을 산출할 수 있다.
얼굴 인식부(280)는 사용자의 얼굴에서 복수개의 얼굴 부위를 인식하고, 인식된 각 얼굴 부위 간의 간격에 기초하여 사용자 얼굴의 자세변화를 감지할 수 있다. 얼굴 인식부(280)는 사용자의 얼굴이 좌/우로 움직이는지, 상기 사용자의 얼굴이 좌/우로 기울어지는지 또는 상기 사용자의 얼굴이 위/아래로 기울어지는지 감지할 수 있다.
구체적으로, 얼굴 인식부(280)는 눈과 눈 사이의 간격(D1) 변화에 기초하여 고개가 좌/우로 이동한 각도(Yaw)를 판단하고, 코와 입 사이의 간격(D2) 변화에 기초하여 고개를 들거나 내린 각도(Pitch)를 판단하고, 코와 입을 연결하는 축(P)의 기울기 변화에 기초하여 고개를 옆으로 기울이는 각도(Roll)를 판단할 수 있다.
그러나, 도 7을 통해 설명한 얼굴각도산출 알고리즘은 예시적인 것에 불과하며, 얼굴 인식부(280)는 다양한 방법으로 사용자의 얼굴 각도 변화를 판단할 수 있다.
다시, 도 5를 설명한다.
컨트롤러(290)는 양치 가이드 모듈이 이동 단말기인가 판단할 수 있다(S21).
즉, 컨트롤러(290)는 양치 가이드 모듈이 고정되지 않아 자세가 변동될 수 있는 기기인지 판단할 수 있다.
컨트롤러(290)는 양치 가이드 모듈이 이동 단말기가 아닌 경우 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정할 수 있다(S23).
즉, 컨트롤러(290)는 양치 가이드 모듈이 미러 디스플레이 또는 칫솔 거치대 등과 같이 자세가 고정된 장치인 경우 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정할 수 있다. 예를 들어, 칫솔모션 데이터는 스마트 칫솔(100)의 롤 값, 피치 값 및 요 값으로 구성되고, 얼굴자세 정보는 사용자의 얼굴의 롤 값, 피치 값 및 요 값으로 구성되고, 컨트롤러(290)는 스마트 칫솔의 롤 값, 피치 값 및 요 값 각각에서 사용자의 얼굴의 롤 값, 피치 값 및 요 값을 빼는 연산을 통해 칫솔모션 데이터를 보정할 수 있다.
이에 대해서는 도 10을 참조하여 자세히 설명한다.
도 8 내지 도 9는 본 발명의 실시 예에 따른 양치 가이드 모듈이 얼굴자세 정보에 기초하여 칫솔모션 데이터를 보정하는 방법을 설명하는 예시 도면이다.
도 8의 예는, 사용자의 고개가 왼쪽/오른쪽으로 이동시(Yaw)의 이동 각도를 산출 및 칫솔모션 데이터를 보정하는 방법을 나타낸다.
컨트롤러(290)는 사용자의 얼굴이 기준 각도에서 왼쪽으로 α˚이동 하였는지, 사용자의 얼굴이 기준 각도와 일치하는지 또는 사용자의 얼굴이 기준 각도에서 오른쪽으로 α˚이동하였는지 검출할 수 있다.
컨트롤러(290)는 사용자의 얼굴이 기준 각도에서 왼쪽으로 α˚이동한 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, 0, +α)을 획득하고, 사용자의 얼굴이 기준 각도와 일치하는 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, 0, 0)을 획득하고, 사용자의 얼굴이 기준 각도에서 오른쪽으로 α˚이동한 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, 0, -α)을 획득할 수 있다.
도 8에서, α는 30도로 예를 들었으나, 이는 예시적인 것에 불과하다.
컨트롤러(290)는 칫솔모션 데이터로 (x, y, z)를 획득한 상태일 수 있다. 컨트롤러(290)는 사용자의 얼굴이 기준 각도에서 왼쪽으로 α˚이동 한 경우 칫솔모션 데이터를 (x, y, z+α)로 보정하고, 사용자의 얼굴이 기준 각도와 일치하는 경우 칫솔모션 데이터를 (x, y, z)를 유지하고, 사용자의 얼굴이 기준 각도에서 오른쪽으로 α˚이동 한 경우 칫솔모션 데이터를 (x, y, z-α)로 보정할 수 있다.
도 9의 예는, 사용자가 고개를 위쪽으로 들거나 아래쪽으로 내릴시(Pitch)의 이동 각도를 산출 및 칫솔모션 데이터를 보정하는 방법을 나타낸다.
컨트롤러(290)는 사용자의 얼굴이 기준각도에서 위쪽으로 β˚ 이동 하였는지, 사용자의 얼굴이 기준 각도와 일치하는지 또는 사용자의 얼굴이 기준 각도에서 아래쪽으로 β˚ 이동 하였는지 검출할 수 있다.
컨트롤러(290)는 사용자의 얼굴이 기준 각도에서 위쪽으로 β˚ 이동한 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, +β, 0)을 획득하고, 사용자의 얼굴이 기준 각도와 일치하는 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, 0, 0)을 획득하고, 사용자의 얼굴이 기준 각도에서 아래쪽으로 β˚이동한 경우 얼굴자세 정보(roll, pitch, yaw)로 (0, - β, 0)을 획득할 수 있다.
도 9에서, β 는 30도로 예를 들었으나, 이는 예시적인 것에 불과하다.
컨트롤러(290)는 칫솔모션 데이터로 (x, y, z)를 획득한 상태일 수 있다. 컨트롤러(290)는 사용자의 얼굴이 기준 각도에서 위쪽으로 β˚이동 한 경우 칫솔모션 데이터를 (x, y+β, z)로 보정하고, 사용자의 얼굴이 기준 각도와 일치하는 경우 칫솔모션 데이터를 (x, y, z)를 유지하고, 사용자의 얼굴이 기준 각도에서 아래쪽으로 β˚이동 한 경우 칫솔모션 데이터를 (x, y-β, z)로 보정할 수 있다.
마찬가지로, 사용자가 고개를 왼쪽/오른쪽으로 기울일 경우(Roll)의 이동 각도를 산출 및 칫솔모션 데이터을 보정하는 방법은 도 8 내지 도 9를 통해 설명한 바와 유사할 수 있다. 자세한 설명은 생략하기로 한다.
한편, 앞에서는 칫솔모션 데이터의 롤 값, 피치 값, 요 값이 각각 보정되는 경우를 예로 들어 설명하였으나, 이는 설명의 편의를 위한 것으로 롤 값, 피치 값, 요 값 중 복수개가 동시에 보정될 수 있음은 당연하다. 즉, 사용자가 고개를 위로 올리면서 오른쪽으로 이동시 칫솔모션 데이터의 피치 값과 요 값을 함께 보정할 수 있다.
다시, 도 5를 설명한다.
컨트롤러(290)는 양치 가이드 모듈이 이동 단말기인 경우 이동 단말기의 자세 정보를 획득하고(S25), 얼굴자세 정보 및 이동 단말기의 자세 정보에 기초하여 칫솔모션 데이터를 보정할 수 있다(S27).
즉, 컨트롤러(290)는 양치 가이드 모듈이 특정 장소에 고정되지 않아 임의로 움직일 수 있는 장치인 경우 얼굴자세 정보뿐만 아니라 이동 단말기의 자세 정보에 기초하여 칫솔모션 데이터를 보정할 수 있다.
이동 단말기의 자세 정보는 사용자의 얼굴 움직임을 검출하는 장치인 이동 단말기 자체가 움직이는 경우 이에 따른 오류를 해소하기 위한 것으로, 이동 단말기의 롤 값, 피치 값 및 요 값을 포함할 수 있다.
컨트롤러(290)는 이동 단말기의 자세 정보를 획득하여 얼굴자세 정보와 함께 칫솔모션 데이터를 보정하는데 사용될 수 있다.
이에 대해서는 도 10을 참조하여 자세히 설명한다.
도 10은 본 발명의 실시 예에 따른 양치 가이드 모듈이 얼굴자세 정보 및 단말기 자세 정보에 기초하여 칫솔모션 데이터를 보정하는 방법을 설명하는 예시 도면이다. 도 10에서는 양치 가이드 모듈(200)이 이동 단말기인 경우로 가정하여 설명한다.
도 10(a)의 예를 참고하면, 이동 단말기의 얼굴 인식부(280)는 카메라를 통해 사용자가 고개를 왼쪽으로 γ˚ 이동함을 인식하고, 컨트롤러(290)는 얼굴자세 정보로 (0, 0, +γ)를 획득할 수 있다. 한편, 이동 단말기는 센서 모듈(260)을 통해 이동 단말기가 오른쪽으로 γ˚ 이동함을 인식하고, 컨트롤러(290)는 단말기 자세 정보로 (0, 0, -γ)를 획득할 수 있다. 따라서, 컨트롤러(290)는 스마트 칫솔(100)로부터 수신한 칫솔모션 데이터 (x, y, z)를 (x, y, z+γ-γ)로 보정할 수 있다.
도 10(b)의 예를 참고하면, 이동 단말기의 얼굴 인식부(280)는 카메라를 통해 사용자가 고개를 카메라 정면을 향함을 인식하고, 컨트롤러(290)는 얼굴자세 정보로 (0, 0, 0)를 획득할 수 있다. 한편, 이동 단말기는 센서 모듈(260)을 통해 이동 단말기가 움직이지 않음을 인식하고, 컨트롤러(290)는 단말기 자세 정보로 (0, 0, 0)를 획득할 수 있다. 따라서, 컨트롤러(290)는 스마트 칫솔(100)로부터 수신한 칫솔모션 데이터 (x, y, z)를 (x, y, z)로 유지할 수 있다.
도 10(c)의 예를 참고하면, 이동 단말기의 얼굴 인식부(280)는 카메라를 통해 사용자가 고개를 오른쪽으로 γ˚ 이동함을 인식하고, 컨트롤러(290)는 얼굴자세 정보로 (0, 0, -γ)를 획득할 수 있다. 한편, 이동 단말기는 센서 모듈(260)을 통해 이동 단말기가 왼쪽으로 γ˚ 이동함을 인식하고, 컨트롤러(290)는 단말기 자세 정보로 (0, 0, +γ)를 획득할 수 있다. 따라서, 컨트롤러(290)는 스마트 칫솔(100)로부터 수신한 칫솔모션 데이터 (x, y, z)를 (x, y, z-γ+γ)로 보정할 수 있다. 도 9에서, γ는 45도로 예를 들었으나, 이는 예시적인 것에 불과하다.
또한, 도 10은 설명의 편의를 위해 예시로 든 것에 불과하므로 이에 제한될 필요는 없다.
이와 같이, 양치 가이드 모듈(200)이 움직이는 장치인 경우 사용자 얼굴의 움직임과 함께 양치 가이드 모듈의 움직임을 감지하여 칫솔모션 데이터를 보정할 수 있다.
다시, 도 5를 설명한다.
컨트롤러(290)는 보정된 칫솔모션 데이터에 기초하여 양치 영역을 판단할 수 있다(S29).
즉, 컨트롤러(290)는 보정된 칫솔모션 데이터에 따른 롤(Roll) 값, 피치(Pitch) 값, 요(Yaw) 값을 이용하여 칫솔모(103)의 위치를 나타내는 양치 영역을 획득할 수 있다.
양치 영역은 스마트 칫솔(100)을 통해 양치되고 있는 사용자의 구강 내의 양치 영역의 위치에 대한 정보로, 예를 들어 후술하는 도 12에 도시된 복수의 양치 영역들 중 어느 하나에 대한 위치 정보를 포함할 수 있다.
다음으로, 칫솔모션 데이터에 기초하여 양치 영역을 판단하는 방법에 대해 설명한다.
도 11은 본 발명의 실시 예에 따른 스마트 칫솔의 양치 영역을 획득하는 양치영역 감지 알고리즘을 나타내는 순서도이다.
한편, 도 11에서, 칫솔모(103)가 사용자의 구강 내에서 위치할 수 있는 영역을 나타내는 양치 영역은 5개임을 가정하여 설명하나, 이는 설명의 편의를 위해 예시로든 것에 불과하다.
컨트롤러(290)는 칫솔모션 데이터에 따른 롤 값, 피치 값 및 요 값을 추출할 수 있다(S503).
예를 들어, 컨트롤러(290)는 칫솔모션 데이터를 획득 및 보정한 결과 (x, y, z)인 경우 롤 값으로 x를 추출하고, 피치 값으로 y를 추출하고, 요 값으로 z를 추출할 수 있다.
프로세서(190)는 추출된 롤 값이 90도 내지 270도 사이에 있는지를 판단한다(S505).
프로세서(190)는 추출된 롤 값이 90도 내지 270도 사이에 있는 경우, 아랫니에 칫솔모(103)가 위치한 것으로 판단한다(S507).
그 후, 프로세서(190)는 요 값이 90도 인지를 판단하고(S509), 요 값이 90도 인 경우, 칫솔모(103)가 앞니 영역에 위치한 것으로 판단한다(S511).
만약, 요 값이 180도 이상인 경우(S513), 프로세서(190)는 칫솔모(103)가 오른쪽 아랫니 영역에 위치한 것으로 판단한다(515).
요 값이 180도 이하이고, 90도가 아닌 경우, 프로세서(190)는 칫솔모(103)가 왼쪽 아랫니 영역에 위치한 것으로 판단한다(S517).
한편, 롤 값이 90도 내지 270를 벗어난 범위에 있는 경우(S505), 프로세서(190)는 칫솔모(103)가 윗니에 위치한 것으로 판단한다(S519).
그 후, 프로세서(190)는 요 값이 90도 인 경우, 칫솔모(103)가 앞니 영역에 위치한 것으로 판단한다(S511).
프로세서(190)는 요 값이 180도 이상인 경우(S523), 칫솔모(103)가 오른쪽 윗니 영역에 위치한 것으로 판단한다(S525).
프로세서(190)는 요 값이 180도 미만이고, 90도가 아닌 경우, 칫솔모(103)가 왼쪽 윗니 영역에 위치한 것으로 판단한다(S527).
이와 같이, 프로세서(190)는 센싱부(110)의 센싱 데이터에 기초하여 추출된 롤 값, 피치 값 및 요 값을 이용하여, 칫솔모(103)의 위치 및 방향을 측정할 수 있다.
프로세서(190)는 도 11을 통해 설명한 알고리즘 외에 다른 알고리즘을 통해서도 스마트 칫솔(100)로 양치질 중인 양치 영역을 획득할 수 있다.
도 12는 본 발명의 실시 예에 따른 양치 영역의 예를 보여주는 도면이다.
도 12를 참조하면, 구강 영역(700)은 5개의 영역(710 내지 750)을 포함할 수 있다.
제1 양치 영역(710)은 좌측 윗니 영역일 수 있다. 프로세서(190)는 롤 값이 90도 내지 270도를 벗어나 있고, 요 값이, 180도 이상인 경우, 칫솔모(103)가 제1 양치 영역(710)에 위치한 것으로 판단할 수 있다.
제2 양치 영역(720)은 좌측 아랫니 영역일 수 있다. 프로세서(190)는 롤 값이 90도 내지 270도 사이에 있고, 요 값이, 90도가 아니며, 180도 미만 경우, 칫솔모(103)가 제2 양치 영역(720)에 위치한 것으로 판단할 수 있다.
제3 양치 영역(730)은 우측 윗니 영역일 수 있다. 프로세서(190)는 롤 값이 90도 내지 270도를 벗어나 있고, 요 값이, 180도 이상인 경우, 칫솔모(103)가 제3 양치 영역(730)에 위치한 것으로 판단할 수 있다.
제4 양치 영역(740)은 우측 아랫니 영역일 수 있다. 프로세서(190)는 롤 값이 90도 내지 270도 사이에 있고, 요 값이, 180도 이상인 경우, 칫솔모(103)가 제4 양치 영역(740)에 위치한 것으로 판단할 수 있다.
제5 양치 영역(710)은 앞니 영역일 수 있다. 프로세서(190)는 요 값이, 90도인 경우, 칫솔모(103)가 제5 양치 영역(750)에 위치한 것으로 판단할 수 있다.
다시, 도 5를 설명한다.
컨트롤러(290)는 획득된 양치 영역을 포함하는 양치 가이드 화면을 표시할 수 있다(S31).
도 13은 본 발명의 실시 예에 따른 양치 가이드 모듈이 미러 디스플레이인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
미러 디스플레이(201)는 거울 기능을 하는 동시에 양치 가이드 화면을 출력하는 디스플레이(270)를 포함할 수 있다. 또한, 미러 디스플레이(201)는 사용자의 얼굴을 촬영 및 인식하는 얼굴 인식부(280)와, 양치 가이드 정보를 청각적으로 출력하는 음향 출력부(250)와, 스마트 칫솔(100)과 통신하는 무선 통신부(미도시), 및 미러 디스플레이(201)의 전반적인 동작을 제어하는 컨트롤러(미도시)를 더 포함할 수 있다.
디스플레이(270)는 양치 가이드 화면을 표시할 수 있고, 양치 가이드 화면은 양치질 영역 정보(1410)와, 양치질 시간 정보(1420)를 표시할 수 있다. 양치질 영역 정보(1410)는 양치 영역별로 양치질의 진행 상황을 포함할 수 있다. 예를 들어, 디스플레이(270)는 양치질이 많이 진행된 양치 영역일수록 밝은 색상으로 표시하고, 양치질이 적게 진행된 양치 영역일수록 어두운 색상으로 표시할 수 있다. 즉, 디스플레이(270)는 양치질의 진행 상황에 따라 양치 영역의 색상을 상이하게 표시할 수 있고, 사용자는 양치 영역의 색상에 기초하여 양치질이 더 필요한 영역을 용이하게 확인할 수 있다.
양치질 시간 정보(1420)는 양치질의 적정 시간을 안내하기 위한 것으로, 스마트 칫솔(100)과 연결된 시점에 게이지(gauge)가 최대(Max)로 표시되고, 양치질이 진행될수록 게이지가 줄어들어 적정 시간이 되면 게이지가 최소(Min)로 표시하여, 사용자가 적정 시간 동안 양치질을 하도록 안내할 수 있다.
실시 예에 따라, 디스플레이(280)는 양치질 시간 정보(1420)를 양치 영역별로 상이하게 표시하여 각 양치 영역별 양치질 적정 시간을 안내할 수도 있다.
음향 출력부(250)는 양치질 영역 정보(1410)와, 양치질 시간 정보(1420) 중 적어도 하나의 정보가 변경될 때마다 소리를 출력할 수도 있다.
미러 디스플레이(201)의 디스플레이(270)에는 사용자의 얼굴 및 치아가 바로 투영될 수 있다.
도 14는 본 발명의 실시 예에 따른 양치 가이드 모듈이 칫솔 거치대인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
칫솔 거치대(202)는 스마트 칫솔(100)이 수용되는 거치부(202a)가 형성된 거치대 바디부(202b)를 포함할 수 있다. 거치대 바디부(202b)에는 양치 가이드 화면을 출력하는 디스플레이(270), 얼굴 인식부(280), 음향 출력부(250), 무선 통신부(미도시) 및 컨트롤러(미도시)가 형성될 수 있다.
디스플레이(270)는 양치 가이드 화면을 표시할 수 있고, 양치 가이드 화면은 도 13을 통해 설명한 바와 유사하므로 자세한 설명은 생략하기로 한다.
도 15는 본 발명의 실시 예에 따른 양치 가이드 모듈이 유아용 칫솔 거치대인 경우 양치 가이드 화면을 나타내는 예시 도면이다.
도 14와 유사하게, 유아용 칫솔 거치대(202)는 스마트 칫솔(100)이 수용되는 거치부(202a)가 형성된 거치대 바디부(202b)를 포함할 수 있다. 거치대 바디부(202b)에는 양치 가이드 화면을 출력하는 디스플레이(270), 얼굴 인식부(280), 음향 출력부(250), 무선 통신부(미도시) 및 컨트롤러(미도시)가 형성될 수 있다.
디스플레이(270)는 양치 가이드 화면을 표시할 수 있고, 양치 가이드 화면은 도 13 및 도 14와 유사할 수 있고, 유사한 내용에 대한 설명은 생략하기로 한다.
다만, 유아용 칫솔 거치대(202)의 디스플레이(270)는 양치질의 진행 상황에 따라 양치 영역의 색상을 상이하게 표시하며, 스마트 칫솔(100)의 현재 위치에 해당하여 현재 양치질이 진행 중인 영역임을 나타내는 현재 양치 영역 정보(1520)를 더 표시할 수 있다. 이를 통해, 칫솔질이 서툰 아이들은 현재 양치 영역 정보(1520)를 통해 양치질 중인 영역을 확인하며 양치질할 수 있는 이점이 있다.
도 16은 본 발명의 실시 예에 따른 양치 가이드 모듈에 의해 양치 영역의 보정시 칫솔모션 데이터 변화를 나타내는 예시 도면이다.
도 16(a) 및 도 16(b)에 도시된 그래프의 가로 축은 요(yaw) 축이고, 세로 축은 롤(roll) 축일 수 있다. 따라서, 요 값이 0에서 180에 해당하는 영역(1310)은 좌측 양치 영역을 나타내고, 요 값이 181에서 360에 해당하는 영역(1320)은 우측 양치 영역을 나타낼 수 있다.
또한, 도 16(a) 및 도 16(b)에 다른 색상들로 표시된 각각의 영역들은 양치 영역들을 의미할 수 있다. 예를 들어, 각 영역은 좌측 윗니 영역, 좌측 아랫니 영역, 우측 윗니 영역, 우측 아랫니 영역 및 앞니 영역에 대응할 수 있다.
도 16(a) 및 도 16(b)에 도시된 각 점들은 양치 가이드 모듈(200)이 획득한 양치 영역을 나타낼 수 있다.
이 때, 도 16(a)에 도시된 점들은 스마트 칫솔(100)을 통해 획득한 칫솔모션 데이터에 기초한 양치 영역을 나타내고, 도 16(b)에 도시된 점들은 도 16(a)과 동일한 칫솔모션 데이터에 기초하나 얼굴자세 정보 및 이동단말기의 자세 정보 중 적어도 하나에 기초한 양치 영역을 나타낼 수 있다.
도 16(a)를 참고하면, 좌측 윗니 영역을 나타내는 제1 점들(1301)과 우측 윗니 영역을 나타내는 제2 점들(1302)이 주로 요 값이 120 내지 180인 영역에 분포하여 제2 점들(1302)에는 오류가 발생함을 확인할 수 있다.
그러나, 도 16(b)를 참고하면, 좌측 윗니 영역을 나타내는 제1 점들(1301)은 요 값이 주로 요 값이 150 내지 180인 영역에 분포하며, 우측 윗니 영역을 나타내는 제2 점들(1302)이 주로 요 값이 180 내지 200인 영역에 분포한 것을 확인할 수 있다. 즉, 얼굴자세 정보 및 이동단말기의 자세 정보에 기초하여 칫솔모션 데이터를 보정함으로써, 보다 정확하게 양치 영역을 판단 가능함을 확인할 수 있다.
이와 같이, 본 발명은 칫솔모션 데이터에 기초하여 양치 영역을 판단 가능할 뿐만 아니라, 사용자의 움직임 또는 양치 영역을 판단하는 장치의 움직임에 기초하여 칫솔모션 데이터의 기준점을 보정함으로써 양치 영역을 보다 정확하게 감지할 수 있는 이점이 있다. 즉, 본 발명에 따르면, 앞니를 양치하는 동안 고개를 좌우로 흔들어도 앞니 영역을 올바르게 감지하고, 고개는 가만히 있고 양치 영역을 판단하는 이동 단말기를 좌우로 방향을 바꿔도 올바르게 앞니 영역을 감지할 수 있는 이점이 있다.
따라서, 본 발명에 따르면 양치질하는 동안 스마트폰을 들고 양치 영역을 감지할 수 있으며, 특히 어린이들이 양치질하는 동안 고개를 많이 흔들어도 양치 영역을 보다 정확하게 감지할 수 있다.
본 발명의 일 실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 양치 가이드 모듈은 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 칫솔모션 데이터를 획득하는 센싱부를 갖는 스마트 칫솔; 및
    상기 칫솔모션 데이터를 수신하는 무선 통신부와,
    사용자의 얼굴을 인식하여 얼굴자세 정보를 획득하는 얼굴 인식부와,
    상기 얼굴자세 정보에 기초하여 상기 칫솔모션 데이터를 보정하고, 보정된 칫솔모션 데이터에 기초하여 상기 스마트 칫솔이 위치하고 있는 양치 영역을 검출하는 컨트롤러를 갖는 양치 가이드 모듈을 포함하는 스마트 칫솔 시스템.
  2. 제1항에 있어서,
    상기 양치 가이드 모듈은
    이동 단말기, 미러 디스플레이 및 상기 스마트 칫솔이 보관되는 칫솔 거치대를 포함하는 스마트 칫솔 시스템.
  3. 제1항에 있어서,
    상기 양치 가이드 모듈은
    상기 양치 가이드 모듈이 이동 단말기인 경우 상기 이동 단말기의 자세 변화를 감지하여 단말기의 자세 정보를 획득하는 센싱 모듈을 더 포함하고,
    상기 컨트롤러는 상기 얼굴자세 정보 및 상기 단말기의 자세 정보 중 적어도 하나에 기초하여 상기 칫솔모션 데이터를 보정하는 스마트 칫솔 시스템.
  4. 제3항에 있어서,
    상기 칫솔모션 데이터는 상기 스마트 칫솔에 포함된 가속도 센서, 각속도 센서 및 자이로 센서를 통해 획득된 데이터이고,
    상기 얼굴자세 정보는 상기 이동 단말기에 포함된 카메라를 통해 획득된 정보이고,
    상기 단말기의 자세 정보는
    상기 이동 단말기에 포함된 가속도 센서, 각속도 센서 및 자이로 센서를 통해 획득된 정보인 스마트 칫솔 시스템.
  5. 제1항에 있어서,
    상기 양치 가이드 모듈은
    상기 검출된 양치 영역을 포함하는 양치 가이드 화면을 표시하는 디스플레이를 더 포함하고,
    상기 디스플레이는
    양치질의 진행 상황에 따라 상이한 색상으로 양치 영역을 표시하는 스마트 칫솔 시스템.
  6. 제5항에 있어서,
    상기 디스플레이는
    양치질이 많이 진행된 양치 영역을 양치질이 적게 진행된 양치 영역 보다 밝은 색상으로 표시하는 스마트 칫솔 시스템.
  7. 제5항에 있어서,
    상기 양치 가이드 모듈은 상기 스마트 칫솔이 보관되는 칫솔 거치대이고,
    상기 디스플레이는 상기 칫솔 거치대에 형성되는 스마트 칫솔 시스템.
  8. 제5항에 있어서,
    상기 디스플레이는
    상기 스마트 칫솔의 현재 위치를 나타내는 현재 양치 영역 정보를 더 표시하는 스마트 칫솔 시스템.
  9. 제1항에 있어서,
    상기 스마트 칫솔은
    움직임 감지를 통해 스마트 칫솔의 사용 여부를 감지하고, 상기 스마트 칫솔이 사용 중으로 감지되면 상기 양치 가이드 모듈과 무선 통신으로 연결되는 스마트 칫솔 시스템.
  10. 제1항에 있어서,
    상기 얼굴 인식부는
    상기 스마트 칫솔을 사용 중인 사용자의 얼굴을 촬영하고, 상기 사용자의 얼굴에서 복수개의 얼굴 부위를 인식하고, 인식된 각 얼굴 부위 간의 간격에 기초하여 사용자 얼굴의 자세변화를 감지하는 스마트 칫솔 시스템.
  11. 제1항에 있어서,
    상기 얼굴 인식부는
    상기 사용자의 얼굴이 좌/우로 움직이는지, 상기 사용자의 얼굴이 좌/우로 기울어지는지 또는 상기 사용자의 얼굴이 위/아래로 기울어지는지 감지하는 스마트 칫솔 시스템.
  12. 제1항에 있어서,
    상기 칫솔모션 데이터는 상기 스마트 칫솔의 제1 롤 값, 제1 피치 값 및 제1 요 값으로 구성되고,상기 얼굴자세 정보는 상기 사용자의 얼굴의 제2 롤 값, 제2 피치 값 및 제2 요 값으로 구성되고,
    상기 컨트롤러는 상기 제1 롤 값과 제2 롤 값의 차, 제1 피치 값과 제2 피치 값의 차 및 제1 요 값과 제2 요 값의 차를 산출하여 상기 칫솔모션 데이터를 보정하는 스마트 칫솔 시스템.
  13. 스마트 칫솔로부터 칫솔모션 데이터를 수신하는 무선 통신부;
    사용자의 얼굴을 인식하여 얼굴자세 정보를 획득하는 얼굴 인식부;
    상기 얼굴자세 정보에 기초하여 상기 칫솔모션 데이터를 보정하고, 보정된 칫솔모션 데이터에 기초하여 상기 스마트 칫솔이 위치하고 있는 양치 영역을 검출하는 컨트롤러를 포함하는 양치 가이드 모듈.
  14. 제13항에 있어서,
    상기 양치 가이드 모듈이 이동 단말기인 경우 상기 이동 단말기의 자세 변화를 감지하여 단말기의 자세 정보를 획득하는 센싱 모듈을 더 포함하고,
    상기 컨트롤러는 상기 얼굴자세 정보 및 상기 단말기의 자세 정보 중 적어도 하나에 기초하여 상기 칫솔모션 데이터를 보정하는 양치 가이드 모듈.
  15. 제13항에 있어서,
    상기 얼굴 인식부는
    상기 사용자의 얼굴을 촬영하는 카메라와,
    상기 촬영된 사용자의 얼굴에 적용되는 얼굴각도산출 알고리즘을 저장하고 있는 저장부를 포함하는 양치 가이드 모듈.
  16. 제13항에 있어서,
    상기 얼굴 인식부는
    상기 스마트 칫솔을 사용 중인 사용자의 얼굴을 인식하는 양치 가이드 모듈.
  17. 제13항에 있어서,
    상기 검출된 양치 영역을 포함하는 양치 가이드 화면을 표시하는 디스플레이를 더 포함하는 양치 가이드 모듈.
  18. 제17항에 있어서,
    상기 디스플레이는
    양치질의 진행 상황에 따라 상이한 색상으로 양치 영역을 표시하는 양치 가이드 모듈.
  19. 제17항에 있어서,
    상기 디스플레이는
    상기 스마트 칫솔의 현재 위치를 나타내는 현재 양치 영역 정보를 표시하는 양치 가이드 모듈.
  20. 제13항에 있어서,
    상기 얼굴 인식부는
    상기 사용자의 얼굴에서 복수개의 얼굴 부위를 인식하고, 인식된 각 얼굴 부위 간의 간격에 기초하여 사용자 얼굴의 자세변화를 감지하여 사용자 얼굴의 롤 값, 피치 값 및 요 값을 획득하는 양치 가이드 모듈.
PCT/KR2018/004111 2017-11-17 2018-04-09 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템 WO2019098466A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762587493P 2017-11-17 2017-11-17
US62/587,493 2017-11-17
KR1020180040016A KR20190056944A (ko) 2017-11-17 2018-04-05 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템
KR10-2018-0040016 2018-04-05

Publications (1)

Publication Number Publication Date
WO2019098466A1 true WO2019098466A1 (ko) 2019-05-23

Family

ID=66539583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/004111 WO2019098466A1 (ko) 2017-11-17 2018-04-09 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템

Country Status (1)

Country Link
WO (1) WO2019098466A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113288487A (zh) * 2021-01-19 2021-08-24 阿里巴巴集团控股有限公司 刷牙指导方法与刷牙方法、设备、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100170052A1 (en) * 2008-11-20 2010-07-08 Marc Philip Ortins Personal Hygiene Devices, Systems and Methods
KR20110002011A (ko) * 2008-02-27 2011-01-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 칫솔에 대한 덴탈 위치 추적 시스템
US20150044629A1 (en) * 2013-08-11 2015-02-12 Grush, Inc. Oral Care Tools and Systems
KR20160103468A (ko) * 2015-02-24 2016-09-01 주식회사 포워드벤처스 치아 관리 디스플레이 시스템 및 치아 관리 디스플레이 방법
US20170069083A1 (en) * 2015-09-08 2017-03-09 Braun Gmbh Determination of a currently treated body portion of a user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110002011A (ko) * 2008-02-27 2011-01-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 칫솔에 대한 덴탈 위치 추적 시스템
US20100170052A1 (en) * 2008-11-20 2010-07-08 Marc Philip Ortins Personal Hygiene Devices, Systems and Methods
US20150044629A1 (en) * 2013-08-11 2015-02-12 Grush, Inc. Oral Care Tools and Systems
KR20160103468A (ko) * 2015-02-24 2016-09-01 주식회사 포워드벤처스 치아 관리 디스플레이 시스템 및 치아 관리 디스플레이 방법
US20170069083A1 (en) * 2015-09-08 2017-03-09 Braun Gmbh Determination of a currently treated body portion of a user

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113288487A (zh) * 2021-01-19 2021-08-24 阿里巴巴集团控股有限公司 刷牙指导方法与刷牙方法、设备、系统及存储介质
CN113288487B (zh) * 2021-01-19 2024-02-13 阿里巴巴集团控股有限公司 刷牙指导方法与刷牙方法、设备、系统及存储介质

Similar Documents

Publication Publication Date Title
AU2014297039B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
WO2019189993A1 (ko) 스마트 칫솔 및 이동 단말기
WO2014088268A1 (en) X-ray imaging apparatus and method for controlling the same
WO2015023145A1 (ko) 공간 해상도가 가변되는 거리 정보를 획득할 수 있는 거리검출장치 및 이를 구비한 영상표시장치
WO2014021576A1 (en) Electronic device for providing content according to user's posture and content providing method thereof
WO2019098466A1 (ko) 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템
WO2019017696A1 (ko) 신발 끈 조절장치 및 이를 구비하는 신발
EP3684563A1 (en) Moving robot and control method thereof
CN107409173A (zh) 拍摄设备及其控制方法、装置
WO2020141727A1 (ko) 헬스 케어 로봇 및 그 제어 방법.
WO2018223520A1 (zh) 面向儿童的学习方法、学习设备及存储介质
WO2020235914A1 (ko) 피부 상태 측정 및 케어용 디바이스, 및 이를 포함하는 피부 상태 측정 및 케어 시스템
WO2021006674A2 (ko) 이동 로봇 및 그 제어방법
WO2017126817A1 (ko) 사용자단말기 및 그 제어방법
KR20190056944A (ko) 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템
WO2017010593A1 (ko) 제스쳐 인식 장치
WO2020005036A1 (ko) 무게 트래킹 장치 및 방법
WO2010114306A2 (ko) 렌즈처방을 위한 매개변수 측정장치
WO2022164175A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2021172791A1 (ko) 전자 장치 및 이를 이용한 시각적 효과 제공 방법
EP3320679A1 (en) Imaging device and method of operating the same
WO2019088343A1 (ko) 아크라인에 기초한 보철물 디자인 방법 및 시스템
WO2021177724A1 (ko) 이동 로봇 및 그 제어방법
WO2020242005A1 (ko) 사용자의 이동 패턴 특징을 이용한 모드 제어 방법 및 장치
WO2021006550A1 (en) Robot cleaner using artificial intelligence and controlling method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18878803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18878803

Country of ref document: EP

Kind code of ref document: A1