KR20230139921A - Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor - Google Patents

Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor Download PDF

Info

Publication number
KR20230139921A
KR20230139921A KR1020220037820A KR20220037820A KR20230139921A KR 20230139921 A KR20230139921 A KR 20230139921A KR 1020220037820 A KR1020220037820 A KR 1020220037820A KR 20220037820 A KR20220037820 A KR 20220037820A KR 20230139921 A KR20230139921 A KR 20230139921A
Authority
KR
South Korea
Prior art keywords
face
user
massage
washing
robot arm
Prior art date
Application number
KR1020220037820A
Other languages
Korean (ko)
Inventor
김태이
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220037820A priority Critical patent/KR20230139921A/en
Publication of KR20230139921A publication Critical patent/KR20230139921A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47KSANITARY EQUIPMENT NOT OTHERWISE PROVIDED FOR; TOILET ACCESSORIES
    • A47K7/00Body washing or cleaning implements
    • A47K7/04Mechanical washing or cleaning devices, hand or mechanically, i.e. power operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H37/00Accessories for massage
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H7/00Devices for suction-kneading massage; Devices for massaging the skin by rubbing or brushing not otherwise provided for
    • A61H7/002Devices for suction-kneading massage; Devices for massaging the skin by rubbing or brushing not otherwise provided for by rubbing or brushing
    • A61H7/004Devices for suction-kneading massage; Devices for massaging the skin by rubbing or brushing not otherwise provided for by rubbing or brushing power-driven, e.g. electrical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/02Head
    • A61H2205/022Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Dermatology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Massaging Devices (AREA)

Abstract

세안과 마사지 기능성 다관절 로봇 장치 및 이 제어 방법이 개시된다. 상기 다관절 로봇 장치는, 사용자의 세안 또는 마사지를 수행하기 위한 엔드 이펙터를 구비한 다관절 로봇팔; 상기 사용자의 얼굴을 촬영하는 영상 촬영부; 및 상기 사용자의 얼굴 영상과 미리 학습된 인공지능 모델을 이용하여 상기 사용자의 얼굴에서 세안 또는 마사지 영역을 검출하고, 상기 검출된 세안 또는 마사지 영역에서의 이동 경로 계획을 수립하며, 상기 수립된 이동 경로 계획에 따라 상기 다관절 로봇팔이 상기 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동되도록 상기 다관절 로봇팔을 제어하는 제어부를 포함한다.A functional multi-joint robot device for face washing and massage and a control method thereof are disclosed. The articulated robot device includes an articulated robot arm provided with an end effector for washing or massaging the user's face; an image capture unit that captures the user's face; And detecting a face washing or massage area on the user's face using the user's face image and a pre-learned artificial intelligence model, establishing a movement path plan in the detected face washing or massage area, and establishing the established movement route. and a control unit that controls the articulated robot arm so that the articulated robot arm moves at a preset constant pressure on the user's face according to a plan.

Figure P1020220037820
Figure P1020220037820

Description

세안과 마사지 기능성 다관절 로봇 장치 및 이 제어 방법 {MULTI-JOINT ROBOT APPARATUS FOR FACIAL CLEANSING AND MASSAGE, AND METHOD FOR CONTROLLING THEREFOR}Face washing and massage functional multi-joint robot device and control method {MULTI-JOINT ROBOT APPARATUS FOR FACIAL CLEANSING AND MASSAGE, AND METHOD FOR CONTROLLING THEREFOR}

본 개시는 다관절 로봇 장치에 관한 것이며, 보다 구체적으로 세안과 마사지 기능성 다관절 로봇 장치 및 이 제어 방법에 대한 것이다.The present disclosure relates to an articulated robot device, and more specifically, to an articulated robot device with facial washing and massage functions and a control method thereof.

일반적으로 화장품이란 피부를 청결하게 하고 수분 공급 및 유지를 도와주며 피부에 필요한 유분과 영양분을 공급하는 기초화장품과, 얼굴, 눈, 눈썹 및 입술 등을 다양한 색상으로 표현하는 색조화장품으로 크게 나눌 수 있다.In general, cosmetics can be broadly divided into basic cosmetics that clean the skin, help supply and maintain moisture, and supply the oil and nutrients necessary for the skin, and color cosmetics that express the face, eyes, eyebrows, and lips in various colors. .

색조화장품은 용모를 아름답게 변화시켜 피부를 아름답게 연출할 수 있는 장점이 있지만, 화장을 잘 지우지 않을 경우 색소가 침착되어 기미가 생기거나 독소가 피부에 침투하여 피부 트러블을 발생시키는 요인이 된다.Color cosmetics have the advantage of beautifying the appearance of the skin by beautifully changing the appearance, but if the makeup is not removed properly, the pigment may settle, causing freckles, or toxins may penetrate the skin, causing skin problems.

색조화장품에는 물로 세안하는 것만으로는 화장을 완전히 지울 수 없는 성분들이 다량 함유되어 있기 때문에 클렌징 티슈, 클렌징 폼, 클렌징 크림 등의 다양한 형태의 세안화장품을 사용하여 피부에 도포된 화장품과 피부의 노폐물을 제거한다.Since color cosmetics contain a large amount of ingredients that cannot be completely removed by simply washing your face with water, various types of facial cleansing cosmetics such as cleansing tissues, cleansing foam, and cleansing cream are used to remove cosmetics applied to the skin and impurities on the skin. Remove.

본 개시의 기술적 과제는, 세안과 마사지 기능성 다관절 로봇 장치 및 이 제어 방법을 제공하는데 그 목적이 있다.The technical problem of the present disclosure is to provide a functional multi-joint robot device for face washing and massage and a control method thereof.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by this disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. You will be able to.

본 개시의 일 실시예에 따르면, 세안과 마사지 기능성 다관절 로봇 장치 및 이를 이용한 세안과 마사지 방법이 개시된다. 상기 다관절 로봇 장치는, 사용자의 세안 또는 마사지를 수행하기 위한 엔드 이펙터를 구비한 다관절 로봇팔; 상기 사용자의 얼굴을 촬영하는 영상 촬영부; 및 상기 사용자의 얼굴 영상과 미리 학습된 인공지능 모델을 이용하여 상기 사용자의 얼굴에서 세안 또는 마사지 영역을 검출하고, 상기 검출된 세안 또는 마사지 영역에서의 이동 경로 계획을 수립하며, 상기 수립된 이동 경로 계획에 따라 상기 다관절 로봇팔이 상기 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동되도록 상기 다관절 로봇팔을 제어하는 제어부를 포함한다.According to an embodiment of the present disclosure, a functional multi-joint robot device for face washing and massage and a face washing and massage method using the same are disclosed. The articulated robot device includes an articulated robot arm provided with an end effector for washing or massaging the user's face; an image capture unit that captures the user's face; And detecting a face washing or massage area on the user's face using the user's face image and a pre-learned artificial intelligence model, establishing a movement path plan in the detected face washing or massage area, and establishing the established movement route. and a control unit that controls the articulated robot arm so that the articulated robot arm moves at a preset constant pressure on the user's face according to a plan.

이때, 상기 영상 촬영부는, RGB 카메라와 뎁스 카메라를 포함하고, 상기 RGB 카메라와 상기 뎁스 카메라를 이용하여 상기 사용자의 얼굴에 대한 컬러 영상과 뎁스 영상을 촬영할 수 있다.At this time, the image capture unit includes an RGB camera and a depth camera, and can capture a color image and a depth image of the user's face using the RGB camera and the depth camera.

이때, 상기 제어부는, 상기 사용자에 의해 선택되는 세안 모드와 마사지 모드에 따라 상기 다관절 로봇팔을 제어하여 상기 엔드 이펙터를 선택된 모드에 대응하는 엔드 이펙터로 교체할 수 있다.At this time, the control unit may control the articulated robot arm according to the face washing mode and massage mode selected by the user and replace the end effector with an end effector corresponding to the selected mode.

이때, 상기 제어부는, 상기 사용자의 얼굴 영상을 실시간으로 분석하여 상기 사용자의 얼굴이 움직이는 경우 상기 사용자의 얼굴 이동 거리를 실시간으로 계산하고, 상기 얼굴 이동 거리를 상기 이동 경로 계획에 반영할 수 있다.At this time, the control unit may analyze the user's face image in real time, calculate the user's face movement distance in real time when the user's face moves, and reflect the face movement distance in the movement path plan.

이때, 상기 제어부는, 상기 검출된 세안 또는 마사지 영역에서 눈 영역, 헤어라인 영역과 입술 영역을 제외하고, 나머지 영역에서 상기 이동 경로 계획을 수립할 수 있다.At this time, the control unit may exclude the eye area, hairline area, and lip area from the detected face washing or massage area and establish the movement path plan in the remaining areas.

상기 다관절 로봇 장치 제어 방법은, 사용자의 얼굴을 영상 촬영하는 단계; 상기 사용자의 얼굴 영상과 미리 학습된 인공지능 모델을 이용하여 상기 사용자의 얼굴에서 세안 또는 마사지 영역을 검출하는 단계; 상기 검출된 세안 또는 마사지 영역에서의 이동 경로 계획을 수립하는 단계; 및 상기 수립된 이동 경로 계획에 따라 엔드 이펙터를 구비한 다관절 로봇팔을 상기 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동시켜 상기 사용자의 얼굴에 대하여 세안 또는 마사지를 수행하는 단계를 포함한다.The method for controlling an articulated robot device includes: capturing an image of a user's face; Detecting a face washing or massage area on the user's face using the user's face image and a pre-trained artificial intelligence model; Establishing a movement route plan in the detected face washing or massage area; And a step of moving an articulated robot arm with an end effector to the user's face at a preset constant pressure according to the established movement path plan to perform facial cleansing or massage on the user's face.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present disclosure are merely exemplary aspects of the detailed description of the present disclosure described below, and do not limit the scope of the present disclosure.

본 개시에 따르면, 세안과 마사지 기능성 다관절 로봇 장치 및 이 제어 방법을 제공할 수 있다.According to the present disclosure, a functional multi-joint robot device for face washing and massage and a control method thereof can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치의 구성을 나타낸 도면이다.
도 2는 본 개시의 다관절 로봇 장치에 대한 동작을 설명하기 위한 예시도를 나타낸 도면이다.
도 3은 사용자 인터페이스에 대한 예시도를 나타낸 도면이다.
도 4는 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치 제어 방법의 순서도를 나타낸 도면이다.
도 5는 본 개시의 다른 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치가 적용되는 디바이스의 구성도를 나타낸 도면이다.
Figure 1 is a diagram showing the configuration of a functional multi-joint robot device for face washing and massage according to an embodiment of the present disclosure.
Figure 2 is a diagram showing an example for explaining the operation of the articulated robot device of the present disclosure.
Figure 3 is a diagram showing an example of a user interface.
Figure 4 is a flowchart of a method for controlling a functional multi-joint robot device for face washing and massage according to an embodiment of the present disclosure.
Figure 5 is a diagram showing the configuration of a device to which a functional multi-joint robot device for face washing and massage is applied according to another embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing embodiments of the present disclosure, if it is determined that detailed descriptions of known configurations or functions may obscure the gist of the present disclosure, detailed descriptions thereof will be omitted. In addition, in the drawings, parts that are not related to the description of the present disclosure are omitted, and similar parts are given similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결 관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is said to be “connected,” “coupled,” or “connected” to another component, this is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in between. It may also be included. In addition, when a component is said to "include" or "have" another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless specifically mentioned. Therefore, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, the second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위한 것일 뿐, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, distinct components are only for clearly explaining each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in one embodiment are also included in the scope of the present disclosure. Additionally, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 본 명세서에 사용되는 위치 관계의 표현, 예컨대 상부, 하부, 좌측, 우측 등은 설명의 편의를 위해 기재된 것이고, 본 명세서에 도시된 도면을 역으로 보는 경우에는, 명세서에 기재된 위치 관계는 반대로 해석될 수도 있다.In this disclosure, expressions of positional relationships used in this specification, such as top, bottom, left, right, etc., are described for convenience of explanation, and when the drawings shown in this specification are viewed in reverse, the positions described in the specification The relationship can also be interpreted the other way around.

우리의 일상에서의 수고스러움을 대체하는 목적으로, 로봇 팔을 이용한 기술들이 속속 등장하고 계속해서 기술개발이 이루어지고 있다. 보통의 현대인들은 하루에 보통 두 번 세안을 한다. 그러나 피곤한 날에는 몸을 조금도 움직이기 싫은 때도 있고, 손을 다쳐서 물을 손에 묻힐 수 없는 경우도 있다. 여성들의 경우 전 세계 여성의 많은 비율이 매일 선크림, 파우더 등을 통한 피부 화장을 하는데, 상황에 따라서 화장을 지우지 못하고 잠들기도 한다.With the purpose of replacing the effort in our daily lives, technologies using robotic arms are emerging one after another and technological development continues. The average modern person washes their face twice a day. However, on tired days, there are times when I don't want to move my body even a little, and there are times when I can't put water on my hands because I hurt them. In the case of women, a large percentage of women around the world apply skin makeup using sunscreen and powder every day, and depending on the situation, they may fall asleep without being able to remove their makeup.

본 개시의 실시예들은, 다관절 로봇팔과 인공지능 모델을 이용하여 사용자의 얼굴에 대한 세안과 마사지를 수행하는 것을 그 요지로 한다.The gist of embodiments of the present disclosure is to perform face washing and massage of the user's face using an articulated robot arm and an artificial intelligence model.

도 1은 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치의 구성을 나타낸 도면이다.Figure 1 is a diagram showing the configuration of a functional multi-joint robot device for face washing and massage according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치(100)는, 다관절 로봇팔(130), 영상 촬영부(110)와 제어부(120)를 포함한다.Referring to FIG. 1 , the functional multi-joint robot device 100 for face washing and massage according to an embodiment of the present disclosure includes an articulated robotic arm 130, an image capture unit 110, and a control unit 120.

다관절 로봇팔(130)은, 제어부(120)의 제어에 의하여 동작되며, 사용자의 얼굴을 세안하거나 마사지하기 위한 엔드 이펙터를 구비할 수 있다The articulated robot arm 130 is operated under the control of the control unit 120 and may be provided with an end effector for washing or massaging the user's face.

이때, 다관절 로봇팔(130)은, 특정 위치에 고정된 상태일 수도 있고, 이동 가능한 기기에 부착된 상태일 수도 있다.At this time, the articulated robot arm 130 may be fixed at a specific location or may be attached to a movable device.

다관절 로봇팔(130)은, 제어부(120)의 제어에 의하여 세안 모드와 마사지 모드 그리고 각 모드의 세부 설정에 따라서 엔드 이펙터를 교체할 수도 있다.The articulated robot arm 130 may change the end effector according to the face washing mode, the massage mode, and the detailed settings of each mode under the control of the control unit 120.

즉, 다관절 로봇팔(130)의 엔드 이펙터(End Effector)는 세안과 마사지를 수행하는 과정에서 모드에 따라 교체할 수 있다. 예를 들어, 세안 모드에서는 브러쉬 형태의 회전형 엔드 이펙터로 교체하여 사용하고, 마사지 모드에서는 스톤, 압력 볼 등의 엔드 이펙터로 교체하여 사용할 수 있다. 이때, 엔드 이펙터의 교체는 제어부(120)의 제어를 통해 로봇팔의 끝단의 회전을 통해 교체가 가능하거나, 로봇팔이 이동하여 교체할 수도 있다. 물론, 사용자가 직접 엔드 이펙터를 교체할 수도 있다.In other words, the end effector of the articulated robot arm 130 can be replaced depending on the mode during the process of washing and massaging. For example, in face washing mode, it can be replaced with a brush-shaped rotating end effector, and in massage mode, it can be replaced with an end effector such as a stone or pressure ball. At this time, the end effector can be replaced by rotating the end of the robot arm under the control of the control unit 120, or it can be replaced by moving the robot arm. Of course, users can also replace the end effector themselves.

나아가, 다관절 로봇팔(130)은 압력 센서를 구비하고, 압력 센서를 이용하여 엔드 이펙터를 통해 사용자 얼굴과의 접촉 압력을 센싱하고 센싱된 접촉 압력을 제어부(120)를 제공할 수 있다.Furthermore, the articulated robot arm 130 may be equipped with a pressure sensor, sense contact pressure with the user's face through an end effector using the pressure sensor, and provide the sensed contact pressure to the control unit 120.

영상 촬영부(110)는, 특정 장소에 누워 있는 사용자의 얼굴을 실시간으로 촬영하는 수단으로, RGB 카메라와 뎁스 카메라 중 적어도 하나의 카메라를 이용하여 사용자의 얼굴에 대한 컬러 영상 또는 뎁스 영상을 촬영할 수 있으며, 이렇게 촬영된 영상은 제어부(120)로 전달될 수 있다.The image capture unit 110 is a means of capturing the face of a user lying in a specific place in real time, and can capture a color image or depth image of the user's face using at least one camera of an RGB camera and a depth camera. And the image captured in this way can be transmitted to the control unit 120.

이때, 영상 촬영부(110)는, 다관절 로봇팔(130)의 특정 부위에 부착되어 있을 수도 있고, 다관절 로봇팔이 부착되어 있는 수단에 부착되어, 사용자의 얼굴에 대한 영상을 실시간으로 촬영할 수 있다.At this time, the image capture unit 110 may be attached to a specific part of the articulated robot arm 130, or may be attached to a means to which the articulated robot arm is attached, to capture an image of the user's face in real time. You can.

제어부(120)는, 영상 촬영부(110)에 의해 촬영된 영상을 분석하여 사용자의 얼굴을 인식하고, 사용자의 얼굴 영상 예를 들어, RGB 영상과 뎁스 영상 중 적어도 하나의 영상을 입력으로 하는 미리 학습된 인공지능 모델을 이용하여 사용자의 얼굴에서 세안 또는 마사지 영역을 검출하고, 검출된 세안 또는 마사지 영역에서의 이동 경로 계획을 수립하며, 수립된 이동 경로 계획에 따라 다관절 로봇팔(130)이 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동되도록 다관절 로봇팔(130)을 제어함으로써, 사용자의 세안 또는 마사지를 수행할 수 있다.The control unit 120 analyzes the image captured by the image capture unit 110, recognizes the user's face, and inputs at least one of the user's face image, for example, an RGB image and a depth image. Using the learned artificial intelligence model, the face washing or massage area is detected on the user's face, a movement path plan in the detected face washing or massage area is established, and the multi-joint robot arm 130 is moved according to the established movement path plan. By controlling the articulated robot arm 130 to move at a preset constant pressure on the user's face, the user's face can be washed or massaged.

이때, 인공지능 모델은, 인종, 성별, 나이별로 얼굴 이미지 또는 얼굴 사진을 수집하고, 이렇게 수집된 데이터를 학습 데이터, 검증 데이터와 테스트 데이터로 분할한 후, 학습 데이터에 포함된 얼굴 사진에서 세안 또는 마사지 영역에 해당하는 부분을 라벨링함으로써, 라벨링된 학습 데이터를 이용하여 인공 지능 모델을 학습할 수 있다. 여기서, 인공지능 모델은, 입력으로 얼굴 영상과 얼굴 영상에 대한 뎁스 영상 중 적어도 하나를 입력으로 하여, 세안 또는 마사지 영역을 검출하는 모델일 수 있다. 물론, 이렇게 학습된 인공지능 모델은 검증 데이터를 이용하여 검증하고, 테스트 데이터를 이용하여 모델 성능을 측정하고 개선할 수 있다.At this time, the artificial intelligence model collects face images or face photos by race, gender, and age, divides the collected data into learning data, validation data, and test data, and then washes or washes the face in the face photos included in the learning data. By labeling the part corresponding to the massage area, an artificial intelligence model can be learned using the labeled learning data. Here, the artificial intelligence model may be a model that detects a face washing or massage area by using at least one of a face image and a depth image for the face image as input. Of course, the artificial intelligence model learned in this way can be verified using verification data, and model performance can be measured and improved using test data.

나아가, 인공지능 모델은, 세안 또는 마사지 영역을 검출하는 것 뿐만 아니라 검출된 세안 또는 마사지 영역에서 로봇팔이 지나가지 말아야 할 눈 영역, 헤어라인 영역과 입술 영역을 검출할 수도 있다. 물론, 인공지능 모델은, 얼굴 영상 예를 들어, 얼굴의 뎁스 영상에서 눈 영역, 헤어라인 영역과 입술 영역을 검출하기 위하여, 학습 데이터로 학습될 수 있다. 예컨대, 본 개시의 실시예에 따른 다관절 로봇 장치(100)는, 얼굴에 대한 RGB 영상과 뎁스 영상을 입력으로 하여, 얼굴 영역에서 세안 또는 마사지 영역, 로봇팔이 지나가지 말아야 할 눈 영역, 헤어라인 영역과 입술 영역을 출력하도록, 인공지능 모델을 학습시킬 수 있다. Furthermore, the artificial intelligence model can not only detect the face washing or massage area, but also detect the eye area, hairline area, and lip area that the robot arm should not pass through in the detected face washing or massage area. Of course, the artificial intelligence model can be trained using learning data to detect the eye area, hairline area, and lip area in a face image, for example, a depth image of the face. For example, the articulated robot device 100 according to an embodiment of the present disclosure receives an RGB image and a depth image for the face as input, and selects a face washing or massage area, an eye area where the robot arm should not pass, and hair in the face area. An artificial intelligence model can be trained to output the line area and lip area.

따라서, 제어부(120)는, 검출된 세안 또는 마사지 영역에서 눈 영역, 헤어라인 영역과 입술 영역을 제외하고, 나머지 영역에서 세안 또는 마사지를 수행하기 위한 이동 경로 계획을 수립할 수 있다. 이때, 제어부(120)는 RGB 카메라와 뎁스 카메라를 통해 촬영된 영상을 처리하고, 사용자의 얼굴 모형과 뎁스 영상(또는 뎁스 값)을 입력으로 하는 인공지능 모델을 이용하여 로봇팔이 지나가지 말아야 할 눈 영역, 헤어라인 영역 등을 제외한 로봇팔이 이동해야 할 영역을 검출할 수 있다.Accordingly, the control unit 120 may exclude the eye area, hairline area, and lip area from the detected face washing or massage area and establish a movement path plan to perform face washing or massage in the remaining areas. At this time, the control unit 120 processes the images captured through the RGB camera and the depth camera, and uses an artificial intelligence model that inputs the user's face model and the depth image (or depth value) to determine areas where the robot arm should not pass. It is possible to detect the area where the robot arm should move, excluding the eye area and hairline area.

이때, 제어부(120)는 사용자 인터페이스의 설정 값과 사용자의 얼굴 인식 결과에 기초하여 이동 경로 계획을 수립할 수 있다. 실시예에 따라, 제어부(120)는 사용자가 선택한 모드, 압력, 시간과 얼굴 인식을 통해 도출된 로봇팔이 이동해야 할 영역을 조합하여, 원하는 모드에서 원하는 압력과 시간으로 해당 얼굴 영역을 지나기 위한 이동 경로 계획이 계산 및 수립될 수 있다. 예를 들어, 제어부(120)는 이동 경로 계획을 이마, 코, 양볼, 턱, 관자놀이 등의 순서로 로봇팔이 이동될 수 있도록 수립할 수 있다. 이때, 이동 순서는 통상 인간의 손으로 이루어지는 얼굴 피부 마사지와 얼굴 세안의 다양한 순서를 모사할 수 있다. At this time, the control unit 120 may establish a movement route plan based on the user interface setting values and the user's face recognition result. Depending on the embodiment, the control unit 120 combines the mode, pressure, and time selected by the user with the area to which the robot arm should move derived through face recognition to pass the corresponding facial area in the desired mode and at the desired pressure and time. A travel route plan can be calculated and established. For example, the control unit 120 may establish a movement path plan so that the robot arm can be moved in the following order: forehead, nose, cheeks, chin, temples, etc. At this time, the movement sequence can mimic the various sequences of facial skin massage and facial cleansing that are usually performed by human hands.

더 나아가, 제어부(120)는, 사용자에 의해 선택되는 세안 모드와 마사지 모드에 따라 다관절 로봇팔(130)을 제어하여 엔드 이펙터를 선택된 모드에 대응하는 엔드 이펙터로 교체할 수 있으며, 사용자의 얼굴 영상을 실시간으로 분석하여 사용자의 얼굴이 움직이는 경우 예를 들어, 위치가 이동되는 경우 사용자의 얼굴 이동 거리를 실시간으로 계산하고, 얼굴 이동 거리를 이동 경로 계획에 반영함으로써, 얼굴 이동 거리가 반영된 이동 경로 계획에 따라 다관절 로봇팔(130)이 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동되도록 다관절 로봇팔(130)을 제어할 수 있다.Furthermore, the control unit 120 can control the multi-joint robot arm 130 according to the face washing mode and massage mode selected by the user to replace the end effector with an end effector corresponding to the selected mode, and can replace the end effector with the end effector corresponding to the selected mode. By analyzing the video in real time, if the user's face moves, for example, if the location moves, the user's face movement distance is calculated in real time, and the face movement distance is reflected in the movement path plan, so that the movement path reflects the face movement distance. According to the plan, the articulated robot arm 130 can be controlled to move the articulated robot arm 130 at a preset constant pressure on the user's face.

또한, 제어부(120)는, 다관절 로봇팔(130)로부터 사용자 얼굴과의 접촉 압력을 피드백 받아, 다관절 로봇팔(130)이 미리 설정된 일정 입력을 유지하면서 이동 경로 계획의 이동 경로로 이동되도록 다관절 로봇팔(130)의 구동을 제어할 수 있다.In addition, the control unit 120 receives contact pressure with the user's face from the articulated robot arm 130 so that the articulated robot arm 130 moves along the movement path of the movement path plan while maintaining a preset constant input. The operation of the articulated robot arm 130 can be controlled.

제어부(120)는, 사용자 인터페이스를 통해 설정되는 정보에 기초하여 세안 모드 또는 마사지 모드를 선택할 수 있고, 선택된 모드에 따른 엔드 이펙터를 교체할 수 있으며, 세안 종류, 마사지 종류, 수행 시간, 압력에 따라 다관절 로봇팔(130)을 제어할 수 있다.The control unit 120 can select a face wash mode or a massage mode based on information set through the user interface, replace the end effector according to the selected mode, and change the end effector according to the face wash type, massage type, performance time, and pressure. The multi-joint robot arm 130 can be controlled.

다관절 로봇 장치(100)의 동작을 제어하기 위한 모드와 각 모드의 설정 값은, 사용자 인터페이스를 통해 설정될 수 있다. 사용자 인터페이스는 도 3에 도시된 바와 같이, 세안 모드(310)와 마사지 모드(320)에 대한 다양한 값들을 설정할 수 있다. 예를 들어, 세안 모드(세안 기능)(310)에는, 세안 범위 설정 항목, 세안 종류 설정 항목, 세안 압력 설정 항목, 세안 시간 설정 항목과 로션 도포 설정 항목 등을 포함할 수 있으며, 마사지 모드(마시지 기능)(320)에는, 마사지 종류 설정 항목, 마사지 강도 및 속도 설정 항목 등을 포함할 수 있다. Modes for controlling the operation of the articulated robot device 100 and setting values for each mode can be set through a user interface. As shown in FIG. 3, the user interface can set various values for the face washing mode 310 and massage mode 320. For example, the face washing mode (face washing function) 310 may include a face washing range setting item, a face washing type setting item, a face washing pressure setting item, a face washing time setting item, and a lotion application setting item, and a massage mode (massage Function) 320 may include massage type setting items, massage intensity and speed setting items, etc.

이때, 세안 범위 설정 항목은 얼굴 피부, 눈, 입술, 헤어 라인 등의 세안 범위를 설정할 수 있고, 세안 종류 설정 항목은 화장 세안, 먼지 세안과 마사지 세안 등을 선택할 수 있으며, 세안 압력 설정 항목은 압력 범위(0~100%) 또는 압력 수치를 설정할 수 있고, 세안 시간 설정 항목은 세안 시간을 설정하기 위한 항목으로, 빠른 세안과 정밀 세안 등의 항목을 선택할 수 있으며, 로션 도포 설정 항목은 스킨 도포와 로션 도포 항목을 포함할 수 있다. 그리고, 마사지 종류 설정 항목은 지압, 롤러와 붓기 제거 항목을 선택할 수 있으며, 마사지 강도 및 속도 설정 항목은 강도와 속도를 범위(0~100%) 또는 수치로 설정할 수 있다. 물론, 사용자 인터페이스가 도 3에 도시된 항목으로 제한되거나 한정되지 않으며, 세안과 마사지 기능을 수행하기 위해 필요한 다양한 항목을 더 포함할 수 있다. 예를 들어, 사용자 인터페이스는 사용자에 따라 세안하는 방식, 마사지하는 방식이 다를 수 있기 때문에, 세안 모드에서의 이동 경로 계획과 마사지 모드에서의 이동 경로 계획을 직접 설정하거나 다양한 이동 경로 계획 중에서 선택할 수 있는 항목을 포함할 수도 있고, 모드에 따라 사용하고자 하는 엔드 이펙터를 설정하는 항목을 포함할 수도 있다.At this time, the face wash range setting item allows you to set the face washing range of facial skin, eyes, lips, hairline, etc., the face wash type setting item allows you to select makeup face wash, dust face wash and massage face wash, etc., and the face wash pressure setting item is pressure. You can set the range (0~100%) or pressure value, and the face wash time setting item is for setting the face washing time. You can select items such as quick face washing and precise face washing, and the lotion application setting item is for skin application and skin application. May include lotion application items. In addition, the massage type setting item can be selected from acupressure, roller and swelling removal items, and the massage intensity and speed setting item can set the intensity and speed as a range (0 to 100%) or a numerical value. Of course, the user interface is not limited or restricted to the items shown in FIG. 3 and may further include various items necessary to perform face washing and massage functions. For example, because the user interface may differ in the way of washing and massaging depending on the user, it is possible to directly set the movement path plan in face wash mode and the movement path plan in massage mode or select from various movement path plans. It may contain an item or, depending on the mode, an item that sets the end effector to be used.

이러한 본 개시의 실시예에 따른 다관절 로봇 장치에 대하여, 도 2를 참조하여 설명하면 다음과 같다.The articulated robot device according to an embodiment of the present disclosure will be described with reference to FIG. 2 as follows.

도 2는 본 개시의 다관절 로봇 장치에 대한 동작을 설명하기 위한 예시도를 나타낸 도면으로, 세안 모드가 선택된 경우에 대한 동작을 설명하기 위한 예시도를 나타낸 도면이다.Figure 2 is a diagram showing an example for explaining the operation of the articulated robot device of the present disclosure, and is a diagram showing an example for explaining the operation when the face washing mode is selected.

다관절 로봇 장치(100)에 대한 동작을 설명하면, 도 2에 도시된 바와 같이 다관절 로봇 장치는, 사용자 인터페이스를 통한 설정 예를 들어, 세안 모드, 세안 시간, 세안 영역, 세안 압력 등의 정보가 설정된 후 사용자 입력에 의한 동작 명령이 수신(a)되면, RGB 카메라와 뎁스 카메라를 이용하여 침대 등의 특정 위치에 누운 사용자의 얼굴을 포함하는 영상을 실시간으로 촬영하고, 촬영된 영상의 영상 처리를 통해 얼굴을 인식(b)함으로써, 사용자의 얼굴에 대한 RGB 영상과 뎁스 영상을 생성한다. 여기서, 동작 명령은 다관절 로봇 장치와 통신이 가능한 사용자 단말기 예를 들어, 스마트폰에 설치된 관련 앱을 통해 수신될 수도 있고, 다관절 로봇 장치에 구비된 입력 수단 예를 들어, 터치 패드 등을 통해 수신될 수도 있다.When explaining the operation of the articulated robot device 100, as shown in FIG. 2, the articulated robot device configures settings through a user interface, for example, information such as face wash mode, face wash time, face wash area, face wash pressure, etc. After is set, when an operation command by user input is received (a), an image including the face of the user lying in a specific location such as a bed is captured in real time using an RGB camera and a depth camera, and image processing of the captured image is performed. By recognizing the face through (b), an RGB image and a depth image of the user's face are generated. Here, the operation command may be received through a related app installed on a user terminal capable of communicating with the articulated robot device, such as a smartphone, or through an input means provided on the articulated robot device, such as a touch pad. may be received.

그리고, 다관절 로봇 장치(100)는, 인식된 얼굴 영상 예를 들어, 깊이 영상과 인공지능 모델을 이용하여 깊이 영상에서 세안 영역을 검출하고, 검출된 세안 영역에서 헤어라인, 눈 영역과 입술 영역을 제외한 후 나머지 영역에서 로봇팔이 이동할 로봇 경로 계획(c)을 수립 또는 계산한다.In addition, the articulated robot device 100 detects a face washing area in a recognized face image, for example, a depth image using a depth image and an artificial intelligence model, and detects the hairline, eye area, and lip area in the detected face washing area. After excluding, establish or calculate a robot path plan (c) for the robot arm to move in the remaining area.

세안 모드에 대한 로봇 경로 계획이 수립되면, 다관절 로봇 장치의 제어부(120)는 로봇 경로 계획의 이동 순서로 로봇팔의 구동을 제어하여 엔드 이펙터로 사용자의 세안을 수행하고, 엔드 이펙터와 사용자의 얼굴 접촉에 의해 센싱된 압력을 압력 센서로부터 피드백 받음으로써, 센싱 압력이 일정 압력으로 유지되도록 다관절 로봇팔(130)의 이동과 압력을 제어(d)한다.Once the robot path plan for the face wash mode is established, the control unit 120 of the articulated robot device controls the operation of the robot arm in the movement order of the robot path plan to perform the user's face wash with the end effector, and the end effector and the user's face wash. By receiving feedback from the pressure sensor on the pressure sensed by face contact, the movement and pressure of the articulated robot arm 130 are controlled (d) so that the sensed pressure is maintained at a constant pressure.

상술한 과정을 통해, 다관절 로봇 장치(100)를 이용하여 사용자의 세안을 수행할 수 있으며, 마사지 모드가 선택되는 경우 상술한 과정과 유사하게 사용자의 얼굴을 마사지할 수 있다. 즉, 사용자 인터페이스를 통해 설정된 마사지 모드의 설정 값 예를 들어, 마사지 시간, 마사지 세부 모드, 마사지 압력 값 등을 반영하여 로봇 경로 계획 등만 달라질 수 있으며, 동작 명령 과정, 얼굴 인식 과정과 로봇 구동 과정을 상술한 바와 같이 동작할 수 있다.Through the above-described process, the user's face can be washed using the articulated robot device 100, and when the massage mode is selected, the user's face can be massaged similarly to the above-described process. In other words, only the robot path plan, etc. can be changed by reflecting the settings of the massage mode set through the user interface, such as massage time, massage detailed mode, massage pressure value, etc., and the motion command process, face recognition process, and robot driving process. may operate as described above.

이와 같이, 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치는, 다관절 로봇팔과 인공지능 모델을 이용하여 사용자의 얼굴에 대한 세안과 마사지를 수행함으로써, 침대 등에서 움직이지 않고 세안과 마사지를 받을 수 있다.In this way, the face washing and massage functional multi-joint robot device according to an embodiment of the present disclosure performs face washing and massage of the user's face using a multi-joint robot arm and an artificial intelligence model, thereby washing the face and massaging the user's face without moving from the bed, etc. You can get a massage.

또한, 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치는, 얼굴이 붓거나 피곤할 때 다관절 로봇팔을 이용하여 사용자의 얼굴에 지압 및 롤러 마사지를 제공할 수 있다.In addition, the facial washing and massage functional multi-joint robot device according to an embodiment of the present disclosure can provide acupressure and roller massage to the user's face using an articulated robot arm when the face is swollen or tired.

도 4는 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치 제어 방법의 순서도를 나타낸 도면으로, 도 1 내지 도 3의 다관절 로봇 장치에서 수행하는 동작을 나타낸 도면이다.FIG. 4 is a diagram illustrating a flowchart of a method for controlling a functional articulated robot device for face washing and massage according to an embodiment of the present disclosure, and is a diagram showing operations performed in the articulated robot device of FIGS. 1 to 3 .

도 4를 참조하면, 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치 제어 방법은, 사용자가 누워 있는 곳에서 사용자의 얼굴을 실시간으로 영상 촬영하고, 촬영된 영상을 처리하여 처리된 영상 예를 들어, 사용자의 얼굴에 대한 RGB 영상과 뎁스 영상을 입력으로 하는 인공지능 모델을 통해 사용자의 얼굴 영상에서 세안 영역 또는 마사지 영역을 검출한다(S410, S420).Referring to FIG. 4, the method of controlling the facial washing and massage functional multi-joint robot device according to an embodiment of the present disclosure captures an image of the user's face in real time where the user is lying, processes the captured image, and produces a processed image. For example, the face washing area or massage area is detected from the user's face image through an artificial intelligence model that uses the RGB image and depth image of the user's face as input (S410, S420).

단계 S420에 의해 사용자의 얼굴에서 세안 영역 또는 마사지 영역이 검출되면, 세안 영역 또는 마사지 영역에서 사용자의 얼굴을 세안 또는 마사지하기 위한 로봇팔의 이동 경로 계획(또는 로봇 경로 계획)을 수립 또는 계산한다(S430).When a face washing area or massage area is detected on the user's face in step S420, a movement path plan (or robot path plan) of the robot arm for washing or massaging the user's face in the face washing area or massage area is established or calculated ( S430).

여기서, 단계 S430은 검출된 세안 또는 마사지 영역에서 로봇팔이 지나가지 말아야 할 눈 영역, 헤어라인 영역과 입술 영역을 검출하고, 세안 또는 마사지 영역에서 눈 영역, 헤어라인 영역과 입술 영역을 제외하고, 나머지 영역에서 세안 또는 마사지를 수행하기 위한 이동 경로 계획을 수립할 수 있다.Here, step S430 detects the eye area, hairline area, and lip area that the robot arm should not pass through in the detected face washing or massage area, and excludes the eye area, hairline area, and lip area from the face washing or massage area, You can plan your travel route to perform face washing or massage in the remaining areas.

상기 이동 경로 계획은 사용자 인터페이스의 설정 값과 사용자의 얼굴 인식 결과에 기초하여 수립될 수 있는데, 단계 S430은 사용자가 선택한 모드, 압력, 시간과 얼굴 인식을 통해 도출된 로봇팔이 이동해야 할 영역을 조합하여, 원하는 모드에서 원하는 압력과 시간으로 해당 얼굴 영역을 지나기 위한 이동 경로 계획이 계산 및 수립될 수 있다. The movement path plan can be established based on the settings of the user interface and the user's face recognition result. Step S430 determines the area to which the robot arm should move derived through the user-selected mode, pressure, time, and face recognition. In combination, a movement path plan can be calculated and established to pass through the corresponding facial area at the desired pressure and time in the desired mode.

단계 S430에 의하여, 로봇팔이 이동하게 될 이동 경로 계획이 수립되면, 이동 경로 계획에 따라 미리 설정된 일정 압력을 유지시키면서 다관절 로봇팔을 이동시켜 사용자의 얼굴을 세안하거나 마사지를 수행할 수 있다(S440).In step S430, when a movement path plan along which the robot arm will move is established, the multi-joint robot arm can be moved to wash the user's face or perform a massage while maintaining a preset constant pressure according to the movement path plan ( S440).

여기서, 단계 S440은 사용자의 얼굴 영상을 실시간으로 분석하여 사용자의 얼굴이 움직이는 경우 예를 들어, 위치가 이동되는 경우 사용자의 얼굴 이동 거리를 실시간으로 계산하고, 얼굴 이동 거리를 이동 경로 계획에 반영함으로써, 얼굴 이동 거리가 반영된 이동 경로 계획에 따라 다관절 로봇팔을 이동시켜 사용자의 얼굴을 세안하거나 마사지를 수행할 수 있다.Here, step S440 analyzes the user's face image in real time, calculates the user's face movement distance in real time when the user's face moves, for example, when the location moves, and reflects the face movement distance in the movement route plan. , the multi-joint robot arm can be moved according to a movement path plan that reflects the facial movement distance to wash the user's face or perform a massage.

비록, 도 4의 방법에서 그 설명이 생략되더라도, 본 개시의 실시예에 따른 방법은 도 1 내지 도 3의 장치에서 설명한 모든 내용을 포함할 수 있으며, 이는 해당 기술 분야에 종사하는 당업자에게 있어서 자명하다.Even if the description is omitted in the method of FIG. 4, the method according to an embodiment of the present disclosure may include all the contents described in the device of FIGS. 1 to 3, which will be obvious to those skilled in the art. do.

도 5는 본 개시의 다른 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치가 적용되는 디바이스의 구성도를 나타낸 도면이다.Figure 5 is a diagram showing the configuration of a device to which a functional multi-joint robot device for face washing and massage is applied according to another embodiment of the present disclosure.

예를 들어, 도 1의 본 개시의 실시예에 따른 세안과 마사지 기능성 다관절 로봇 장치는 도 5의 디바이스(1600)가 될 수 있다. 도 5을 참조하면, 디바이스(1600)는 메모리(1602), 프로세서(1603), 송수신부(1604) 및 주변 장치(1601)를 포함할 수 있다. 또한, 일 예로, 디바이스(1600)는 다른 구성을 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 상기 디바이스(1600)는 예를 들어 이동 가능한 사용자 단말기(예를 들어, 스마트 폰, 노트북, 웨어러블 기기 등) 이거나 고정된 관리 장치(예를 들어, 서버, PC 등) 일 수 있다.For example, the functional multi-joint robot device for face washing and massage according to the embodiment of the present disclosure shown in FIG. 1 may be the device 1600 shown in FIG. 5 . Referring to FIG. 5, the device 1600 may include a memory 1602, a processor 1603, a transceiver 1604, and a peripheral device 1601. Additionally, as an example, the device 1600 may further include other components and is not limited to the above-described embodiment. At this time, the device 1600 may be, for example, a movable user terminal (e.g., smart phone, laptop, wearable device, etc.) or a fixed management device (e.g., server, PC, etc.).

보다 상세하게는, 도 5의 디바이스(1600)는 로봇 장치, 세안 장치, 마사지 장치, 미용 장치 등과 같은 예시적인 하드웨어/소프트웨어 아키텍처일 수 있다. 이때, 일 예로, 메모리(1602)는 비이동식 메모리 또는 이동식 메모리일 수 있다. 또한, 일 예로, 주변 장치(1601)는 디스플레이, GPS 또는 다른 주변기기들을 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. More specifically, the device 1600 of FIG. 5 may be an example hardware/software architecture such as a robotic device, an eye washing device, a massage device, a beauty device, etc. At this time, as an example, the memory 1602 may be a non-removable memory or a removable memory. Additionally, as an example, the peripheral device 1601 may include a display, GPS, or other peripheral devices, and is not limited to the above-described embodiment.

또한, 일 예로, 상술한 디바이스(1600)는 상기 송수신부(1604)와 같이 통신 회로를 포함할 수 있으며, 이에 기초하여 외부 디바이스와 통신을 수행할 수 있다.Additionally, as an example, the above-described device 1600 may include a communication circuit like the transceiver 1604, and may communicate with an external device based on this.

또한, 일 예로, 프로세서(1603)는 범용 프로세서, DSP(digital signal processor), DSP 코어, 제어기, 마이크로제어기, ASIC들(Application Specific Integrated Circuits), FPGA(Field Programmable Gate Array) 회로들, 임의의 다른 유형의 IC(integrated circuit) 및 상태 머신과 관련되는 하나 이상의 마이크로프로세서 중 적어도 하나 이상일 수 있다. 즉, 상술한 디바이스(1600)를 제어하기 위한 제어 역할을 수행하는 하드웨어적/소프트웨어적 구성일 수 있다. 또한 상기 프로세서(1603)는 전술한 도 1의 제어부(120)의 기능을 모듈화하여 수행할 수 있다.Additionally, as an example, the processor 1603 may include a general-purpose processor, a digital signal processor (DSP), a DSP core, a controller, a microcontroller, Application Specific Integrated Circuits (ASICs), Field Programmable Gate Array (FPGA) circuits, and any other It may be at least one of a tangible integrated circuit (IC) and one or more microprocessors associated with a state machine. In other words, it may be a hardware/software configuration that performs a control role to control the device 1600 described above. Additionally, the processor 1603 can modularize and perform the functions of the control unit 120 of FIG. 1 described above.

이때, 프로세서(1603)는 세안과 마사지 기능성 다관절 로봇 장치의 다양한 필수 기능들을 수행하기 위해 메모리(1602)에 저장된 컴퓨터 실행가능한 명령어들을 실행할 수 있다. 일 예로, 프로세서(1603)는 신호 코딩, 데이터 처리, 전력 제어, 입출력 처리 및 통신 동작 중 적어도 어느 하나를 제어할 수 있다. 또한, 프로세서(1603)는 물리 계층, MAC 계층, 어플리케이션 계층들을 제어할 수 있다. 또한, 일 예로, 프로세서(1603)는 액세스 계층 및/또는 어플리케이션 계층 등에서 인증 및 보안 절차를 수행할 수 있으며, 상술한 실시예로 한정되지 않는다.At this time, the processor 1603 may execute computer-executable instructions stored in the memory 1602 to perform various essential functions of the multi-joint robot device for face washing and massage functions. As an example, the processor 1603 may control at least one of signal coding, data processing, power control, input/output processing, and communication operations. Additionally, the processor 1603 can control the physical layer, MAC layer, and application layer. Additionally, as an example, the processor 1603 may perform authentication and security procedures at the access layer and/or application layer, and is not limited to the above-described embodiment.

일 예로, 프로세서(1603)는 송수신부(1604)를 통해 다른 장치들과 통신을 수행할 수 있다. 일 예로, 프로세서(1603)는 컴퓨터 실행가능한 명령어들의 실행을 통해 세안과 마사지 기능성 다관절 로봇 장치가 네트워크를 통해 다른 장치들과 통신을 수행하게 제어할 수 있다. 즉, 본 개시에서 수행되는 통신이 제어될 수 있다. 일 예로, 송수신부(1604)는 안테나를 통해 RF 신호를 전송할 수 있으며, 다양한 통신망에 기초하여 신호를 전송할 수 있다. As an example, the processor 1603 may communicate with other devices through the transceiver 1604. As an example, the processor 1603 may control the facial washing and massage functional multi-jointed robot device to communicate with other devices through a network through execution of computer-executable instructions. That is, communication performed in this disclosure can be controlled. As an example, the transceiver 1604 may transmit an RF signal through an antenna and may transmit signals based on various communication networks.

또한, 일 예로, 안테나 기술로서 MIMO 기술, 빔포밍 등이 적용될 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 송수신부(1604)를 통해 송수신한 신호는 변조 및 복조되어 프로세서(1603)에 의해 제어될 수 있으며, 상술한 실시 예로 한정되지 않는다.Additionally, as an example, MIMO technology, beamforming, etc. may be applied as antenna technology, and is not limited to the above-described embodiment. Additionally, signals transmitted and received through the transmitting and receiving unit 1604 may be modulated and demodulated and controlled by the processor 1603, and are not limited to the above-described embodiment.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of the present disclosure are expressed as a series of operations for clarity of explanation, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order, if necessary. In order to implement the method according to the present disclosure, other steps may be included in addition to the exemplified steps, some steps may be excluded and the remaining steps may be included, or some steps may be excluded and additional other steps may be included.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present disclosure do not list all possible combinations but are intended to explain representative aspects of the present disclosure, and matters described in the various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. Additionally, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It can be implemented by a processor (general processor), controller, microcontroller, microprocessor, etc.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine-executable instructions (e.g., operating system, application, firmware, program, etc.) that cause operations according to the methods of various embodiments to be executed on a device or computer, and such software or It includes non-transitory computer-readable medium in which instructions, etc. are stored and can be executed on a device or computer.

100 다관절 로봇 장치
110 영상 촬영부
120 제어부
130 다관절 로봇팔
100 articulated robot device
110 Video recording department
120 control unit
130 Jointed robot arm

Claims (1)

사용자의 세안 또는 마사지를 수행하기 위한 엔드 이펙터를 구비한 다관절 로봇팔;
상기 사용자의 얼굴을 촬영하는 영상 촬영부; 및
상기 사용자의 얼굴 영상과 미리 학습된 인공지능 모델을 이용하여 상기 사용자의 얼굴에서 세안 또는 마사지 영역을 검출하고, 상기 검출된 세안 또는 마사지 영역에서의 이동 경로 계획을 수립하며, 상기 수립된 이동 경로 계획에 따라 상기 다관절 로봇팔이 상기 사용자의 얼굴에서 미리 설정된 일정 압력으로 이동되도록 상기 다관절 로봇팔을 제어하는 제어부
를 포함하는, 다관절 로봇 장치.
A multi-joint robot arm with an end effector for washing or massaging the user's face;
an image capture unit that captures the user's face; and
Detect a face washing or massage area on the user's face using the user's face image and a pre-trained artificial intelligence model, establish a movement path plan in the detected face washing or massage area, and plan the established movement route. A control unit that controls the articulated robot arm so that the articulated robot arm moves at a preset constant pressure on the user's face.
Including, an articulated robot device.
KR1020220037820A 2022-03-28 2022-03-28 Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor KR20230139921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220037820A KR20230139921A (en) 2022-03-28 2022-03-28 Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220037820A KR20230139921A (en) 2022-03-28 2022-03-28 Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor

Publications (1)

Publication Number Publication Date
KR20230139921A true KR20230139921A (en) 2023-10-06

Family

ID=88296453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220037820A KR20230139921A (en) 2022-03-28 2022-03-28 Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor

Country Status (1)

Country Link
KR (1) KR20230139921A (en)

Similar Documents

Publication Publication Date Title
US10667697B2 (en) Identification of posture-related syncope using head-mounted sensors
US20210271861A1 (en) Optical expression detection
US11785330B2 (en) Personal care device with camera
KR102045219B1 (en) Body Information Analysis Apparatus Combining with Augmented Reality and Eyebrow Shape Preview Method thereof
JP6547013B2 (en) Biological information analysis apparatus and method thereof
CN103885589A (en) Eye movement tracking method and device
WO2019067903A1 (en) Head pose estimation from local eye region
JP2019063479A (en) Body information analysis apparatus and method of auxiliary comparison of eyebrow shape thereof
EP3518710B1 (en) Apparatus and method for supporting at least one user in performing a personal care activity
Mohammed Efficient eye blink detection method for disabled-helping domain
KR20190022274A (en) Body information analysis apparatus and lip-makeup analysis method thereof
KR20190028258A (en) Body Information Analysis Aapparatus And Hand Skin Analysis Method Thereof
WO2018126827A1 (en) Intelligent hood and control method therefor, and terminal
KR20230139921A (en) Multi-joint robot apparatus for facial cleansing and massage, and method for controlling therefor
JP2016192151A (en) Image processing apparatus and program
Bhowmick et al. A Framework for Eye-Based Human Machine Interface
US20190035126A1 (en) Body information analysis apparatus capable of indicating blush-areas
Rupanagudi et al. Design and implementation of a novel eye gaze recognition system based on scleral area for mnd patients using video processing
US20220128813A1 (en) Eye movement controls in extended reality
CN210121851U (en) Robot
CN113138668A (en) Method, device and system for selecting destination of automatic wheelchair driving
US10521647B2 (en) Body information analysis apparatus capable of indicating shading-areas
CN111639628A (en) Eye feature and action recognition method and system
WO2020056768A1 (en) Mirror
JP2019053706A (en) Body information analyzer and facial shape diagnostic method