KR20220074317A - Electronic device and Method for controlling electronic device using LiDAR sensor - Google Patents

Electronic device and Method for controlling electronic device using LiDAR sensor Download PDF

Info

Publication number
KR20220074317A
KR20220074317A KR1020200162667A KR20200162667A KR20220074317A KR 20220074317 A KR20220074317 A KR 20220074317A KR 1020200162667 A KR1020200162667 A KR 1020200162667A KR 20200162667 A KR20200162667 A KR 20200162667A KR 20220074317 A KR20220074317 A KR 20220074317A
Authority
KR
South Korea
Prior art keywords
data
user
movement
lidar
electronic device
Prior art date
Application number
KR1020200162667A
Other languages
Korean (ko)
Inventor
변주영
정성훈
Original Assignee
변주영
정성훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 변주영, 정성훈 filed Critical 변주영
Priority to PCT/KR2020/017146 priority Critical patent/WO2022114300A1/en
Priority to KR1020200162667A priority patent/KR20220074317A/en
Publication of KR20220074317A publication Critical patent/KR20220074317A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명인 하나 이상의 라이다 센서를 포함하는 전자장치 제어 방법은, 상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하는 단계, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자, 사용자의 특정 신체 부위, 사물 또는 이들 각각의 움직임에 대하여 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대한 하나 이상의 데이터를 개별적으로 획득하는 단계 및 상기 획득한 하나 이상의 데이터에 기초하여 상기 전자장치의 동작을 제어하는 단계를 포함할 수 있다.According to the present invention, a method for controlling an electronic device including one or more lidar sensors includes: acquiring data on a user's movement through the one or more lidar sensors; separately acquiring one or more data for distance, angle, position, direction, coordinate, spatial information or mapping data for a specific body part, object, or movement of each of them, and based on the acquired one or more data, the It may include controlling the operation of the electronic device.

Description

전자장치 및 라이다 센서를 이용한 전자장치 제어 방법{Electronic device and Method for controlling electronic device using LiDAR sensor}Electronic device and method for controlling electronic device using LiDAR sensor

본 발명은 전자장치 제어에 관한 것으로, 보다 상세하게는 라이다 센서를 활용하여 사용자의 움직임에 따라 제어 가능한 전자장치 및 그 제어 방법에 관한 것이다.The present invention relates to electronic device control, and more particularly, to an electronic device that can be controlled according to a user's movement by using a lidar sensor, and a control method thereof.

ICT 기술 발전에 따라 다양한 센서 기술이 연구 및 개발되고 있는데, 종래 항공 분야나 최근 자율주행 기술 분야에서, 특히 레이더(radar)나 라이다(LiDAR) 기술을 도입하고 있다. Various sensor technologies are being researched and developed according to the advancement of ICT technology. In particular, radar or LiDAR technology is being introduced in the conventional aviation field or the recent autonomous driving technology field.

그러나, 해당 기술은 원거리의 대상물을 감지하거나, 도로상의 주행 라인 또는 장애물을 인식하고 그 거리 측정을 위하여 제한적으로만 연구되고 활용되고 있다.However, the technology has been studied and utilized only limitedly to detect a distant object, recognize a driving line or an obstacle on a road, and measure the distance.

한편, 종래 모바일 디바이스 등에서 사용자의 움직임을 감지하기 위하여 모션 센서가 활용되었으나, 모션 센서만으로는 한계가 있으며, 다른 센서들에 의해 센싱된 데이터를 결합하여야만 사용자의 움직임에 관한 유의미한 데이터를 얻을 수 있었다. On the other hand, a motion sensor has been used to detect a user's movement in a conventional mobile device, etc., but there is a limit to the motion sensor alone, and meaningful data on the user's movement can be obtained only by combining data sensed by other sensors.

따라서, 종래에는 사용자의 움직임을 정확하게 감지하기 위해서는 다양한 센서들이 필요하였으며, 상기 센싱 데이터에 대한 분석에도 많은 시간과 자원이 소모되고 처리 프로세스 또한 복잡한 문제점이 있었다.Accordingly, in the prior art, various sensors were required to accurately detect a user's movement, and a lot of time and resources were consumed in analyzing the sensed data, and the processing process was also complicated.

이에, 위와 같은 문제점을 해결하기 위한 구체적인 방법이 요구되고 있는 실정이다.Accordingly, a specific method for solving the above problems is required.

국내 등록특허공보 제10-2059244호 (공개일: 2019년06월28일)Domestic Registered Patent Publication No. 10-2059244 (published on June 28, 2019)

상기한 종래 문제점을 해소하기 위한, 본 발명의 일과제는, 라이다 센서 기술을 이용하여 사용자의 움직임을 감지하고자 하는 것이다.In order to solve the above conventional problems, an object of the present invention is to detect a user's movement using a lidar sensor technology.

본 발명의 다른 일과제는, 전자장치에 포함된 라이다 센서를 통하여 사용자의 움직임을 감지하되, 감지결과에 따라 상기 전자장치를 제어하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method of detecting a user's movement through a lidar sensor included in an electronic device, and controlling the electronic device according to a detection result.

본 발명의 또 다른 일과제는, 라이다 센서 기술 및 사용자의 움직임 감지 기술을 다양한 일상생활 속 전자장치의 동작 제어에 활용하는 것이다.Another task of the present invention is to utilize the lidar sensor technology and the user's motion detection technology to control the operation of various electronic devices in daily life.

본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the above technical problems, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

상술한 문제점을 해결하기 위한 본 발명의 일실시예에 따른 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법은, 상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하는 단계, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자, 사용자의 특정 신체 부위, 사물 및 이들 각각의 움직임에 대한 거리, 각도, 위치, 방향, 좌표 또는 공간 정보, 맵핑데이터 등에 대하여 적어도 하나 이상의 데이터를 개별적으로 획득하는 단계 및 상기 획득한 하나 이상의 데이터에 기초하여 상기 전자장치의 동작을 제어하는 단계를 포함할 수 있다.The method for controlling an electronic device using one or more lidar sensors according to an embodiment of the present invention for solving the above-described problems includes acquiring data on a user's movement through the one or more lidar sensors, the acquired Based on the data on the user's movement, at least one or more data is individually obtained for the user, the user's specific body parts, objects, and the distance, angle, location, direction, coordinates or spatial information, and mapping data for each of these movements and controlling the operation of the electronic device based on the acquired one or more data.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 사용자, 사용자의 특정 신체 부위, 사물 또는 이들 각각의 움직임에 대한 데이터 또는 상기 사용자, 사용자의 특정 신체 부위, 사물 또는 이들 각각의 움직임에 따른 전자장치의 동작 제어 데이터를 저장하는 단계를 더 포함할 수 있다.According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, data on the user, a specific body part of the user, an object, or their respective movements, or the user, a specific body part of the user , the method may further include storing operation control data of the electronic device according to the movement of the object or each of them.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 획득하는 데이터는 극좌표 데이터 타입, 직교좌표 데이터 타입 또는 인식하고자 하는 대상의 거리, 각도, 위치, 방향, 좌표, 공간 정보, 맵핑 데이터 중 하나 이상을 나타내는 데이터 타입을 포함할 수 있다.According to the method of controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, the acquired data is a polar coordinate data type, a Cartesian coordinate data type, or a distance, angle, position, direction, It may include a data type representing one or more of coordinates, spatial information, and mapping data.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 획득하는 데이터에 기초하여 상기 사용자의 신체 부위의 이동량, 이동속도 및 이동방향을 산출할 수 있다.According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, the movement amount, movement speed, and movement direction of the user's body part may be calculated based on the acquired data.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정 방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량의 변화가 더 많은 축의 이동량만 유효 데이터로 이용할 수 있다.According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, in the calculated movement amount, the movement amount in the x-axis, y-axis, and z-axis to a specific direction, or in a straight or curved form If some or all of the movement amount for the movement is equal to or greater than the threshold, only the movement amount of the axis having a greater change in the movement amount may be used as valid data.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 각각의 이동량의 변화 일부 또는 모두를 유효 데이터로 이용할 수 있다.According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, in the calculated movement amount, the movement amount in the x-axis, y-axis, z-axis to a specific direction, or in a straight line or curved form When some or all of the movement amount for the movement is equal to or greater than the threshold, some or all of the change in each movement amount may be used as valid data.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량과 관계없이 시간축상에서 늦게 변화된 축의 이동량만 유효 데이터로 이용할 수 있다.According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, in the calculated movement amount, the movement amount in the x-axis, y-axis, z-axis to a specific direction, or in a straight line or curved form If some or all of the movement amount for the movement is equal to or greater than the threshold, only the movement amount of the axis that is changed later on the time axis may be used as valid data regardless of the movement amount.

본 발명의 일실시예에 따른 적어도 하나 이상의 라이다 센서를 이용한 전자장치 제어 방법에 따르면, 상기 적어도 하나의 라이다 센서는, 회전식 라이다 센서, 고정형 라이다 센서, 수퍼 라이다 센서, 2D 라이다 센서, 3D 라이다 센서, 소자형 라이다 센서, MEMS 라이다 센서, 플래시 라이다 센서, OPA 라이다 센서, FMCW 라이다 센서, 카메라 형 라이다, 라이다 스캐너, 다층 스캐너 또는 선형측정 센서 등의 다양한 방식의 라이다를 포함할 수 있다. According to the method for controlling an electronic device using at least one lidar sensor according to an embodiment of the present invention, the at least one lidar sensor includes a rotary lidar sensor, a fixed lidar sensor, a super lidar sensor, and a 2D lidar. sensor, 3D lidar sensor, device type lidar sensor, MEMS lidar sensor, flash lidar sensor, OPA lidar sensor, FMCW lidar sensor, camera lidar, lidar scanner, multilayer scanner or linear measurement sensor It may include various types of lidar.

본 발명의 일실시예에 따른 전자수전은, 메모리, 하나 이상의 라이다 센서 및 프로세서를 포함하되, 상기 프로세서는, 상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하고, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자의 손 부위를 인식하고, 상기 하나 이상의 라이다 센서를 통하여 상기 인식한 사용자의 손의 움직임에 대하여 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대하여 하나 이상의 데이터를 개별적으로 획득하며, 상기 획득한 하나 이상의 데이터에 기초하여 상기 전자수전의 동작을 제어할 수 있다.The electronic faucet according to an embodiment of the present invention includes a memory, one or more lidar sensors, and a processor, wherein the processor acquires data on a user's movement through the one or more lidar sensors, and Recognizes the user's hand part based on the user's movement data, and the distance, angle, position, direction, coordinates, spatial information or mapping data for the recognized user's hand movement through the one or more lidar sensors It is possible to separately acquire one or more data for , and control the operation of the electronic faucet based on the acquired one or more data.

본 발명의 일실시예에 따른 넥케어 장치는, 메모리, 하나 이상의 라이다 센서 및 프로세서를 포함하되, 상기 프로세서는, 상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하고, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부를 인식하고, 상기 하나 이상의 라이다 센서를 통하여 상기 인식한 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부의 움직임에 대하여 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대해 하나 이상의 데이터를 개별적으로 획득하며, 상기 획득한 하나 이상의 데이터에 기초하여 상기 사용자에게 건강 가이드 데이터를 제공할 수 있다.A neck care device according to an embodiment of the present invention includes a memory, one or more lidar sensors and a processor, wherein the processor acquires data about a user's movement through the one or more lidar sensors, and Recognizes the user's chin or face to neck, waist, or spine based on data about a user's movement, and recognizes the recognized user's chin or face to neck, waist or spine through the one or more lidar sensors. One or more data for distance, angle, position, direction, coordinate, spatial information or mapping data with respect to movement may be separately obtained, and health guide data may be provided to the user based on the obtained one or more data.

상기와 같은 본 발명에 따르면 아래에 기재된 효과를 얻을 수 있다. 다만, 본 발명을 통해 얻을 수 있는 효과는 이에 제한되지 않는다.According to the present invention as described above, the effects described below can be obtained. However, the effect obtainable through the present invention is not limited thereto.

첫째, 라이다 센서 기술을 이용하여 사용자의 움직임을 감지할 수 있는 효과가 있다.First, there is an effect of detecting the user's movement using the lidar sensor technology.

둘째, 전자장치에 포함된 라이다 센서를 통하여 사용자의 움직임을 감지하되, 감지결과에 따라 상기 전자장치를 제어하는 방법을 제공할 수 있는 효과가 있다.Second, there is an effect of providing a method for detecting a user's movement through a lidar sensor included in the electronic device and controlling the electronic device according to the detection result.

셋째, 라이다 센서 기술 및 사용자의 움직임 감지 기술을 다양한 일상생활 속 전자장치의 동작 제어에 활용할 수 있는 효과가 있다.Third, there is an effect that the lidar sensor technology and the user's motion detection technology can be used to control the operation of various electronic devices in daily life.

도 1은 본 발명의 일실시예에 따른 라이다 기술을 활용하여 제어되는 전자장치의 구성 블록도이다.
도 2는 본 발명의 일실시예에 따른 라이다 기술을 활용한 전자장치 제어 시스템을 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 라이다 기술을 활용하여 제어되는 전자장치(또는 컴퓨팅 디바이스)의 일 구성인 프로세서의 구성 블록도이다.
도 4는 본 발명의 일실시예에 따른 라이다 기술을 활용한 전자장치 제어 방법을 설명하기 위해 도시한 순서도이다.
도 5는 본 발명의 일실시예에 따른 라이다 기술이 적용된 전자수전의 사시도이다.
도 6은 상기 도 5의 전자수전의 제어를 위한 모션을 설명하기 위해 도시한 도면이다.
도 7은 상기 도 6의 모션에 따른 전자수전의 제어를 설명하기 위해 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 라이다 기술이 적용된 넥케어 장치의 사시도이다.
도 9는 상기 도 8의 넥케어 장치의 가이드 데이터 제공을 위한 모션을 설명하기 위해 도시한 도면이다.
도 10은 상기 도 9의 모션에 따른 넥케어 장치의 가이드 데이터 제공을 설명하기 위해 도시한 도면이다.
1 is a block diagram of an electronic device controlled by using a lidar technology according to an embodiment of the present invention.
2 is a diagram illustrating an electronic device control system using lidar technology according to an embodiment of the present invention.
3 is a block diagram of a processor, which is a component of an electronic device (or computing device) controlled by using a lidar technology according to an embodiment of the present invention.
4 is a flowchart illustrating a method for controlling an electronic device using a lidar technology according to an embodiment of the present invention.
5 is a perspective view of an electronic faucet to which lidar technology is applied according to an embodiment of the present invention.
6 is a diagram illustrating a motion for controlling the electronic faucet of FIG. 5 .
FIG. 7 is a view for explaining the control of the electronic faucet according to the motion of FIG. 6 .
8 is a perspective view of a neck care device to which lidar technology is applied according to an embodiment of the present invention.
FIG. 9 is a diagram illustrating a motion for providing guide data of the neck care device of FIG. 8 .
FIG. 10 is a diagram illustrating the provision of guide data of the neck care device according to the motion of FIG. 9 .

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced.

단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전히 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Only the present embodiments are provided so that the disclosure of the present invention is complete, and to fully inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention, and the present invention is to be defined by the scope of the claims. only

몇몇의 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, in order to avoid obscuring the concept of the present invention, well-known structures and devices may be omitted or shown in block diagram form focusing on core functions of each structure and device. In addition, the same reference numerals are used to describe the same components throughout the present specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "comprising or including" a certain component, it does not exclude other components unless otherwise stated, meaning that other components may be further included. do.

또한, 명세서에 기재된 "??부"의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 나아가, "일(a 또는 an)", "하나(one)", 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, the term “unit” described in the specification means a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. Furthermore, "a or an", "one", and like related terms in the context of describing the present invention are used in both the singular and the plural unless otherwise indicated herein or otherwise clearly contradicted by the context. It can be used in the meaning of including.

아울러, 본 발명의 실시예들에서 사용되는 특정(特定) 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in the embodiments of the present invention are provided to help the understanding of the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms, are used in the present invention. It has the same meaning as commonly understood by those of ordinary skill in the art to which it belongs. The use of these specific terms may be changed to other forms without departing from the technical spirit of the present invention.

이하 본 명세서에서 전자장치의 제어는 라이다(LiDAR: Light Detection And Ranging) 기술을 이용하고 있는데, 라이다는 레이저 펄스(또는 레이저)를 발사하고, 그 빛이 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 장치로서, 대상 물체까지의 거리 뿐 아니라 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정 등에 쓰인다. Hereinafter, in the present specification, the electronic device is controlled using LiDAR (Light Detection And Ranging) technology. The lidar emits a laser and a pulse (or laser) and receives the light reflected from the target object. It is a device that accurately draws the surroundings by measuring the distance to the object, and is used for analyzing the distance to the target object, as well as the moving speed, direction, temperature, ambient air substance analysis and concentration measurement.

라이다는 자외선, 가시광선, 근적외선 등을 사용하여 금속성인 아닌 바위나 구름, 빗방울, 에어로졸 등도 감지할 수 있어서 기상 관측에도 이용되며, 지형을 정밀하게 그려내거나, 비행체의 착륙 유도나 자율 주행차의 주변 인식 장치로도 사용된다. 또한 분자마다 원활하게 산란시키는 빛의 파장이 서로 다른 현상을 이용하여 공기 중에 섞여 있는 기체의 화학적 조성을 알아내는데 쓰이기도 한다.Lidar can detect non-metallic rocks, clouds, raindrops, and aerosols using ultraviolet, visible, and near-infrared rays, so it is also used for weather observation. It is also used as a peripheral awareness device. It is also used to find out the chemical composition of a gas mixed in the air by using the phenomenon that the wavelengths of light that are smoothly scattered for each molecule are different.

최근 들어 라이다는 3차원 영상을 구현하기 위해 필요한 정보를 습득하는 센서의 핵심 기술로 등장하였다. 라이다를 항공기에 장착하고 비행하면서 레이저 펄스를 지표면에 발사해서 돌아오는 시간을 측정함으로써 반사 지점의 공간 위치를 분석하여 지형을 측량하면, 구조물에 따라 반사되어 돌아오는 시간이 다르므로 이로부터 광학영상으로는 얻기 어려운 3차원 모델을 얻을 수 있다. 지상 라이다는 여기에 GPS로 얻은 위치 좌표를 결합하여 정밀한 데이터를 얻기도 한다.Recently, lidar has emerged as a core technology of a sensor that acquires information necessary to implement a three-dimensional image. If the topography is surveyed by analyzing the spatial location of the reflection point by measuring the return time by firing laser pulses on the ground while flying with the lidar mounted on the aircraft, the reflection and return time varies depending on the structure, so the optical image is obtained from this. It is possible to obtain a 3D model that is difficult to obtain with The ground lidar also combines this with the location coordinates obtained from GPS to obtain precise data.

라이다는 대체로 레이저, 스캐너, 수신기, 위치 확인 시스템으로 이루어진다. 레이저는 용도에 따라 다른 파장을 갖는데, 대체로 600-1000nm 파장의 빛을 사용하나 이에 제한되지는 않으며, 사람의 눈에 입히는 피해를 줄이기 위해 보다 긴 파장대의 빛을 사용하기도 한다. 라이다의 일 구성인 수신기는 돌아오는 빛을 감지하는 부분으로, 수신기가 가지는 빛에 대한 민감도는 라이다의 성능을 좌우하는 주요한 요인이다. 근본적으로 수신기는 광자를 감지하여 이를 증폭하는 역할을 한다. 위치 확인 시스템은 3차원 영상을 구현하기 위해서 수신기가 놓여 있는 위치 좌표와 방향을 확인하는 부분이다.Lidar usually consists of a laser, a scanner, a receiver, and a positioning system. The laser has a different wavelength depending on the purpose, but generally uses light of a wavelength of 600-1000 nm, but is not limited thereto, and may use light of a longer wavelength to reduce damage to the human eye. The receiver, which is one component of the lidar, is a part that detects the returning light, and the sensitivity of the receiver to the light is a major factor influencing the performance of the lidar. Essentially, the receiver detects photons and amplifies them. The positioning system is a part that confirms the position coordinates and direction where the receiver is placed in order to implement a 3D image.

라이다 기술에 대한 기본적인 내용은 상기 내용 외에 공지된 내용을 참조하고 그에 관한 별도 설명은 생략한다. 한편, 본 명세서에서는 비록 라이다로 명명하여 설명하나, 본 발명은 그 표현에 한정되지 않으며, 라이다(LiDAR)를 지칭하는 표현은 모두 포함되는 것으로 본다. For basic information on the lidar technology, refer to known content in addition to the above, and a separate description thereof will be omitted. On the other hand, although described in the present specification by naming lidar, the present invention is not limited to the expression, and all expressions referring to lidar (LiDAR) are considered to be included.

이하 본 명세서에서 기술되는 "전자장치"는 본 발명에 따른 라이다 기술을 활용하여 사용자의 모션 또는 동작을 감지하되, 상기 사용자의 모션 또는 동작에 상응하여 상기 전자장치의 기능, 동작 등이 제어될 수 있는 모든 형태의 장치를 포함할 수 있다. 본 발명의 이해를 돕고 설명의 편의를 위하여, 후술하는 도 5 내지 7에서는 본 발명이 적용된 전자장치로 전자수전(Electronic faucet)을, 그리고 도 8 내지 10에서는 본 발명이 적용된 전자장치로 넥케어(Neck-care) 장치가 도시되었다. 다만, 이는 본 발명의 일실시예로 그러한 장치에만 본 발명이 적용되는 것은 아니다.Hereinafter, the "electronic device" described in this specification senses a user's motion or motion by utilizing the lidar technology according to the present invention, and the function, operation, etc. of the electronic device is controlled in response to the user's motion or motion. It can include all possible types of devices. For better understanding of the present invention and convenience of explanation, an electronic faucet is used as an electronic device to which the present invention is applied in FIGS. 5 to 7, which will be described later, and a neck care (electronic faucet) to which the present invention is applied in FIGS. Neck-care device is shown. However, this is an embodiment of the present invention, and the present invention is not applied only to such a device.

그 밖에, 본 발명에서는 라이다 기술을 이용하여 사용자의 움직임을 감지하는 특정 신체부위로, 사람의 손이나 턱 등을 예로 들어 기준으로 삼고 있으나, 반드시 이에 한정되지는 않는다. 다시 말해, 사용자의 움직임을 감지하기 위하여 반드시 사람의 신체부위가 특정되어 이용될 필요는 없으며, 나아가 별도의 장치가 이용될 수도 있다.In addition, in the present invention, a specific body part that senses a user's movement using lidar technology, for example, a person's hand or chin, is taken as a reference, but is not necessarily limited thereto. In other words, a body part of a person does not necessarily need to be specified and used in order to sense the user's movement, and furthermore, a separate device may be used.

도 1은 본 발명의 일실시예에 따른 라이다 기술을 활용하여 제어되는 전자장치(10)의 구성 블록도이다.1 is a configuration block diagram of an electronic device 10 controlled by using a lidar technology according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 라이다 기술을 활용한 전자장치 제어 시스템(100)을 도시한 도면이다.2 is a diagram illustrating an electronic device control system 100 using lidar technology according to an embodiment of the present invention.

도 1을 참조하면, 전자장치(10)는 메모리(11), 센서모듈(12) 및 프로세서(13)를 포함할 수 있다. 다만, 이는 본 발명의 일실시예에 따른 라이다 기술을 활용한 제어를 설명하기 위한 필수 구성요소만을 도시한 것으로, 본 발명은 그러한 구성에 한정되는 것은 아니며, 하나 또는 그 이상의 다른 구성요소를 더 포함할 수 있다.Referring to FIG. 1 , an electronic device 10 may include a memory 11 , a sensor module 12 , and a processor 13 . However, this shows only essential components for explaining control using lidar technology according to an embodiment of the present invention, and the present invention is not limited to such a configuration, and one or more other components are further added. may include

메모리(11)는 전자장치(10)의 다양한 데이터를 저장할 수 있다. 특히, 메모리(11)는 라이다 기술을 통한 전자장치(10)의 제어를 위한 데이터를 저장할 수 있다. 메모리(11)는 사용자의 다양한 모션 중 전자장치(10)의 제어와 관련된 모션에 대한 데이터를 저장할 수 있으며, 메모리(11)는 전자장치(10)의 제어를 위한 데이터셋을 미리 저장할 수 있다. 메모리(11)는 전자장치(10)의 제어를 위한 데이터셋과 전자장치(10)의 제어와 관련된 모션 데이터를 맵핑하여 저장할 수도 있다.The memory 11 may store various data of the electronic device 10 . In particular, the memory 11 may store data for controlling the electronic device 10 through the lidar technology. The memory 11 may store data on a motion related to the control of the electronic device 10 among various motions of the user, and the memory 11 may store in advance a data set for controlling the electronic device 10 . The memory 11 may map and store a data set for controlling the electronic device 10 and motion data related to the control of the electronic device 10 .

센서모듈(12)은 라이다 센서를 포함할 수 있다. 실시예에 따라, 라이다 센서는 거리, 각도, 위치, 방향, 좌표, 공간 정보, 맵핑 데이터 등의 측정이 가능한 센서로서, 회전식 라이다 센서, 고정형 라이다 센서, 수퍼 라이다 센서,MEMS 라이다 센서, 플래시 라이다 센서, OPA 라이다 센서, FMCW 라이다 센서, 라이다 스캐너, 소자형 라이다 센서, 2D(dimensional) 라이다 센서 또는 3D 라이다 센서, 카메라 형 라이다 센서 등을 포함할 수 있으며, 상기 라이다 센서는 위와 같은 회전식 라이다 센서, 2D 라이다 센서 또는 3D 라이다 센서 등은 아니지만 현재까지 개발되었거나 향후 개발될 라이다 센서의 기능을 수행할 수 있도록 구현된 장치나 시스템(예컨대, 하나 이상의 카메라 렌즈를 이용하여 촬영한 이미지(들)을 이용하여 맵핑하는 방식으로 거리, 각도, 위치, 방향, 좌표, 공간 정보 등을 측정하는 카메라 형 라이다, 카메라와 레이더, 초음파 센서 등으로 구현한 유사 라이다(Pseudo LiDAR), 다층 스캐너, 선형 측정 센서, 고해상도 레이더, 이미징 레이더 등)을 모두 포함하는 개념으로 해석될 수 있다. 실시예에 따라, 센서모듈(12)은 전자장치(10)로부터 탈부착 가능할 수 있다.The sensor module 12 may include a lidar sensor. According to an embodiment, the lidar sensor is a sensor capable of measuring distance, angle, position, direction, coordinates, spatial information, mapping data, etc., and includes a rotary lidar sensor, a fixed lidar sensor, a super lidar sensor, and a MEMS lidar. sensor, flash lidar sensor, OPA lidar sensor, FMCW lidar sensor, lidar scanner, device lidar sensor, 2D (dimensional) lidar sensor or 3D lidar sensor, camera lidar sensor, etc. In addition, the lidar sensor is not a rotary lidar sensor, 2D lidar sensor, or 3D lidar sensor, but a device or system implemented to perform the function of a lidar sensor that has been developed or will be developed in the future (eg, , a camera-type lidar that measures distance, angle, position, direction, coordinates, spatial information, etc. in a mapping method using image(s) taken using one or more camera lenses, cameras and radars, ultrasonic sensors, etc. It can be interpreted as a concept that includes all implemented pseudo LiDAR, multi-layer scanner, linear measurement sensor, high-resolution radar, imaging radar, etc.). According to an embodiment, the sensor module 12 may be detachable from the electronic device 10 .

실시예에 따라, 전자장치(10)는 복수의 라이다 센서를 포함할 수 있다.According to an embodiment, the electronic device 10 may include a plurality of lidar sensors.

프로세서(13)는 센서모듈(12)을 통하여 센싱한 사용자의 움직임 데이터에 기초하여 전자장치(10) 제어와 관련된 인터페이스 신호를 변환 또는 생성하고, 변환 또는 생성된 인터페이스 신호를 통하여 전자장치(10)를 제어할 수 있다.The processor 13 converts or generates an interface signal related to control of the electronic device 10 based on the user's movement data sensed through the sensor module 12, and through the converted or generated interface signal, the electronic device 10 can control

도 1은 라이다 센서(12)가 전자장치(10)의 일면에 장착되고 프로세서(13)도 상기 전자장치(10)의 구성요소로 포함된 실시예이다. 이에 반해, 도 2는 프로세서가 전자장치(10,20)의 구성요소가 아닌 독립된 구성요소로 전자장치 제어 시스템(100)을 도시하였다.1 shows an embodiment in which a lidar sensor 12 is mounted on one surface of an electronic device 10 and a processor 13 is also included as a component of the electronic device 10 . In contrast, FIG. 2 illustrates the electronic device control system 100 as an independent component in which the processor is not a component of the electronic devices 10 and 20 .

도 2를 참조하면, 본 발명에 따른 전자장치 제어 시스템(100)은 라이다 기술이 적용된 복수의 전자장치(10,20)와 컴퓨팅 디바이스(30)를 포함하여 구성할 수 있다. 전술한 바와 같이, 도 1의 프로세서(13)의 기능은, 도 2의 컴퓨팅 디바이스(30)에 의해 수행될 수 있다.Referring to FIG. 2 , the electronic device control system 100 according to the present invention may include a plurality of electronic devices 10 and 20 and a computing device 30 to which lidar technology is applied. As described above, the functions of the processor 13 of FIG. 1 may be performed by the computing device 30 of FIG. 2 .

한편, 도 2의 컴퓨팅 디바이스(30)는 PC, TV와 같은 고정 단말 또는 스마트폰, 태블릿PC와 같은 이동 단말일 수 있으며, 이와 같은 완제품 형태는 아니나 PCB(Printed Circuit Board), 아두이노(Arduino), 브레드보드(Bread Board)와 같이 기능 동작이 가능한 상태인 기판이나 보드(board) 형태일 수도 있다. 실시예에 따라, 도 2의 컴퓨팅 디바이스(30)는 전자장치(10,20) 제어를 위한 전용장치일 수 있다. 실시예에 따라, 도 2의 컴퓨팅 디바이스(30)는 원격에 위치한 서버(server)일 수도 있다. 이 경우, 컴퓨팅 디바이스(30)는 원격에 위치한 적어도 하나 이상의 전자장치로부터 라이다 센서를 통해 센싱된 사용자 움직임 데이터를 수신하되, 이에 대응하는 제어 데이터를 해당 전자장치로 전송할 수 있다. On the other hand, the computing device 30 of FIG. 2 may be a fixed terminal such as a PC or a TV or a mobile terminal such as a smart phone or a tablet PC. , may be in the form of a board or board in a state in which functional operation is possible, such as a bread board. According to an embodiment, the computing device 30 of FIG. 2 may be a dedicated device for controlling the electronic devices 10 and 20 . According to an embodiment, the computing device 30 of FIG. 2 may be a server located remotely. In this case, the computing device 30 may receive user movement data sensed through the lidar sensor from at least one or more remotely located electronic devices, and transmit control data corresponding thereto to the corresponding electronic device.

도 2에 도시된 전자장치 제어 시스템을 구성하는 전자장치(10,20)는 유/무선 통신 프로토콜을 통하여 컴퓨팅 디바이스(30)와 데이터 커뮤니케이션을 수행할 수 있다. 이를 위해, 도 2의 전자장치(10,20)는 블루투스, 와이파이 등과 같은 통신 프로토콜을 위한 다양한 통신 인터페이스를 포함할 수 있다.The electronic devices 10 and 20 constituting the electronic device control system shown in FIG. 2 may perform data communication with the computing device 30 through a wired/wireless communication protocol. To this end, the electronic devices 10 and 20 of FIG. 2 may include various communication interfaces for communication protocols such as Bluetooth and Wi-Fi.

도 2에 도시된 전자장치 제어 시스템을 구성하는 복수의 전자장치가 미리 정의된 범위 내에 위치하는 경우에는, 특정 전자장치의 라이다 센서가 동작할 때 또는 상기 라이다 센서가 불량이거나 오류 등에 의한 신뢰성이 없을 때 타 전자장치의 라이다 센서가 함께 또는 대신하여 동작할 수도 있다.When a plurality of electronic devices constituting the electronic device control system shown in FIG. 2 are located within a predefined range, when a lidar sensor of a specific electronic device operates or the lidar sensor is defective or reliable due to an error, etc. In the absence of this, lidar sensors of other electronic devices may operate together or instead.

도 2의 컴퓨팅 디바이스(30)는 도 1의 메모리(11)에서 저장하는 데이터를 별도의 데이터베이스(DB)에 저장하여 이용할 수 있다.The computing device 30 of FIG. 2 may store and use data stored in the memory 11 of FIG. 1 in a separate database DB.

도 1의 프로세서(13) 내지 도 2의 컴퓨팅 디바이스(30)는, 라이다 기술에 기초하여 센싱된 사용자의 움직임 데이터를 전자장치의 동작 제어 인터페이스 신호로 활용하여 상기 전자장치를 제어할 수 있다. 이를 위하여 상기 센싱된 사용자의 움직임 데이터를 상기 전자장치의 동작 제어 신호로 변환하거나 또는 사용자의 움직임 데이터를 이용하여 상기 전자장치의 동작 제어 신호를 생성하는 과정이 포함될 수도 있으나, 이와 달리 실시예에 따라 상기 사용자의 움직임 데이터를 곧바로 동작 제어 인터페이스 신호로서 그대로 이용할 수도 있다. 또한, 상기 프로세서(13) 내지 컴퓨팅 디바이스(30)는, 인공지능 모듈을 포함하여 상기 제어 이후의 사용자의 피드백(feedback)을 참조하여 학습함으로써 오인식이나 오동작 제어를 최소화할 수도 있다.The processor 13 of FIG. 1 to the computing device 30 of FIG. 2 may control the electronic device by using the user's movement data sensed based on the lidar technology as a motion control interface signal of the electronic device. To this end, a process of converting the sensed motion data of the user into a motion control signal of the electronic device or generating a motion control signal of the electronic device by using the motion data of the user may be included. The user's movement data may be directly used as a motion control interface signal as it is. In addition, the processor 13 to the computing device 30 may minimize misrecognition or misoperation control by learning by referring to the user's feedback after the control, including the artificial intelligence module.

비록 도시되진 않았으나, 전자장치는 마이크로폰이나 스피커를 포함하여 오디오 데이터를 입력 또는 출력할 수 있으며, 이는 전술한 라이다 기술을 활용한 사용자 움직임에 따른 전자장치 제어 과정에서 함께 이용되거나 피드백 데이터로 이용될 수 있다.Although not shown, the electronic device may input or output audio data including a microphone or a speaker, which may be used together or as feedback data in the electronic device control process according to the user's movement using the above-described lidar technology. can

한편, 도 1 내지 2에서의 전자장치는 등록된 단말로 전자장치의 이용 등에 관한 데이터를 전송하여 상기 전송된 데이터를 상기 단말의 디스플레이를 통해 확인할 수 있도록 할 수 있다. 이를 위해, 단말은 전자장치의 이용 등 데이터와 관련된 어플리케이션을 다운로드 받아 설치할 수 있으며, 관련 API(Application Program Interface) 또는 임베디드 소프트웨어(Embedded Software)를 포함할 수 있다. Meanwhile, the electronic device in FIGS. 1 and 2 may transmit data related to the use of the electronic device to the registered terminal so that the transmitted data can be checked through the display of the terminal. To this end, the terminal may download and install an application related to data, such as use of an electronic device, and may include a related application program interface (API) or embedded software.

도 3은 상기 도 1의 프로세서(13) 또는 도 2의 컴퓨팅 디바이스(30)의 일 구성인 프로세서의 구성 블록도이다.FIG. 3 is a block diagram of a processor that is a component of the processor 13 of FIG. 1 or the computing device 30 of FIG. 2 .

도 4는 본 발명의 일실시예에 따른 라이다 기술을 활용한 전자장치 제어 방법을 설명하기 위해 도시한 순서도이다.4 is a flowchart illustrating a method for controlling an electronic device using a lidar technology according to an embodiment of the present invention.

설명의 편의상, 도 3에 도시된 구성 블록도는 도 1의 프로세서(13)로 설명한다.For convenience of description, the configuration block diagram shown in FIG. 3 will be described as the processor 13 of FIG. 1 .

프로세서(13)는 통신부(301), 데이터추출부(또는 데이터인식부)(302), 데이터변환부(303), 데이터분석부(304), 및 제어부(305)를 포함할 수 있다.The processor 13 may include a communication unit 301 , a data extraction unit (or data recognition unit) 302 , a data conversion unit 303 , a data analysis unit 304 , and a control unit 305 .

전자장치(10) 및 프로세서(13)를 구성하는 각 구성요소에 대한 설명은, 도 4와 함께 설명한다.A description of each component constituting the electronic device 10 and the processor 13 will be described with reference to FIG. 4 .

도 4를 참조하여 라이다 센서를 이용한 전자장치 제어 방법을 설명하면, 다음과 같다. A method of controlling an electronic device using a lidar sensor will be described with reference to FIG. 4 , as follows.

센서모듈(12)은 적어도 하나의 라이다 센서를 통하여 사용자의 움직임에 대한 제1 데이터를 획득할 수 있다(S101). 여기에서, 사용자의 움직임이란 사용자가 자신의 신체부위(손, 손가락, 발, 발가락, 무릎, 목, 어깨, 머리, 가슴 등)를 위/아래, 전/후, 좌/우 또는 무분별한 움직임 등 다양한 각도와 다양한 위치로 움직이는 것을 의미할 수 있다.The sensor module 12 may acquire first data on the user's movement through at least one lidar sensor (S101). Here, the user's movement means that the user moves his/her body parts (hands, fingers, feet, toes, knees, neck, shoulders, head, chest, etc.) It can mean moving at an angle and in a variety of positions.

데이터추출부(302)는 상기 획득한 제1 데이터에 기초하여 미리 정의된 사용자의 신체 부위를 인식할 수 있다(S102). 여기에서, 미리 정의된 사용자의 신체 부위를 인식한다는 것은 전자장치의 동작 제어와 관련 있는 즉, 전자장치의 동작 제어에 사용되도록 미리 설정된 사용자의 하나 이상의 특정 신체 부위를 구체적으로 인식하는 것을 포함할 수 있으며, 이 때 데이터추출부(302)가 전자장치의 동작 제어와 관련 없는 사용자의 신체 부위(들) 또한 인식하는 것도 가능할 수 있다.The data extraction unit 302 may recognize a predefined body part of the user based on the acquired first data (S102). Here, recognizing the predefined user's body part may include specifically recognizing one or more specific body parts of the user that are related to motion control of the electronic device, that is, preset to be used for motion control of the electronic device. In this case, it may also be possible for the data extraction unit 302 to recognize the user's body part(s) that are not related to the operation control of the electronic device.

데이터추출부(302) 및 센서모듈(12)은 상기 적어도 하나의 라이다 센서를 통하여 인식한 사용자의 신체 부위의 움직임(예컨대, 거리, 각도, 위치, 방향, 공간 정보, 맵핑 데이터, 극좌표, 3차원 좌표 등)에 대한 제2 데이터를 획득할 수 있다(S103).The data extraction unit 302 and the sensor module 12 are configured to move (eg, distance, angle, location, direction, spatial information, mapping data, polar coordinates, 3 dimensional coordinates, etc.) may be obtained (S103).

데이터변환부(304)는 획득한 제2 데이터를 제3 데이터로 변환할 수 있다(S104).The data conversion unit 304 may convert the obtained second data into third data (S104).

제어부(305)는 상기 변환된 제3 데이터에 기초하여 상기 전자장치를 제어할 수 있다(S105).The controller 305 may control the electronic device based on the converted third data (S105).

다만, 본 발명의 일실시예에 따르면, 상기 데이터추출부(302), 데이터변환부(304) 및/또는 제어부(305)는 일체로서 형성될 수 있으며, 나아가 위와 같이 상기 획득한 제1 데이터를 제2 데이터 및/또는 제3 데이터로 변환하는 과정없이 상기 획득한 제1 데이터를 상기 전자장치의 제어에 곧바로 활용할 수도 있다. However, according to an embodiment of the present invention, the data extraction unit 302, the data conversion unit 304 and/or the control unit 305 may be formed integrally, and furthermore, the first data obtained as above The acquired first data may be directly used for controlling the electronic device without a process of converting it into second data and/or third data.

이를 위해 상기 제1 데이터를 획득하는 과정에서 상기 제1 데이터를 상기 제2 데이터의 타입(또는 형태) 또는 제3 데이터의 타입(또는 형태)으로 획득하도록 설정될 수도 있다. 또한, 상기 획득한 제2 데이터를 상기 전자장치의 제어에 곧바로 활용할 수도 있으며, 이러한 경우에는 상기 제2 데이터를 획득하는 과정에서 상기 제2 데이터를 상기 제3 데이터의 타입(또는 형태)으로 획득하도록 설정될 수도 있다.To this end, in the process of acquiring the first data, the first data may be set to be acquired as the type (or shape) of the second data or the type (or shape) of the third data. In addition, the acquired second data may be directly used to control the electronic device, and in this case, the second data may be acquired as a type (or form) of the third data in the process of acquiring the second data. may be set.

다시 도 3을 참고하면, 상기 메모리(11)는, 전자장치 제어와 관련하여 설정된 사용자의 신체 부위 데이터 및 신체 부위의 움직임에 따른 동작 제어 데이터를 저장할 수 있다.Referring back to FIG. 3 , the memory 11 may store body part data of the user set in relation to electronic device control and motion control data according to the movement of the body part.

실시예에 따라, 제1 데이터 및 제2 데이터는 극좌표 데이터이고, 제3 데이터는 직교좌표 데이터일 수 있으나 이에 제한되지 않으며 인식하고자 하는 대상의 거리, 각도, 위치, 방향, 좌표, 공간 정보, 맵핑 데이터 중 하나 이상을 나타내는 다양한 데이터 타입을 포함하여 이루어질 수 있다.According to an embodiment, the first data and the second data may be polar coordinate data, and the third data may be rectangular coordinate data, but is not limited thereto, and the distance, angle, location, direction, coordinates, spatial information, and mapping of the object to be recognized is not limited thereto. It may include various data types representing one or more of the data.

실시예에 따라, 상기 제1 내지 제3 데이터 중 적어도 하나(특히, 제3 데이터)에 기초하여 상기 사용자의 신체 부위의 이동방향, 이동량 및/또는 이동속도 등을 산출할 수 있다.According to an embodiment, the movement direction, movement amount, and/or movement speed of the user's body part may be calculated based on at least one of the first to third data (particularly, the third data).

실시예에 따라, 산출되는 이동량에 있어서, x축, y축, z축 내지 특정 방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량의 변화가 더 많은 축의 이동량만 유효 데이터로 이용할 수 있다.According to the embodiment, in the calculated movement amount, if some or all of the movement amount in the x-axis, y-axis, and z-axis or in a specific direction or movement in a straight line or curved form is greater than or equal to a threshold value, the change in the movement amount is greater Only the movement amount of the axis can be used as valid data.

실시예에 따라, 상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정 방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 각각의 이동량의 변화 일부 또는 모두를 유효 데이터로 이용할 수 있다.According to an embodiment, in the calculated movement amount, if some or all of the movement amount in the x-axis, y-axis, and z-axis or in a specific direction or movement in a straight line or a curved shape is greater than or equal to a threshold value, the change in each movement amount Some or all of them may be used as valid data.

실시예에 따라, 상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정 방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량과 관계없이 시간축 상에서 늦게 변화된 축의 이동량만 유효 데이터로 이용할 수 있다.According to an embodiment, in the calculated movement amount, if some or all of the movement amount in a specific direction from the x-axis, y-axis, z-axis, or movement in a linear or curved form is greater than or equal to a threshold value, regardless of the movement amount, the time axis Only the movement amount of the axis that is changed later in the phase can be used as valid data.

위에서는, 이동량을 기반으로 하여 유효 데이터로의 이용을 설명하였으나, 그 외에도 이동방향 또는 이동속도 등을 기반으로 하여서도 유효 데이터로의 이용기준을 설정하는 것이 가능하다.In the above, the use of valid data has been described based on the movement amount, but in addition, it is possible to set the use standard for valid data based on the movement direction or movement speed.

실시예에 따라, 상기 적어도 하나의 라이다 센서는, 회전 라이다 센서를 포함할 수 있다.According to an embodiment, the at least one lidar sensor may include a rotation lidar sensor.

이하 본 발명에 따른 라이다 기술을 활용한 전자장치 제어 방법이 적용된 전자장치를 예로 하여, 그에 대해 상세하게 설명한다. 전술한 바와 같이, 도 5 내지 도 7은 본 발명이 적용된 전자수전이, 도 8 내지 10은 본 발명이 적용된 넥케어 장치가 도시되었다.Hereinafter, an electronic device to which the electronic device control method using the lidar technology according to the present invention is applied is taken as an example and will be described in detail. As described above, FIGS. 5 to 7 show an electronic faucet to which the present invention is applied, and FIGS. 8 to 10 show a neck care device to which the present invention is applied.

도 5는 본 발명의 일실시예에 따른 라이다 기술이 적용된 전자수전(10)의 사시도이다.5 is a perspective view of the electronic faucet 10 to which the lidar technology is applied according to an embodiment of the present invention.

도 6은 상기 도 5의 전자수전(10)의 제어를 위한 사용자의 움직임을 설명하기 위해 도시한 도면이다.FIG. 6 is a diagram illustrating a user's movement for controlling the electronic faucet 10 of FIG. 5 .

도 7은 상기 도 6의 모션에 따른 전자수전(10) 제어를 설명하기 위해 도시한 도면이다.7 is a view for explaining the control of the electronic faucet 10 according to the motion of FIG. 6 .

먼저, 도 5 내지 도 7을 참조하여, 본 발명이 적용된 전자수전에서 라이다 기술에 기초하여 사용자의 움직임에 따른 전자수전 제어에 대하여 설명하면, 다음과 같다.First, with reference to FIGS. 5 to 7 , the electronic faucet control according to the user's movement based on the lidar technology in the electronic faucet to which the present invention is applied will be described as follows.

도 5에 도시된 바와 같이, 전자수전(10)은 샤워헤드부(510)와, 상기 샤워헤드부(510)를 지지하며 물 공급을 위한 워터파이프가 삽입되는 샤워바디(body)(520)를 포함할 수 있다.As shown in FIG. 5 , the electronic faucet 10 includes a shower head unit 510 and a shower body 520 that supports the shower head unit 510 and into which a water pipe for supplying water is inserted. may include

샤워헤드부(510)는 워터폴을 포함할 수 있으며, 하나 이상의 라이다 센서를 포함할 수 있다. The showerhead 510 may include a waterfall, and may include one or more lidar sensors.

도 5에서는 복수의 라이다 센서, 예를 들어 제1 라이다 센서(511)와 제2 라이다 센서(512)가 샤워헤드부(510)에 장착되었다. In FIG. 5 , a plurality of lidar sensors, for example, a first lidar sensor 511 and a second lidar sensor 512 are mounted on the showerhead 510 .

실시예에 따라, 복수의 라이다 센서 중 적어도 하나는 회전 라이다 센서일 수 있다. 도 5에서는 편의상 제2 라이다 센서(512)는 회전 라이다 센서일 수 있다.According to an embodiment, at least one of the plurality of lidar sensors may be a rotating lidar sensor. In FIG. 5 , for convenience, the second lidar sensor 512 may be a rotating lidar sensor.

또한, 실시예에 따라, 라이다 센서는 샤워헤드부(510)가 아닌 샤워바디(520)에 장착될 수 있다.Also, according to an embodiment, the lidar sensor may be mounted on the shower body 520 instead of the shower head 510 .

실시예에 따라, 전자수전(10)이 복수의 라이다 센서를 포함한 경우, 일부는 샤워헤드부(510)에 그리고 나머지는 샤워바디(520)에 장착될 수 있다. 즉, 라이다 센서(들)의 장착 위치는 제한되지 않을 수 있다.According to an embodiment, when the electronic faucet 10 includes a plurality of lidar sensors, some may be mounted on the shower head unit 510 and the rest may be mounted on the shower body 520 . That is, the mounting position of the lidar sensor(s) may not be limited.

샤워바디(520)는 일측에 핸디 샤워기를 장착할 수 있으며, 디스플레이(521)와 마이크로 컨트롤러(522)를 포함할 수 있다.The shower body 520 may be equipped with a handy shower on one side, and may include a display 521 and a microcontroller 522 .

디스플레이(521)는 LCD 디스플레이, 터치스크린 디스플레이 등으로, 전자수전(10) 이용 데이터, 전자수전(10) 동작 제어 데이터, 전자수전(10)에 관한 데이터 등 다양한 데이터를 출력할 수 있다.The display 521 is an LCD display, a touch screen display, or the like, and may output various data such as electronic faucet 10 usage data, electronic faucet 10 operation control data, and data related to the electronic faucet 10 .

실시예에 따라, 디스플레이(521)는 사용자의 눈높이 정도에 형성될 수 있고, 사용자에 따라 중력방향으로 높이가 조절되도록 형성될 수 있다.According to an embodiment, the display 521 may be formed at the user's eye level, and the height may be adjusted in the direction of gravity according to the user.

실시예에 따라, 마이크로 컨트롤러(522)는 Java 기반일 수 있다. 마이크로 컨트롤러(522)는 샤워바디(520)의 최하단에 형성될 수 있다.Depending on the embodiment, the microcontroller 522 may be Java-based. The microcontroller 522 may be formed at the bottom of the shower body 520 .

샤워헤드부(510)와 샤워바디(520) 중 적어도 하나에는, 비록 도시되진 않았으나, 마이크로폰 내지 스피커가 더 장착될 수 있다.At least one of the shower head unit 510 and the shower body 520, although not shown, may be further equipped with a microphone or speaker.

도 6에서는, 라이다 센서를 통해 센싱한 사용자의 모션 중 전자수전(10)의 동작 제어를 위해 적합한 사용자 모션과 그렇지 못한 사용자 모션이 도시되었다.In FIG. 6 , a user motion suitable for operation control of the electronic faucet 10 among user motion sensed through a lidar sensor and a user motion not suitable for operation control of the electronic faucet 10 are shown.

도 6의 (a)는 라이다 센서를 통해 센싱한 사용자의 모션 중 전자수전(10)의 동작 제어를 위해 적합한 사용자 모션의 예시로서, 사용자의 신체 부위와 그 움직임에 대해 센싱한 모습이다. 즉, 전자수전(10)의 동작 제어를 위해 사용자가 손(손가락을 포함함)을 펼치는 모션 및/또는 주먹을 쥐는 모션이 미리 정의되어 있는 경우, 라이다 센서는 센싱된 사용자의 손을 전자수전(10)의 동작 제어를 위해 적합한 인식대상으로 판단할 수 있으며, 상기 센싱된 사용자의 손의 움직임(펼치거나 주먹을 쥐는 등)을 전자수전(10)의 동작 제어를 위해 적합한 사용자의 모션으로서 고려할 수 있다.6 (a) is an example of a user motion suitable for controlling the operation of the electronic faucet 10 among the user's motion sensed through the lidar sensor, and the user's body part and its motion are sensed. That is, when a motion of a user extending a hand (including a finger) and/or a clenching motion of a fist is predefined to control the operation of the electronic faucet 10, the lidar sensor moves the sensed user's hand to the electronic faucet. It can be determined as a suitable recognition target for the operation control of (10), and the sensed movement of the user's hand (opening or clenching a fist, etc.) is considered as a suitable user's motion for controlling the operation of the electronic faucet 10 can

반면, 도 6의 (b)는 전자수전(10)의 동작 제어를 위해 적합하지 않은 인식대상 내지 사용자 모션의 예시로서, 미리 저장된 전자수전(10)의 동작 제어와 관련없는 사용자의 신체 부위 또는 사용자의 신체 부위가 아닌 사물이 센싱된 모습이다. 즉, 전자수전(10)의 동작 제어를 위해 사용자가 손(손가락을 포함함)을 펼치는 모션 및/또는 주먹을 쥐는 모션이 미리 설정되어 있는 경우, 라이다 센서는 사용자의 손을 제외한 다른 신체부위(머리 등) 혹은 다른 객체(샴푸통, 샤워기 등)가 센싱된 경우에는 이들을 전자수전(10)의 동작 제어를 위한 인식대상으로 판단하지 않을 수 있으며, 나아가 이들의 움직임은 센싱되더라도 전자수전(10)의 동작 제어를 위해 부적합한 모션으로서 고려할 수 있다. 또한, 도 6에 도시되어 있지는 않으나 라이다 센서는 센싱된 사용자의 손을 전자수전(10)의 동작 제어를 위해 적합한 인식대상으로 판단할 수 있으나, 상기 센싱된 사용자의 손의 움직임이 상기 미리 설정된 손을 펼치거나 주먹을 쥐는 등의 모션이 아닌 경우(예를 들어, 손깍지를 끼는 경우)에는 이를 전자수전(10)의 동작 제어를 위해 부적합한 사용자의 모션으로 고려할 수 있다.On the other hand, (b) of FIG. 6 is an example of a recognition target or user motion that is not suitable for operation control of the electronic faucet 10, and the user's body part or user not related to the previously stored operation control of the electronic faucet 10 It is a sensed image of an object, not a body part. That is, when the motion of the user extending his or her hand (including a finger) and/or clenching a fist is preset for controlling the operation of the electronic faucet 10, the lidar sensor detects other body parts except for the user's hand. When (head, etc.) or other objects (shampoo bottle, shower, etc.) are sensed, they may not be determined as recognition targets for operation control of the electronic faucet 10, and furthermore, even if their movements are sensed, the electronic faucet 10 ) can be considered as an unsuitable motion for motion control. In addition, although not shown in FIG. 6 , the lidar sensor may determine the sensed user's hand as a suitable recognition target for operation control of the electronic faucet 10, but the sensed user's hand movement is the preset In the case of not a motion such as spreading a hand or clenching a fist (eg, interlocking fingers), this may be considered as a user's motion that is inappropriate for controlling the operation of the electronic faucet 10 .

따라서, 도 6의 (a)와 (b)는, 사용자의 신체 부위 및 그 움직임, 예를 들어 손과 그 움직임을 라이다 센서로 센싱하고, 센싱된 손과 그 움직임의 데이터에 기초하여 전자수전(10)의 동작을 제어하는 경우에 적합 및 부적합 모션 데이터를 나타낸 것이다. 다만, 본 발명이 반드시 도시된 예시에만 한정되는 것은 아니다. 이러한 모션(신체부위 또는 그 움직임)과 관련된 내용은, 전자수전(10)에 미리 설정되었거나 사용자에 의해 임의 설정 가능하다.Accordingly, in FIGS. 6A and 6B , the user's body part and its motion, for example, the hand and its motion, are sensed by the lidar sensor, and the electronic power receiver is based on the sensed hand and its motion data. (10) shows suitable and non-conforming motion data in the case of controlling the motion. However, the present invention is not necessarily limited to the illustrated examples. The contents related to this motion (body part or its movement) are preset in the electronic faucet 10 or can be arbitrarily set by the user.

도 7에서는, 도 6에서 적합한 사용자의 신체 부위가 센싱된 것으로 판단되면, 그 움직임의 정도에 따라 구체적으로 전자수전(10)을 어떻게 제어하는지 설명한다.In FIG. 7 , when it is determined that a suitable user's body part is sensed in FIG. 6 , a detailed description will be given of how to control the electronic faucet 10 according to the degree of its movement.

도 7의 (a)에서는, 사용자의 손이 좌우로 수평하게 움직임에 따라 전자수전(10)에서 방출되는 물의 온도를 조절하는 실시예이다. 예를 들어, 최초 센싱된 사용자의 손의 위치를 기준으로 하여, 좌로 움직이면 수온을 낮추고, 반대로 움직이면 수온을 높일 수 있다. 이를 위해서는 위와 같은 신체부위 및/또는 그 움직임과 그에 상응하는 제어가 미리 설정되어 있을 수 있다.In FIG. 7( a ), it is an embodiment in which the temperature of water emitted from the electronic faucet 10 is adjusted as the user's hand moves horizontally from side to side. For example, based on the initially sensed position of the user's hand, moving to the left may lower the water temperature, and moving it in the opposite direction may increase the water temperature. To this end, the above body parts and/or their movements and corresponding controls may be preset.

관련하여, 프로세서(13)는 라이다 센서를 통하여 센싱된 사용자의 손의 움직임 중 최초 움직임을 파악하고, 그로부터 최종적으로 사용자의 손의 움직인 방향, 거리, 각도, 좌표, 동작 등을 판단하여, 수온 조절 정도를 결정할 수 있다.In relation to this, the processor 13 recognizes the first movement of the user's hand movement sensed through the lidar sensor, and finally determines the user's hand movement direction, distance, angle, coordinates, motion, etc. therefrom, You can determine the degree of temperature control.

실시예에 따라, 프로세서(13)는 라이다 센서를 통하여 센싱된 적합한 사용자의 모션이 감지되면, 그 때부터 계속하여 사용자 손의 움직임, 즉 움직이는 방향, 거리, 각도, 좌표, 동작 중 하나 이상의 정보를 센싱하여 실시간으로 사용자 손의 움직임에 따라 수온 조절을 할 수 있다. 이 경우, 사용자 손의 움직임이 더 이상 없거나, 적합하지 않은 사용자의 추가 모션(예컨대, 손을 좌우로 움직인 이후 손으로 머리를 감거나 몸을 씻는 행동 등)이 있게되면, 프로세서(13)는 수온 조절을 중단할 수 있다.According to an embodiment, when a suitable user's motion sensed through the lidar sensor is detected, the processor 13 continues to move the user's hand from then on, that is, information about one or more of the moving direction, distance, angle, coordinates, and motion. The water temperature can be adjusted according to the movement of the user's hand in real time by sensing the In this case, if there is no more movement of the user's hand or there is an inappropriate additional motion of the user (eg, washing the head or washing the body with hands after moving the hand left and right), the processor 13 is You can stop regulating the water temperature.

실시예에 따라, 프로세서(13)는 라이다 센서를 통하여 센싱되는 적합한 사용자 모션이 감지되나, 사용자 손의 움직임이 좌우로 번갈아 움직이면, 상기 감지된 기준 위치에서 최종 사용자 손의 움직인 방향, 거리, 각도, 좌표, 동작 중 하나 이상의 정보를 참조하여, 전자수전(10)의 수온을 조절할 수 있다. 이때, 프로세서(13)는 라이다 센서를 통하여 센싱되는 사용자의 모션이 기준 위치에서 소정 방향 및 거리만큼 움직인 후 멈추지 않고 미리 정의한 시간 내에 해당 방향 또는 반대 방향으로 다시 움직임이 감지되면, 수온 조절을 잠시 정지하고 사용자의 손의 움직임이 멈출 때까지 대기할 수 있다. 이는 후술하는 도 7의 (b)의 수압 조절의 경우도 마찬가지이다.According to an embodiment, the processor 13 detects an appropriate user motion sensed through the lidar sensor, but if the user's hand moves alternately left and right, the movement direction, distance, The water temperature of the electronic faucet 10 may be adjusted with reference to one or more information among angle, coordinate, and operation. At this time, the processor 13 does not stop after the user's motion sensed through the lidar sensor moves from the reference position by a predetermined direction and distance, and does not stop. You can pause for a moment and wait for the user's hand to stop moving. This is also the same in the case of water pressure control of FIG. 7 (b), which will be described later.

도 7의 (b)를 참조하면, 전술한 도 7의 (a)와 동일한 방식으로, 사용자의 손의 상하 움직임 거리에 따라 전자수전(10)의 수압을 조절할 수 있다.Referring to FIG. 7B , in the same manner as in FIG. 7A , the water pressure of the electronic faucet 10 can be adjusted according to the vertical movement distance of the user's hand.

도 7의 (a)와 도 7의 (b)에서는 사용자의 손이 좌우로 움직임에 따른 수온 조절과 상하로 움직임에 따른 수압 조절의 예시를 각각 도시하였다. 7(a) and 7(b) illustrate examples of water temperature control according to the left and right movement of the user's hand and water pressure control according to the vertical movement, respectively.

실시예에 따라, 사용자의 손이 좌우로 움직이다가 연속하여 상하로 움직이면, 기준 위치에서 출발하여 좌우 움직임이 멈춘 시점까지 좌우로 움직인 거리에 따라 수온 조절을 하고, 상기 좌우 움직임이 멈춘 시점을 다시 기준 위치로 하여 상하 움직임이 멈춘 시점까지 상하로 움직인 거리에 따라 수압 조절을 할 수도 있다.According to an embodiment, if the user's hand moves left and right and then continuously moves up and down, the water temperature is adjusted according to the distance moved from the reference position to the left and right until the left and right movement stops, and the time when the left and right movement stops It is also possible to adjust the water pressure according to the distance moved up and down until the point where the up-down movement stops again with the reference position.

실시예에 따라, 사용자의 손이 좌우로 움직이다가 연속하여 상하로 움직이면, 기준 위치는 최초 적합 모션 감지 시점으로 동일하게 적용하고 좌우 움직임이 멈춘 시점까지 좌우로 움직인 거리에 따라 수온 조절을 하고, 상기 기준 위치에서 상하 움직임이 멈춤 거리까지 대각선 거리를 산출하여 그에 기초하여 수압 조절을 할 수도 있다.According to the embodiment, if the user's hand moves left and right and then moves up and down continuously, the reference position is applied the same as the first appropriate motion detection time, and the water temperature is adjusted according to the distance moved left and right until the left and right movement stops , it is also possible to calculate the diagonal distance from the reference position to the stopping distance of the vertical movement, and adjust the water pressure based thereon.

실시예에 따라, 사용자의 손이 좌우로 움직이다가 연속하여 상하로 움직이면, 사용자의 의도가 상하 움직임으로 판단하여, 상기 좌우 움직임 멈춘 시점, 즉 상하 움직임이 시작된 지점부터 상하로 움직인 거리를 산출하여 수압 조절을 할 수 있다. 반대로 상하로 움직이다가 연속하여 좌우로 움직인 경우는, 수압 조절은 하지 않고 수온 조절만 수행할 수 있다.According to an embodiment, if the user's hand moves left and right and then continuously moves up and down, the user's intention is determined to be an up and down motion, and the distance moved up and down from the point at which the left and right motion stops, that is, the point where the up and down motion starts, is calculated. So you can adjust the water pressure. Conversely, in the case of continuously moving left and right after moving up and down, only water temperature control may be performed without water pressure control.

실시예에 따라, 사용자의 손이 좌우로 움직이다가 연속적으로 상하로 움직이면, 기준 위치에서 출발하여 좌우 움직임이 멈춘 시점까지 좌우로 움직인 거리를 산출하고, 상기 좌우 움직임이 멈춘 시점을 다시 기준 위치로 하여 상하 움직임이 멈춘 시점까지 상하로 움직인 거리를 산출한 후에, 산출된 두 거리의 평균값으로 수온과 수압을 동시에 조절을 할 수도 있다.According to an embodiment, when the user's hand moves left and right and then continuously moves up and down, the distance moved from the reference position to the left and right from the reference position to the time when the left and right movement stops is calculated, and the time when the left and right movement stops is again the reference position After calculating the distance moved up and down until the point where the up-down movement stops, the water temperature and water pressure can be adjusted simultaneously with the average value of the two calculated distances.

도 8은 본 발명의 일실시예에 따른 라이다 기술이 적용된 넥케어 장치(20)의 사시도이다.8 is a perspective view of the neck care device 20 to which the lidar technology is applied according to an embodiment of the present invention.

도 9는 상기 도 8의 넥케어 장치(20)의 가이드 데이터 제공을 위한 모션을 설명하기 위해 도시한 도면이다.9 is a diagram illustrating a motion for providing guide data of the neck care device 20 of FIG. 8 .

도 10은 상기 도 9의 모션에 따른 넥케어 장치(20)의 가이드 데이터 제공을 설명하기 위해 도시한 도면이다.FIG. 10 is a diagram illustrating the provision of guide data of the neck care device 20 according to the motion of FIG. 9 .

먼저, 도 8 내지 도 10을 참조하여, 본 발명이 적용된 넥케어 장치(20)에서 라이다 기술에 기초하여 사용자의 움직임에 따른 넥케어 가이드 데이터 제공에 대하여 설명하면, 다음과 같다.First, with reference to FIGS. 8 to 10 , in the neck care device 20 to which the present invention is applied, the provision of neck care guide data according to a user's movement based on the lidar technology will be described as follows.

도 8에 도시된 바와 같이, 넥케어 장치(20)는 소정 공간에 비치되는 고정 장치로, 라이다 센서를 통한 사용자의 모션을 감지하여 피드백, 건강 가이드 데이터를 제공하여, 목디스크 등으로부터 보호하거나 자세교정에 활용할 수 있다.As shown in FIG. 8 , the neck care device 20 is a fixed device installed in a predetermined space, and provides feedback and health guide data by detecting the user's motion through a lidar sensor to protect it from a neck disk or the like. It can be used for posture correction.

이러한 넥케어 장치(20)는 적어도 하나의 라이다 센서가 장착된 헤드부(810)와, 상기 헤드부(810)를 지지하며 사용자의 피곤 또는 졸음에 대한 요인인 이산화탄소 농도를 측정하는 모듈이 포함된 바디(820)를 포함할 수 있다.The neck care device 20 includes a head unit 810 equipped with at least one lidar sensor, a module supporting the head unit 810 and measuring carbon dioxide concentration, which is a factor for user fatigue or drowsiness. It may include a built-in body 820 .

헤드부(810)에 장착된 적어도 하나 이상의 라이다 센서는 회전 라이다 센서일 수 있다.At least one lidar sensor mounted on the head unit 810 may be a rotating lidar sensor.

실시예에 따라, 라이다 센서는 헤드부(810)가 아닌 바디(820)에 장착될 수 있다.According to an embodiment, the lidar sensor may be mounted on the body 820 instead of the head 810 .

실시예에 따라, 넥케어 장치(20)가 복수의 라이다 센서를 포함한 경우, 일부는 헤드부(810)에 그리고 나머지는 바디(820)에 장착될 수 있다. 즉, 라이다 센서(들)의 장착 위치는 제한되지 않을 수 있다. According to an embodiment, when the neck care device 20 includes a plurality of lidar sensors, some may be mounted on the head unit 810 and the rest may be mounted on the body 820 . That is, the mounting position of the lidar sensor(s) may not be limited.

비록 도시되진 않았지만, 헤드부(810)는 바디(820)에 고정된 것이 아니라 높낮이 조절이 가능하여, 용도에 따라 헤드부(810)의 높이를 조절함으로써 라이다 센서를 통한 정확한 센싱이 가능하도록 할 수 있다.Although not shown, the head unit 810 is not fixed to the body 820, but is adjustable in height, so that accurate sensing through the lidar sensor is possible by adjusting the height of the head unit 810 according to the use. can

헤드부(810) 또는 바디(820), 디스플레이(미도시)와 마이크로 컨트롤러(미도시)를 포함할 수 있다.The head unit 810 or body 820 may include a display (not shown) and a microcontroller (not shown).

디스플레이는 LCD 디스플레이, 터치스크린 디스플레이 등으로, 넥케어 장치(20) 이용 데이터, 넥케어 장치(20)에서 사용자 모션에 따라 생성한 가이드 데이터, 넥케어 장치(20)에 관한 데이터 등 다양한 데이터를 출력할 수 있다.The display is an LCD display, a touch screen display, etc., and outputs various data, such as data using the neck care device 20 , guide data generated according to user motion in the neck care device 20 , and data related to the neck care device 20 . can do.

실시예에 따라, 디스플레이는 사용자의 눈높이 정도에 형성될 수 있다. According to an embodiment, the display may be formed at the user's eye level.

실시예에 따라, 마이크로 컨트롤러는 Java 기반일 수 있다. 마이크로 컨트롤러는 바디의 최하단에 형성될 수 있다.According to an embodiment, the microcontroller may be Java-based. The microcontroller may be formed at the bottom of the body.

헤드부(810)와 바디(820) 중 적어도 하나에는, 비록 도시되진 않았으나, 마이크로폰 내지 스피커가 더 장착될 수 있다.At least one of the head part 810 and the body 820, although not shown, a microphone or a speaker may be further mounted.

도 9에서는, 라이다 센서를 통해 센싱한 사용자의 모션 중 넥케어 장치(20)의 동작 제어를 위해 적합한 사용자 모션과 그렇지 못한 사용자 모션이 도시되었다.In FIG. 9 , a user motion suitable for operation control of the neck care device 20 and a user motion not suitable for operation control of the neck care device 20 among the user motion sensed through the lidar sensor are shown.

도 9의 (a)는 라이다 센서를 통해 센싱한 사용자의 모션 중 넥케어 장치(20)를 통한 가이드 제공에 적합한 사용자 모션의 예시로서, 사용자의 신체 부위, 즉 얼굴의 옆면, 턱선 및 그 움직임에 대해 센싱한 모습이다. 즉, 넥케어 장치(20)를 통한 가이드 제공을 위한 모션으로 사용자의 턱 부위 또는 안면부(예컨대, 얼굴의 턱선과 옆면 등) 내지 목, 허리 또는 척추부 및 그 움직임이 미리 설정되어 있는 경우, 라이다 센서는 센싱된 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부를 넥케어 장치(20)를 통한 가이드 제공을 위해 적합한 인식대상으로 판단할 수 있으며, 상기 센싱된 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부의 움직임을 넥케어 장치(20)를 통한 가이드 제공을 위해 적합한 사용자의 모션으로서 고려할 수 있다.9 (a) is an example of a user motion suitable for providing a guide through the neck care device 20 among the user's motion sensed by the lidar sensor, and the user's body part, that is, the side of the face, the jaw line, and its movement A sensed appearance for That is, if the user's chin or facial part (eg, the jaw line and side of the face, etc.), neck, waist, or spine and their movements are preset as a motion for providing a guide through the neck care device 20, The IDA sensor may determine the sensed user's chin or face to neck, waist or spine as a suitable recognition target for providing a guide through the neck care device 20, and the sensed user's chin or face to neck , the movement of the waist or the spine may be considered as a motion of the user suitable for providing a guide through the neck care device 20 .

반면, 도 9의 (b)와 도 9의 (c)는 넥케어 장치(20)를 통한 가이드 제공에 적합하지 않은 인식대상 내지 사용자 모션의 예시로서, 미리 설정된 넥케어 장치(20)의 동작 제어와 관련없는 사용자의 신체 부위(손), 또는 사용자의 신체 부위가 아닌 사물(책)이 센싱된 모습이다. 즉, 넥케어 장치(20)를 통한 가이드 제공을 위한 모션으로 사용자의 턱 부위 또는 안면부(예컨대, 얼굴의 턱선과 옆면 등) 내지 목, 허리 또는 척추부 및 그 움직임이 미리 설정되어 있는 경우, 라이다 센서는 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부를 제외한 다른 신체부위(손 등) 혹은 다른 객체(책 등)가 센싱된 경우에는 이들을 넥케어 장치(20)를 통한 가이드 제공의 인식대상으로 판단하지 않을 수 있으며, 나아가 이들의 움직임은 센싱되더라도 넥케어 장치(20)를 통한 가이드 제공에 있어 부적합한 모션으로서 고려할 수 있다. 또한, 도 7에 도시되어 있지는 않으나 라이다 센서는 센싱된 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부를 넥케어 장치(20)를 통한 가이드 제공의 적합한 인식대상으로 판단할 수 있으나, 상기 센싱된 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부의 움직임이 상기 미리 설정된 움직임이 아닌 경우에는 이를 넥케어 장치(20)를 통한 가이드 제공에 있어 부적합한 사용자의 모션으로 고려할 수 있다.On the other hand, FIGS. 9 (b) and 9 (c) are examples of recognition objects or user motions that are not suitable for providing a guide through the neck care device 20, and control the operation of the neck care device 20 set in advance. The user's body part (hand) not related to the user's body part, or an object (book) other than the user's body part is sensed. That is, if the user's chin or facial part (eg, the jaw line and side of the face, etc.), neck, waist, or spine and their movements are preset as a motion for providing a guide through the neck care device 20, In the case where the user's chin, face, neck, waist, or other body parts (hands, etc.) or other objects (books, etc.) are sensed, the sensor is the recognition target of providing a guide through the neck care device 20. may not be determined, and further, even if their movements are sensed, they may be considered as inappropriate motions in providing a guide through the neck care device 20 . In addition, although not shown in FIG. 7 , the lidar sensor may determine the sensed user's chin or face, neck, waist or spine as a suitable recognition target for providing a guide through the neck care device 20, but the sensing If the movement of the user's chin or face, neck, waist, or spine is not the preset movement, it may be considered as an inappropriate user's motion in providing a guide through the neck care device 20 .

따라서, 도 9의 (a) 내지 (c)는 사용자의 신체 부위 및 그 움직임, 예를 들어 턱과 그 움직임을 라이다 센서로 센싱하고, 센싱된 턱과 그 움직임 데이터에 기초하여 넥케어 장치(20)에서 건강 가이드 데이터를 제공하기 위한 적합 및 부적합 모션 데이터를 나타낸 것이다. 다만, 본 발명이 반드시 도시된 예시에만 한정되는 것은 아니다. 이러한 모션(신체부위 또는 그 움직임)과 관련된 내용은, 넥케어 장치(20)에 미리 설정되었거나 사용자에 의해 임의 설정 가능하다.Accordingly, FIGS. 9A to 9C show the user's body parts and their movements, for example, the chin and its movements are sensed by the lidar sensor, and the neck care device ( 20) shows suitable and inappropriate motion data for providing health guide data. However, the present invention is not necessarily limited to the illustrated examples. Content related to such a motion (a body part or its movement) is preset in the neck care device 20 or can be arbitrarily set by a user.

도 10에서는, 사용자의 턱선 내지 얼굴 옆면 윤곽선(턱에서 이마까지)이 센싱된 것으로, 라이다 센서를 통하여 출발지점인 턱에서 종료지점인 이마를 연결하는 가상의 선을 그을 경우, 중력방향의 가상의 기준선과의 각도 차이를 기준으로 정상적인 자세 여부를 판단할 수 있다.In FIG. 10, the user's jaw line or the side contour of the face (from the chin to the forehead) is sensed, and when a virtual line is drawn from the starting point of the chin to the ending point of the forehead through the lidar sensor, the virtual direction of gravity is It is possible to determine whether the posture is normal based on the difference in angle from the reference line.

도 10의 (a)에서는, 정상적인 자세의 하나로, 사용자의 턱에서 출발하여 이마까지의 가상의 선과 중력방향의 가상의 기준선 사이의 각도가 미리 정해진 임계치 이하로 판단되면, 정상적인 자세로 판단할 수 있다.In Figure 10 (a), as one of the normal postures, if the angle between the virtual line from the user's chin to the forehead and the virtual reference line in the direction of gravity is determined to be less than or equal to a predetermined threshold, it can be determined as a normal posture. .

반면, 도 10의 (b)는, 비정상적인 자세 예를 들어, 거북목 자세로, 사용자의 턱에서 출발하여 이마까지의 가상의 선과 중력방향의 가상의 기준선 사이의 각도가 미리 정해진 임계치를 초과한다고 판단하면, 비정상적인 자세로 판단한다. 따라서, 넥케어 장치(20)는 도 10의 (b)와 같은 경우에, 사용자의 비정상적인 자세를 교정하기 위한 건강 가이드 데이터를 생성하여 제공할 수 있다. On the other hand, in (b) of FIG. 10, it is determined that the angle between the virtual line from the user's chin to the forehead and the virtual reference line in the direction of gravity exceeds a predetermined threshold in an abnormal posture, for example, turtle neck posture. If you do, it is judged as an abnormal posture. Accordingly, the neck care device 20 may generate and provide health guide data for correcting the user's abnormal posture in the case of FIG. 10B .

실시예에 따라, 건강 가이드 데이터는 넥케어 장치(20)에서 디스플레이, 스피커, 진동장치 등을 통해 다양한 형태로 사용자에게 직접 제공될 수 있다.According to an embodiment, the health guide data may be directly provided to the user in various forms through a display, a speaker, a vibrator, and the like in the neck care device 20 .

실시예에 따라, 건강 가이드 데이터는 넥케어 장치(20)에서 유무선 통신 프로토콜로 연결된 단말 또는 등록된 단말로 제공될 수 있다. 상기 단말은 본 발명과 관련하여, 전술한 건강 관리 어플리케이션의 실행을 통하여 전송된 건강 관리 데이터를 실시간으로 혹은 수집하여 종합적으로 확인할 수도 있다.According to an embodiment, the health guide data may be provided from the neck care device 20 to a terminal connected through a wired/wireless communication protocol or a registered terminal. In relation to the present invention, the terminal may comprehensively check the health management data transmitted through the execution of the aforementioned health management application in real time or by collecting it.

실시예에 따라, 건강 가이드 데이터는, 시간, 일, 월, 년 등 설정된 단위로 처리되어 통합 관리될 수 있다.According to an embodiment, health guide data may be processed and managed in units set such as time, day, month, year, and the like.

실시예에 따라, 프로세서(13)는 라이다 센서를 통하여 센싱된 적합한 사용자의 모션이 감지되면, 계속하여 사용자 턱 내지 얼굴의 움직임, 즉 움직이는 방향(각도) 및/또는 거리를 산출하여 실시간으로 자세 교정을 위한 가이드 데이터를 제공할 수 있다.According to an embodiment, when a suitable user's motion sensed through the lidar sensor is detected, the processor 13 continuously calculates the movement of the user's chin or face, that is, the moving direction (angle) and/or distance to pose in real time. Guide data for calibration can be provided.

실시예에 따라, 프로세서(13)는 라이다 센서를 통하여 센싱되는 적합한 사용자 모션이 감지되나, 모션이 계속되면 실시간으로 사용자의 턱 내지 얼굴의 움직임에 따른 움직임 방향 및 거리를 산출하지 않고 사용자의 움직임이 멈출 때까지 대기한다. 이후 사용자의 움직임이 멈추면 건강 가이드 데이터 생성을 위한 기준 데이터(예를 들어, 도 10의 (a))에 기초하여 해당 시점의 움직인 방향 및 거리만을 산출하여, 그에 기초하여 자세가 정상인지 비정상인지 판단 후 건강 가이드 데이터를 생성하여 제공할 수 있다.According to an embodiment, the processor 13 detects a suitable user motion sensed through the lidar sensor, but when the motion continues, the user's movement does not calculate the direction and distance according to the movement of the user's chin or face in real time. Wait until it stops. After that, when the user's movement stops, only the moving direction and distance at that point in time is calculated based on reference data for generating health guide data (eg, (a) of FIG. 10), and based on whether the posture is normal or abnormal After cognition determination, health guide data may be generated and provided.

전자장치(10,20)는 Java 기반의 마이크로 컨트롤러에서 본 발명과 관련된 라이다 센서에 의해 센싱된 데이터를 처리하고 필요한 관련 데이터를 추출, 비교 분석, 생성 등 처리를 수행할 수 있다. 우선, 인식된 형상을 분석하여 사용자인 경우에만 인식될 수 있도록 한 후, 좌표 변환 알고리즘을 통해 라이다 센서로부터 인식된 데이터를 변환할 수 있다. 다음으로, 다양한 동작을 분석하여 알고리즘화 한 시스템을 통하여 사용자의 허리나 목이 휜 정도를 체크할 수 있도록 건강 가이드 데이터를 생성하고, 디스플레이를 통해 생성된 건강 가이드 데이터를 사용자에게 피드백 해줄 수 있다. The electronic devices 10 and 20 may process data sensed by the lidar sensor related to the present invention in a Java-based microcontroller and perform processing such as extraction, comparative analysis, and generation of necessary related data. First, the recognized shape is analyzed so that it can be recognized only by the user, and then data recognized from the lidar sensor can be converted through a coordinate conversion algorithm. Next, it is possible to generate health guide data to check the degree of curvature of the user's waist or neck through an algorithmized system by analyzing various motions, and feed back the generated health guide data to the user through a display.

실시예에 따라, 넥케어 장치(20)의 경우에는, 비록 도시되진 않았으나, 조명 장치를 포함하여, 건강 가이드 데이터를 다양한 컬러를 조사할 수 있는 조명 장치를 통해 사용자에게 제공할 수도 있다.According to an embodiment, in the case of the neck care device 20, although not shown, health guide data including a lighting device may be provided to the user through a lighting device capable of irradiating various colors.

전자장치(10,20)의 마이크로 컨트롤러는, 본 발명에 따라 라이다 센서에 의한 센싱 데이터를 다음과 같이 처리할 수 있다. 우선, 사용자의 특정 신체 부위, 즉, 손 또는 목만 인식하도록 하는 사물 판별 알고리즘을 이용할 수 있다. The microcontroller of the electronic devices 10 and 20 may process the data sensed by the lidar sensor according to the present invention as follows. First, it is possible to use an object identification algorithm that recognizes only a specific body part of the user, that is, the hand or the neck.

다음으로, 인식된 신체 부위의 거리, 각도, 좌표, 동작 등에 대한 데이터를 극좌표 데이터, 직교 좌표데이터 또는 거리, 각도, 위치, 방향, 좌표, 공간 정보, 맵핑 데이터 중 하나 이상을 나타내는 데이터 타입으로 각각 개별적으로 변환할 수 있다. 사용자의 움직임에 대하여 기준치를 설정하여 기준치에 부합하는 모션만 동작 제어 신호 또는 건강 가이드 데이터 제공 대상 모션으로 허용하는 알고리즘을 이용할 수 있다. Next, data on the recognized body part distance, angle, coordinates, motion, etc. are converted into data types representing one or more of polar coordinate data, Cartesian coordinate data, or distance, angle, position, direction, coordinates, spatial information, and mapping data, respectively. They can be converted individually. An algorithm that sets a reference value for the user's movement and allows only motion that meets the reference value as a motion control signal or health guide data target motion may be used.

마지막으로, 그러한 데이터를 기반으로 전자장치(10)의 동작 제어를 수행하거나 넥케어 장치(20)에서 사용자에게 건강 가이드 데이터를 제공할 수 있다. 전술한 알고리즘은 API를 활용하여 코드로 작성되어 전자장치(10,20)에 탑재될 수 있다.Finally, based on such data, operation control of the electronic device 10 may be performed or the neck care device 20 may provide health guide data to the user. The above-described algorithm may be written as a code using API and mounted on the electronic devices 10 and 20 .

한편, 본 발명과 관련하여 라이다의 적외선 레이저 오작동을 방지하기 위하여 물이나 안개 상황 등에서 굴절 현상의 오류를 줄일 수 있는 도 5와 같은 디자인을 가질 수 있다. 또한, 라이다를 통한 더욱 높은 정확도를 위해 적외선 파장의 레이저(예를 들어, 1,550nm)를 이용할 수 있으나 이에 제한되지는 않는다.On the other hand, in relation to the present invention, in order to prevent malfunction of the infrared laser of the lidar, it may have a design as shown in FIG. 5 that can reduce the error of the refraction phenomenon in water or fog conditions. In addition, an infrared wavelength laser (eg, 1,550 nm) may be used for higher accuracy through the lidar, but is not limited thereto.

한편, 상술한 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 저장하는 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함한다.Meanwhile, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of data used in the above-described method may be recorded in a computer-readable medium through various means. A computer readable medium storing executable computer code for performing various methods of the present invention may be a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), an optically readable medium (eg, CD-ROM, DVD). storage media, such as).

본원 발명의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those of ordinary skill in the art related to the embodiments of the present invention will understand that it can be implemented in a modified form within a range that does not depart from the essential characteristics of the description. Therefore, the disclosed methods are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the detailed description of the invention, and all differences within the scope equivalent thereto should be construed as being included in the scope of the present invention.

본 발명은 라이다 센서를 포함한 라이다 기술이 적용된 모든 전자 장치에 적용 가능하다.The present invention is applicable to all electronic devices to which lidar technology is applied, including lidar sensors.

Claims (10)

하나 이상의 라이다 센서를 포함하는 전자장치 제어 방법에 있어서,
상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하는 단계;
상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자, 사용자의 특정 신체 부위, 사물 또는 이들 각각의 움직임에 대하여, 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대한 적어도 하나 이상의 데이터를 개별적으로 획득하는 단계; 및
상기 획득한 하나 이상의 데이터에 기초하여 상기 전자장치의 동작을 제어하는 단계;를 포함하는, 전자장치 제어 방법.
A method for controlling an electronic device including one or more lidar sensors, the method comprising:
acquiring data on the user's movement through the one or more lidar sensors;
At least one or more data on distance, angle, position, direction, coordinates, spatial information, or mapping data for a user, a specific body part, object, or each of these movements, based on the acquired data on the user's movement individually acquiring; and
Controlling the operation of the electronic device based on the one or more acquired data; and a method for controlling an electronic device.
제1항에 있어서,
상기 사용자, 사용자의 특정 신체 부위, 사물 및 이들 각각의 움직임에 대한 데이터 또는 상기 사용자, 사용자의 특정 신체 부위, 사물 및 이들 각각의 움직임에 따른 전자장치의 동작 제어 데이터를 저장하는 단계;를 더 포함하는, 전자장치 제어 방법.
According to claim 1,
Storing the user, the user's specific body parts and objects, and data on their respective movements or the user, the user's specific body parts and objects, and operation control data of the electronic device according to their respective movements; further comprising A method of controlling an electronic device.
제1항에 있어서,
상기 획득하는 데이터는 극좌표 데이터 타입, 직교좌표 데이터 타입 또는 인식하고자 하는 대상의 거리, 각도, 위치, 방향, 좌표, 공간 정보, 맵핑 데이터 중 하나 이상을 나타내는 데이터 타입을 포함하여 이루어지는, 전자장치 제어 방법.
According to claim 1,
The acquired data includes a data type representing at least one of a polar coordinate data type, a Cartesian coordinate data type, or a distance, angle, location, direction, coordinate, spatial information, and mapping data of an object to be recognized, an electronic device control method .
제3항에 있어서,
상기 획득하는 데이터에 기초하여 상기 사용자의 신체 부위의 이동량, 이동속도 및 이동방향을 산출하는, 전자장치 제어 방법.
4. The method of claim 3,
An electronic device control method of calculating a movement amount, a movement speed, and a movement direction of the user's body part based on the acquired data.
제4항에 있어서,
상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량의 변화가 더 큰 이동량만 유효 데이터로 이용하는, 전자장치 제어 방법.
5. The method of claim 4,
In the calculated movement amount, if some or all of the movement amount in the x-axis, y-axis, z-axis, or a movement in a straight or curved shape is greater than or equal to a threshold value, only the movement amount with a larger change in movement amount is valid data A method of controlling an electronic device using as
제4항에 있어서,
상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 각각의 이동량 변화의 일부 또는 모두를 유효 데이터로 이용하는, 전자장치 제어 방법.
5. The method of claim 4,
In the calculated movement amount, if some or all of the movement amount in the x-axis, y-axis, and z-axis or in a specific direction or movement in a linear or curved form is greater than or equal to a threshold, some or all of the change in each movement amount is effective A method of controlling an electronic device using data.
제4항에 있어서,
상기 산출되는 이동량에 있어서, x축, y축, z축 내지 특정방향으로의 이동량 또는 직선 내지 곡선 형태의 움직임에 대한 이동량의 일부 또는 모두가 임계치 이상이면, 이동량과 관계없이 시간축 상에서 늦게 변화된 축의 이동량만 유효 데이터로 이용하는, 전자장치 제어 방법.
5. The method of claim 4,
In the calculated movement amount, if some or all of the movement amount in the x-axis, y-axis, z-axis, or movement in a straight or curved form is greater than or equal to the threshold value, the movement amount of the axis changed late on the time axis regardless of the movement amount An electronic device control method using only valid data.
제1항에 있어서,
상기 적어도 하나의 라이다 센서는,
회전식 라이다 센서, 고정형 라이다 센서, 수퍼 라이다 센서, 2D 라이다 센서, 3D 라이다 센서, 소자형 라이다 센서, MEMS 라이다 센서, 플래시 라이다 센서, OPA 라이다 센서, FMCW 라이다 센서, 카메라 형 라이다, 라이다 스캐너, 다층 스캐너 또는 선형측정 센서를 포함하는, 전자장치 제어 방법.
According to claim 1,
The at least one lidar sensor,
Rotary lidar sensor, fixed lidar sensor, super lidar sensor, 2D lidar sensor, 3D lidar sensor, device lidar sensor, MEMS lidar sensor, flash lidar sensor, OPA lidar sensor, FMCW lidar sensor , a camera-type lidar, lidar scanner, multi-layer scanner or a linear measurement sensor.
전자수전에 있어서,
메모리;
하나 이상의 라이다 센서; 및
프로세서를 포함하되,
상기 프로세서는,
상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하고, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자의 손 부위를 인식하고, 상기 하나 이상의 라이다 센서를 통하여 상기 인식한 사용자의 손의 움직임에 대하여 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대하여 하나 이상의 데이터를 개별적으로 획득하며, 상기 획득한 하나 이상의 데이터에 기초하여 상기 전자수전의 동작을 제어하는, 전자수전.
In the electronic faucet,
Memory;
one or more lidar sensors; and
including a processor;
The processor is
Obtaining data on the user's movement through the one or more LiDAR sensors, recognizing the user's hand part based on the obtained data on the user's movement, and the recognized user through the one or more LiDAR sensors Obtaining one or more data individually for distance, angle, position, direction, coordinates, spatial information or mapping data with respect to the movement of the hand, and controlling the operation of the electronic faucet based on the acquired one or more data, electronic faucet.
넥케어 장치에 있어서,
메모리;
하나 이상의 라이다 센서; 및
프로세서를 포함하되,
상기 프로세서는,
상기 하나 이상의 라이다 센서를 통하여 사용자의 움직임에 대한 데이터를 획득하고, 상기 획득한 사용자의 움직임에 대한 데이터에 기초하여 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부를 인식하고, 상기 하나 이상의 라이다 센서를 통하여 상기 인식한 사용자의 턱 부위 또는 안면부 내지 목, 허리 또는 척추부의 움직임에 대하여 거리, 각도, 위치, 방향, 좌표, 공간 정보 또는 맵핑 데이터에 대하여 하나 이상의 데이터를 개별적으로 획득하며, 상기 획득한 하나 이상의 데이터에 기초하여 상기 사용자에게 건강 가이드 데이터를 제공하는, 넥케어 장치.
In the neck care device,
Memory;
one or more lidar sensors; and
including a processor;
The processor is
Acquire data on the user's movement through the one or more LiDAR sensors, recognize the user's chin or face, neck, waist, or spine based on the acquired data on the user's movement, and One or more data is individually acquired for the distance, angle, position, direction, coordinates, spatial information or mapping data with respect to the movement of the recognized user's chin, face, neck, waist, or spine through the IDA sensor, A neck care device that provides health guide data to the user based on the acquired one or more data.
KR1020200162667A 2020-11-27 2020-11-27 Electronic device and Method for controlling electronic device using LiDAR sensor KR20220074317A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2020/017146 WO2022114300A1 (en) 2020-11-27 2020-11-27 Electronic device and method for controlling electronic device by using lidar sensor
KR1020200162667A KR20220074317A (en) 2020-11-27 2020-11-27 Electronic device and Method for controlling electronic device using LiDAR sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162667A KR20220074317A (en) 2020-11-27 2020-11-27 Electronic device and Method for controlling electronic device using LiDAR sensor

Publications (1)

Publication Number Publication Date
KR20220074317A true KR20220074317A (en) 2022-06-03

Family

ID=81755096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162667A KR20220074317A (en) 2020-11-27 2020-11-27 Electronic device and Method for controlling electronic device using LiDAR sensor

Country Status (2)

Country Link
KR (1) KR20220074317A (en)
WO (1) WO2022114300A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059244B1 (en) 2017-12-20 2019-12-24 주식회사 에스오에스랩 Apparatus for Light Detection and Ranging

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6343916B2 (en) * 2013-12-03 2018-06-20 富士ゼロックス株式会社 Posture determination device, posture determination system, and program
KR101976605B1 (en) * 2016-05-20 2019-05-09 이탁건 A electronic device and a operation method
KR101881648B1 (en) * 2016-09-13 2018-08-27 (주)아이리녹스 Bathroom smart mirror apparatus
KR102537784B1 (en) * 2018-08-17 2023-05-30 삼성전자주식회사 Electronic device and control method thereof
KR101956608B1 (en) * 2018-12-18 2019-06-24 코어다 주식회사 Method, server, device and program for control of motion recognition device according to recognition position of gesture

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059244B1 (en) 2017-12-20 2019-12-24 주식회사 에스오에스랩 Apparatus for Light Detection and Ranging

Also Published As

Publication number Publication date
WO2022114300A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
Berman et al. Sensors for gesture recognition systems
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
US9041775B2 (en) Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
CN113454518A (en) Multi-camera cross reality device
KR20170100641A (en) Virtual representations of real-world objects
KR101976605B1 (en) A electronic device and a operation method
CN108885487B (en) Gesture control method of wearable system and wearable system
US11150318B2 (en) System and method of camera-less optical motion capture
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
US11540747B2 (en) Apparatus and a method for passive scanning of an object or a scene
CN113711587A (en) Lightweight cross-display device with passive depth extraction
JP2022521360A (en) Interaction with smart devices using a pointing controller
US20200160566A1 (en) Display apparatus for computer-mediated reality
JP2009258884A (en) User interface
KR101191640B1 (en) Apparatus and method for providing information to user
KR20220074317A (en) Electronic device and Method for controlling electronic device using LiDAR sensor
KR101524576B1 (en) Wearable device
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
CN112449166B (en) Holographic projection device, projection control method, projection control apparatus, computer device, and medium
KR20220094680A (en) System and method for performing calibrations
Kirkpatrick 3d sensors provide security, better games
Chu et al. A study of motion recognition system using a smart phone
Kohoutek Multi-user vision interface based on range imaging

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application