KR102408398B1 - Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence - Google Patents
Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence Download PDFInfo
- Publication number
- KR102408398B1 KR102408398B1 KR1020210169807A KR20210169807A KR102408398B1 KR 102408398 B1 KR102408398 B1 KR 102408398B1 KR 1020210169807 A KR1020210169807 A KR 1020210169807A KR 20210169807 A KR20210169807 A KR 20210169807A KR 102408398 B1 KR102408398 B1 KR 102408398B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- target
- sound
- temperature
- companion animal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 12
- 241001465754 Metazoa Species 0.000 claims abstract description 117
- 238000013528 artificial neural network Methods 0.000 claims abstract description 54
- 238000013459 approach Methods 0.000 claims description 28
- 230000036760 body temperature Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 description 29
- 238000000926 separation method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 235000013305 food Nutrition 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 235000011888 snacks Nutrition 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K15/00—Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
- A01K15/02—Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
- A01K15/021—Electronic training devices specially adapted for dogs or cats
- A01K15/022—Anti-barking devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/505—Systems of measurement based on relative movement of target using Doppler effect for determining closest range to a target or corresponding time, e.g. miss-distance indicator
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Environmental Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Animal Behavior & Ethology (AREA)
- Animal Husbandry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Zoology (AREA)
- Artificial Intelligence (AREA)
- Physical Education & Sports Medicine (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Toys (AREA)
Abstract
일실시예에 따르면, 장치에 의해 수행되는, 인공지능을 기반으로 반려동물의 짖음을 방지하기 위해 로봇을 제어하는 방법에 있어서, 로봇에 설치된 마이크로폰을 통해 제1 소리가 감지되고 상기 제1 소리가 미리 설정된 기준 기간 보다 길게 유지된 경우, 상기 로봇으로부터 제1 소리 정보를 획득하는 단계; 상기 제1 소리 정보를 기초로, 상기 제1 소리의 주파수를 분석하는 단계; 상기 제1 소리의 주파수에 대한 분석 결과를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로, 상기 제1 소리에 대한 발생 주체를 검출하는 단계; 상기 제1 소리를 발생시킨 주체가 반려동물로 검출되면, 상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단하는 단계 ; 및 상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단되면, 상기 로봇이 360도 회전하면서 상기 로봇에 설치된 제1 적외선 센서-상기 제1 적외선 센서는 PIR 센서(Passive Infrared Sensor)로 구성됨-를 통해 주변 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계를 포함하는, 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법이 제공된다.According to one embodiment, in a method of controlling a robot to prevent barking of a companion animal based on artificial intelligence performed by a device, a first sound is detected through a microphone installed in the robot, and the first sound is if it is maintained longer than a preset reference period, obtaining first sound information from the robot; analyzing a frequency of the first sound based on the first sound information; applying an analysis result of the frequency of the first sound to an artificial neural network and detecting a generator of the first sound based on an output of the artificial neural network; determining that the first sound is caused by barking of the companion animal when the subject generating the first sound is detected as a companion animal; and when it is determined that the first sound is caused by the companion animal barking, the robot rotates 360 degrees and the first infrared sensor installed in the robot - the first infrared sensor is composed of a PIR sensor (Passive Infrared Sensor) - There is provided a method for controlling an artificial intelligence-based anti-barking robot for companion animals, comprising controlling the operation of the robot to sense ambient temperature.
Description
아래 실시예들은 인공지능을 기반으로 반려동물의 짖음을 방지하기 위해 로봇을 제어하는 기술에 관한 것이다.The examples below relate to a technology for controlling a robot to prevent a companion animal from barking based on artificial intelligence.
반려동물을 가족처럼 여기는 성향이 생겨나면서, 펫코노미(Petconomy) 규모도 매년 급성장을 이루고 있다.As there is a tendency to treat companion animals like family, the size of the petconomy is growing rapidly every year.
하지만, 반려동물 보유 가구가 증가하면서 반려동물로 인한 소음 문제가 대두되고 있으며, 층견 소음은 사회적 문제로 발전하였으나 마땅한 해결책이 없는 상황이다.However, as the number of households with companion animals increases, noise problems due to companion animals are emerging.
반려동물로 인한 소음을 방지하기 위해, 고통으로 짖음을 방지하는 제품이 출시되었으나, 이러한 제품은 물리적인 고통을 주는 방식으로 비윤리적인 방법으로, 제품 사용 시 반려동물에게 큰 트라우마를 주기 때문에, 반려인들의 사용 기피, 판매 금지 및 중단으로 이어지고 있다.In order to prevent noise caused by companion animals, products that prevent barking due to pain have been released, but these products are unethical in a way that inflicts physical pain. It is leading to people's avoidance of use, ban and suspension of sales.
따라서, 반려동물의 짖음으로 인한 소음을 방지하면서, 반려동물의 스트레스도 완화시킬 수 있는 제품에 대한 요구가 증대되고 있으며, 이와 관련된 기술의 구현이 요구되고 있다.Accordingly, there is an increasing demand for products that can alleviate the stress of companion animals while preventing noise caused by barking of companion animals, and implementation of related technologies is required.
일실시예에 따르면, 소리의 주파수를 분석하여 반려동물이 짖어서 발생한 소리인지 판단하고, 반려동물이 짖은 것으로 판단되면, 반려동물의 체온과 온도가 가장 유사한 물체를 제1 목표물로 설정하고, 제1 목표물로 접근하여 제1 목표물이 반려동물이 맞는지 판단하고, 제1 목표물이 반려동물인 것으로 판단되면, 반려동물의 짖음을 방지하기 위해 설정되어 있는 제1 동작을 수행하도록, 로봇의 동작을 제어하는, 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, it is determined whether the sound is caused by the companion animal barking by analyzing the frequency of the sound, and when it is determined that the companion animal is barking, an object having the most similar body temperature and temperature of the companion animal is set as the first target, 1 Approaching the target, it is determined whether the first target is a companion animal, and when it is determined that the first target is a companion animal, the robot motion is controlled to perform a first motion set to prevent the companion animal from barking. An object of the present invention is to provide an artificial intelligence-based companion animal anti-barking robot control method, apparatus, and system.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood from the description below.
일실시예에 따르면, 장치에 의해 수행되는, 인공지능을 기반으로 반려동물의 짖음을 방지하기 위해 로봇을 제어하는 방법에 있어서, 로봇에 설치된 마이크로폰을 통해 제1 소리가 감지되고 상기 제1 소리가 미리 설정된 기준 기간 보다 길게 유지된 경우, 상기 로봇으로부터 제1 소리 정보를 획득하는 단계; 상기 제1 소리 정보를 기초로, 상기 제1 소리의 주파수를 분석하는 단계; 상기 제1 소리의 주파수에 대한 분석 결과를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로, 상기 제1 소리에 대한 발생 주체를 검출하는 단계; 상기 제1 소리를 발생시킨 주체가 반려동물로 검출되면, 상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단하는 단계 ; 및 상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단되면, 상기 로봇이 360도 회전하면서 상기 로봇에 설치된 제1 적외선 센서-상기 제1 적외선 센서는 PIR 센서(Passive Infrared Sensor)로 구성됨-를 통해 주변 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계를 포함하며, 상기 인공 신경망은 상기 제1 소리의 평균 주파수가 미리 설정된 제1 기준 주파수 범위 내에 포함되는 것으로 확인되면, 상기 제1 소리에 대한 발생 주체를 반려동물로 분석하여 출력하고, 상기 제1 소리의 평균 주파수가 미리 설정된 제2 기준 주파수 범위 내에 포함되는 것으로 확인되면, 상기 제1 소리에 대한 발생 주체를 사람으로 분석하여 출력하는 것을 특징으로 하는, 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법이 제공된다.According to one embodiment, in a method of controlling a robot to prevent barking of a companion animal based on artificial intelligence performed by a device, a first sound is detected through a microphone installed in the robot, and the first sound is if it is maintained longer than a preset reference period, obtaining first sound information from the robot; analyzing a frequency of the first sound based on the first sound information; applying an analysis result of the frequency of the first sound to an artificial neural network and detecting a generator of the first sound based on an output of the artificial neural network; determining that the first sound is caused by barking of the companion animal when the subject generating the first sound is detected as a companion animal; and when it is determined that the first sound is caused by the companion animal barking, the robot rotates 360 degrees and the first infrared sensor installed in the robot - the first infrared sensor is composed of a PIR sensor (Passive Infrared Sensor) - and controlling the operation of the robot to detect an ambient temperature, wherein the artificial neural network responds to the first sound when it is confirmed that the average frequency of the first sound is included in a preset first reference frequency range. It is characterized in that the generating subject is analyzed as a companion animal and output, and when it is confirmed that the average frequency of the first sound is included in a preset second reference frequency range, the generating subject of the first sound is analyzed and output as a person A method for controlling an artificial intelligence-based companion animal anti-barking robot is provided.
상기 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법은, 상기 로봇이 360도 회전하는 동안 상기 제1 적외선 센서를 통해 주변 온도가 감지되면, 상기 로봇으로부터 제1 온도 정보를 획득하는 단계; 상기 제1 온도 정보를 기초로, 반려동물의 체온과 온도가 가장 유사한 물체를 제1 목표물로 설정하고, 상기 제1 목표물이 상기 로봇을 기준으로 어느 방향에 위치하고 있는지 확인하는 단계; 상기 제1 목표물이 상기 로봇을 기준으로 제1 방향에 위치하고 있는 것으로 확인되면, 상기 로봇이 상기 제1 방향으로 이동하도록, 상기 로봇의 동작을 제어하는 단계; 상기 로봇이 상기 제1 방향으로 이동하여 상기 제1 목표물로 접근하는 경우, 상기 로봇에 설치된 제2 적외선 센서-상기 제2 적외선 센서는 열전퇴 적외선 센서(Thermopile Infrared Sensor)로 구성됨-를 통해 상기 제1 목표물의 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계; 상기 로봇이 상기 제1 목표물로 접근하여 상기 제2 적외선 센서를 통해 상기 제1 목표물의 온도 변화가 감지되면, 상기 로봇으로부터 제2 온도 정보를 획득하는 단계; 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 미리 설정된 기준 온도 범위 내에 포함되는 것으로 확인되면, 상기 제1 목표물이 반려동물인 것으로 판단하는 단계; 및 상기 제1 목표물이 반려동물인 것으로 판단되면, 반려동물의 짖음을 방지하기 위해 설정되어 있는 제1 동작을 수행하도록, 상기 로봇의 동작을 제어하는 단계를 더 포함할 수 있다.The artificial intelligence-based companion animal barking prevention robot control method may include: acquiring first temperature information from the robot when an ambient temperature is sensed through the first infrared sensor while the robot rotates 360 degrees; setting an object having the most similar body temperature and temperature as a first target based on the first temperature information, and determining in which direction the first target is located with respect to the robot; when it is confirmed that the first target is positioned in a first direction with respect to the robot, controlling an operation of the robot so that the robot moves in the first direction; When the robot moves in the first direction and approaches the first target, the second infrared sensor installed in the robot, the second infrared sensor is composed of a Thermopile Infrared Sensor. 1 controlling the operation of the robot to sense the temperature of the target; acquiring second temperature information from the robot when the robot approaches the first target and a change in temperature of the first target is detected through the second infrared sensor; determining that the first target is a companion animal when it is confirmed that the temperature of the first target is within a preset reference temperature range based on the second temperature information; and when it is determined that the first target is a companion animal, controlling the operation of the robot to perform a first operation set to prevent the companion animal from barking.
상기 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법은, 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, 상기 로봇이 상기 제1 목표물로 더 접근하여 이동하도록, 상기 로봇의 동작을 제어하는 단계; 상기 로봇이 상기 제1 목표물로 더 접근하여 상기 제2 적외선 센서를 통해 상기 제1 목표물의 온도 변화가 다시 감지되면, 상기 로봇으로부터 제2 온도 정보를 다시 획득하는 단계; 다시 획득된 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되는 것으로 확인되면, 상기 제1 목표물이 반려동물인 것으로 판단하는 단계; 다시 획득된 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, 상기 로봇이 상기 제1 목표물로 더 접근하여 이동하도록, 상기 로봇의 동작을 제어하는 단계; 및 상기 로봇이 상기 제1 목표물로 더 접근하여 상기 로봇에 설치된 장애물 센서를 통해 상기 로봇과 상기 제1 목표물이 부딪힌 것으로 감지되면, 상기 제1 목표물이 반려동물이 아닌 것으로 판단하는 단계를 더 포함할 수 있다.In the artificial intelligence-based companion animal barking prevention robot control method, when it is confirmed that the temperature of the first target is not within the reference temperature range based on the second temperature information, the robot is further set to the first target. controlling an operation of the robot to approach and move; acquiring second temperature information from the robot again when the robot approaches the first target and a change in temperature of the first target is detected again through the second infrared sensor; determining that the first target is a companion animal when it is confirmed that the temperature of the first target is within the reference temperature range based on the re-obtained second temperature information; If it is confirmed that the temperature of the first target is not within the reference temperature range based on the second temperature information obtained again, the robot moves to move closer to the first target. controlling; and determining that the first target is not a companion animal when it is detected that the robot and the first target collide with the robot through an obstacle sensor installed in the robot as the robot approaches the first target. can
일실시예에 따르면, 소리의 주파수를 분석하여 반려동물이 짖어서 발생한 소리인지 판단하고, 반려동물이 짖은 것으로 판단되면, 반려동물의 체온과 온도가 가장 유사한 물체를 제1 목표물로 설정하고, 제1 목표물로 접근하여 제1 목표물이 반려동물이 맞는지 판단하고, 제1 목표물이 반려동물인 것으로 판단되면, 반려동물의 짖음을 방지하기 위해 설정되어 있는 제1 동작을 수행하도록, 로봇의 동작을 제어함으로써, 반려동물의 짖음으로 인한 소음을 방지하면서, 반려동물의 스트레스도 완화시킬 수 있는 효과가 있다.According to an embodiment, it is determined whether the sound is caused by the companion animal barking by analyzing the frequency of the sound, and when it is determined that the companion animal is barking, an object having the most similar body temperature and temperature of the companion animal is set as the first target, 1 Approaching the target, it is determined whether the first target is a companion animal, and when it is determined that the first target is a companion animal, the robot motion is controlled to perform a first motion set to prevent the companion animal from barking. This has the effect of reducing the stress of the companion animal while preventing noise caused by the companion animal's barking.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 로봇의 구성에 대한 예시도이다.
도 3은 일실시예에 따른 반려동물이 짖은 것을 판단하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 목표물을 설정하여 제1 목표물이 있는 위치로 로봇을 이동시키는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제1 목표물이 반려동물인지 판단하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제1 목표물이 반려동물인지 아닌지 판단하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 제1 목표물이 반려동물이 아닌 경우, 제2 목표물을 설정하여 제2 목표물이 있는 위치로 로봇을 이동시키는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 로봇과 목표물 간의 이격 거리에 따라 반려동물 짖음 방지 동작을 수행하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 인공 신경망의 학습을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is an exemplary diagram of a configuration of a robot according to an embodiment.
3 is a flowchart illustrating a process of determining that a companion animal has barked according to an exemplary embodiment.
4 is a flowchart illustrating a process of setting a first target and moving the robot to a position where the first target is located, according to an exemplary embodiment.
5 is a flowchart illustrating a process of determining whether a first target is a companion animal according to an exemplary embodiment.
6 is a flowchart illustrating a process of determining whether a first target is a companion animal according to an exemplary embodiment.
7 is a flowchart illustrating a process of setting a second target and moving the robot to a position where the second target is located when the first target is not a companion animal according to an exemplary embodiment.
8 is a flowchart illustrating a process of performing an operation to prevent a companion animal from barking according to a separation distance between a robot and a target according to an exemplary embodiment.
9 is a diagram for explaining learning of an artificial neural network according to an embodiment.
10 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
도 1을 참조하면, 일실시예에 따른 시스템은 로봇(100) 및 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a
먼저, 로봇(100)은 반려동물을 케어하는데 도움을 주는 로봇일 수 있으며, 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 로봇(100)은 장치(200)와 무선을 통해 통신하도록 구성될 수 있다.First, the
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 장치(200)는 로봇(100)과 무선을 통해 통신하도록 구성될 수 있다.The
장치(200)는 로봇(100)에 대한 전체적인 동작을 제어하며, 로봇(100)을 반려동물을 케어하는 로봇으로 활용할 수 있으며, 이를 통해, 반려동물의 짖음을 방지하기 위해 로봇(100)의 동작을 제어할 수 있다.The
도 2는 일실시예에 따른 로봇의 구성에 대한 예시도이다.2 is an exemplary diagram of a configuration of a robot according to an embodiment.
도 2를 참조하면, 로봇(100)은 마이크로폰(110), 제1 적외선 센서(120), 제2 적외선 센서(130), 장애물 센서(140), 스피커(150), 통신 모듈(160) 및 프로세서(170)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the
먼저, 마이크로폰(110)은 소리, 음성과 같은 음파를 받아서 그 진동에 따른 전기 신호를 발생하는 역할을 수행하며, 로봇(100)의 주변에서 발생하는 소리를 감지할 수 있다.First, the
제1 적외선 센서(120)는 PIR 센서(Passive Infrared Sensor)로 구성될 수 있다. PIR 센서는 인체 감지 센서로, 피동형 적외선 센서를 의미하며, 프레넬 렌즈를 통해 9~12도의 예각으로 일정 구간의 인체 이동을 감지할 수 있다.The first
제2 적외선 센서(130)는 열전퇴 적외선 센서(Thermopile Infrared Sensor)로 구성될 수 있다. Thermopile Infrared Sensor는 인체에서 발산되는 미세한 적외선 신호를 증폭하여, 증폭된 디지털 신호를 통해 인체를 감지할 수 있다.The second
장애물 센서(140)는 거리 측정 센서(Distance Measuring Sensor), 라이다 센서(LIDAR Sensor) 등의 조합으로 구성되어, 로봇(100)의 주변에 장애물이 있는지 여부를 감지할 수 있다.The
스피커(150)는 소리를 출력하는 역할을 수행하며, 반려동물에게 들려줄 음원을 재생하여 외부로 출력할 수 있다.The
통신 모듈(160)은 외부 장치와 연결되어 통신하는 역할을 수행하며, 예를 들면, 블루투스 모듈로 구성될 수 있으며, 장치(200)와 무선을 통해 연결되어 정보를 송수신할 수 있다.The
프로세서(170)는 제1 적외선 센서(120), 제2 적외선 센서(130), 장애물 센서(140), 스피커(150) 및 통신 모듈(160) 각각의 동작을 수행하도록 지시하고 제어하는 역할을 수행할 수 있다.The
일실시예에 따르면, 로봇(100)은 메카트로닉스(Mechatronics) 기반 설계로 별도의 작업을 하지 않아도 주거공간에 있는 벽, 문턱, 가구 등의 장애물을 인식하여, 장애물에 구애없이 자동으로 자율 주행이 가능할 수 있다.According to one embodiment, the
로봇(100)은 마이크로폰(110)으로 주변 소리를 감지하고, 감지된 소리의 주파수를 분석하여, 특정 주파수(예를 들면, 1~2KHz)에 반응하도록 구현될 수 있다. 이때, 특정 주파수는 반려동물이 짖는 소리의 평균 주파수이다.The
구체적으로, 일반 여성은 200~250Hz, 개 짖는 소리의 평균 주파수는 1K~2KHz로 알려져 있는데, 로봇(100)은 마이크로폰(110)으로 주변 소리를 감지하여 EPWM0 channel output/capture input 또는 AUDIO CODEC 등으로 소리의 주파수를 분석한 후, 특정 주파수(1K~2KHz)에 반응할 수 있다.Specifically, it is known that the average frequency of a female barking sound is 200~250Hz, and the average frequency of a dog barking is 1K~2KHz. After analyzing the frequency of sound, it can respond to a specific frequency (1K~2KHz).
마이크로폰(110)을 통해 특정 주파수(1K~2KHz)가 감지되면, 로봇(100)이 반응을 시작할 수 있으며, 로봇(100)이 360도 회전하면서 PIR Sensor를 통해 인체 감지와 동시에 Thermopile Infrared Sensor로 주변 온도를 감지할 수 있다.When a specific frequency (1K~2KHz) is detected through the
로봇(100)은 PIR Sensor와 Thermopile Infrared Sensor의 입력을 바탕으로 방향을 설정하고 목표물을 추적할 수 있다. 이때, 로봇(100)은 Stepping Motor와 Distance Measuring Sensor를 통해 정확한 방향 설정과 장애물을 회피하여 목표물에 접근할 수 있다.The
로봇(100)은 목표물에 근접하게 되면, Thermopile Infrared Sensor를 통해 목표물의 체온을 감지하여 사람과 반려동물을 정확히 구분할 수 있다. 예를 들어, 목표물의 체온이 36~37°C로 감지되면 목표물이 사람으로 구분되고, 목표물이 체온이 38.5~39.5°C로 감지되면 목표물이 반려동물로 구분될 수 있다.When the
로봇(100)은 반려동물의 짖음을 멈추기 위한 다양한 기술적 요소를 포함할 수 있다.The
예를 들어, 로봇(100)은 목표물 이동 접근 시 반려동물이 선호하는 음원을 출력할 수 있다. 이를 위해, 반려동물이 좋아하는 여러 개의 음원을 사전에 메모리에 저장한 상태에서, 목표물에 접근하면서 미리 정해진 규칙에 따라 AUDIO CODEC을 통해 음원이 재생되도록 처리할 수 있다.For example, the
또한, 로봇(100)은 목표물 이동 접근 시 간식 자동 피더를 통해 반려동물이 좋아하는 먹이가 투척되도록 처리하여, 반려동물의 간식을 분배할 수 있다. 이때, 반려동물의 위치에 따라 먹이통의 회전 각도가 조절될 수 있다.In addition, the
또한, 로봇(100)은 Laser Pointer를 통해 반려동물의 시선을 분산시킬 수 있다. 이때, 반려동물의 위치에 따라 Laser가 출력되는 상하좌우 각도가 조절될 수 있다.In addition, the
또한, 로봇(100)은 Silicon/엘라스토머 Cover를 장착하여 반려동물이 무는 습성을 고려하고 제품 내구성을 강화시킬 수 있다.In addition, the
또한, 로봇(100)은 Vibration Sensor를 내장하여 로봇(100)의 특정 부위에 반려동물이 접촉하게 되면, 진동을 발생시켜 진동으로 인해 반려동물의 짖음을 멈추게 할 수 있다.In addition, the
상술한 로봇(100)의 전체적인 동작은 장치(200)에 의해 제어될 수 있으며, 이하에서는 반려동물의 짖음을 방지하기 위해 로봇(100)의 동작을 제어하는 장치(200)의 구체적인 동작에 대해 자세히 설명하기로 한다.The overall operation of the above-described
도 3은 일실시예에 따른 반려동물이 짖은 것을 판단하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of determining that a companion animal has barked according to an exemplary embodiment.
도 3을 참조하면, 먼저, S301 단계에서, 장치(200)는 로봇(100)의 상태를 소리 감지 대기 상태로 설정할 수 있다. 여기서, 소리 감지 대기 상태는 소리를 감지하기 위해 대기하고 있는 상태로, 장치(200)는 대기 상태를 설정하기 위한 제어 신호를 로봇(100)으로 전송하여, 로봇(100)의 상태를 소리 감지 대기 상태로 설정할 수 있다.Referring to FIG. 3 , first, in step S301 , the
S302 단계에서, 장치(200)는 로봇(100)에 설치된 마이크로폰(110)을 통해 소리가 감지되었는지 여부를 확인할 수 있다. 이때, 장치(200)는 마이크로폰(110)을 통해 소리가 감지된 경우, 감지된 소리의 세기가 기준값 이상인지 여부를 확인하여, 감지된 소리가 기준값 이상인 것으로 확인되면, 소리가 감지된 것으로 확인할 수 있다. 여기서, 기준값은 데시벨을 단위로 하여 실시예에 따라 상이하게 설정될 수 있다.In step S302 , the
S302 단계에서 소리가 감지되지 않은 것으로 확인되면, S301 단계로 되돌아가, 장치(200)는 로봇(100)의 상태를 소리 감지 대기 상태로 계속 설정할 수 있다.If it is confirmed in step S302 that no sound is detected, the process returns to step S301, and the
S302 단계에서 마이크로폰(110)을 통해 제1 소리가 감지된 것으로 확인되면, S303 단계에서, 장치(200)는 제1 소리가 기준 기간 보다 길게 유지되었는지 여부를 확인할 수 있다. 여기서, 기준 기간은 실시예에 따라 상이하게 설정될 수 있다.If it is confirmed that the first sound is detected through the
예를 들어, 기준 기간이 5초로 설정되어 있는 경우, 장치(200)는 마이크로폰(110)을 통해 제1 소리가 감지되면, 제1 소리가 5초 보다 길게 유지되었는지 여부를 확인할 수 있다.For example, when the reference period is set to 5 seconds, when the first sound is detected through the
S303 단계에서 제1 소리가 기준 기간 보다 짧게 유지된 것으로 확인되면, S301 단계로 되돌아가, 장치(200)는 로봇(100)의 상태를 소리 감지 대기 상태로 계속 설정할 수 있다.If it is confirmed in step S303 that the first sound is kept shorter than the reference period, the process returns to step S301 , and the
S303 단계에서 제1 소리가 기준 기간 보다 길게 유지된 것으로 확인되면, S304 단계에서, 장치(200)는 로봇(100)으로부터 제1 소리 정보를 획득할 수 있다. 여기서, 제1 소리 정보는 제1 소리를 나타내는 정보로, 제1 소리의 주파수에 대한 정보를 포함할 수 있다.If it is confirmed in step S303 that the first sound is maintained longer than the reference period, in step S304 , the
S305 단계에서, 장치(200)는 제1 소리 정보를 기초로, 제1 소리의 주파수를 분석할 수 있다. 이때, 장치(200)는 제1 소리의 평균 주파수를 분석할 수 있다.In step S305 , the
S306 단계에서, 장치는 제1 소리의 주파수에 대한 분석 결과를 미리 학습된 인공 신경망에 적용할 수 있다. 여기서, 인공 신경망은 소리의 주파수에 대한 분석 결과를 입력받은 후, 소리에 대한 발생 주체를 분석하여 출력하는 알고리즘일 수 있다. 인공 신경망은 도 9를 참조하여 후술되는 방법을 통해 학습될 수 있다.In step S306, the device may apply the analysis result of the frequency of the first sound to the pre-trained artificial neural network. Here, the artificial neural network may be an algorithm that receives the analysis result of the frequency of the sound and then analyzes and outputs the subject of the sound. The artificial neural network may be learned through a method described later with reference to FIG. 9 .
S307 단계에서, 장치(200)는 인공 신경망의 출력을 기초로, 제1 소리에 대한 발생 주체를 검출할 수 있다.In step S307 , the
일실시예에 따르면, 인공 신경망은 소리의 주파수에 대한 분석 결과를 통해, 소리에 대한 발생 주체를 분석하도록 학습될 수 있다. 이를 통해, 인공 신경망은 소리의 주파수를 고려하여, 소리를 발생시킨 주체가 무엇인지 분석하여 출력할 수 있다.According to an embodiment, the artificial neural network may be trained to analyze the generating entity of the sound through the analysis result of the frequency of the sound. Through this, the artificial neural network can analyze and output the subject that generated the sound in consideration of the frequency of the sound.
구체적으로, 인공 신경망은 제1 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함되는지 여부를 확인하여, 제1 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함되는 것으로 확인되면, 제1 소리에 대한 발생 주체를 반려동물로 분석하여, 반려동물을 지시하는 출력값을 출력할 수 있다. 여기서, 제1 기준 주파수 범위는 반려동물이 짖는 소리의 평균 주파수를 포함하도록 설정되어, 예를 들면, 1K~2KHz로 설정될 수 있다.Specifically, the artificial neural network checks whether the average frequency of the first sound is included in the first reference frequency range, and when it is confirmed that the average frequency of the first sound is included in the first reference frequency range, the By analyzing the generating subject as a companion animal, an output value indicating the companion animal can be output. Here, the first reference frequency range is set to include an average frequency of a barking sound of a companion animal, and may be set to, for example, 1K to 2KHz.
또한, 인공 신경망은 제1 소리의 평균 주파수가 제2 기준 주파수 범위 내에 포함되는지 여부를 확인하여, 제1 소리의 평균 주파수가 제2 기준 주파수 범위 내에 포함되는 것으로 확인되면, 제1 소리에 대한 발생 주체를 사람으로 분석하여, 사람을 지시하는 출력값을 출력할 수 있다. 여기서, 제2 기준 주파수 범위는 사람 목소리의 평균 주파수를 포함하도록 설정되어, 예를 들면, 100~250Hz로 설정될 수 있다.In addition, the artificial neural network checks whether the average frequency of the first sound is included in the second reference frequency range, and when it is confirmed that the average frequency of the first sound is included in the second reference frequency range, the generation of the first sound By analyzing the subject as a person, an output value indicating the person may be output. Here, the second reference frequency range is set to include the average frequency of a human voice, and may be set to, for example, 100 to 250 Hz.
또한, 인공 신경망은 제1 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함되지 않으면서 제2 기준 주파수 범위 내에도 포함되지 않은 것으로 확인되면, 제1 소리에 대한 발생 주체를 반려동물과 사람이 아닌 사물로 분석하여, 사물을 지시하는 출력값을 출력할 수 있다.In addition, when it is confirmed that the average frequency of the first sound is not included in the first reference frequency range and is not included in the second reference frequency range, the artificial neural network sets the generation subject for the first sound other than companion animals and humans. By analyzing the object, it is possible to output an output value indicating the object.
예를 들어, 장치(200)는 제1 소리의 주파수에 대한 분석 결과를 인공 신경망에 적용하여, 인공 신경망의 출력을 확인한 결과, 출력값이 “1”인 경우, 제1 소리에 대한 발생 주체를 반려동물로 검출하고, 출력값이 “2”인 경우, 제1 소리에 대한 발생 주체를 사람으로 검출하고, 출력값이 “3”인 경우, 제1 소리에 대한 발생 주체를 사물로 검출할 수 있다.For example, the
S308 단계에서, 장치(200)는 제1 소리에 대한 발생 주체를 검출한 결과, 제1 소리를 발생시킨 주체가 반려동물로 검출되었는지 여부를 확인할 수 있다.In step S308 , as a result of detecting the subject generating the first sound, the
S308 단계에서 제1 소리를 발생시킨 주체가 반려동물이 아닌 사람 또는 사물로 검출된 것이 확인되면, S301 단계로 되돌아가, 장치(200)는 로봇(100)의 상태를 소리 감지 대기 상태로 계속 설정할 수 있다.When it is confirmed in step S308 that the subject that generated the first sound is detected as a person or object other than a companion animal, the process returns to step S301, and the
S308 단계에서 제1 소리를 발생시킨 주체가 반려동물로 검출된 것이 확인되면, S309 단계에서, 장치(200)는 제1 소리가 반려동물이 짖어서 발생한 것으로 판단할 수 있다.If it is confirmed in step S308 that the subject generating the first sound is detected as the companion animal, in step S309 , the
도 4는 일실시예에 따른 제1 목표물을 설정하여 제1 목표물이 있는 위치로 로봇을 이동시키는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of setting a first target and moving the robot to a position where the first target is located, according to an exemplary embodiment.
도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1 소리가 반려동물이 짖어서 발생한 것으로 판단할 수 있다. 즉, 장치(200)는 제1 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함되는 것으로 확인되면, 제1 소리가 반려동물이 짖어서 발생한 것으로 판단할 수 있다.Referring to FIG. 4 , first, in step S401 , the
S402 단계에서, 장치(200)는 제1 소리가 반려동물이 짖어서 발생한 것으로 판단되면, 로봇(100)이 360도 회전하면서 로봇(100)에 설치된 제1 적외선 센서(120)를 통해 주변 온도를 감지하도록, 로봇(100)의 동작을 제어할 수 있다. 이때, 제1 적외선 센서(120)는 PIR 센서(Passive Infrared Sensor)로 구성되어, 로봇(100)이 360도 회전하는 동안 로봇(100)의 주변 온도를 감지할 수 있다. 제1 적외선 센서(120)는 제2 적외선 센서(130) 보다 정확도는 떨어지지만 더 넓은 범위에 있는 물체들에 대한 온도를 감지할 수 있다.In step S402, when it is determined that the first sound is caused by the companion animal barking, the
S403 단계에서, 장치(200)는 로봇(100)이 360도 회전을 완료하여 제1 적외선 센서(120)를 통해 로봇(100)의 주변 온도가 모두 감지되면, 로봇(100)으로부터 제1 온도 정보를 획득할 수 있다. 여기서, 제1 온도 정보는 제1 적외선 센서(120)의 360도 회전을 통해 감지된 주변의 온도 변화를 나타내는 정보로, 각각의 구역 별로 감지된 온도값을 포함할 수 있다.In step S403 , when the
S404 단계에서, 장치(200)는 제1 온도 정보를 기초로, 반려동물의 체온과 가장 유사한 물체를 제1 목표물로 설정할 수 있다.In step S404 , the
구체적으로, 장치(200)는 제1 온도 정보를 기초로, 온도 변화의 차가 특정 값 보다 큰 것으로 확인된 구역에 물체가 있는 것으로 감지할 수 있다. 장치(200)는 로봇(100)의 주변에 물체가 하나만 있는 것으로 감지되면, 감지된 물체를 제1 목표물로 설정할 수 있고, 로봇(100)의 주변에 물체가 복수개 있는 것으로 감지되면, 감지된 물체들 중 반려동물의 체온과 가장 유사한 물체를 제1 목표물로 설정할 수 있다.Specifically, based on the first temperature information, the
예를 들어, 반려동물의 체온이 40°C로 등록되어 있는 경우, 장치(200)는 제1 온도 정보를 기초로, 로봇(100)의 주변에 30°C 물체, 33°C 물체 및 35°C 물체가 있는 것으로 감지되면, 35°C 물체가 반려동물의 체온과 가장 유사한 것으로 판단하여, 35°C 물체를 제1 목표물로 설정할 수 있다.For example, if the companion animal's body temperature is registered as 40 °C, the
S405 단계에서, 장치(200)는 제1 온도 정보를 기초로, 제1 목표물이 로봇(100)을 기준으로 어느 방향에 위치하고 있는지 확인할 수 있다.In step S405 , the
S406 단계에서, 장치(200)는 제1 목표물이 로봇(100)을 기준으로 제1 방향에 위치하고 있는 것으로 확인되면, 로봇(100)이 제1 방향으로 이동하도록, 로봇(100)의 동작을 제어할 수 있다. 이때, 로봇(100)은 장애물 센서(140)를 통해 감지된 장애물을 회피하면서 제1 방향으로 이동하여 제1 목표물로 접근할 수 있다.In step S406 , when it is confirmed that the first target is positioned in the first direction with respect to the
도 5는 일실시예에 따른 제1 목표물이 반려동물인지 판단하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of determining whether a first target is a companion animal according to an exemplary embodiment.
도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 접근하도록, 로봇(100)의 동작을 제어할 수 있다.Referring to FIG. 5 , first, in step S501 , the
S502 단계에서, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 접근하는 경우, 로봇(100)에 설치된 제2 적외선 센서(130)를 통해 제1 목표물의 온도를 감지하도록, 로봇(100)의 동작을 제어할 수 있다. 이때, 제2 적외선 센서(130)는 열전퇴 적외선 센서(Thermopile Infrared Sensor)로 구성되어, 로봇(100)이 제1 목표물로 접근하는 동안 제1 목표물의 온도를 감지할 수 있다. 제2 적외선 센서(130)는 제1 적외선 센서(120) 보다 온도 감지 범위는 좁지만 특정 물체에 대한 온도를 더 정확하게 감지할 수 있다.In step S502 , when the
S503 단계에서, 장치(200) 로봇(100)이 제1 목표물로 접근하여 제2 적외선 센서(130)를 통해 제1 목표물의 온도 변화가 감지되었는지 여부를 확인할 수 있다. 즉, 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 접근하고 있는 동안, 제2 적외선 센서(130)를 통해 제1 목표물의 온도가 계속 감지되고 있는데, 로봇(100)과 제1 목표물 간의 이격 거리가 가까워지면서, 제1 목표물의 온도가 더 높은 온도로 감지될 수 있다.In step S503 , the
예를 들어, 제1 목표물의 실제 온도가 40°C인데, 로봇(100)과 제1 목표물 간의 이격 거리가 20m일 때, 제2 적외선 센서(130)는 제1 목표물의 온도를 30°C로 감지할 수 있으며, 로봇(100)이 제1 목표물로 접근하여 로봇(100)과 제1 목표물 간의 이격 거리가 10m로 변경되면, 제2 적외선 센서(130)는 제1 목표물의 온도를 35°C로 감지할 수 있다.For example, when the actual temperature of the first target is 40°C, and the separation distance between the
S503 단계에서 제1 목표물의 온도 변화가 감지되지 않은 것으로 확인되면, S501 단계로 되돌아가, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 더 접근하도록, 로봇(100)의 동작을 제어할 수 있다.If it is confirmed in step S503 that the temperature change of the first target is not detected, the process returns to step S501, the
S503 단계에서 제1 목표물의 온도 변화가 감지된 것으로 확인되면, S504 단계에서, 장치(200)는 로봇(100)으로부터 제2 온도 정보를 획득할 수 있다. 여기서, 제2 온도 정보는 제2 적외선 센서(130)를 통해 감지된 제1 목표물의 온도를 나타내는 정보이다.If it is confirmed that the temperature change of the first target is detected in step S503 , in step S504 , the
S505 단계에서, 장치(200)는 제2 온도 정보를 기초로, 제1 목표물의 온도가 기준 온도 범위 내에 포함되는지 확인할 수 있다. 여기서, 기준 온도 범위는 반려동물의 평균 체온을 포함하도록 설정되어, 예를 들면, 38~40°C로 설정될 수 있다.In step S505 , the
S506 단계에서, 장치(200)는 제1 목표물의 온도가 기준 온도 범위 내에 포함되는지 여부를 확인할 수 있다.In step S506 , the
S506 단계에서 제1 목표물의 온도가 기준 온도 범위 내에 포함되는 것으로 확인되면, S507 단계에서, 장치(200)는 제1 목표물이 반려동물인 것으로 판단할 수 있다.If it is confirmed that the temperature of the first target is within the reference temperature range in step S506 , in step S507 , the
장치(200)는 제1 목표물이 반려동물인 것으로 판단되면, 반려동물의 짖음을 방지하기 위해 설정되어 있는 제1 동작을 수행하도록, 로봇(100)의 동작을 제어할 수 있다. 이와 관련된 자세한 설명은 도 8을 참조하여 후술하기로 한다.When it is determined that the first target is a companion animal, the
한편, S506 단계에서 제1 목표물의 온도가 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, S601 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 6을 참조하여 후술하기로 한다.On the other hand, if it is confirmed in step S506 that the temperature of the first target is not within the reference temperature range, step S601 may be performed, and a detailed description thereof will be described later with reference to FIG. 6 .
도 6은 일실시예에 따른 제1 목표물이 반려동물인지 아닌지 판단하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of determining whether or not a first target is a companion animal according to an exemplary embodiment.
도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 목표물의 온도가 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 더 접근하도록, 로봇(100)의 동작을 제어할 수 있다.Referring to FIG. 6 , first, in step S601 , when the
S602 단계에서, 장치(200)는 장애물 센서(140)를 통해 로봇(100)과 제1 목표물이 부딪힌 것이 감지되었는지 여부를 확인할 수 있다.In step S602 , the
S602 단계에서 로봇(100)과 제1 목표물이 부딪히지 않은 것으로 감지되면, S603 단계에서, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 더 접근하는 경우, 로봇(100)에 설치된 제2 적외선 센서(130)를 통해 제1 목표물의 온도를 감지하도록, 로봇(100)의 동작을 제어할 수 있다.When it is detected that the
S604 단계에서, 장치(200) 로봇(100)이 제1 목표물로 더 접근하여 제2 적외선 센서(130)를 통해 제1 목표물의 온도 변화가 다시 감지되었는지 여부를 확인할 수 있다.In step S604 , the
S604 단계에서 제1 목표물의 온도 변화가 감지되지 않은 것으로 확인되면, S601 단계로 되돌아가, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 더 접근하도록, 로봇(100)의 동작을 제어할 수 있다.If it is confirmed in step S604 that the temperature change of the first target is not detected, the process returns to step S601, and the
S604 단계에서 제1 목표물의 온도 변화가 다시 감지된 것으로 확인되면, S605 단계에서, 장치(200)는 로봇(100)으로부터 제2 온도 정보를 다시 획득할 수 있다. 여기서, 다시 획득된 제2 온도 정보는 이전에 획득된 제2 온도 정보 보다 더 높은 온도를 나타낼 수 있다.If it is confirmed that the temperature change of the first target is detected again in step S604 , in step S605 , the
S606 단계에서, 장치(200)는 다시 획득된 제2 온도 정보를 기초로, 제1 목표물의 온도가 기준 온도 범위 내에 포함되는지 확인할 수 있다.In step S606 , the
S607 단계에서, 장치(200)는 제1 목표물의 온도가 기준 온도 범위 내에 포함되는지 여부를 확인할 수 있다.In step S607 , the
S607 단계에서 제1 목표물의 온도가 기준 온도 범위 내에 포함되는 것으로 확인되면, S609 단계에서, 장치(200)는 제1 목표물이 반려동물인 것으로 판단할 수 있다.If it is determined in step S607 that the temperature of the first target is within the reference temperature range, in step S609 , the
S607 단계에서 제1 목표물의 온도가 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, S601 단계로 되돌아가, 장치(200)는 로봇(100)이 제1 방향으로 이동하여 제1 목표물로 더 접근하도록, 로봇(100)의 동작을 제어할 수 있다.If it is confirmed in step S607 that the temperature of the first target is not within the reference temperature range, the process returns to step S601, the
이후, 로봇(100)이 제1 목표물로 더 접근하여, S602 단계에서 로봇(100)과 제1 목표물이 부딪힌 것으로 감지되면, S608 단계에서, 장치(200)는 제1 목표물이 반려동물이 아닌 것으로 판단할 수 있다.Thereafter, when the
도 7은 일실시예에 따른 제1 목표물이 반려동물이 아닌 경우, 제2 목표물을 설정하여 제2 목표물이 있는 위치로 로봇을 이동시키는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of setting a second target and moving the robot to a position where the second target is located when the first target is not a companion animal according to an exemplary embodiment.
도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 장애물 센서(140)를 통해 로봇(100)과 제1 목표물이 부딪힌 것으로 감지되면, 제1 목표물이 반려동물이 아닌 것으로 판단할 수 있다.Referring to FIG. 7 , first, in step S701 , when the
S702 단계에서, 장치(200)는 제1 목표물이 반려동물이 아닌 것으로 판단되면, 로봇(100)이 360도 회전하면서 로봇(100)에 설치된 제1 적외선 센서(120)를 통해 주변 온도를 감지하도록, 로봇(100)의 동작을 제어할 수 있다.In step S702, if it is determined that the first target is not a companion animal, the
S703 단계에서, 장치(200)는 로봇(100)이 360도 회전을 완료하여 제1 적외선 센서(120)를 통해 로봇(100)의 주변 온도가 모두 감지되면, 로봇(100)으로부터 제1 온도 정보를 다시 획득할 수 있다.In step S703, the
S704 단계에서, 장치(200)는 다시 획득된 제1 온도 정보를 기초로, 제1 목표물을 제외한 상태에서 반려동물의 체온과 가장 유사한 물체를 제2 목표물로 설정할 수 있다.In operation S704 , the
S705 단계에서, 장치(200)는 다시 획득된 제1 온도 정보를 기초로, 제2 목표물이 로봇(100)을 기준으로 어느 방향에 위치하고 있는지 확인할 수 있다.In step S705 , the
S706 단계에서, 장치(200)는 제2 목표물이 로봇(100)을 기준으로 제2 방향에 위치하고 있는 것으로 확인되면, 로봇(100)이 제2 방향으로 이동하도록, 로봇(100)의 동작을 제어할 수 있다. 이때, 로봇(100)은 장애물 센서(140)를 통해 감지된 장애물을 회피하면서 제2 방향으로 이동하여 제2 목표물로 접근할 수 있다.In step S706 , when it is confirmed that the second target is positioned in the second direction with respect to the
도 8은 일실시예에 따른 로봇과 목표물 간의 이격 거리에 따라 반려동물 짖음 방지 동작을 수행하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of performing an operation to prevent a companion animal from barking according to a separation distance between a robot and a target according to an exemplary embodiment.
도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 제1 목표물의 온도가 기준 온도 범위 내에 포함되는 것으로 확인되면, 제1 목표물이 반려동물인 것으로 판단할 수 있다.Referring to FIG. 8 , first, in step S801 , when it is confirmed that the temperature of the first target is within the reference temperature range, the
S802 단계에서, 장치(200)는 로봇(100)과 제1 목표물 간의 이격 거리를 확인할 수 있다. 이때, 장치(200)는 장애물 센서(140)를 통해 측정된 거리를 이용하여, 로봇(100)과 제1 목표물 간의 이격 거리를 확인할 수 있다.In step S802 , the
S803 단계에서, 장치(200)는 이격 거리가 제1 기준 거리 보다 짧은지 여부를 확인할 수 있다. 여기서, 제1 기준 거리는 실시예에 따라 상이하게 설정될 수 있다.In step S803 , the
S803 단계에서 이격 거리가 제1 기준 거리 보다 짧은 것으로 확인되면, S805 단계에서, 장치(200)는 로봇(100)에 구비된 먹이 토출구가 개방되어 반려동물에게 먹이가 지급되도록, 로봇(100)의 동작을 제어할 수 있다.If it is confirmed in step S803 that the separation distance is shorter than the first reference distance, in step S805, the
예를 들어, 제1 기준 거리가 5m로 설정되어 있는 경우, 장치(200)는 로봇(100)과 제1 목표물 간의 이격 거리가 3m로 확인되면, 로봇(100)에 구비된 먹이 토출구가 개방되어 반려동물에게 먹이가 지급되도록, 로봇(100)의 동작을 제어할 수 있다.For example, when the first reference distance is set to 5 m, the
S803 단계에서 이격 거리가 제1 기준 거리 보다 긴 것으로 확인되면, S804 단계에서, 장치(200)는 이격 거리가 제2 기준 거리 보다 짧은지 여부를 확인할 수 있다. 여기서, 제2 기준 거리는 제1 기준 거리 보다 긴 값으로 설정될 수 있다.If it is determined in step S803 that the separation distance is longer than the first reference distance, in operation S804 , the
S804 단계에서 이격 거리가 제2 기준 거리 보다 짧은 것으로 확인되면, S806 단계에서, 장치(200)는 로봇(100)에 설치된 스피커(150)를 통해 제1 음원이 재생되어 출력되도록, 로봇(100)의 동작을 제어할 수 있다. 여기서, 제1 음원은 사용자 설정으로 사전에 등록될 수 있다.If it is confirmed in step S804 that the separation distance is shorter than the second reference distance, in step S806, the
S804 단계에서 이격 거리가 제2 기준 거리 보다 긴 것으로 확인되면, S807 단계에서, 장치(200)는 로봇(100)에 설치된 스피커(150)를 통해 제2 음원이 재생되어 출력되도록, 로봇(100)의 동작을 제어할 수 있다. 여기서, 제2 음원은 사용자 설정으로 사전에 등록될 수 있다.If it is confirmed in step S804 that the separation distance is longer than the second reference distance, in step S807, the
예를 들어, 제1 기준 거리가 5m로 설정되어 있고 제2 기준 거리가 10m로 설정되어 경우, 장치(200)는 로봇(100)과 제1 목표물 간의 이격 거리가 7m로 확인되면, 로봇(100)에 설치된 스피커(150)를 통해 제1 음원이 재생되어 출력되도록, 로봇(100)의 동작을 제어할 수 있고, 로봇(100)과 제1 목표물 간의 이격 거리가 12m로 확인되면, 로봇(100)에 설치된 스피커(150)를 통해 제2 음원이 재생되어 출력되도록, 로봇(100)의 동작을 제어할 수 있다.For example, when the first reference distance is set to 5 m and the second reference distance is set to 10 m, the
도 9는 일실시예에 따른 인공 신경망의 학습을 설명하기 위한 도면이다.9 is a diagram for explaining learning of an artificial neural network according to an embodiment.
일실시예에 따르면, 인공 신경망은 소리의 주파수에 대한 분석 결과를 입력받은 후, 소리에 대한 발생 주체를 분석하여 출력하는 알고리즘일 수 있다.According to an embodiment, the artificial neural network may be an algorithm that, after receiving an analysis result of a sound frequency, analyzes and outputs a sound generator.
인공 신경망의 학습이 이루어지는 학습 장치는 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법을 제공하는 장치(200)와 동일한 장치일 수도 있고, 별개의 장치일 수도 있다. 이하에서는 인공 신경망이 학습되는 과정을 설명한다. The learning device in which the artificial neural network is learned may be the same device as the
먼저, S901 단계에서, 장치(200)는 인공 신경망에 입력할 입력을 생성할 수 있다. 이때, 장치(200)는 인공 신경망에 입력하기 위해, 소리의 주파수에 대한 분석 결과를 기초로 입력을 생성할 수 있다.First, in step S901 , the
구체적으로, 장치(200)는 소리의 주파수에 대한 분석 결과에 대해 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 소리의 주파수에 대한 분석 결과를 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 인공 신경망의 입력을 생성할 수 있다.Specifically, the
S902 단계에서, 장치(200)는 인공 신경망에 입력을 적용할 수 있다.In step S902 , the
인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.The artificial neural network may be an artificial neural network trained according to reinforcement learning. The artificial neural network may be a Q-Network, DQN (Depp Q-Network), or relational network (RL) structure suitable for outputting abstract reasoning through reinforcement learning.
강화 학습에 따라 학습되는 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 인공 신경망은 제1 내지 제3 보상을 통해 갱신 및 최적화될 수 있다.An artificial neural network trained according to reinforcement learning can be updated and optimized by reflecting the evaluation in various rewards. For example, the artificial neural network may be updated and optimized through the first to third compensations.
예를 들어, 제1 보상은 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함될 때, 소리에 대한 발생 주체를 반려동물로 분석할수록 높아질 수 있으며, 제2 보상은 소리의 평균 주파수가 제2 기준 주파수 범위 내에 포함될 때, 소리에 대한 발생 주체를 사람으로 분석할수록 높아질 수 있으며, 제3 보상은 소리의 평균 주파수가 제1 기준 주파수 내에 포함되지 않으면서 제2 기준 주파수 범위 내에도 포함되지 않을 때, 소리에 대한 발생 주체를 사물로 분석할수록 높아질 수 있다.For example, when the average frequency of sound is within the first reference frequency range, the first compensation may be higher as the subject of the sound is analyzed as a companion animal. When included within the range, the higher the analysis of the subject of the sound as a person, the higher the third compensation is when the average frequency of the sound is not included in the first reference frequency and is not included in the second reference frequency range. It can be higher the more the subject of occurrence is analyzed as an object.
S903 단계에서, 장치(200)는 인공 신경망으로부터 출력을 획득할 수 있다.In step S903, the
인공 신경망의 출력은, 소리에 대한 발생 주체를 지시하는 출력값에 대한 정보일 수 있다. 예를 들어, 소리에 대한 발생 주체가 반려동물인 것을 지시하기 위해 출력값이 “1”로 출력될 수 있고, 소리에 대한 발생 주체가 사람인 것을 지시하기 위해 출력값이 “2”로 출력될 수 있고, 소리에 대한 발생 주체가 사물인 것을 지시하기 위해 출력값이 “3”으로 출력될 수 있다.The output of the artificial neural network may be information on an output value indicating a generator of the sound. For example, the output value may be output as “1” to indicate that the subject of the sound is a companion animal, and the output value may be output as “2” to indicate that the subject of the sound is a human, An output value of “3” may be output to indicate that the subject of the sound is an object.
S904 단계에서, 장치(200)는 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다.In step S904 , the
인공 신경망의 출력에 대한 평가는 제1 내지 제3 보상으로 나뉠 수 있다. 장치(200)는 소리의 평균 주파수가 제1 기준 주파수 범위 내에 포함될 때, 소리에 대한 발생 주체를 반려동물로 분석할수록 제1 보상을 많이 수여하고, 소리의 평균 주파수가 제2 기준 주파수 범위 내에 포함될 때, 소리에 대한 발생 주체를 사람으로 분석할수록 제2 보상을 많이 수여하고, 소리의 평균 주파수가 제1 기준 주파수 내에 포함되지 않으면서 제2 기준 주파수 범위 내에도 포함되지 않을 때, 소리에 대한 발생 주체를 사물로 분석할수록 제3 보상을 많이 수여할 수 있다.The evaluation of the output of the artificial neural network may be divided into first to third rewards. When the average frequency of the sound is included in the first reference frequency range, the
S905 단계에서, 장치(200)는 평가를 기초로 인공 신경망을 갱신할 수 있다.In step S905 , the
장치(200)는 인공 신경망이, 소리에 대한 발생 주체를 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 인공 신경망을 갱신할 수 있다.The
예를 들어, 장치(200)는 제1 소리에 대한 발생 주체를 반려동물로 분석한 것에 대해 문제가 있는 경우, 제1 소리에 대한 발생 주체를 반려동물로 분석한 것에 대해 문제가 있음을 나타내는 정보를 포함하는 제1 학습 데이터를 생성하고, 제1 학습 데이터를 인공 신경망에 적용하여, 제1 소리와 유사한 소리에 대한 발생 주체를 반려동물로 분석하지 않도록, 인공 신경망을 학습시키는 과정을 통해, 인공 신경망을 갱신할 수 있다.For example, when the
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.Meanwhile, the process of optimizing the policy may be performed through the process of estimating the maximum value of the expected value of the sum of rewards or the maximum value of the Q-function, or estimating the minimum value of the loss function of the Q-function. Estimation of the minimum value of the loss function may be performed through stochastic gradient descent (SGD) or the like. The process of optimizing the policy is not limited thereto, and various optimization algorithms used in reinforcement learning may be used.
장치(200)는 상기와 같은 인공 신경망의 학습 과정을 반복함으로써, 인공 신경망을 점진적으로 갱신시킬 수 있다.The
구체적으로, 장치(200) 소리에 대한 발생 주체를 분석하는데 있어, 소리의 주파수를 고려하여, 소리에 대한 발생 주체를 분석한 후, 분석된 발생 주체를 지시하는 출력값을 출력하는 인공 신경망을 학습시킬 수 있다.Specifically, in analyzing the generator for the sound, the
즉, 장치(200)는 소리의 주파수에 대한 분석 결과를 통해, 소리에 대한 발생 주체를 분석할 때, 제1 내지 제3 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 인공 신경망을 학습시킬 수 있다.That is, the
도 10은 일실시예에 따른 장치의 구성의 예시도이다.10 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 9를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The
메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The
프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The
장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(220)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(200)와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (3)
로봇에 설치된 마이크로폰을 통해 제1 소리가 감지되고 상기 제1 소리가 미리 설정된 기준 기간 보다 길게 유지된 경우, 상기 로봇으로부터 제1 소리 정보를 획득하는 단계;
상기 제1 소리 정보를 기초로, 상기 제1 소리의 주파수를 분석하는 단계;
상기 제1 소리의 주파수에 대한 분석 결과를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로, 상기 제1 소리에 대한 발생 주체를 검출하는 단계;
상기 제1 소리를 발생시킨 주체가 반려동물로 검출되면, 상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단하는 단계 ;
상기 제1 소리가 반려동물이 짖어서 발생한 것으로 판단되면, 상기 로봇이 360도 회전하면서 상기 로봇에 설치된 제1 적외선 센서-상기 제1 적외선 센서는 PIR 센서(Passive Infrared Sensor)로 구성됨-를 통해 주변 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 360도 회전하는 동안 상기 제1 적외선 센서를 통해 주변 온도가 감지되면, 상기 로봇으로부터 제1 온도 정보를 획득하는 단계;
상기 제1 온도 정보를 기초로, 반려동물의 체온과 온도가 가장 유사한 물체를 제1 목표물로 설정하고, 상기 제1 목표물이 상기 로봇을 기준으로 어느 방향에 위치하고 있는지 확인하는 단계;
상기 제1 목표물이 상기 로봇을 기준으로 제1 방향에 위치하고 있는 것으로 확인되면, 상기 로봇이 상기 제1 방향으로 이동하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 상기 제1 방향으로 이동하여 상기 제1 목표물로 접근하는 경우, 상기 로봇에 설치된 제2 적외선 센서-상기 제2 적외선 센서는 열전퇴 적외선 센서(Thermopile Infrared Sensor)로 구성됨-를 통해 상기 제1 목표물의 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 상기 제1 목표물로 접근하여 상기 제2 적외선 센서를 통해 상기 제1 목표물의 온도 변화가 감지되면, 상기 로봇으로부터 제2 온도 정보를 획득하는 단계;
상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 미리 설정된 기준 온도 범위 내에 포함되는 것으로 확인되면, 상기 제1 목표물이 반려동물인 것으로 판단하는 단계;
상기 제1 목표물이 반려동물인 것으로 판단되면, 반려동물의 짖음을 방지하기 위해 설정되어 있는 제1 동작을 수행하도록, 상기 로봇의 동작을 제어하는 단계;
상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, 상기 로봇이 상기 제1 목표물로 더 접근하여 이동하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 상기 제1 목표물로 더 접근하여 상기 제2 적외선 센서를 통해 상기 제1 목표물의 온도 변화가 다시 감지되면, 상기 로봇으로부터 제2 온도 정보를 다시 획득하는 단계;
다시 획득된 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되는 것으로 확인되면, 상기 제1 목표물이 반려동물인 것으로 판단하는 단계;
다시 획득된 상기 제2 온도 정보를 기초로, 상기 제1 목표물의 온도가 상기 기준 온도 범위 내에 포함되지 않는 것으로 확인되면, 상기 로봇이 상기 제1 목표물로 더 접근하여 이동하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 상기 제1 목표물로 더 접근하여 상기 로봇에 설치된 장애물 센서를 통해 상기 로봇과 상기 제1 목표물이 부딪힌 것으로 감지되면, 상기 제1 목표물이 반려동물이 아닌 것으로 판단하는 단계;
상기 제1 목표물이 반려동물이 아닌 것으로 판단되면, 상기 로봇이 360도 회전하면서 상기 제1 적외선 센서를 통해 주변 온도를 감지하도록, 상기 로봇의 동작을 제어하는 단계;
상기 로봇이 360도 회전하는 동안 상기 제1 적외선 센서를 통해 주변 온도가 감지되면, 상기 로봇으로부터 제1 온도 정보를 다시 획득하는 단계;
다시 획득된 상기 제1 온도 정보를 기초로, 상기 제1 목표물을 제외한 상태에서 반려동물의 체온과 온도가 가장 유사한 물체를 제2 목표물로 설정하고, 상기 제2 목표물이 상기 로봇을 기준으로 어느 방향에 위치하고 있는지 확인하는 단계; 및
상기 제2 목표물이 상기 로봇을 기준으로 제2 방향에 위치하고 있는 것으로 확인되면, 상기 로봇이 상기 제2 방향으로 이동하도록, 상기 로봇의 동작을 제어하는 단계를 포함하며,
상기 인공 신경망은 상기 제1 소리의 평균 주파수가 미리 설정된 제1 기준 주파수 범위 내에 포함되는 것으로 확인되면, 상기 제1 소리에 대한 발생 주체를 반려동물로 분석하여 출력하고, 상기 제1 소리의 평균 주파수가 미리 설정된 제2 기준 주파수 범위 내에 포함되는 것으로 확인되면, 상기 제1 소리에 대한 발생 주체를 사람으로 분석하여 출력하는 것을 특징으로 하는,
인공지능 기반 반려동물 짖음 방지 로봇 제어 방법.A method of controlling a robot to prevent barking of companion animals based on artificial intelligence performed by a device, the method comprising:
acquiring first sound information from the robot when a first sound is detected through a microphone installed in the robot and the first sound is maintained longer than a preset reference period;
analyzing a frequency of the first sound based on the first sound information;
applying an analysis result of the frequency of the first sound to an artificial neural network and detecting a generator of the first sound based on an output of the artificial neural network;
determining that the first sound is generated by barking of the companion animal when the subject generating the first sound is detected as a companion animal;
If it is determined that the first sound is caused by the companion animal barking, the robot rotates 360 degrees and the first infrared sensor installed in the robot - the first infrared sensor is composed of a PIR sensor (Passive Infrared Sensor) - controlling the operation of the robot to sense the temperature;
acquiring first temperature information from the robot when the ambient temperature is sensed through the first infrared sensor while the robot rotates 360 degrees;
setting an object having the most similar body temperature to that of the companion animal as a first target based on the first temperature information, and determining in which direction the first target is located with respect to the robot;
when it is confirmed that the first target is positioned in a first direction with respect to the robot, controlling an operation of the robot so that the robot moves in the first direction;
When the robot moves in the first direction and approaches the first target, the second infrared sensor installed in the robot, the second infrared sensor is composed of a Thermopile Infrared Sensor, 1 controlling the operation of the robot to sense the temperature of the target;
acquiring second temperature information from the robot when the robot approaches the first target and a change in temperature of the first target is detected through the second infrared sensor;
determining that the first target is a companion animal when it is confirmed that the temperature of the first target is within a preset reference temperature range based on the second temperature information;
when it is determined that the first target is a companion animal, controlling an operation of the robot to perform a first operation set to prevent the companion animal from barking;
When it is confirmed that the temperature of the first target is not within the reference temperature range based on the second temperature information, controlling the operation of the robot so that the robot moves closer to the first target ;
acquiring second temperature information from the robot again when the robot approaches the first target and a change in temperature of the first target is detected again through the second infrared sensor;
determining that the first target is a companion animal when it is confirmed that the temperature of the first target is within the reference temperature range based on the re-obtained second temperature information;
If it is confirmed that the temperature of the first target is not within the reference temperature range based on the second temperature information obtained again, the robot moves to move closer to the first target. controlling;
determining that the first target is not a companion animal when the robot approaches the first target and detects that the robot and the first target collide through an obstacle sensor installed in the robot;
when it is determined that the first target is not a companion animal, controlling the operation of the robot so that the robot senses an ambient temperature through the first infrared sensor while rotating 360 degrees;
acquiring first temperature information from the robot again when the ambient temperature is sensed through the first infrared sensor while the robot rotates 360 degrees;
Based on the re-obtained first temperature information, an object having the most similar body temperature to the body temperature of the companion animal is set as the second target except for the first target, and in which direction the second target is directed with respect to the robot to ensure that it is located on; and
When it is confirmed that the second target is located in the second direction with respect to the robot, controlling the operation of the robot so that the robot moves in the second direction,
When it is confirmed that the average frequency of the first sound is included in a preset first reference frequency range, the artificial neural network analyzes and outputs the subject that generates the first sound as a companion animal, and outputs the average frequency of the first sound. Characterized in that when it is confirmed that is included within the preset second reference frequency range, the subject of the first sound is analyzed and output as a person,
A method of controlling an artificial intelligence-based anti-barking robot for companion animals.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210169807A KR102408398B1 (en) | 2021-12-01 | 2021-12-01 | Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210169807A KR102408398B1 (en) | 2021-12-01 | 2021-12-01 | Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102408398B1 true KR102408398B1 (en) | 2022-06-14 |
Family
ID=81980607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210169807A KR102408398B1 (en) | 2021-12-01 | 2021-12-01 | Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102408398B1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030013769A (en) * | 2001-08-09 | 2003-02-15 | 주식회사 네이트시스템 | Apparatus for controlling of a robot take care of one's pet |
KR101413043B1 (en) * | 2013-11-14 | 2014-07-14 | 신태식 | Pet care system and method using realtime two-way communication |
KR101881011B1 (en) | 2018-02-12 | 2018-07-23 | 차이현 | Dog barking prevention device |
KR101991093B1 (en) | 2017-03-06 | 2019-06-19 | 주식회사 씨앤디마이크로 | Bark Control Device and Method |
KR20190110075A (en) * | 2019-05-08 | 2019-09-27 | 엘지전자 주식회사 | Interaction between mobile robot and user, method for same |
KR102156922B1 (en) * | 2020-02-10 | 2020-09-16 | 주식회사 이니티움 | Apparatus, method, and system of locating sound source and offseting sound source |
KR20210013958A (en) | 2019-07-29 | 2021-02-08 | 정찬빈 | Rechargeable Wire Controled Anti-Barking Spray Collar |
KR102288560B1 (en) | 2019-06-17 | 2021-08-11 | 김대연 | Necklace for preventing animal from barking and anti-barking system including the same |
KR20210132309A (en) * | 2020-04-27 | 2021-11-04 | 주식회사 이니티움 | Care system for companion animal |
-
2021
- 2021-12-01 KR KR1020210169807A patent/KR102408398B1/en active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030013769A (en) * | 2001-08-09 | 2003-02-15 | 주식회사 네이트시스템 | Apparatus for controlling of a robot take care of one's pet |
KR101413043B1 (en) * | 2013-11-14 | 2014-07-14 | 신태식 | Pet care system and method using realtime two-way communication |
KR101991093B1 (en) | 2017-03-06 | 2019-06-19 | 주식회사 씨앤디마이크로 | Bark Control Device and Method |
KR101881011B1 (en) | 2018-02-12 | 2018-07-23 | 차이현 | Dog barking prevention device |
KR20190110075A (en) * | 2019-05-08 | 2019-09-27 | 엘지전자 주식회사 | Interaction between mobile robot and user, method for same |
KR102288560B1 (en) | 2019-06-17 | 2021-08-11 | 김대연 | Necklace for preventing animal from barking and anti-barking system including the same |
KR20210013958A (en) | 2019-07-29 | 2021-02-08 | 정찬빈 | Rechargeable Wire Controled Anti-Barking Spray Collar |
KR102156922B1 (en) * | 2020-02-10 | 2020-09-16 | 주식회사 이니티움 | Apparatus, method, and system of locating sound source and offseting sound source |
KR20210132309A (en) * | 2020-04-27 | 2021-11-04 | 주식회사 이니티움 | Care system for companion animal |
Non-Patent Citations (2)
Title |
---|
Publicación en Internet, "Sensor de detección de cuerpo humano (2020.12.24.)" (Url: blog.naver.com/mempro_sales/222184005887) * |
인터넷 게시물, "인체감지 센서(2020.12.24.)" (Url : blog.naver.com/mempro_sales/222184005887) 1부.* |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700785B2 (en) | Control system, method and device for intelligent robot based on artificial intelligence | |
US11620883B2 (en) | System and method for dynamic modification and selection of emergency egress advisement | |
US20200007357A1 (en) | Apparatus and method for smart home monitoring | |
KR102156922B1 (en) | Apparatus, method, and system of locating sound source and offseting sound source | |
JP6816767B2 (en) | Information processing equipment and programs | |
US20190369577A1 (en) | Apparatus and method for controlling operation of home appliance, home appliance and method for operating of home appliance | |
US11170266B2 (en) | Apparatus and method for identifying object | |
JPH11161626A (en) | Artificial intelligence device | |
US10715941B2 (en) | Mobile and autonomous audio sensing and analytics system and method | |
JP6716630B2 (en) | Apparatus, method, computer program and recording medium for providing information | |
KR102051016B1 (en) | Server and method for controlling learning-based speech recognition apparatus | |
KR102238307B1 (en) | Method and System for Analyzing Real-time Sound | |
US20230000304A1 (en) | Robot device and control method therefor | |
KR102408398B1 (en) | Method, device and system for controlling robot to prevent pet from barking based on artificial intelligence | |
JP7135896B2 (en) | Dialogue device, dialogue method and program | |
WO2020195389A1 (en) | Information processing device and information processing method | |
US10360771B2 (en) | Alert processing | |
KR20190114931A (en) | Robot and method for controlling the same | |
KR102501439B1 (en) | Device for predict return time of pet owner | |
JP7018850B2 (en) | Terminal device, decision method, decision program and decision device | |
KR20210132309A (en) | Care system for companion animal | |
Schult et al. | Information-driven active audio-visual source localization | |
JP2021096270A (en) | Information processing device and information processing method | |
KR102519934B1 (en) | Methods for auto feeding and training companion animals, and devices using thereof | |
US20240019596A1 (en) | Audio-based occupancy detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |