KR20190130196A - Movable robot apparatus - Google Patents

Movable robot apparatus Download PDF

Info

Publication number
KR20190130196A
KR20190130196A KR1020180045785A KR20180045785A KR20190130196A KR 20190130196 A KR20190130196 A KR 20190130196A KR 1020180045785 A KR1020180045785 A KR 1020180045785A KR 20180045785 A KR20180045785 A KR 20180045785A KR 20190130196 A KR20190130196 A KR 20190130196A
Authority
KR
South Korea
Prior art keywords
audio
module
voice
region
target object
Prior art date
Application number
KR1020180045785A
Other languages
Korean (ko)
Other versions
KR102499574B1 (en
Inventor
이정현
박정호
이재훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180045785A priority Critical patent/KR102499574B1/en
Publication of KR20190130196A publication Critical patent/KR20190130196A/en
Application granted granted Critical
Publication of KR102499574B1 publication Critical patent/KR102499574B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a moving robot device capable of autonomous driving. Provided is the moving robot device comprising: a main body; a driving module for moving the main body; an audio sensing module including a plurality of audio sensors corresponding to different audio division regions around the main body, and generating a plurality of audio signals corresponding to the plurality of audio sensors; and a control module for detecting a voice command signal corresponding to at least one of a plurality of preset commands from the plurality of audio signals on the basis of a speaker-dependent model learned by a voice of a specific user, and supplying a control signal corresponding to the voice command signal to the driving module. Therefore, an objective of the present invention is to provide the moving robot device which can improve an intimacy of a specific user by sensing the specific user.

Description

이동 로봇 장치{MOVABLE ROBOT APPARATUS}Mobile Robot Device {MOVABLE ROBOT APPARATUS}

본 발명은 자율 주행이 가능한 이동 로봇 장치에 관한 것이다.The present invention relates to a mobile robot device capable of autonomous driving.

로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. Robots have been developed for industrial use and have been a part of factory automation. Recently, the application of robots has been further expanded, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in general homes have also been made.

가정용 로봇의 대표적인 예로는 로봇 청소기 및 지능형 로봇이 있다. Representative examples of home robots include robot cleaners and intelligent robots.

로봇 청소기는 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기이다. 이러한 로봇 청소기는 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소기능을 실행한다.The robot cleaner is a home appliance that cleans by inhaling dust or foreign matter while driving a certain area by itself. Such a robot cleaner has a rechargeable battery and is equipped with an obstacle sensor that can avoid obstacles while driving and runs on its own to perform a cleaning function.

지능형 로봇은 사용자의 감정 및 명령을 감지 및 응답하기 위한 인공지능을 탑재하고, 사용자의 감정 및 명령에 응답하여 주행 기능 및 대화 기능 등의 서비스를 제공한다. Intelligent robots are equipped with artificial intelligence for detecting and responding to user's emotions and commands, and provide services such as driving and conversation functions in response to user's emotions and commands.

이러한 로봇 청소기 및 지능형 로봇은 자율주행기능을 탑재한 이동 로봇 장치인 것이 일반적이다.Such robot cleaners and intelligent robots are generally mobile robot devices equipped with autonomous driving functions.

이동 로봇 장치에 관련하여, 대한민국 특허공개공보 제10-2017-0103556호 (2017.09.13 공개)에는 주변에 위치하는 지형 또는 장애물을 탐지하여 회피운전성능이 향상될 수 있는 이동 로봇을 개시한다. Regarding the mobile robot device, Korean Patent Laid-Open No. 10-2017-0103556 (published on September 13, 2017) discloses a mobile robot capable of improving avoidance driving performance by detecting terrain or obstacles located in the vicinity.

그리고, 대한민국 특허공개공보 제10-2017-0107875호 (2017.09.26 공개)에는 이용자의 감정 반응을 보다 많이 끌어내어, 이용자의 요구에 대해서 보다 정확히 대응한 서비스를 제공할 수 있는 로봇 제어 시스템을 개시한다.In addition, Korean Patent Publication No. 10-2017-0107875 (published on September 26, 2017) discloses a robot control system that can draw out more emotional reactions of a user and provide a service more accurately in response to a user's request. do.

이러한 선행 기술문헌들에 따르면, 이동 로봇 장치를 사용하고자 하는 모든 사람에게 이동 로봇 장치의 서비스가 제공될 수 있는 문제점이 있다. 즉, 이동 로봇 장치의 서비스 대상이 특정 사용자로 지정되지 않는다. 그로 인해, 이동 로봇 장치에 대한 특정 사용자의 친밀도가 향상되는 데에 한계가 있는 문제점이 있다.According to these prior art documents, there is a problem that the service of the mobile robot device can be provided to everyone who wants to use the mobile robot device. That is, the service target of the mobile robot device is not designated as a specific user. Therefore, there is a problem in that the intimacy of a specific user with respect to the mobile robot device is limited.

더불어, 이동 로봇 장치의 서비스 대상이 특정 사용자로 지정되지 않는 경우, 특정 사용자를 따라가는 기능, 특정 사용자로부터 멀어지는 기능 및 특정 사용자 주위를 맴도는 기능 등과 같이 특정 사용자를 기준으로 이동하는 기능을 제공하기 어려운 문제점이 있다.In addition, when the service target of the mobile robot device is not designated as a specific user, it is difficult to provide a function of moving based on a specific user, such as following a specific user, moving away from a specific user, and moving around a specific user. There is this.

그리고, 이족 보행 로봇이 아닌 경우, 이동 로봇 장치는 지면과 인접하게 배치된다. 그로 인해, 일반적인 이동 로봇 장치는 얼굴 인식 방식을 통해 특정 사용자를 감지하기 어려운 문제점이 있다. And, if it is not a biped walking robot, the mobile robot apparatus is arrange | positioned adjacent to the ground. Therefore, the general mobile robot device has a problem that it is difficult to detect a specific user through a face recognition method.

만일 이동 로봇 장치가 얼굴 인식 방식을 이용하더라도, 사용자가 이동 로봇 장치의 카메라에 얼굴을 마주하도록 구부리는 자세를 취해야 하므로, 사용자의 불편함이 가중될 수 있는 문제점이 있다. 그리고 얼굴 인식에 따른 많은 연산량으로 인해 이동 로봇 장치의 연산 부하가 커질 수 있는 문제점이 있다.Even if the mobile robot device uses a face recognition method, the user needs to bend to face the camera of the mobile robot device, thereby increasing the inconvenience of the user. In addition, there is a problem that the computational load of the mobile robot device may increase due to a large amount of computation due to face recognition.

본 발명의 목적은 특정 사용자를 감지함으로써 특정 사용자의 친밀도가 향상될 수 있는 이동 로봇 장치를 제공하는 것이다.An object of the present invention is to provide a mobile robot device that can improve the intimacy of a specific user by sensing a specific user.

본 발명의 목적은 특정 사용자를 감지함으로써 특정 사용자를 기준으로 이동하는 기능을 제공할 수 있는 이동 로봇 장치를 제공하는 것이다.An object of the present invention is to provide a mobile robot device that can provide a function to move based on a specific user by detecting a specific user.

본 발명의 목적은 얼굴 인식 방식을 이용하지 않고서도 특정 사용자를 감지할 수 있는 이동 로봇 장치를 제공하는 것이다.An object of the present invention is to provide a mobile robot device capable of detecting a specific user without using a face recognition method.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention, which are not mentioned above, can be understood by the following description, and more clearly by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

본 발명의 일 실시예에 따른 이동 로봇 장치는 특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 상기 복수의 오디오신호로부터 미리 설정된 복수의 명령어 중 적어도 하나에 대응하는 음성명령신호를 검출하는 제어모듈을 포함한다. 이로써, 특정 사용자의 음성으로 입력된 명령에 의해서만 제어신호를 생성하므로, 이동 로봇 장치에 대한 특정 사용자의 친밀도가 향상될 수 있다.The mobile robot device according to an embodiment of the present invention is a control module for detecting a voice command signal corresponding to at least one of a plurality of preset commands from the plurality of audio signals based on a speaker dependent model learned by a specific user's voice. It includes. As a result, since the control signal is generated only by a command input by the voice of the specific user, the intimacy of the specific user with respect to the mobile robot device may be improved.

본 발명의 일 실시예에 따른 이동 로봇 장치는 화자종속모델을 기반으로 검출되는 음성명령신호가 가장 큰 음량크기인 오디오분할영역을 음성위치로 검출하는 음성위치 검출부 및 카메라센싱모듈에 대응하는 정면영역 중 특정 사용자에 대응하는 사용자위치좌표를 검출하는 사용자위치 검출부를 포함한다. 이로써, 특정 사용자의 유무 및 위치를 검출할 수 있으므로, 특정 사용자를 기준으로 이동하는 기능을 제공할 수 있다.According to an exemplary embodiment of the present invention, a mobile robot apparatus includes a voice position detector and a front region corresponding to a camera sensing module, which detects an audio splitting region having a loudest volume as a voice position based on a speaker dependent model. And a user location detector for detecting a user location coordinate corresponding to the specific user. As a result, the presence and location of the specific user can be detected, and thus a function of moving based on the specific user can be provided.

본 발명의 일 실시예에 따른 이동 로봇 장치는 카메라센서모듈의 수평시야범위에 대응한 대상객체모델을 마련하고 3차원 모델에서 검출된 객체후보영역 중 대상객체모델에 대응하는 대상객체영역을 검출하는 대상객체 검출부를 포함한다. 이로써, 얼굴 인식 방식을 이용하지 않고서도 특정 사용자를 감지할 수 있다.A mobile robot device according to an embodiment of the present invention provides a target object model corresponding to a horizontal field of view of a camera sensor module and detects a target object region corresponding to the target object model among the object candidate regions detected in the 3D model. It includes a target object detection unit. Thus, a specific user can be detected without using a face recognition method.

본 발명의 일 실시예에 따른 이동 로봇 장치는 특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 상기 복수의 오디오신호로부터 미리 설정된 복수의 명령어 중 적어도 하나에 대응하는 음성명령신호를 검출하는 제어모듈을 포함한다. 이와 같이, 특정 사용자의 음성으로 학습된 화자종속모델을 기반으로 음성명령신호를 검출함에 따라, 특정 사용자의 음성을 감지할 수 있다. 즉, 특정 사용자의 음성으로 입력된 명령에 의해서만 제어신호를 생성하므로, 이동 로봇 장치에 대한 특정 사용자의 친밀도가 향상될 수 있는 장점이 있다.The mobile robot device according to an embodiment of the present invention is a control module for detecting a voice command signal corresponding to at least one of a plurality of preset commands from the plurality of audio signals based on a speaker dependent model learned by a specific user's voice. It includes. As such, the voice of the specific user may be detected by detecting the voice command signal based on the speaker dependent model trained by the specific user's voice. That is, since the control signal is generated only by a command input by the voice of a specific user, the intimacy of the specific user with respect to the mobile robot device may be improved.

그리고, 본 발명의 일 실시예에 따른 이동 로봇 장치의 제어모듈은 음성명령신호를 검출하면, 복수의 오디오신호 중 음성명령신호의 음량크기가 최대인 어느 하나의 오디오신호를 검출하고, 검출된 오디오신호에 대응한 오디오분할영역을 음성위치로 검출하는 음성위치 검출부를 포함한다. 이러한 음성위치 검출부에 의해 특정 사용자의 음성으로 학습된 화자종속모델을 기반으로 검출되는 음성명령신호가 가장 큰 음량크기인 오디오분할영역이 음성위치로 검출될 수 있다. 여기서 검출된 오디오분할영역은 특정 사용자와 인접한 영역이라고 추정될 수 있으므로, 특정 사용자의 위치가 용이하게 감지될 수 있다. When the control module of the mobile robot apparatus according to an embodiment of the present invention detects the voice command signal, the control module detects any one audio signal having the maximum volume level of the voice command signal among the plurality of audio signals, and detects the audio command signal. And a voice position detector for detecting the audio splitting region corresponding to the signal as a voice position. The audio splitting region having the loudest loudness of the voice command signal detected based on the speaker dependent model learned by the voice of the specific user by the voice position detector may be detected as the voice position. The detected audio split region may be estimated to be an area adjacent to a specific user, and thus the position of the specific user may be easily detected.

더불어, 본 발명의 일 실시예에 따른 이동 로봇 장치의 제어모듈은 카메라센싱모듈에 의한 3차원 거리영상신호에 기초하여 카메라센싱모듈에 대응하는 정면영역 중 특정 사용자에 대응하는 사용자위치좌표를 검출하는 사용자위치 검출부를 더 포함한다. 즉, 제어모듈은 영상 인식 기술을 기반으로 3차원 거리영상신호로부터 특정 사용자의 유무 및 위치를 검출할 수 있다. In addition, the control module of the mobile robot apparatus according to an embodiment of the present invention detects a user position coordinate corresponding to a specific user among the front regions corresponding to the camera sensing module based on the 3D distance image signal by the camera sensing module. The apparatus further includes a user position detector. That is, the control module may detect the presence and the location of a specific user from the 3D distance image signal based on the image recognition technology.

이와 같이 특정 사용자의 유무 및 위치를 감지함에 따라, 특정 사용자를 기준으로 이동하는 기능이 제공될 수 있는 장점이 있다.As such, by detecting the presence and location of a specific user, a function of moving based on a specific user may be provided.

또한, 본 발명의 일 실시예에 따른 이동 로봇 장치의 제어 모듈의 사용자위치 검출부는 카메라센서모듈의 수평시야범위에 대응한 대상객체모델을 마련하고 3차원 모델에서 검출된 객체후보영역 중 대상객체모델에 대응하는 대상객체영역을 검출하는 대상객체 검출부를 포함한다. 여기서, 대상객체 검출부는 카메라센싱모듈의 수평시야범위에 대응하는 계수 대상의 형상을 모델링하여 대상객체모델을 마련하고, 3차원 모델의 객체후보영역 중 대상객체모델에 대응하는 대상객체영역을 검출한다. 이러한 대상객체모델을 이용하여 대상객체영역을 검출함에 따라 사람의 하체 형태로도 객체의 유무 및 위치를 검출할 수 있다. 이때, 음성명령신호가 가장 큰 음량크기인 오디오분할영역이 검출된 상태이므로, 사람의 하체 형태를 이용하여 객체의 유무 및 위치를 검출하더라도, 특정 사용자의 위치가 비교적 낮은 오류범위로 추정될 수 있다. 이로써, 대상객체모델이 특정 사용자의 얼굴로 한정될 필요가 없으므로, 얼굴 인식 방식을 이용하지 않고서도 특정 사용자를 감지할 수 있다. 그로 인해, 얼굴 인식 방식에 따른 연산량 증가가 방지될 수 있고, 얼굴 인식을 위한 별도의 카메라 또는 사용자의 자세 변경이 배제될 수 있는 장점이 있다.In addition, the user position detection unit of the control module of the mobile robot device according to an embodiment of the present invention provides a target object model corresponding to the horizontal field of view of the camera sensor module, the target object model of the object candidate area detected in the three-dimensional model And a target object detector for detecting a target object region corresponding to the target object region. Here, the target object detector prepares a target object model by modeling the shape of the coefficient target corresponding to the horizontal field of view of the camera sensing module, and detects the target object region corresponding to the target object model among the object candidate regions of the 3D model. . As the target object region is detected using the target object model, the presence or absence of an object can be detected even in the form of a human lower body. In this case, since the audio division region in which the voice command signal is the loudest volume is detected, even if the presence or absence of an object is detected by using the lower body shape of a person, the position of a specific user may be estimated as a relatively low error range. . As a result, the target object model does not need to be limited to a specific user's face, so that the specific user can be detected without using a face recognition method. Therefore, an increase in the amount of calculation according to the face recognition method may be prevented, and a posture change of a separate camera or user for face recognition may be excluded.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. In addition to the effects described above, the specific effects of the present invention will be described together with the following description of specifics for carrying out the invention.

도 1은 본 발명의 일 실시예에 따른 이동 로봇 장치의 측면 투시도에 대한 일 예시를 나타낸 도면이다.
도 2는 도 1의 오디오센싱모듈에 대한 일 예시를 나타낸 도면이다.
도 3은 도 1의 제어모듈에 대한 일 예시를 나타낸 도면이다.
도 4는 도 3의 음성명령 검출부에 대한 일 예시를 나타낸 도면이다.
도 5 및 도 6은 도 3의 제어모듈이 제어신호를 생성하는 과정에 대한 예시들을 나타낸 도면이다.
도 7 및 도 8은 도 5 및 도 6의 대기상태의 제어신호에 기초하여 주행모듈이 본체를 회전시키는 경우에 대한 예시를 나타낸 도면이다.
도 9는 도 3의 사용자위치 검출부에 대한 일 예시를 나타낸 도면이다.
도 10은 카메라센싱모듈의 설치예시를 나타낸 도면이다.
도 11은 도 10의 예시에 있어서, 거리영상 정보 및 대상객체영역에 대한 일 예시를 나타낸 도면이다.
도 12는 도 9의 바닥 검출부가 바닥평면영역을 검출하는 과정에 대한 일 예시를 나타낸 도면이다.
도 13은 도 12의 아홉개의 지점과 기준지점에 대한 일 예시를 나타낸 도면이다.
도 14는 도 9의 바닥 검출부가 바닥평면영역을 검출하는 과정에 대한 다른 일 예시를 나타낸 도면이다.
1 is a view showing an example of a side perspective view of a mobile robot device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of the audio sensing module of FIG. 1.
3 is a diagram illustrating an example of the control module of FIG. 1.
4 is a diagram illustrating an example of the voice command detector of FIG. 3.
5 and 6 illustrate examples of a process of generating a control signal by the control module of FIG. 3.
7 and 8 are views illustrating an example in which the traveling module rotates the main body based on the control signal in the standby state of FIGS. 5 and 6.
9 is a diagram illustrating an example of the user position detector of FIG. 3.
10 is a diagram illustrating an installation example of a camera sensing module.
FIG. 11 is a diagram illustrating an example of distance image information and a target object area in the example of FIG. 10.
FIG. 12 is a diagram illustrating an example of a process of detecting a bottom plane area by the bottom detector of FIG. 9.
FIG. 13 is a diagram illustrating an example of nine points and a reference point of FIG. 12.
FIG. 14 is a diagram illustrating another example of a process of detecting the bottom plane area by the bottom detector of FIG. 9.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 이동 로봇 장치에 대해 설명한다.Hereinafter, with reference to the accompanying drawings will be described a mobile robot device according to an embodiment of the present invention.

먼저, 도 1, 도 2 및 도 3을 참조하여 본 발명의 일 실시예에 따른 이동 로봇 장치에 대해 설명한다.First, a mobile robot apparatus according to an exemplary embodiment of the present invention will be described with reference to FIGS. 1, 2, and 3.

도 1은 본 발명의 일 실시예에 따른 이동 로봇 장치의 측면 투시도에 대한 일 예시를 나타낸 도면이다. 도 2는 도 1의 오디오센싱모듈 및 카메라센싱모듈에 대한 일 예시를 나타낸 도면이다. 1 is a view showing an example of a side perspective view of a mobile robot device according to an embodiment of the present invention. FIG. 2 is a diagram illustrating an example of an audio sensing module and a camera sensing module of FIG. 1.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇 장치(10)는 외형에 대응하는 본체(11), 본체(11)를 이동시키는 주행모듈(12), 본체(11) 주변의 소리를 센싱하는 오디오센싱모듈(13), 오디오센싱모듈(13)에 의한 오디오신호에 기초하여 주행모듈(12)에 제어신호를 공급하는 제어모듈(14)을 포함한다.As shown in FIG. 1, the mobile robot apparatus 10 according to an exemplary embodiment of the present invention may include a main body 11 corresponding to an external appearance, a traveling module 12 moving the main body 11, and a main body 11 around the main body 11. An audio sensing module 13 for sensing the sound of the sound, and a control module 14 for supplying a control signal to the driving module 12 based on the audio signal by the audio sensing module (13).

도 2에 도시된 바와 같이, 오디오센싱모듈(131, 132, 133, 134, 135, 136, 137, 138; 도 1의 13)은 본체(11) 주변의 서로 다른 오디오분할영역(ADA1, ADA2, ADA3, ADA3, ADA4, ADA5, ADA6, ADA7, ADA8; Audio Division Area)에 대응하는 복수의 오디오센서(131, 132, 133, 134, 135, 136, 137, 138)를 포함한다. 이에, 오디오센싱모듈(13)은 복수의 오디오센서(131, 132, 133, 134, 135, 136, 137, 138)에 대응한 복수의 오디오신호를 생성한다.As shown in FIG. 2, the audio sensing modules 131, 132, 133, 134, 135, 136, 137, and 138 (13) of FIG. 1 are provided with different audio divisions ADA1, ADA2, And a plurality of audio sensors 131, 132, 133, 134, 135, 136, 137, and 138 corresponding to ADA3, ADA3, ADA4, ADA5, ADA6, ADA7, and ADA8 (Audio Division Area). Accordingly, the audio sensing module 13 generates a plurality of audio signals corresponding to the plurality of audio sensors 131, 132, 133, 134, 135, 136, 137, and 138.

그리고, 도 1의 카메라센싱모듈(15)에 대응하는 정면영역(FA; Front Area)은 적어도 하나의 오디오분할영역(도 2에서 ADA1, ADA2, ADA8)과 중첩된다.In addition, a front area FA corresponding to the camera sensing module 15 of FIG. 1 overlaps at least one audio division area ADA1, ADA2, and ADA8 in FIG. 2.

제어모듈(14)은 오디오센싱모듈(13)로부터 복수의 오디오신호가 입력되면, 특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 복수의 오디오신호로부터 미리 설정된 복수의 명령어 중 적어도 하나에 대응하는 음성명령신호를 검출한다. 그리고, 제어모듈(14)은 음성명령신호에 대응하는 제어신호를 주행모듈(12)에 공급한다.When a plurality of audio signals are input from the audio sensing module 13, the control module 14 corresponds to at least one of a plurality of commands preset from the plurality of audio signals based on a speaker dependent model learned by a specific user's voice. Detect the voice command signal. The control module 14 supplies a control signal corresponding to the voice command signal to the traveling module 12.

다음, 도 3, 도 4, 도 5, 도 6, 도 7 및 도 8을 참조하여, 도 1의 제어모듈에 대해 설명한다.Next, the control module of FIG. 1 will be described with reference to FIGS. 3, 4, 5, 6, 7, and 8.

도 3은 도 1의 제어모듈에 대한 일 예시를 나타낸 도면이다. 도 4는 도 3의 음성명령 검출부에 대한 일 예시를 나타낸 도면이다. 도 5 및 도 6은 도 3의 제어모듈이 제어신호를 생성하는 과정에 대한 예시들을 나타낸 도면이다. 3 is a diagram illustrating an example of the control module of FIG. 1. 4 is a diagram illustrating an example of the voice command detector of FIG. 3. 5 and 6 illustrate examples of a process of generating a control signal by the control module of FIG. 3.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇 장치(10)의 제어모듈(14)은 복수의 오디오신호로부터 특정 사용자의 음성에 의한 음성명령신호를 검출하는 음성명령 검출부(141) 및 주행모듈(12)의 구동 제어를 위한 제어신호를 생성하는 제어신호 생성부(142)를 포함한다. 그리고, 제어모듈(14)은 음성명령신호가 최대 음량크기인 어느 하나의 오디오분할영역을 검출하는 음성위치 검출부(143)를 더 포함할 수 있다. 그리고, 제어모듈(14)은 카메라센싱모듈(15)에 의한 3차원 거리영상신호에 기초하여 정면영역(도 2의 FA) 중 특정 사용자에 대응하는 사용자위치좌표를 검출하는 사용자위치 검출부(144)를 더 포함할 수 있다.As shown in FIG. 3, the control module 14 of the mobile robot apparatus 10 according to an exemplary embodiment may include a voice command detection unit configured to detect a voice command signal by a specific user's voice from a plurality of audio signals. 141 and a control signal generator 142 for generating a control signal for driving control of the driving module 12. In addition, the control module 14 may further include a voice position detector 143 for detecting any one audio splitting region in which the voice command signal has a maximum volume level. In addition, the control module 14 detects a user position coordinate corresponding to a specific user in the front area (FA of FIG. 2) based on the 3D distance image signal of the camera sensing module 15. It may further include.

음성명령 검출부(141)는 특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 복수의 오디오신호로부터 음성명령신호를 검출한다. The voice command detection unit 141 detects the voice command signal from the plurality of audio signals based on the speaker dependent model learned by the voice of a specific user.

예시적으로, 도 4에 도시한 바와 같이, 음성명령 검출부(141)는 형태소 분석부(1411), 인식오류 보정부(1412), 품사 필터부(1413) 및 불용어 필터부(1414)를 포함할 수 있다.For example, as illustrated in FIG. 4, the voice command detector 141 may include a morpheme analyzer 1411, a recognition error corrector 1412, a part-of-speech filter 1413, and a stopword filter 1414. Can be.

형태소 분석부(1411)는 복수의 오디오신호의 파장을 대역 별 주파수로 분리하고, 대역 별 주파수로 분리된 파장신호를 Z평면으로 전환하며, 특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 Z평면으로 전환된 신호로부터 유효 영역을 검출하여 형태소를 추출한다. 그리고, 여기서, 형태소 분석부(1411)는 고속 푸리에 변환(Fast Fourier Transform: FFT) 함수를 이용하여 파장을 대역 별 주파수로 분리할 수 있다.The morpheme analyzer 1411 separates the wavelengths of the plurality of audio signals into band-specific frequencies, converts the wavelength signals separated by band-specific frequencies into the Z plane, and based on a speaker dependent model trained by a specific user's voice. The morpheme is extracted by detecting the effective area from the signal converted to the plane. In addition, the morpheme analyzer 1411 may separate wavelengths into band-specific frequencies by using a fast Fourier transform (FFT) function.

인식오류 보정부(1412)는 자음 기반 최대 정합 방법을 통해 추출된 형태소를 기 저장된 단어의 형태소와 매칭함으로써, 추출된 형태소의 오류를 보정한다.The recognition error correction unit 1412 corrects an error of the extracted morpheme by matching the morpheme extracted through the consonant-based maximum matching method with the morpheme of the pre-stored word.

품사 필터부(1413)는 보정된 형태소 중 의미 없는 품사에 대응하는 형태소를 제거한다. 여기서 의미 없는 품사는 조사 및 어미 등일 수 있다. The part-of-speech filter unit 1413 removes morphemes corresponding to meaningless part-of-speech among the corrected morphemes. The meaningless part of speech here may be a survey, a mother, or the like.

불용어 필터부(1414)는 의미 있는 품사로 이루어진 형태소 중 제어에 연관된 정보가 아닌 형태소를 제거한다. 예시적으로, "왼쪽으로 돌아라"의 형태소가 검출된 경우, 품사 필터부(1413) 및 불용어 필터부(1414)에 의해 "왼쪽" 및 "돌아"가 검출될 수 있다.The stopword filter 1414 removes morphemes that are not information related to control among morphemes of meaningful parts of speech. By way of example, when the morpheme of "turn left" is detected, "left" and "turn back" may be detected by the part-of-speech filter part 1413 and the stopword filter part 1414.

도 5에 도시된 바와 같이, 도 3의 제어모듈(14)에 있어서, 복수의 오디오신호가 입력되면 (S11), 음성명령 검출부(141)는 복수의 오디오신호로부터 음성명령신호를 검출한다. (S12).As shown in FIG. 5, in the control module 14 of FIG. 3, when a plurality of audio signals are input (S11), the voice command detection unit 141 detects a voice command signal from the plurality of audio signals. (S12).

음성명령신호가 검출되면 (S12), 음성위치 검출부(도 3의 143)는 복수의 오디오신호 중 검출된 음성명령신호의 음량크기가 최대인 어느 하나의 오디오신호를 검출하고, 검출된 오디오신호에 대응하는 오디오분할영역을 검출한다. 여기서 검출된 오디오분할영역은 특정 사용자의 음성에 대응한 음성명령신호가 가장 큰 음량크기로 감지되는 영역이므로, 특정 사용자와 가장 인접한 영역, 즉 음성위치로 추정될 수 있다. (S13)When the voice command signal is detected (S12), the voice position detection unit (143 in FIG. 3) detects any one audio signal having the maximum volume level of the detected voice command signal among the plurality of audio signals, and detects the detected audio signal. The corresponding audio division region is detected. In this case, the detected audio splitting region is a region in which a voice command signal corresponding to a specific user's voice is detected as the largest volume size, and thus can be estimated as the region closest to the specific user, that is, the voice position. (S13)

이와 같이 음성명령신호 및 음성위치가 검출되면 (S12, S13), 제어신호 생성부(142)는 대기상태의 제어신호를 생성한다. (S14)When the voice command signal and the voice position are detected as described above (S12 and S13), the control signal generator 142 generates the control signal in the standby state. (S14)

대기상태의 제어신호는 이동 로봇 장치(10)가 특정 사용자를 감지한 상태임을 표시하기 위한 것이다. 예시적으로, 주행모듈(12)은 대기상태의 제어신호에 기초하여 정면영역(도 2의 FA)이 음성위치로 검출된 오디오분할영역에 배치되기까지 본체(11)를 회전시키는 구동을 실시할 수 있다.The control signal in the standby state is for indicating that the mobile robot device 10 detects a specific user. For example, the driving module 12 may drive to rotate the main body 11 until the front region (FA in FIG. 2) is disposed in the audio division region detected as the voice position based on the standby control signal. Can be.

더불어, 음성위치가 검출되면 (S13), 사용자위치 검출부(144)는 카메라센싱모듈(15)에 의한 3차원 거리영상신호에 기초하여 정면영역(FA) 중 특정 사용자에 대응하는 사용자위치좌표를 검출한다. (S15) 여기서, 사용자위치좌표를 검출하는 사용자위치 검출부(144)에 대해서는 이하에서 더욱 상세히 설명하기로 한다.In addition, when a voice position is detected (S13), the user position detector 144 detects a user position coordinate corresponding to a specific user in the front area FA based on the 3D distance image signal by the camera sensing module 15. do. Here, the user position detection unit 144 for detecting the user position coordinates will be described in more detail below.

이때, 제어신호 생성부(142)는 음성명령신호에 대응한 명령어에 기초하여 주행모듈(12)의 구동을 위한 제어신호를 생성한다. (S16)In this case, the control signal generator 142 generates a control signal for driving the driving module 12 based on a command corresponding to the voice command signal. (S16)

이때, 사용자위치좌표의 검출이 실패된 경우, 즉 정면영역(FA)에서 사람이 검출되지 않는 경우, 제어신호 생성부(142)는 음성명령신호에 대응하는 제어신호의 생성을 중단한다. (S17) 즉, 정면영역(FA)에서 사람이 검출되지 않으면, 이동 로봇 장치(10)에 인접하게 위치한 특정 사용자의 명령이 아니라고 추정하여, 제어신호의 생성을 중단한다. 이로써, 특정 사용자를 기반으로 이동하는 구동이 안정적으로 실시될 수 있다.In this case, when the detection of the user position coordinates fails, that is, when no person is detected in the front area FA, the control signal generator 142 stops generating the control signal corresponding to the voice command signal. That is, when no person is detected in the front area FA, it is assumed that the command is not a command of a specific user located near the mobile robot apparatus 10, and the generation of the control signal is stopped. As a result, the driving of moving based on a specific user can be stably performed.

한편, 도 5와 달리, 제어신호 생성부(142)는 소정의 기동어가 검출된 경우에 대기상태의 제어신호를 생성할 수도 있다.Meanwhile, unlike FIG. 5, the control signal generator 142 may generate a control signal in a standby state when a predetermined starting word is detected.

즉, 도 6에 도시한 바와 같이, 음성명령신호가 미리 저장된 복수의 명령어 중 특정 사용자가 이동 로봇 장치를 호명하기 위한 기동어에 대응하면 (S18), 제어신호 생성부(142)는 대기상태의 제어신호를 생성할 수 있다. (S14')That is, as shown in FIG. 6, when a specific user corresponds to a start word for calling a mobile robot device among a plurality of commands stored in advance (S18), the control signal generator 142 is in a standby state. A control signal can be generated. (S14 ')

여기서 기동어는 특정 사용자가 이동 로봇 장치에 부여한 닉네임 또는 호칭일 수 있다.Here, the starting word may be a nickname or a title assigned to a mobile robot device by a specific user.

그리고, 음성명령신호가 기동어에 대응하지 않으면 (S18), 사용자위치 검출부(144)는 카메라센싱모듈(15)에 의한 3차원 거리영상신호에 기초하여 정면영역(FA) 중 특정 사용자에 대응하는 사용자위치좌표를 검출한다. (S15')If the voice command signal does not correspond to the starting word (S18), the user position detector 144 corresponds to a specific user in the front area FA based on the 3D distance image signal by the camera sensing module 15. Detect user position coordinates. (S15 ')

이때, 제어신호 생성부(142)는 음성명령신호에 대응한 명령어에 기초하여 주행모듈(12)의 구동을 위한 제어신호를 생성한다. (S16)In this case, the control signal generator 142 generates a control signal for driving the driving module 12 based on a command corresponding to the voice command signal. (S16)

이때, 사용자위치좌표의 검출이 실패된 경우, 즉 정면영역(FA)에서 사람이 검출되지 않는 경우, 제어신호 생성부(142)는 음성명령신호에 대응하는 제어신호의 생성을 중단한다. (S17)In this case, when the detection of the user position coordinates fails, that is, when no person is detected in the front area FA, the control signal generator 142 stops generating the control signal corresponding to the voice command signal. (S17)

도 7 및 도 8은 도 5 및 도 6의 대기상태의 제어신호에 기초하여 주행모듈이 본체를 회전시키는 경우에 대한 예시를 나타낸 도면이다.7 and 8 are views illustrating an example in which the traveling module rotates the main body based on the control signal in the standby state of FIGS. 5 and 6.

도 7에 도시한 바와 같이, 이동 로봇 장치(10)의 주변 중 정면영역(FA)이 아닌 영역에 특정 사용자(20)가 위치한 상태에서 음성을 입력할 수 있다. 이때, 제어모듈(14)은 음성명령신호 및 음성위치(도 7의 ADA4)를 감지하면, 대기상태의 제어신호를 주행모듈(12)에 공급한다. As illustrated in FIG. 7, a voice may be input in a state where a specific user 20 is located in a region other than the front area FA of the surroundings of the mobile robot apparatus 10. At this time, when the control module 14 detects the voice command signal and the voice position (ADA4 of FIG. 7), the control module 14 supplies the control signal in the standby state to the driving module 12.

이에, 도 8에 도시한 바와 같이, 주행모듈(12)은 대기상태의 제어신호에 기초하여 본체(11)를 일 방향(도 8에서 시계방향)으로 회전시킨다. 이때 회전 동작은 정면영역(FA)이 음성위치로 검출된 오디오분할영역(ADA4)에 도달되기까지 실시된다.Thus, as shown in FIG. 8, the traveling module 12 rotates the main body 11 in one direction (clockwise in FIG. 8) based on the control signal in the standby state. At this time, the rotation operation is performed until the front area FA reaches the audio division area ADA4 detected as the voice position.

다음, 도 9, 도 10, 도 11, 도 12, 도 13 및 도 14를 참조하여 도 3의 사용자위치 검출부(144)에 대해 설명한다.Next, the user position detector 144 of FIG. 3 will be described with reference to FIGS. 9, 10, 11, 12, 13, and 14.

도 9는 도 3의 사용자위치 검출부에 대한 일 예시를 나타낸 도면이다. 도 10은 카메라센싱모듈의 설치예시를 나타낸 도면이다. 도 11은 도 10의 예시에 있어서, 거리영상 정보 및 대상객체영역에 대한 일 예시를 나타낸 도면이다. 도 12는 도 9의 바닥 검출부가 바닥평면영역을 검출하는 과정에 대한 일 예시를 나타낸 도면이다. 도 13은 도 12의 아홉개의 지점과 기준지점에 대한 일 예시를 나타낸 도면이다. 9 is a diagram illustrating an example of the user position detector of FIG. 3. 10 is a diagram illustrating an installation example of a camera sensing module. FIG. 11 is a diagram illustrating an example of distance image information and a target object area in the example of FIG. 10. FIG. 12 is a diagram illustrating an example of a process of detecting a bottom plane area by the bottom detector of FIG. 9. FIG. 13 is a diagram illustrating an example of nine points and a reference point of FIG. 12.

도 14는 도 9의 바닥 검출부가 바닥평면영역을 검출하는 과정에 대한 다른 일 예시를 나타낸 도면이다.FIG. 14 is a diagram illustrating another example of a process of detecting the bottom plane area by the bottom detector of FIG. 9.

도 9에 도시한 바와 같이, 사용자위치 검출부(144)는 모델 산출부(1441), 바닥 검출부(1442), 기울기 추정부(1443), 모델 복원부(1444), 높이맵 산출부(1445), 객체후보 검출부(1446), 대상객체 검출부(1447) 및 계수 처리부(1448)를 포함한다.As illustrated in FIG. 9, the user position detector 144 may include a model calculator 1442, a floor detector 1442, an inclination estimator 1443, a model reconstructor 1444, a height map calculator 1445, and the like. An object candidate detector 1446, a target object detector 1447, and a coefficient processor 1548 are included.

먼저, 카메라센싱모듈(15)은 거리영상센서(Range Image Sensor)(미도시)를 포함하고, 정면영역(FA)에 대응하는 3차원 거리영상신호를 취득한다. 여기서, 거리영상센서는 2차원 영상과, 2차원 영상의 각 지점(point)에 대한 센서의 원근거리를 센싱하는 수단이다. 예시적으로, 거리영상센서는 거리센서와 카메라센서의 조합, RGB-D 센서 및 3차원 뎁스 카메라(3D Depth Camera) 중 적어도 어느 하나일 수 있다. First, the camera sensing module 15 includes a range image sensor (not shown) and acquires a 3D distance image signal corresponding to the front area FA. Here, the distance image sensor is a means for sensing the two-dimensional image and the distance of the sensor to each point (point) of the two-dimensional image. For example, the distance image sensor may be at least one of a combination of a distance sensor and a camera sensor, an RGB-D sensor, and a 3D depth camera.

도 10에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇 장치(10)의 카메라센싱모듈(15)은 지평면에 인접하고 지평면 측으로 비스듬한 주축을 갖도록 설치될 수 있다.As shown in FIG. 10, the camera sensing module 15 of the mobile robot apparatus 10 according to the exemplary embodiment of the present invention may be installed to have a main axis adjacent to the horizontal plane and oblique to the horizontal plane side.

즉, 카메라센싱모듈(15)은 지평면으로부터 소정 높이(SH; Sensor Height)로 이격되고, 지평면에 수평한 평면을 기준으로 소정의 기울기(θ)로 지평면을 향하는 주축을 갖는다. 여기서, 지평면에 대한 카메라센싱모듈(15)의 높이(SH)는 성인의 허리 높이의 평균치보다 작게 설정될 수 있다.That is, the camera sensing module 15 is spaced apart from the horizontal plane by a predetermined height (SH; Sensor Height), and has a main axis facing the horizontal plane at a predetermined inclination θ based on a plane horizontal to the horizontal plane. Here, the height SH of the camera sensing module 15 with respect to the horizon may be set smaller than the average value of the waist height of the adult.

이에, 카메라센싱모듈(15)의 수평시야범위(Vertical Field of View)(SVF; Sensor Vertical Field)는 지평면으로부터 카메라센싱모듈(15)의 높이(SH)에 대응될 수 있다. 예시적으로, 카메라센싱모듈(15)의 높이(SH)가 35㎝인 경우, 수평시야범위(SVF)는 카메라센싱모듈(15)에서 약 25㎝ 만큼 이격된 지점에서 약 150㎝ 만큼 이격된 지점까지의 영역일 수 있다. 다만, 이는 단지 예시일 뿐이며, 카메라센싱모듈(15)의 기울기(θ), 높이(SH) 및 수평시야범위(SVF)는 설치자의 재량 및 정면영역(FA)의 조건에 따라 변경될 수 있다.Accordingly, the vertical field of view (SVF) of the camera sensing module 15 may correspond to the height SH of the camera sensing module 15 from the horizontal plane. For example, when the height SH of the camera sensing module 15 is 35 cm, the horizontal viewing range SVF is a point spaced about 150 cm from a point spaced about 25 cm from the camera sensing module 15. It may be an area up to. However, this is only an example, and the tilt θ, the height SH and the horizontal viewing range SVF of the camera sensing module 15 may be changed according to the discretion of the installer and the conditions of the front area FA.

그리고, 별도로 도시하고 있지 않으나, 카메라센싱모듈(15)는 둘 이상의 거리영상센서로부터 취득된 센싱값에 기초하여 3차원 거리영상신호를 생성할 수도 있다.Although not shown separately, the camera sensing module 15 may generate a 3D distance image signal based on sensing values obtained from two or more distance image sensors.

더불어, 카메라센싱모듈(15)는 거리영상 정보에 대한 전처리를 실시할 수 있다. 예시적으로, 거리영상 정보의 전처리는 노이즈 리덕션(Noise Reduction), 렉티피케이션(Rectification), 캘리브레이션(Calibration), 색상 강화(Color Enhancement), 색상 공간 변환(Color Space Conversion;CSC), 인터폴레이션(Interpolation), 카메라 게인 컨트롤(Camera Gain Control) 등을 포함할 수 있다.In addition, the camera sensing module 15 may perform preprocessing for the distance image information. For example, the preprocessing of the distance image information may include noise reduction, rectification, calibration, color enhancement, color space conversion (CSC), and interpolation (interpolation). ), Camera gain control, and the like.

모델 산출부(1441)는 거리영상 정보에 대응하는 3차원 모델을 산출한다. 여기서, 3차원 모델은 3차원 좌표계에 속한 복수의 점들의 집합 형태일 수 있다. 즉, 3차원 모델의 각 지점은 3차원 좌표계에서 X좌표, Y좌표, Z좌표로 정의될 수 있다.The model calculator 1442 calculates a 3D model corresponding to the distance image information. Here, the 3D model may be in the form of a set of a plurality of points belonging to the 3D coordinate system. That is, each point of the 3D model may be defined as an X coordinate, a Y coordinate, and a Z coordinate in the 3D coordinate system.

바닥 검출부(1442)는 3차원 모델 중 바닥평면영역을 검출한다. The floor detector 1442 detects a floor plane area of the 3D model.

여기서, 바닥평면영역은 지평면에 대응하는 영역, 수평한 평면 영역 및 배경 영역 중 어느 하나에 대응할 수 있다. 그리고, 바닥 검출부(1442)는 바닥평면영역의 평균법선벡터를 더 산출한다. Here, the bottom plane area may correspond to any one of an area corresponding to the ground plane, a horizontal plane area, and a background area. The floor detector 1442 further calculates an average normal vector of the floor plane region.

예시적으로, 도 11에서 푸른 색으로 도시된 바와 같이, 바닥 검출부(1442)에 의해 3차원 모델 중 바닥평면영역이 검출될 수 있다.For example, as illustrated in blue in FIG. 11, the floor plan region of the 3D model may be detected by the floor detector 1442.

이러한 바닥 검출부(1442)에 대해서는 이하에서 더욱 상세히 설명한다.The bottom detection unit 1442 will be described in more detail below.

기울기 추정부(1443)는 바닥평면영역의 평균법선벡터에 기초하여 카메라센싱모듈(15)의 기울기를 추정한다. The slope estimator 1443 estimates the slope of the camera sensing module 15 based on the average normal vector of the floor plane region.

예시적으로, 기울기 추정부(1443)는 바닥평면영역의 평균법선벡터 및 바닥평면영역에 포함된 임의지점의 좌표에 기초하여 평면 방정식을 도출하고, 평면 방정식을 이용하여 기울기를 추정할 수 있다. 여기서, 바닥평면영역에 포함된 임의지점은 바닥평면영역을 도출하기 위해 선택된 지점 또는 바닥평면영 역의 평균지점일 수 있다.For example, the slope estimator 1443 may derive a plane equation based on the average normal vector of the floor plane area and coordinates of an arbitrary point included in the floor plane area, and estimate the slope by using the plane equation. Here, the arbitrary point included in the floor plan region may be a point selected to derive the floor plan region or an average point of the floor plan region.

모델 복원부(1444)는 추정된 기울기에 기초하여 3차원 모델을 복원한다. 이로써, 카메라센싱모듈(15)가 바닥평면영역에 수직하게 설치되지 않은 경우에도, 3차원 모델을 투영하여 높이맵(Height Map)을 생성 시에 겹치는 부분(Occlusion)을 감소시킬 수 있다. The model reconstructor 1444 reconstructs the 3D model based on the estimated slope. As a result, even when the camera sensing module 15 is not installed perpendicular to the floor plane area, it is possible to reduce the overlap when projecting the 3D model to generate a height map.

즉, 모델 복원부(1444)는 카메라센싱모듈(15)의 기울기(도 10의 θ)만큼 3차원 모델을 보정하여 겹침에 의해 가려지는 부분을 복원(Reconstruction)할 수 있다.That is, the model restoring unit 1444 may reconstruct the portion covered by the overlap by correcting the three-dimensional model by the inclination (θ of FIG. 10) of the camera sensing module 15.

높이맵 산출부(1445)는 복원된 3차원 모델을 수평면에 수직인 방향으로 투영하여 높이맵을 산출한다. The height map calculator 1445 calculates the height map by projecting the restored 3D model in a direction perpendicular to the horizontal plane.

객체후보 검출부(1446)는 산출된 높이맵에 기초하여 복원된 3차원 모델에서 객체후보영역을 검출한다.The object candidate detection unit 1446 detects the object candidate area in the reconstructed three-dimensional model based on the calculated height map.

예시적으로, 객체후보 검출부(1446)는 산출된 높이맵에 기초하여 복원된 3차원 모델에서 바닥평면영역을 제거함으로써, 객체후보영역을 검출할 수 있다.For example, the object candidate detection unit 1446 may detect the object candidate area by removing the floor plane area from the restored 3D model based on the calculated height map.

대상객체 검출부(1447)는 카메라센싱모듈(15)의 수평시야범위에 따른 대상객체모델을 마련하고, 객체후보영역 중 대상객체모델에 대응하는 대상객체영역을 검출한다.The target object detector 1447 prepares a target object model according to the horizontal viewing range of the camera sensing module 15, and detects a target object region corresponding to the target object model among the object candidate regions.

예시적으로, 도 10의 도시와 같이, 카메라센싱모듈(15)이 지평면보다 소정 높이만큼 높은 위치에서 지평면을 향하도록 지평면에 비스듬한 주축을 갖도록 설치될 수 있다. For example, as illustrated in FIG. 10, the camera sensing module 15 may be installed to have an oblique main axis on the horizontal plane to face the horizontal plane at a position higher by a predetermined height than the horizontal plane.

이 경우, 도 11에 도시된 바와 같이, 대상객체모델은 직립 또는 보행하는 사람의 하체형태에 대응할 수 있다. 이때, 대상객체모델은 사람 하체의 측면과 같이 인접하게 배치되는 한 쌍의 사각형으로 이루어질 수 있다. In this case, as shown in FIG. 11, the target object model may correspond to the lower body shape of the person standing or walking. In this case, the target object model may be formed of a pair of quadrangles arranged adjacent to each other like the side of the human lower body.

다만, 이는 단지 예시일 뿐이며, 대상객체 검출부(1447)는 카메라센싱모듈(15)의 수평시야범위, 즉 정면영역(FA)에 위치한 사람 하체의 형상을 모델링함으로써, 대상객체모델을 마련할 수 있다. 또는, 대상객체가 성인 사람이 아닌 아동이거나 동물인 경우에도, 정면영역(FA)에 대한 모델링을 통해 대상객체모델을 마련할 수 있다.However, this is only an example, and the target object detection unit 1447 may prepare a target object model by modeling a shape of a human lower body located in the horizontal field of view of the camera sensing module 15, that is, the front area FA. . Alternatively, even when the target object is a child or an animal that is not an adult person, the target object model may be prepared by modeling the front area FA.

사용자좌표 검출부(1448)는 대상객체영역을 추적하여 정면영역(FA) 중 사용자위치좌표를 검출한다. The user coordinate detector 1424 detects the user position coordinates in the front area FA by tracking the target object area.

예시적으로, 사용자좌표 검출부(1448)는 대상객체영역이 복수 개 검출된 경우, 복수의 대상객체영역 중 움직이는 대상을 추적하여 특정 사용자에 대응하는 영역으로 선택하고, 선택된 영역에 기초하여 사용자위치좌표를 검출할 수 있다. 여기서, 사용자위치좌표는 선택된 영역 중 지면에 가장 인접한 좌표, 지면으로부터 가장 멀리 배치된 좌표 및 중점 좌표 중 어느 하나로 선택될 수 있다. 다만, 이는 예시일 뿐이며, 사용자위치좌표는 선택된 영역에 포함된 어느 하나의 좌표로 선택될 수 있다.For example, when a plurality of target object areas are detected, the user coordinate detector 148 tracks moving objects among the plurality of target object areas, selects the area corresponding to a specific user, and based on the selected area, the user position coordinates. Can be detected. Here, the user location coordinates may be selected from any of the coordinates closest to the ground, the coordinates disposed farthest from the ground, and the midpoint coordinates. However, this is only an example, and the user location coordinates may be selected by any one coordinate included in the selected area.

이와 달리, 사용자좌표 검출부(1448)는 대상객체영역이 복수 개 검출된 경우, 복수의 대상객체영역 중 본체(11)와 가장 인접한 대상을 추적하여 특정 사용자에 대응하는 영역으로 선택하고, 선택된 영역에 기초하여 사용자위치좌표를 검출할 수 있다.On the other hand, when a plurality of target object regions are detected, the user coordinate detection unit 1482 tracks an object closest to the main body 11 among the plurality of target object regions, selects the region corresponding to a specific user, and selects the selected region. The user position coordinates can be detected based on this.

또는, 사용자좌표 검출부(1448)는 대상객체영역이 복수 개 검출된 경우, 복수의 대상객체영역 중 동적객체를 먼저 검출한 다음, 동적객체 중 본체(11)와 가장 인접한 객체를 특정 사용자에 대응하는 영역으로 선택할 수도 있다.Alternatively, when a plurality of target object regions are detected, the user coordinate detection unit 1482 first detects a dynamic object among the plurality of target object regions, and then identifies an object closest to the main body 11 among the dynamic objects corresponding to a specific user. You can also select an area.

도 12에 도시된 바와 같이, 바닥 검출부(1441)는 3차원 모델 중 일부 영역을 선택한다. (S101) 여기서, 일부 영역은 지평면, 수평한 평면 및 배경 중 어느 하나가 될 가능성이 높은 영역으로 선택된다. As shown in FIG. 12, the floor detection unit 1442 selects a partial region of the 3D model. (S101) Here, the partial area is selected as an area which is likely to be one of a horizontal plane, a horizontal plane, and a background.

바닥 검출부(1442)는 일부 영역의 가장자리에 배치되는 임의의 아홉 개의 지점을 선택한다. (S102) 그리고, 바닥 검출부(1442)는 일부 영역 내에 배치되는 임의의 기준지점을 선택한다. (S103)The floor detector 1442 selects any nine points disposed at the edges of some areas. (S102) The floor detector 1442 selects an arbitrary reference point disposed in the partial region. (S103)

일 예로, 도 13에 도시된 바와 같이, 통상 지평면은 영상의 하부에 배치되므로, 3차원 모델(3D)의 일부 영역(PA)은 3차원 모델(3D) 중 하부의 1/3 영역으로 선택될 수 있다. 여기서, 아홉 개의 지점(9P)은 일부 영역(PA)의 가장자리에 인접하게 배치될 수 있다. 더불어, 아홉 개의 지점(9P)을 하나의 라인으로 연결한 도형은 일부 영역(PA)과 같이 사각형일 수 있다. 그리고, 기준지점(BP)은 아홉 개의 지점(9P)을 하나의 라인으로 연결한 도형의 중점(Center)일 수 있다. For example, as shown in FIG. 13, since the normal horizontal plane is disposed below the image, the partial area PA of the 3D model 3D may be selected as the lower 1/3 area of the 3D model 3D. Can be. Here, the nine points 9P may be disposed adjacent to the edge of the partial area PA. In addition, the figure connecting the nine points 9P as one line may be a quadrangle like the partial area PA. The reference point BP may be a center of a figure in which nine points 9P are connected by one line.

다음, 도 12의 도시와 같이, 바닥 검출부(1442)는 기준지점에 기초하여 아홉 개의 지점에 대응한 법선벡터를 산출한다. (S104)Next, as shown in FIG. 12, the floor detector 1442 calculates a normal vector corresponding to nine points based on the reference point. (S104)

일 예로, 도 13의 예시에서, 기준지점(BP)과 아홉 개의 지점(9P) 간의 관계에 기초하여, 법선벡터(NV)가 산출될 수 있다. For example, in the example of FIG. 13, the normal vector NV may be calculated based on the relationship between the reference point BP and the nine points 9P.

이어서, 산출된 법선벡터의 각도가 소정의 오차범위 미만이면 (S105), 일부 영역이 바닥평면영역으로 간주될 수 있다. (S106)Subsequently, if the angle of the calculated normal vector is less than a predetermined error range (S105), a partial region may be regarded as a bottom plane region. (S106)

즉, 바닥 검출부(1442)는 거리영상정보 중 연속하는 서로 다른 프레임에서, 일부 영역에 대응한 법선벡터의 각도가 오차범위 미만으로 도출된 횟수가 임계 횟수 이상이면 (S111), 일부 영역을 바닥평면영역으로 검출한다. (S106)That is, when the number of times the angle of the normal vector corresponding to the partial region is less than the error range is greater than or equal to a threshold number of times, in the successive different frames of the distance image information, the floor detection unit 1442 may cover the partial region with the floor plane. Detect by area. (S106)

구체적으로, 바닥 검출부(13)는 일부 영역에 대응한 법선벡터의 각도가 오차범위 미만이고 (S105), 각도가 오차범위 미만인 법선벡터의 도출개수가 임계개수 미만이면 (S111), 다른 프레임(S112)에서 일부 영역의 법선벡터를 더 산출한다. (S104)Specifically, the floor detection unit 13, if the angle of the normal vector corresponding to the partial region is less than the error range (S105), and if the number of derivations of the normal vector whose angle is less than the error range is less than the threshold number (S111), another frame (S112). ) Calculates the normal vectors of some areas. (S104)

그리고, 바닥 검출부(1442)는 일부 영역에 대응한 법선벡터의 각도가 오차범위 미만이고 (S105), 각도가 오차범위 미만인 법선벡터의 도출개수가 임계개수 이상이면 (S111), 일부 영역을 바닥평면영역으로 검출한다. (S106) 즉, 거리영상정보 중 다수 개의 프레임에 의해 일부 영역에 대응한 법선벡터가 다수 개 도출되며, 다수 개의 법선벡터 중 각도가 오차범위 미만인 법선벡터가 임계개수 이상 도출되면 (S105, S111), 일부 영역을 바닥평면영역으로 검출하고, 도출된 법선벡터의 평균치를 바닥평면영역의 평균법선벡터로 산출한다. (S106) Further, the floor detector 1442 may determine the area of the floor plane when the angle of the normal vector corresponding to the partial region is less than the error range (S105), and the number of derivations of the normal vector having the angle less than the error range is greater than or equal to the critical number (S111). Detect by area. That is, when a plurality of normal vectors corresponding to a partial region are derived from a plurality of frames among the distance image information, and a normal number having an angle less than an error range among the plurality of normal vectors is derived above a critical number (S105, S111). In addition, some areas are detected as a floor plane area, and an average value of the derived normal vectors is calculated as an average normal vector of the floor plane area. (S106)

예시적으로, 임계개수는 5개일 수 있다. 다만, 이는 단지 예시일 뿐이며, 사용자의 임의에 따라 임계개수는 바닥평면영역의 신뢰도를 확보할 수 있을 정도의 범위에서 지정될 수 있다. In exemplary embodiments, the threshold number may be five. However, this is only an example, and the threshold number may be specified in a range that can secure the reliability of the floor plan area according to the user's discretion.

바닥 검출부(1442)는 거리영상정보에 포함되고 연속되는 다수 개의 프레임 중 일부 영역에 대응한 법선벡터의 각도가 오차범위 이상으로 도출되면 (S105), 해당 프레임을 삭제한다. (S113) 이어서, 다른 프레임(S112)에서 일부 영역의 법선벡터를 더 산출한다. (S104) The floor detector 1442 deletes the frame when the angle of the normal vector corresponding to the partial region of the plurality of frames included in the distance image information is derived beyond the error range (S105). (S113) Next, the normal vector of the partial region is further calculated in another frame S112. (S104)

이때, 프레임의 삭제 개수가 임계 개수 이상이면 (S114), 바닥 검출부(1442)는 일부 영역의 크기를 1/2로 감소시킨다. (S115) 그리고, 감소된 일부 영역에 대해 법선벡터를 산출한다. (S104)At this time, if the number of erased frames is greater than or equal to the threshold number (S114), the floor detector 1442 reduces the size of the partial region to 1/2. (S115) Then, a normal vector is calculated for the reduced partial area. (S104)

일 예로, 일부 영역(PA)에 대응한 법선벡터의 각도가 오차범위 이상으로 도출되는 프레임이 임계 개수 이상 발생되는 경우, 크기를 절반으로 감소시킨 일부 영역(PA')을 마련할 수 있다.As an example, when more than a threshold number of frames in which the angle of the normal vector corresponding to the partial area PA is greater than or equal to the error range occurs, the partial area PA ′ having the size reduced in half may be provided.

한편, 바닥 검출부(1442)는 도 12와 다른 방식으로 바닥평면영역을 검출할 수 있다.On the other hand, the floor detector 1442 may detect the floor plane area in a manner different from that of FIG. 12.

도 14는 도 9의 바닥 검출부가 바닥평면영역을 검출하는 과정에 대한 다른 일 예시를 나타낸 도면이다.FIG. 14 is a diagram illustrating another example of a process of detecting the bottom plane area by the bottom detector of FIG. 9.

도 14에 도시한 바와 같이, 바닥 검출부(1442)는 3차원 모델을 복수의 단위영역으로 분할한다. (S201)As shown in FIG. 14, the floor detector 1442 divides the three-dimensional model into a plurality of unit regions. (S201)

바닥 검출부(1442)는 각 단위영역의 가장자리에 인접하게 배치되는 아홉 개의 지점을 선택하고 (S202), 각 단위영역 내에 배치되는 임의의 기준지점을 선택한다. (S203) 여기서, 기준지점은 아홉 개의 지점을 하나의 라인으로 연결한 도형의 중점일 수 있다.The floor detector 1442 selects nine points arranged adjacent to the edge of each unit area (S202), and selects an arbitrary reference point disposed in each unit area. Here, the reference point may be a midpoint of a figure in which nine points are connected by one line.

바닥 검출부(1442)는 기준지점에 기초하여 아홉 개의 지점에 대응한 법선벡터를 산출한다. (S204) 이때, 도 13의 예시와 같이, 기준지점(BP)과 아홉 개의 지점(9P) 간의 관계에 기초하여, 각 단위영역에 대응한 법선벡터(NV)가 산출될 수 있다.The floor detector 1442 calculates a normal vector corresponding to nine points based on the reference point. In this case, as illustrated in FIG. 13, a normal vector NV corresponding to each unit region may be calculated based on the relationship between the reference point BP and the nine points 9P.

바닥 검출부(1442)는 산출된 법선벡터의 각도가 소정의 오차범위 미만이면 (S205), 각 단위영역을 바닥 범위로 지정한다. (S206) If the angle of the calculated normal vector is less than the predetermined error range (S205), the floor detector 1442 designates each unit area as the floor range. (S206)

반면, 바닥 검출부(13)는 산출된 법선벡터의 각도가 소정의 오차범위 이상이고 (S205), 법선벡터가 산출되지 않은 나머지 단위영역이 있으면 (S207), 나머지 단위영역 중 어느 하나로 변경하고 (S209), 변경된 단위영역에 대해 법선벡터의 산출 과정을 재개한다. (S202, S203, S204)On the other hand, if the angle of the calculated normal vector is greater than or equal to a predetermined error range (S205), and there are remaining unit areas for which the normal vector is not calculated (S207), the floor detector 13 changes to any one of the remaining unit areas (S209). ), The process of calculating the normal vector for the changed unit region is resumed. (S202, S203, S204)

이어서, 바닥 검출부(1442)는 전체 단위영역에 대해 법선벡터를 산출하면 (S207), 바닥 범위로 지정된 단위영역들의 조합을 바닥평면영역으로 검출하고 바닥 범위로 지정된 단위영역들의 법선벡터의 평균치를 바닥평면영역의 평균법선벡터로 산출한다. (S208)Subsequently, when the floor detector 1442 calculates a normal vector for the entire unit area (S207), the floor detection unit 1442 detects the combination of the unit areas designated as the floor range as the floor plane area, and then floors the average value of the normal vectors of the unit areas designated as the floor range. Calculated as the average normal vector of the planar region. (S208)

이와 같이 하면, 도 12의 과정에 비해 바닥평면영역의 검출을 위한 연산량이 감소되는 장점이 있다. 즉, 도 14의 과정에 따르면, 비교적 작은 너비인 단위영역에 대응한 법선벡터를 산출하는 점과, 프레임 별로 법선벡터를 산출하지 않는 점에서, 연산량이 감소될 수 있다.By doing so, there is an advantage that the amount of calculation for detecting the bottom plane area is reduced compared to the process of FIG. That is, according to the process of FIG. 14, since the normal vector corresponding to the unit area having a relatively small width is calculated and the normal vector is not calculated for each frame, the computation amount may be reduced.

이상과 같이, 본 발명의 일 실시예에 따른 이동 로봇 장치는 복수의 오디오센서에 의한 복수의 오디오신호로부터 특정 사용자의 음성으로 학습된 화자종속모델을 이용하여 음성명령신호를 검출한다. 이에 따라, 특정 사용자를 감지하여 특정 사용자에 대해서만 반응할 수 있으므로, 이동 로봇 장치에 대한 특정 사용자의 친밀도가 향상될 수 있다. 그리고, 특정 사용자를 기준으로 주행하는 기능을 제공할 수 있다.As described above, the mobile robot apparatus according to an embodiment of the present invention detects a voice command signal using a speaker dependent model trained by a specific user's voice from a plurality of audio signals by a plurality of audio sensors. Accordingly, since a specific user may be detected and reacted to only a specific user, the intimacy of the specific user with respect to the mobile robot device may be improved. In addition, a function of driving based on a specific user may be provided.

더불어, 본 발명의 일 실시예에 따른 이동 로봇 장치는 대기상태의 제어신호에 기초하여 카메라센싱모듈(15)의 정면영역(FA)을 음성위치에 배치한 상태에서 취득된 3차원 거리영상신호를 이용하여 정면영역(FA)에 대한 사람의 유무 및 위치를 검출한다. 이로써, 복잡한 연산을 요구하는 얼굴인식기능을 배제하더라도, 특정 사용자를 감지할 수 있다.In addition, the mobile robot device according to an embodiment of the present invention is a three-dimensional distance image signal obtained in the state in which the front area (FA) of the camera sensing module 15 in the voice position based on the control signal in the standby state The presence or absence of a person with respect to the front area FA is detected. As a result, even if the face recognition function requiring a complicated operation is excluded, a specific user can be detected.

전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention as described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by.

10: 이동 로봇 장치 11: 본체
12: 주행모듈 13: 오디오센싱모듈
14: 제어모듈 15: 카메라센싱모듈
131, 132, 133, 134, 135, 136, 137, 138: 오디오센서
ADA1, ADA2, ADA3, ADA4, ADA5, ADA6, ADA7, ADA8: 오디오분할영역
FA: 정면영역 3D: 3차원 모델
PA: 일부 영역 9P: 아홉 개의 지점
BP: 기준지점 NV: 법선벡터
10: mobile robot device 11: main body
12: drive module 13: audio sensing module
14: control module 15: camera sensing module
131, 132, 133, 134, 135, 136, 137, 138: audio sensor
ADA1, ADA2, ADA3, ADA4, ADA5, ADA6, ADA7, ADA8: Audio Division
FA: Frontal Area 3D: Three Dimensional Model
PA: Some Areas 9P: Nine Branches
BP: Reference Point NV: Normal Vector

Claims (12)

자율 주행이 가능한 이동 로봇 장치에 있어서,
본체;
상기 본체를 이동시키는 주행모듈;
상기 본체 주변의 서로 다른 오디오분할영역에 대응하는 복수의 오디오센서를 포함하고, 상기 복수의 오디오센서에 대응한 복수의 오디오신호를 생성하는 오디오센싱모듈; 및
특정 사용자의 음성으로 학습된 화자종속모델에 기초하여 상기 복수의 오디오신호로부터 미리 설정된 복수의 명령어 중 적어도 하나에 대응하는 음성명령신호를 검출하고, 상기 음성명령신호에 대응하는 제어신호를 상기 주행모듈에 공급하는 제어모듈을 포함하는 이동 로봇 장치.
In a mobile robot device capable of autonomous driving,
main body;
A traveling module for moving the main body;
An audio sensing module including a plurality of audio sensors corresponding to different audio split regions around the main body, and generating a plurality of audio signals corresponding to the plurality of audio sensors; And
A voice command signal corresponding to at least one of a plurality of preset commands is detected from the plurality of audio signals based on a speaker dependent model trained by a voice of a specific user, and a control signal corresponding to the voice command signal is transmitted to the driving module. Mobile robot device comprising a control module for supplying.
제 1 항에 있어서,
상기 제어모듈은
상기 복수의 오디오신호로부터 상기 음성명령신호를 검출하는 음성명령 검출부; 및
상기 주행모듈의 구동 제어를 위한 제어신호를 생성하는 제어신호 생성부를 포함하는 이동 로봇 장치.
The method of claim 1,
The control module
A voice command detector for detecting the voice command signal from the plurality of audio signals; And
A mobile robot device comprising a control signal generator for generating a control signal for driving control of the drive module.
제 2 항에 있어서,
상기 제어모듈은
상기 음성명령 검출부가 상기 음성명령신호를 검출하면, 상기 복수의 오디오신호 중 상기 음성명령신호의 음량크기가 최대인 어느 하나의 오디오신호를 검출하고, 상기 검출된 오디오신호에 대응한 오디오분할영역을 음성위치로 검출하는 음성위치 검출부를 더 포함하는 이동 로봇 장치.
The method of claim 2,
The control module
When the voice command detection unit detects the voice command signal, the audio command detection unit detects any one of the plurality of audio signals with the maximum volume level of the voice command signal, and determines an audio splitting area corresponding to the detected audio signal. A mobile robot device further comprising a voice position detector for detecting a voice position.
제 3 항에 있어서,
상기 본체 주변 중 어느 일측영역인 정면영역의 3차원 거리영상신호를 생성하는 카메라센싱모듈을 더 포함하는 이동 로봇 장치.
The method of claim 3, wherein
And a camera sensing module configured to generate a three-dimensional distance image signal of a front region, which is one side region around the main body.
제 4 항에 있어서,
상기 음성명령신호 및 상기 음성위치가 검출되면 상기 제어신호 생성부는 대기상태의 제어신호를 생성하고,
상기 주행모듈은 상기 대기상태의 제어신호에 기초하여 상기 정면영역이 상기 음성위치검출모듈에 의해 검출된 오디오분할영역에 배치되기까지 상기 본체를 회전시키는 이동 로봇 장치.
The method of claim 4, wherein
When the voice command signal and the voice position are detected, the control signal generator generates a control signal in a standby state.
And the traveling module rotates the main body until the front region is disposed in the audio division region detected by the voice position detection module based on the standby control signal.
제 4 항에 있어서,
상기 음성명령신호 및 상기 음성위치가 검출되고, 상기 음성명령신호가 상기 복수의 명령어 중 상기 특정 사용자가 상기 이동 로봇 장치를 호명하기 위한 기동어에 대응하면, 상기 제어신호 생성부는 상기 주행모듈에 대기상태의 제어신호를 전달하고,
상기 주행모듈은 상기 대기상태의 제어신호에 기초하여 상기 정면영역이 상기 음성위치검출모듈에 의해 검출된 오디오분할영역에 배치되기까지 상기 본체를 회전시키는 이동 로봇 장치.
The method of claim 4, wherein
When the voice command signal and the voice position are detected, and the voice command signal corresponds to a start word for the specific user to call the mobile robot device among the plurality of commands, the control signal generator waits for the driving module. Transfer the control signal of the state,
And the traveling module rotates the main body until the front region is disposed in the audio division region detected by the voice position detection module based on the standby control signal.
제 4 항에 있어서,
상기 제어모듈은
상기 카메라센싱모듈에 의한 상기 3차원 거리영상신호에 기초하여 상기 정면영역 중 상기 특정 사용자에 대응하는 사용자위치좌표를 검출하는 사용자위치 검출부를 더 포함하는 이동 로봇 장치.
The method of claim 4, wherein
The control module
And a user position detector configured to detect a user position coordinate corresponding to the specific user in the front area based on the 3D distance image signal by the camera sensing module.
제 7 항에 있어서,
상기 사용자위치 검출부에 의한 상기 사용자위치좌표의 검출이 실패된 경우, 상기 제어신호 생성부는 상기 검출된 음성명령신호에 대응하는 제어신호의 생성을 중단하는 이동 로봇 장치.
The method of claim 7, wherein
And when the detection of the user position coordinate by the user position detector fails, the control signal generator stops generating a control signal corresponding to the detected voice command signal.
제 7 항에 있어서,
상기 사용자위치 검출부는,
상기 3차원 거리영상신호에 대응하는 3차원 모델을 산출하는 모델 산출부;
상기 3차원 모델 중 바닥평면영역을 검출하는 바닥 검출부;
상기 바닥평면영역의 평균법선벡터에 기초하여 상기 카메라센서모듈의 기울기를 추정하는 기울기 추정부;
상기 추정된 기울기에 기초하여 상기 3차원 모델을 복원하는 모델 복원부;
상기 복원된 3차원 모델을 수평면에 수직인 방향으로 투영하여 높이맵(Height Map)을 산출하는 높이맵 산출부;
상기 높이맵에 기초하여 상기 복원된 3차원 모델에서 객체후보영역을 검출하는 객체후보 검출부;
상기 카메라센서모듈의 수평시야범위에 대응한 대상객체모델을 마련하고, 상기 객체후보영역 중 상기 대상객체모델에 대응하는 대상객체영역을 검출하는 대상객체 검출부; 및
상기 대상객체영역을 추적하여, 상기 정면영역 중 상기 사용자위치좌표를 검출하는 사용자좌표 검출부를 포함하는 이동 로봇 장치.
The method of claim 7, wherein
The user position detector,
A model calculator configured to calculate a 3D model corresponding to the 3D distance image signal;
A floor detector detecting a floor plane area of the three-dimensional model;
A tilt estimating unit estimating a tilt of the camera sensor module based on an average normal vector of the floor plane regions;
A model reconstruction unit reconstructing the three-dimensional model based on the estimated slope;
A height map calculator for projecting the restored three-dimensional model in a direction perpendicular to a horizontal plane to calculate a height map;
An object candidate detector for detecting an object candidate region in the reconstructed three-dimensional model based on the height map;
A target object detector configured to provide a target object model corresponding to a horizontal field of view of the camera sensor module, and detect a target object region corresponding to the target object model among the object candidate regions; And
And a user coordinate detector for tracking the target object region and detecting the user position coordinates in the front region.
제 9 항에 있어서,
상기 대상객체모델은 사람의 하체 형태에 대응하는 이동 로봇 장치.
The method of claim 9,
The target object model is a mobile robot device corresponding to the shape of the lower body of the person.
제 9 항에 있어서,
상기 사용자좌표 검출부는 상기 대상객체영역이 복수 개 검출된 경우, 상기 복수의 대상객체영역 중 움직이는 대상을 추적하여 상기 특정 사용자에 대응한 영역으로 선택하고, 선택된 영역에 기초하여 상기 사용자위치좌표를 검출하는 이동 로봇 장치.
The method of claim 9,
When a plurality of target object regions are detected, the user coordinate detector detects a moving object among the plurality of target object regions, selects the region corresponding to the specific user, and detects the user position coordinates based on the selected region. Moving robot device.
제 9 항에 있어서,
상기 사용자좌표 검출부는 상기 대상객체영역이 복수 개 검출된 경우, 상기 복수의 대상객체영역 중 상기 본체와 가장 인접한 대상을 추적하여 상기 특정 사용자에 대응한 영역으로 선택하고, 선택된 영역에 기초하여 상기 사용자위치좌표를 검출하는 이동 로봇 장치.
The method of claim 9,
When a plurality of target object regions are detected, the user coordinate detector detects an object closest to the main body among the plurality of target object regions and selects the region corresponding to the specific user, and based on the selected region Mobile robot device for detecting position coordinates.
KR1020180045785A 2018-04-19 2018-04-19 Movable robot apparatus KR102499574B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180045785A KR102499574B1 (en) 2018-04-19 2018-04-19 Movable robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180045785A KR102499574B1 (en) 2018-04-19 2018-04-19 Movable robot apparatus

Publications (2)

Publication Number Publication Date
KR20190130196A true KR20190130196A (en) 2019-11-22
KR102499574B1 KR102499574B1 (en) 2023-02-13

Family

ID=68730903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180045785A KR102499574B1 (en) 2018-04-19 2018-04-19 Movable robot apparatus

Country Status (1)

Country Link
KR (1) KR102499574B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111098301A (en) * 2019-12-20 2020-05-05 西南交通大学 Control method of task type robot based on scene knowledge graph
CN113843814A (en) * 2021-09-10 2021-12-28 北京声智科技有限公司 Control system, method, device and storage medium for mechanical arm equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140072601A (en) * 2012-12-05 2014-06-13 엘지전자 주식회사 A robot cleaner

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140072601A (en) * 2012-12-05 2014-06-13 엘지전자 주식회사 A robot cleaner

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111098301A (en) * 2019-12-20 2020-05-05 西南交通大学 Control method of task type robot based on scene knowledge graph
CN113843814A (en) * 2021-09-10 2021-12-28 北京声智科技有限公司 Control system, method, device and storage medium for mechanical arm equipment

Also Published As

Publication number Publication date
KR102499574B1 (en) 2023-02-13

Similar Documents

Publication Publication Date Title
US10665249B2 (en) Sound source separation for robot from target voice direction and noise voice direction
KR102219801B1 (en) A moving-robot and control method thereof
CN106537186B (en) System and method for performing simultaneous localization and mapping using a machine vision system
US11076734B2 (en) Robot cleaner and control method thereof using artificial intelligence
JP4464912B2 (en) Robot control apparatus and autonomous mobile robot
US8159902B2 (en) Apparatus and method for localizing sound source in robot
US20150102995A1 (en) Automatic view adjustment
US20120182392A1 (en) Mobile Human Interface Robot
KR20160010590A (en) Method and system for achieving self-adaptive surrounding sound
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US8611555B2 (en) Robot head with artificial ears
JP2017111688A (en) Autonomous mobile device, autonomous mobile method, and program
JP2017111606A (en) Autonomous mobile apparatus, autonomous mobile method, and program
KR20190130196A (en) Movable robot apparatus
CN117148836A (en) Self-moving robot control method, device, equipment and readable storage medium
US11055341B2 (en) Controlling method for artificial intelligence moving robot
Cho et al. Sound source localization for robot auditory systems
KR101965739B1 (en) Mobile robot and method for controlling the same
KR20200018184A (en) Artificial intelligence Moving robot
KR101956569B1 (en) Mobile robot and method for controlling the same
WO2023020269A1 (en) Self-moving robot control method and apparatus, device, and readable storage medium
JP2018092682A (en) Autonomous mobile apparatus, autonomous mobile method, and program
JP7354528B2 (en) Autonomous mobile device, method and program for detecting dirt on lenses of autonomous mobile device
WO2008001275A2 (en) Method of controlling the position of at least part of an autonomously moveable device
JP7327596B2 (en) Autonomous mobile device, method and program for detecting dirt on lens of autonomous mobile device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant