KR101862545B1 - Method and system for providing rescue service using robot - Google Patents

Method and system for providing rescue service using robot Download PDF

Info

Publication number
KR101862545B1
KR101862545B1 KR1020170078706A KR20170078706A KR101862545B1 KR 101862545 B1 KR101862545 B1 KR 101862545B1 KR 1020170078706 A KR1020170078706 A KR 1020170078706A KR 20170078706 A KR20170078706 A KR 20170078706A KR 101862545 B1 KR101862545 B1 KR 101862545B1
Authority
KR
South Korea
Prior art keywords
dynamic object
robot
point cloud
mask
dynamic
Prior art date
Application number
KR1020170078706A
Other languages
Korean (ko)
Inventor
조경은
치옥용
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020170078706A priority Critical patent/KR101862545B1/en
Application granted granted Critical
Publication of KR101862545B1 publication Critical patent/KR101862545B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water

Abstract

The present invention relates to a method and a system for providing a rescue service using a robot. The method for providing a rescue service using a robot according to an embodiment of the present invention comprises: a step of obtaining a time series image of a surrounding situation of a robot; a step of analyzing the time series image to obtain motion data of a dynamic object; a step of analyzing a set of motion data acquired according to the time series on a learning basis to determine whether the dynamic object is a living body or a living body; a step of extracting a partial image corresponding to the dynamic object among sources of the time series images related to the surrounding situation when the dynamic object is the living body; and a step of transmitting the extracted partial image to a user remote apparatus.

Description

로봇을 이용한 구조구난 서비스 제공방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING RESCUE SERVICE USING ROBOT} [0001] METHOD AND SYSTEM FOR PROVIDING RESCUE SERVICE USING ROBOT [0002]

본 발명은 로봇을 이용한 구조구난 서비스 제공방법 및 시스템에 관한 것으로서, 더욱 상세하게는 구조구난이 필요한 악조건의 환경에서 로봇이 동적 생체 오브젝트를 먼저 인식하고, 인식된 동적 생체 오브젝트의 영상을 추출하여 생체에 대해 집약된 정보만 원격 상황실에 전송하여 확인요청을 보냄으로써, 원격 상황실에서는 신속하고 용이하게 생체 오브젝트를 구별하여 구조명령을 즉각적으로 전달함으로써 생명을 원활히 구조할 수 있는 로봇을 이용한 구조구난 서비스 제공방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing a rescue service using a robot, and more particularly, to a method and system for providing a rescue service using a robot, in which the robot first recognizes a dynamic body object in an environment of a bad condition requiring rescue, And sends a confirmation request to the remote situation room. In this way, the remote situation room provides a rescue service using a robot that can quickly rescue life by separating the biological objects and promptly delivering the structure orders ≪ / RTI >

일반적으로, 재난구조 작업은 구조요원들에 의해 수행되며, 구조요원들이 휴대하고 있는 무선통신기기를 통해 구조작업의 진행과정을 통제받아 수행하게 된다.In general, disaster relief work is carried out by rescue personnel and is carried out under the control of the progress of the rescue work through the wireless communication equipment carried by the rescue personnel.

이때, 공간이 협소하거나 추가 붕괴의 위험성이 큰 구조물이나, 도 1에 도시된 바와 같은 바다에서 배가 침몰한 상황에 구조가 필요한 환경이 어둡고, 기온이 낮으며, 산소 부족 등과 같은 조건인 경우 구조요원들의 접근이 어려운 문제가 있다.At this time, a structure in which the space is narrow or the risk of additional collapse is great, or in a situation where the boat is sunk in the sea as shown in Fig. 1, the environment requiring the structure is dark, the temperature is low, There is a problem that accessibility of these is difficult.

이처럼 구조요원이 직접 구조 활동을 수행하기 어려운 경우, 구조 로봇을 투입하여 인명을 수색하게 되는데, 종래에는 사용자의 원격 조정에 의해 로봇이 주변 환경을 선별 없이 모두 취득한 고해상도의 대용량 영상을 사용자 원격장치로 전송하기 때문에 데이터 크기가 커서 전송 시간이 오래 걸리고, 사용자 원격장치에서 수신된 영상을 분석하며 계속 로봇으로 탐색 명령을 보내야하기 때문에 데이터 송수신 시간이 오래 걸려 실시간 정보를 수집하고 판단하기에 어려운 실정이다.In the case where the rescue personnel are unable to carry out the rescue operation directly, the rescue robot is searched for the rescue person. In the past, the remote control of the user has enabled the robot to acquire all of the surroundings without selecting the high- It is difficult to collect and judge real-time information because it takes a long time to transmit and receive data because it requires a long transmission time because the data size is large and the image received from the user remote device is analyzed and the search command is continuously sent to the robot.

한국등록특허공보 제10-1123189호 "구조견 원격통제와 핸들러 모니터링 시스템 및 그 방법"Korean Patent Registration No. 10-1123189 " Remote control of the resident dog and handler monitoring system and method thereof "

본 발명이 해결하고자 하는 과제는 구조구난이 필요한 악조건의 환경에서 로봇이 동적 생체 오브젝트를 먼저 인식하고, 인식된 동적 생체 오브젝트의 영상을 추출하여 생체에 대해 집약된 정보만 원격 상황실에 전송하여 확인요청을 보냄으로써, 원격 상황실에서는 신속하고 용이하게 생체 오브젝트를 구별하여 구조명령을 즉각적으로 전달함으로써 생명을 원활히 구조할 수 있는 로봇을 이용한 구조구난 서비스 제공방법 및 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a dynamic bio-object recognition system in which a robot recognizes a dynamic bio-object first in an environment of a bad condition requiring a structural retrieval, extracts an image of the recognized dynamic bio- To provide a rescue service providing method and system using a robot capable of quickly and easily distinguishing a living body object and promptly delivering a rescue command in a remote situation room so that life can be smoothly rescued.

본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스 제공방법은 로봇이 주변상황에 대한 시계열 영상을 획득하는 단계와, 상기 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하는 단계와, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계와, 상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하는 단계 및 상기 추출된 부분영상을 사용자 원격장치로 전송하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method for providing a rescue service using a robot, including: obtaining a time series image of a surrounding situation of a robot; analyzing the time series image to obtain operation data of the dynamic object; Determining whether the dynamic object is a living body or a living body by analyzing the acquired set of the operation data by learning based on the learning object; Extracting the corresponding partial image, and transmitting the extracted partial image to the user remote device.

본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 시스템은 센서 디바이스를 통해 획득한 주변상황에 대한 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하고, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석한 결과, 상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하는 로봇 및 상기 로봇으로부터 상기 동적 오브젝트에 해당하는 부분영상을 수신하여 디스플레이하고, 사용자로부터 입력받은 구조명령에 따라 상기 로봇을 조종하는 사용자 원격장치를 포함한다.A system for providing a rescue service using a robot according to an embodiment of the present invention includes a sensor device for acquiring operation data of a dynamic object by analyzing a time series image of a surrounding situation acquired through a sensor device, A robot for extracting a partial image corresponding to the dynamic object from an original of the time series image with respect to a surrounding situation when the dynamic object is a living body and a partial image corresponding to the dynamic object from the robot, And a user remote device for controlling the robot according to a structure command received from a user.

본 발명에 따르면, 재난 상황에 로봇이 어두운 시야, 차갑거나 뜨거운 온도, 산소 부족 등과 같은 열악한 상황에 관계없이 신속하게 생명체를 검출하여, 검출된 생명체에 관해 집약된 정보를 원격 조정실에 보내고, 원격 조정실에서는 로봇이 전송한 실시간 정보를 분석하여 즉각적으로 로봇으로 구조명령을 전달하여, 신속히 인명구조를 실행할 수 있다. According to the present invention, in the event of a disaster, the robot quickly detects living things irrespective of a poor situation such as dark vision, cold or hot temperature, lack of oxygen, etc., sends concentrated information about the detected living organisms to the remote control room, , The real-time information transmitted by the robot is analyzed and the structure command is immediately transmitted to the robot, so that the life structure can be executed quickly.

여기서, 구조명령은 원격 조정실의 대원이 로봇의 스피커를 통해 인명에게 어느 방향으로 어떻게 움직여 재난 상황으로부터 벗어날지에 대한 안내를 일컬을 수 있고, 로봇은 리시버를 통해 인명의 목소리를 원격 조정실로 전달함으로써, 재난 상황에 실시간 커뮤니케이션을 가능하게 함으로써, 인명구조의 효율을 높일 수 있다.Here, the rescue order can be a guide to how a member of the remote control room moves from the disaster situation to the person through the speaker of the robot through the speaker, and the robot transmits the voice of the person to the remote control room through the receiver, By enabling real-time communication to the situation, the efficiency of lifesaving can be increased.

아울러, 본 발명의 실시 예에 따르면, 로봇이 동적 생체 오브젝트에 대한 영상만을 추출하여 전송하기 때문에, 데이터 전송량과 전송 시간을 절감하여, 재난상황에 신속히 대처방안을 수립하게 할 수 있다.In addition, according to the embodiment of the present invention, since the robot extracts only the image of the dynamic bio object and transmits the extracted image, the amount of data transmission and transmission time can be reduced, and a plan for dealing with a disaster situation can be quickly established.

도 1은 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스의 일예를 도시한다.
도 2는 본 발명의 일실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 시스템의 개략적은 블록도이다.
도 3은 동적 생체 오브젝트의 일반적인 동작의 일 예를 도시한다.
도 4는 인간의 동작 종류에 따른 운동 부위 분포를 도시하는 도면이다.
도 5는 본 발명의 실시 예에 따른 3D 마스크의 일예를 도시한다.
도 6은 3D 마스크를 동적 오브젝트에 오버랩 적용한 일예를 도시한다.
도 7은 본 발명의 실시 예에 따른 3D 마스크와 이에 대한 공분산 행렬을 구하는 예를 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른 하나의 마스크에 대응하는 포인트 클라우드를 도시한다.
도 9 내지 도 11은 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 방법을 설명하기 위한 순서도이다.
FIG. 1 illustrates an example of a rescue service using a robot according to an embodiment of the present invention.
2 is a schematic block diagram of a system for providing a rescue service using a robot according to an embodiment of the present invention.
Fig. 3 shows an example of the general operation of a dynamic bio-object.
4 is a view showing a distribution of a moving part according to a kind of an operation of a human.
5 shows an example of a 3D mask according to an embodiment of the present invention.
FIG. 6 shows an example of overlapping a 3D mask with a dynamic object.
FIG. 7 is a view for explaining an example of obtaining a 3D mask and a covariance matrix therefor according to an embodiment of the present invention.
Figure 8 shows a point cloud corresponding to one mask according to an embodiment of the present invention.
9 to 11 are flowcharts for explaining a method of providing a rescue service using a robot according to an embodiment of the present invention.

본 발명에 관한 구체적인 내용의 설명에 앞서 이해의 편의를 위해 본 발명이 해결하고자 하는 과제의 해결 방안의 개요 혹은 기술적 사상의 핵심을 우선 제시한다.Prior to the description of the concrete contents of the present invention, for the sake of understanding, the outline of the solution of the problem to be solved by the present invention or the core of the technical idea is first given.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 실시 예를 상세히 설명한다. 그러나 이들 실시예는 본 발명을 보다 구체적으로 설명하기 위한 것으로, 본 발명의 범위가 이에 의하여 제한되지 않는다는 것은 당업계의 통상의 지식을 가진 자에게 자명할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art, however, that these examples are provided to further illustrate the present invention, and the scope of the present invention is not limited thereto.

본 발명이 해결하고자 하는 과제의 해결 방안을 명확하게 하기 위한 발명의 구성을 본 발명의 바람직한 실시예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다. 아울러 본 발명의 바람직한 실시 예에 대한 동작 원리를 상세하게 설명함에 있어 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명 그리고 그 이외의 제반 사항이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: It is to be noted that components are denoted by the same reference numerals even though they are shown in different drawings, and components of different drawings can be cited when necessary in describing the drawings. In the following detailed description of the principles of operation of the preferred embodiments of the present invention, it is to be understood that the present invention is not limited to the details of the known functions and configurations, and other matters may be unnecessarily obscured, A detailed description thereof will be omitted.

도 1은 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스의 일예를 도시하고, 도 2는 본 발명의 일실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 시스템의 개략적은 블록도이다.FIG. 1 is a block diagram of a system for providing a rescue service using a robot according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 시스템(100)은 로봇(110) 및 사용자 원격장치(130)를 포함하여 구성된다.Referring to FIG. 2, a system 100 for providing a rescue service using a robot according to an embodiment of the present invention includes a robot 110 and a user remote device 130.

로봇(110)은 센서 디바이스를 통해 획득한 주변상황에 대한 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하고, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석한 결과, 상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하여 이를 사용자 원격장치(130)로 전송한다. 그리고, 사용자 원격장치(130)로부터 수신된 구조명령에 따라 구동을 실행한다.The robot 110 analyzes the time series image of the surrounding situation acquired through the sensor device to acquire the operation data of the dynamic object, analyzes the set of the operation data acquired according to the time series on the learning basis, Extracts a partial image corresponding to the dynamic object from the source of the time-series image with respect to the surrounding situation, and transmits the extracted partial image to the user remote device 130. And executes the drive in accordance with the structure command received from the user remote device 130. [

도 1을 참조하여 본 발명의 실시 예에 대해 간략한 일예 설명하기로 한다. 예를 들어, 바다에서 배가 침몰하는 재난 상황이 발생한 상황에 구조대도 인명 구조를 수행하기 위해 출동하지만, 구조대원이 침몰하는 배안으로 침투하여 생명체를 파악하기란 쉽지 않은 일이다.A brief description will be given of an embodiment of the present invention with reference to FIG. For example, in the event of a catastrophic event where a boat sinks in the sea, the rescue team is mobilized to carry out rescue operations, but it is not easy to grasp life by penetrating into the boat where the rescue crew sinks.

이러한 상황에 본 발명의 로봇(110)을 투입하면, 어두운 시야, 차가운 온도, 산소 부족 등과 같은 열악한 상황에 관계없이 신속하게 생명체를 검출하여, 검출된 생명체에 관해 집약된 정보를 원격 조정실(130)에 보낸다. 원격 조정실(130)에서는 로봇(110)이 전송한 실시간 정보를 분석하여 즉각적으로 로봇(110)으로 구조명령을 전달하여, 로봇(110)을 통해 신속히 인명구조를 실행할 수 있다. 여기서, 구조명령은 원격 조정실(130)의 대원이 로봇(110)의 스피커를 통해 인명에게 어느 방향으로 어떻게 움직여 재난 상황으로부터 벗어날지에 대한 안내를 일컬을 수 있다. 또한, 로봇(110)은 리시버를 통해 인명의 목소리를 원격 조정실(130)로 전달함으로써, 재난 상황에 실시간 커뮤니케이션을 가능하게 함으로써, 인명구조의 효율을 높일 수 있다.When the robot 110 according to the present invention is put into such a situation, the living organism is detected quickly regardless of a poor situation such as a dark field, a cold temperature, a lack of oxygen, and the collected information about the detected living organism is transmitted to the remote control room 130 Lt; / RTI > In the remote control room 130, the real-time information transmitted by the robot 110 is analyzed and the structure command is immediately transmitted to the robot 110, so that the robot 110 can rapidly execute the lifesaving structure. Here, the rescue command can be a guide for how a member of the remote control room 130 moves through the speaker of the robot 110 in the direction of the person's life in order to escape from the disaster situation. In addition, the robot 110 transmits a voice of a person's name to the remote control room 130 through the receiver, thereby enabling real-time communication in a disaster situation, thereby enhancing the efficiency of the life structure.

이와 같은 본 발명의 실시 예에 따른 로봇(110)은 센서 디바이스(111), 분석모듈(112), 영상편집모듈(113), 학습엔진(114), 통신모듈(115), 스피커 모듈(117) 및 제어모듈(118)을 포함하여 구성된다.The robot 110 according to the embodiment of the present invention includes a sensor device 111, an analysis module 112, an image editing module 113, a learning engine 114, a communication module 115, a speaker module 117, And a control module 118.

센서 디바이스(111)는 주변상황, 주변환경에 대한 시계열 영상을 획득하는 역할을 한다. 센서 디바이스로서(111) 예를 들어, 입력 깊이 영상 카메라, 적외선 카메라, 모션 센서, 동작 인식 센서 및 키넥트(kinect) 중 적어도 하나를 이용할 수 있다.The sensor device 111 acquires a time-series image of the surrounding environment and the surrounding environment. As the sensor device 111, for example, at least one of an input depth image camera, an infrared camera, a motion sensor, a motion recognition sensor, and a kinect may be used.

분석모듈(112)은 센서 디바이스(111)로부터 획득된 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하고, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단한다.The analysis module 112 analyzes the time series image obtained from the sensor device 111 to obtain operation data of the dynamic object, analyzes the set of the operation data acquired according to the time series on a learning basis, It is judged whether or not it is microorganism.

구체적으로, 분석모듈(112)은 시계열 영상의 이웃하는 프레임 간의 분석을 통해 동적 오브젝트의 존재를 추정하고, 상기 존재가 추정된 동적 오브젝트의 동작패턴, 동작종류, 보이는 방향 및 각도 정보를 추적한다.Specifically, the analysis module 112 estimates the existence of a dynamic object through analysis between neighboring frames of the time series image, and tracks the motion pattern, the type of motion, the viewing direction, and the angle information of the estimated dynamic object.

인간이나 동물이 특정 동작을 수행할 때 각 개체는 동작의 빈도가 높은 부분과 낮은 부분으로 나눌 수 있다. 도 3의 (a)는 인간이 걷는 동작을 나타내고 (b)는 인간이 달리는 동작을 나타내며, (c)는 네 발 달린 동물이 달리는 동작을 나타내고, (d)는 새가 나는 동작을 나타낸다. 도 4의 (A) 내지 (c)는 인간의 서로 다른 동작패턴, 동작 종류에 따라 신체부위마다 다른 특징이 나타나는 분포를 도시한다. 이와 같은 동작들을 살펴보면 대부분의 인간이나 네 발 달린 동물들은 어떠한 동작들을 수행할 때 보통 팔과 다리를 많이 이용하고 새들은 날개를 주로 이용한다. 반면, 동적 오브젝트이더라도 자동차나 기계 또는 자연 현상과 같은 경우는 인간이나 동물의 동적 동작 패턴과는 많은 차이가 있다. 따라서, 본 발명은 개체별/종별 동적 오브젝트들만의 고유한 동작 특성을 분석하여 동적 오브젝트가 생체인지 미생체인지를 파악할 수 있고, 개체/종도 분류할 수 있다. When a human being or an animal performs a specific operation, each entity can be divided into a high frequency portion and a low frequency portion. Fig. 3 (a) shows the human walking, (b) shows the human running, (c) shows the running of the four-footed animal, and (d) shows the birding. 4 (A) to 4 (C) show distributions in which different characteristics are displayed for different parts of the body according to different human action patterns and different kinds of motions. When you look at these behaviors, most humans and four-footed animals usually use their arms and legs to perform some actions, while birds usually use their wings. On the other hand, dynamic objects, such as automobiles, machines, or natural phenomena, are much different from dynamic motion patterns of humans and animals. Accordingly, the present invention can analyze dynamic behavior of a dynamic object by analyzing inherent operation characteristics of only individual / individual dynamic objects, and can classify objects / sorts.

본 발명에서는 동적 오브젝트의 특징을 추출하기 위해 3D 마스크를 사용한다. 여기서, 3D 마스크를 추출하기 위한 과정은 다음과 같다.In the present invention, a 3D mask is used to extract characteristics of a dynamic object. Here, a process for extracting the 3D mask is as follows.

이를 위해 분석모듈(112)은 센서 디바이스로서(111)로부터 획득된 예를 들면, 깊이 영상을 입력받아 상기 깊이 영상 내의 동적 오브젝트를 모델링한다. 즉, 동적 오브젝트의 3D 바디 모델링을 수행한다.For this, the analysis module 112 receives the depth image, for example, obtained from the sensor device 111, and models the dynamic object in the depth image. That is, 3D body modeling of the dynamic object is performed.

이 과정에서 특징점(feature) 추출 및 변환행렬 계산을 통하여, 깊이 영상의 각 픽셀의 공간 좌표 값들을 바꿀 수 있으며, 해상도 차이는 보간(interpolation) 등의 방법에 의해 해결할 수도 있다.In this process, the spatial coordinate values of each pixel of the depth image can be changed through feature extraction and transformation matrix calculation, and the resolution difference can be solved by interpolation or the like.

상기 3D 바디 모델링은 깊이 영상을 이용하여 3D 실루엣 영상을 추출하는 것이라 할 수 있다. 이를 테면, 깊이 영상의 각 픽셀들에 대하여, 픽셀 세그멘테이션(pixel segmentation)을 수행하여, 입력 깊이 영상을 복수개의 세그먼트로 분할한다. 그리고, 분할된 복수 개의 세그먼트 중 학습 기반의 생체 검출을 통해, 생체인 동적 생체 오브젝트에 해당하는 세그먼트를 검출한다. 3D 실루엣 영상이 생성된 경우, 3D 실루엣 영상에서 생체의 특징적인 신체의 일부를 검출하고, 검출된 신체 부분을 기초로 하여, 예를 들면 rectangle fitting 알고리즘 등의 방법을 이용하여 동적 오브젝트의 절지들 및 관절들의 위치를 계산하고, 계산된 절지들 및 관절들의 위치를 이용하여 동적 오브젝트의 동작패턴, 동작종류, 보이는 방향 및 각도 정보를 추적할 수 있다. 그리고, 추적된 동적 오브젝트에 매칭하는 3D 마스크를 데이터베이스로부터 추출한다. The 3D body modeling is to extract a 3D silhouette image using a depth image. For example, pixel segmentation is performed on each pixel of the depth image to divide the input depth image into a plurality of segments. Then, a segment corresponding to a dynamic bio-object, which is a living body, is detected through learning-based biometric detection among a plurality of segmented segments. When the 3D silhouette image is generated, a part of the characteristic body of the living body is detected from the 3D silhouette image, and based on the detected body part, the arcs of the dynamic object, for example, The position of joints can be calculated, and the motion pattern, motion type, direction of view, and angle information of the dynamic object can be tracked by using calculated arcs and positions of joints. Then, a 3D mask matching the tracked dynamic object is extracted from the database.

이와 같이 추출된 3D 마스크를 사용하여 실제 센서에서 받은 동적 오브젝트의 3D 포인트 클라우드(point cloud)를 분석한다. 이를 위해 분석모듈(112)은 동작 데이터에 매칭하는 3D 마스크를 데이터베이스로부터 추출하고, 추출된 3D 마스크를 시계열 영상의 동적 오브젝트를 커버하도록 오버랩시키며, 3D 마스크에 의해 오버랩된 동적 오브젝트의 적어도 하나의 관절과 절지를 포함하는 3D 포인트 클라우드(point cloud)를 생성하고, 3D 포인트 클라우드를 학습기반으로 분석하여 동적 오브젝트의 생체/미생체 여부를 판단한다.Using the extracted 3D mask, the 3D point cloud of the dynamic object received from the real sensor is analyzed. For this, the analysis module 112 extracts a 3D mask matching the operation data from the database, overlaps the extracted 3D mask to cover the dynamic object of the time-series image, and at least one joint of the overlapped dynamic object And a point cloud including an arthrosis, and analyzing the 3D point cloud as a learning basis to judge whether the living body of the dynamic object is living or non-living.

여기서, 분석모듈(112)은 3D 포인트 클라우드를 학습기반으로 분석하기 위해 3D 마스크에 의해 오버랩된 상기 동적 오브젝트에 대응하는 3D 포인트 클라우드의 공분산 행렬을 구하고, 3D 마스크에 대응하는 프레임의 변화에 따라 3D 포인트 클라우드의 공분산 행렬의 변화를 분석하며, 분석에 따라 3D 포인트 클라우드의 이동 정보를 파악한다.Here, the analysis module 112 obtains the covariance matrix of the 3D point cloud corresponding to the dynamic object overlapped by the 3D mask in order to analyze the 3D point cloud based on the learning, Analyze the change of the covariance matrix of the point cloud and grasp the movement information of the 3D point cloud according to the analysis.

시계열 영상의 프레임의 변화에 따라 공분산 행렬도 변화한다. 특히 팔과 다리의 경우는 전후의 방향으로 반복이동하고 있다. 따라서 공분산 행렬의 변화를 분석하면 이 부분 마스크에 있는 3D 포인트 클라우드는 어떤 방향으로 반복 이동하고 있는지를 알 수 있다. 이를 통해 해당 마스크에 있는 공분산 행렬의 변화 상태로 학습용 데이터를 정의할 수 있다.The covariance matrix changes with the change of the frame of the time series image. Particularly, in the case of arms and legs, it moves repeatedly in the front and back direction. Therefore, by analyzing the change of the covariance matrix, the 3D point cloud in this partial mask can know which direction it is moving repeatedly. In this way, the training data can be defined as the change state of the covariance matrix in the corresponding mask.

인식의 경우 먼저 동적 오브젝트의 이동 방향을 파악해야 한다. 도 9는 로봇이 동적 오브젝트의 이동 방향을 구하는 방법을 설명하기 위한 도면이다. 동적 오브젝트의 이웃하는 2개의 프레임간의 포인트 클라우드의 이동 방향과 로봇(110)의 이동 방향 및 속도 등 요소를 파악하면 계산할 수 있다. 로봇(110)에 탑재된 센서와 동적 오브젝트간의 각도 값을 계산할 수 있다. 센서에서 동적 오브젝트의 포인트 클라우드를 수신할 때는 동적 오브젝트의 모든 면에서 취득하는 것이 아니라, 로봇에서 동적 오브젝트가 보이는 면과, 해당 각도에서 센싱 범위에 존재하는 부분만 취득할 수 있다. 따라서 로봇이 동적 오브젝트를 인식할 때는 보이는 면과 각도에서 추출된 특징의 일부만 사용할 수 있다. 도 6은 3D 마스크를 동적 오브젝트에 오버랩 적용한 일예를 도시한다. 동적 오브젝트의 보이는 해당 각도에 맞는 마스크만 적용하고 몇 프레임의 동작 패턴을 계산하면 이 동적 오브젝트는 생체 오브젝트인지를 인식할 수 있다. 일반적인 자동차 및 기계의 경우 모든 마스크에 있는 공분산 행렬은 거의 변하지 않는다.In the case of recognition, the direction of movement of the dynamic object must first be grasped. FIG. 9 is a diagram for explaining a method of obtaining the moving direction of the dynamic object by the robot. It can be calculated by grasping the moving direction of the point cloud between two neighboring frames of the dynamic object and the moving direction and speed of the robot 110 and the like. The angular value between the sensor mounted on the robot 110 and the dynamic object can be calculated. When a sensor receives a point cloud of a dynamic object, it can acquire only the face in which the dynamic object is seen by the robot and the portion existing in the sensing range at that angle, rather than acquiring it from every face of the dynamic object. Therefore, when the robot recognizes a dynamic object, only a part of the features extracted from the view plane and the angle can be used. FIG. 6 shows an example of overlapping a 3D mask with a dynamic object. If only the mask corresponding to the visible angle of the dynamic object is applied and the motion pattern of several frames is calculated, the dynamic object can recognize whether it is a biological object. For a typical automobile and machine, the covariance matrix in all masks is almost unchanged.

이하, 공분산 행렬을 구하는 방법에 대해 개략적으로 설명하기로 한다. 도 7에 도시된 바와 같이 사람의 걷기 동작에 대해 4개의 마스크를 사용하여 마스크에 대응하는 동적 오브젝트에 대한 포인트 클라우드를 입력받는다. 이때, 포인트 클라우드는 프레임 단위의 시계열 데이터로 받을 수 있다. 두 프레임 간 포인트 클라우드 변화를 하나의 공분산 행렬은 C로 표현할 수 있으며 t0,t1 간의 공분산 행렬은 C1로 표현하기로 한다.Hereinafter, a method of obtaining the covariance matrix will be schematically described. As shown in Fig. 7, the point cloud for the dynamic object corresponding to the mask is input using the four masks for the walking action of the person. At this time, the point cloud can be received as time series data on a frame basis. One covariance matrix can be expressed as C in the point cloud change between two frames, and t 0 , t 1 The covariance matrix between the two is expressed as C 1 .

도 8은 t0, t1 시간에서 하나의 마스크에 대응하는 포인트 클라우드를 도시한다. 각 집합에 있는 포인트 클라우드의 좌표를 (x0i, y0i, z0i), (x1i, y1i, z1i)로 표현한다. 계산할 때 사용하는 좌표의 기준 설정을 위해 마스크의 중심위치를 (0,0,0)로 지정한다.Figure 8 shows a point cloud corresponding to one mask at time t 0 , t 1 . Represent the coordinates of the point clouds in each set as (x0 i, y0 i, z0 i), (x1 i, y1 i, z1 i). Specify the center position of the mask as (0,0,0) for the reference setting of the coordinates used for calculation.

t0, t1 의 좌표 X의 분산 식은 수학식 1과 같다. 분산을 통해서 현재 두 x 간 기하학적 차이를 알 수 있다. 계산을 수행할 때, 양쪽의 데이터 집합이 일치하지 않은 경우에는 대략적인 한 집합의 데이터 수량을 기준으로 남은 집합의 데이터를 랜덤으로 선정한다.The dispersion formula of the coordinate X of t 0 , t 1 is as shown in Equation (1). Through the distribution, we can see the geometric difference between the current two. When performing the calculation, if the data sets on both sides do not match, the data of the remaining sets are randomly selected based on the approximate one set of data quantity.

[수학식 1][Equation 1]

Figure 112017059690023-pat00001
Figure 112017059690023-pat00001

수학식 2에서 사용하는 공분산 행렬은 일반 공분산 행렬과 차이가 있다. 일반적인 공분산 행렬에서는 기하학적 특징을 획득하기 위해 x, y, z축 대응 값 모두의 분산을 필요로 하지만, 본원발명에서는 좌표간의 관련성을 파악하기 위해 모든 데이터간의 관련성을 파악하는 과정이 필요하지 않기 때문에 수학식 2의 수식으로 공분산 행렬을 구한다.The covariance matrix used in Equation (2) differs from the general covariance matrix. In general covariance matrices, it is necessary to distribute both the x, y, and z axis corresponding values in order to obtain the geometric characteristics. However, since the present invention does not require a process of grasping the relation between all the data in order to grasp the relation between the coordinates, The covariance matrix is obtained from the equation of Equation (2).

[수학식 2]&Quot; (2) "

Figure 112017059690023-pat00002
Figure 112017059690023-pat00002

하나의 마스크에 해당하는 시간적 분산 특징은 Mask1={C0, C1 ... Cn - 1}로 표현할 수 있다. 전체의 3D 마스크에 있는 특징은 MaskFeature={Mask1, Mask2, ... Maskn}로 표현한다. 이러한 특징을 기계학습 알고리즘을 통해 학습 및 인식을 수행시킬 수 있다.The temporal distribution characteristic corresponding to one mask is Mask 1 = {C 0 , C 1 ... C n - 1 }. The feature in the entire 3D mask is Mask Feature = {Mask 1 , Mask 2 , ... Mask n }. This feature enables learning and recognition through machine learning algorithms.

HMM(Hidden Markov model) 알고리즘을 수행하는 경우, 시간적 단위를 표현해야 한다. 그러므로 각 마스크에 있는 데이터를 시간 별 특징이 포함된 MaskFeature t={Mask1(Ci), Mask2(Ci), ... Maskn(Ci)}로 표현한다. 프레임 단위의 MaskFeature t안에 있는 모든 마스크는 해당 프레임에서 동일한 Ci 특징값 하나만을 소유한다.When performing HMM (Hidden Markov Model) algorithm, time unit should be expressed. Therefore, the data in each mask is classified into Mask Feature t = {Mask 1 (C i ) Mask 2 (C i ), ... Mask n (C i )}. Frame Mask Feature All masks in t have the same C i Only one feature value is owned.

SVM(support vector machine) 알고리즘을 적용하면 데이터 표현을 그대로 사용할 수 있다. SVM(support vector machine)은 입력 데이터 사이즈를 고정시켜야하므로 동작 하나의 수행 시간 제한을 주어야 한다. 예를 들어, 10프레임 단위를 계산할 때 n=10으로 지정하고, 10 프레임마다 데이터를 수집하면 SVM으로 분류하여 인식할 수 있다.Applying SVM (support vector machine) algorithm can use data representation as it is. The SVM (support vector machine) must fix the input data size, so it should limit the operation time. For example, when 10 frames are calculated, n = 10, and if data is collected every 10 frames, it can be recognized as SVM.

그리고, 분석모듈(112)은 3D 포인트 클라우드 중 복수 개의 절지 및 상기 절지를 이어주는 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 파악하고, Then, the analysis module 112 grasps at least one of a plurality of artefacts in the 3D point cloud and at least one of a position, a length, an angle value and an interlocking relationship of at least one joint connecting the arthrosis,

상기 3D 포인트 클라우드의 복수개의 절지 및 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 다수의 동적 오브젝트마다 개체별/종별로 미리 학습되어 정의된 동작 데이터들과 비교하여, 비교결과 유사한 동작 데이터에 해당하는 개체를 상기 동적 오브젝트로 파악한다.Comparing at least one of a plurality of artefacts of the 3D point cloud and at least one of a position, a length, an angular value and an interlocking relationship of at least one joint with predefined motion data for each of a plurality of dynamic objects, As a result, an object corresponding to similar operation data is recognized as the dynamic object.

도 5는 본 발명의 실시 예에 따른 3D 마스크의 일예를 도시한다. 도 5의 3D 마스크에서 적색 부분은 생체의 움직임의 정도가 임계치 기준 이하인 부분이고, 황색 및 청색부분은 움직임의 정도가 임계치 기준 이상인 부분을 나타낸다.5 shows an example of a 3D mask according to an embodiment of the present invention. In the 3D mask of Fig. 5, the red portion indicates a portion where the degree of movement of the living body is less than or equal to a threshold value, and the yellow and blue portions indicate a portion where the degree of movement is equal to or greater than a threshold.

사람 개체의 걷기 동작에 대한 동적 오브젝트를 분석하면, 큰 움직임이 상체 및 하체 부위에서 관찰되고, 각 상체 및 하체에 대해 전면, 측면, 상면 및 하면에서 보이는 오브젝트에 따라 마스크를 정의한다. 다른 동적 오브젝트의 다른 동작들에 대한 마스크들도 같은 방식으로 측정하여 정의할 수 있다. 사람 개체의 걷기동작에 해당하는 3D 마스크의 경우, 노란색과 녹색 박스에 있는 동작 방향은 대부분 반대이고, Fly mask는 양쪽 박스에 있는 동적 오브젝트의 동작 방향이 동일한 것으로 정의될 수 있다. Swim mask과 Climb mask는 인간과 동물의 동작 방식에 차이가 있다. 이러한 부분을 분별하여 미리 학습기반으로 정보를 저장해둔다. Analyzing the dynamic object for the walking motion of the human object, a large motion is observed in the upper body and lower body parts, and the mask is defined according to the object shown on the front, side, upper face and lower face with respect to each upper body and lower body. Masks for other operations of other dynamic objects can also be measured and defined in the same way. In the case of a 3D mask corresponding to the walking motion of a human object, the motion directions in the yellow and green boxes are mostly opposite, and the fly mask can be defined as the same direction of motion of the dynamic objects in both boxes. Swim masks and climb masks differ in human and animal behavior. These parts are discerned and information is stored in advance based on learning.

이와 같은 3D 마스크는 상기 동적 오브젝트의 움직임의 정도가 임계치를 기준으로 분별된 움직임의 정도에 따라 분리된 다수의 박스 및 상기 다수의 박스를 상기 움직임의 정도에 따라 서로 다른 색상으로 표현하는 세그멘테이션 블록으로 구성된다. The 3D mask includes a plurality of boxes in which the degree of motion of the dynamic object is divided according to the degree of motion that is discriminated on the basis of the threshold, and a segmentation block that expresses the plurality of boxes in different colors according to the degree of motion .

또한, 3D 마스크는 동적 오브젝트가 투시되도록 커버하기 위해 세그멘테이션 블록의 내부는 반투명 또는 투명하며 구비되고, 세그멘테이션 블록의 가장자리는 비투명 또는 반투명의 실선 또는 점선으로 구비된다.Further, the 3D mask is provided in the inside of the segmentation block in a translucent or transparent manner so as to cover the dynamic object to be viewed through, and the edge of the segmentation block is provided with a solid line or a dotted line which is non-transparent or translucent.

이러한 3D 마스크는 각 개체별/종별 동적 생체 오브젝트에 대해 동작패턴 또는 동작종류별로 상기 동적 생체 오브젝트가 보이는 여러 방향 및 각도에 따라 서로 다른 형태로 구비된다. These 3D masks are provided in different forms according to various directions and angles of the dynamic bio-objects according to operation patterns or operation types for each individual / each type of dynamic bio-object.

도 5를 참조하여 설명한 바와 같이 예를 들어, 사람이라는 개체의 동적 생체 오브젝트에 대해 워킹 마스크(a), 클라이밍 마스크(b), 플라이 마스크(c) 및 수영 마스크로 구비되고, 각 동작종류에 대해 전면, 측면(왼편, 오른편), 상면 및 하면 등의 보이는 방향 및 각도에 따라 서로 다른 형태의 3D 마스크가 구비될 수 있다.(A), a climbing mask (b), a fly mask (c), and a swimming mask for each dynamic type of object, for example, as described with reference to Fig. 5, Different types of 3D masks may be provided depending on the viewing direction and angle of the front, side (left, right), top and bottom, and the like.

특히, 본 발명의 3D 마스크는 각종 재난발생, 구조구난 필요 상황의 시뮬레이션을 통해 각 개체/종별로 보이는 방향 및 각도에 따라 동적 오브젝트의 특징을 반영하여 생성된 마스크인 점에 특징이 있다. 즉, 본 발명의 3D 마스크는 다양한 구조구난 상황에서 생물체가 취하는 통상의 동작들을 반영하여 미리 생성되고 데이터베이스에 저장된 마스크들이라 할 수 있다. Particularly, the 3D mask of the present invention is characterized in that it is a mask generated by reflecting characteristics of dynamic objects according to directions and angles of each object / type through simulation of occurrence of various disasters and rescue needed. That is, the 3D mask of the present invention can be said to be masks previously generated and stored in the database in order to reflect the normal actions taken by the organism in various structural rescue situations.

영상편집모듈(113)은 분석모듈(111)에 의해 분석된 동적 오브젝트가 생체로 판단된 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출한다.When the dynamic object analyzed by the analysis module 111 is determined to be living body, the image editing module 113 extracts a partial image corresponding to the dynamic object from the original of the time series image with respect to the surrounding situation.

통신모듈(115)은 분석모듈(111)에 의해 동적 오브젝트가 생체로 판단된 경우, 영상편집모듈(113)에 의해 추출된 동적 오브젝트에 해당하는 부분영상을 사용자 원격장치(130)로 전송한다. The communication module 115 transmits the partial image corresponding to the dynamic object extracted by the image editing module 113 to the user remote device 130 when the analysis module 111 determines that the dynamic object is a living body.

이때, 통신모듈(115)은 사용자 원격장치(130)로 상기 부분영상을 전송 시, GPS 모듈(미도시)을 통해 획득한 동적 오브젝트의 현재 위치 좌표 정보를 함께 전송할 수 있다.At this time, when the partial image is transmitted to the user remote device 130, the communication module 115 may transmit the current position coordinate information of the dynamic object acquired through the GPS module (not shown).

그리고, 통신모듈(115)은 사용자 원격장치(130)로부터 구조구난 명령을 수신한다. 여기서, 구조구난 명령은 로봇에 탑재된 스피커 모듈, 리시버 모듈, 디스플레이, 암(arm), 바퀴 중 적어도 하나를 통해 구조 행위를 실행시키기 위한 명령을 일컫는다.The communication module 115 then receives the rescue relief command from the user remote device 130. Here, the rescue command refers to a command for executing a rescue operation through at least one of a speaker module, a receiver module, a display, an arm, and a wheel mounted on the robot.

스피커 모듈(117)은 상기 사용자 원격장치로부터 수신된 사용자의 음성 가이드를 상기 동적 생체 오브젝트가 인지하도록 출력할 수 있다. 예를 들어, 사용자의 음성 가이드는 재난상황, 위험발생상황에 해당하는 환경으로부터 탈출할 수 있는 방법 및 경로를 실시간으로 알려주는 가이드를 포함할 수 있다.The speaker module 117 may output the voice guidance of the user received from the user remote device so that the dynamic bio object recognizes it. For example, a user's voice guide may include a guide that provides real-time notification of a disaster situation, how it can escape from the environment in which it occurs, and its path.

제어 모듈(118)은 사용자 원격장치로부터 수신된 구조명령에 따라 상기 로봇에 탑재된 스피커, 리시버, 디스플레이, 암(arm), 바퀴 중 적어도 하나를 통해 구조 행위를 실행시킨다. 구체적으로, 제어모듈(118)은 사용자 원격장치(130)로부터 수신된 사용자의 음성 가이드를 상기 동적 생체 오브젝트가 인지하도록 스피커로 출력하거나, 상기 사용자의 문자 가이드를 상기 디스플레이로 출력하거나, 사용자에 의한 동작 명령에 따라 상기 암 및 바퀴 중 적어도 하나를 구동시킬 수 있다.The control module 118 executes a rescue operation through at least one of a speaker, a receiver, a display, an arm, and a wheel mounted on the robot according to a structure command received from a user remote device. Specifically, the control module 118 outputs the voice guidance of the user received from the user remote device 130 to a speaker so that the dynamic bio object recognizes it, or outputs the user's character guide to the display, And at least one of the arm and the wheel may be driven according to an operation command.

사용자 원격장치(130)는 재난 발생 시 구조구난을 위해 구비된 원격 제어 상황실의 장치들을 일컫는다. 사용자 원격장치(130)는 무선통신망을 통해 접속된 로봇(110)으로부터 영상 정보 및 로봇 및/또는 발견된 동적 생체 오브젝트의 위치좌표정보를 수신하여 디스플레이부(131)에 출력하고, 구조요원으로부터 입력받은 음성명령을 무선전송이 가능한 음성명령정보로 생성하여 로봇(110)으로 전송하는 기능을 수행하며, 로봇(110)에 구비된 암(arm), 바퀴, 경광등 중 적어도 하나를 통해 구조 행위를 실행시키는 명령을 전송할 수 있다. 이는 예를 들어, 로봇이 구조 행위를 실행시키기 위한 동작은 사용자 원격장치로부터 수신된 사용자의 음성 가이드를 상기 동적 생체 오브젝트가 인지하도록 스피커로 출력하거나, 상기 사용자의 문자 가이드를 상기 디스플레이로 출력하거나, 사용자에 의한 동작 명령에 따라 상기 암 및 바퀴 중 적어도 하나를 구동시키는 명령일 수 있다.The user remote device 130 refers to devices in the remote control situation room provided for rescue in the event of a disaster. The user remote device 130 receives positional coordinate information of the robot and / or the detected dynamic bio-object from the robot 110 connected via the wireless communication network and outputs the positional coordinate information to the display unit 131, Generates voice command information capable of wireless transmission and transmits the generated voice command information to the robot 110 and executes a structural action through at least one of an arm, a wheel, and a beacon provided in the robot 110 Command can be transmitted. For example, the operation for causing the robot to perform the rescue operation may include outputting a voice guide of the user received from the user remote device to a speaker so that the dynamic living body object recognizes the voice guidance, outputting the user's character guide to the display, And a command to drive at least one of the arm and the wheel according to an operation command by the user.

종래에는 사용자의 원격 조정에 의해 로봇이 주변 환경을 선별 없이 모두 취득한 영상을 사용자 원격장치로 전송하기 때문에 데이터 크기가 커서 전송 시간이 오래 걸리고, 사용자 원격장치에서 수신된 영상을 분석하며 계속 로봇으로 탐색 명령을 보내야하기 때문에 구조하는 데에 데이터 송수신 시간이 차지하는 시간이 큰 문제가 있던 반면,Conventionally, since the robot captures all of the surrounding environment without selecting the surroundings by the remote control of the user, it transmits the image to the user remote device. Therefore, it takes a long time to transmit data because the size of the data is large and the image received from the user remote device is analyzed, There is a problem that the time required for data transmission and reception takes a long time to structure,

본 발명의 실시 예에 따르면, 구조구난이 필요한 주변 환경에 있는 동적 생체 오브젝트를 로봇이 먼저 인식하여 사용자 원격 장치로 확인요청을 보냄으로써, 사고나 사건 발생시 현장에서 생명체를 구조하기 위한 시간을 상당히 단축시킬 수 있을 뿐만 아니라, 동적 생체 오브젝트에 대한 영상만을 추출하여 전송하기 때문에, 데이터 전송량과 전송 시간을 절감할 수 있는 효과가 있다. According to the embodiment of the present invention, the robot recognizes a dynamic bio-object in a surrounding environment requiring a rescue, and sends a confirmation request to the user's remote device, thereby significantly shortening the time for rescuing the creature in the scene in the event of an accident or an event In addition, since only the image for the dynamic bio object is extracted and transmitted, the data transmission amount and the transmission time can be reduced.

이하 도 9 내지 도 11은 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 방법을 설명하기 위한 순서도이다. 각 단계에 대한 세부적인 설명은 앞서 도 1 내지 도 8을 참조하여 설명한 부분과 중복되므로 상세한 기재는 생략하도록 한다.9 to 11 are flowcharts illustrating a method of providing a rescue service using a robot according to an embodiment of the present invention. The detailed description of each step is the same as the one described with reference to FIGS. 1 to 8, so that detailed description will be omitted.

도 9를 참조하여 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 서비스 제공 방법을 설명하자면, 먼저 로봇이 주변상황에 대한 시계열 영상을 획득한다(S510). 이 단계를 위해, 로봇은 시계열 영상의 이웃하는 프레임 간의 분석을 통해 동적 오브젝트를 추정하고, 상기 추정된 동적 오브젝트의 동작패턴, 동작종류, 보이는 방향 및 각도 정보를 추적한다.Referring to FIG. 9, a method for providing a rescue service using a robot according to an embodiment of the present invention will be described. In operation S510, the robot obtains a time-series image of the surrounding environment. For this step, the robot estimates a dynamic object through analysis between neighboring frames of the time-series image, and tracks the motion pattern, motion type, viewing direction, and angle information of the estimated dynamic object.

다음으로, 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득한다(S520).Next, the motion data of the dynamic object is obtained by analyzing the time series image (S520).

다음으로, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여(S530) 상기 동적 오브젝트의 생체/미생체 여부를 판단한다(S540). Next, the set of the operation data obtained according to the time series is analyzed on the basis of learning (S530), and it is determined whether the dynamic object is living or non-living (S540).

이 단계는 도 10에 도시된 바와 같이, 동작 데이터에 매칭하는 3D 마스크를 데이터베이스로부터 추출하는 단계(S531), 상기 추출된 3D 마스크를 상기 시계열 영상의 상기 동적 오브젝트를 커버하도록 오버랩시키는 단계(S532), 상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트의 적어도 하나의 관절과 절지를 포함하는 3D 포인트 클라우드(point cloud)를 생성하는 단계(S533) 및 상기 3D 포인트 클라우드를 학습기반으로 분석하여(S534) 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계(S535)를 포함한다.This step includes extracting a 3D mask matching the operation data from the database (S531), overlapping the extracted 3D mask to cover the dynamic object of the time series image (S532) (S533) a 3D point cloud including at least one joint and artefact of the dynamic object overlapped by the 3D mask, and analyzing the 3D point cloud based on the learning (S534) (S535) of determining whether the living body of the dynamic object is living body or not.

여기서, 3D 포인트 클라우드를 학습기반으로 분석하는 단계(S534)는, 상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트에 대응하는 3D 포인트 클라우드의 공분산 행렬을 구하는 단계(S5341), 상기 3D 마스크에 대응하는 프레임의 변화에 따라 상기 3D 포인트 클라우드의 공분산 행렬의 변화를 분석하는 단계(S5342) 및 상기 분석에 따라 상기 3D 포인트 클라우드의 이동 정보를 파악하는 단계(S5343)를 포함한다.Here, the step (S534) of analyzing the 3D point cloud based on learning may include a step S5341 of obtaining a covariance matrix of the 3D point cloud corresponding to the dynamic object overlapped by the 3D mask (S5341) (S5342) of analyzing the change of the covariance matrix of the 3D point cloud according to the change of the 3D point cloud (S5342) and determining the movement information of the 3D point cloud according to the analysis (S5343).

아울러, 3D 포인트 클라우드를 학습기반으로 분석하여(S534) 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계(S535)는, 상기 3D 포인트 클라우드 중 복수 개의 절지 및 상기 절지를 이어주는 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 파악하는 단계 및  In addition, the step (S535) of analyzing the 3D point cloud as a learning basis (S534) and determining whether the dynamic object is a living body or a living body (S535) may include a step of selecting a plurality of artefacts and at least one joint Determining at least one of position, length, angle value, and interlocking relationship; and

상기 3D 포인트 클라우드의 복수개의 절지 및 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 다수의 동적 오브젝트마다 개체별/종별로 미리 학습되어 정의된 동작 데이터들과 비교하여, 비교결과 유사한 동작 데이터에 해당하는 개체를 상기 동적 오브젝트로 파악하는 단계를 포함할 수 있다.Comparing at least one of a plurality of artefacts of the 3D point cloud and at least one of a position, a length, an angular value and an interlocking relationship of at least one joint with predefined motion data for each of a plurality of dynamic objects, And recognizing, as the dynamic object, an entity corresponding to the resultant similar operation data.

여기서, 3D 마스크는 상기 동적 오브젝트의 움직임의 정도가 임계치를 기준으로 분별된 움직임의 정도에 따라 분리된 다수의 박스 및 상기 다수의 박스를 상기 움직임의 정도에 따라 서로 다른 색상으로 표현하는 세그멘테이션 블록으로 구성된다.Here, the 3D mask includes a plurality of boxes in which the degree of motion of the dynamic object is divided according to the degree of motion that is discriminated on the basis of the threshold, and a segmentation block that expresses the plurality of boxes in different colors according to the degree of motion .

또한, 3D 마스크는 동적 오브젝트가 투시되도록 커버하기 위해 세그멘테이션 블록의 내부는 반투명 또는 투명하며 구비되고, 세그멘테이션 블록의 가장자리는 비투명 또는 반투명의 실선 또는 점선으로 구비된다.Further, the 3D mask is provided in the inside of the segmentation block in a translucent or transparent manner so as to cover the dynamic object to be viewed through, and the edge of the segmentation block is provided with a solid line or a dotted line which is non-transparent or translucent.

이러한 3D 마스크는 각 개체별/종별 동적 생체 오브젝트에 대해 동작패턴 또는 동작종류별로 상기 동적 생체 오브젝트가 보이는 여러 방향 및 각도에 따라 서로 다른 형태로 구비된다. These 3D masks are provided in different forms according to various directions and angles of the dynamic bio-objects according to operation patterns or operation types for each individual / each type of dynamic bio-object.

예를 들어, 사람이라는 개체의 동적 생체 오브젝트에 대해 달리는 동작, 걷는 동작 및 수영 동작 등의 각 동작종류에 대해 전면, 측면(왼편, 오른편), 상면 및 하면 등의 보이는 방향 및 각도에 따라 서로 다른 형태의 3D 마스크가 구비된다.For example, for each type of action, such as running, swinging, and swimming, for a dynamic bio object of an entity such as a person, Type 3D mask is provided.

다음으로, 동적 오브젝트가 생체인 것으로 판단된 경우 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출한다(S550).Next, if it is determined that the dynamic object is a living body, a partial image corresponding to the dynamic object is extracted from an original of the time series image with respect to the surrounding situation (S550).

그리고, 상기 추출된 부분영상을 사용자 원격장치로 전송하며(S560), 다음으로 해당 기능을 수행한다(S570). Then, the extracted partial image is transmitted to the user remote device (S560), and then the corresponding function is performed (S570).

여기서, 사용자 원격장치로 상기 부분영상을 전송 시, GPS 모듈을 통해 획득한 동적 오브젝트의 현재 위치 좌표 정보를 함께 전송할 수 있다.Here, when transmitting the partial image to the user remote device, the current position coordinate information of the dynamic object acquired through the GPS module may be transmitted together.

그리고, 해당 기능 수행 단계(S570)는 사용자 원격장치로부터 구조명령을 수신하고, 상기 구조명령에 따라 상기 로봇에 탑재된 스피커, 디스플레이, 암(arm), 바퀴, 경광등 중 적어도 하나를 통해 구조 행위를 실행시키는 단계를 포함할 수 있다.The function performing step S570 may include receiving a configuration command from the user remote device and transmitting a configuration action through at least one of a speaker, a display, an arm, a wheel, and a beacon mounted on the robot according to the configuration command And executing the program.

예를 들어, 로봇이 구조 행위를 실행시키기 위한 동작은 사용자 원격장치로부터 수신된 사용자의 음성 가이드를 상기 동적 생체 오브젝트가 인지하도록 스피커로 출력하거나, 상기 사용자의 문자 가이드를 상기 디스플레이로 출력하거나, 사용자에 의한 동작 명령에 따라 상기 암 및 바퀴 중 적어도 하나를 구동시키는 것일 수 있다.For example, an operation for causing the robot to perform a rescue operation may include outputting a voice guide of a user received from a user remote device to a speaker so that the dynamic living body object recognizes the voice guide, outputting the user's character guide to the display, And may drive at least one of the arm and the wheel according to an operation command by the control unit.

종래에는 사용자의 원격 조정에 의해 로봇이 주변 환경을 선별 없이 모두 취득한 영상을 사용자 원격장치로 전송하기 때문에 데이터 크기가 커서 전송 시간이 오래 걸리고, 사용자 원격장치에서 수신된 영상을 분석하며 계속 로봇으로 탐색 명령을 보내야하기 때문에 구조하는 데에 데이터 송수신 시간이 차지하는 시간이 큰 문제가 있던 반면,Conventionally, since the robot captures all of the surrounding environment without selecting the surroundings by the remote control of the user, it transmits the image to the user remote device. Therefore, it takes a long time to transmit data because the size of the data is large and the image received from the user remote device is analyzed, There is a problem that the time required for data transmission and reception takes a long time to structure,

본 발명의 실시 예에 따르면, 구조구난이 필요한 주변 환경에 있는 동적 생체 오브젝트를 로봇이 먼저 인식하여 사용자 원격 장치로 확인요청을 보냄으로써, 사고나 사건 발생시 현장에서 생명체를 구조하기 위한 시간을 상당히 단축시킬 수 있을 뿐만 아니라, 동적 생체 오브젝트에 대한 영상만을 추출하여 전송하기 때문에, 데이터 전송량과 전송 시간을 절감할 수 있는 효과가 있다. According to the embodiment of the present invention, the robot recognizes a dynamic bio-object in a surrounding environment requiring a rescue, and sends a confirmation request to the user's remote device, thereby significantly shortening the time for rescuing the creature in the scene in the event of an accident or an event In addition, since only the image for the dynamic bio object is extracted and transmitted, the data transmission amount and the transmission time can be reduced.

이와 같이 본 발명의 실시 예에 따른 로봇을 이용한 구조구난 시스템 및 방법에 의하면, 구조구난이 필요한 악조건의 환경에서 로봇이 동적 생체 오브젝트를 먼저 인식하고, 인식된 동적 생체 오브젝트의 영상을 추출하여 생체에 대해 집약된 정보만 원격 상황실에 전송하여 확인요청을 보냄으로써, 원격 상황실에서는 신속하고 용이하게 생체 오브젝트를 구별하여 구조명령을 즉각적으로 전달함으로써 생명을 원활히 구조할 수 있다. According to the structure retrieval system and method using the robot according to the embodiment of the present invention, the robot recognizes the dynamic living body object first in an environment of a bad condition requiring rescue, extracts the image of the recognized living body body, By sending only the aggregated information to the remote situation room and sending a confirmation request, the remote situation room can quickly and easily distinguish the biological object and instantly deliver the structure order, so that the life can be smoothly rescued.

본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed on various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100: 로봇을 이용한 구조구난 서비스 제공 시스템
110: 로봇 111: 센서 디바이스
112: 분석모듈 113: 영상 편집모듈
114: 학습엔진 115: 통신모듈
117: 스피커모듈 118: 제어모듈
130: 사용자 원격장치 131: 디스플레이부
132: 명령 입력부 133: 통신모듈
100: Rescue service system using robot
110: robot 111: sensor device
112: Analysis module 113: Image editing module
114: learning engine 115: communication module
117: Speaker module 118: Control module
130: User remote device 131:
132: command input unit 133: communication module

Claims (19)

로봇이 주변상황에 대한 시계열 영상을 획득하는 단계;
상기 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하는 단계;
시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계;
상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하는 단계; 및
상기 추출된 부분영상을 사용자 원격장치로 전송하는 단계;를 포함하고,
상기 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하는 단계는,
상기 시계열 영상의 이웃하는 프레임 간의 분석을 통해 동적 오브젝트를 추정하고, 상기 추정된 동적 오브젝트의 동작패턴, 동작종류, 보이는 방향 및 각도 정보를 추적하는, 로봇을 이용한 구조구난 서비스 제공방법.
Obtaining a time-series image of a surrounding situation of the robot;
Analyzing the time series image to obtain motion data of the dynamic object;
Analyzing the set of the operation data acquired according to the time series on a learning basis to determine whether the dynamic object is a living body or a living body;
If the dynamic object is a living body, extracting a partial image corresponding to the dynamic object from an original of the time series image with respect to a surrounding situation; And
And transmitting the extracted partial image to a user remote device,
Analyzing the time series image to obtain motion data of the dynamic object,
And estimating a dynamic object through analysis between neighboring frames of the time series image and tracking an operation pattern, an operation type, a viewing direction, and angle information of the estimated dynamic object.
삭제delete 제 1 항에 있어서,
상기 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계는,
상기 동작 데이터에 매칭하는 3D 마스크를 데이터베이스로부터 추출하는 단계;
상기 추출된 3D 마스크를 상기 시계열 영상의 상기 동적 오브젝트를 커버하도록 오버랩시키는 단계;
상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트의 적어도 하나의 관절과 절지를 포함하는 3D 포인트 클라우드(point cloud)를 생성하는 단계; 및
상기 3D 포인트 클라우드를 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계;를 포함하는, 로봇을 이용하는 구조구난 서비스 제공방법.
The method according to claim 1,
Wherein the step of analyzing the set of operation data obtained according to the time series on a learning basis and determining whether the dynamic object is a living body or a living body comprises:
Extracting a 3D mask matching the operation data from a database;
Overlapping the extracted 3D mask to cover the dynamic object of the time series image;
Creating a 3D point cloud comprising at least one joint and artefact of the dynamic object overlapped by the 3D mask; And
And analyzing the 3D point cloud based on learning to determine whether the dynamic object is a living body or a living body.
제 3 항에 있어서,
상기 3D 포인트 클라우드를 학습기반으로 분석하는 단계는,
상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트에 대응하는 3D 포인트 클라우드의 공분산 행렬을 구하는 단계;
상기 3D 마스크에 대응하는 프레임의 변화에 따라 상기 3D 포인트 클라우드의 공분산 행렬의 변화를 분석하는 단계; 및
상기 분석에 따라 상기 3D 포인트 클라우드의 이동 정보를 파악하는 단계;를 포함하는, 로봇을 이용하는 구조구난 서비스 제공방법.
The method of claim 3,
Analyzing the 3D point cloud based on learning,
Obtaining a covariance matrix of a 3D point cloud corresponding to the dynamic object overlapped by the 3D mask;
Analyzing a change in the covariance matrix of the 3D point cloud according to a change of a frame corresponding to the 3D mask; And
And determining movement information of the 3D point cloud according to the analysis.
제 3 항에 있어서,
상기 3D 포인트 클라우드를 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는 단계는,
상기 3D 포인트 클라우드 중 복수 개의 절지 및 상기 절지를 이어주는 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 파악하는 단계; 및
상기 3D 포인트 클라우드의 복수개의 절지 및 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 다수의 동적 오브젝트마다 개체별/종별로 미리 학습되어 정의된 동작 데이터들과 비교하여, 비교결과 유사한 동작 데이터에 해당하는 개체를 상기 동적 오브젝트로 파악하는 단계를 포함하는, 로봇을 이용한 구조구난 서비스 제공방법.
The method of claim 3,
The step of analyzing the 3D point cloud based on learning and determining whether the dynamic object is a living body or a living body includes:
Determining at least one of a plurality of artefacts in the 3D point cloud and at least one of a position, a length, an angular value, and an interlocking relationship of at least one joint connecting the arthrosis; And
Comparing at least one of a plurality of artefacts of the 3D point cloud and at least one of a position, a length, an angular value and an interlocking relationship of at least one joint with predefined motion data for each of a plurality of dynamic objects, And recognizing the object corresponding to the similar operation data as the dynamic object.
제 5 항에 있어서,
상기 로봇이 다수의 개체별/종별 동적 오브젝트의 3D 포인트 클라우드에 대해 미리 학습하여 데이터베이스에 저장하는 단계를 더 포함하고,
상기 3D 포인트 클라우드에 대해 미리 학습하는 단계는,
상기 로봇이 상기 동적 오브젝트의 개체별/종별로 동작패턴, 동작종류, 보이는 방향 및 각도 중 적어도 하나에 대응하여 동작중인 절지와 관절 간의 움직임의 연동관계, 각도변화를 매칭하여 상기 동적 오브젝트의 개체별/종별 인식을 학습하는, 로봇을 이용한 구조구난 서비스 제공방법.
6. The method of claim 5,
Further comprising the step of the robot learning the 3D point clouds of a plurality of objects / types of dynamic objects in advance and storing them in a database,
Wherein learning in advance for the 3D point cloud comprises:
Wherein the robot matches at least one of an operation pattern, an operation type, a viewing direction, and an angle of the dynamic object of the dynamic object with an interlocking relationship and an angle change of motion between the arthroscope and the joint in operation, A method of providing rescue service using robots that learns class recognition.
제 1 항에 있어서,
상기 추출된 부분영상을 사용자 원격장치로 전송하는 단계 이후,
상기 사용자 원격장치로부터 구조명령을 수신하는 단계; 및
상기 구조명령에 따라 상기 로봇에 탑재된 스피커, 디스플레이, 암(arm), 바퀴, 경광등 중 적어도 하나를 통해 구조 행위를 실행시키는 단계;를 더 포함하는, 로봇을 이용한 구조구난 서비스 제공방법.
The method according to claim 1,
After the step of transmitting the extracted partial image to the user remote device,
Receiving a rescue command from the user remote device; And
And performing a rescue operation through at least one of a speaker, a display, an arm, a wheel, and a beacon mounted on the robot according to the rescue command.
제 7 항에 있어서,
상기 구조 행위를 실행시키는 단계는,
상기 사용자 원격장치로부터 수신된 사용자의 음성 가이드를 상기 동적 생체 오브젝트가 인지하도록 스피커로 출력하거나, 상기 사용자의 문자 가이드를 상기 디스플레이로 출력하거나, 사용자에 의한 동작 명령에 따라 상기 암 및 바퀴 중 적어도 하나를 구동시키는, 로봇을 이용한 구조구난 서비스 제공방법.
8. The method of claim 7,
Wherein the act of performing the structuring action comprises:
And outputting the user's character guide to the display or displaying at least one of the arm and the wheel according to an operation instruction by the user, And providing the rescue service using the robot.
센서 디바이스를 통해 획득한 주변상황에 대한 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하고, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석한 결과, 상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하는 로봇; 및
상기 로봇으로부터 상기 동적 오브젝트에 해당하는 부분영상을 수신하여 디스플레이하고, 사용자로부터 입력받은 구조명령에 따라 상기 로봇을 조종하는 사용자 원격장치;를 포함하고,
상기 로봇은,
상기 시계열 영상을 분석하여 동적 오브젝트의 동작 데이터를 획득하고, 시계열에 따라 획득한 상기 동작 데이터들의 집합을 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하되, 상기 시계열 영상의 이웃하는 프레임 간의 분석을 통해 동적 오브젝트를 추정하고, 상기 추정된 동적 오브젝트의 동작패턴, 동작종류, 보이는 방향 및 각도 정보를 추적하는 분석모듈;을 포함하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
Analyzing a time series image of a surrounding situation acquired through a sensor device to acquire operation data of the dynamic object and analyzing the set of operation data acquired according to the time series on a learning basis, A robot for extracting a partial image corresponding to the dynamic object from an original of the time series image with respect to a surrounding situation; And
And a user remote device receiving and displaying a partial image corresponding to the dynamic object from the robot and controlling the robot according to a structure command received from a user,
The robot includes:
And a controller for analyzing the time series image to acquire operation data of the dynamic object, analyzing the set of the operation data acquired according to the time series on a learning basis to determine whether the dynamic object is a living body or a living body, And an analysis module that estimates a dynamic object through analysis between frames and tracks an operation pattern, an operation type, a viewing direction, and angle information of the estimated dynamic object.
제 9 항에 있어서,
상기 로봇은,
상기 동적 오브젝트가 생체인 경우, 주변상황에 대한 상기 시계열 영상의 원본 중 상기 동적 오브젝트에 해당하는 부분영상을 추출하는 영상편집모듈;
상기 동적 오브젝트의 복수개의 절지 및 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 다수의 동적 오브젝트마다 개체별/종별로 미리 학습하여 정의하는 학습엔진; 및
상기 분석모듈에 의해 상기 동적 오브젝트가 생체로 판단된 경우, 상기 영상편집모듈에 의해 추출된 상기 동적 오브젝트에 해당하는 부분영상을 상기 사용자 원격장치로 전송하는 통신모듈;을 더 포함하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
10. The method of claim 9,
The robot includes:
An image editing module for extracting a partial image corresponding to the dynamic object from an original of the time series image with respect to a surrounding situation when the dynamic object is a living body;
A learning engine for learning and defining at least one of a plurality of artefacts of the dynamic object and at least one of a position, a length, an angular value and an interlocking relationship of at least one joint in advance for each of a plurality of dynamic objects by object / type; And
And a communication module for transmitting a partial image corresponding to the dynamic object extracted by the image editing module to the user remote device when the dynamic object is determined to be living body by the analysis module Rescue service provision system.
삭제delete 제 10 항에 있어서,
상기 분석모듈은,
상기 동작 데이터에 매칭하는 3D 마스크를 데이터베이스로부터 추출하고, 상기 추출된 3D 마스크를 상기 시계열 영상의 상기 동적 오브젝트를 커버하도록 오버랩시키며, 상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트의 적어도 하나의 관절과 절지를 포함하는 3D 포인트 클라우드(point cloud)를 생성하고, 상기 3D 포인트 클라우드를 학습기반으로 분석하여 상기 동적 오브젝트의 생체/미생체 여부를 판단하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
11. The method of claim 10,
Wherein the analysis module comprises:
Extracting from the database a 3D mask that matches the motion data, overlapping the extracted 3D mask to cover the dynamic object of the time series image, interpolating at least one joint of the dynamic object overlapped by the 3D mask, Wherein the 3D point cloud is analyzed based on a learning basis to determine whether the dynamic object is a living body or a living body by using a 3D point cloud.
제 12 항에 있어서,
상기 분석모듈은,
상기 3D 포인트 클라우드를 학습기반으로 분석하기 위해 상기 3D 마스크에 의해 오버랩된 상기 동적 오브젝트에 대응하는 3D 포인트 클라우드의 공분산 행렬을 구하고, 상기 3D 마스크에 대응하는 프레임의 변화에 따라 상기 3D 포인트 클라우드의 공분산 행렬의 변화를 분석하며, 상기 분석에 따라 상기 3D 포인트 클라우드의 이동 정보를 파악하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
13. The method of claim 12,
Wherein the analysis module comprises:
Calculating a covariance matrix of the 3D point cloud corresponding to the dynamic object overlapped by the 3D mask to analyze the 3D point cloud on a learning basis and calculating a covariance matrix of the 3D point cloud according to the change of the frame corresponding to the 3D mask, Analyzing the change of the matrix and grasping the movement information of the 3D point cloud according to the analysis.
제 12 항에 있어서,
상기 분석모듈은,
상기 3D 포인트 클라우드 중 복수 개의 절지 및 상기 절지를 이어주는 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 파악하고,
상기 3D 포인트 클라우드의 복수개의 절지 및 적어도 하나의 관절의 위치, 길이, 각도 수치 및 연동관계 중 적어도 하나를 다수의 동적 오브젝트마다 개체별/종별로 미리 학습되어 정의된 동작 데이터들과 비교하여, 비교결과 유사한 동작 데이터에 해당하는 개체를 상기 동적 오브젝트로 파악하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
13. The method of claim 12,
Wherein the analysis module comprises:
Determining at least one of a plurality of artefacts in the 3D point cloud and at least one of a position, a length, an angle value, and an interlocking relationship of at least one joint connecting the arthrosis;
Comparing at least one of a plurality of artefacts of the 3D point cloud and at least one of a position, a length, an angular value and an interlocking relationship of at least one joint with predefined motion data for each of a plurality of dynamic objects, And obtains an object corresponding to similar operation data as the dynamic object.
제 12 항에 있어서,
상기 3D 마스크는,
상기 동적 오브젝트의 움직임의 정도가 임계치를 기준으로 분별된 움직임의 정도에 따라 분리된 다수의 박스 및 상기 다수의 박스를 상기 움직임의 정도에 따라 서로 다른 색상으로 표현하는 세그멘테이션 블록으로 구성된, 로봇을 이용한 구조구난 서비스 제공 시스템.
13. The method of claim 12,
In the 3D mask,
A plurality of boxes in which the degree of motion of the dynamic object is divided according to a degree of motion separated based on a threshold value and a segmentation block for representing the plurality of boxes in different colors according to the degree of motion, Rescue service provision system.
제 15 항에 있어서,
상기 3D 마스크는,
동적 오브젝트가 투시되도록 커버하기 위해 세그멘테이션 블록의 내부는 반투명 또는 투명하며 구비되고, 세그멘테이션 블록의 가장자리는 비투명 또는 반투명의 실선 또는 점선으로 구비되는, 로봇을 이용한 구조구난 서비스 제공 시스템.
16. The method of claim 15,
In the 3D mask,
Wherein the inside of the segmentation block is semi-transparent or transparent so as to cover the dynamic object to be viewed, and the edge of the segmentation block is provided with a solid or dotted line of non-transparent or translucent.
제 12 항에 있어서,
상기 3D 마스크는,
각종 재난발생, 구조구난 필요 상황의 시뮬레이션을 통해 각 개체/종별로 보이는 방향 및 각도에 따라 동적 오브젝트의 동작들을 반영하여 미리 생성되고, 데이터베이스에 저장된 마스크인, 로봇을 이용한 구조구난 서비스 제공 시스템.
13. The method of claim 12,
In the 3D mask,
Which is generated in advance by reflecting movements of dynamic objects according to directions and angles of each object / species through simulations of various disasters and rescue needed situations, and stored in a database.
제 9 항에 있어서,
상기 로봇은,
상기 사용자 원격장치로부터 수신된 구조명령에 따라 상기 로봇에 탑재된 스피커, 디스플레이, 암(arm), 바퀴 중 적어도 하나를 통해 구조 행위를 실행시키는 제어 모듈;을 더 포함하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
10. The method of claim 9,
The robot includes:
Further comprising a control module for executing a rescue operation through at least one of a speaker, a display, an arm, and wheels mounted on the robot according to a rescue command received from the user remote device, Delivery system.
제 9 항에 있어서,
상기 로봇은 상기 사용자 원격장치로 상기 부분영상 전송 시, GPS를 통해 획득한 상기 동적 오브젝트의 현재 위치 좌표 정보를 함께 전송하는, 로봇을 이용한 구조구난 서비스 제공 시스템.
10. The method of claim 9,
Wherein the robot simultaneously transmits current position coordinate information of the dynamic object obtained through GPS when the partial image is transmitted to the user remote device.
KR1020170078706A 2017-06-21 2017-06-21 Method and system for providing rescue service using robot KR101862545B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170078706A KR101862545B1 (en) 2017-06-21 2017-06-21 Method and system for providing rescue service using robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170078706A KR101862545B1 (en) 2017-06-21 2017-06-21 Method and system for providing rescue service using robot

Publications (1)

Publication Number Publication Date
KR101862545B1 true KR101862545B1 (en) 2018-05-30

Family

ID=62300135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170078706A KR101862545B1 (en) 2017-06-21 2017-06-21 Method and system for providing rescue service using robot

Country Status (1)

Country Link
KR (1) KR101862545B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109018248A (en) * 2018-07-20 2018-12-18 哈尔滨工业大学 A kind of marine salvage system of rope driving in parallel
KR20200047128A (en) * 2018-10-26 2020-05-07 국방과학연구소 Casualties Classification Method, And Rescue Robots for Performing the Method
US11423561B2 (en) * 2018-02-09 2022-08-23 Nippon Telegraph And Telephone Corporation Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423561B2 (en) * 2018-02-09 2022-08-23 Nippon Telegraph And Telephone Corporation Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs
CN109018248A (en) * 2018-07-20 2018-12-18 哈尔滨工业大学 A kind of marine salvage system of rope driving in parallel
CN109018248B (en) * 2018-07-20 2020-07-17 哈尔滨工业大学 Parallel rope-driven marine salvage system
KR20200047128A (en) * 2018-10-26 2020-05-07 국방과학연구소 Casualties Classification Method, And Rescue Robots for Performing the Method
KR102204510B1 (en) * 2018-10-26 2021-01-19 국방과학연구소 Casualties Classification Method, And Rescue Robots for Performing the Method

Similar Documents

Publication Publication Date Title
US8731276B2 (en) Motion space presentation device and motion space presentation method
CN108885469B (en) System and method for initializing a target object in a tracking system
CN109643366A (en) For monitoring the method and system of the situation of vehicle driver
CN108724178B (en) Method and device for autonomous following of specific person, robot, device and storage medium
Tölgyessy et al. The Kinect sensor in robotics education
JP5598751B2 (en) Motion recognition device
CN111695402A (en) Tool and method for labeling human body posture in 3D point cloud data
Derry et al. Automated doorway detection for assistive shared-control wheelchairs
KR101862545B1 (en) Method and system for providing rescue service using robot
CN106960473B (en) behavior perception system and method
US20190102613A1 (en) Posture Estimation System, Posture Estimation Device and Range Image Camera
KR101460313B1 (en) Apparatus and method for robot localization using visual feature and geometric constraints
KR102371127B1 (en) Gesture Recognition Method and Processing System using Skeleton Length Information
CN116259002A (en) Human body dangerous behavior analysis method based on video
CN107618036B (en) Control device, control system, and control method
Lakshan et al. Identifying Objects with Related Angles Using Vision-Based System Integrated with Service Robots
CN117392611A (en) Site safety monitoring method, system, equipment and storage medium
Louie et al. A victim identification methodology for rescue robots operating in cluttered USAR environments
Birk et al. Autonomous rescue operations on the iub rugbot
WO2022004333A1 (en) Information processing device, information processing system, information processing method, and program
Rizvi et al. Human detection and localization in indoor disaster environments using uavs
CN114089364A (en) Integrated sensing system device and implementation method
Luo et al. Tracking with pointing gesture recognition for human-robot interaction
NL2019877B1 (en) Obstacle detection using horizon-based learning
Shneier et al. Performance evaluation methods for human detection and tracking systems for robotic applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant