KR20130002834A - Method for autonomous movement and apparatus thereof - Google Patents

Method for autonomous movement and apparatus thereof Download PDF

Info

Publication number
KR20130002834A
KR20130002834A KR1020110064030A KR20110064030A KR20130002834A KR 20130002834 A KR20130002834 A KR 20130002834A KR 1020110064030 A KR1020110064030 A KR 1020110064030A KR 20110064030 A KR20110064030 A KR 20110064030A KR 20130002834 A KR20130002834 A KR 20130002834A
Authority
KR
South Korea
Prior art keywords
driving
voxel
data
information
map
Prior art date
Application number
KR1020110064030A
Other languages
Korean (ko)
Other versions
KR101700764B1 (en
Inventor
이제훈
산드라 셰이커 디르
박준오
박수범
이중재
김종헌
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110064030A priority Critical patent/KR101700764B1/en
Publication of KR20130002834A publication Critical patent/KR20130002834A/en
Application granted granted Critical
Publication of KR101700764B1 publication Critical patent/KR101700764B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: An autonomous moving method and a device thereof are provided to increase data processing speed by converting 3D distance data into a Voxel shape. CONSTITUTION: 3D distance data and driving information are obtained(S201). The 3D distance data is converted into Voxel shaped data(S202). A driving map is generated based on the Voxel shaped data and the driving information(S203). A driving path is determined based on the driving map(S204). [Reference numerals] (S201) Obtaining 3D distance data and driving information; (S202) Converting the 3D distance data into Voxel shaped data; (S203) Forming a driving map based on the Voxel shaped data and the driving information; (S204) Determining a driving path based on the driving map; (S205) Displaying the driving path

Description

자율 이동 방법 및 그 장치{Method for Autonomous Movement and Apparatus Thereof}Autonomous Movement Method and Apparatus {Method for Autonomous Movement and Apparatus Thereof}

본 명세서는 자율 이동 방법에 관한 것이다.This specification relates to an autonomous movement method.

최근 이륜차, 자가용 및 버스와 같은 차량이 인위적인 조작 없이 자율적으로 주행하도록 하는 기술이 연구되고 있다. 이러한 자율 이동 장치에 있어서, 장치가 도로의 장애물을 추적하면서 이동할 때 카메라를 이용하여 주행 방향에 놓인 장애물에 대한 영상을 인식하고, 인식된 3차원 거리 데이터를 실시간으로 처리하여 주행 경로를 결정하는 것이 중요하다.Recently, techniques for allowing vehicles such as two-wheelers, cars, and buses to autonomously travel without artificial manipulation have been studied. In such an autonomous mobile device, when the device moves while tracking an obstacle on a road, it is necessary to recognize an image of an obstacle placed in a driving direction by using a camera and determine a driving path by processing the recognized 3D distance data in real time. It is important.

장애물을 인식하여 3차원 거리 데이터를 처리하는 방법으로, 장애물의 존재 여부에 따라 1(점유)과 0(비점유)의 값을 갖는 셀의 집합으로 표현하는 점유 격자(occupancy grid) 방법이 있다.As a method of recognizing obstacles and processing three-dimensional distance data, there is an occupancy grid method that represents a set of cells having a value of 1 (occupied) and 0 (unoccupied) according to the existence of an obstacle.

점유 격자 방법을 사용하는 경우, 데이터 정보량이 많기 때문에 오프라인(offline)으로 이를 수행하거나, 또는 3차원 공간에서 하나의 노드를 여덟 개의 노드로 재귀적 분할하여 불필요한 공간상에 존재하는 장애물의 데이터를 제외하고 나머지 데이터만으로 압축하는 옥트리(octree) 기법을 주로 사용하고 있다. If you use the occupied grid method, you can do this offline because of the large amount of data information, or exclude the data of obstacles in unnecessary space by recursively dividing one node into eight nodes in three-dimensional space. The octree technique is mainly used to compress only the remaining data.

그러나 여전히 이러한 방법은 데이터 처리 속도가 느릴 뿐만 아니라, 정면에 터널이 존재하는 경우 터널 전체를 장애물로 인식하여 터널을 통과하는 것이 불가능하게 되는 등 효율적으로 주행 경로를 결정할 수 없다.However, these methods are not only able to process data slowly, but also cannot determine the driving path efficiently, such as when the front tunnel exists, the entire tunnel is recognized as an obstacle and it is impossible to pass through the tunnel.

본 명세서는 자율 이동 장치의 현재 위치 및 주변 지형을 파악하기 위한 3차원 위치 인식 및 지도 생성에 있어서, 센서를 통해 획득된 3차원 거리 데이터를 복셀(Voxel) 형상으로 변환하여 처리함으로써 데이터 처리 속도를 상승시켜 빠른 시간 내에 자율 이동 장치의 3차원 위치를 인식할 수 있도록 하는데 그 목적이 있다.In the present specification, in 3D location recognition and map generation to determine the current location and the topography of the autonomous mobile device, the 3D distance data obtained through the sensor is converted into a voxel shape to process the data processing speed. The object of the present invention is to be able to recognize the three-dimensional position of the autonomous mobile device within a short time by raising.

또한, 본 명세서는 자율 이동 장치의 주행 경로 상에 위치한 장애물의 3차원 거리 데이터를 3차원 세계(3D world)로 재구성하여 장애물을 명확하게 파악하고 주행 경로를 올바르게 결정하는 것이 가능하도록 하는데 그 목적이 있다.In addition, the present specification is to reconstruct the three-dimensional distance data of the obstacle located on the driving path of the autonomous mobile device into a three-dimensional world (3D world) so that it is possible to clearly identify the obstacle and determine the driving path correctly. have.

본 명세서는, 3차원 거리 데이터 및 주행 정보를 획득하는 단계; 상기 3차원 거리 데이터를 복셀(Voxel) 형상의 데이터로 변환하는 단계; 상기 변환된 복셀 형상의 데이터와 상기 주행 정보를 근거로 주행 맵을 생성하는 단계; 및 상기 주행 맵을 근거로 주행 경로를 결정하는 단계를 포함하는 것을 특징으로 한다.The present specification comprises the steps of obtaining three-dimensional distance data and driving information; Converting the three-dimensional distance data into voxel shape data; Generating a driving map based on the converted voxel shape data and the driving information; And determining a driving route based on the driving map.

또한, 상기 주행 경로를 표시하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include displaying the driving route.

또한, 상기 3차원 거리 데이터는, 스테레오 카메라, 깊이 카메라, 이동식 스테레오 카메라 및 라이다 장비 중 적어도 하나 이상을 통해 획득되는 것을 특징으로 한다.The 3D distance data may be obtained through at least one of a stereo camera, a depth camera, a mobile stereo camera, and lidar equipment.

또한, 상기 3차원 거리 데이터는, 장애물의 3차원 영상 데이터, 거리 정보, 이동 정보 중 하나 이상을 근거로 하여 형성되는 것을 특징으로 한다.The three-dimensional distance data may be formed based on at least one of three-dimensional image data of obstacles, distance information, and movement information.

또한, 상기 주행 정보는, 스티어링, 바퀴 속도, 위치 정보, 및 영상 기반 위치 추정 정보 중 하나 이상을 포함하는 것을 특징으로 한다.The driving information may include one or more of steering, wheel speed, position information, and image based position estimation information.

또한, 상기 복셀 형상의 데이터로 변환하는 단계는, 상기 3차원 거리 데이터를 큐브(cube) 형태의 복셀로 분할하는 단계; 상기 복셀 형상의 데이터가 기록될 임의의 화상 공간을 생성하는 단계; 상기 분할된 각각의 복셀에 대하여 점유 테스트를 수행하는 단계; 및 상기 임의의 화상 공간에 상기 점유 테스트 결과를 근거로 상기 각각의 복셀마다 장애물의 존재 여부를 기록하여 상기 복셀 형상의 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.The converting into voxel-shaped data may include: dividing the three-dimensional distance data into a cube-shaped voxel; Generating an arbitrary image space in which the voxel-shaped data is to be recorded; Performing an occupancy test on each of the divided voxels; And recording the presence or absence of an obstacle for each voxel on the basis of the occupancy test result in the arbitrary image space to generate the voxel-shaped data.

또한, 상기 점유 테스트는, 상기 분할된 복셀에 포함되어 있는 점 데이터의 개수를 계산하고, 상기 점 데이터의 개수가 미리 설정된 임계값 이상이면 점유된 복셀로 정의하고, 상기 점 데이터의 개수가 상기 임계값 미만이면 비점유된 복셀로 정의하는 것을 특징으로 한다.The occupancy test calculates the number of point data included in the divided voxels, and defines the occupied voxel if the number of the point data is equal to or greater than a preset threshold value, and the number of the point data is the threshold. If it is less than the value, it is characterized by being defined as an unoccupied voxel.

또한, 상기 주행 맵은, 상기 주행 정보를 근거로 하여, 연속적으로 획득되는 상기 3차원 거리 데이터의 중복된 영역을 제외하고 새롭게 획득된 영역만을 이어붙여 생성되는 것을 특징으로 한다. The driving map may be generated by concatenating only the newly acquired region except for the overlapped region of the 3D distance data which is continuously obtained based on the driving information.

또한, 상기 주행 맵은, 정지 장애물을 포함하는 것을 특징으로 한다.The driving map may include a stop obstacle.

또한, 상기 주행 경로를 표시하는 단계는, 이동 속도, 이동 시간, 목적지 및 방위각을 포함한 정보를 더 표시하는 단계를 포함하는 것을 특징으로 한다. The displaying of the driving route may further include displaying information including a moving speed, a traveling time, a destination, and an azimuth.

또한, 상기 주행 경로는, 페이퍼 지도 형태의 방위 고정 맵 또는 3차원 입체 형상의 맵으로 표시되는 것을 특징으로 한다.In addition, the driving route is characterized by being displayed as a map of a fixed orientation or a three-dimensional solid shape in the form of a paper map.

또한, 본 명세서는, 3차원 거리 데이터 및 주행 정보를 획득하는 센서부; 및 상기 3차원 거리 데이터를 복셀 형상의 데이터로 변환하고, 상기 변환된 복셀 형상의 데이터와 상기 주행 정보를 근거로 주행 맵을 생성하고, 상기 주행 맵을 근거로 주행 경로를 결정하는 제어부를 포함하는 것을 특징으로 한다.In addition, the present specification, the sensor unit for obtaining three-dimensional distance data and driving information; And a controller configured to convert the 3D distance data into voxel-shaped data, generate a driving map based on the converted voxel-shaped data and the driving information, and determine a driving route based on the driving map. It is characterized by.

또한, 상기 주행 경로를 표시하는 출력부를 더 포함하는 것을 특징으로 한다.The apparatus may further include an output unit that displays the driving route.

또한, 상기 3차원 거리 데이터는, 스테레오 카메라, 깊이 카메라, 이동식 스테레오 카메라 및 라이다 장비 중 적어도 하나 이상을 통해 획득되는 것을 특징으로 한다. The 3D distance data may be obtained through at least one of a stereo camera, a depth camera, a mobile stereo camera, and lidar equipment.

또한, 상기 3차원 거리 데이터는, 장애물의 3차원 영상 데이터, 거리 정보, 이동 정보 중 하나 이상을 근거로 하여 형성되는 것을 특징으로 한다.The three-dimensional distance data may be formed based on at least one of three-dimensional image data of obstacles, distance information, and movement information.

또한, 상기 주행 정보는, 스티어링(steering), 바퀴 속도, 위치 정보, 및 영상 기반 위치 추정 정보 중 하나 이상을 포함하는 것을 특징으로 한다.The driving information may include one or more of steering, wheel speed, location information, and image-based location estimation information.

또한, 상기 제어부는, 상기 3차원 거리 데이터를 큐브(cube) 형태의 복셀로 분할하고, 상기 복셀 형상의 데이터가 기록될 임의의 화상 공간을 생성하고, 상기 분할된 각각의 복셀에 대하여 점유 테스트를 수행하고, 상기 임의의 화상 공간에 상기 점유 테스트 결과를 근거로 상기 각각의 복셀마다 장애물의 존재 여부를 기록하여 상기 복셀 형상의 데이터를 생성하는 것을 특징으로 한다.The control unit may further divide the three-dimensional distance data into a cube-shaped voxel, generate an arbitrary image space in which the voxel-shaped data is to be recorded, and perform an occupancy test on each of the divided voxels. And recording the presence or absence of an obstacle for each voxel in the arbitrary image space based on the occupancy test result to generate the voxel-shaped data.

또한, 상기 점유 테스트는, 상기 분할된 복셀에 포함되어 있는 점 데이터의 개수를 계산하고, 상기 점 데이터의 개수가 미리 설정된 임계값 이상이면 점유된 복셀로 정의하고, 상기 점 데이터의 개수가 상기 임계값 미만이면 비점유된 복셀로 정의하는 것을 특징으로 한다.The occupancy test calculates the number of point data included in the divided voxels, and defines the occupied voxel if the number of the point data is equal to or greater than a preset threshold value, and the number of the point data is the threshold. If it is less than the value, it is characterized by being defined as an unoccupied voxel.

또한, 상기 주행 맵은, 상기 주행 정보를 근거로 하여, 연속적으로 획득되는 상기 3차원 거리 데이터의 중복된 영역을 제외하고 새롭게 획득된 영역만을 이어붙여 생성되는 것을 특징으로 한다. The driving map may be generated by concatenating only the newly acquired region except for the overlapped region of the 3D distance data which is continuously obtained based on the driving information.

또한, 상기 주행 맵은, 정지 장애물을 포함하는 것을 특징으로 한다.The driving map may include a stop obstacle.

또한, 상기 출력부는, 이동 속도, 이동 시간, 목적지 및 방위각을 포함한 정보를 더 표시하는 것을 특징으로 한다.The output unit may further display information including a moving speed, a moving time, a destination, and an azimuth.

또한, 상기 주행 경로는, 페이퍼 지도 형태의 방위 고정 맵 또는 3차원 입체 형상의 맵으로 표시되는 것을 특징으로 한다.In addition, the driving route is characterized by being displayed as a map of a fixed orientation or a three-dimensional solid shape in the form of a paper map.

본 명세서에 따르면, 다량의 3차원 거리 데이터를 복셀(Voxel) 기반의 데이터 압축 기술을 활용하여 실시간으로 처리함으로써, 향상된 속도로 이동 장치의 주행 맵을 생성하고 이를 기반으로 3차원 세계를 재구성할 수 있다. According to the present specification, by processing a large amount of three-dimensional distance data in real time using Voxel-based data compression technology, it is possible to generate a driving map of the mobile device at an improved speed and to reconstruct the three-dimensional world based on this have.

또한, 본 명세서에 따르면, 높이만을 갖는 장애물뿐만 아니라 터널, 고가도로와 같은 복합 구조물을 검출할 수 있기 때문에 보다 정확한 주행 경로를 결정할 수 있다.In addition, according to the present specification, not only obstacles having heights but also complex structures such as tunnels and overpasses can be detected, so that a more accurate driving route can be determined.

도 1은 본 명세서의 실시 예에 따른 자율 이동 장치를 나타낸 도면이다.
도 2는 본 명세서의 실시 예에 따른 복셀 기법을 이용한 주행 맵 생성 및 주행 경로 결정 단계를 나타낸 순서도이다.
도 3의 (a)는 3차원 거리 데이터와 변환된 복셀 형상의 데이터를 나타낸 도면이고, 도 3의 (b)는 3차원 거리 데이터를 복셀 형상의 데이터로 변환하는 과정을 나타낸 순서도이다.
도 4는 본 명세서의 실시 예에 따른 주행 맵 생성 단계를 구체적으로 나타낸 도면이다.
도 5는 본 명세서의 실시 예에 따른 주행 경로 결정 단계를 구체적으로 나타낸 도면이다.
1 is a diagram illustrating an autonomous mobile device according to an embodiment of the present disclosure.
2 is a flowchart illustrating a driving map generation and driving route determination step using a voxel technique according to an exemplary embodiment of the present specification.
FIG. 3A is a diagram illustrating 3D distance data and transformed voxel shape data, and FIG. 3B is a flowchart illustrating a process of converting 3D distance data into voxel shape data.
4 is a view showing in detail the driving map generation step according to an embodiment of the present disclosure.
5 is a view showing in detail the driving path determination step according to an embodiment of the present disclosure.

본 명세서에 개시된 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 파일 데이터, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 예도 마찬가지다.The embodiments disclosed herein may be embodied in the form of program instructions that may be executed by various computer means and recorded on a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, file data, data structures, and the like. Program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and examples thereof are the same.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. It is to be noted that the technical terms used herein are merely used to describe particular embodiments, and are not intended to limit the present invention. In addition, the technical terms used herein should be interpreted as meanings generally understood by those of ordinary skill in the art, unless defined otherwise in this specification, and excessively inclusive It should not be interpreted in the sense of or in the sense of being excessively reduced. In addition, when a technical term used in this specification is an erroneous technical term that does not accurately express the concept of the technology disclosed in this specification, it should be understood that technical terms which can be understood by a person skilled in the art are replaced.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or some steps It should be construed that it may not be included or may further include additional components or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Further, the suffix "part" for a component used in the present specification is given or mixed in consideration of ease of specification, and does not have a meaning or role that is different from itself.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. It is to be noted that the attached drawings are only for the purpose of easily understanding the concept of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the attached drawings.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다.
Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings.

도 1은 본 명세서의 실시 예에 따른 자율 이동 장치를 나타낸 도면이다.1 is a diagram illustrating an autonomous mobile device according to an embodiment of the present disclosure.

도 1을 참조하면, 자율 이동 장치(100)는 3D 센서부(110), 센서부(120), GPS 송수신부(130), 제어부(140) 및 출력부(150)를 포함하여 구성될 수 있다.Referring to FIG. 1, the autonomous mobile apparatus 100 may include a 3D sensor unit 110, a sensor unit 120, a GPS transceiver 130, a controller 140, and an output unit 150. .

3D 센서부(110)는 회전체 반사경과 집광 렌즈 및 촬상 소자를 이용하여 전방위, 후방위 및/또는 측방위를 한번에 촬영하는 카메라 시스템으로서, 보안 시설과 감시 카메라, 로봇 비전 등에 응용된다. 회전체 반사경의 형상으로는 쌍곡면이나 구면, 원추형, 복합형 등 다양하다. 또한, 촬상 소자로는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)가 사용된다. 이 촬상 소자의 촬상면에 투영되는 화상(즉 전방위 영상)은 회전체 반사경에 반사된 것이어서 인간이 그대로 관찰하기에는 적합하지 않은 일그러진 화상이다. 따라서 3D 센서부(110)는 화상의 정확한 관찰을 위해 촬상 소자의 출력을 마이크로프로세서 등을 통해 그 좌표를 변환하여 새로운 파노라마 영상을 만들어낸다.The 3D sensor unit 110 is a camera system for capturing the omnidirectional, rearward and / or lateral orientations at once using a rotating reflector, a condenser lens, and an image pickup device, and is applied to a security facility, a surveillance camera, and a robot vision. The shape of the rotor reflector is various, such as a hyperbolic surface, a spherical surface, a cone shape, and a compound type. In addition, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used as the imaging device. The image projected onto the image pickup surface of the image pickup device (i.e., the omnidirectional image) is a distorted image that is reflected by the rotating reflector and is not suitable for human observation. Therefore, the 3D sensor unit 110 generates a new panoramic image by converting the coordinates of the output of the image pickup device through a microprocessor or the like to accurately observe the image.

본 명세서의 실시 예에 따르면, 3D 센서부(110)는 전방위를 3차원적으로 촬영하여 3차원 거리 데이터를 획득하기 위해 스테레오 카메라(stereo camera), 깊이 카메라(depth camera), 이동식 스테레오 카메라(moving stereo camera) 및 라이다(Light Detection and Ranging; LIDAR) 장비 중 하나 이상을 포함하여 구성될 수 있다.According to an embodiment of the present disclosure, the 3D sensor unit 110 is a stereo camera, a depth camera, a moving stereo camera in order to obtain three-dimensional distance data by capturing the omnidirectional three-dimensional distance. stereo camera) and light detection and Ranging (LIDAR) equipment may be configured to include one or more.

스테레오 카메라는 복수의 카메라로 구성되는 영상 장치이다. 3D 센서부(110)를 통해 얻은 전방위 영상은 3D 센서부(110) 주변에 대한 2차원적인 정보를 제공한다. 만약 복수의 카메라를 통해 서로 다른 방향에서 촬영한 복수의 영상을 이용하면 3D 센서부(110) 주변에 대한 3차원적인 정보를 얻을 수 있다. 이와 같은 스테레오 카메라를 자율 이동 장치 또는 이동 로봇의 위치 인식 및 지도 생성에 이용하기도 한다.A stereo camera is an imaging device composed of a plurality of cameras. The omnidirectional image obtained through the 3D sensor unit 110 provides two-dimensional information about the periphery of the 3D sensor unit 110. If a plurality of images taken from different directions through a plurality of cameras is used, three-dimensional information about the 3D sensor unit 110 may be obtained. Such a stereo camera may be used for location recognition and map generation of an autonomous mobile device or a mobile robot.

깊이 카메라는 장애물을 촬영 또는 측정하여 영상과 거리 데이터를 추출하는 카메라이다. 즉, 깊이 카메라는 일반적인 카메라와 같이 장애물을 촬상하여 영상 또는 이미지 데이터를 만들고, 각 영상의 픽셀에 해당하는 실제 위치에서 카메라로부터의 거리를 측정하여 거리 데이터를 만든다.Depth cameras are cameras that capture or measure obstacles to extract images and distance data. That is, the depth camera generates image or image data by capturing obstacles like a general camera, and generates distance data by measuring a distance from the camera at an actual position corresponding to a pixel of each image.

예를 들면, 깊이 카메라로서 3D-TOF 카메라(Camera) 등이 이용될 수 있다. 3D-TOF 카메라는 이름에서 알 수 있듯이 Time of flight 이론에 의해 깊이를 측정하는 카메라이다. 즉, 상기 카메라는 적외선 LED를 이용하여 매우 짧은 펄스(약 20MHz)로 발광시키고, 되돌아오는 위상 시간차를 계산해서 깊이 값을 찾아내는 방식이다. 마치 레이더와 같은 개념이 적용된 카메라이다.For example, a 3D-TOF camera or the like may be used as the depth camera. The 3D-TOF camera, as the name suggests, is a camera that measures depth by time of flight theory. That is, the camera emits light with a very short pulse (about 20 MHz) using an infrared LED, and calculates a return time difference to find a depth value. It's like a radar camera.

깊이 카메라는 사물을 촬영할 때 거리 데이터를 필터링하여 특정 거리 내에 있는 장애물만을 골라낼 수 있다. 즉, 깊이 카메라의 거리 데이터를 이용하여, 근거리 위치(near field)와 원거리 위치(far field)의 장애물은 제외하고, 목표로 하는 특정거리 위치(depth field)에 위치하는 물체들만 골라(segmentation)낼 수 있다.Depth cameras can filter out distance data when capturing objects to pick out only obstacles within a certain distance. That is, by using the distance data of the depth camera, only objects located at a target depth field, except for obstacles in a near field and a far field, can be selected. Can be.

이동식 스테레오 카메라는 스테레오 카메라의 위치가 장애물의 거리에 따라 능동적으로 변하여 관측 장애물에 대한 주시각을 고정시키는 카메라를 말한다. 스테레오 카메라는 일반적으로 두 대의 카메라를 평행하게 배치하고 영상을 획득하며, 획득 영상의 스테레오 시차에 따라 장애물까지의 거리를 계산할 수 있다. 이러한 스테레오 카메라는 광축이 항상 평행하게 배치되어 고정된 형태의 수동적인 카메라이다. 반면, 이동식 스테레오 카메라는 광축의 기하학적 위치를 능동적으로 변화시켜 주시각을 고정시킨다. 이렇게 스테레오 카메라의 주시 각도를 장애물의 거리에 따라 제어하는 것을 주시각 제어라 한다. 주시각 제어 스테레오 카메라는 움직이는 장애물에 대한 스테레오 시차를 항상 일정하게 유지하여 입체 영상 관측자에게 보다 자연스러운 입체 영상을 제공하며 장애물에 대한 거리 측정이나 스테레오 영상 처리에 있어서 유용한 정보를 제공한다.A mobile stereo camera refers to a camera that changes the position of a stereo camera actively according to an obstacle's distance to fix a viewing angle on an observation obstacle. Stereo cameras generally arrange two cameras in parallel and acquire an image, and calculate a distance to an obstacle according to stereo parallax of the acquired image. Such a stereo camera is a passive camera in which the optical axes are always parallel and fixed. Mobile stereo cameras, on the other hand, actively change the geometric position of the optical axis to fix the viewing angle. This control of the viewing angle of the stereo camera according to the distance of the obstacle is called gaze control. The stereoscopic control stereo camera maintains a constant stereo parallax for moving obstacles to provide stereoscopic observers with more natural stereoscopic images and useful information in distance measurement or stereoscopic image processing of obstacles.

라이다(LIDAR) 장비는 자율 이동 장치(100)의 전면에 위치한 장애물의 존재와 거리를 감지하기 위해 구비된다. 라이다 장비는 레이더(Radar)와 동일한 원리를 이용해 사물에 직접적인 접촉 없이 원하는 정보를 취득하는 능동형 원격 탐사(Remote Sensing)의 한 종류다. 라이다 장비는 정보를 취득하고자 하는 목표물에 레이저(Laser)를 쏘아 목표물로부터 반사되어 돌아오는 전자파의 시차와 에너지 변화를 감지해 원하는 거리 정보를 취득한다. Lidar (LIDAR) equipment is provided to detect the presence and distance of the obstacle located in front of the autonomous mobile device (100). Lidar equipment is a type of active remote sensing that uses the same principles as radar to obtain the desired information without direct contact with objects. Lidar equipment shoots a laser on a target to acquire information and detects the parallax and energy change of electromagnetic waves reflected from the target and acquires the desired distance information.

라이다 장비는 측정하고자 하는 목적이나 대상물에 따라 DIAL(DIfferentail Absorption LIDAR), 도플러 라이다(Doppler LIDAR), 거리 측정 라이다(Range finder LIDAR)의 세 종류로 나뉜다. DIAL은 측정하고자 하는 물체에 대한 흡수 정도가 서로 다른 두 개의 레이저를 이용해 대기중의 수증기, 오존, 공해 물질 등의 농도 측정에 활용되고, 도플러 라이다(Doppler LIDAR)는 도플러 원리를 이용해 물체의 이동 속도 측정에 이용된다. 그러나 일반적으로 라이다라고 하면 거리 측정 라이다(Range finder LIDAR)를 지칭하며 이것은 위성 측위 시스템(Global Positioning System; 이하 GPS)과 관성 항법 유도 장치(Inertial Navigation System; 이하 INS), 레이저 스캐너(LASER SCANNER) 시스템을 이용하여 대상물과의 거리 정보를 조합함으로써 3차원 지형 정보를 취득한다.Lidar equipment is divided into three types according to the purpose or object to be measured: DIAL (Differentail Absorption LIDAR), Doppler LIDAR, and Range finder LIDAR. DIAL is used to measure the concentration of water vapor, ozone, and pollutants in the atmosphere by using two lasers with different absorption to the object to be measured.Doppler LIDAR uses the Doppler principle to move objects. Used for speed measurement. In general, however, Lidar refers to Range Finder LIDAR, which is known as the Global Positioning System (GPS), Inertial Navigation System (INS), and Laser Scanner (LASER SCANNER). 3D terrain information is acquired by combining distance information with an object using a system.

자율 이동 장치(100)에 라이다 시스템을 활용하는 경우, GPS, INS, 3차원 레이저 측량 기술, 사진 측량 기술로 구현된 다양한 센서들을 통합하여 자율 이동 장치(100)에 탑재하고, 자율 이동 장치(100)의 운행과 함께 주행 경로에 있는 지형 지물의 위치 측정과 시각 정보를 취득할 수 있도록 구현한다.In the case of utilizing the lidar system in the autonomous mobile device 100, various sensors implemented by GPS, INS, 3D laser surveying technology, and photogrammetry are integrated and mounted on the autonomous mobile device 100, and the autonomous mobile device ( In addition to the operation of 100), it is implemented to acquire the position measurement and visual information of the feature on the driving route.

본 명세서의 실시 예에 따르면, 라이다 장비는 자율 이동 장치(100)의 이동 경로 전면에 위치한 장애물의 존재와 장애물까지의 거리 및 장애물의 이동을 감지하여 3차원 거리 데이터를 획득하고, 획득된 데이터를 제어부(140)로 전송하여 장애물이 없는 공간으로 자율 이동 장치(100)가 이동할 수 있도록 한다.According to an embodiment of the present disclosure, the lidar equipment obtains three-dimensional distance data by detecting the presence of an obstacle located in front of the moving path of the autonomous mobile device 100, the distance to the obstacle, and the movement of the obstacle, and obtained the data. Is transmitted to the controller 140 to allow the autonomous mobile device 100 to move to a space free of obstacles.

또한, 본 명세서의 실시 예에 따르면, 3D 센서부(110)는 상기에 열거한 장비들을 통해 영상 기반 위치 추정 정보(visual odometry)를 획득한다. 위치 추정 정보는 3차원 거리 데이터 획득을 통해 알려진 주변 장애물을 근거로 자율 이동 장치(100)의 현재 위치를 추정하여 획득하는 정보를 말한다. 자율 이동 장치(100)는 위치 추정 정보를 주행 정보로 이용하여, 자율 이동 장치(100)의 주행 경로를 결정할 수 있다.In addition, according to an embodiment of the present disclosure, the 3D sensor unit 110 obtains image-based position estimation information (visual odometry) through the above-listed equipment. The position estimation information refers to information obtained by estimating a current position of the autonomous mobile device 100 based on known obstacles through 3D distance data acquisition. The autonomous mobile apparatus 100 may determine the driving route of the autonomous mobile apparatus 100 using the position estimation information as the driving information.

센서부(120)는 자율 이동 장치(100)의 운동, 온도, 압력 등 자율 이동 장치(100)의 각종 상태 변화를 감지하고, 자율 이동 장치(100)의 주행 정보를 획득한다. 획득된 주행 정보는 제어부(140)를 통해 자율 이동 장치(100)의 운전 조작을 위한 정보로써 처리된다.The sensor unit 120 detects various state changes of the autonomous mobile device 100 such as movement, temperature, and pressure of the autonomous mobile device 100, and obtains driving information of the autonomous mobile device 100. The obtained driving information is processed as information for driving operation of the autonomous mobile device 100 through the control unit 140.

센서부(120)는 스티어링(steering) 감지부(121), 속도 센서(122), 가속 센서(123), 위치 센서(124)를 포함하여 이루어질 수 있다.The sensor unit 120 may include a steering detector 121, a speed sensor 122, an acceleration sensor 123, and a position sensor 124.

스티어링 감지부(121)는 자율 이동 장치(100)의 조향 휠에 연동되어, 회전되는 로터, 로터와 일체로 회전하는 기어, 자력을 발생시키는 자성체의 회전에 의한 위상 변화를 감지하는 감지부, 감지부의 입력을 연산 및 출력하는 연산부 및 연산부를 실장하기 위한 PCB 기판과 하우징을 포함하여 이루어질 수 있으나, 이에 한정되지 않는다. 따라서 스티어링 감지부(121)는 추가적인 구성을 더 포함하거나 일부 구성이 생략된 다양한 조향 휠 각도 감지 장치일 수 있다.The steering detector 121 is interlocked with a steering wheel of the autonomous vehicle 100, a rotor that rotates, a gear that rotates integrally with the rotor, and a detector that detects a phase change due to rotation of a magnetic material generating magnetic force. It may include, but is not limited to, a PCB substrate and a housing for mounting a calculator and a calculator for calculating and outputting a negative input. Therefore, the steering detection unit 121 may be various steering wheel angle detection devices that further include additional components or omit some of the components.

속도 센서(122) 또는 가속 센서(123)는 자율 이동 장치(100)의 바퀴 속도, 자율 이동 장치(100)의 이동 속도 정보 등을 획득하기 위해 자율 이동 장치(100)의 내부 또는 바퀴에 구비된다.The speed sensor 122 or the acceleration sensor 123 is provided inside or on the wheel of the autonomous vehicle 100 to acquire wheel speed of the autonomous vehicle 100, movement speed information of the autonomous vehicle 100, and the like. .

위치 센서(124) 또는 GPS 송수신부(130)는 자율 이동 장치(100)의 위치에 대한 정보를 취득하기 위해 사용된다. 기본적으로 자율 이동 장치(100)는 자기 자신의 움직임에 대한 정보를 얻기 위해 센서를 구비한다. 이러한 센서의 예로는, 위치 센서(124)나 GPS 송수신부(130) 등이 대표적이며, 실외에서 단독으로 사용할 경우 보통 10m 이상의 오차를 갖기 때문에 절대 위치를 얻기 위한 보조적인 정보로만 사용할 수 있다. 따라서 자율 이동 장치(100)는 오차 없는 절대 위치를 파악하기 위한 부가적인 측량 센서를 부착하고, 측량 센서로부터 얻어진 정보를 가공하여 자율 이동 장치(100)의 위치 정보를 예측한다.The position sensor 124 or the GPS transceiver 130 is used to obtain information about the position of the autonomous mobile device 100. Basically, the autonomous mobile device 100 includes a sensor to obtain information about its own movement. An example of such a sensor is the position sensor 124 or the GPS transceiver 130, and when used alone in the open air, it usually has an error of 10 m or more and can be used only as auxiliary information for obtaining an absolute position. Accordingly, the autonomous mobile device 100 attaches an additional survey sensor for identifying an absolute position without error, and processes the information obtained from the survey sensor to predict the location information of the autonomous mobile device 100.

본 명세서의 실시 예에 따르면, 자율 이동 장치(100)는 부가적인 측량 센서로 라이다 장비를 구비할 수 있다.According to an embodiment of the present disclosure, the autonomous mobile device 100 may include lidar equipment as an additional measurement sensor.

위치 센서(124) 또는 GPS 송수신부(130)는 설정 입력 수단의 조작 결과에 따라 마이컴 등으로 실현되는 제어부(140)가 통신 기지국(미도시)을 매개로 하여 현재 위치의 지도 정보를 읽어내도록 지시할 수 있다. 제어부(140)는 액정표시장치 등으로 실현되는 출력부(150)를 구동하여 지도 이미지를 표시할 수 있다. 위치 센서(124) 또는 GPS 송수신부(130)는 통신 기지국과 연결되어 유무선 네트워크 내에 존재하는 다른 이동 장치 또는 자료 관리 컴퓨터로 자율 이동 장치(100)의 위치를 송수신할 수 있다.The position sensor 124 or the GPS transmitting / receiving unit 130 instructs the control unit 140 realized by a microcomputer or the like to read the map information of the current location via a communication base station (not shown) according to the operation result of the setting input unit. can do. The controller 140 may display the map image by driving the output unit 150 realized by a liquid crystal display. The position sensor 124 or the GPS transceiver 130 may be connected to a communication base station to transmit and receive the location of the autonomous mobile device 100 to another mobile device or data management computer existing in the wired / wireless network.

본 명세서의 실시 예에 따르면, 자율 이동 장치(100)는 위치 센서(124) 또는 GPS 송수신부(130)를 통해 자율 이동 장치(100)의 현재 위치를 인지하고, 장애물 감지 결과 결정된 주행 경로로 이동하도록 제어되며, 출력부(150)를 통하여 현재 위치와 결정된 주행 경로를 이미지로 표시할 수 있다.According to an embodiment of the present disclosure, the autonomous mobile device 100 recognizes the current position of the autonomous mobile device 100 through the position sensor 124 or the GPS transceiver 130, and moves to a driving path determined as a result of obstacle detection. It is controlled to, and can display the current position and the determined driving route through the output unit 150 as an image.

제어부(140)는 자율 이동 장치(100)의 각종 구성을 제어하고, 3차원 거리 데이터를 처리하기 위해 3D 센서부(110)와 통신 가능하도록 전기적으로 연결된다. 제어부(140)는 3D 센서부(110)에서 출력된 전기 신호를 영상 신호로 변환하고, 변환된 영상 신호를 통해 구현되는 영상으로부터 3D 센서부(110) 주변의 3차원 주행 맵을 생성한다. 생성된 3차원 주행 맵은 제어부(140)의 제어에 의해 3D 센서부(110)의 위치가 변경될 때마다 갱신된다. 또한, 제어부(140)는 3차원 지도로부터 자율 이동 장치(100)의 현재 위치 및 주변의 지형을 파악하여 위치 제어를 수행한다.The controller 140 is electrically connected to the 3D sensor unit 110 so as to control various configurations of the autonomous mobile device 100 and process the 3D distance data. The controller 140 converts the electrical signal output from the 3D sensor unit 110 into an image signal, and generates a 3D driving map around the 3D sensor unit 110 from an image implemented through the converted image signal. The generated 3D driving map is updated whenever the position of the 3D sensor unit 110 is changed by the control of the controller 140. In addition, the controller 140 grasps the current location of the autonomous mobile device 100 and the topography of the surroundings from the 3D map to perform location control.

본 명세서의 실시 예에 따르면, 제어부(140)는 3D 센서부(110)를 통해 얻어진 3차원 거리 데이터를 복셀(Voxel) 형상으로 영상 처리하고, 처리된 영상을 보간하여 3차원 주행 맵을 생성한다. 이후에 자율 이동 장치(100)는 생성된 주행 맵을 근거로 주행 경로를 결정한다.According to an embodiment of the present disclosure, the controller 140 processes the 3D distance data obtained through the 3D sensor unit 110 into a voxel shape, and generates a 3D driving map by interpolating the processed image. . Thereafter, the autonomous mobile apparatus 100 determines the driving route based on the generated driving map.

복셀을 기반으로 한 영상 처리, 주행 맵 생성 및 주행 경로 결정에 대하여는 하기에서 구체적으로 설명하도록 한다.Image processing, driving map generation, and driving route determination based on voxels will be described in detail below.

제어부(140)는 결정된 주행 경로로 자율 이동 장치(100)가 이동할 수 있도록, 자율 이동 장치(100)의 구동부(미도시)를 제어할 수 있다. 제어부(140)는 자율 이동 장치(100)가 원하는 방향으로 이동하도록 자율 이동 장치(100)의 회전 운동을 제어하거나, 구동부에 포함된 엔진 또는 바퀴 축을 조절하여 전진 또는 후진 운동을 제어할 수 있다. 또한, 제어부(140)는 자율 이동 장치(100)의 주행 중, 결정된 주행 경로에 대한 실제 주행 방향의 오차로 인해 결정 경로에서 벗어나는 경우 경로 오차를 보정하는 제어를 수행할 수 있다.The controller 140 may control a driving unit (not shown) of the autonomous mobile device 100 to move the autonomous mobile device 100 along the determined driving path. The controller 140 may control the forward or backward movement by controlling the rotational movement of the autonomous movement apparatus 100 so that the autonomous movement apparatus 100 moves in a desired direction, or by adjusting the engine or wheel shaft included in the driving unit. In addition, the controller 140 may perform a control for correcting a path error when the autonomous movement device 100 deviates from the determination path due to an error in the actual driving direction with respect to the determined driving path.

출력부(150)는 자율 이동 장치(100)에 임베디드 형태로 고정되어 있거나 탈부착이 가능한 형태로 구비될 수 있다. 또한, 출력부(150)는 제어부(140)의 제어에 의해 결정된 주행 경로를 표시하여 자율 이동 장치(100)의 이동 방향을 예측하는데 사용될 수 있다. The output unit 150 may be fixed to the autonomous mobile device 100 in an embedded form or may be provided in a detachable form. In addition, the output unit 150 may be used to predict the moving direction of the autonomous mobile device 100 by displaying the driving route determined by the control of the controller 140.

출력부(150)는 디스플레이부(151)를 포함하며, 제어부(150)를 통해 결정된 주행 경로를 UI(User Interface) 또는 GUI(Graphic User Interface)를 이용하여 표시한다. 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The output unit 150 includes a display unit 151 and displays the driving route determined by the controller 150 using a user interface (UI) or a graphical user interface (GUI). The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.

추가로, 출력부(150)는 오디오 출력부(152)를 포함할 수 있으며, 이어폰을 연결하는 기능을 수행하는 오디오 잭(153)을 포함할 수 있다. 여기서, 오디오 출력부(152)는 스피커일 수 있다.In addition, the output unit 150 may include an audio output unit 152, and may include an audio jack 153 that performs a function of connecting an earphone. Here, the audio output unit 152 may be a speaker.

출력부(150)는 본 명세서의 실시 예에 따른 주행 경로의 표시 외에 자율 이동 장치(100)의 이동 속도, 이동 시간, 목적지, 방위각 등의 정보를 표시할 수 있다. 주행 경로 등의 표시는 페이퍼 지도(paper map) 형태의 2차원 방위 고정 맵 또는 3차원 입체 형상의 맵을 사용할 수 있다. The output unit 150 may display information such as a moving speed, a moving time, a destination, and an azimuth of the autonomous mobile device 100 in addition to the display of the driving route according to the exemplary embodiment of the present specification. The display of the driving route or the like may use a two-dimensional orientation fixed map in the form of a paper map or a three-dimensional map.

또한, 자율 이동 장치(100)는 필요에 따라 저장부(미도시)를 더 구비할 수 있다. 저장부(미도시)는 각종 메뉴 화면, 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장한다.In addition, the autonomous mobile apparatus 100 may further include a storage unit (not shown) as necessary. The storage unit (not shown) stores various menu screens, various user interfaces (UIs), and / or graphical user interfaces (GUIs).

또한, 상기 저장부는, 3차원 거리 데이터를 복셀 형상의 데이터로 변환하는 데 있어서, 변환 후의 복셀 수를 계산하는데 필요한 수학식을 저장한다.In addition, the storage unit stores the equation required to calculate the number of voxels after the conversion in converting the three-dimensional distance data into voxel-shaped data.

또한, 상기 저장부는, 자율 이동 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit stores data and programs required for the autonomous mobile device 100 to operate.

또한, 상기 저장부는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 자기 메모리, 자기 디스크, 광 디스크 중 적어도 하나의 저장 매체를 포함할 수 있다.The storage unit may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory). Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EPM), Programmable Read-Only Memory (PROM), Random Access Memory (RAM), Static Random Access Memory (SRAM), Magnetic Memory It may include at least one storage medium of a magnetic disk, an optical disk.

상기에서는 일반적인 자율 이동 장치(100)의 구성에 대하여 설명되었으나, 본 명세서의 실시 예가 적용될 수 있는 자율 이동 장치(100)는 상기에 열거된 구성으로 한정되지 않으며, 추가적인 기능부를 더 포함할 수 있으며, 상기에 설명된 기능을 수행하는 데 있어, 열거되지 않은 다른 기능부가 이용될 수 있다.
Although the configuration of the general autonomous mobile device 100 has been described above, the autonomous mobile device 100 to which an embodiment of the present specification can be applied is not limited to the above-listed configuration, and may further include additional functional units. In carrying out the functions described above, other functional units not listed may be used.

도 2는 본 명세서의 실시 예에 따른 복셀 기법을 이용한 주행 맵 생성 및 주행 경로 결정 단계를 나타낸 순서도이다.2 is a flowchart illustrating a driving map generation and driving route determination step using a voxel technique according to an exemplary embodiment of the present specification.

도 2를 참조하면, 먼저 자율 이동 장치(100)는 전방의 3차원 거리 데이터 및 주행 정보를 획득한다(s201).Referring to FIG. 2, first, the autonomous mobile apparatus 100 obtains forward three-dimensional distance data and driving information (S201).

본 명세서의 실시 예에 따르면, 3차원 거리 데이터는 자율 이동 장치(100)에 구비된 3D 센서부(110)를 통해 획득할 수 있다. According to an embodiment of the present disclosure, the 3D distance data may be obtained through the 3D sensor unit 110 provided in the autonomous movement apparatus 100.

또한, 본 명세서의 실시 예에 따르면, 3차원 거리 데이터는 장애물의 3차원 영상 데이터, 거리 정보, 이동 정보 중 하나 이상을 근거로 하여 형성된다.In addition, according to an embodiment of the present disclosure, the 3D distance data is formed based on one or more of the 3D image data, the distance information, and the movement information of the obstacle.

자율 이동 장치(100)는 3D 센서부(110)를 이용하여 이동 경로 전면에 위치한 장애물의 존재와 장애물까지의 거리 및 장애물의 이동을 감지하고, 감지된 3차원 거리 데이터를 제어부(140)로 전송하여 장애물이 없는 공간으로 자율 이동 장치(100)가 이동할 수 있도록 한다.The autonomous mobile apparatus 100 detects the presence of the obstacle located in front of the moving path, the distance to the obstacle and the movement of the obstacle by using the 3D sensor unit 110, and transmits the detected three-dimensional distance data to the controller 140. To allow the autonomous mobile device 100 to move to a space free of obstacles.

또한, 본 명세서의 실시 예에 따르면, 주행 정보는 스티어링(steering), 바퀴 속도, 위치 정보, 및 영상 기반 위치 추정 정보 중 적어도 하나를 포함할 수 있으며, 주행 정보는 자율 이동 장치(100)에 구비된 인터페이스(미도시), 각종 센서(121 내지 124) 또는 GPS 송수신부(130) 등을 통해 획득할 수 있다. In addition, according to an embodiment of the present disclosure, the driving information may include at least one of steering, wheel speed, location information, and image-based location estimation information, and the driving information is provided in the autonomous mobile device 100. It can be obtained through the interface (not shown), various sensors 121 to 124 or the GPS transceiver 130.

상기에서는 주행 정보 중 일부만을 열거하였으나, 이에 한정되지 않고 다양한 주행 정보를 이용하여 주행 경로를 결정하는 데 사용할 수 있으며, 자율 이동 장치(100)는 주행 정보를 획득하기 위해 레이더(Radar) 또는 비디오 카메라와 같은 추가적인 구조, 부품을 포함하여 구성될 수 있다.In the above, only a part of the driving information is enumerated, but the present invention is not limited thereto and may be used to determine a driving route using various driving information. The autonomous mobile apparatus 100 may use a radar or a video camera to obtain driving information. Additional structures, such as can be configured to include parts.

이후에 자율 이동 장치(100)는 3차원 거리 데이터를 복셀(Voxel) 형상으로 변환한다(s202).Afterwards, the autonomous mobile apparatus 100 converts the 3D distance data into a voxel shape (S202).

3D 센서부(110)를 통해 얻어진 데이터는 불규칙한 점 데이터로 이루어져 있으며 이들을 해석하기 위해서는 점의 인접관계를 규정하는 것이 필수적이라 할 수 있다. 점의 인접관계를 규정하는 방법에는 점 데이터를 보간하여 격자 형태로 정의하거나, 정규 격자가 아닌 점 데이터를 직접 처리하는 방법이 있다.The data obtained through the 3D sensor unit 110 is composed of irregular point data, and in order to interpret them, it may be necessary to define an adjacent relationship between the points. The method of defining the adjacency relationship between points includes interpolating point data to define a grid or directly processing point data rather than a regular grid.

본 명세서의 실시 예에 따르면, 자율 이동 장치(100)의 제어부(140)는 3D 센서부(110)를 통해 얻어진 3차원 거리 데이터를 격자 형태인 복셀 형상 데이터로 변환한다. 복셀 변환 단계는 3차원 공간 분할 단계, 화상 공간 생성 단계, 점유 테스트 수행 단계, 3차원 화상 생성 단계로 이루어지며 하기에서 도 3을 바탕으로 구체적으로 설명한다.According to the exemplary embodiment of the present specification, the controller 140 of the autonomous mobile apparatus 100 converts the 3D distance data obtained through the 3D sensor unit 110 into voxel shape data in the form of a lattice. The voxel conversion step includes a three-dimensional space division step, an image space generation step, an occupancy test step, and a three-dimensional image generation step, which will be described in detail with reference to FIG. 3.

그 다음 자율 이동 장치는 복셀(Voxel) 형상으로 변환된 데이터와 주행 정보를 근거로 주행 맵을 생성한다(s203). Next, the autonomous mobile device generates a driving map based on the data and the driving information converted into the voxel shape (S203).

자율 이동 장치(100)에 있어서 주행 맵의 생성은 자율 이동 장치(100) 주위의 장애물의 위치를 적절한 방법으로 기억시키는 작업이다. 주행 맵을 표현하고 저장하는 방법으로는 자율 이동 장치(100)의 주행 영역 중 빈 공간을 위주로 표현하는 방법인 비 공간 맵(free-space map), 주행 영역 내의 장애물을 기하학적인 도형, 즉, 선분이나 다각형의 집합으로 표시하는 방법인 물체 맵(object-oriented map) 및 빈 공간과 물체를 함께 표시할 수 있는 빈 공간-물체 복합 맵(composite-space map) 등이 있다.The generation of the travel map in the autonomous mobile device 100 is an operation of storing the position of the obstacle around the autonomous mobile device 100 in an appropriate manner. As a method of expressing and storing a driving map, a free-space map, which is a method of expressing an empty space mainly of a driving area of the autonomous mobile device 100, a geometric figure, that is, a line segment, of an obstacle in the driving area. Or an object-oriented map, which is a method of displaying a set of polygons, and a composite-space map, in which empty space and objects can be displayed together.

자율 이동 장치(100)의 제어부(104)는 복셀 형상으로 변환된 데이터와 주행 정보를 연속적으로 획득하며 전방에 위치한 장애물과 자율 이동 장치(100)의 이동 방향 감지하여 자율 이동 장치(100)가 나아갈 방향에 대하여 주행 맵을 생성한다. 하기에서 도 4를 바탕으로 주행 맵 생성에 대해 구체적으로 설명한다.The control unit 104 of the autonomous mobile device 100 continuously acquires data and driving information converted into a voxel shape, detects an obstacle located in front of the autonomous mobile device 100, and moves the autonomous mobile device 100 forward. Create a driving map for the direction. Hereinafter, the driving map generation will be described in detail with reference to FIG. 4.

이후에 자율 이동 장치는 주행 맵을 근거로 주행 경로를 결정한다(s204).Thereafter, the autonomous mobile device determines the driving route based on the driving map (S204).

자율 이동 장치(100)는 생성된 주행 맵 상에서 장애물 영역을 제외한 주행 가능 영역을 찾아서 자율 이동 장치(100)의 주행 경로를 결정하여 자율 이동 장치(100)가 장애물이 없는 영역으로 주행할 수 있도록 한다.The autonomous mobile device 100 determines the driving path of the autonomous mobile device 100 by finding a driving possible area excluding the obstacle area on the generated driving map so that the autonomous mobile device 100 can travel to an area free of obstacles. .

또한, 자율 이동 장치는 주행 경로를 표시할 수 있다(s205).In addition, the autonomous mobile device may display a driving route (S205).

주행 경로의 표시는 자율 이동 장치(100)에 구비된 출력부를 통하여 시각적 또는 청각적 형태로 이루어지며, 주행 경로뿐만 아니라 자율 이동 장치(100)의 이동 속도, 이동 시간, 목적지, 방위각 등의 정보를 다양한 UI 또는 GUI 형태로 표시할 수 있다. 주행 경로 등의 표시는 페이퍼 지도(paper map) 형태의 2차원 방위 고정 맵 또는 3차원 입체 형상의 맵을 사용할 수 있다.
The display of the driving route is made in a visual or audio form through the output unit provided in the autonomous vehicle 100, and not only the driving route but also information such as a moving speed, a moving time, a destination, an azimuth angle, etc. of the autonomous vehicle 100. It can be displayed in various UI or GUI forms. The display of the driving route or the like may use a two-dimensional orientation fixed map in the form of a paper map or a three-dimensional map.

이하에서는 도 2에 나타난 각 단계 중 복셀(Voxel) 변환 단계, 주행 맵 생성 단계 및 주행 경로 결정 단계에 대하여 보다 구체적으로 설명한다.
Hereinafter, the voxel conversion step, the driving map generation step, and the driving route determination step among the steps shown in FIG. 2 will be described in more detail.

도 3의 (a)는 3차원 거리 데이터와 변환된 복셀 형상의 데이터를 나타낸 도면이고, 도 3의 (b)는 3차원 거리 데이터를 복셀 형상의 데이터로 변환하는 과정을 나타낸 순서도이다.
FIG. 3A is a diagram illustrating 3D distance data and transformed voxel shape data, and FIG. 3B is a flowchart illustrating a process of converting 3D distance data into voxel shape data.

도 3의 (a)를 참조하면, 복셀 형상 변환에 의하여, 3차원 거리 데이터(311)가 복셀 형상의 데이터(313)로 변환된다.Referring to FIG. 3A, three-dimensional distance data 311 is converted into voxel shape data 313 by voxel shape conversion.

복셀 기반의 기술은 실시간 3차원 영상의 복원을 위해 실루엣 영상을 기반으로 하여 3차원 상의 체적 화소, 즉 복셀 구조를 사용한다. 이는 3차원 복셀 공간상에서 각 복셀들을 2차원 실루엣 영상으로 역투영하여 실루엣 내부에 존재하는 객체 영역은 남겨두고 실루엣이 아닌 영역을 깎아내는 방식으로 3차원 구조를 복원하는 방법이다. 이때, 복셀 큐브의 여덟 개의 꼭짓점을 이미지 평면에 투영시켜 객체 영역 포함 여부를 결정하게 된다. The voxel-based technology uses three-dimensional volumetric pixels, that is, a voxel structure, based on a silhouette image for reconstruction of a real-time three-dimensional image. This is a method of restoring the 3D structure by back-projecting each voxel into a 2D silhouette image in the 3D voxel space, and cutting off the non-silhouette area leaving the object area existing inside the silhouette. At this time, eight vertices of the voxel cube are projected onto the image plane to determine whether the object region is included.

도 3의 (b)를 참조하면, 3차원 거리 데이터(311)를 복셀 형상의 데이터(313)로 변환하는 과정이 나타나 있다. Referring to FIG. 3B, a process of converting 3D distance data 311 into voxel-shaped data 313 is illustrated.

우선, 복셀 형상 변환에 있어서, 자율 이동 장치(100)의 제어부(140)는 3D 센서부(110)를 통해 획득한 3차원 거리 데이터(311)를 일정한 크기의 큐브(cube) 형태의 복수의 복셀(312)로 분할한다(s301). 제어부(140)는 분할을 위해서 먼저, 복셀 형상 변환 후의 복셀 수를 계산한다. 이는 유효 시야 내에서 복셀의 x축, y축 및 z축의 한 변의 길이를 고려한 미리 저장된 수학식에 의해 산출될 수 있다. 제어부(140)는 계산된 복셀 수 및 각 축의 복셀 길이를 근거로 3차원 공간상의 임의의 복셀 중심점으로부터 공간 전체를 큐브 형태로 분할한다.First, in converting a voxel shape, the controller 140 of the autonomous mobile apparatus 100 uses the 3D distance data 311 obtained through the 3D sensor unit 110 to form a plurality of voxels of a cube shape having a predetermined size. The operation is divided into 312 (s301). The controller 140 first calculates the number of voxels after voxel shape conversion for division. This may be calculated by a pre-stored equation considering the length of one side of the v-axis, the y-axis and the z-axis of the voxel within the effective field of view. The controller 140 divides the entire space into a cube form from any voxel center point in the 3D space based on the calculated number of voxels and the voxel length of each axis.

다음으로, 제어부(140)는 임의의 화상 공간을 생성한다(s302). 이 화상 공간은, 3차원 원화상의 각 복셀이 장애물에 의해 점유되어있는지 여부를 나타낸 복셀 형상의 데이터를 기록하기 위한 공간이다. 따라서, 제어부(140)는 화상 공간을 3차원 원화상과 동일한 수의 복셀 형상으로 분할하여, 각각의 복셀이 물체로 점유되었는지 여부를 판단하고 기록할 수 있게 한다.Next, the control unit 140 generates an arbitrary image space (s302). This image space is a space for recording voxel-shaped data indicating whether each voxel of a three-dimensional original image is occupied by an obstacle. Therefore, the controller 140 divides the image space into the same number of voxel shapes as the three-dimensional original image, so that each voxel is occupied by an object and can be recorded.

이후에, 제어부(140)는 분할된 각각의 복셀에 대하여 점유 테스트(Occupancy Testing)를 수행한다(s303). 이는, 각 복셀에 포함되어 있는 점 데이터의 개수를 세는 방법으로 이루어진다. 복셀 공간이 물체로 점유되었는지 여부는 각 복셀에 포함된 점 데이터의 수가 미리 설정된 임계값(예를 들어, 공간의 50%를 차지하는 수치) 이상이면 점유된 복셀(Occupied Voxel)로 정의하고, 임계값 미만이면 비점유된 복셀(Non-Occupied Voxel)로 정의한다. 제어부(140)는 점유된 복셀인 경우, 3차원 공간상에 물체가 존재하는 것으로 판단하고, 비점유 된 복셀인 경우, 물체가 존재하지 않는 것으로 판단한다. 점유 테스트는 모든 복셀에 대하여 수행된다.Thereafter, the controller 140 performs occupancy testing on each of the divided voxels (s303). This is done by counting the number of point data included in each voxel. Whether or not the voxel space is occupied as an object is defined as occupied voxel if the number of point data included in each voxel is greater than or equal to a preset threshold value (for example, a value occupying 50% of the space). If less, it is defined as a non-occupied voxel (Non-Occupied Voxel). The controller 140 determines that an object exists in the 3D space in the case of the occupied voxel, and determines that the object does not exist in the case of the unoccupied voxel. Occupancy tests are performed on all voxels.

마지막으로, 제어부(140)는 점유 테스트한 결과를 근거로 임의의 화상 공간에 각 복셀마다 장애물의 존재 여부를 기록하여 복셀 형상의 데이터(313)를 생성한다(s304). 이는, 공간이 물체에 의해 점유되었다고 판단된 경우, 화상 공간 내의 복셀에 일정한 화소값을 부여하여 점유 여부를 기록하는 방법으로 수행된다. 제어부(140)는 이러한 수행을 모든 복셀에 대해서 수행함으로써, 3차원 거리 데이터를 입방체로 변경한 복셀 형상 데이터를 생성한다.Finally, the controller 140 records the presence or absence of an obstacle for each voxel in an arbitrary image space based on the result of the occupancy test to generate voxel-shaped data 313 (S304). If it is determined that the space is occupied by the object, this is performed by giving a constant pixel value to the voxel in the image space and recording the occupancy. The control unit 140 performs this operation on all voxels, thereby generating voxel shape data in which the three-dimensional distance data is changed into a cube.

상기에서는 3차원 거리 데이터를 복셀 형상의 데이터로 변환하는 기술의 일 예를 들어 설명하였으나, 당업자에게 자명한 것으로 일부 또는 주요하지 않은 사항의 변경, 또는 일부 과정의 생략, 추가가 있더라도 본 명세서에 따른 기술적 사상이 제한되지 않는다.In the above, an example of a technique for converting three-dimensional distance data into voxel-shaped data has been described. However, it will be apparent to those skilled in the art, and even if there are some or no major changes, or some omissions or additions, The technical idea is not limited.

복셀 기반의 3차원 영상 처리는 다량의 3차원 거리 데이터를 압축하여 실시간으로 처리함으로써, 향상된 속도로 이동 장치의 주행 맵을 생성하고 이를 기반으로 3차원 세계를 재구성할 수 있다.
The voxel-based 3D image processing compresses a large amount of 3D distance data in real time, thereby generating a driving map of the mobile device at an improved speed and reconstructing the 3D world based on the same.

도 4는 본 명세서의 실시 예에 따른 주행 맵 생성 단계를 구체적으로 나타낸 도면이다.4 is a view showing in detail the driving map generation step according to an embodiment of the present disclosure.

자율 이동 장치(100)의 제어부(140)는 주행 경로의 전방에 대하여 지속적으로 얻어지는 3차원 거리 데이터를 히스토그램 매칭(histogram matching)하여 시간에 따른 이동 정보를 구할 수 있고, 이러한 과정을 자율 이동 장치(100)의 전체 주행 과정에서 반복하면 자율 이동 장치(100)의 주행 경로와 주행 맵을 동시에 구할 수 있다.The control unit 140 of the autonomous mobile device 100 can obtain histogram matching information over time by continuously histogram matching the three-dimensional distance data obtained continuously in front of the driving route. Repeating in the entire driving process of 100 may simultaneously obtain the driving route and the driving map of the autonomous mobile apparatus 100.

구체적으로, 도 4에 나타난 것처럼, 3차원 거리 데이터는 자율 이동 장치(100)가 주행하면서 연속적으로 획득되고, 각 시점에서 획득할 수 있는 거리 범위는 한정된다. 따라서 3차원 맵을 만들기 위해서는, 각 시점에서 획득된 3차원 데이터 중 중복된 영역을 제외하고 새롭게 획득된 영상만을 이어붙여야 한다. 이때, 자율 이동 장치(100)의 주행 방향, 주행 속도 등을 포함하는 주행 정보를 근거로 하여 정확하게 맵을 이어붙여 나가야 한다. 도 4에서는 건물, 교통 표지판, 신호등 등과 같은 정지 장애물이 표시되지 않았지만 맵 생성에 있어서 이를 포함할 수 있다.Specifically, as shown in FIG. 4, the 3D distance data is continuously obtained while the autonomous mobile apparatus 100 is traveling, and the range of distances that can be obtained at each time point is limited. Therefore, in order to create a 3D map, only newly acquired images should be concatenated, excluding overlapping regions of the 3D data acquired at each viewpoint. At this time, the map must be accurately pasted based on the driving information including the driving direction, the traveling speed, and the like of the autonomous mobile apparatus 100. In FIG. 4, stop obstacles such as buildings, traffic signs, traffic lights, etc. are not displayed, but may include them in map generation.

또한, 본 명세서의 실시 예에 따르면, 주행 맵 생성은 단독으로 진행되지 않고 센서의 정보를 실시간으로 처리하여 3차원 거리 데이터의 변환을 통한 장애물 인식과 동시에 처리할 수 있다. In addition, according to an exemplary embodiment of the present disclosure, the driving map generation may not be performed alone, but may process the information of the sensor in real time and simultaneously process the obstacle recognition through the conversion of the 3D distance data.

또한, 본 명세서의 실시 예에 따르면, 주행 맵 생성은, 자율 이동 장치(100)의 제어부(140)에 의해 수행될 수 있다.
In addition, according to an embodiment of the present disclosure, the generation of the driving map may be performed by the controller 140 of the autonomous mobile apparatus 100.

도 5는 본 명세서의 실시 예에 따른 주행 경로 결정 단계를 구체적으로 나타낸 도면이다.5 is a view showing in detail the driving path determination step according to an embodiment of the present disclosure.

생성된 주행 맵은 자율 이동 장치(100)가 주행할 수 있는 주행 가능 영역(Free space)과 주행에 방해가 되는 장애물 영역으로 구분된다. 따라서 제어부(140)는 주행 맵에서 장애물 영역을 제외한 주행 가능 영역을 찾아서 자율 이동 장치(100)의 주행 경로를 결정할 수 있다.The generated driving map is divided into a free space in which the autonomous mobile device 100 can travel, and an obstacle area that interferes with driving. Therefore, the controller 140 may determine the driving route of the autonomous mobile apparatus 100 by finding a driving possible region excluding the obstacle region in the driving map.

도 5를 참조하면, 제어부(140)는 주행 맵 생성 단계에서 생성된 맵을 기반으로 장애물이 없는 공간을 감지하여 자율 이동 장치(100)가 주행할 수 있도록 구동부(미도시)를 제어한다. 또한, 제어부(140)는 결정된 주행 경로를 표시하도록 출력부(150)를 제어할 수 있고, 그 외에 자율 이동 장치(100)의 이동 속도, 이동 시간, 목적지, 방위각 등의 정보를 표시하도록 출력부(150)를 제어할 수 있다. 주행 경로 등의 표시는 페이퍼 지도(paper map) 형태의 2차원 방위 고정 맵 또는 3차원 입체 형상의 맵을 사용할 수 있다. Referring to FIG. 5, the controller 140 detects a space free of obstacles based on the map generated in the driving map generation step, and controls a driving unit (not shown) so that the autonomous mobile device 100 can travel. In addition, the controller 140 may control the output unit 150 to display the determined driving route, and in addition, the output unit to display information such as a moving speed, a moving time, a destination, and an azimuth angle of the autonomous mobile device 100. 150 may be controlled. The display of the driving route or the like may use a two-dimensional orientation fixed map in the form of a paper map or a three-dimensional map.

본 명세서의 실시 예에 따르면, 복셀 기반으로 생성된 주행 맵에서는 높이만을 갖는 장애물뿐만 아니라, 터널, 고가도로와 같은 복합 구조물을 검출하기 때문에 보다 정확한 주행 경로를 결정할 수 있다.According to an embodiment of the present disclosure, the driving map generated based on the voxel detects not only an obstacle having a height but also a complex structure such as a tunnel and an overpass, so that a more accurate driving path may be determined.

100: 자율 이동 장치
110: 3D 센서부
120: 센서부
130: GPS 송수신부
140: 제어부
150: 출력부
100: autonomous shifter
110: 3D sensor unit
120:
130: GPS transceiver
140:
150: output unit

Claims (22)

3차원 거리 데이터 및 주행 정보를 획득하는 단계;
상기 3차원 거리 데이터를 복셀(Voxel) 형상의 데이터로 변환하는 단계;
상기 변환된 복셀 형상의 데이터와 상기 주행 정보를 근거로 주행 맵을 생성하는 단계; 및
상기 주행 맵을 근거로 주행 경로를 결정하는 단계를 포함하는 것을 특징으로 하는 자율 이동 방법.
Obtaining three-dimensional distance data and driving information;
Converting the three-dimensional distance data into voxel shape data;
Generating a driving map based on the converted voxel shape data and the driving information; And
And determining a driving route based on the driving map.
제1항에 있어서,
상기 주행 경로를 표시하는 단계를 더 포함하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 1,
And displaying the driving route.
제1항 또는 제2항에 있어서, 상기 3차원 거리 데이터는,
스테레오 카메라, 깊이 카메라, 이동식 스테레오 카메라 및 라이다 장비 중 적어도 하나 이상을 통해 획득되는 것을 특징으로 하는 자율 이동 방법.
The method of claim 1 or 2, wherein the three-dimensional distance data,
And at least one of a stereo camera, a depth camera, a mobile stereo camera, and lidar equipment.
제1항 또는 제2항에 있어서, 상기 3차원 거리 데이터는,
장애물의 3차원 영상 데이터, 거리 정보, 이동 정보 중 하나 이상을 근거로 하여 형성되는 것을 특징으로 하는 자율 이동 방법.
The method of claim 1 or 2, wherein the three-dimensional distance data,
The autonomous movement method, characterized in that formed on the basis of one or more of the three-dimensional image data, the distance information, the movement information of the obstacle.
제1항 또는 제2항에 있어서, 상기 주행 정보는,
스티어링(steering), 바퀴 속도, 위치 정보, 및 영상 기반 위치 추정 정보 중 하나 이상을 포함하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 1 or 2, wherein the driving information,
And at least one of steering, wheel speed, position information, and image based position estimation information.
제1항 또는 제2항에 있어서, 상기 복셀 형상의 데이터로 변환하는 단계는,
상기 3차원 거리 데이터를 큐브(cube) 형태의 복셀로 분할하는 단계;
상기 복셀 형상의 데이터가 기록될 임의의 화상 공간을 생성하는 단계;
상기 분할된 각각의 복셀에 대하여 점유 테스트를 수행하는 단계; 및
상기 점유 테스트 결과를 근거로 임의의 화상 공간에 상기 각각의 복셀마다 장애물의 존재 여부를 기록하여 상기 복셀 형상의 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 1 or 2, wherein converting the voxel-shaped data into
Dividing the three-dimensional distance data into a cube-shaped voxel;
Generating an arbitrary image space in which the voxel-shaped data is to be recorded;
Performing an occupancy test on each of the divided voxels; And
And recording the presence or absence of an obstacle for each voxel in an arbitrary image space based on the occupancy test result to generate the voxel-shaped data.
제6에 있어서, 상기 점유 테스트는,
상기 분할된 복셀에 포함되어 있는 점 데이터의 개수를 계산하고, 상기 점 데이터의 개수가 미리 설정된 임계값 이상이면 점유된 복셀로 정의하고, 상기 점 데이터의 개수가 상기 임계값 미만이면 비점유된 복셀로 정의하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 6, wherein the occupancy test,
The number of point data included in the divided voxels is calculated, and if the number of the point data is greater than or equal to a preset threshold, the occupied voxel is defined. If the number of the point data is less than the threshold, the unoccupied voxel is determined. Autonomous movement method, characterized in that defined as.
제1항 또는 제2항에 있어서, 상기 주행 맵은,
상기 주행 정보를 근거로 하여, 연속적으로 획득되는 상기 3차원 거리 데이터의 중복된 영역을 제외하고 새롭게 획득된 영역만을 이어붙여 생성되는 것을 특징으로 하는 자율 이동 방법.
The driving map of claim 1, wherein the driving map comprises:
Based on the driving information, the autonomous movement method is generated by concatenating only the newly acquired area except for the overlapped area of the three-dimensional distance data that is continuously obtained.
제8항에 있어서, 상기 주행 맵은,
정지 장애물을 포함하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 8, wherein the driving map,
Autonomous movement method comprising a stop obstacle.
제2항에 있어서, 상기 주행 경로를 표시하는 단계는,
이동 속도, 이동 시간, 목적지 및 방위각을 포함한 정보를 더 표시하는 단계를 포함하는 것을 특징으로 하는 자율 이동 방법.
The method of claim 2, wherein displaying the driving route comprises:
And further displaying information including movement speed, movement time, destination, and azimuth.
제2항에 있어서, 상기 주행 경로는,
페이퍼 지도 형태의 2차원 방위 고정 맵 또는 3차원 입체 형상의 맵으로 표시되는 것을 특징으로 하는 자율 이동 방법.
The method of claim 2, wherein the driving route,
An autonomous movement method characterized by being displayed as a two-dimensional orientation fixed map or a three-dimensional three-dimensional map in the form of a paper map.
3차원 거리 데이터 및 주행 정보를 획득하는 센서부; 및
상기 3차원 거리 데이터를 복셀 형상의 데이터로 변환하고, 상기 변환된 복셀 형상의 데이터와 상기 주행 정보를 근거로 주행 맵을 생성하고, 상기 주행 맵을 근거로 주행 경로를 결정하는 제어부를 포함하는 것을 특징으로 하는 자율 이동 장치.
A sensor unit for acquiring three-dimensional distance data and driving information; And
And converting the three-dimensional distance data into voxel-shaped data, generating a driving map based on the converted voxel-shaped data and the driving information, and determining a driving route based on the driving map. Autonomous shifting device characterized in that.
제12항에 있어서,
상기 주행 경로를 표시하는 출력부를 더 포함하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12,
And an output unit for displaying the driving route.
제12항 또는 제13항에 있어서, 상기 3차원 거리 데이터는,
스테레오 카메라, 깊이 카메라, 이동식 스테레오 카메라 및 라이다 장비 중 적어도 하나 이상을 통해 획득되는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12 or 13, wherein the three-dimensional distance data,
An autonomous mobile device obtained through at least one of a stereo camera, a depth camera, a mobile stereo camera, and lidar equipment.
제12항 또는 제13항에 있어서, 상기 3차원 거리 데이터는,
장애물의 3차원 영상 데이터, 거리 정보, 이동 정보 중 하나 이상을 근거로 하여 형성되는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12 or 13, wherein the three-dimensional distance data,
The autonomous mobile device, characterized in that formed on the basis of at least one of the three-dimensional image data, the distance information, the movement information of the obstacle.
제12항 또는 제13항에 있어서, 상기 주행 정보는,
스티어링(steering), 바퀴 속도, 위치 정보, 및 영상 기반 위치 추정 정보 중 하나 이상을 포함하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12 or 13, wherein the driving information,
And at least one of steering, wheel speed, position information, and image based position estimation information.
제12항 또는 제13항에 있어서, 상기 제어부는,
상기 3차원 거리 데이터를 큐브(cube) 형태의 복셀로 분할하고, 상기 복셀 형상의 데이터가 기록될 임의의 화상 공간을 생성하고, 상기 분할된 각각의 복셀에 대하여 점유 테스트를 수행하고, 상기 점유 테스트 결과를 근거로 임의의 화상 공간에 상기 각각의 복셀마다 장애물의 존재 여부를 기록하여 상기 복셀 형상의 데이터를 생성하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12 or 13, wherein the control unit,
Divide the three-dimensional distance data into a cube-shaped voxel, generate an arbitrary image space in which the voxel-shaped data is to be recorded, perform an occupancy test on each of the divided voxels, and the occupancy test And the voxel-shaped data is generated by recording the presence or absence of an obstacle for each voxel in an arbitrary image space based on a result.
제17항에 있어서, 상기 점유 테스트는,
상기 분할된 복셀에 포함되어 있는 점 데이터의 개수를 계산하고, 상기 점 데이터의 개수가 미리 설정된 임계값 이상이면 점유된 복셀로 정의하고, 상기 점 데이터의 개수가 상기 임계값 미만이면 비점유된 복셀로 정의하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 17, wherein the occupancy test,
The number of point data included in the divided voxels is calculated, and if the number of the point data is greater than or equal to a preset threshold, the occupied voxel is defined. If the number of the point data is less than the threshold, the unoccupied voxel Autonomous mobile device, characterized in that defined as.
제12항 또는 제13항에 있어서, 상기 주행 맵은,
상기 주행 정보를 근거로 하여, 연속적으로 획득되는 상기 3차원 거리 데이터의 중복된 영역을 제외하고 새롭게 획득된 영역만을 이어붙여 생성되는 것을 특징으로 하는 자율 이동 장치.
The method of claim 12 or 13, wherein the driving map,
Based on the driving information, the autonomous mobile device is generated by concatenating only the newly acquired area except for the overlapped area of the three-dimensional distance data that is continuously obtained.
제19항에 있어서, 상기 주행 맵은,
정지 장애물을 포함하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 19, wherein the driving map,
Autonomous moving device comprising a stationary obstacle.
제13항에 있어서, 상기 출력부는,
이동 속도, 이동 시간, 목적지 및 방위각을 포함한 정보를 더 표시하는 것을 특징으로 하는 자율 이동 장치.
The method of claim 13, wherein the output unit,
An autonomous mobile device further comprising information including a moving speed, a moving time, a destination, and an azimuth.
제13항에 있어서, 상기 주행 경로는,
페이퍼 지도 형태의 2차원 방위 고정 맵 또는 3차원 입체 형상의 맵으로 표시되는 것을 특징으로 하는 자율 이동 장치.
The method of claim 13, wherein the driving route,
An autonomous mobile device characterized by being displayed as a two-dimensional orientation fixed map or a three-dimensional three-dimensional map in the form of a paper map.
KR1020110064030A 2011-06-29 2011-06-29 Method for Autonomous Movement and Apparatus Thereof KR101700764B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110064030A KR101700764B1 (en) 2011-06-29 2011-06-29 Method for Autonomous Movement and Apparatus Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110064030A KR101700764B1 (en) 2011-06-29 2011-06-29 Method for Autonomous Movement and Apparatus Thereof

Publications (2)

Publication Number Publication Date
KR20130002834A true KR20130002834A (en) 2013-01-08
KR101700764B1 KR101700764B1 (en) 2017-01-31

Family

ID=47835338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110064030A KR101700764B1 (en) 2011-06-29 2011-06-29 Method for Autonomous Movement and Apparatus Thereof

Country Status (1)

Country Link
KR (1) KR101700764B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180044486A (en) * 2016-10-21 2018-05-03 네이버 주식회사 Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
KR20180130162A (en) * 2017-05-29 2018-12-07 현대모비스 주식회사 Apparatus for providing advertisement during autonomous driving at autonomous vehicle and method thereof
CN109901574A (en) * 2019-01-28 2019-06-18 华为技术有限公司 Automatic Pilot method and device
WO2019194424A1 (en) * 2018-04-04 2019-10-10 삼성전자주식회사 Electronic device for generating map data and operation method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100955483B1 (en) * 2008-08-12 2010-04-30 삼성전자주식회사 Method of building 3d grid map and method of controlling auto travelling apparatus using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100955483B1 (en) * 2008-08-12 2010-04-30 삼성전자주식회사 Method of building 3d grid map and method of controlling auto travelling apparatus using the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180044486A (en) * 2016-10-21 2018-05-03 네이버 주식회사 Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
KR20180130162A (en) * 2017-05-29 2018-12-07 현대모비스 주식회사 Apparatus for providing advertisement during autonomous driving at autonomous vehicle and method thereof
WO2019194424A1 (en) * 2018-04-04 2019-10-10 삼성전자주식회사 Electronic device for generating map data and operation method thereof
KR20190115982A (en) * 2018-04-04 2019-10-14 삼성전자주식회사 Electronic apparatus and operating method for generating a map data
US11859997B2 (en) 2018-04-04 2024-01-02 Samsung Electronics Co., Ltd. Electronic device for generating map data and operation method thereof
CN109901574A (en) * 2019-01-28 2019-06-18 华为技术有限公司 Automatic Pilot method and device
CN109901574B (en) * 2019-01-28 2021-08-13 华为技术有限公司 Automatic driving method and device

Also Published As

Publication number Publication date
KR101700764B1 (en) 2017-01-31

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
KR101214582B1 (en) Image editing system with increasing understanding of aerial images
CN106993181B (en) More VR/AR equipment collaboration systems and Synergistic method
CN109588060B (en) Method for controlling a sensor and corresponding device, vehicle, system and computer-readable storage medium
EP3137850B1 (en) Method and system for determining a position relative to a digital map
JP2022106924A (en) Device and method for autonomous self-position estimation
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
JP6804991B2 (en) Information processing equipment, information processing methods, and information processing programs
KR20240040132A (en) Methods and systems for generating and using localisation reference data
CN108271408A (en) Use passive and actively measurement generation scene three-dimensional map
JP2017528772A (en) Method and system for generating route data
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
CN116485870A (en) Method and system for tracking mobile devices
KR20130015739A (en) Method for autonomous movement based on driver state and apparatus threof
Broggi et al. Sensors technologies for intelligent vehicles perception systems: A comparison between vision and 3D-LIDAR
CN112068152A (en) Method and system for simultaneous 2D localization and 2D map creation using a 3D scanner
JP7148229B2 (en) METHOD FOR CREATING VERTICAL SECTION OF THREE-DIMENSIONAL POINT CLOUD DATA, SURVEY DATA PROCESSING DEVICE, AND SURVEY SYSTEM FOR THE SAME
CN108629842B (en) Unmanned equipment motion information providing and motion control method and equipment
KR101700764B1 (en) Method for Autonomous Movement and Apparatus Thereof
CN108450032B (en) Flight control method and device
KR101319526B1 (en) Method for providing location information of target using mobile robot
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
KR101356172B1 (en) Apparatus and method for producing three-dimensional image for remote control
Chen et al. Panoramic epipolar image generation for mobile mapping system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant