KR20170084966A - Local Positioning System - Google Patents

Local Positioning System Download PDF

Info

Publication number
KR20170084966A
KR20170084966A KR1020160004468A KR20160004468A KR20170084966A KR 20170084966 A KR20170084966 A KR 20170084966A KR 1020160004468 A KR1020160004468 A KR 1020160004468A KR 20160004468 A KR20160004468 A KR 20160004468A KR 20170084966 A KR20170084966 A KR 20170084966A
Authority
KR
South Korea
Prior art keywords
laser
module
optical
image
camera module
Prior art date
Application number
KR1020160004468A
Other languages
Korean (ko)
Inventor
신상철
Original Assignee
주식회사 이지시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이지시스 filed Critical 주식회사 이지시스
Priority to KR1020160004468A priority Critical patent/KR20170084966A/en
Publication of KR20170084966A publication Critical patent/KR20170084966A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • H04N5/225
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

무인비행체 즉 드론의 상용화가 임박해 지면서, 드론의 자기 위치 인식에 대한 기술 수요도 크게 증가 하고 있다.
일반적인 외부 환경에서는 GPS를 이용하여 위치를 인식하지만 이를 이용한 인식 정밀도는 수 미터 정도의 정밀도이며 건물에 의한 가림이 발생하거나, 건물 내의 환경에서는 GPS를 사용할 수 없다.
이러한 문제를 해결하기 위해서 국소지역 위치 인식 시스템 즉 LPS가 필요하다. 종래의 LPS는 가장 일반적으로는 특정 고정 위치에 GPS의 인공위성에 해당하는 신호발생장치를 3개 이상 설치하고 이 신호발생장치에서 수신되는 신호를 분석하여 위치를 인식한다. 따라서 종래의 방식에서는 사전에 신호발생장치가 설치되어 있는 않은 지역에서는 사용이 불가능한 단점이 있다.
본 발명에서는 외부의 신호발생장치를 사용하지 않고, 거리 검출 센서와 카메라가 조합된 센서 모듈이 고정된 3개의 위치를 측정하여 자기 위치와 자세를 인식한다.
또 한 본 발명의 위치 인식 시스템을 이용하여 3D 영상을 낮은 CPU 부하로 구현하는 방법을 제시한다
As the commercialization of unmanned aerial vehicles such as drones is imminent, the demand for technology for the recognition of the drones' self position is greatly increasing.
In a typical external environment, the position is recognized using GPS, but the recognition precision using this is about a few meters in accuracy, and can not be used in a building environment or in a building environment.
To solve this problem, a local area localization system (LPS) is required. In the conventional LPS, at least three signal generators corresponding to the GPS satellites are installed in a specific fixed position, and the signal received by the signal generator is analyzed to recognize the position. Therefore, the conventional method has a disadvantage that it can not be used in a region where the signal generating device is not installed in advance.
In the present invention, the sensor module in which the distance detection sensor and the camera are combined, without using an external signal generating device, measures the three fixed positions and recognizes the self position and the posture.
In addition, a method of implementing a 3D image with a low CPU load using the position recognition system of the present invention is proposed

Description

국소위치인식시스템{Local Positioning System}[0001] The present invention relates to a local positioning system,

본 발명은 국소 영역에서의 위치와 자세 변화를 인식하는 장치와 이를 이용한 3차원 영상 촬영에 관한 것이다.The present invention relates to an apparatus for recognizing a change in position and orientation in a local region, and to a three-dimensional imaging using the same.

무인비행체 즉 드론의 상용화가 임박해 지면서, 드론의 자기 위치 인식에 대한 기술 수요도 크게 증가하고 있다.As the commercialization of unmanned aerial vehicles such as drones is imminent, the demand for technology for the recognition of the drones' self position is greatly increasing.

일반적인 외부 환경에서는 GPS를 이용하여 위치를 인식하지만 이를 이용한 인식 정밀도는 수 미터 정도의 정밀도이며 건물에 의한 가림이 발생하거나, 건물 내의 환경에서는 GPS를 사용할 수 없다.In a typical external environment, the position is recognized using GPS, but the recognition precision using this is about a few meters in accuracy, and can not be used in a building environment or in a building environment.

이러한 문제를 해결하기 위해서 국소지역 위치 인식 시스템 즉 LPS가 필요하다. 종래의 LPS는 가장 일반적으로는 특정 고정 위치에 GPS의 인공위성에 해당하는 신호발생장치를 3개 이상 설치하고 이 신호발생장치에서 수신되는 신호를 분석하여 위치를 인식한다. 따라서 종래의 방식에서는 사전에 신호발생장치가 설치되어 있지 않은 지역에서는 사용이 불가능한 단점이 있다.To solve this problem, a local area localization system (LPS) is required. In the conventional LPS, at least three signal generators corresponding to the GPS satellites are installed in a specific fixed position, and the signal received by the signal generator is analyzed to recognize the position. Therefore, in the conventional method, there is a disadvantage that it can not be used in an area where the signal generating device is not installed in advance.

본 발명에서는 이러한 종래의 문제를 해결하여 별도의 신호발생장치의 설치 없이 기기 자체 발생신호에 의해 기기의 위치와 자세를 인식하는 방법을 제공한다. 또한 기기의 위치 인식 방식을 이용하여 3차원 영상을 촬영하는 방법을 게재한다.The present invention solves such a conventional problem and provides a method of recognizing the position and attitude of the device by the device self-generated signal without installing a separate signal generating device. In addition, a method of photographing a three-dimensional image using the position recognition method of the device is presented.

본 발명은 무인항공체 등이 국소 영역에서 자기 위치와 자세 변화를 인식하는 방법에 있어 사전에 설치된 신호발생장치가 있어야 하는 문제를 해결하여, 자체 센서 만으로 자기 위치와 자세 변화를 인식하여 기기의 활용성을 향상시키는데 목적이 있다. 또한 위치 및 자세 인식을 통해 작은 CPU 부하로 기기 주변의 3차원 영상을 형성하는 방법을 제공한다.The present invention solves the problem that a unmanned aerial vehicle or the like recognizes a change in position and attitude in a local area, requires a pre-installed signal generator, recognizes its own position and attitude change using its own sensor, There is a purpose to improve sex. Also, it provides a method of forming a three-dimensional image around a device with a small CPU load through position and orientation recognition.

본 발명에서는 종래의 국소위치인식 방식이 신호발생장치가 설치된 지역에서만 작동하는 문제를 해결하기 위하여 거리인식센서와 카메라가 조합된 지향성거리측정센서를 복수 개 사용한다. 본 발명의 지향성거리측정센서는 센서를 탑재하고 있는 기기의 위치가 변하여도 고정된 특정점에 대한 거리 측정이 가능하게 한다. 상기 지향성거리측정센서를 3개 이상 기기가 조립된 본 발명의 국소위치인식모듈은 모듈을 탑재한 기기의 위치 변화에도 고정된 3점의 위치를 계측함으로 삼각측점에 의해 변화위치를 인식할 수 있다. 또한 본 발명에서는 인접한 두 위치에서 기기에 장착된 카메라로 영상을 촬영하고 상기 국소위치인식모듈을 이용하여 촬영 상대 좌표를 계산하는 방식으로 기기 주변의 3차원 영상을 구성한다.In the present invention, a plurality of directional distance measuring sensors combined with a distance recognizing sensor and a camera are used to solve the problem that the conventional local position recognizing method operates only in an area where the signal generating device is installed. The directional distance measuring sensor of the present invention enables the distance measurement to a fixed specific point even if the position of the device on which the sensor is mounted changes. The local position recognition module of the present invention in which the above-mentioned directional distance measuring sensor is assembled with three or more devices can detect the change position by measuring the positions of three fixed points even when the position of the device equipped with the module is changed . Also, in the present invention, a three-dimensional image around the device is formed by capturing an image with a camera mounted on the device at two adjacent positions and calculating coordinates of the photographing relative using the local position recognition module.

본 발명에 따라 대량 시장이 예상되는 무인항공기 시장에서 무인항공기 배송 시 건물내에서의 위치 제어와 무인 항공기를 이용한 3차원 영상 품질을 향상시켜, 무인 항공기 시장의 성장에 기여 한다 According to the present invention, in the unmanned airplane market where the mass market is anticipated, it improves the position control in the building and the three-dimensional image quality using the unmanned airplane when delivering the unmanned airplane, thereby contributing to the growth of the unmanned airplane market

도 1은 종래의 위성항법시스템의 작동예시이다
도 2는 종래의 국소위치인식시스템의 예시이다.
도 3은 본 발명의 국소위치인식시스템 예시이다.
도 4는 본 발명의 지향성거리센서 외관 예시이다.
도 5는 본 발명의 센서 모듈 구조 예시이다.
도 6은 광편향소자 작동 예시이다.
도 7은 본 발명의 지향성거리센서의 광경로 예시이다.
도 8은 본 발명의 지향성거리센서의 초기 위치에서의 거리측정 예시이다.
도 9는 본 발명의 지향성거리센서의 이동 위치에서의 거리측정 예시이다.
도 10은 본 발명의 지향성거리센서를 이용한 국소위치인식모듈 외관 예시이다
도 11은 본 발명의 국소위치인식모듈 구조 예시이다
도 12는 본 발명의 국소위치인식모듈을 이용한 두 점간 위치 인식 예시이다.
도 13은 본 발명의 국소위치인식모듈을 이용한 연속위치인식 예시이다.
도 14는 본 발명의 국소위치인식모듈을 이요한 3D 영상 촬영 예시이다.
1 is an operational example of a conventional satellite navigation system
2 is an illustration of a conventional localized position recognition system.
3 is an illustration of a local localization system of the present invention.
Figure 4 is an illustration of the directional distance sensor appearance of the present invention.
5 is an example of the structure of the sensor module of the present invention.
6 is an example of operation of the optical deflecting element.
7 is an optical path example of the directional distance sensor of the present invention.
8 is an illustration of distance measurement at the initial position of the directional distance sensor of the present invention.
9 is an illustration of distance measurement in the moving position of the directional distance sensor of the present invention.
10 is an illustration of the appearance of the local position recognition module using the directional distance sensor of the present invention
11 is an illustration of the structure of the local position recognition module of the present invention
12 is an illustration of recognition of a position between two points using the local position recognition module of the present invention.
13 is an example of continuous position recognition using the local position recognition module of the present invention.
FIG. 14 is an example of 3D image capturing using the local position recognition module of the present invention.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 종래의 위성항법시스템에 의한 무인항공기의 비행을 예시한다. 무인항공기는 3개 이상의 인공위성에서 발사하는 시간정보를 수신하여, 이 정보를 통해 무인항공기와 각각의 인공위성과의 거리를 측정하고 이를 통해 무인항공체의 위치를 인식한다. 이러한 무인항공체의 위치 인식 방식은 이 업종에 종사자에게 공히 알려져 있으며, 모듈화된 제품으로도 이용이 가능하다.Figure 1 illustrates a flight of a UAV by a conventional satellite navigation system. The unmanned airplane receives the time information from three or more satellites and measures the distance between the unmanned airplane and each of the satellites through this information, thereby recognizing the position of the unmanned air vehicle. The position recognition method of the unmanned aerial vehicle is well known to the workers in this industry and can be used as a modularized product.

도 2는 종래 방식의 국소위치인식시스템을 예시한다. 종래 방식의 국소위치인식 시스템은 3개 이상의 신호발생장치를 사용하여 무인항공기에서 각각의 신호발생장치에서 수신되는 신호를 분석하여 각각의 신호발생장치와 무인항공기와의 거리를 계산함으로써 무인항공기의 위치를 인식한다. 신호발생장치를 이용한 인식 방법은 신호의 발생원이 인공위성에서 지상에 특정 위치에 설치된 신호발생장치로 대체된 점을 제외하고 기존 위성항법시스템과 근본적으로 동일한 방법이다.Figure 2 illustrates a conventional localized localization system. The conventional local position recognition system uses three or more signal generators to analyze the signals received from the respective signal generators in the unmanned airplane and calculate the distances between the respective signal generators and the unmanned airplane, Lt; / RTI > The recognition method using the signal generating device is fundamentally the same as the existing satellite navigation system except that the signal generating source is replaced with a signal generating device installed at a specific position on the ground from the satellite.

도 3은 본 발명의 국소위치인식시스템의 작동 예시이다. 본 발명의 국소위치인식시스템에서는 무인항공기(1110)에서 상기 무인항공기(1110) 주변에 위치하는 고정된 제1지점(1120), 제2지점(1130), 그리고 제3지점(1140)과 상기 무인항공기(1110)의 거리를 측정하여 상기 무인항공기(1110)의 위치와 자세를 인식한다. 상기 무인항공기(1110)는 위치와 자세 인식을 위해 복수의 지향성거리측정센서가 설치된 국소위치인식모듈을 탑재한다.3 is an operational example of the local position recognition system of the present invention. In the local position recognition system of the present invention, the fixed first point 1120, the second point 1130, and the third point 1140 located in the vicinity of the UAV 1110 in the UAV 1110, And measures the distance of the aircraft 1110 to recognize the position and posture of the UAV 1110. The UAV 1110 is equipped with a local positioning module equipped with a plurality of directional distance measuring sensors for position and orientation recognition.

도 4에서 도 8을 참조하여 본 발명의 지향성거리센서를 설명한다.The directional distance sensor of the present invention will be described with reference to FIG. 4 to FIG.

도 4는 본 발명의 지향성거리센서(2000)의 외관 예시이다. 4 is an external view of the directional distance sensor 2000 of the present invention.

도 5는 상기 지향성거리센서(2000)의 내부 구조이다. 상기 지향성거리센서(2000)는 영상을 촬영하는 촬상센서를 장착하는 촬상모듈(2200), 상기 촬상모듈(2200)에 영상 형성을 위한 촬상렌즈모듈(2300), 레이저 거리측정을 위해 소정의 사양의 레이저를 발생시키는 레이저모듈(2400), 상기 레이저모듈(2400)과 상기 촬상모듈(2200)의 시야각을 일치시키는 빔분배광학소자(2700), 상기 광분배광학소자(2700)에 입출력하는 광의 방향을 제어하는 광편항소자(2800), 상기 레이저모듈(2400)에서 출사하여 소정의 피사체에서 반사하여 되돌아오는 레이저를 집광하는 레이저집광렌즈모듈(2600), 상기 레이저집광모듈(2600)을 통하여 입사하는 레이저를 수광하는 레이저수광모듈(2500)로 구성된다.5 is an internal structure of the directional distance sensor 2000. As shown in FIG. The directional distance sensor 2000 includes an imaging module 2200 for mounting an imaging sensor for imaging an image, an imaging lens module 2300 for forming an image in the imaging module 2200, A beam distribution optical element 2700 for matching the viewing angle of the laser module 2400 with the imaging module 2200, and a beam distribution optical element 2700 for aligning the direction of light input to and output from the optical distribution optical element 2700 A laser condensing lens module 2600 for condensing a laser beam emitted from the laser module 2400 and reflected by a predetermined subject and returning the laser beam, a laser beam incident through the laser condensing module 2600, And a laser light receiving module 2500 for receiving the light.

도 6은 광편향소자의 예시이다. 광편향소자(2800)는 외부 제어 신호에 따라 입사하는 광을 특정 각도로 편향시키는 기능을 하며 상기 촬상모듈(2200)에 의하여 제어된다. 상기 광편향소자(2800)은 거울을 이용한 방식, 액체를 이용한 방식이 있으며 광학 업종에 종사자에게 공히 알려져 있다.6 is an illustration of an optical deflecting element. The optical deflecting element 2800 deflects incident light at a specific angle according to an external control signal and is controlled by the imaging module 2200. The optical deflecting element 2800 includes a mirror using method and a liquid using method, and is well known to those skilled in the optical industry.

도 7은 본 발명의 지향성거리센서(2000)의 광 경로 예시이다. 상기 촬상모듈(2200)은 상기 광편향소자(2800)와 상기 광분배광학소자(2700)를 통과하여 촬상렌즈모듈(2300)을 통하여 촬상광(2410)을 집광하여 피사체의 영상을 촬영한다. 상기 레이저모듈(2400)에서 방사하는 레이저(2420)는 상기 광분배광학소자(2700)과 상기 광편향소자(2800)을 통하여 상기 촬상모듈(2200)과 동일한 피사체에서 반사하여 반사레이저(2430)는 상기 레이저집광렌즈모듈(2600)을 통하여 상기 레이저수광모듈(2500)에 수광 된다. 상기 광분광학소자(2700)는 상기 촬상모듈(2200)이 사용하는 광의 파장과 상기 레이저모듈(2400)이 사용하는 파장의 광을 분리하며 광학 종사자에게 공히 알려져 있는 기술이다.7 is an optical path example of the directional distance sensor 2000 of the present invention. The imaging module 2200 passes through the optical deflecting element 2800 and the optical distribution optical element 2700 and focuses the imaging light 2410 through the imaging lens module 2300 to take an image of the object. The laser 2420 emitted from the laser module 2400 is reflected by the same object as the imaging module 2200 through the optical distribution optical element 2700 and the optical deflecting element 2800, And is received by the laser light receiving module 2500 through the laser condensing lens module 2600. The optical distributor 2700 is a technique commonly known to optical practitioners by separating the wavelength of light used by the imaging module 2200 and the light of a wavelength used by the laser module 2400.

상기 레이저모듈(2400)에서 출사하여 상기 레이저수광모듈(2400)에 도달한 레이저를 시간차 또는 위상차 분석하여 거리 정보를 출력하며, 레이저를 이용한 거리 측정 방법은 레이저측량 분야 종사자에게 공히 알려져 있다.A distance measuring method using laser is widely known to a person in the field of laser surveying by outputting distance information by time difference or phase difference analysis of laser emitted from the laser module 2400 and arriving at the laser light receiving module 2400.

도 8은 상기 지향성거리센서(2000)에 의한 거리 측정 예시이다. 상기 광편향소자(2800)가 초기 상태 일 때 상기 촬상모듈(2200)은 상기 소정의 피사체(3000)를 정면으로 촬영한다. 이때 상기 레이저모듈(2400)은 상기 피사체(3000)의 중심부를 향한다. 상기 지향성거리센서(2000)이 도 9에 예시한 바와 같이 소정의 거리(3100)를 이동하는 경우, 상기 촬상모듈(2200)은 상기 광편향모듈(2800)을 제어하여 상기 촬상모듈(2200)에 촬영된 영상이 이동하지 않게 광을 편향시킨다. 이를 통해 이동된 위치(3100)에서도 상기 촬상모듈(2200)은 동일한 상기 피사체(3000)를 촬영한다. 상기 레이저모듈(2400)은 상기 광편향모듈(2800)에 동일하게 반응하여 상기 피사체(3000)의 동일 지점을 향한다. 이를 통해 상기 지향성거리센서(2000)의 위치 이동에 불구하고 동일 지점의 거리가 측정된다. 또한 상기 광편향소자(2800)에 입력된 편향 제어신호를 역산하여 측정 각도 변화를 인식한다.8 is an example of the distance measurement by the directional distance sensor 2000. FIG. When the optical deflecting element 2800 is in an initial state, the imaging module 2200 photographs the predetermined object 3000 in front. At this time, the laser module 2400 faces the center of the subject 3000. 9, the imaging module 2200 controls the optical deflection module 2800 to move the imaging module 2200 to the imaging module 2200 And deflects the light so that the photographed image does not move. The imaging module 2200 also captures the same subject 3000 at the moved position 3100. [ The laser module 2400 responds to the optical deflection module 2800 in the same direction as the subject 3000. Thus, the distance of the same point is measured despite the positional shift of the directional distance sensor 2000. Further, the deflection control signal input to the optical deflecting element 2800 is inversely calculated to recognize a change in the measurement angle.

도 9는 이동된 위치에서 거리측정의 예시이다.Figure 9 is an example of a distance measurement in a shifted position.

도 10에서 도 13을 참조하여 본 발명의 지향성거리센서를 이용한 본 발명의 국소위치인식모듈을 설명한다.The local position recognition module of the present invention using the directional distance sensor of the present invention will be described with reference to FIGS.

도 10은 본 발명의 국소위치인식모듈(4000)의 외관을 예시한다. 10 illustrates an appearance of the local position recognition module 4000 of the present invention.

도 11은 상기 국소위치인식모듈(4000)의 구성을 예시한다. 상기 국소위치인식모듈(4000)은 모듈외관(4200), 제1지향성거리센서(4300), 제2지향성거리센서(4400), 제3지향성거리센서(4500) 그리고 일반촬상카메라(4600)으로 구성된다. 상기 제1지향성거리센서(4300), 상기 제2지향성거리센서(4400), 상기 제3지향성거리센서(4500)는 각각 소정의 각도로 설치되어 다른 각도로 피사체를 향하도록 상기 모듈외관(4200)에 설치된다. FIG. 11 illustrates a configuration of the local position recognition module 4000. As shown in FIG. The local position recognition module 4000 includes a module exterior 4200, a first directional distance sensor 4300, a second directional distance sensor 4400, a third directional distance sensor 4500 and a general imaging camera 4600 do. The first directional distance sensor 4300, the second directional distance sensor 4400, and the third directional distance sensor 4500 are installed at predetermined angles, respectively, so as to face the module exterior 4200 at different angles. Respectively.

도 12는 상기 국소위치인식모듈(4000)의 작동예시이다. 상기 국소인식모듈(4000)은 소정의 무인비행체(5000)에 장착된다. 상기 무인비행체(5000)이 소정의 국소거리(5200)을 이동하는 동안 상기 제1지향성거리센서(4300), 상기 제2지향성거리센서(4400), 상기 제3지향성거리센서(4500)는 고정된 삼각영역(5100)을 구성하는 꼭지점의 거리를 측정한다. 따라서 제1지향성거리센서(4300), 상기 제2지향성거리센서(4400), 상기 제3지향성거리센서(4500)에서 출력되는 3개의 거리 정보를 이용하면 상기 국소거리(5200)를 추정 가능하다. Fig. 12 is an operational example of the local position recognition module 4000. Fig. The local recognition module 4000 is mounted on a predetermined unmanned aerial vehicle 5000. The first directional distance sensor 4300, the second directional distance sensor 4400, and the third directional distance sensor 4500 are fixed (not shown) while the unmanned air vehicle 5000 moves a predetermined local distance 5200 The distance of the vertex constituting the triangular area 5100 is measured. Therefore, the local distance 5200 can be estimated using the three distance information outputted from the first directional distance sensor 4300, the second directional distance sensor 4400, and the third directional distance sensor 4500.

3개 이상의 지점간 거리를 이용한 위치 추정은 거리 측정 및 측량 분야 종사자에게 공히 알려져있는 기술이다. Position estimation using three or more point-to-point distances is a commonly known technique for distance measurement and surveying personnel.

또한 상기 따라서 제1지향성거리센서(4300), 상기 제2지향성거리센서(4400), 상기 제3지향성거리센서(4500)의 광편향모듈에 가해지는 편향 제어 신호를 역산하면 상기 국소거리(5200)을 이동하는 동안 발생하는 국소인식모듈(4000)의 자세 변화를 추정할 수 있다.The inverse of the deflection control signal applied to the optical deflection module of the first directional distance sensor 4300, the second directional distance sensor 4400, and the third directional distance sensor 4500 thus determines the local distance 5200, It is possible to estimate the posture change of the local recognition module 4000 that occurs during the movement of the local recognition module 4000.

도 13은 상기 국소위치인식모듈(4000)을 이용하여 연속 위치 인식의 예시이다.Fig. 13 is an example of continuous position recognition using the local position recognition module 4000. Fig.

상기 무인비행체(5000)이 연속하여 특정 경로로 이동하는 경우When the unmanned flight vehicle 5000 continuously moves to a specific route

상기 무선비행체에 탑재된 상기 국소위치인식모듈(4000)은 소정의 거리를 가지는 두 지점에서 하나의 삼각영역을 이용하여 상기 무선비행체의 위치 변화를 인식한다. The local position recognition module 4000 mounted on the wireless air vehicle recognizes the position change of the wireless air vehicle using one triangular area at two points having a predetermined distance.

예를 들어 상기 무인비행체(5000)가 제1소정거리(6400)을 이동하는 동안 고정된 삼각지점(6100)을 이용하여 상기 제1소정거리(6400)에서의 상기 무인비행체(5000)의 위치와 자세 변화를 추정한다. 상기 무인비행체(5000)가 제2소정거리(6500)을 이동하는 동안 고정된 삼각지점(6200)을 이용하여 상기 제2소정거리(6500)에서의 상기 무인비행체(5000)의 위치와 자세 변화를 추정한다. 상기 무인비행체(5000)가 제3소정거리(6600)을 이동하는 동안 고정된 삼각지점(6300)을 이용하여 상기 제3소정거리(6600)에서의 상기 무인비행체(5000)의 위치와 자세 변화를 추정한다.For example, the position of the unmanned air vehicle 5000 at the first predetermined distance 6400 using the fixed triangular point 6100 during the movement of the unmanned air vehicle 5000 at the first predetermined distance 6400, Estimate the attitude change. The position and attitude change of the unmanned air vehicle 5000 at the second predetermined distance 6500 using the fixed triangular point 6200 while the unmanned air vehicle 5000 moves at the second predetermined distance 6500 . The position and attitude change of the unmanned air vehicle 5000 at the third predetermined distance 6600 using the fixed triangular point 6300 while the unmanned air vehicle 5000 moves at the third predetermined distance 6600 .

상기 제1소정거리(6400)에서 상기 제3소정거리(6600)으로 상기 무인비행체가 이동한 거리와 자세 변화는 중간 과정의 적산에 의해 이루어 진다.The distance and attitude change of the unmanned aerial vehicle from the first predetermined distance 6400 to the third predetermined distance 6600 are obtained by integrating the intermediate process.

도 14는 본 발명의 국소위치인식 모듈을 이용한 3차원 촬영을 예시한다.14 illustrates a three-dimensional imaging using the local position recognition module of the present invention.

무인비행체(7000)는 본 발명의 국소위치인식모듈(7100)을 탑재하고, 소정의 촬영간격(7200)을 이동한다. 상기 무인비행체(7000)의 소정의 위치에 탑재된 소정의 카메라는 이동 전 제1촬영시야각(7300)을 촬영한다. 상기 무인비행체(7000)이 상기 촬영간격(7200)을 이동한 후 제2촬영시야각 (7400)을 촬영한다. 상기 제1촬영시야각(7300)과 제2촬영시야각(7400)은 소정의 겹치는 영역을 가진다. 상기 국소위치인식모듈(7100)은 상기 무인비행체(7000)가 상기 촬영간격(7200)을 이동한 거리와 자세 변화를 출력함으로 상기 제1촬영시야각(7300)과 제2촬영시야각(7400)의 영상과 상기 국소위치인식모듈(7100)에서 출력되는 상기 촬영간격(7200) 정보를 이용하면 스테레오카메라 기법에 의한 피사체의 3차원 정보를 추출할 수 있다.The unmanned air vehicle 7000 mounts the local position recognition module 7100 of the present invention and moves a predetermined photographing interval 7200. A predetermined camera mounted on a predetermined position of the unmanned air vehicle 7000 shoots a first photographing viewing angle 7300 before the movement. After the unmanned air vehicle 7000 moves the shooting interval 7200, the second shooting angle of view 7400 is photographed. The first photographing viewing angle 7300 and the second photographing viewing angle 7400 have predetermined overlapping areas. The local position recognition module 7100 outputs the image of the first photographing viewing angle 7300 and the second photographing viewing angle 7400 by outputting the change in the distance and attitude of the unmanned air vehicle 7000 through the photographing interval 7200. [ And the photographing interval 7200 information output from the local position recognition module 7100 can be used to extract the three-dimensional information of the subject by the stereo camera technique.

2200… 촬상모듈 2400…레이저모듈
2600… 수광모듈 2800…광편향소자
2200 ... The imaging module 2400 ... Laser module
2600 ... Receiver module 2800 ... Optical deflecting element

Claims (32)

영상 촬영을 위한 카메라모듈;
상기 카메라모듈의 영상을 제어하는 영상제어부;
소정의 사양의 레이저광선을 발생시키는 레이저모듈;
상기 카메라모듈과 상기 레이저모듈의 시야각을 소정의 각도로 배치 시키는 광분배소자;
상기 광분배소자에 입출력하는 광의 방향을 제어하는 광편항소자;
상기 레이저모듈에서 출사하여 소정의 피사체에서 반사하여 되돌아오는 레이저를 집광하는 레이저집광모듈;
상기 레이저수광모듈과 상기 레이저모듈을 제어하고 신호를 분석하여 레이저의 이동거리를 출력하는 거리측정제어부로 구성되는 것을 특징으로 하는 지향성거리센서와 거리 측정방법.
Camera module for video shooting;
An image controller for controlling an image of the camera module;
A laser module for generating a laser beam of a predetermined specification;
An optical distributor for arranging the viewing angle of the camera module and the laser module at a predetermined angle;
A light component emitter for controlling the direction of light input to and output from the optical distributor;
A laser condensing module for condensing a laser beam emitted from the laser module and reflected by a predetermined subject and returning;
And a distance measurement controller for controlling the laser light receiving module and the laser module and analyzing a signal to output a moving distance of the laser.
청구항 1에 있어서
상기 카메라모듈은 상기 광분배를 통과하고 상기 광편향소자를 통과하여 소정의 피사체의 상을 촬영하는 것을 특징으로 한다.
Claim 1
And the camera module passes through the optical distribution and passes through the optical deflecting element to take an image of a predetermined object.
청구항 1에 있어서
상기 레이저모듈은 상기 광분배기를 통과하고 상기 광편항소자를 통과하여 레이저를 방사하고, 소정의 피사체에서 반사된 레이저는 상기 레이저수광모듈에 의하여 수광되어 상기 거리측정제어부에서 레이저의 이동 거리를 출력하는 것을 특징으로 한다.
Claim 1
The laser module passes through the optical distributor, passes through the light modulator, emits a laser, and the laser reflected from a predetermined subject is received by the laser light receiving module, and the distance measurement controller outputs the laser moving distance .
청구항 1에 있어서
상기 광편향소자는 제어 입력을 가하면 상기 광편향소자에 입사하는 광을 소정의 각도로 편향시키는 것을 특징으로 하며, 상기 카메라모듈과 상기 레이저모듈이 공히 상기 광편향소자를 통하여 작동하므로 상기 광편향소자는 상기 카메라모듈과 상기 레이저 모듈의 광경로를 동일하게 편향시킨다.
Claim 1
Wherein the optical deflecting element deflects light incident on the optical deflecting element at a predetermined angle when a control input is applied thereto. Since the camera module and the laser module operate together through the optical deflecting element, Deflects the optical path of the camera module and the laser module equally.
청구항 1에 있어서,
상기 영상제어부는 상기 카메라모듈에서 입력되는 영상이 이동하는 양을 계측하여 상기 광편향소자를 제어하여 상기 카메라모듈의 출력 영상이 고정되는 제어를 실시하는 것을 특징으로 한다.
The method according to claim 1,
The image controller measures an amount of movement of the image input from the camera module and controls the optical deflector to control the output image of the camera module to be fixed.
청구항 1에 있어서
상기 광분배소자는 상기 카메라모듈에서 사용하는 광과 상기 레이저모듈에서 사용하는 광을 분리하는 것을 특징으로 한다.
Claim 1
The optical distribution element separates light used in the camera module and light used in the laser module.
청구항 1에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여, 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하고, 상기 레이저모듈은 상기 광편향소자에 동일하게 반응하여 상기 지향성거리센서의 이동에도 상기 레이저모듈은 동일지점의 거리를 측정한다.
Claim 1
Wherein when the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the laser module responds to the optical deflecting element in the same manner, and the laser module measures the distance at the same point even when the directional distance sensor moves.
청구항 1에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하도록 제어하며, 상기 영상제어부는 상기 광편향소자에 입력되는 제어 신호를 역산하여 상기 지향성거리센서의 자세 변화를 출력하는 것을 특징으로 한다.
Claim 1
When the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the image control part inverts the control signal input to the optical deflecting element to output a change in the attitude of the directional distance sensor.
영상 촬영을 위한 카메라모듈;
상기 카메라모듈의 영상을 제어하는 영상제어부;
소정의 사양의 레이저광선을 발생시키는 레이저모듈;
상기 카메라모듈과 상기 레이저모듈의 시야각을 소정의 각도로 배치시키는 광분배소자;
상기 광분배소자에 입출력하는 광의 방향을 제어하는 광편항소자;
상기 레이저모듈에서 출사하여 소정의 피사체에서 반사하여 되돌아오는 레이저를 집광하는 레이저집광모듈;
상기 레이저수광모듈과 상기 레이저모듈을 제어하고 신호를 분석하여 레이저의 이동거리를 출력하는 거리측정제어부로 구성되는 복수의 지향성거리센서;
상기 지향성거리센서의 출력을 이용하여 위치와 자세 변화를 출력하는 위치인식제어부로 구성되는 것을 특징으로 하는 국소위치인식 모듈과 측정 방법
Camera module for video shooting;
An image controller for controlling an image of the camera module;
A laser module for generating a laser beam of a predetermined specification;
An optical distributor for arranging the viewing angle of the camera module and the laser module at a predetermined angle;
A light component emitter for controlling the direction of light input to and output from the optical distributor;
A laser condensing module for condensing a laser beam emitted from the laser module and reflected by a predetermined subject and returning;
A plurality of directional distance sensors configured to control the laser light receiving module and the laser module and analyze a signal to output a moving distance of the laser;
And a position recognition control unit for outputting a position and an attitude change using the output of the directional distance sensor.
청구항 9에 있어서
상기 카메라모듈은 상기 광분배를 통과하고 상기 광편향소자를 통과하여 소정의 피사체의 상을 촬영하는 것을 특징으로 한다.
Claim 9
And the camera module passes through the optical distribution and passes through the optical deflecting element to take an image of a predetermined object.
청구항 9에 있어서
상기 레이저모듈은 상기 광분배기를 통과하고 상기 광편항소자를 통과하여 레이저를 방사하고, 소정의 피사체에서 반사된 레이저는 상기 레이저수광모듈에 의하여 수광되어 상기 거리측정제어부에서 레이저의 이동 거리를 출력하는 것을 특징으로 한다.
Claim 9
The laser module passes through the optical distributor, passes through the light modulator, emits a laser, and the laser reflected from a predetermined subject is received by the laser light receiving module, and the distance measurement controller outputs the laser moving distance .
청구항 9에 있어서
상기 광편향소자는 제어 입력을 가하면 상기 광편향소자에 입사하는 광을 소정의 각도로 편향시키는 것을 특징으로 하며, 상기 카메라모듈과 상기 레이저모듈이 공히 상기 광편향소자를 통하여 작동하므로 상기 광편향소자는 상기 카메라모듈과 상기 레이저 모듈의 광경로를 동일하게 편향시킨다.
Claim 9
Wherein the optical deflecting element deflects light incident on the optical deflecting element at a predetermined angle when a control input is applied thereto. Since the camera module and the laser module operate together through the optical deflecting element, Deflects the optical path of the camera module and the laser module equally.
청구항 9에 있어서,
상기 영상제어부는 상기 카메라모듈에서 입력되는 영상이 이동하는 양을 계측하여 상기 광편향소자를 제어하여 상기 카메라모듈의 출력 영상이 고정되는 제어를 실시하는 것을 특징으로 한다.
The method of claim 9,
The image controller measures an amount of movement of the image input from the camera module and controls the optical deflector to control the output image of the camera module to be fixed.
청구항 9에 있어서
상기 광분배소자는 상기 카메라모듈에서 사용하는 광과 상기 레이저모듈에서 사용하는 광을 분리하는 것을 특징으로 한다.
Claim 9
The optical distribution element separates light used in the camera module and light used in the laser module.
청구항 9에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여, 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하고, 상기 레이저모듈은 상기 광편향소자에 동일하게 반응하여 상기 지향성거리센서의 이동에도 상기 레이저모듈은 동일지점의 거리를 측정한다
Claim 9
Wherein when the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the laser module responds to the optical deflecting device in the same manner, and the distance of the same point is also measured by the laser module even in the movement of the directional distance sensor
청구항 9에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하도록 제어하며, 상기 영상제어부는 상기 광편향소자에 입력되는 제어 신호를 역산하여 상기 지향성거리센서의 자세 변화를 출력하는 것을 특징으로 한다.
Claim 9
When the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the image control part inverts the control signal input to the optical deflecting element to output a change in the attitude of the directional distance sensor.
청구항 9에 있어서
상기 국소위치인식모듈은 상기 지향성거리센서를 바람직하게는 3개 이상 복수개를 탑재하며, 각각의 지향성 모듈은 소정의 각도로 배치되는 것으로 특징으로 한다.
Claim 9
Preferably, the localized position recognition module includes at least three directional distance sensors, and each of the directional modules is disposed at a predetermined angle.
청구항 9에 있어서
상기 거리측정제어부는 상기 복수 지향성거리센서를 동기화 제어하여 일정 시간동인 상기 복수의 지향성거리센서가 각각 고정된 지점의 거리를 출력하도록 제어하여, 각각의 출력신호를 연산하여 거리와 자세 정보를 출력한다.
Claim 9
The distance measurement control unit controls the plurality of directional distance sensors to synchronously control the plurality of directional distance sensors so that the plurality of directional distance sensors for a predetermined period of time respectively output the distances of the fixed points, and outputs the distance and attitude information by calculating each output signal .
청구항 9에 있어서
상기 거리측정제어부는 일정거리 이동시 마다 상기 복수 지향성거리센서를 초기화하여 상기 복수의 지행성거리센서가 다음 측정점으로 동기 이동하는 제어를 실시하는 것을 특징으로 한다.
Claim 9
And the distance measurement control unit initializes the plurality of directional distance sensors at each time when the distance measuring unit moves a predetermined distance, and controls the plurality of distance measuring sensors to move to the next measuring point synchronously.
영상 촬영을 위한 카메라모듈;
상기 카메라모듈의 영상을 제어하는 영상제어부;
소정의 사양의 레이저광선을 발생시키는 레이저모듈;
상기 카메라모듈과 상기 레이저모듈의 시야각을 소정의 각도로 배치시키는 광분배소자;
상기 광분배소자에 입출력하는 광의 방향을 제어하는 광편항소자;
상기 레이저모듈에서 출사하여 소정의 피사체에서 반사하여 되돌아오는 레이저를 집광하는 레이저집광모듈;
상기 레이저수광모듈과 상기 레이저모듈을 제어하고 신호를 분석하여 레이저의 이동거리를 출력하는 거리측정제어부로 구성되는 복수의 지향성거리센서;
상기 지향성거리센서의 출력을 이용하여 위치와 자세 변화를 출력하는 위치인식제어부로 구성되는 것을 특징으로 하는 국소위치인식 모듈;
상기 국소위치인식모듈을 탑재하는 소정의 이동체;
상기 이동체의 소정의 위치에 탑재된 소정의 촬영카메라;
상기 국소위치인식 모듈의 출력과 상기 촬영카메라를 이용하여 3차원 영상을 촬영하는 것을 특징으로 하는 영상촬영 장치와 방법
Camera module for video shooting;
An image controller for controlling an image of the camera module;
A laser module for generating a laser beam of a predetermined specification;
An optical distributor for arranging the viewing angle of the camera module and the laser module at a predetermined angle;
A light component emitter for controlling the direction of light input to and output from the optical distributor;
A laser condensing module for condensing a laser beam emitted from the laser module and reflected by a predetermined subject and returning;
A plurality of directional distance sensors configured to control the laser light receiving module and the laser module and analyze a signal to output a moving distance of the laser;
And a position recognition control unit for outputting a position and an attitude change using the output of the directional distance sensor.
A predetermined moving object mounting the local position recognition module;
A predetermined photographing camera mounted on a predetermined position of the moving body;
Wherein the three-dimensional image is photographed using the output of the local position recognition module and the photographing camera.
청구항 20에 있어서
상기 카메라모듈은 상기 광분배를 통과하고 상기 광편향소자를 통과하여 소정의 피사체의 상을 촬영하는 것을 특징으로 한다.
Claim 20
And the camera module passes through the optical distribution and passes through the optical deflecting element to take an image of a predetermined object.
청구항 20에 있어서
상기 레이저모듈은 상기 광분배기를 통과하고 상기 광편항소자를 통과하여 레이저를 방사하고, 소정의 피사체에서 반사된 레이저는 상기 레이저수광모듈에 의하여 수광되어 상기 거리측정제어부에서 레이저의 이동 거리를 출력하는 것을 특징으로 한다.
Claim 20
The laser module passes through the optical distributor, passes through the light modulator, emits a laser, and the laser reflected from a predetermined subject is received by the laser light receiving module, and the distance measurement controller outputs the laser moving distance .
청구항 20에 있어서
상기 광편향소자는 제어 입력을 가하면 상기 광편향소자에 입사하는 광을 소정의 각도로 편향시키는 것을 특징으로 하며, 상기 카메라모듈과 상기 레이저모듈이 공히 상기 광편향소자를 통하여 작동하므로 상기 광편향소자는 상기 카메라모듈과 상기 레이저 모듈의 광경로를 동일하게 편향시킨다.
Claim 20
Wherein the optical deflecting element deflects light incident on the optical deflecting element at a predetermined angle when a control input is applied thereto. Since the camera module and the laser module operate together through the optical deflecting element, Deflects the optical path of the camera module and the laser module equally.
청구항 20에 있어서,
상기 영상제어부는 상기 카메라모듈에서 입력되는 영상이 이동하는 양을 계측하여 상기 광편향소자를 제어하여 상기 카메라모듈의 출력 영상이 고정되는 제어를 실시하는 것을 특징으로 한다.
The method of claim 20,
The image controller measures an amount of movement of the image input from the camera module and controls the optical deflector to control the output image of the camera module to be fixed.
청구항 20에 있어서
상기 광분배소자는 상기 카메라모듈에서 사용하는 광과 상기 레이저모듈에서 사용하는 광을 분리하는 것을 특징으로 한다.
Claim 20
The optical distribution element separates light used in the camera module and light used in the laser module.
청구항 20에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여, 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하고, 상기 레이저모듈은 상기 광편향소자에 동일하게 반응하여 상기 지향성거리센서의 이동에도 상기 레이저모듈은 동일지점의 거리를 측정한다.
Claim 20
Wherein when the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the laser module responds to the optical deflecting element in the same manner, and the laser module measures the distance at the same point even when the directional distance sensor moves.
청구항 20에 있어서
상기 지향성거리센서가 장치된 소정의 장치가 이동하는 경우 상기 영상제어부에 의하여 상기 카메라 모듈의 출력 영상이 고정되도록 상기 광편향소자를 제어하여 상기 지향성거리센서가 이동하여도 상기 카메라모듈은 동일 지점을 촬영하도록 제어하며, 상기 영상제어부는 상기 광편향소자에 입력되는 제어 신호를 역산하여 상기 지향성거리센서의 자세 변화를 출력하는 것을 특징으로 한다.
Claim 20
When the predetermined device equipped with the directional distance sensor moves, the optical deflector is controlled so that the output image of the camera module is fixed by the image controller, so that even if the directional distance sensor moves, And the image control part inverts the control signal input to the optical deflecting element to output a change in the attitude of the directional distance sensor.
청구항 20에 있어서
상기 국소위치인식모듈은 상기 지향성거리센서를 바람직하게는 3개 이상 복수개를 탑재하며, 각각의 지향성 모듈은 소정의 각도로 배치되는 것으로 특징으로 한다.
Claim 20
Preferably, the localized position recognition module includes at least three directional distance sensors, and each of the directional modules is disposed at a predetermined angle.
청구항 20에 있어서
상기 거리측정제어부는 상기 복수 지향성거리센서를 동기화 제어하여 일정 시간동인 상기 복수의 지향성거리센서가 각각 고정된 지점의 거리를 출력하도록 제어하여, 각각의 출력신호를 연산하여 거리와 자세 정보를 출력한다.
Claim 20
The distance measurement control unit controls the plurality of directional distance sensors to synchronously control the plurality of directional distance sensors so that the plurality of directional distance sensors for a predetermined period of time respectively output the distances of the fixed points, and outputs the distance and attitude information by calculating each output signal .
청구항 20에 있어서
상기 거리측정제어부는 일정거리 이동시 마다 상기 복수 지향성거리센서를 초기화하여 상기 복수의 지행성거리센서가 다음 측정점으로 동기 이동하는 제어를 실시하는 것을 특징으로 한다.
Claim 20
And the distance measurement control unit initializes the plurality of directional distance sensors at each time when the distance measuring unit moves a predetermined distance, and controls the plurality of distance measuring sensors to move to the next measuring point synchronously.
청구항 20에 있어서
상기 이동체는 선택적으로 무인항공기 또는 무인주행 로보트 또는 무인 주행 차량일 수 있다.
Claim 20
The moving body may alternatively be an unmanned aerial vehicle or an unmanned traveling robot or an unmanned traveling vehicle.
청구항 20에 있어서
상기 이동체에 장치된 상기 촬영카메라를 이용하여 영상을 촬영하는 경우, 상기 국소위치인식모듈에서 상기 촬영카메라의 촬영 위치 좌표와 자세 정보를 제공하므로, 복수의 영상과 카메라 표 및 자세 정보로 3차원 영상을 생성하는 것을 특징으로 한다.
Claim 20
In the case of photographing an image using the photographing camera mounted on the moving body, since the local position recognition module provides the photographing position coordinates and attitude information of the photographing camera, .
KR1020160004468A 2016-01-13 2016-01-13 Local Positioning System KR20170084966A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160004468A KR20170084966A (en) 2016-01-13 2016-01-13 Local Positioning System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160004468A KR20170084966A (en) 2016-01-13 2016-01-13 Local Positioning System

Publications (1)

Publication Number Publication Date
KR20170084966A true KR20170084966A (en) 2017-07-21

Family

ID=59462804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160004468A KR20170084966A (en) 2016-01-13 2016-01-13 Local Positioning System

Country Status (1)

Country Link
KR (1) KR20170084966A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3460392A3 (en) * 2017-09-25 2019-08-07 The Boeing Company Positioning system for aerial non-destructive inspection
US10791275B2 (en) 2017-09-25 2020-09-29 The Boeing Company Methods for measuring and inspecting structures using cable-suspended platforms
EP4089012A4 (en) * 2020-01-07 2023-10-04 A.L.I. Technologies Inc. Aircraft and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010132096A (en) * 2008-12-03 2010-06-17 Mitsubishi Heavy Ind Ltd Unmanned aircraft and air watch system for unmanned aircraft
KR101252680B1 (en) * 2012-11-28 2013-04-08 네이버시스템(주) Drawing system of an aerial photograph
KR20140002051A (en) * 2011-04-14 2014-01-07 헥사곤 테크놀로지 센터 게엠베하 System and method for controlling an unmanned air vehicle
KR20140123835A (en) * 2013-04-15 2014-10-23 재단법인대구경북과학기술원 Apparatus for controlling unmanned aerial vehicle and method thereof
KR101538731B1 (en) * 2014-01-28 2015-07-23 한화탈레스 주식회사 Apparatus for protecting laser in target optical

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010132096A (en) * 2008-12-03 2010-06-17 Mitsubishi Heavy Ind Ltd Unmanned aircraft and air watch system for unmanned aircraft
KR20140002051A (en) * 2011-04-14 2014-01-07 헥사곤 테크놀로지 센터 게엠베하 System and method for controlling an unmanned air vehicle
KR101252680B1 (en) * 2012-11-28 2013-04-08 네이버시스템(주) Drawing system of an aerial photograph
KR20140123835A (en) * 2013-04-15 2014-10-23 재단법인대구경북과학기술원 Apparatus for controlling unmanned aerial vehicle and method thereof
KR101538731B1 (en) * 2014-01-28 2015-07-23 한화탈레스 주식회사 Apparatus for protecting laser in target optical

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3460392A3 (en) * 2017-09-25 2019-08-07 The Boeing Company Positioning system for aerial non-destructive inspection
US10788428B2 (en) 2017-09-25 2020-09-29 The Boeing Company Positioning system for aerial non-destructive inspection
US10791275B2 (en) 2017-09-25 2020-09-29 The Boeing Company Methods for measuring and inspecting structures using cable-suspended platforms
EP4089012A4 (en) * 2020-01-07 2023-10-04 A.L.I. Technologies Inc. Aircraft and system

Similar Documents

Publication Publication Date Title
US10234278B2 (en) Aerial device having a three-dimensional measurement device
US9758239B2 (en) System and method for controlling an unmanned air vehicle
US7400950B2 (en) Optical sensing system and system for stabilizing machine-controllable vehicles
US20220210335A1 (en) Autofocusing camera and systems
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
GB2446713A (en) Image feature motion estimation based in part on inertial measurement data
US10337863B2 (en) Survey system
KR102209500B1 (en) Lidar apparatus
US20190086206A1 (en) Survey system
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
EP3788451B1 (en) Controlling a vehicle using a remotely located laser and an on-board camera
KR101545971B1 (en) System for sensing complex image
US11598878B2 (en) Vision-cued random-access lidar system and method for localization and navigation
US20170132808A1 (en) Method and system for inertial measurement
KR20170084966A (en) Local Positioning System
KR20170088501A (en) Local Positioning System
US20210231945A1 (en) Hybrid lidar system
JP7161298B2 (en) target device, surveying system
KR20150041898A (en) Apparatus and method for modifying gps/ins position information
US7839490B2 (en) Single-aperture passive rangefinder and method of determining a range
Koch et al. A vision-based navigation algorithm for a VTOL-UAV
JP6570344B2 (en) Route generation method and system
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
KR20200008281A (en) Apparatus for following lane on road by unmanned aerial vehicle and method the same
Hinzmann et al. Flexible trinocular: Non-rigid multi-camera-IMU dense reconstruction for UAV navigation and mapping

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application