KR101713028B1 - Positioning apparatus and positioning method - Google Patents

Positioning apparatus and positioning method Download PDF

Info

Publication number
KR101713028B1
KR101713028B1 KR1020150000736A KR20150000736A KR101713028B1 KR 101713028 B1 KR101713028 B1 KR 101713028B1 KR 1020150000736 A KR1020150000736 A KR 1020150000736A KR 20150000736 A KR20150000736 A KR 20150000736A KR 101713028 B1 KR101713028 B1 KR 101713028B1
Authority
KR
South Korea
Prior art keywords
pattern
delete delete
position pattern
photographed
projected
Prior art date
Application number
KR1020150000736A
Other languages
Korean (ko)
Other versions
KR20160084168A (en
Inventor
이준수
이재준
장한용
김택진
Original Assignee
주식회사 엔씨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔씨소프트 filed Critical 주식회사 엔씨소프트
Priority to KR1020150000736A priority Critical patent/KR101713028B1/en
Publication of KR20160084168A publication Critical patent/KR20160084168A/en
Application granted granted Critical
Publication of KR101713028B1 publication Critical patent/KR101713028B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Abstract

본 발명의 실시예들은 위치 결정 장치 및 위치 결정 방법에 관한 것이다. 본 발명의 일 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 장치로서, 상기 3차원 공간의 일면에 위치 패턴을 투사하는 위치 패턴 투사부; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부를 촬영하는 패턴 촬영부; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 위치를 결정하는 위치 결정부를 포함하는, 위치 결정 장치가 제공된다.Embodiments of the present invention relate to a positioning apparatus and a positioning method. According to an aspect of the present invention, there is provided a positioning apparatus for determining the position of an object in a three-dimensional space, comprising: a position pattern projection unit for projecting a position pattern on one surface of the three-dimensional space; A pattern photographing unit photographing a part of the position pattern corresponding to the position of the object; And a position determining section that determines a position of the object based on a part of the photographed position pattern.

Description

위치 결정 장치 및 위치 결정 방법{POSITIONING APPARATUS AND POSITIONING METHOD}[0001] POSITIONING APPARATUS AND POSITIONING METHOD [0002]

본 발명의 실시예들은 위치 결정 장치 및 위치 결정 방법에 관한 것이다.
Embodiments of the present invention relate to a positioning apparatus and a positioning method.

공간 상에 위치하는 드론(drone)의 위치를 결정하기 위하여 다양한 기술이 종래에 존재하고 있다. 측정하기 위한 기초 기술의 관점에서는, GPS, 적외선, Wifi, 초음파, 블루투스(Bluetooth) 등의 기술이 사용되고 있으며, 계산 방법으로는, 삼각측량(triangulation), 영상 분석(scene analysis), 근접 감지(proximity detection) 등이 방법이 사용되고 있고, 처리 수단의 관점에서는, 외부 처리 수단과 내부 처리 수단으로 구분될 수 있다.Various techniques have conventionally existed to determine the location of a drone located in space. Technologies such as GPS, infrared, Wifi, ultrasound, Bluetooth, etc. are used from the viewpoint of the basic technology for measurement, and triangulation, scene analysis, proximity detection and the like are used, and from the viewpoint of the processing means, it can be divided into the external processing means and the internal processing means.

그런데, 기존의 기술은 2차원 평면에서의 위치를 결정하는 방식인 것이 대부분이어서, 3차원 공간에서의 위치를 결정하는 데 사용하기는 어려움이 있다. 또한, 3차원 공간에서의 위치를 결정하는 데에 있어서 정밀도를 보장할 수 없어서 정확한 위치를 확인하는데 어려움이 있다. 따라서, 위치를 결정한 후에 이를 바탕으로 드론을 조종하거나 드론의 예상 이동 경로를 예측함에 있어서 그 활용성이 낮아지게 된다.
However, the conventional technique is mostly a method of determining a position in a two-dimensional plane, and thus it is difficult to use it to determine a position in a three-dimensional space. In addition, since the accuracy can not be guaranteed in determining the position in the three-dimensional space, it is difficult to confirm the accurate position. Therefore, after determining the position, the usability is low in controlling the drones or predicting the expected movement route of the drones based on the position.

대한민국 공개특허공보 제10-2009-0099174호 (2009. 09. 22.)Korean Patent Publication No. 10-2009-0099174 (2009. 09. 22.)

본 발명의 실시예들은, 기존의 2차원 공간에서 위치를 파악하는 기술이 3차원 공간으로 확장되도록 하기 위한 것이다.Embodiments of the present invention are intended to extend the technique of locating an existing two-dimensional space into a three-dimensional space.

또한 본 발명의 실시예들은, 3차원 공간에서 위치 결정의 정밀도를 높이기 위한 것이다.Embodiments of the present invention are also intended to improve positioning accuracy in a three-dimensional space.

또한 본 발명의 실시예들은, 3차원 공간에서의 위치 결정을 통해, 드론의 조종이나 예상 이동 경로 예측 등의 기술에 활용할 수 있도록 하기 위한 것이다.
Further, the embodiments of the present invention are intended to be utilized in techniques such as drones maneuvering and predicted travel path prediction through positioning in a three-dimensional space.

다만, 본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
It is to be understood, however, that the technical scope of the present invention is not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 일 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 장치로서, 상기 3차원 공간의 일면에 위치 패턴을 투사하는 위치 패턴 투사부; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부를 촬영하는 패턴 촬영부; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 (x,y) 좌표를 결정하는 위치 결정부를 포함하는, 위치 결정 장치가 제공된다.According to an aspect of the present invention, there is provided a positioning apparatus for determining the position of an object in a three-dimensional space, comprising: a position pattern projection unit for projecting a position pattern on one surface of the three-dimensional space; A pattern photographing unit photographing a part of the position pattern corresponding to the position of the object; And a position determiner for determining (x, y) coordinates of the three-dimensional position of the object based on a part of the photographed position pattern.

상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정될 수 있다.The z-coordinate among the three-dimensional positions of the object can be determined through the size of the position pattern or the distance between the position patterns.

상기 패턴 촬영부는 상기 물체 상에 위치할 수 있다.The pattern photographing unit may be located on the object.

상기 위치 패턴 투사부는 상기 공간의 바닥의 소정의 위치에 배치되고, 상기 공간의 천장에 상기 위치 패턴을 투사할 수 있다.The position pattern projection unit is disposed at a predetermined position on the bottom of the space, and can project the position pattern on a ceiling of the space.

상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.The position pattern may be a point array formed of a plurality of points arranged at a predetermined distance in a direction of one of upper, lower, left, and right from each grid point generated by a virtual grid.

상기 위치 패턴 투사부는 레이저 도트(dot) 프로젝터일 수 있다.The position pattern projection unit may be a laser dot projector.

상기 위치 패턴 투사부는 원거리 랜덤 패턴 프로젝터 기술을 사용할 수 있다.The position pattern projection unit may use a remote random pattern projector technology.

상기 패턴 촬영부는 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트를 촬영할 수 있다.The pattern photographing unit may photograph n x n points around a point corresponding to the position of the object in the point array.

상기 위치 결정부는 상기 패턴 촬영부에 의해 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치를 결정할 수 있다.The position determining unit may determine the position of the object based on the arrangement of n x n points photographed by the pattern photographing unit.

상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사될 수 있다.The position pattern may be in the form of a checkerboard, and light of one of the m frequencies may be projected into each grid of the checkerboard.

상기 m은 4일 수 있다.M may be 4.

상기 위치 패턴 투사부는 적외선 영상 프로젝터일 수 있다.The position pattern projection unit may be an infrared image projector.

상기 패턴 촬영부는 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자를 촬영할 수 있다.The pattern photographing unit may photograph n x n gratings centering on a grating corresponding to the position of the object among the plurality of gratings.

상기 위치 결정부는 상기 패턴 촬영부에 의해 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치를 결정할 수 있다.The position determining unit may determine the position of the object based on the arrangement of n x n grids photographed by the pattern photographing unit.

상기 패턴 촬영부에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치를 결정할 수 있다.
When a short-time obstacle occurs in the photographing in the pattern photographing unit, a position of a time at which the obstacle occurred can be determined through a video tracking algorithm.

또한, 본 발명의 다른 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 방법으로서, 상기 3차원 공간의 일면에 위치 패턴이 투사되는 단계; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부가 촬영되는 단계; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 (x,y) 좌표가 결정되는 단계를 포함하는, 위치 결정 방법이 제공된다.According to another aspect of the present invention, there is provided a positioning method for determining the position of an object in a three-dimensional space, the method comprising: projecting a position pattern on one surface of the three-dimensional space; Photographing a part of the position pattern corresponding to the position of the object; And determining (x, y) coordinates of the three-dimensional position of the object based on a part of the captured position pattern.

상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정될 수 있다.The z-coordinate among the three-dimensional positions of the object can be determined through the size of the position pattern or the distance between the position patterns.

상기 물체 상에서 상기 위치 패턴의 일부가 촬영될 수 있다.A part of the position pattern on the object can be photographed.

상기 공간의 바닥의 소정의 위치에서 상기 공간의 천장을 향해 상기 위치 패턴이 투사될 수 있다.The position pattern may be projected from a predetermined position of the bottom of the space toward the ceiling of the space.

상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.The position pattern may be a point array formed of a plurality of points arranged at a predetermined distance in a direction of one of upper, lower, left, and right from each grid point generated by a virtual grid.

레이저 도트(dot) 프로젝터에 의해 상기 위치 패턴이 투사될 수 있다.The position pattern can be projected by a laser dot projector.

원거리 랜덤 패턴 프로젝터 기술이 사용되어 상기 위치 패턴이 투사될 수 있다.A remote random pattern projector technique may be used to project the position pattern.

상기 촬영 단계에서, 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트가 촬영될 수 있다.In the photographing step, n x n points around the point corresponding to the position of the object in the point array can be photographed.

상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치가 결정될 수 있다.In the positioning step, the position of the object may be determined based on the arrangement of the n x n points photographed.

상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사될 수 있다.The position pattern may be in the form of a checkerboard, and light of one of the m frequencies may be projected into each grid of the checkerboard.

상기 m은 4일 수 있다.M may be 4.

적외선 영상 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.Wherein said position pattern is projected by an infrared image projector.

상기 촬영 단계에서, 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자가 촬영될 수 있다.In the photographing step, n x n gratings centered on the grating corresponding to the position of the object among the plurality of gratings can be photographed.

상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치가 결정될 수 있다.In the positioning step, the position of the object may be determined based on the arrangement of the n x n grids photographed.

상기 패턴 촬영부에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치가 결정될 수 있다.
When a short-time failure occurs in the photographing in the pattern photographing unit, a position of a time at which a failure occurs can be determined through a video tracking algorithm.

본 발명의 실시예들에 따르면, 기존의 2차원 공간에서 위치를 파악하는 기술을 3차원 공간으로 확장할 수 있다.According to embodiments of the present invention, a technique of locating an existing two-dimensional space can be extended to a three-dimensional space.

또한 본 발명의 실시예들에 따르면, 3차원 공간에서 위치 결정의 정밀도를 높일 수 있다.Further, according to the embodiments of the present invention, the accuracy of positioning in the three-dimensional space can be enhanced.

또한 본 발명의 실시예들에 따르면, 3차원 공간에서의 위치 결정을 통해, 드론의 조종이나 예상 이동 경로 예측 등의 기술에 활용할 수 있다.
Further, according to the embodiments of the present invention, it is possible to utilize it in a technique such as drones maneuvering or predicted travel path prediction through positioning in a three-dimensional space.

도 1은 3차원 공간에 물체가 위치하는 상태를 나타내는 도면
도 2는 도 1의 3차원 공간에 물체가 위치하는 상태를 3차원 좌표계로 나타내는 도면
도 3은 본 발명의 일 실시예에 따른 위치 결정 장치를 나타내는 도면
도 4는 본 발명의 일 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면
도 5는 본 발명의 일 실시예에 따른 위치 패턴의 종류를 나타내는 도면
도 6은 본 발명의 일 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면
도 7은 본 발명의 다른 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면
도 8은 본 발명의 다른 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면
1 is a view showing a state where an object is placed in a three-dimensional space
Fig. 2 is a diagram showing a state where an object is positioned in the three-dimensional space of Fig. 1 as a three-dimensional coordinate system
3 is a view showing a positioning apparatus according to an embodiment of the present invention;
4 is a view showing an image projected by a position pattern projection unit according to an embodiment of the present invention
5 is a view showing a kind of a position pattern according to an embodiment of the present invention;
6 is a diagram showing a pattern photographing unit and a positioning unit according to an embodiment of the present invention for determining the position of an object
7 is a view showing an image projected by a position pattern projection unit according to another embodiment of the present invention
FIG. 8 is a diagram showing a pattern photographing unit and a positioning unit according to another embodiment of the present invention for determining the position of an object

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, this is merely an example and the present invention is not limited thereto.

본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하의 실시예는 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
The technical idea of the present invention is determined by the claims, and the following embodiments are merely a means for effectively explaining the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs.

도 1은 3차원 공간에 물체가 위치하는 상태를 나타내는 도면이다.1 is a view showing a state where an object is placed in a three-dimensional space.

도 1을 참조하면, 3차원 공간(100) 내에 물체(10)가 소정의 위치에 있을 수 있다. 3차원 공간(10)은 방의 형태의 실내 공간일 수 있다. 3차원 공간(100) 내에서 물체(10)의 위치를 파악하는 것에 의해서 물체(100)를 원하는 위치로 이동시키는 등의 조종이 가능하다. 물체(10)는 이동이 가능한 드론(drone) 형태일 수 있으며, 3차원 공간(100)의 바닥에서 2차원적인 이동 뿐만 아니라 3차원 이동이 가능한 비행 물체일 수 있다. 물체(10)의 크기와 이동 속도는 일반적인 드론에 해당하는 값을 가질 수 있다..Referring to FIG. 1, the object 10 may be in a predetermined position in the three-dimensional space 100. The three-dimensional space 10 may be an indoor space in the form of a room. It is possible to steer the object 100 to a desired position by grasping the position of the object 10 in the three-dimensional space 100. The object 10 may be in the form of a movable drone and may be a flying object capable of two-dimensional movement as well as three-dimensional movement at the bottom of the three-dimensional space 100. The size and movement speed of the object 10 may have a value corresponding to a general drones.

물체(10)의 상측에는 천장의 영상을 촬영할 수 있는 카메라(미도시됨)가 장착되어서, 후술할 패턴 촬영부로서의 역할을 할 수 있다. 물체(10)의 상측에 패턴 촬영부가 장착되기 때문에, 물체(10)는 3차원 공간의 천장 및 바닥과 평행한 것이 바람직하지만, 약간의 기울어짐은 보정에 의해서 허용될 수 있다.
A camera (not shown) capable of capturing an image of a ceiling is mounted on the upper side of the object 10, and can serve as a pattern photographing unit to be described later. Although the object 10 is preferably parallel to the ceiling and floor of the three-dimensional space because the pattern radiographing portion is mounted above the object 10, slight inclination can be tolerated by the correction.

도 2는 도 1의 3차원 공간에 물체가 위치하는 상태를 3차원 좌표계로 나타내는 도면이다.FIG. 2 is a view showing a state where an object is positioned in the three-dimensional space of FIG. 1 in a three-dimensional coordinate system.

3차원 공간(100)은 3차원 좌표계로 표현하여, 물체(10)의 위치를 3차원 좌표계 상의 (x,y,z)좌표로 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 물체(10)의 소정의 시간(t)에서의 3차원 좌표인 (x,y,z)좌표를 결정함으로써, 소정의 시간(t)에서의 물체(10)의 위치를 정확하게 확인할 수 있고, 이를 바탕으로 물체(10)의 이동을 조종하거나, 물체(10)의 예상 이동 경로를 예측하는 것이 가능하다. 도 2에서는, 물체(10)의 현재 위치가 3차원 좌표계에서 (x1,y1,z1) 좌표에 해당함을 나타내고 있다.
The three-dimensional space 100 is represented by a three-dimensional coordinate system, and the position of the object 10 can be represented by (x, y, z) coordinates on the three-dimensional coordinate system. According to an embodiment of the present invention, by determining the (x, y, z) coordinates which are three-dimensional coordinates at a predetermined time t of the object 10, So that it is possible to accurately control the movement of the object 10 or to predict the expected movement path of the object 10 based on this position. 2 shows that the current position of the object 10 corresponds to the coordinates (x1, y1, z1) in the three-dimensional coordinate system.

도 3은 본 발명의 일 실시예에 따른 위치 결정 장치를 나타내는 도면이다.3 is a view illustrating a positioning apparatus according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 위치 결정 장치는, 위치 패턴 투사부(11), 패턴 촬영부(12), 위치 결정부(13), 통신부(14) 및 제어부(15)를 포함할 수 있다.The positioning apparatus according to an embodiment of the present invention may include a position pattern projection unit 11, a pattern photographing unit 12, a positioning unit 13, a communication unit 14, and a control unit 15.

위치 패턴 투사부(11)는 3차원 공간(100)의 일면 - 예를 들어, 3차원 공간(100)의 천장 - 에 위치 패턴을 투사할 수 있다. 위치 패턴은 물체(10)의 위치를 결정할 수 있도록 물체(10)의 위치에 대응하는 패턴일 수 있으며, 위치 패턴의 구체적인 형태는 후술한다. 위치 패턴 투사부(11)는 3차원 공간(100)의 소정의 위치에 배치될 수 있는데, 예를 들어, 3차원 공간(100)의 바닥에 배치되고, 3차원 공간(100)의 천장을 향해 위치 패턴을 투사할 수 있다. 3차원 공간(100)의 크기에 따라서 위치 패턴 투사부(11)는 복수 개가 배치될 수 있다. 즉, 3차원 공간(100)의 크기가 커짐에 따라서, 위치 패턴 투사부(11)가 커버해야 할 천장의 넓이도 넓어지기 때문에, 위치 패턴 투사부(11)의 개수를 늘려서 3차원 공간(100)의 천장 전체를 커버할 수 있다.The position pattern projection section 11 can project the position pattern onto one side of the three-dimensional space 100, for example, the ceiling of the three-dimensional space 100. [ The position pattern may be a pattern corresponding to the position of the object 10 so that the position of the object 10 can be determined, and a specific form of the position pattern will be described later. The position pattern projection section 11 may be disposed at a predetermined position in the three-dimensional space 100 and may be disposed at the bottom of the three-dimensional space 100, for example, toward the ceiling of the three- The position pattern can be projected. A plurality of position pattern projecting parts 11 may be arranged according to the size of the three-dimensional space 100. That is, as the size of the three-dimensional space 100 increases, the width of the ceiling to be covered by the position pattern projecting section 11 is widened. Therefore, the number of the position pattern projecting sections 11 is increased, ) Of the ceiling.

위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사하는 경우에는 물체(10)의 (x,y,z) 좌표 중 xy 평면 상의 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다. 이 경우, 물체(10)의 z좌표는 별도의 센서 - 예를 들어, 기압 센서 - 를 통해 구하거나, 패턴 촬영부(12)에 의해 촬영된 위치 패턴의 크기, 또는 다른 알려진 z 좌표의 거리 측정 방법을 통해 결정될 수 있다. 위치 패턴의 크기 촬영을 통한 z 좌표 측정은, 천장에 투사된 위치 패턴의 실제 크기 또는 위치 패턴 사이의 실제 거리 정보를 획득한 상태에서, 패턴 촬영부에 의해 촬영된 위치 패턴의 크기 또는 그 사이의 거리가 물체의 z 좌표에 비례하여 변하게 된다는 점을 이용하여 결정될 수 있다.When the position pattern projecting section 11 projects the position pattern on the ceiling of the three-dimensional space 100, the (x, y) coordinate on the xy plane among the (x, y, z) Lt; / RTI > In this case, the z-coordinate of the object 10 may be obtained through a separate sensor (for example, an air pressure sensor), the size of the position pattern photographed by the pattern photographing unit 12, Method can be determined. Size of position pattern The z-coordinate measurement through photographing can be performed by measuring the size of the position pattern photographed by the pattern photographing section or the size of the position pattern photographed by the pattern photographing section in a state where the actual size information of the position pattern projected on the ceiling or the actual distance information between the position patterns is obtained And the distance changes in proportion to the z-coordinate of the object.

패턴 촬영부(12)는 물체(10) 상에 형성되어, 3차원 공간(100)의 일면 - 예를 들어, 천장 - 에 투사된 위치 패턴 중 물체(10)의 실제 위치에 대응하는 일부를 촬영할 수 있다. 앞서 설명한 바와 같이, 패턴 촬영부(12)는 물체(10) 상에 위치하는 카메라일 수 있어서, 물체(10)의 위치가 변경됨에 따라서 물체(10)의 현 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 패턴 촬영부(12)는 Full HD의 해상도일 수 있으며, 시계(field of view)가 90˚일 수 있다. 그리고, 패턴 촬영부(12)의 촬영 방향은 위치 패턴이 투사된 면 - 예를 들어, 천장 - 을 향할 수 있다.The pattern photographing unit 12 is formed on the object 10 and photographs a part of the position pattern projected on one side of the three-dimensional space 100, for example, a ceiling, corresponding to the actual position of the object 10 . As described above, the pattern photographing section 12 can be a camera located on the object 10, and can change a part of the position pattern corresponding to the current position of the object 10 as the position of the object 10 is changed You can shoot. The pattern photographing unit 12 may be a full HD resolution and the field of view may be 90 degrees. Then, the photographing direction of the pattern photographing section 12 can be directed to the projected surface - for example, the ceiling - of the position pattern.

위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 위치 패턴의 일부를 기초로 물체(10)의 위치를 결정할 수 있다. 위치 패턴에 따라서 물체(10)의 위치를 결정하는 구체적인 방식은 후술한다.The position determination section 13 can determine the position of the object 10 based on a part of the position pattern photographed by the pattern photographing section 12. [ A specific method of determining the position of the object 10 in accordance with the position pattern will be described later.

통신부(14)는 위치 패턴 투사부(11), 패턴 촬영부(12), 위치 결정부(13) 및 제어부(15) 간의 데이터 통신이 이루어지도록 할 수 있다. 통신부(14)에 의한 데이터 전송 속도는 30 Hz 이내일 수 있다. The communication unit 14 can perform data communication between the position pattern projection unit 11, the pattern photographing unit 12, the positioning unit 13, and the control unit 15. [ The data transmission rate by the communication unit 14 may be within 30 Hz.

제어부(15)는 위치 패턴 투사부(11), 패턴 촬영부(12) 및 위치 결정부(13)를 통해 물체(10)의 위치 결정이 이루어지는 것을 제어할 수 있다. 또한, 여러 장애사유로 인하여 패턴 촬영부(12)에서의 촬영에 단시간 장애가 발생할 수 있으나, 제어부(15)에서는 영상 추적 알고리즘을 통해 이를 해결할 수 있다. 다만, 영상 추적 알고리즘에 의한 단시간 장애의 해결은 제어부(15) 이외에 위치 결정부(13)에서 행하는 것도 가능하다. 영상 추적 알고리즘은 영상 입력을 통해 움직이는 물체를 추적하는데 사용되는 알고리즘으로 움직이는 물체의 속도와 위치의 변화가 연속적으로 일어나고 갑작스러운(불연속적인) 변화는 일어나지 않는다는 사실을 바탕으로 할 수 있다. 위치 결정부(13) 또는 제어부(15)에서 실제로 측정된 현재 위치를 영상 추적 알고리즘에 제공하여 미래 위치를 계속해서 추정하고 있는 상태에서, 단시간 장애가 발생할 경우 영상 추적 알고리즘을 통해 추정된 위치를 현재 위치로 결정할 수 있다.
The control unit 15 can control the positioning of the object 10 through the position pattern projection unit 11, the pattern photographing unit 12, and the positioning unit 13. [ In addition, a short-time failure may occur in the photographing by the pattern photographing unit 12 due to various reasons for the failure, but the control unit 15 can solve this problem through the image tracking algorithm. However, it is possible to solve the short-time trouble by the image tracking algorithm by the positioning unit 13 in addition to the control unit 15. [ The image tracking algorithm can be based on the fact that the speed and position changes of moving objects occur consecutively and there is no sudden (discontinuous) change in the algorithms used to track objects moving through the image input. In the state where the current position actually measured by the position determination unit 13 or the control unit 15 is provided to the image tracking algorithm and the future position is continuously estimated, the position estimated by the image tracking algorithm when the short- .

도 4는 본 발명의 일 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면이다. 이하에서는, 위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사한 경우에 대해서 설명한다. 따라서, 물체(10)의 위치를 나타내는 (x,y,z) 좌표 중 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다. 4 is a diagram illustrating an image projected by a position pattern projection unit according to an embodiment of the present invention. Hereinafter, a case where the position pattern projection unit 11 projects a position pattern on the ceiling of the three-dimensional space 100 will be described. Therefore, the (x, y) coordinate of the (x, y, z) coordinates indicating the position of the object 10 can be determined by the position pattern.

도 4를 참조하면, 위치 패턴 투사부(11)에 의해 3차원 공간(100)의 천장에 투사되는 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점으로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.4, the position pattern projected on the ceiling of the three-dimensional space 100 by the position pattern projecting unit 11 is formed in a predetermined direction from one of the grid points generated by the imaginary grid to one of the upper, And may be a point array formed of a plurality of points arranged at positions spaced apart by an interval.

즉, 가상의 수직선(51) 및 가상의 수평선(52)에 의해 가상의 격자가 형성되고, 수직선(51) 및 수평선(52)이 만나는 격자점(53)으로부터 포인트(54)는 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치될 수 있다. 각각의 포인트(54)가 모인 포인트 어레이가 3차원 공간(100)의 일면 - 예를 들어, 천장 - 전체에 투사될 수 있다. 도 4에서 나타내는 가상의 수직선(51) 및 가상의 수평선(52)은 3차원 공간(100)의 일면에 실제로 투사되는 것이 아니고, 각각의 포인트(54)의 배치 형태를 설명하기 위하여 도시된 것이다.A virtual lattice is formed by the virtual vertical line 51 and the imaginary horizontal line 52 and the point 54 from the lattice point 53 where the vertical line 51 and the horizontal line 52 meet is one of the upper, As shown in Fig. A point array in which each point 54 is gathered can be projected onto one side of the three-dimensional space 100, for example, the ceiling. The virtual vertical lines 51 and the imaginary horizontal lines 52 shown in Fig. 4 are not actually projected on one side of the three-dimensional space 100 but are shown for explaining the arrangement of the respective points 54. Fig.

가상의 수직선(51) 및 가상의 수평선(52) 간의 간격은 4cm 이내일 수 있다.The distance between the imaginary vertical line 51 and the imaginary horizontal line 52 may be within 4 cm.

포인트 어레이를 3차원 공간(100)의 일면에 투사하기 위하여 레이저 도트(dot) 프로젝터가 위치 패턴 투사부(11)로서 사용될 수 있다. 위치 패턴 투사부(11)인 레이저 도트 프로젝터를 구현하기 위하여, 예를 들어, 원거리 랜덤 패턴 프로젝터(long-range random pattern projector)에서 사용되는 레이저 기술을 사용할 수 있다. 상기 레이저 기술을 통해, 위치 패턴 투사부(11)는 위치 패턴 투사부(11)와 위치 패턴이 투사되는 3차원 공간(100)의 일면과의 거리가 2 m 정도에서 동작 가능하고, 위치 패턴에 해당하는 점(dot)의 지름이 0.7 mm 이며, 위치 패턴 사이의 거리가 7 mm가 되며, 1개의 위치 패턴 투사부(11)를 통해 1.6 × 1.6 m2의 면적을 커버할 수 있다.
A laser dot projector can be used as the position pattern projection unit 11 to project the point array on one side of the three-dimensional space 100. [ To implement the laser dot projector as the position pattern projection unit 11, for example, a laser technique used in a long-range random pattern projector can be used. Through the laser technology, the position pattern projection unit 11 can operate at a distance of about 2 m from the one side of the three-dimensional space 100 in which the position pattern is projected from the position pattern projection unit 11, The diameter of the corresponding dot is 0.7 mm, the distance between the position patterns is 7 mm, and it is possible to cover the area of 1.6 x 1.6 m 2 through one position pattern projection unit 11. [

도 5는 본 발명의 일 실시예에 따른 위치 패턴의 종류를 나타내는 도면이다.5 is a view showing the types of position patterns according to an embodiment of the present invention.

도 5를 참조하면, 가상의 수직선(51) 및 가상의 수평선(52)에 의해 형성되는 가상의 격자점(53)으로부터 포인트(54)는 상하좌우의 4가지 방향 중 하나의 방향으로 소정의 간격(a) 만큼 떨어진 상태로 배치될 수 있다. 도 5(a)는 포인트(54)가 가상의 격자점(53)으로부터 우측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내고, 도 5(b)는 포인트(54)가 가상의 격자점(53)으로부터 상측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내며, 도 5(c)는 포인트(54)가 가상의 격자점(53)으로부터 좌측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내고, 도 5(d)는 포인트(54)가 가상의 격자점(53)으로부터 하측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타낸다.5, a point 54 from a virtual lattice point 53 formed by a virtual vertical line 51 and an imaginary horizontal line 52 extends in a direction of one of the four directions of up and down, (a). 5A shows that the point 54 is separated from the imaginary lattice point 53 by a predetermined distance a in the right direction and Fig. 5B shows that the point 54 is the imaginary lattice point 53 5 (c) shows that the point 54 is separated from the imaginary lattice point 53 by a predetermined distance (a) in the left direction, and Fig. 5 5 (d) shows that the point 54 is separated from the imaginary lattice point 53 by a predetermined distance (a) in the downward direction.

따라서, 포인트(54)가 가상의 격자점(53)에 대응하여 4개의 가능한 위치가 있는데, 이러한 4개의 위치에 대응하여 각각의 포인트(54)는 "0" 내지 "3"에 대응하는 이진법의 값 4 개 중 하나를 나타낼 수 있다. 이에 대한 예시를 표로 나타내면 다음과 같다.
Thus, there are four possible positions corresponding to the virtual lattice points 53, point 54, corresponding to these four positions, each point 54 being a binary value corresponding to "0" It can represent one of four values. An example of this is shown in the table below.

포인트 값Point value 수평 방향Horizontal direction 수직 방향Vertical direction 0000 00 aa 0101 aa 00 1010 -a-a 00 1111 00 -a-a

다만, 상기 표 1에서 나타내는, 포인트(54)의 배치와 포인트(54) 값 간의 관계는 예시에 불과하다.
However, the relationship between the arrangement of the points 54 and the values of the points 54 shown in Table 1 is merely an example.

도 6은 본 발명의 일 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면이다.FIG. 6 is a diagram showing a pattern photographing unit and a positioning unit according to an embodiment of the present invention for determining the position of an object.

도 6을 참조하면, 패턴 촬영부(12)는 3차원 공간의 천장에 투사된 위치 패턴 중에서 물체(10)의 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 도 6에서 나타내는 바와 같이, 물체(10)의 현재 위치에 대응하는 포인트(54)의 위치가 10'에 해당한다고 한다면, 패턴 촬영부(12)는 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트(10')를 중심으로 한 n×n 개의 포인트 배열(10a)을 촬영할 수 있다. 도 6에서는 물체의 위치에 대응하는 포인트(10')를 중심으로 상하좌우 각각 3개의 포인트(54)가 포함되도록 하여, n×n이 7×7인 것으로 예시하고 있지만, 이에 한정되는 것은 아니다.Referring to FIG. 6, the pattern photographing unit 12 can photograph a part of the position pattern corresponding to the position of the object 10 among the position patterns projected on the ceiling of the three-dimensional space. 6, if the position of the point 54 corresponding to the current position of the object 10 corresponds to 10 ', then the pattern photographing unit 12 obtains the point corresponding to the position of the object in the point array ( N 'point arrays 10a centered on the points 10'. In FIG. 6, three points 54 are vertically and horizontally located at points 10 'corresponding to the position of the object, and n × n is 7 × 7, but the present invention is not limited thereto.

위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 n×n 개의 포인트 배열(10a)을 기초로 물체(10)의 위치를 결정할 수 있다. 앞서 설명한 바와 같이, 각각의 포인트(54)의 배치는 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타내기 때문에, n×n 개의 포인트 배열(10a)은 n×n 행렬에 대응되고, n×n 행렬에 포함된 각각의 값은 "00", "01", "10" 및 "11" 중 하나에 해당될 수 있다. 예를 들어, n×n이 7×7인 경우에 포인트 배열(10a)은 다음과 같은 행렬로 표현될 수 있다.
The position determining unit 13 can determine the position of the object 10 based on the nxn point arrays 10a captured by the pattern photographing unit 12. [ As described above, since the arrangement of each point 54 represents one of four values of "00", "01", "10" and "11", the n × n point arrays 10a nxn matrix and each value included in the nxn matrix may correspond to one of "00 "," 01 ","10",and" 11 ". For example, in the case where nxn is 7x7, the point arrangement 10a can be expressed by the following matrix.

따라서, n×n이 7×7인 경우에, 행렬의 경우의 수는 449 이 되어서, 이론적으로는 물체(10)의 위치를 449 가지로 나타낼 수 있다. 따라서, 물체(10)의 위치를 정밀하게 결정할 수 있다. 다만, 449 가지로 나타나는 패턴에 대한 위치를 테이블의 형태로 저장하는 것은 과도한 저장용량이 필요하기 때문에, 별도의 포지션 코딩(position coding) 방식을 사용하여, 위치를 나타내기 위한 패턴의 종류를 충분히 확보하면서도, 테이블의 크기가 처리 가능한 수준으로 유지되도록 할 수 있다.Therefore, when n x n is 7 x 7, the number of cases of the matrix is 4 49 , and the position of the object 10 can theoretically be represented by 4 49 . Therefore, the position of the object 10 can be precisely determined. However, since storing the position of the pattern represented by 4 49 patterns in the form of a table requires an excessive storage capacity, it is necessary to use a separate position coding method to sufficiently specify the type of pattern for indicating the position While ensuring that the size of the table remains at a manageable level.

이러한 포지션 코딩 방식을 예시하면 다음과 같다.The position coding method will be described as follows.

(1) 우선, 이진법 두 자리 수로 표현되는 행렬의 각각의 요소를 앞자리 수는 x축 성분으로 하고, 뒷자리 수는 y축 성분으로 나눠서 x축 성분과 y축 성분 각각에 대한 2개의 행렬로 나타낼 수 있다. 이를 바이너리 오프셋 확률 행렬(binary offset probability matrix; BOPM)이라고 할 수 있고, x축 성분에 대한 행렬과 y축 성분에 대한 행렬을 각각 x-BOPM과 y-BOPM이라고 할 수 있다.(1) First, each element of the matrix expressed by two-digit binary number can be expressed by two matrices for each of the x-axis component and the y-axis component, have. This can be called a binary offset probability matrix (BOPM), and the matrix for the x-axis component and the matrix for the y-axis component can be referred to as x-BOPM and y-BOPM, respectively.

(2) x-BOPM 또는 y-BOPM에 포함된 각각의 행 또는 열로 구성된 수열을 메인 시퀀스(main sequence)라고 하면, 각 메인 시퀀스에 대해서 차분 서브시퀀스(difference number subsequence)를 생성할 수 있다. 서브시퀀스를 생성하는 방법에 관해서는 미국등록특허 제6,667,695호에 개시된 방법을 사용할 수 있으나, 이에 한정되는 것은 아님은 당연하다.(2) If a sequence composed of each row or column included in x-BOPM or y-BOPM is referred to as a main sequence, a difference number subsequence can be generated for each main sequence. As a method of generating the subsequence, the method disclosed in U.S. Patent No. 6,667,695 may be used, but is not limited thereto.

이와 같은 포지션 코딩 방식에 따르면, x축 성분 및 y축 성분 각각에 대해서 코딩을 행하고, 길이가 긴 메인 시퀀스를 길이가 짧은 복수 개의 서브시퀀스로 변환하여 코딩을 행하기 때문에, 물체의 위치를 결정하기 위한 패턴의 종류를 충분히 확보하면서도, 위치 패턴을 저장하는 테이블의 크기가 지나치게 커지는 것을 방지할 수 있다. 다만, 상기의 포지션 코딩 방식은 예시에 불과하며, 처리 가능한 수준의 테이블 크기를 형성하기 위한 다른 코딩 방식을 사용하는 것도 가능하다.
According to such a position coding scheme, coding is performed for each of the x-axis component and the y-axis component, and the main sequence having a long length is converted into a plurality of subsequences each having a short length to perform coding. Therefore, It is possible to prevent the size of the table for storing the position pattern from being excessively increased. However, the position coding method is merely an example, and it is also possible to use another coding method for forming a table size of a processable level.

도 7은 본 발명의 다른 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면이다. 이하에서도, 위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사한 경우에 대해서 설명한다. 따라서, 물체(10)의 위치를 나타내는 (x,y,z) 좌표 중 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다.7 is a view illustrating an image projected by a position pattern projection unit according to another embodiment of the present invention. Hereinafter, the case where the position pattern projection section 11 projects the position pattern on the ceiling of the three-dimensional space 100 will be described. Therefore, the (x, y) coordinate of the (x, y, z) coordinates indicating the position of the object 10 can be determined by the position pattern.

도 7을 참조하면, 위치 패턴 투사부(11)에 의해 3차원 공간(100)의 천장에 투사되는 위치 패턴은 체커보드(checkerboard) 형상으로서 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광 - 예를 들어, 적외선 - 이 투사될 수 있다. 도 7에서는 주파수의 가지수가 4 가지인 것을 예시하고 있으나, 이에 한정될 것은 아니다. 즉, 체커보드의 각각의 격자 내에는 f1, f2, f3, f4 중 하나의 주파수를 갖는 광이 투사될 수 있다. 각각의 주파수 f1, f2, f3, f4는 "0" 내지 "3"에 대응하는 이진법의 값인 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타낼 수 있다.7, the position pattern projected on the ceiling of the three-dimensional space 100 by the position pattern projection unit 11 is a checkerboard shape, and in each grid of the checkerboard, one of m frequencies The light of a frequency - for example, infrared - can be projected. In Fig. 7, four frequency branches are exemplified, but the present invention is not limited thereto. That is, light having a frequency of one of f1, f2, f3, and f4 may be projected in each grid of the checker board. Each of the frequencies f1, f2, f3 and f4 can represent one of four values of binary values "00", "01", "10" and "11" corresponding to "0"

위치 패턴 투사부(11)는 적외선 영상 프로젝터(infrared scene projector)일 수 있으며, 3~5 μm의 파장을 갖는 적외선이 투사될 수 있다. 적외선 영상 프로젝터의 해상도는 5mrad 일 수 있으며, 약 2 m 거리에서 투사한다고 하였을 때 해상도는 1cm 정도일 수 있다. The position pattern projection unit 11 may be an infrared scene projector, and an infrared ray having a wavelength of 3 to 5 μm may be projected. The resolution of the infrared image projector may be 5 mrad, and the resolution may be 1 cm when projected at a distance of about 2 m.

적외선 영상 투사기는 투사 어레이 및 광학계를 포함할 수 있다. 투사 어레이는 포지티브 및 네거티브 발광 모두를 방출할 수 있는 적외선 발광 어레이일 수 있다. 적외선 발광 어레이는 소정의 개수의 다이오드 소자 어레이 또는 소정의 개수의 저항 소자 어레이 일 수 있다.
The infrared image projector may include a projection array and an optical system. The projection array may be an infrared light emitting array capable of emitting both positive and negative light emission. The infrared light emitting array may be a predetermined number of diode element arrays or a predetermined number of resistor element arrays.

도 8은 본 발명의 다른 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면이다.FIG. 8 is a diagram showing a pattern photographing unit and a positioning unit according to another embodiment of the present invention for determining the position of an object.

도 8을 참조하면, 패턴 촬영부(12)는 3차원 공간의 천장에 투사된 위치 패턴 중에서 물체(10)의 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 도 8에서 나타내는 바와 같이, 물체(10)의 현재 위치에 대응하는 격자의 위치가 10"에 해당한다고 한다면, 패턴 촬영부(12)는 물체(10)의 위치에 대응하는 격자(10")를 중심으로 한 n×n 개의 격자 배열(10b)을 촬영할 수 있다. 도 8에서는 물체(10)의 위치에 대응하는 격자(10")를 중심으로 상하좌우 각각 3개의 격자가 포함되도록 하여, n×n이 7×7인 것으로 예시하고 있지만, 이에 한정되는 것은 아니다.Referring to FIG. 8, the pattern photographing unit 12 can photograph a part of the position pattern corresponding to the position of the object 10 among the position patterns projected on the ceiling of the three-dimensional space. 8, if the position of the grating corresponding to the current position of the object 10 corresponds to 10 ", the pattern photographing unit 12 obtains the grating 10 "corresponding to the position of the object 10 It is possible to take an image of n x n grid array 10b centering on the grid. In FIG. 8, three lattices are respectively included in the upper, lower, left, and right sides of the lattice 10 "corresponding to the position of the object 10, and n x n is 7 x 7, but the present invention is not limited thereto.

위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 n×n 개의 격자 배열(10b)을 기초로 물체(10)의 위치를 결정할 수 있다. 앞서 설명한 바와 같이, 각각의 격자의 배치는 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타내기 때문에, n×n 개의 격자 배열(10b)은 n×n 행렬에 대응되고, n×n 행렬에 포함된 각각의 값은 "00", "01", "10" 및 "11" 중 하나에 해당될 수 있다. The positioning unit 13 can determine the position of the object 10 based on the nxn grid array 10b photographed by the pattern photographing unit 12. [ As described above, since the arrangement of each lattice represents one of four values of "00", "01", "10" and "11", the n × n grid array 10b is n × n And each value included in the nxn matrix may correspond to one of "00 "," 01 ", "10 ", and" 11 ".

따라서, n×n이 7×7인 경우에, 행렬의 경우의 수는 449 이 되어서, 이론적으로는 물체(10)의 위치를 449 가지로 나타낼 수 있다. 따라서, 물체(10)의 위치를 정밀하게 결정할 수 있다. 다만, 449 가지로 나타나는 패턴에 대한 위치를 테이블의 형태로 저장하는 것은 과도한 저장용량이 필요하기 때문에, 별도의 포지션 코딩(position coding) 방식을 사용하여, 위치를 나타내기 위한 패턴의 종류를 충분히 확보하면서도, 테이블의 크기가 처리 가능한 수준으로 유지되도록 할 수 있음은 앞서 설명한 바와 같다.
Therefore, when n x n is 7 x 7, the number of cases of the matrix is 4 49 , and the position of the object 10 can theoretically be represented by 4 49 . Therefore, the position of the object 10 can be precisely determined. However, since storing the position of the pattern represented by 4 49 patterns in the form of a table requires an excessive storage capacity, it is necessary to use a separate position coding method to sufficiently specify the type of pattern for indicating the position The size of the table can be maintained at a processable level, as described above.

전술된 바와 같이, 본 발명은 실시예를 중심을 설명되었으나, 본 발명의 기술적 사상에서 벗어나지 않는 한도 내에서 여러 변형이 가능함은 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명백할 것이다.As described above, the present invention has been described with reference to the embodiments. However, it will be apparent to those skilled in the art that various modifications may be made without departing from the technical spirit of the present invention.

또한, 본 발명에서 보이는 구성요소들을 공지의 유사한 기능을 수행하는 기술요소로 치환하거나 변형하는 것도 본 발명이 속하는 분야에서 통상의 지식을 가지는 자에게 명백할 것이다.It will be apparent to those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims.

따라서, 본 발명의 권리범위는 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 아래의 청구범위에서 보이는 사상 및 그 균등범위까지 미친다.
Therefore, the scope of the present invention should not be limited to the scope of the present invention, but extends to the scope of the claims and their equivalents.

10: 물체
11: 위치 패턴 투사부
12: 패턴 촬영부
13: 위치 결정부
14: 통신부
15: 제어부
51: 수직선
52: 수평선
53: 격자점
54: 포인트
100: 3차원 공간
10: object
11: Position pattern projection part
12:
13: Positioning unit
14:
15:
51: Vertical line
52: Horizon
53: grid point
54: Points
100: 3D space

Claims (30)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 3차원 공간에서 물체의 위치를 결정하는 위치 결정 방법으로서,
상기 3차원 공간의 일면에 위치 패턴이 투사되는 단계;
상기 물체의 위치에 해당하는 상기 위치 패턴의 일부가 촬영되는 단계; 및
상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 상기 일면에 평행한 2차원 평면 상의 좌표가 결정되는 단계를 포함하고,
상기 위치 패턴에 의해 상기 일면의 위치마다 기 결정된 가지 수의 형태 중 하나의 형태가 배치되고,
상기 위치 패턴의 일부는 상기 물체의 위치에 해당하는 위치를 중심으로 n×n 개의 형태의 배열인, 위치 결정 방법.
A position determining method for determining a position of an object in a three-dimensional space,
Projecting a position pattern on one side of the three-dimensional space;
Photographing a part of the position pattern corresponding to the position of the object; And
And determining a coordinate on a two-dimensional plane parallel to the one surface among the three-dimensional positions of the object based on a part of the photographed position pattern,
Wherein one of the shapes of the predetermined number of branches is arranged for each position of the one surface by the position pattern,
Wherein a part of the position pattern is an arrangement of nxn shapes around a position corresponding to the position of the object.
청구항 16에 있어서,
상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정되는, 위치 결정 방법.
18. The method of claim 16,
Wherein the z coordinate of the three-dimensional position of the object is determined by the size of the position pattern or the distance between the position patterns.
청구항 16에 있어서,
상기 물체 상에서 상기 위치 패턴의 일부가 촬영되는, 위치 결정 방법.
18. The method of claim 16,
And a part of the position pattern is photographed on the object.
청구항 16에 있어서,
상기 공간의 바닥의 소정의 위치에서 상기 공간의 천장을 향해 상기 위치 패턴이 투사되는, 위치 결정 방법.
18. The method of claim 16,
Wherein the position pattern is projected from a predetermined location on the bottom of the space toward the ceiling of the space.
청구항 16에 있어서,
상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이인, 위치 결정 방법.
18. The method of claim 16,
Wherein the position pattern is a point array formed by a plurality of points arranged at a predetermined distance in a direction of one of up, down, left, and right from each lattice point generated by a virtual lattice.
청구항 20에 있어서,
레이저 도트(dot) 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.
The method of claim 20,
Wherein the position pattern is projected by a laser dot projector.
청구항 21에 있어서,
원거리 랜덤 패턴 프로젝터 기술이 사용되어 상기 위치 패턴이 투사되는, 위치 결정 방법.
23. The method of claim 21,
Wherein the remote random pattern projector technique is used to project the position pattern.
청구항 20에 있어서,
상기 촬영 단계에서, 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트가 촬영되는, 위치 결정 방법.
The method of claim 20,
And in the photographing step, n x n points around the point corresponding to the position of the object in the point array are photographed.
청구항 23에 있어서,
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치가 결정되는, 위치 결정 방법.
24. The method of claim 23,
And in the positioning step, the position of the object is determined based on the arrangement of the n x n points photographed.
청구항 16에 있어서,
상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사되는, 위치 결정 방법.

18. The method of claim 16,
Wherein the position pattern is in the form of a checkerboard, and light of one of m different frequencies is projected in each grating of the checkerboard.

청구항 25에 있어서,
상기 m은 4인, 위치 결정 방법.
26. The method of claim 25,
And m is 4.
청구항 25에 있어서,
적외선 영상 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.
26. The method of claim 25,
Wherein said position pattern is projected by an infrared image projector.
청구항 25에 있어서,
상기 촬영 단계에서, 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자가 촬영되는, 위치 결정 방법.
26. The method of claim 25,
Wherein in the photographing step, n x n gratings centered on a grating corresponding to a position of the object among the plurality of gratings are photographed.
청구항 28에 있어서,
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치가 결정되는, 위치 결정 방법.
29. The method of claim 28,
And in the positioning step, the position of the object is determined based on the arrangement of the n x n grids photographed.
청구항 16에 있어서,
상기 위치 패턴의 일부 촬영 단계에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치가 결정되는, 위치 결정 방법.
18. The method of claim 16,
Wherein a position of a time at which a failure occurs is determined through a video tracking algorithm when a short-time failure occurs in the photographing in the partial photographing step of the position pattern.
KR1020150000736A 2015-01-05 2015-01-05 Positioning apparatus and positioning method KR101713028B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150000736A KR101713028B1 (en) 2015-01-05 2015-01-05 Positioning apparatus and positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150000736A KR101713028B1 (en) 2015-01-05 2015-01-05 Positioning apparatus and positioning method

Publications (2)

Publication Number Publication Date
KR20160084168A KR20160084168A (en) 2016-07-13
KR101713028B1 true KR101713028B1 (en) 2017-03-07

Family

ID=56505561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150000736A KR101713028B1 (en) 2015-01-05 2015-01-05 Positioning apparatus and positioning method

Country Status (1)

Country Link
KR (1) KR101713028B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012237604A (en) * 2011-05-10 2012-12-06 Sanyo Electric Co Ltd Information acquisition apparatus, projection device and object detection device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090099174A (en) 2008-03-17 2009-09-22 마경석 The measurement system that using the dot laser beam and light detecting sensor of coordinates, expactation flying distance, flying angle of the flying matrial or ball
US8791901B2 (en) * 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
KR101343975B1 (en) * 2012-06-11 2013-12-20 휴앤에스(주) System for detecting unexpected accident

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012237604A (en) * 2011-05-10 2012-12-06 Sanyo Electric Co Ltd Information acquisition apparatus, projection device and object detection device

Also Published As

Publication number Publication date
KR20160084168A (en) 2016-07-13

Similar Documents

Publication Publication Date Title
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9693040B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US10582188B2 (en) System and method for adjusting a baseline of an imaging system with microlens array
JP6632232B2 (en) Method for cleaning or treating a room with a free-standing mobile device and a free-standing mobile device
US20220036574A1 (en) System and method for obstacle avoidance
US9182763B2 (en) Apparatus and method for generating three-dimensional map using structured light
EP3170367B1 (en) Stadium lighting aiming system and method
US20180003498A1 (en) Visual positioning system and method based on high reflective infrared identification
US9778029B2 (en) Self-position calculating apparatus and self-position calculating method
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
CN104067111A (en) Automated system and method for tracking and detecting discrepancies on a target object
CN105306922A (en) Method and device for obtaining depth camera reference diagram
JP2017527812A (en) Method for optical measurement of three-dimensional coordinates and calibration of a three-dimensional measuring device
US20230252666A1 (en) Systems and methods of measuring an object in a scene of a captured image
CN112204345A (en) Indoor positioning method of mobile equipment, mobile equipment and control system
JP2019213082A (en) Sensor control device, object search system, object search method, and program
JP5505363B2 (en) Motion tracker device
KR101713028B1 (en) Positioning apparatus and positioning method
US20210047037A1 (en) Optically supported object navigation
US20210055420A1 (en) Base for spherical laser scanner and method for three-dimensional measurement of an area
RU2758036C1 (en) Method and system for optical-inertial tracking of a mobile object
KR101783585B1 (en) Method for managing plant facilities
CN103869593A (en) Three-dimension imaging device, system and method
JP2015019270A (en) Camera system and control method and control program of the same
KR101754975B1 (en) apparatus for controlling position of battery

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20200107

Year of fee payment: 4