KR101713028B1 - Positioning apparatus and positioning method - Google Patents
Positioning apparatus and positioning method Download PDFInfo
- Publication number
- KR101713028B1 KR101713028B1 KR1020150000736A KR20150000736A KR101713028B1 KR 101713028 B1 KR101713028 B1 KR 101713028B1 KR 1020150000736 A KR1020150000736 A KR 1020150000736A KR 20150000736 A KR20150000736 A KR 20150000736A KR 101713028 B1 KR101713028 B1 KR 101713028B1
- Authority
- KR
- South Korea
- Prior art keywords
- pattern
- delete delete
- position pattern
- photographed
- projected
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/22—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
Abstract
본 발명의 실시예들은 위치 결정 장치 및 위치 결정 방법에 관한 것이다. 본 발명의 일 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 장치로서, 상기 3차원 공간의 일면에 위치 패턴을 투사하는 위치 패턴 투사부; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부를 촬영하는 패턴 촬영부; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 위치를 결정하는 위치 결정부를 포함하는, 위치 결정 장치가 제공된다.Embodiments of the present invention relate to a positioning apparatus and a positioning method. According to an aspect of the present invention, there is provided a positioning apparatus for determining the position of an object in a three-dimensional space, comprising: a position pattern projection unit for projecting a position pattern on one surface of the three-dimensional space; A pattern photographing unit photographing a part of the position pattern corresponding to the position of the object; And a position determining section that determines a position of the object based on a part of the photographed position pattern.
Description
본 발명의 실시예들은 위치 결정 장치 및 위치 결정 방법에 관한 것이다.
Embodiments of the present invention relate to a positioning apparatus and a positioning method.
공간 상에 위치하는 드론(drone)의 위치를 결정하기 위하여 다양한 기술이 종래에 존재하고 있다. 측정하기 위한 기초 기술의 관점에서는, GPS, 적외선, Wifi, 초음파, 블루투스(Bluetooth) 등의 기술이 사용되고 있으며, 계산 방법으로는, 삼각측량(triangulation), 영상 분석(scene analysis), 근접 감지(proximity detection) 등이 방법이 사용되고 있고, 처리 수단의 관점에서는, 외부 처리 수단과 내부 처리 수단으로 구분될 수 있다.Various techniques have conventionally existed to determine the location of a drone located in space. Technologies such as GPS, infrared, Wifi, ultrasound, Bluetooth, etc. are used from the viewpoint of the basic technology for measurement, and triangulation, scene analysis, proximity detection and the like are used, and from the viewpoint of the processing means, it can be divided into the external processing means and the internal processing means.
그런데, 기존의 기술은 2차원 평면에서의 위치를 결정하는 방식인 것이 대부분이어서, 3차원 공간에서의 위치를 결정하는 데 사용하기는 어려움이 있다. 또한, 3차원 공간에서의 위치를 결정하는 데에 있어서 정밀도를 보장할 수 없어서 정확한 위치를 확인하는데 어려움이 있다. 따라서, 위치를 결정한 후에 이를 바탕으로 드론을 조종하거나 드론의 예상 이동 경로를 예측함에 있어서 그 활용성이 낮아지게 된다.
However, the conventional technique is mostly a method of determining a position in a two-dimensional plane, and thus it is difficult to use it to determine a position in a three-dimensional space. In addition, since the accuracy can not be guaranteed in determining the position in the three-dimensional space, it is difficult to confirm the accurate position. Therefore, after determining the position, the usability is low in controlling the drones or predicting the expected movement route of the drones based on the position.
본 발명의 실시예들은, 기존의 2차원 공간에서 위치를 파악하는 기술이 3차원 공간으로 확장되도록 하기 위한 것이다.Embodiments of the present invention are intended to extend the technique of locating an existing two-dimensional space into a three-dimensional space.
또한 본 발명의 실시예들은, 3차원 공간에서 위치 결정의 정밀도를 높이기 위한 것이다.Embodiments of the present invention are also intended to improve positioning accuracy in a three-dimensional space.
또한 본 발명의 실시예들은, 3차원 공간에서의 위치 결정을 통해, 드론의 조종이나 예상 이동 경로 예측 등의 기술에 활용할 수 있도록 하기 위한 것이다.
Further, the embodiments of the present invention are intended to be utilized in techniques such as drones maneuvering and predicted travel path prediction through positioning in a three-dimensional space.
다만, 본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
It is to be understood, however, that the technical scope of the present invention is not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.
본 발명의 일 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 장치로서, 상기 3차원 공간의 일면에 위치 패턴을 투사하는 위치 패턴 투사부; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부를 촬영하는 패턴 촬영부; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 (x,y) 좌표를 결정하는 위치 결정부를 포함하는, 위치 결정 장치가 제공된다.According to an aspect of the present invention, there is provided a positioning apparatus for determining the position of an object in a three-dimensional space, comprising: a position pattern projection unit for projecting a position pattern on one surface of the three-dimensional space; A pattern photographing unit photographing a part of the position pattern corresponding to the position of the object; And a position determiner for determining (x, y) coordinates of the three-dimensional position of the object based on a part of the photographed position pattern.
상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정될 수 있다.The z-coordinate among the three-dimensional positions of the object can be determined through the size of the position pattern or the distance between the position patterns.
상기 패턴 촬영부는 상기 물체 상에 위치할 수 있다.The pattern photographing unit may be located on the object.
상기 위치 패턴 투사부는 상기 공간의 바닥의 소정의 위치에 배치되고, 상기 공간의 천장에 상기 위치 패턴을 투사할 수 있다.The position pattern projection unit is disposed at a predetermined position on the bottom of the space, and can project the position pattern on a ceiling of the space.
상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.The position pattern may be a point array formed of a plurality of points arranged at a predetermined distance in a direction of one of upper, lower, left, and right from each grid point generated by a virtual grid.
상기 위치 패턴 투사부는 레이저 도트(dot) 프로젝터일 수 있다.The position pattern projection unit may be a laser dot projector.
상기 위치 패턴 투사부는 원거리 랜덤 패턴 프로젝터 기술을 사용할 수 있다.The position pattern projection unit may use a remote random pattern projector technology.
상기 패턴 촬영부는 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트를 촬영할 수 있다.The pattern photographing unit may photograph n x n points around a point corresponding to the position of the object in the point array.
상기 위치 결정부는 상기 패턴 촬영부에 의해 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치를 결정할 수 있다.The position determining unit may determine the position of the object based on the arrangement of n x n points photographed by the pattern photographing unit.
상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사될 수 있다.The position pattern may be in the form of a checkerboard, and light of one of the m frequencies may be projected into each grid of the checkerboard.
상기 m은 4일 수 있다.M may be 4.
상기 위치 패턴 투사부는 적외선 영상 프로젝터일 수 있다.The position pattern projection unit may be an infrared image projector.
상기 패턴 촬영부는 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자를 촬영할 수 있다.The pattern photographing unit may photograph n x n gratings centering on a grating corresponding to the position of the object among the plurality of gratings.
상기 위치 결정부는 상기 패턴 촬영부에 의해 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치를 결정할 수 있다.The position determining unit may determine the position of the object based on the arrangement of n x n grids photographed by the pattern photographing unit.
상기 패턴 촬영부에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치를 결정할 수 있다.
When a short-time obstacle occurs in the photographing in the pattern photographing unit, a position of a time at which the obstacle occurred can be determined through a video tracking algorithm.
또한, 본 발명의 다른 측면에 따르면, 3차원 공간에서 물체의 위치를 결정하는 위치 결정 방법으로서, 상기 3차원 공간의 일면에 위치 패턴이 투사되는 단계; 상기 물체의 위치에 해당하는 상기 위치 패턴의 일부가 촬영되는 단계; 및 상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 (x,y) 좌표가 결정되는 단계를 포함하는, 위치 결정 방법이 제공된다.According to another aspect of the present invention, there is provided a positioning method for determining the position of an object in a three-dimensional space, the method comprising: projecting a position pattern on one surface of the three-dimensional space; Photographing a part of the position pattern corresponding to the position of the object; And determining (x, y) coordinates of the three-dimensional position of the object based on a part of the captured position pattern.
상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정될 수 있다.The z-coordinate among the three-dimensional positions of the object can be determined through the size of the position pattern or the distance between the position patterns.
상기 물체 상에서 상기 위치 패턴의 일부가 촬영될 수 있다.A part of the position pattern on the object can be photographed.
상기 공간의 바닥의 소정의 위치에서 상기 공간의 천장을 향해 상기 위치 패턴이 투사될 수 있다.The position pattern may be projected from a predetermined position of the bottom of the space toward the ceiling of the space.
상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.The position pattern may be a point array formed of a plurality of points arranged at a predetermined distance in a direction of one of upper, lower, left, and right from each grid point generated by a virtual grid.
레이저 도트(dot) 프로젝터에 의해 상기 위치 패턴이 투사될 수 있다.The position pattern can be projected by a laser dot projector.
원거리 랜덤 패턴 프로젝터 기술이 사용되어 상기 위치 패턴이 투사될 수 있다.A remote random pattern projector technique may be used to project the position pattern.
상기 촬영 단계에서, 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트가 촬영될 수 있다.In the photographing step, n x n points around the point corresponding to the position of the object in the point array can be photographed.
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치가 결정될 수 있다.In the positioning step, the position of the object may be determined based on the arrangement of the n x n points photographed.
상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사될 수 있다.The position pattern may be in the form of a checkerboard, and light of one of the m frequencies may be projected into each grid of the checkerboard.
상기 m은 4일 수 있다.M may be 4.
적외선 영상 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.Wherein said position pattern is projected by an infrared image projector.
상기 촬영 단계에서, 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자가 촬영될 수 있다.In the photographing step, n x n gratings centered on the grating corresponding to the position of the object among the plurality of gratings can be photographed.
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치가 결정될 수 있다.In the positioning step, the position of the object may be determined based on the arrangement of the n x n grids photographed.
상기 패턴 촬영부에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치가 결정될 수 있다.
When a short-time failure occurs in the photographing in the pattern photographing unit, a position of a time at which a failure occurs can be determined through a video tracking algorithm.
본 발명의 실시예들에 따르면, 기존의 2차원 공간에서 위치를 파악하는 기술을 3차원 공간으로 확장할 수 있다.According to embodiments of the present invention, a technique of locating an existing two-dimensional space can be extended to a three-dimensional space.
또한 본 발명의 실시예들에 따르면, 3차원 공간에서 위치 결정의 정밀도를 높일 수 있다.Further, according to the embodiments of the present invention, the accuracy of positioning in the three-dimensional space can be enhanced.
또한 본 발명의 실시예들에 따르면, 3차원 공간에서의 위치 결정을 통해, 드론의 조종이나 예상 이동 경로 예측 등의 기술에 활용할 수 있다.
Further, according to the embodiments of the present invention, it is possible to utilize it in a technique such as drones maneuvering or predicted travel path prediction through positioning in a three-dimensional space.
도 1은 3차원 공간에 물체가 위치하는 상태를 나타내는 도면
도 2는 도 1의 3차원 공간에 물체가 위치하는 상태를 3차원 좌표계로 나타내는 도면
도 3은 본 발명의 일 실시예에 따른 위치 결정 장치를 나타내는 도면
도 4는 본 발명의 일 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면
도 5는 본 발명의 일 실시예에 따른 위치 패턴의 종류를 나타내는 도면
도 6은 본 발명의 일 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면
도 7은 본 발명의 다른 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면
도 8은 본 발명의 다른 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면1 is a view showing a state where an object is placed in a three-dimensional space
Fig. 2 is a diagram showing a state where an object is positioned in the three-dimensional space of Fig. 1 as a three-dimensional coordinate system
3 is a view showing a positioning apparatus according to an embodiment of the present invention;
4 is a view showing an image projected by a position pattern projection unit according to an embodiment of the present invention
5 is a view showing a kind of a position pattern according to an embodiment of the present invention;
6 is a diagram showing a pattern photographing unit and a positioning unit according to an embodiment of the present invention for determining the position of an object
7 is a view showing an image projected by a position pattern projection unit according to another embodiment of the present invention
FIG. 8 is a diagram showing a pattern photographing unit and a positioning unit according to another embodiment of the present invention for determining the position of an object
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, this is merely an example and the present invention is not limited thereto.
본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.
본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하의 실시예는 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
The technical idea of the present invention is determined by the claims, and the following embodiments are merely a means for effectively explaining the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs.
도 1은 3차원 공간에 물체가 위치하는 상태를 나타내는 도면이다.1 is a view showing a state where an object is placed in a three-dimensional space.
도 1을 참조하면, 3차원 공간(100) 내에 물체(10)가 소정의 위치에 있을 수 있다. 3차원 공간(10)은 방의 형태의 실내 공간일 수 있다. 3차원 공간(100) 내에서 물체(10)의 위치를 파악하는 것에 의해서 물체(100)를 원하는 위치로 이동시키는 등의 조종이 가능하다. 물체(10)는 이동이 가능한 드론(drone) 형태일 수 있으며, 3차원 공간(100)의 바닥에서 2차원적인 이동 뿐만 아니라 3차원 이동이 가능한 비행 물체일 수 있다. 물체(10)의 크기와 이동 속도는 일반적인 드론에 해당하는 값을 가질 수 있다..Referring to FIG. 1, the
물체(10)의 상측에는 천장의 영상을 촬영할 수 있는 카메라(미도시됨)가 장착되어서, 후술할 패턴 촬영부로서의 역할을 할 수 있다. 물체(10)의 상측에 패턴 촬영부가 장착되기 때문에, 물체(10)는 3차원 공간의 천장 및 바닥과 평행한 것이 바람직하지만, 약간의 기울어짐은 보정에 의해서 허용될 수 있다.
A camera (not shown) capable of capturing an image of a ceiling is mounted on the upper side of the
도 2는 도 1의 3차원 공간에 물체가 위치하는 상태를 3차원 좌표계로 나타내는 도면이다.FIG. 2 is a view showing a state where an object is positioned in the three-dimensional space of FIG. 1 in a three-dimensional coordinate system.
3차원 공간(100)은 3차원 좌표계로 표현하여, 물체(10)의 위치를 3차원 좌표계 상의 (x,y,z)좌표로 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 물체(10)의 소정의 시간(t)에서의 3차원 좌표인 (x,y,z)좌표를 결정함으로써, 소정의 시간(t)에서의 물체(10)의 위치를 정확하게 확인할 수 있고, 이를 바탕으로 물체(10)의 이동을 조종하거나, 물체(10)의 예상 이동 경로를 예측하는 것이 가능하다. 도 2에서는, 물체(10)의 현재 위치가 3차원 좌표계에서 (x1,y1,z1) 좌표에 해당함을 나타내고 있다.
The three-
도 3은 본 발명의 일 실시예에 따른 위치 결정 장치를 나타내는 도면이다.3 is a view illustrating a positioning apparatus according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 위치 결정 장치는, 위치 패턴 투사부(11), 패턴 촬영부(12), 위치 결정부(13), 통신부(14) 및 제어부(15)를 포함할 수 있다.The positioning apparatus according to an embodiment of the present invention may include a position pattern projection unit 11, a
위치 패턴 투사부(11)는 3차원 공간(100)의 일면 - 예를 들어, 3차원 공간(100)의 천장 - 에 위치 패턴을 투사할 수 있다. 위치 패턴은 물체(10)의 위치를 결정할 수 있도록 물체(10)의 위치에 대응하는 패턴일 수 있으며, 위치 패턴의 구체적인 형태는 후술한다. 위치 패턴 투사부(11)는 3차원 공간(100)의 소정의 위치에 배치될 수 있는데, 예를 들어, 3차원 공간(100)의 바닥에 배치되고, 3차원 공간(100)의 천장을 향해 위치 패턴을 투사할 수 있다. 3차원 공간(100)의 크기에 따라서 위치 패턴 투사부(11)는 복수 개가 배치될 수 있다. 즉, 3차원 공간(100)의 크기가 커짐에 따라서, 위치 패턴 투사부(11)가 커버해야 할 천장의 넓이도 넓어지기 때문에, 위치 패턴 투사부(11)의 개수를 늘려서 3차원 공간(100)의 천장 전체를 커버할 수 있다.The position pattern projection section 11 can project the position pattern onto one side of the three-
위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사하는 경우에는 물체(10)의 (x,y,z) 좌표 중 xy 평면 상의 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다. 이 경우, 물체(10)의 z좌표는 별도의 센서 - 예를 들어, 기압 센서 - 를 통해 구하거나, 패턴 촬영부(12)에 의해 촬영된 위치 패턴의 크기, 또는 다른 알려진 z 좌표의 거리 측정 방법을 통해 결정될 수 있다. 위치 패턴의 크기 촬영을 통한 z 좌표 측정은, 천장에 투사된 위치 패턴의 실제 크기 또는 위치 패턴 사이의 실제 거리 정보를 획득한 상태에서, 패턴 촬영부에 의해 촬영된 위치 패턴의 크기 또는 그 사이의 거리가 물체의 z 좌표에 비례하여 변하게 된다는 점을 이용하여 결정될 수 있다.When the position pattern projecting section 11 projects the position pattern on the ceiling of the three-
패턴 촬영부(12)는 물체(10) 상에 형성되어, 3차원 공간(100)의 일면 - 예를 들어, 천장 - 에 투사된 위치 패턴 중 물체(10)의 실제 위치에 대응하는 일부를 촬영할 수 있다. 앞서 설명한 바와 같이, 패턴 촬영부(12)는 물체(10) 상에 위치하는 카메라일 수 있어서, 물체(10)의 위치가 변경됨에 따라서 물체(10)의 현 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 패턴 촬영부(12)는 Full HD의 해상도일 수 있으며, 시계(field of view)가 90˚일 수 있다. 그리고, 패턴 촬영부(12)의 촬영 방향은 위치 패턴이 투사된 면 - 예를 들어, 천장 - 을 향할 수 있다.The
위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 위치 패턴의 일부를 기초로 물체(10)의 위치를 결정할 수 있다. 위치 패턴에 따라서 물체(10)의 위치를 결정하는 구체적인 방식은 후술한다.The
통신부(14)는 위치 패턴 투사부(11), 패턴 촬영부(12), 위치 결정부(13) 및 제어부(15) 간의 데이터 통신이 이루어지도록 할 수 있다. 통신부(14)에 의한 데이터 전송 속도는 30 Hz 이내일 수 있다. The communication unit 14 can perform data communication between the position pattern projection unit 11, the
제어부(15)는 위치 패턴 투사부(11), 패턴 촬영부(12) 및 위치 결정부(13)를 통해 물체(10)의 위치 결정이 이루어지는 것을 제어할 수 있다. 또한, 여러 장애사유로 인하여 패턴 촬영부(12)에서의 촬영에 단시간 장애가 발생할 수 있으나, 제어부(15)에서는 영상 추적 알고리즘을 통해 이를 해결할 수 있다. 다만, 영상 추적 알고리즘에 의한 단시간 장애의 해결은 제어부(15) 이외에 위치 결정부(13)에서 행하는 것도 가능하다. 영상 추적 알고리즘은 영상 입력을 통해 움직이는 물체를 추적하는데 사용되는 알고리즘으로 움직이는 물체의 속도와 위치의 변화가 연속적으로 일어나고 갑작스러운(불연속적인) 변화는 일어나지 않는다는 사실을 바탕으로 할 수 있다. 위치 결정부(13) 또는 제어부(15)에서 실제로 측정된 현재 위치를 영상 추적 알고리즘에 제공하여 미래 위치를 계속해서 추정하고 있는 상태에서, 단시간 장애가 발생할 경우 영상 추적 알고리즘을 통해 추정된 위치를 현재 위치로 결정할 수 있다.
The control unit 15 can control the positioning of the
도 4는 본 발명의 일 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면이다. 이하에서는, 위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사한 경우에 대해서 설명한다. 따라서, 물체(10)의 위치를 나타내는 (x,y,z) 좌표 중 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다. 4 is a diagram illustrating an image projected by a position pattern projection unit according to an embodiment of the present invention. Hereinafter, a case where the position pattern projection unit 11 projects a position pattern on the ceiling of the three-
도 4를 참조하면, 위치 패턴 투사부(11)에 의해 3차원 공간(100)의 천장에 투사되는 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점으로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이일 수 있다.4, the position pattern projected on the ceiling of the three-
즉, 가상의 수직선(51) 및 가상의 수평선(52)에 의해 가상의 격자가 형성되고, 수직선(51) 및 수평선(52)이 만나는 격자점(53)으로부터 포인트(54)는 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치될 수 있다. 각각의 포인트(54)가 모인 포인트 어레이가 3차원 공간(100)의 일면 - 예를 들어, 천장 - 전체에 투사될 수 있다. 도 4에서 나타내는 가상의 수직선(51) 및 가상의 수평선(52)은 3차원 공간(100)의 일면에 실제로 투사되는 것이 아니고, 각각의 포인트(54)의 배치 형태를 설명하기 위하여 도시된 것이다.A virtual lattice is formed by the virtual
가상의 수직선(51) 및 가상의 수평선(52) 간의 간격은 4cm 이내일 수 있다.The distance between the imaginary
포인트 어레이를 3차원 공간(100)의 일면에 투사하기 위하여 레이저 도트(dot) 프로젝터가 위치 패턴 투사부(11)로서 사용될 수 있다. 위치 패턴 투사부(11)인 레이저 도트 프로젝터를 구현하기 위하여, 예를 들어, 원거리 랜덤 패턴 프로젝터(long-range random pattern projector)에서 사용되는 레이저 기술을 사용할 수 있다. 상기 레이저 기술을 통해, 위치 패턴 투사부(11)는 위치 패턴 투사부(11)와 위치 패턴이 투사되는 3차원 공간(100)의 일면과의 거리가 2 m 정도에서 동작 가능하고, 위치 패턴에 해당하는 점(dot)의 지름이 0.7 mm 이며, 위치 패턴 사이의 거리가 7 mm가 되며, 1개의 위치 패턴 투사부(11)를 통해 1.6 × 1.6 m2의 면적을 커버할 수 있다.
A laser dot projector can be used as the position pattern projection unit 11 to project the point array on one side of the three-
도 5는 본 발명의 일 실시예에 따른 위치 패턴의 종류를 나타내는 도면이다.5 is a view showing the types of position patterns according to an embodiment of the present invention.
도 5를 참조하면, 가상의 수직선(51) 및 가상의 수평선(52)에 의해 형성되는 가상의 격자점(53)으로부터 포인트(54)는 상하좌우의 4가지 방향 중 하나의 방향으로 소정의 간격(a) 만큼 떨어진 상태로 배치될 수 있다. 도 5(a)는 포인트(54)가 가상의 격자점(53)으로부터 우측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내고, 도 5(b)는 포인트(54)가 가상의 격자점(53)으로부터 상측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내며, 도 5(c)는 포인트(54)가 가상의 격자점(53)으로부터 좌측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타내고, 도 5(d)는 포인트(54)가 가상의 격자점(53)으로부터 하측 방향으로 소정의 간격(a) 만큼 떨어진 것을 나타낸다.5, a
따라서, 포인트(54)가 가상의 격자점(53)에 대응하여 4개의 가능한 위치가 있는데, 이러한 4개의 위치에 대응하여 각각의 포인트(54)는 "0" 내지 "3"에 대응하는 이진법의 값 4 개 중 하나를 나타낼 수 있다. 이에 대한 예시를 표로 나타내면 다음과 같다.
Thus, there are four possible positions corresponding to the virtual lattice points 53,
다만, 상기 표 1에서 나타내는, 포인트(54)의 배치와 포인트(54) 값 간의 관계는 예시에 불과하다.
However, the relationship between the arrangement of the
도 6은 본 발명의 일 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면이다.FIG. 6 is a diagram showing a pattern photographing unit and a positioning unit according to an embodiment of the present invention for determining the position of an object.
도 6을 참조하면, 패턴 촬영부(12)는 3차원 공간의 천장에 투사된 위치 패턴 중에서 물체(10)의 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 도 6에서 나타내는 바와 같이, 물체(10)의 현재 위치에 대응하는 포인트(54)의 위치가 10'에 해당한다고 한다면, 패턴 촬영부(12)는 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트(10')를 중심으로 한 n×n 개의 포인트 배열(10a)을 촬영할 수 있다. 도 6에서는 물체의 위치에 대응하는 포인트(10')를 중심으로 상하좌우 각각 3개의 포인트(54)가 포함되도록 하여, n×n이 7×7인 것으로 예시하고 있지만, 이에 한정되는 것은 아니다.Referring to FIG. 6, the
위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 n×n 개의 포인트 배열(10a)을 기초로 물체(10)의 위치를 결정할 수 있다. 앞서 설명한 바와 같이, 각각의 포인트(54)의 배치는 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타내기 때문에, n×n 개의 포인트 배열(10a)은 n×n 행렬에 대응되고, n×n 행렬에 포함된 각각의 값은 "00", "01", "10" 및 "11" 중 하나에 해당될 수 있다. 예를 들어, n×n이 7×7인 경우에 포인트 배열(10a)은 다음과 같은 행렬로 표현될 수 있다.
The
따라서, n×n이 7×7인 경우에, 행렬의 경우의 수는 449 이 되어서, 이론적으로는 물체(10)의 위치를 449 가지로 나타낼 수 있다. 따라서, 물체(10)의 위치를 정밀하게 결정할 수 있다. 다만, 449 가지로 나타나는 패턴에 대한 위치를 테이블의 형태로 저장하는 것은 과도한 저장용량이 필요하기 때문에, 별도의 포지션 코딩(position coding) 방식을 사용하여, 위치를 나타내기 위한 패턴의 종류를 충분히 확보하면서도, 테이블의 크기가 처리 가능한 수준으로 유지되도록 할 수 있다.Therefore, when n x n is 7 x 7, the number of cases of the matrix is 4 49 , and the position of the
이러한 포지션 코딩 방식을 예시하면 다음과 같다.The position coding method will be described as follows.
(1) 우선, 이진법 두 자리 수로 표현되는 행렬의 각각의 요소를 앞자리 수는 x축 성분으로 하고, 뒷자리 수는 y축 성분으로 나눠서 x축 성분과 y축 성분 각각에 대한 2개의 행렬로 나타낼 수 있다. 이를 바이너리 오프셋 확률 행렬(binary offset probability matrix; BOPM)이라고 할 수 있고, x축 성분에 대한 행렬과 y축 성분에 대한 행렬을 각각 x-BOPM과 y-BOPM이라고 할 수 있다.(1) First, each element of the matrix expressed by two-digit binary number can be expressed by two matrices for each of the x-axis component and the y-axis component, have. This can be called a binary offset probability matrix (BOPM), and the matrix for the x-axis component and the matrix for the y-axis component can be referred to as x-BOPM and y-BOPM, respectively.
(2) x-BOPM 또는 y-BOPM에 포함된 각각의 행 또는 열로 구성된 수열을 메인 시퀀스(main sequence)라고 하면, 각 메인 시퀀스에 대해서 차분 서브시퀀스(difference number subsequence)를 생성할 수 있다. 서브시퀀스를 생성하는 방법에 관해서는 미국등록특허 제6,667,695호에 개시된 방법을 사용할 수 있으나, 이에 한정되는 것은 아님은 당연하다.(2) If a sequence composed of each row or column included in x-BOPM or y-BOPM is referred to as a main sequence, a difference number subsequence can be generated for each main sequence. As a method of generating the subsequence, the method disclosed in U.S. Patent No. 6,667,695 may be used, but is not limited thereto.
이와 같은 포지션 코딩 방식에 따르면, x축 성분 및 y축 성분 각각에 대해서 코딩을 행하고, 길이가 긴 메인 시퀀스를 길이가 짧은 복수 개의 서브시퀀스로 변환하여 코딩을 행하기 때문에, 물체의 위치를 결정하기 위한 패턴의 종류를 충분히 확보하면서도, 위치 패턴을 저장하는 테이블의 크기가 지나치게 커지는 것을 방지할 수 있다. 다만, 상기의 포지션 코딩 방식은 예시에 불과하며, 처리 가능한 수준의 테이블 크기를 형성하기 위한 다른 코딩 방식을 사용하는 것도 가능하다.
According to such a position coding scheme, coding is performed for each of the x-axis component and the y-axis component, and the main sequence having a long length is converted into a plurality of subsequences each having a short length to perform coding. Therefore, It is possible to prevent the size of the table for storing the position pattern from being excessively increased. However, the position coding method is merely an example, and it is also possible to use another coding method for forming a table size of a processable level.
도 7은 본 발명의 다른 실시예에 따른 위치 패턴 투사부가 투사하는 영상을 나타내는 도면이다. 이하에서도, 위치 패턴 투사부(11)가 3차원 공간(100)의 천장에 위치 패턴을 투사한 경우에 대해서 설명한다. 따라서, 물체(10)의 위치를 나타내는 (x,y,z) 좌표 중 (x,y) 좌표가 위치 패턴에 의해 결정될 수 있다.7 is a view illustrating an image projected by a position pattern projection unit according to another embodiment of the present invention. Hereinafter, the case where the position pattern projection section 11 projects the position pattern on the ceiling of the three-
도 7을 참조하면, 위치 패턴 투사부(11)에 의해 3차원 공간(100)의 천장에 투사되는 위치 패턴은 체커보드(checkerboard) 형상으로서 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광 - 예를 들어, 적외선 - 이 투사될 수 있다. 도 7에서는 주파수의 가지수가 4 가지인 것을 예시하고 있으나, 이에 한정될 것은 아니다. 즉, 체커보드의 각각의 격자 내에는 f1, f2, f3, f4 중 하나의 주파수를 갖는 광이 투사될 수 있다. 각각의 주파수 f1, f2, f3, f4는 "0" 내지 "3"에 대응하는 이진법의 값인 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타낼 수 있다.7, the position pattern projected on the ceiling of the three-
위치 패턴 투사부(11)는 적외선 영상 프로젝터(infrared scene projector)일 수 있으며, 3~5 μm의 파장을 갖는 적외선이 투사될 수 있다. 적외선 영상 프로젝터의 해상도는 5mrad 일 수 있으며, 약 2 m 거리에서 투사한다고 하였을 때 해상도는 1cm 정도일 수 있다. The position pattern projection unit 11 may be an infrared scene projector, and an infrared ray having a wavelength of 3 to 5 μm may be projected. The resolution of the infrared image projector may be 5 mrad, and the resolution may be 1 cm when projected at a distance of about 2 m.
적외선 영상 투사기는 투사 어레이 및 광학계를 포함할 수 있다. 투사 어레이는 포지티브 및 네거티브 발광 모두를 방출할 수 있는 적외선 발광 어레이일 수 있다. 적외선 발광 어레이는 소정의 개수의 다이오드 소자 어레이 또는 소정의 개수의 저항 소자 어레이 일 수 있다.
The infrared image projector may include a projection array and an optical system. The projection array may be an infrared light emitting array capable of emitting both positive and negative light emission. The infrared light emitting array may be a predetermined number of diode element arrays or a predetermined number of resistor element arrays.
도 8은 본 발명의 다른 실시예에 따른 패턴 촬영부 및 위치 결정부가 물체의 위치를 결정하는 것을 나타내는 도면이다.FIG. 8 is a diagram showing a pattern photographing unit and a positioning unit according to another embodiment of the present invention for determining the position of an object.
도 8을 참조하면, 패턴 촬영부(12)는 3차원 공간의 천장에 투사된 위치 패턴 중에서 물체(10)의 위치에 대응하는 위치 패턴의 일부를 촬영할 수 있다. 도 8에서 나타내는 바와 같이, 물체(10)의 현재 위치에 대응하는 격자의 위치가 10"에 해당한다고 한다면, 패턴 촬영부(12)는 물체(10)의 위치에 대응하는 격자(10")를 중심으로 한 n×n 개의 격자 배열(10b)을 촬영할 수 있다. 도 8에서는 물체(10)의 위치에 대응하는 격자(10")를 중심으로 상하좌우 각각 3개의 격자가 포함되도록 하여, n×n이 7×7인 것으로 예시하고 있지만, 이에 한정되는 것은 아니다.Referring to FIG. 8, the
위치 결정부(13)는 패턴 촬영부(12)에 의해 촬영된 n×n 개의 격자 배열(10b)을 기초로 물체(10)의 위치를 결정할 수 있다. 앞서 설명한 바와 같이, 각각의 격자의 배치는 "00", "01", "10" 및 "11"의 4 개의 값 중 하나를 나타내기 때문에, n×n 개의 격자 배열(10b)은 n×n 행렬에 대응되고, n×n 행렬에 포함된 각각의 값은 "00", "01", "10" 및 "11" 중 하나에 해당될 수 있다. The
따라서, n×n이 7×7인 경우에, 행렬의 경우의 수는 449 이 되어서, 이론적으로는 물체(10)의 위치를 449 가지로 나타낼 수 있다. 따라서, 물체(10)의 위치를 정밀하게 결정할 수 있다. 다만, 449 가지로 나타나는 패턴에 대한 위치를 테이블의 형태로 저장하는 것은 과도한 저장용량이 필요하기 때문에, 별도의 포지션 코딩(position coding) 방식을 사용하여, 위치를 나타내기 위한 패턴의 종류를 충분히 확보하면서도, 테이블의 크기가 처리 가능한 수준으로 유지되도록 할 수 있음은 앞서 설명한 바와 같다.
Therefore, when n x n is 7 x 7, the number of cases of the matrix is 4 49 , and the position of the
전술된 바와 같이, 본 발명은 실시예를 중심을 설명되었으나, 본 발명의 기술적 사상에서 벗어나지 않는 한도 내에서 여러 변형이 가능함은 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명백할 것이다.As described above, the present invention has been described with reference to the embodiments. However, it will be apparent to those skilled in the art that various modifications may be made without departing from the technical spirit of the present invention.
또한, 본 발명에서 보이는 구성요소들을 공지의 유사한 기능을 수행하는 기술요소로 치환하거나 변형하는 것도 본 발명이 속하는 분야에서 통상의 지식을 가지는 자에게 명백할 것이다.It will be apparent to those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims.
따라서, 본 발명의 권리범위는 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 아래의 청구범위에서 보이는 사상 및 그 균등범위까지 미친다.
Therefore, the scope of the present invention should not be limited to the scope of the present invention, but extends to the scope of the claims and their equivalents.
10: 물체
11: 위치 패턴 투사부
12: 패턴 촬영부
13: 위치 결정부
14: 통신부
15: 제어부
51: 수직선
52: 수평선
53: 격자점
54: 포인트
100: 3차원 공간10: object
11: Position pattern projection part
12:
13: Positioning unit
14:
15:
51: Vertical line
52: Horizon
53: grid point
54: Points
100: 3D space
Claims (30)
상기 3차원 공간의 일면에 위치 패턴이 투사되는 단계;
상기 물체의 위치에 해당하는 상기 위치 패턴의 일부가 촬영되는 단계; 및
상기 촬영된 위치 패턴의 일부를 기초로 상기 물체의 3차원 위치 중 상기 일면에 평행한 2차원 평면 상의 좌표가 결정되는 단계를 포함하고,
상기 위치 패턴에 의해 상기 일면의 위치마다 기 결정된 가지 수의 형태 중 하나의 형태가 배치되고,
상기 위치 패턴의 일부는 상기 물체의 위치에 해당하는 위치를 중심으로 n×n 개의 형태의 배열인, 위치 결정 방법.
A position determining method for determining a position of an object in a three-dimensional space,
Projecting a position pattern on one side of the three-dimensional space;
Photographing a part of the position pattern corresponding to the position of the object; And
And determining a coordinate on a two-dimensional plane parallel to the one surface among the three-dimensional positions of the object based on a part of the photographed position pattern,
Wherein one of the shapes of the predetermined number of branches is arranged for each position of the one surface by the position pattern,
Wherein a part of the position pattern is an arrangement of nxn shapes around a position corresponding to the position of the object.
상기 물체의 3차원 위치 중 z 좌표는 위치 패턴의 크기 또는 위치 패턴 간의 거리를 통해 결정되는, 위치 결정 방법.
18. The method of claim 16,
Wherein the z coordinate of the three-dimensional position of the object is determined by the size of the position pattern or the distance between the position patterns.
상기 물체 상에서 상기 위치 패턴의 일부가 촬영되는, 위치 결정 방법.
18. The method of claim 16,
And a part of the position pattern is photographed on the object.
상기 공간의 바닥의 소정의 위치에서 상기 공간의 천장을 향해 상기 위치 패턴이 투사되는, 위치 결정 방법.
18. The method of claim 16,
Wherein the position pattern is projected from a predetermined location on the bottom of the space toward the ceiling of the space.
상기 위치 패턴은 가상의 격자에 의해 생성되는 각각의 격자점로부터 상하좌우 중 하나의 방향으로 소정의 간격만큼 떨어진 위치에 배치되는 복수의 포인트로 형성된 포인트 어레이인, 위치 결정 방법.
18. The method of claim 16,
Wherein the position pattern is a point array formed by a plurality of points arranged at a predetermined distance in a direction of one of up, down, left, and right from each lattice point generated by a virtual lattice.
레이저 도트(dot) 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.
The method of claim 20,
Wherein the position pattern is projected by a laser dot projector.
원거리 랜덤 패턴 프로젝터 기술이 사용되어 상기 위치 패턴이 투사되는, 위치 결정 방법.
23. The method of claim 21,
Wherein the remote random pattern projector technique is used to project the position pattern.
상기 촬영 단계에서, 상기 포인트 어레이 중 상기 물체의 위치에 대응하는 포인트를 중심으로 한 n×n 개의 포인트가 촬영되는, 위치 결정 방법.
The method of claim 20,
And in the photographing step, n x n points around the point corresponding to the position of the object in the point array are photographed.
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 포인트의 배치를 기초로 상기 물체의 위치가 결정되는, 위치 결정 방법.
24. The method of claim 23,
And in the positioning step, the position of the object is determined based on the arrangement of the n x n points photographed.
상기 위치 패턴은 체커보드(checkerboard) 형상으로서 상기 체커보드의 각각의 격자 내에는 m가지 주파수 중 하나의 주파수의 광이 투사되는, 위치 결정 방법.
18. The method of claim 16,
Wherein the position pattern is in the form of a checkerboard, and light of one of m different frequencies is projected in each grating of the checkerboard.
상기 m은 4인, 위치 결정 방법.
26. The method of claim 25,
And m is 4.
적외선 영상 프로젝터에 의해 상기 위치 패턴이 투사되는, 위치 결정 방법.
26. The method of claim 25,
Wherein said position pattern is projected by an infrared image projector.
상기 촬영 단계에서, 상기 복수의 격자 중 상기 물체의 위치에 대응하는 격자를 중심으로 한 n×n 개의 격자가 촬영되는, 위치 결정 방법.
26. The method of claim 25,
Wherein in the photographing step, n x n gratings centered on a grating corresponding to a position of the object among the plurality of gratings are photographed.
상기 위치 결정 단계에서, 상기 촬영된 n×n 개의 격자의 배치를 기초로 상기 물체의 위치가 결정되는, 위치 결정 방법.
29. The method of claim 28,
And in the positioning step, the position of the object is determined based on the arrangement of the n x n grids photographed.
상기 위치 패턴의 일부 촬영 단계에서의 상기 촬영에 단시간 장애가 발생한 경우 영상 추적 알고리즘을 통해 장애가 발생한 시간의 위치가 결정되는, 위치 결정 방법.
18. The method of claim 16,
Wherein a position of a time at which a failure occurs is determined through a video tracking algorithm when a short-time failure occurs in the photographing in the partial photographing step of the position pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150000736A KR101713028B1 (en) | 2015-01-05 | 2015-01-05 | Positioning apparatus and positioning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150000736A KR101713028B1 (en) | 2015-01-05 | 2015-01-05 | Positioning apparatus and positioning method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160084168A KR20160084168A (en) | 2016-07-13 |
KR101713028B1 true KR101713028B1 (en) | 2017-03-07 |
Family
ID=56505561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150000736A KR101713028B1 (en) | 2015-01-05 | 2015-01-05 | Positioning apparatus and positioning method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101713028B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012237604A (en) * | 2011-05-10 | 2012-12-06 | Sanyo Electric Co Ltd | Information acquisition apparatus, projection device and object detection device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090099174A (en) | 2008-03-17 | 2009-09-22 | 마경석 | The measurement system that using the dot laser beam and light detecting sensor of coordinates, expactation flying distance, flying angle of the flying matrial or ball |
US8791901B2 (en) * | 2011-04-12 | 2014-07-29 | Sony Computer Entertainment, Inc. | Object tracking with projected reference patterns |
KR101343975B1 (en) * | 2012-06-11 | 2013-12-20 | 휴앤에스(주) | System for detecting unexpected accident |
-
2015
- 2015-01-05 KR KR1020150000736A patent/KR101713028B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012237604A (en) * | 2011-05-10 | 2012-12-06 | Sanyo Electric Co Ltd | Information acquisition apparatus, projection device and object detection device |
Also Published As
Publication number | Publication date |
---|---|
KR20160084168A (en) | 2016-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10401143B2 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
US9693040B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
US10582188B2 (en) | System and method for adjusting a baseline of an imaging system with microlens array | |
JP6632232B2 (en) | Method for cleaning or treating a room with a free-standing mobile device and a free-standing mobile device | |
US20220036574A1 (en) | System and method for obstacle avoidance | |
US9182763B2 (en) | Apparatus and method for generating three-dimensional map using structured light | |
EP3170367B1 (en) | Stadium lighting aiming system and method | |
US20180003498A1 (en) | Visual positioning system and method based on high reflective infrared identification | |
US9778029B2 (en) | Self-position calculating apparatus and self-position calculating method | |
EP3049756B1 (en) | Modeling arrangement and method and system for modeling the topography of a three-dimensional surface | |
CN104067111A (en) | Automated system and method for tracking and detecting discrepancies on a target object | |
CN105306922A (en) | Method and device for obtaining depth camera reference diagram | |
JP2017527812A (en) | Method for optical measurement of three-dimensional coordinates and calibration of a three-dimensional measuring device | |
US20230252666A1 (en) | Systems and methods of measuring an object in a scene of a captured image | |
CN112204345A (en) | Indoor positioning method of mobile equipment, mobile equipment and control system | |
JP2019213082A (en) | Sensor control device, object search system, object search method, and program | |
JP5505363B2 (en) | Motion tracker device | |
KR101713028B1 (en) | Positioning apparatus and positioning method | |
US20210047037A1 (en) | Optically supported object navigation | |
US20210055420A1 (en) | Base for spherical laser scanner and method for three-dimensional measurement of an area | |
RU2758036C1 (en) | Method and system for optical-inertial tracking of a mobile object | |
KR101783585B1 (en) | Method for managing plant facilities | |
CN103869593A (en) | Three-dimension imaging device, system and method | |
JP2015019270A (en) | Camera system and control method and control program of the same | |
KR101754975B1 (en) | apparatus for controlling position of battery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20200107 Year of fee payment: 4 |