KR20160064891A - Spatial Infomation Acquisition Device and Method - Google Patents
Spatial Infomation Acquisition Device and Method Download PDFInfo
- Publication number
- KR20160064891A KR20160064891A KR1020140169163A KR20140169163A KR20160064891A KR 20160064891 A KR20160064891 A KR 20160064891A KR 1020140169163 A KR1020140169163 A KR 1020140169163A KR 20140169163 A KR20140169163 A KR 20140169163A KR 20160064891 A KR20160064891 A KR 20160064891A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- spatial
- image
- distance
- spatial information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C17/00—Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
- G01C17/02—Magnetic compasses
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/42—Simultaneous measurement of distance and other co-ordinates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 2D(평면) 또는 3D(3차원) 공간정보를 획득하기 위한 기술이다. The present invention is a technique for acquiring 2D (planar) or 3D (three-dimensional) spatial information.
종래의 기술은 한개 이상의 카메라를 이용하여 2D 또는 3D 공간정보를 획득하였다. 또한 공간정보의 거리와 위치 정보를 제공하기 위해 GPS 기술이 적용되어 활용 되고 있다.Conventional techniques have acquired 2D or 3D spatial information using one or more cameras. In addition, GPS technology is applied to provide distance information and location information of spatial information.
종래의 발명은 한개 이상의 카메라를 이용하여 2D 또는 3D 공간정보를 획득하고 있다. 그리고 획득된 공간정보에 거리와 위치정보를 매핑한 GPS 기술이 적용된 네비게이션 서비스 기술이 상업화되고 있다. 하지만 GPS 기술을 적용하지 않거나, GPS 신호가 수신되지 않는 곳에서는 공간정보에 거리와 위치정보를 적용시킬 수 있는 방법이 요구된다. The conventional invention acquires 2D or 3D spatial information using one or more cameras. And navigation service technology applying GPS technology mapping distance and location information to acquired spatial information is commercialized. However, there is a need for a way to apply distance and location information to spatial information where GPS technology is not applied or GPS signals are not received.
본 발명은 한개 이상의 카메라 또는 공간정보를 획득할 수 있는 수신기기로부터 획득된 장치에 거리 정보와 위치정보를 제공하는 기술에 대한 것이다.The present invention relates to a technique for providing distance information and location information to a device obtained from a receiving device capable of acquiring one or more cameras or spatial information.
이때, 제공되는 거리 정보와 위치정보는 초음파 센서를 이용하여 획득할 수 있다. 또한 자석이 부착된 방위 센서를 활용하여 현재의 방위 정보를 획득할 수있다.At this time, the provided distance information and position information can be acquired using an ultrasonic sensor. In addition, current orientation information can be acquired by utilizing a bearing sensor with a magnet attached thereto.
본 발명은 한개 이상의 카메라 또는 공간정보 획득 수신기로부터 획득된 공간정보에 초음파 센서를 이용하여 획득된 거리와 위치 정보를 적용하고, 자석이 부착된 방위 센서로부터 획득된 방위 정보를 더 추가함으로써 임의의 대상체에게 주변의 공간정보와 자신의 위치 정보를 제공할 수있게 된다.The present invention applies a distance and position information obtained by using an ultrasonic sensor to spatial information obtained from at least one camera or a spatial information acquiring receiver and further adds the orientation information obtained from the orientation sensor attached with magnets, It is possible to provide the surrounding spatial information and its own location information.
또한, 상기의 발명에 기울기 센서를 더 추가할 경우, 대상체에게 기울림에 대한 상태 정보까지 더 추가제공 할 수 있게된다. Further, when the tilt sensor is further added to the above-described invention, it is possible to further provide status information on the object to the object.
종래의 기술은 영상정보에 GPS 정보를 적용하여 공간정보를 확보하고 있으며, 이때, 적용된 GPS 신호는 사용자에게 제한된 거리정보로 인한 오차율과 지지하와 같은 GPS 신호 음영지역에서는 영상정보에 공간정보를 적용할 수가 없다.In the conventional technology, spatial information is secured by applying GPS information to the image information. In this case, the applied GPS signal is applied to the error information due to limited distance information to the user and spatial information is applied to the image information in the shadow area of the GPS signal I can not.
따라서, 본 발명과 같이 2D 또는 3D 영상정보에 실시간으로 획득되는 거리, 방위, 기울기정보를 2D 또는 3D 영상정보에 매핑할 경우, 공간정보를 효과적으로 반영할 수 있다.Therefore, when the distance, azimuth, and tilt information acquired in real time to 2D or 3D image information is mapped to 2D or 3D image information as in the present invention, space information can be effectively reflected.
본 발명은 GPS와 같은 외부 신호가 없이 독립적으로 실시간 영상과 공간정보가 매핑될 경우, 보행 및 사물인식, 자동차 주행, 무인비행기, 사물의 위치 파악이 가능하다.When the real time image and the spatial information are independently mapped without an external signal such as GPS, the present invention can detect the walking and object recognition, the vehicle driving, the unmanned airplane, and the location of the object.
도 1은 본 발명의 일 실시 예에 따른 영상정보 및 공간정보 획득부의 구성도
도 2는 본 발명의 일 실시 예에 따른 영상정보 및 공간정보 획득방법 구성도
도 3는 본 발명의 일 실시 예에 따른 영상정보 및 공간정보 획득 후 정보관리 DB와 알림단계, 영상정보 디스플레이부를 더 포함하는 구성도
도 4는 본 발명의 일 실시 예에 따른 공간정보 획득 장치 활용 방법 구성도1 is a block diagram of a video information and spatial information obtaining unit according to an embodiment of the present invention;
2 is a block diagram of a method of acquiring image information and spatial information according to an embodiment of the present invention
FIG. 3 is a configuration diagram further comprising an information management DB, an informing step, and an image information displaying unit after acquiring image information and spatial information according to an embodiment of the present invention
4 is a block diagram of a method of utilizing a spatial information obtaining apparatus according to an embodiment of the present invention
영상정보와 공간정보를 합성하는 장치에 관한 것이다. 더 구체적으로는 영상기기에서 획득된 2D 또는 3D 정보에 거리 및 사물의 실측 정보를 매핑한 후 임의의 대상자에게 관련 정보를 보여주거나 알려주는 것이다.And an apparatus for combining image information and spatial information. More specifically, it maps actual information of distance and object to 2D or 3D information obtained from a video device, and then displays or informs relevant information to an arbitrary object.
도 1의 110은 영상정보를 획득할 수 있는 영상촬영장치이며, 빛을 이용한 광학장치 또는 적외선, 근적외선, 초음파, 밀리미터파, 고주파, 방사선, 자기장 등을 소스로 이용하는 영상 장치들을 포함한다.
도 1의 120은 초음파 센서부로써 공간의 거리 정보를 파악하기 위한 용도이며, 임의의 공간에서 사물의 위치를 파악할 수 있게 한다.In FIG. 1,
도 1의 130은 방위 센서부로써 임의의 대상의 현재 위치 또는 이동 방향에 대한 정보를 제공해주며, 주변 사물로부터 임의의 대상의 현재 방향을 파악할 수 있게한다. 이는 120의 초음파 센서로부터 임의의 공간의 사물에 대한 거리 정보를 바탕으로 각각의 사물들의 방위를 설정하는데 적용된다.In FIG. 1,
도 1의 140은 기울기 센서부로 임의의 대상이 위치한 상태의 기울기 정보와 노면 또는 바닥의 경사도에 대한 정보를 획득한다. 또한 동적인 상태의 경우 상승과 하강 또는 좌우 측면의 기울기에 대한 정보를 제공함으로써, 자유공간에서 임의의 대상의 상태정보를 제공한다.In FIG. 1,
도 1의 210은 영상정보 획득 장치로부터 획득된 정보에서 영상정보를 추출하는 과정을 수행사는 기능부이다.
도 1의 220은 초음파 센서부에서 획득된 정보에서 거리와 위치, 영상 중 적어도 하나를 획득하기 위해 요구되는 신호처리, 빔포커싱, 어포다이제이션, 스캔컨버젼 등을 수행한다.In FIG. 1, 220 performs signal processing, beam focusing, apodization, scan conversion, and the like required to acquire at least one of distance, position, and image from information obtained from the ultrasonic sensor unit.
도 1의 230은 방위 센서부에서 획득된 정보를 이용하여 방위청보를 추출하는 기능부이다. 이때, 방위정보는 임의의 대상이 움직이는 방향과 상하좌우 변위 변화량을 확보할 수도 있다. 또한 초음파 센서부에서 획득된 거리, 위치 정보 등을 이용하여 움직이는 변위 또는 방향 정보를 획득 할 수 있다.
도 1의 240은 기울기 센서부에서 획득된 정보를 수신하여 기울기 정보를 획득하는 기능부이다. 이때 획득된 정보는 거리 또는 위치정보와 조합되어 230에서 요구하는 방위 정보를 추출하는데 활용 될 수 있다.
도 1의 100은 영상 정보 획득 장치와 공간정보를 획득하는 장치를 포함한다.1 includes an image
도 1의 200은 영상 정보 획득 기능부와 공간정보 획득 기능부를 포함한다.
도 310은 영상신호 전송부 이고, 320은 초음파 신호 전송부, 330은 방위 신호 전송부, 340은 기울기 신호 전송부이며, 이때 각각의 전송부는 유선 또는 무선으로 신호를 송수신 할 수 있다. 따라서, 본 발명에서는 유/무선 전송신호에 대한 일반적인 통신 방법을 활용하며, 본 발명의 실시에 있어서 특정 전송방식에 대한 제한을 두지 않는다.310 is an image signal transmission unit, 320 is an ultrasonic signal transmission unit, 330 is a direction signal transmission unit, and 340 is a tilt signal transmission unit, and each transmission unit can transmit and receive signals by wire or wireless. Accordingly, the present invention utilizes a general communication method for wired / wireless transmission signals, and does not limit the specific transmission method in the practice of the present invention.
도 2의 710은 본 발명의 공간정보 획득 장치를 개시함에 있어서, 시스템을 초기화하는 단계이다.Reference numeral 710 in FIG. 2 is a step of initializing the system in the apparatus for acquiring spatial information of the present invention.
도 2의 7200은 시스템 동기화 단계로, 실시간 영상과 공간정보 획들장치들로부터 획득된 정보를 활용하여 영상정보에 공간정보(거리, 위치, 방위, 기울기)를 매핑하기 위해서는 각각의 장치들의 동기화가 요구된다. 따라서 7200은 도 1의 100과 200에 포함되는 장치와 기능부들의 시스템 동기화를 수행게 된다.In FIG. 2,
도 2의 7300은 정보획득 단계로, 도 1의 100의 센서들로부터 수신된 신호들을 200에서 정보를 추출하고는 과정을 나타낸다.In FIG. 2,
도 2의 7400은 상기 7300에서 획득된 정보를 합성하는 단계로 영상정보에 공간정보(거리, 위치, 방위, 기울기)를 매핑하는 단계이다.In FIG. 2,
도 2의 7500은 7400에서 합성된 공간정보에서 임의의 대상체의 공간 위치정보를 획득하는 단계이다.In FIG. 2,
도 3의 7600은 7400에서 합성된 정보 또는 7500에서 임의의 대상체 합성 공간정보, 그리고 정보관리 DB 갱산 단계에서 수신된 정보 중 하나 이상을 이용하여 디스플레이부에 영상정보를 나타내는 단계를 수행한다.The
도 3의 7700은 7400과 7500, 7800에서 획득된 정보 중 하나 이상을 이용하여 임의의 대상체에 공간정보를 알려주는 알림단계를 수행한다.In FIG. 3, 7700 performs an alert step of informing an arbitrary object of spatial information using one or more of the information acquired from 7400, 7500, and 7800.
도 3의 7800은 임의의 7300에서 획득된 영상 또는 공간정보에서 갱신된 정보를 반영하여 정보관리 DB에 저장하는 단계이다.In FIG. 3,
도 3의 7900은 공간정보 획득 장치의 동작이 완료 또는 사용자에 의해 시스템을 종료시킬 경우 프로세스를 종료를 수행하는 단계이다.
도 4의 400은 영상정보/공간정보 합성장치이며 210의 영상정보 획득부와 100의 공간정보 획득부로부터 획득된 정보를 이용하여 영상정보에 공간정보를 합성하는 장치 또는 기능부이다.
도 4의 500은 정보관리 DB이며, 영상정보와 공간정보를 관리하는 기능부이다. 500은 실시간 영상, 거리, 위치, 방위, 기울기 정보가 갱신될, 기존의 DB 정보를 갱신할 수 있으며, 갱신된 정보를 사용자 또는 임의의 대상에게 알림 정보를 송신하거나 디스플레이 장치에 갱신된 정보를 송신하는 기능을 갖는다.4, an
또한 사용자가 설정한 경고 또는 위험, 알림 메세지 설정 기준 정보를 관리한다. 경고 또는 위험, 알림 메세지 설정 기준이란 일실시예로, 웅덩이, 가림막, 모서리, 장애불, 매질의 급격한 변화(ex, 시멘트에서 물로), 이동체의 움직임이 급격한 상태, 경사가 급격히 변하는 상태 등이 설정 기준이 될 수 있다.It also manages the warning or risk information set by the user and the notification message setting reference information. A warning, a danger, and a notification message setting criterion are, for example, a puddle, a curtain, a corner, an obstacle, a sudden change in the medium (ex, cement to water), a sudden movement of the moving object, It can be a standard.
도 4의 600은 메세지 알림부이며, 500에서 메세지 설정된 정보를 바탕으로 실시간으로 변화되는 영상, 거리, 위치, 방위, 기울기 정보에 따라서 사용자 또는 임의의 대상체에게 메세지를 알리는 기능부 이다.
도 4의 700은 영상정보 디스플레이부이며, 영상장치로부터 획득된 2D 또는 3D, 4D 정보를 제공한다. 또한 400에서 합성된 공간정보 합성영을 디스플레이 하는 기능부 이다.
본 발명은 저시력 또는 시각장애인, 그리고 군사용, 로봇, 무인기기에 적용되어 공간 및 사물의 위치를 인식하고 스스로 보행 또는 주행, 비행, 사물의 위치 파악 등에 활용이 가능할 수 있다. The present invention can be applied to low vision or visually impaired persons, military, robot, and unmanned devices to recognize the location of space and objects, and can be utilized for walking, running, flying, and locating objects.
100 : 센서부
110 : 영상정보 획득 장치 부
120 : 초음파 센서부
130 : 방위 센서부
140 : 기울기 센서부
210 : 영상정보 획득(처리) 기능부
220 : 거리/위치 정보 획득(처리) 기능부
230 : 방위 정보 획득(처리) 기능부
240 : 기울기 정보 획득(처리) 기능부
310 : 영상 신호 전송부
320 : 초음파 신호 전송부
330 : 방위 신호 전송부
340 : 기울기 신호 전송부
400 : 영상정보/공간정보 합성장치
500 : 정보관리 DB
600 : 메세지 알림부
7100 : 공간정보 획득장치 초기단계
7200 : 시스템 동기화 단계
7300 : 정보획득 단계
7400 : 정보 합성 단계
7500 : 임의의 대상체 합성 공간정보 획득 단계
7600 : 영상정보 디스플레이부
7700 : 임의의 대상체 정보 알림단계
7800 : 정보관리 DB 갱신 단계
7900 : 종료 단계100:
110: Image information acquiring unit
120: ultrasonic sensor part
130:
140: tilt sensor unit
210: Image information acquisition (processing) function unit
220: Distance / position information acquisition (processing) function part
230: Orientation information acquisition (processing) function part
240: Tilt information acquisition (processing) function part
310: Video signal transmission unit
320: ultrasonic signal transmission unit
330: azimuth signal transmission unit
340: tilt signal transmission unit
400: image information / spatial information synthesizer
500: Information management DB
600: Message notification part
7100: Spatial information acquisition device initial stage
7200: System Synchronization Phase
7300: Information acquisition phase
7400: information synthesis step
7500: Acquisition of arbitrary object synthesis space information
7600: Image information display section
7700: Any object information notification step
7800: Information management DB update step
7900: Shutdown phase
Claims (1)
공간정보를 획득할 수 있는 공간정보 획득부를 더 포함하는 공간정보 획득 장치;
상기 공간정보 획득부는 거리와 방위 또는 기울기 정보 중 하나를 포함하는 것을 특징으로 하는 공간정보 획득 장치;An image information acquiring unit capable of acquiring 2D or 3D image information; And
A spatial information acquiring unit that acquires spatial information;
Wherein the spatial information obtaining unit includes one of distance, azimuth or tilt information;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140169163A KR20160064891A (en) | 2014-11-28 | 2014-11-28 | Spatial Infomation Acquisition Device and Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140169163A KR20160064891A (en) | 2014-11-28 | 2014-11-28 | Spatial Infomation Acquisition Device and Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160064891A true KR20160064891A (en) | 2016-06-08 |
Family
ID=56193832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140169163A KR20160064891A (en) | 2014-11-28 | 2014-11-28 | Spatial Infomation Acquisition Device and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160064891A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070110921A (en) | 2005-03-11 | 2007-11-20 | 세이코 엡슨 가부시키가이샤 | Plastic lens and method for producing plastic lens |
KR20100121164A (en) | 2009-05-08 | 2010-11-17 | 엘지전자 주식회사 | Display device |
-
2014
- 2014-11-28 KR KR1020140169163A patent/KR20160064891A/en not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070110921A (en) | 2005-03-11 | 2007-11-20 | 세이코 엡슨 가부시키가이샤 | Plastic lens and method for producing plastic lens |
KR20100121164A (en) | 2009-05-08 | 2010-11-17 | 엘지전자 주식회사 | Display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11725956B2 (en) | Apparatus for acquiring 3-dimensional maps of a scene | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
JP7182895B2 (en) | Information processing device, program, and information processing method | |
Jafri et al. | Visual and infrared sensor data-based obstacle detection for the visually impaired using the Google project tango tablet development kit and the unity engine | |
US9097532B2 (en) | Systems and methods for monocular airborne object detection | |
GB2556910A (en) | Virtual reality display | |
KR101214582B1 (en) | Image editing system with increasing understanding of aerial images | |
EP3663882B1 (en) | Information processing device, information processing method, program and mobile unit | |
CN111033571B (en) | Image processing apparatus and image processing method | |
CN104833354A (en) | Multibasic multi-module network integration indoor personnel navigation positioning system and implementation method thereof | |
CN106264911A (en) | A kind of navigation avoidance wheelchair | |
US20090262974A1 (en) | System and method for obtaining georeferenced mapping data | |
EP3261071B1 (en) | Methods and systems for detecting intrusions in a monitored volume | |
KR101880437B1 (en) | Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image | |
Kamarudin et al. | Method to convert Kinect's 3D depth data to a 2D map for indoor SLAM | |
KR20190067806A (en) | Image processing apparatus and image processing method | |
CN115597659A (en) | Intelligent safety management and control method for transformer substation | |
RU2559332C1 (en) | Method of detecting small unmanned aerial vehicles | |
US20210006725A1 (en) | Image capturing system, method, and analysis of objects of interest | |
KR20170014451A (en) | System and method for securing a clear view, and terminal for performing the same | |
KR101700764B1 (en) | Method for Autonomous Movement and Apparatus Thereof | |
JP2014145629A (en) | Underground radar system achieving three-dimensional display | |
KR20160099336A (en) | Mobile mapping system | |
CN114612622A (en) | Robot three-dimensional map pose display method, device and equipment and storage medium | |
KR20160064891A (en) | Spatial Infomation Acquisition Device and Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |