KR102243810B1 - Caption adding system and method of helicam recording image with position information for filming site - Google Patents
Caption adding system and method of helicam recording image with position information for filming site Download PDFInfo
- Publication number
- KR102243810B1 KR102243810B1 KR1020210017185A KR20210017185A KR102243810B1 KR 102243810 B1 KR102243810 B1 KR 102243810B1 KR 1020210017185 A KR1020210017185 A KR 1020210017185A KR 20210017185 A KR20210017185 A KR 20210017185A KR 102243810 B1 KR102243810 B1 KR 102243810B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- helicam
- unit
- image
- photographing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000006854 communication Effects 0.000 claims description 48
- 238000004891 communication Methods 0.000 claims description 47
- 230000008859 change Effects 0.000 claims description 34
- 230000005540 biological transmission Effects 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 10
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 3
- LIWAQLJGPBVORC-UHFFFAOYSA-N ethylmethylamine Chemical compound CCNC LIWAQLJGPBVORC-UHFFFAOYSA-N 0.000 claims 2
- 230000002194 synthesizing effect Effects 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- XXBDWLFCJWSEKW-UHFFFAOYSA-N dimethylbenzylamine Chemical compound CN(C)CC1=CC=CC=C1 XXBDWLFCJWSEKW-UHFFFAOYSA-N 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000002285 radioactive effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/03—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
- G01S19/05—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing aiding data
- G01S19/06—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing aiding data employing an initial estimate of the location of the receiver as aiding data or in generating aiding data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/24—Acquisition or tracking or demodulation of signals transmitted by the system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H04N5/23206—
-
- H04N5/23299—
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 현재 촬영지 및 배경, 건물 등 대상 지점의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for generating position and attribute information as captions in a real-time photographed image of a helicam, and more particularly, utilizing a geographic information system when providing real-time photographed image information of a helicam to an operator through a network. The present invention relates to a method and system for synthesizing and outputting real-time location and attribute information of a target point, such as a current location and background, and a building.
헬리캠은 생동감 있는 영상이나 사람의 접근이 어려운 곳에서의 촬영을 위해 소형 무인 헬리콥터에 카메라를 장착하여 만든 원격 무선조종 촬영 장비로, 고공을 비행하면서 여러 각도의 촬영이 가능하고 원격에서 무선조종하기 때문에 생동감 있는 영상 연출이 가능하고 암벽이나 화재, 화공 약품, 방사능 누출 사고 현장 등 인간의 접근이 어려운 환경에서 요긴하게 사용되고 있다.Helicam is a remote radio-controlled photographing equipment made by attaching a camera to a small unmanned helicopter for shooting lively images or in places where people are difficult to access. It is possible to shoot at various angles while flying at high altitude, and to remotely control it. Because of this, it is possible to produce lively images and is useful in environments where human access is difficult, such as rock walls, fires, chemicals, and radioactive leakage accident sites.
이러한 헬리캠은 최근 무선조종을 위한 오픈 소스 소프트웨어가 개발되고 접근성이 높아짐에 따라 방송촬영, 3차원 공간 정보 획득, 통신, 농업, 배송 등 여러 분야로 이용이 확산되고 있다.As open source software for wireless control is recently developed and accessibility increases, the helicam is being used in various fields such as broadcasting shooting, 3D spatial information acquisition, communication, agriculture, and delivery.
그런데 기존의 헬리캠은 위성항법장치(GPS)를 활용하여 획득한 경도 및 위도를 촬영지의 위치 정보로 운용자에게 전송하는 방식이기 때문에 헬리캠의 실시간 촬영 영상의 위치 정보를 정확하고 신속하게 파악하기 매우 어려운 한계가 있다.However, since the existing helicam is a method that transmits the longitude and latitude acquired using the satellite navigation system (GPS) to the operator as the location information of the shooting location, it is very easy to accurately and quickly grasp the location information of the real-time image of the helicam. There is a difficult limit.
또한, 운용자가 헬리캠의 현재 위치 정보를 파악하기 위해서는 구글 등 포털사이트에 접속하여 위성항법장치(GPS)의 정보를 임의로 주소 등으로 변환하여 확인하는 수밖에 없어 상당히 번거로운 데다 비상상황 발생 시 등에 신속하게 대처하기 어려운 문제점이 있다.In addition, in order for the operator to determine the current location information of the helicam, it is very cumbersome, as it is very cumbersome because the operator has no choice but to check the information of the satellite navigation system (GPS) by accessing a portal site such as Google and converting it into an address. There is a problem that is difficult to cope with.
한편, 헬리캠은 무선으로 조종을 하기 때문에 비행기록 및 촬영 영상 등을 가로채거나, GPS 신호 또는 오작동 신호를 보내어 탈취하거나, 작동불능 상태로 만드는 등의 해킹에 취약한 문제가 있다.On the other hand, since the helicam is controlled wirelessly, it is vulnerable to hacking such as intercepting flight records and recorded images, hijacking by sending a GPS signal or malfunctioning signal, or rendering it inoperable.
즉, 헬리캠과 지상통제장치(GCS: GROUND CONTROL STATION) 간의 무선통신은 보안이 취약하여 액세스가 가능한 범위 안의 악의적인 공격자가 정당한 지상통제장치로 위장하여 공격하는 것이 가능하다.In other words, the wireless communication between the helicam and the ground control device (GCS) is weak, so it is possible for a malicious attacker within the accessible range to attack by disguised as a legitimate ground control device.
예컨대, 보안이 적용되지 않은 헬리캠은 무선 채널로 전송되는 데이터를 검증하지 않고 처리하므로 정당하지 않은 지상통제장치로부터 잘못된 제어명령을 전송(fault injection attacks) 받으면, 이를 수행 및 비행을 유지하기 위하여 배터리 전력을 불필요하게 소모하는 오작동이 발생하고, 이로 인해 본래의 임무를 수행하지 못하고 작동 불능 상태에 빠질 수 있다.For example, a helicam that does not have security applied does not verify the data transmitted through the wireless channel without verifying it, so if it receives an incorrect control command from an unjust ground control device (fault injection attacks), it is necessary to carry out it and maintain the flight. Malfunctions that unnecessarily consume power may occur, resulting in an inability to perform the original task and result in an inoperable state.
또한, 카메라, 센서 및 별도의 공격용 무기를 탑재할 수 있기 때문에 사람에 대한 사생활 침해, 개인정보 유출, 영상 정보 유출 등의 피해뿐만 아니라 주요시설 충돌, 공격 등 물리적 피해를 입히는 무력화 공격이 가능하다.In addition, since cameras, sensors, and separate weapons for attack can be mounted, it is possible to incapacitate attacks that cause physical damage such as collisions and attacks of major facilities, as well as damages such as privacy invasion, personal information leakage, and video information leakage.
따라서 헬리캠과 지상통제장치(GCS), 관제 시스템 간의 통신 보안, 기기인증, 컨트롤러의 안전한 운용, 개인정보 보호, 네트워크 보안, 악성코드 방지 등을 통해 안전성을 강화하는 기술이 요구되고 있다.Therefore, there is a need for a technology that enhances safety through communication security between helicam and ground control system (GCS), control system, device authentication, safe operation of controllers, personal information protection, network security, and malicious code prevention.
여기서 상술한 배경기술 또는 종래기술은 본 발명자가 보유하거나 본 발명을 도출하는 과정에서 습득한 정보로서 본 발명의 기술적 의의를 이해하는데 도움이 되기 위한 것일 뿐, 본 발명의 출원 전에 이 발명이 속하는 기술분야에서 널리 알려진 기술을 의미하는 것은 아님을 밝힌다.The background technology or the prior art described herein is information possessed by the present inventor or acquired in the process of deriving the present invention, and is only intended to help understand the technical significance of the present invention, and the technology to which the present invention belongs prior to the filing of the present invention. It is stated that it does not mean a well-known technology in the field.
이에 본 발명자는 상술한 제반 사항을 종합적으로 고려함과 동시에 기존의 헬리캠 기술이 지닌 기술적 한계 및 문제점들을 해결하려는 발상에서, 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 현재 촬영지의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력함으로써, 이를 모니터링하는 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능하고, 아울러 헬리캠과 지상통제장치(GCS) 간의 통신 보안성을 한층 높이는 효과를 도모할 수 있는 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 새로운 방법 및 시스템을 개발하고자 각고의 노력을 기울여 부단히 연구하던 중 그 결과로써 본 발명을 창안하게 되었다.Accordingly, the present inventor comprehensively considers the above-described matters and at the same time provides a geographic information system when providing real-time photographed image information of the helicam to the operator through a network in the idea of solving the technical limitations and problems of the existing helicam technology. By utilizing the real-time location and property information of the current filming location by synthesizing and outputting it as a subtitle, the operator or manager who monitors it can accurately and quickly grasp the location and property information in the filmed image to quickly respond to emergency situations, etc. In addition, every effort to develop a new method and system for generating position and attribute information as subtitles in real-time images of the helicam that can further enhance the communication security between the helicam and the ground control system (GCS). As a result, the present invention was invented while continuing to study with inclination.
따라서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 헬리캠의 촬영 영상의 위치 및 속성 정보를 정확하고 신속하게 파악할 수 있도록 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템을 제공하는 데 있는 것이다.Therefore, the technical problem and object to be solved by the present invention is a method of generating position and attribute information as a caption on a real-time photographed image of a helicam so that the position and attribute information of the captured image of the helicam can be accurately and quickly identified, and It is in providing the system.
본 발명이 해결하고자 하는 다른 기술적 과제 및 목적은 헬리캠과 지상통제장치 간의 보안성을 강화할 수 있도록 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템을 제공하는 데 있는 것이다.Another technical problem and object to be solved by the present invention is to provide a method and system for generating position and attribute information as captions in a real-time photographed image of a helicam to enhance security between a helicam and a ground control device. There is.
여기서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 이상에서 언급한 기술적 과제 및 목적으로 국한하지 않으며, 언급하지 않은 또 다른 기술적 과제 및 목적들은 아래의 기재로부터 당업자가 명확하게 이해할 수 있을 것이다.Here, the technical problems and objects to be solved by the present invention are not limited to the technical problems and objects mentioned above, and other technical problems and objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 바와 같은 본 발명의 기술적 과제를 해결하기 위한 새로운 착상을 구체화하면서 특정의 기술적 목적을 효과적으로 달성하기 위한 본 발명의 일실시 태양(aspect)에 따른 구체적인 수단은, 로터의 회전력을 가변적으로 이용해 비행하되, 인공위성으로부터 GPS 정보를 수신하여 NMEA(The National Marine Electronics Association) 데이터를 추출 및 국토지리정보원의 VRS(Virtual Reference Station) 서버로 전송하는 GPS 수신기, 상기 국토지리정보원의 VRS 서버로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 위치측위부, 피사체를 실시간 항공 촬영하여 영상 신호로 변환하는 영상촬영부, 비행 방향과 자세를 제어 및 상기 영상촬영부의 촬영 각도를 조절하는 비행조종제어부, 상기 영상촬영부의 촬영 각도를 측정하는 촬영각도측정부, 상기 영상촬영부의 초점과 지표 간의 절대고도를 측정하는 촬영고도측정부 및 상기 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 전송하는 취득정보송신부를 포함하여 구성된 헬리캠, 상기 취득정보송신부로부터 상기 헬리캠의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버로 전송하고, 상기 헬리캠을 지상에서 원격 제어 및 조종하는 지상통제장치, 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보 영역 내에 미리 배치된 지상기준점의 GPS 좌표를 식별하는 기준좌표식별부, 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부의 GPS 좌표를 이용하여 상기 영상촬영부의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 좌표추정부, 상기 좌표추정부의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버로부터 추출하는 지리정보추출부 및 상기 지리정보추출부로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보에 자막으로 입히는 자막생성부를 포함하여 구성된 영상처리장치를 포함하는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 제시한다.A specific means according to an aspect of the present invention for effectively achieving a specific technical purpose while specifying a new concept for solving the technical problem of the present invention as described above is to fly by variably using the rotational force of the rotor. However, a GPS receiver that receives GPS information from a satellite, extracts NMEA (The National Marine Electronics Association) data and transmits it to the Virtual Reference Station (VRS) server of the National Geographic Information Institute, and VRS correction data from the VRS server of the National Geographic Information Institute. A positioning unit that receives and generates real-time location information, an image photographing unit that converts a subject into an image signal by real-time aerial photographing, a flight control control unit that controls the flight direction and posture and adjusts the photographing angle of the image photographing unit, and the image photographing A photographing angle measuring unit that measures a negative photographing angle, a photographing altitude measuring unit that measures the absolute altitude between the focus and the index of the image photographing unit, and an acquisition information transmitting unit that transmits the location information, image information, photographing angle and photographing altitude information in real time. A helicam configured to include, receiving location information, image information, shooting angle and shooting altitude information of the helicam from the acquisition information transmitting unit in real time and transmitting it to a streaming server, and remotely controlling and controlling the helicam from the ground. Ground control device, a reference coordinate identification unit that identifies the GPS coordinates of the ground reference point previously arranged in the image information area of the helicam received through the streaming server, the location information of the helicam, the shooting angle and the shooting altitude information, and the A coordinate estimating unit that estimates specific coordinates for a target point on the image information of the image capture unit using the GPS coordinates of the reference coordinate identification unit, and location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit from the GIS server of the geographic information system. Generating a caption in which the extracted geographic information extracting unit and the location and attribute information extracted from the geographic information extracting unit are applied as captions to the image information of the helicam received through the streaming server A system for generating position and attribute information in a real-time photographed image of a helicam as a caption, characterized in that it includes an image processing device including a unit, is presented.
이로써 본 발명은, 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 대상 지점의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력할 수 있고, 이를 통해 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능할 수 있다.Accordingly, the present invention can synthesize and output real-time location and attribute information of a target point into subtitles using a geographic information system when providing real-time photographed image information of a helicam to an operator through a network. By accurately and quickly grasping the location and attribute information in the captured image, it is possible to quickly respond to an emergency situation or the like.
또한, 본 발명의 바람직한 일실시 태양(aspect)으로 상기 헬리캠은, 암호 체계를 사용하여 상기 지상통제장치와의 정보를 송수신하는 통신보안 모듈을 더 포함하여 구성되고, 상기 통신보안 모듈은, 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장하는 패스워드 변경정보부, 상기 헬리캠에 대한 정보 및 기존 패스워드 정보를 관리하는 정보관리부, 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 상기 헬리캠에 대한 신규 패스워드 정보를 자동 생성하는 패스워드 변경부 및 신규 패스워드 정보를 상기 헬리캠의 패스워드로 설정하는 패스워드 설정부를 포함하여 구성됨으로써 헬리캠과 지상통제장치 간의 통신 보안성을 강화할 수 있다.In addition, as a preferred aspect of the present invention, the helicam further includes a communication security module for transmitting and receiving information with the ground control device using an encryption system, and the communication security module includes a password A password change information unit that receives and stores information on the change cycle and change rule of the Helicam, an information management unit that manages the information on the helicam and existing password information, the password change cycle and change rule, and the heli based on the existing password information. By including a password change unit for automatically generating new password information for the cam and a password setting unit for setting new password information as the password of the helicam, communication security between the helicam and the ground control device may be enhanced.
본 발명의 다른 실시 태양(aspect)에 따른 구체적인 수단은, (가) 헬리캠의 GPS 수신기가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버로 전송하는 단계, (나) 상기 헬리캠의 위치측위부가 상기 국토지리정보원의 VRS 서버로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 단계, (다) 상기 헬리캠의 영상촬영부가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 상기 헬리캠의 촬영각도측정부 및 촬영고도측정부가 상기 영상촬영부의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부를 통해 지상통제장치로 실시간 전송하는 단계, (라) 상기 지상통제장치가 상기 취득정보송신부로부터 상기 헬리캠의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버로 전송하는 단계, (마) 영상처리장치의 기준좌표식별부가 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보 영역 내에 미리 배치된 지상기준점의 GPS 좌표를 식별하는 단계, (바) 상기 영상처리장치의 좌표추정부가 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부의 GPS 좌표를 이용하여 상기 영상촬영부의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 단계, (사) 상기 영상처리장치의 지리정보추출부가 상기 좌표추정부의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버로부터 추출하는 단계, (아) 상기 영상처리장치의 자막생성부가 상기 지리정보추출부로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보에 자막으로 입히는 단계를 포함하여 이루어지는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법을 제시한다.A specific means according to another aspect of the present invention is: (a) the GPS receiver of the helicam receives GPS information from the satellite, extracts NMEA data, and transmits the NMEA data to the VRS server of the National Geographic Information Institute, (b) The step of generating real-time location information by receiving VRS correction data from the VRS server of the National Geographic Information Service by the location positioning unit of the helicam, (c) the image capture unit of the helicam photographs the subject in real time and converts it into an image signal. , The photographing angle measuring unit and the photographing altitude measuring unit of the helicam measure the photographing angle and photographing altitude of the image photographing unit, and transmitting real-time to the ground control device through the acquisition information transmission unit, (D) the ground control device acquires the Receiving the location information, image information, shooting angle, and shooting altitude information of the helicam from an information transmission unit in real time and transmitting it to a streaming server, (e) the reference coordinate identification unit of the image processing device received through the streaming server. Identifying the GPS coordinates of the ground reference point previously arranged in the image information area of the helicam, (f) the coordinate estimation unit of the image processing device receives the location information, the shooting angle, and the shooting altitude of the helicam through the streaming server. Estimating specific coordinates for a target point on the image information of the image capturing unit using information and GPS coordinates of the reference coordinate identification unit, (g) a geographic information extracting unit of the image processing unit corresponding to the estimated coordinates of the coordinate estimating unit Extracting the location and attribute information from the GIS server of the geographic information system, (H) the caption generation unit of the image processing apparatus receives the position and attribute information extracted from the geographic information extraction unit through the streaming server. A method of generating position and attribute information in a real-time photographed image of a helicam as a caption, characterized in that it comprises the step of coating image information of a cam with a caption.
이로써 본 발명은 지리정보시스템을 활용해 헬리캠의 실시간 촬영 영상 정보에 위치 및 속성 정보를 자막으로 합성하여 출력할 수 있고, 이를 통해 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능할 수 있다.Accordingly, the present invention uses a geographic information system to synthesize location and attribute information into real-time photographed image information of helicam as subtitles, and through this, an operator or manager can accurately and quickly determine the position and attribute information in the photographed image. By grasping it, it can be possible to quickly respond in case of an emergency situation.
또한, 본 발명의 바람직한 다른 실시 태양(aspect)으로 상기 (바) 단계에서, 상기 좌표추정부가 상기 영상촬영부의 영상 정보상의 대상 지점에 대해 추정한 좌표 및 그 추정 좌표와 가장 가까운 곳에 미리 배치된 지상기준점의 GPS 좌표를 상호 비교하여 상기 추정 좌표를 검증함으로써, 헬리캠의 실시간 촬영 영상 정보에 실제 좌표에 해당하는 위치 및 속성 정보를 더욱 정확하게 자막으로 합성하여 출력할 수 있다.In addition, as another preferred aspect of the present invention, in the step (f), the coordinate estimation unit estimates the coordinates of the target point on the image information of the image capturing unit and the ground pre-arranged at the closest position to the estimated coordinates. By comparing the GPS coordinates of the reference points and verifying the estimated coordinates, position and attribute information corresponding to the actual coordinates in the real-time photographed image information of the helicam can be more accurately synthesized and output as a caption.
또한, 본 발명의 바람직한 다른 실시 태양(aspect)으로 상기 (바) 단계에서, 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 상기 기준좌표식별부의 GPS 좌표 정보를 이용하여 상기 헬리캠으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 변경하여 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 상기 추정 좌표를 검증함으로써, 헬리캠의 실시간 촬영 영상 정보에 실제 좌표에 해당하는 위치 및 속성 정보를 더욱 정밀하게 산출할 수 있다.In addition, as another preferred aspect of the present invention, in the step (f), when the location information, the shooting angle, and the shooting altitude information of the helicam are changed, the helicam is Calculate by changing the estimated coordinates for the target point located at the center of the image information transmitted from the cam, and if the estimated coordinates are continuously changed and calculated, the distance between the previous estimated coordinates and the current estimated coordinates is calculated, and then the previous estimated coordinates The estimated coordinates are verified by comparing the distance between the GPS coordinate information of the ground reference point placed and stored in advance and stored in the nearest place and the GPS coordinate information of the ground reference point previously placed and stored in the nearest place to verify the real-time photographed image of the helicam. Position and attribute information corresponding to the actual coordinates in the information can be calculated more precisely.
상기와 같은 기술적 과제를 해결하고자 특유한 해결 수단이 기초하고 있는 본 발명의 기술사상 및 실시 예(embodiment)에 따르면, 지리정보시스템을 활용해 헬리캠의 실시간 촬영 영상에 대상 지점의 위치 및 속성 정보를 자막으로 합성하여 출력함으로써, 이를 모니터링하는 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처 및 조치가 가능하여 피해를 최소화할 수 있다.According to the technical idea and embodiment of the present invention, on which a unique solution is based to solve the above technical problem, the location and attribute information of the target point is recorded in the real-time photographed image of the helicam using a geographic information system. By synthesizing and outputting the subtitles, the operator or manager who monitors them can accurately and quickly grasp the location and attribute information in the captured image, and can quickly respond and take measures in the event of an emergency situation, thereby minimizing damage.
또한, VRS 데이터를 활용하여 헬리캠의 촬영 위치의 정확도를 높임은 물론 지상기준점의 GPS 좌표를 탐지하여 추정 좌표와의 상호 거리 및 위치를 검증하므로 촬영 영상 내의 정확한 위치 및 속성 정보를 획득할 수 있다.In addition, by using VRS data, the accuracy of the shooting position of the helicam is improved, as well as by detecting the GPS coordinates of the ground reference point, and verifying the mutual distance and position with the estimated coordinates, it is possible to obtain accurate location and attribute information in the captured image. .
게다가 헬리캠과 지상통제장치 간 통신 시스템의 접속을 위한 암호화 체계를 주기적으로 자동 변경함으로써 보안성을 한층 강화할 수 있다.In addition, the security can be further strengthened by periodically automatically changing the encryption system for the connection of the communication system between the helicam and the ground control device.
여기서 본 발명의 효과들은 이상에서 언급한 효과들로 국한하지 않으며, 언급하지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자가 명확하게 이해할 수 있을 것이다.Here, the effects of the present invention are not limited to the above-mentioned effects, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 구성하는 통신보안 모듈을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템의 디스플레이 및 검증 과정의 이해를 돕기 위한 개념도이다.1 is a block diagram schematically illustrating a system for generating position and property information as captions in a real-time captured image of a helicam according to an exemplary embodiment of the present invention.
2 is a block diagram schematically illustrating a communication security module constituting a system for generating position and attribute information as captions in a real-time photographed image of a helicam according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a display and verification process of a system for generating position and attribute information as captions in a real-time photographed image of a helicam according to an embodiment of the present invention.
이하, 본 발명에 따른 실시 예를 첨부된 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
이에 앞서, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합되는 개념과 당해 기술분야에서 통용 또는 통상적으로 인식되는 의미로 해석하여야 함을 명시한다.Prior to this, the terms to be described later are defined in consideration of functions in the present invention, and this should be interpreted as a concept conforming to the technical idea of the present invention and a meaning commonly or commonly recognized in the art.
또한, 본 발명과 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when it is determined that a detailed description of a known function or configuration related to the present invention may obscure the subject matter of the present invention, a detailed description thereof will be omitted.
여기서 첨부된 도면들은 기술의 구성 및 작용에 대한 설명과, 이해의 편의 및 명확성을 위해 일부분을 과장하거나 간략화하여 도시한 것으로, 각 구성요소가 실제의 크기 및 형태와 정확하게 일치하는 것은 아님을 밝힌다.Here, the accompanying drawings are partially exaggerated or simplified for description of the configuration and operation of the technology, and for convenience and clarity of understanding, and it is understood that each component does not exactly match the actual size and shape.
아울러 본 명세서에서 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하는 의미이며, 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in the present specification, the term and/or is meant to include a combination of a plurality of related items or any item among a plurality of related items, and when a certain part includes a certain element, it is a particularly opposite description. Unless there is no other component is not excluded, it means that other components can be further included.
즉, '포함하다' 또는 '구비하다', '가지다' 등의 용어는 본 명세서에서 설시(說示)하는 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해해야 한다.In other words, terms such as'include','equipment', and'have' mean the presence of features, numbers, steps, actions, components, parts, or a combination of the features set out in the present specification. It is to be understood that it does not exclude the possibility of the presence or addition of one or more other features or numbers, step-operating components, parts, or combinations thereof.
아울러 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, each step may occur differently from the specified order unless a specific order is clearly stated in the context. That is, each of the steps may occur in the same order as the specified order, may be performed substantially simultaneously, or may be performed in the reverse order.
이외에도 "부" 및 "유닛"의 용어에 대한 의미는 시스템에서 목적하는 적어도 하나의 기능이나 어느 일정한 동작을 처리하는 단위 또는 역할을 하는 모듈 형태를 의미하며, 이는 하드웨어나 소프트웨어 혹은 하드웨어 및 소프트웨어의 결합 등을 통한 수단이나 독립적인 동작을 수행할 수 있는 디바이스 또는 어셈블리 등으로 구현할 수 있다.In addition, the meaning of the terms "unit" and "unit" refers to a unit or a module that serves to process at least one function or a certain operation desired in the system, which is hardware or software, or a combination of hardware and software. It may be implemented as a device or assembly capable of performing an independent operation or means through the like.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있다. 즉, 제1, 제2 등의 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다. 예를 들어, 제1 구성요소는 본 발명의 보호범위를 벗어나지 않는 한에서 제2 구성요소로 명명할 수 있고, 또 제2 구성요소도 제1 구성요소로 명명할 수도 있다.Also, terms such as first and second may be used to describe various elements. That is, terms such as first and second may be used only for the purpose of distinguishing one component from another component. For example, a first component may be referred to as a second component without departing from the protection scope of the present invention, and a second component may also be referred to as a first component.
또한, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 하나의 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 하나의 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.In addition, the terms "transmission", "communication", "transmission", "receiving" and other similar meanings of signals or information are not only direct transmission of signals or information from one component to another component, but also other components. It includes what is transmitted through. In particular, "transmitting" or "transmitting" a signal or information as a component indicates the final destination of the signal or information and does not mean a direct destination. The same is true for "reception" of signals or information.
도 1 및 도 2에 도시된 바와 같이 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 구성하는 주요 구성요소는 헬리캠(100), VRS 서버(200), 지상통제장치(300), 스트리밍 서버(400), 영상처리장치(500) 및 GIS 서버(600)를 포함하고 있으며, 상호 간의 통신 방법은 유선 및/또는 무선 네트워크를 통하여 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있다.As shown in FIGS. 1 and 2, the main components constituting the system for generating position and property information as captions in the real-time photographed image of the helicam according to the embodiment of the present invention are the
예를 들어, 헬리캠(100), VRS 서버(200), 지상통제장치(300), 스트리밍 서버(400), 영상처리장치(500) 및 GIS 서버(600) 사이의 유선 및/또는 무선 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE80216m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 80216e), UMB (formerly EV-DO Rev C), Flash-OFDM, iBurst and MBWA (IEEE 80220) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.For example, the wired and/or wireless network between the
헬리캠(100)은 로터의 회전력을 가변적으로 이용해 비행하면서 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 위치 정보 등의 데이터를 생성하여 실시간으로 전송한다.The
구체적으로 헬리캠(100)은 GPS 수신기(110), 위치측위부(120), 영상촬영부(130), 비행조종제어부(140), 촬영각도측정부(150), 촬영고도측정부(160), 취득정보송신부(170) 및 통신보안 모듈(180)을 포함하고 있다.Specifically, the
GPS 수신기(110)는 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송한다.The
여기서 NMEA(The National Marine Electronics Association) 데이터는 GPS에서 사용되는 신호 형식을 의미하며, GPGGA(Global Positioning System Fix Data), GPGSV(GPS Satellites in View), GPRMC(Recommended Minimum Specific GNSS Data) 등의 데이터가 모두 포함된 가공되지 않은 데이터이다.Here, NMEA (The National Marine Electronics Association) data refers to the signal format used in GPS, and data such as Global Positioning System Fix Data (GPGGA), GPS Satellites in View (GPGSV), and Recommended Minimum Specific GNSS Data (GPRMC) are available. This is all-inclusive raw data.
또한, NMEA 데이터 전체를 패킷 형태로 국토지리정보원의 VRS 서버(200)로 전송할 경우 데이터 용량이 크고 불필요한 정보가 많이 포함되어 전송이 원활하게 이루어지지 않을 수 있어, NMEA 데이터에서 GPGGA 데이터를 추출하는 작업을 거친 뒤, 이를 VRS 서버(200)로 전송하는 것이 바람직하다. 이를 위해 헬리캠(100)은 데이터 처리모듈을 포함하여 구성되어야 함은 물론이다.In addition, if the entire NMEA data is transmitted to the
한편, GPS 수신기(110)는 가상기준점측량(Network-based RTK) 방식을 지원하는 2주파수 이상의 수신기로 구성될 수 있다.Meanwhile, the
위치측위부(120)는 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 헬리캠(100)의 실시간 위치 정보를 생성한다.The
즉, 위치측위부(120)는 VRS 서버(200)를 통해 헬리캠(100)의 정확한 현재 위치 정보를 획득할 수 있다.That is, the
영상촬영부(130)는 피사체를 실시간 항공 촬영하여 영상 신호로 변환한다.The
즉, 영상촬영부(130)는 헬리캠(100)의 진행 방향 및 아래 방향을 주사하여 물체의 탐지 및 영상을 획득하기 위해 헬리캠(100)의 동체 중심부에 탑재되어 있다.That is, the
여기서 영상촬영부(130)는 가시광선 카메라, 적외선 카메라, 스테레오 카메라 등 촬영 대상인 피사체의 형태를 구분할 수 있는 영상을 획득 가능한 촬영 수단인 경우 특별히 그 종류를 한정하지 않는다.Here, if the
또한, 영상촬영부(130)는 별도의 짐벌(Gimbal) 또는 3축 이동안정화시스템(3axis motion stabilizer system for camera)을 이용함으로써 비행 중 바람 등의 외적 작용에 의한 영상의 흔들림을 최소화하여 안정적인 영상을 취득할 수 있다.In addition, by using a separate gimbal or a 3-axis motion stabilizer system for camera, the
한편, 영상촬영부(130)는 영상 정보를 압축하여 전송함으로써 효율적인 신호 처리를 수행할 수 있다.Meanwhile, the
비행조종제어부(140)는 제어 프로세서로 이루어져 헬리캠(100)의 비행 방향과 자세, 속도, 고도 등을 제어하고 영상촬영부(130)의 촬영 각도 및 촬영 조건 등 조절한다.The flight
여기서 비행조종제어부(140)는 별도의 하드웨어로 구현되거나 또는 동일한 하드웨어에서 구현될 수 있다.Here, the flight
예를 들어, 동일한 ASIC, CPU, FPGA 등의 프로세서에서 구현되거나 별개의 프로세서에서 구현될 수 있다.For example, it can be implemented on a processor such as the same ASIC, CPU, or FPGA, or can be implemented on a separate processor.
또한, 비행조종제어부(140)는 조종자의 조작에 따라 영상촬영부(130)의 좌우로 기울여 촬영 각도를 조절하거나 상하 기준축을 중심으로 360도 회전시킬 수 있다.In addition, the flight
예를 들면, 모터를 이용한 회전수 조절을 통해 영상촬영부(130)의 회전 및 기울임 정도를 제어할 수 있다.For example, it is possible to control the degree of rotation and tilt of the
이외에도 비행조종제어부(140)는 짐벌 및 항법 좌표계를 이용하여 영상촬영부(130)의 롤(roll), 피치(pitch), 요(yaw) 각도를 조절하여 촬영 자세를 유지하도록 제어할 수 있다.In addition, the flight
촬영각도측정부(150)는 영상촬영부(130)의 촬영 각도를 측정한다.The photographing
즉, 촬영각도측정부(150)는 헬리캠(100)에 대한 영상촬영부(130)의 기울어진 각도를 상하 방향의 기준축을 중심으로 산출하고, 기준축으로부터 시계방향으로 회전한 각도를 산출한다.That is, the photographing
촬영고도측정부(160)는 영상촬영부(130)의 촬영 고도를 측정한다.The photographing
즉, 촬영고도측정부(160)는 영상촬영부(130)의 카메라 초점과 지표 간의 절대고도를 측정하여 영상촬영부(130)의 촬영 고도를 산출한다.That is, the photographing
취득정보송신부(170)는 무선 네트워크 기반으로 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 무선 통신 프로토콜에 따라 실시간으로 전송한다.The acquisition
통신보안 모듈(180)은 암호 체계를 사용하여 지상통제장치(300)와의 통신을 수행한다.The
구체적으로 통신보안 모듈(180)은 통신 과정에서 데이터 유출을 막고 네트워크에 대한 인증을 위해 암호화된 통신을 수행하며, 패스워드 변경정보부(181), 정보관리부(182), 패스워드 변경부(183) 및 패스워드 설정부(184)를 포함하고 있다.Specifically, the
패스워드 변경정보부(181)는 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장한다.The password
예를 들어, 패스워드의 변경 주기는 최대 사용기간을 설정하고, 그 사용기간이 경과하면 영문자, 숫자, 특수문자의 조합으로 이루어진 변경 규칙에 의거하여 자동으로 생성될 수 있다.For example, the password change period can be automatically generated based on a change rule consisting of a combination of alphabetic characters, numbers, and special characters when the maximum period of use is set, and when the period of use has elapsed.
정보관리부(182)는 헬리캠(100)의 통신 시스템에 대한 정보 및 기존 패스워드 정보를 관리한다.The
여기서 기존 패스워드 정보는 헬리캠(100)의 통신 시스템과의 통신을 위한 개인 계정, 공유 계정 및 애플리케이션 계정 중 어느 하나에 대한 패스워드 정보일 수 있다.Here, the existing password information may be password information for any one of a personal account, a shared account, and an application account for communication with the communication system of the
패스워드 변경부(183)는 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 헬리캠(100)의 통신 시스템과의 통신을 위한 신규 패스워드 정보를 자동 생성한다.The
그리고 패스워드 변경부(183)는 패스워드 변경 주기, 관리자 제어 중 적어도 하나에 기초하여 신규 패스워드 정보를 자동 생성할 수 있다. In addition, the
이때, 신규 패스워드 정보는 기존 패스워드 정보에 대응되는 헬리캠(100)의 통신 시스템의 개인 계정, 공유 계정 및 애플리케이션 계정 중 어느 하나에 대한 패스워드의 정보일 수 있다.In this case, the new password information may be information of a password for any one of a personal account, a shared account, and an application account of the communication system of the
또한, 패스워드 변경부(183)는 자동 변경, 요청 변경 방식으로 헬리캠(100)의 통신 시스템의 패스워드를 변경할 수 있다. 자동 변경 방식은 패스워드 변경 주기에 따른 주기적 자동 변경, 랜덤 변경, 규칙 변경으로 통신 시스템의 패스워드를 변경하는 방식이고, 요청 변경 방식은 사용자의 제어 즉, 승인 처리에 의하여 통신 시스템의 패스워드를 변경하는 방식이다.In addition, the
패스워드 설정부(184)는 패스워드 변경부(183)에서 생성한 신규 패스워드 정보를 헬리캠(100)의 통신 시스템의 패스워드로 설정한다.The
이때, 패스워드 설정부(184)는 헬리캠(100)의 통신 시스템의 애플리케이션 계정의 패스워드를 푸쉬(Push) 방식 혹은 폴링(Polling) 방식으로 기존 패스워드 정보를 신규 패스워드 정보로 변경할 수있다. In this case, the
또한, 패스워드 설정부(184)는 헬리캠(100)의 통신 시스템의 애플리케이션 계정의 패스워드가 스크립트 혹은 환경 파일에 존재하는 경우, 신규 패스워드 정보를 헬리캠(100)의 통신 시스템에서 애플리케이션 및 스크립트 혹은 환경 파일에 동기화하는 형식으로 패스워드 정보를 변경할 수 있다.In addition, when the password of the application account of the communication system of the
따라서 헬리캠(100)과 지상통제장치(300) 간 통신 시스템의 접속을 위한 암호화 체계를 주기적으로 변경함으로써 보안성을 한층 강화할 수 있다.Therefore, it is possible to further enhance security by periodically changing the encryption system for accessing the communication system between the
한편, 헬리캠(100)의 동체에는 무선 전파로 기체를 조종할 수 있도록 하는 GPS 장치, 안전한 비행에 필요한 센서, 지상통제장치(300)와 무선 통신을 위한 통신시스템, 회전익과 배터리를 포함하는 동력 모듈 및 이를 제어하는 소프트웨어 모듈 등이 탑재되어 있다.On the other hand, the fuselage of the
예를 들면, 헬리캠(100)의 동체 내부에는 동력 모듈과 전기적으로 연결되어 그 구동 및 구동 방향을 전류의 인가 여부 및 인가방향에 따라 제어하는 소프트웨어 모듈이 장치되어 있다.For example, inside the body of the
또한, 헬리캠(100)은 3차원 좌표 정보에 기반한 비행 경로를 따라 비행하기 위한 자율비행 소프트웨어(FMS)가 장치될 수도 있다.In addition, the
여기서 헬리캠(100)의 비행체는 회전익 드론뿐만 아니라 고정익 드론, 틸트 로터(tilt-rotor) 드론 및 공기흡입 및 배출을 통해 양력 및 추진력을 얻는 임펠러 시스템(impeller system)을 이용한 드론 등 특별히 그 종류를 한정하지 않는다.Here, the aircraft of the
특히 회전익 드론인 경우 비행 모듈은 모터의 구동에 의해 회전되는 프로펠러(프롭,prop)를 포함할 수 있고, 이 경우 회전익 드론에서 비행 제어는 프로펠러의 제어(프로펠러의 회전수 또는 프로펠러의 가변 피치 등)를 통해 비행 자세 및 경로, 이착륙을 제어할 수 있으나, 고정익 드론 또는 임펠러 시스템 드론 등에서는 날개, 비행 모듈은 공기 흡입 또는 배출 시스템, 프로펠러 등을 포함할 수 있고, 비행 제어는 각 부품의 각도, 회전 수, 모터 구동 등의 제어 등 해당 드론의 형태 및 구조에 따라 추진력 및 양력을 제어하기 위한 부품 또는 구조를 제어할 수 있다.In particular, in the case of a rotorcraft drone, the flight module may include a propeller (prop) that is rotated by the drive of a motor, and in this case, the flight control in a rotorcraft drone is controlled by the propeller (rotation speed of the propeller or variable pitch of the propeller, etc.) Flight attitude, path, and take-off and landing can be controlled through a fixed-wing drone or impeller system drone, etc., the wing and the flight module may include an air intake or discharge system, a propeller, etc., and flight control can include the angle and rotation of each part. It is possible to control parts or structures for controlling propulsion and lift according to the shape and structure of the drone, such as controlling water and motor driving.
한편, 헬리캠(100)에 포함된 각 부(unit) 또는 모듈은, 전적으로 하드웨어이거나 또는 부분적으로는 하드웨어이고 부분적으로는 소프트웨어일 수 있다. 예컨대, 특정 형식 및 내용의 데이터를 처리하거나 또는/또한 전자통신 방식으로 주고받기 위한 하드웨어 및 이에 관련된 소프트웨어를 통칭할 수 있다. Meanwhile, each unit or module included in the
또한, 본 명세서에서 "부", "모듈", "장치", "단말기", "서버" 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭할 수 있다.In addition, in the present specification, terms such as "unit", "module", "device", "terminal", "server" or "system" may refer to a combination of hardware and software driven by the hardware.
예를 들어, 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다.For example, the hardware may be a data processing device including a CPU or other processor.
또한, 하드웨어에 의해 구동되는 소프트웨어는 실행 중인 프로세스, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.In addition, software driven by hardware may refer to an executing process, an object, an executable file, a thread of execution, a program, and the like.
그리고 헬리캠(100)을 구성하는 각각의 구성요소는 반드시 서로 물리적으로 구분되는 별개의 장치를 지칭하는 것으로 의도되지 않는다.In addition, each component constituting the
즉, 위치측위부(120), 촬영각도측정부(150), 촬영고도측정부(160), 취득정보송신부(170) 및 통신보안 모듈(180) 등은 헬리캠(100)을 구성하는 하드웨어를 해당 하드웨어에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐, 반드시 각각의 부가 서로 독립적으로 구비되어야 하는 것이 아니다. 물론, 실시 예에 따라서는 각 구성요소 중 하나 이상이 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.That is, the
VRS 서버(200)는 헬리캠(100)의 GPS 수신기(110)로부터 NMEA 데이터를 수신받아 VRS 보정 데이터를 생성한 후 네트워크를 통해 헬리캠(100)의 위치측위부(120)로 전송한다.The
즉, VRS 서버(200)는 헬리캠(100)으로부터 NMEA 데이터 또는 이로부터 추출된 GPGGA 데이터를 수신하여 현재 위치의 VRS(Virtual Reference Station) 데이터를 생성한다.That is, the
여기서 VRS 보정 데이터는 GPS 수신기(110)에서 추출한 NMEA 데이터의 위치 보정에 사용하여 헬리캠(100)의 현재 좌표에 대한 정확도를 높이게 된다.Here, the VRS correction data is used for position correction of the NMEA data extracted from the
즉, VRS 서버(200)는 GPS 상시관측소로 이루어진 기준국망을 이용하여 오차를 분리 및 모델링하고, GPS 수신기(110)에서 가까운 지점에 가상기준국을 생성한 후 실제 기준국에 형성된 네트워크를 이용해 계산된 보정 값을 수신하여 가상기준국에 대한 위치를 재계산한 뒤 GPS 수신기(110)에 대한 정확한 위치를 결정하여 헬리캠(100)의 위치측위부(120)로 전송할 수 있다.That is, the
지상통제장치(300)는 헬리캠(100)을 지상에서 원격 제어 및 조종하며, 헬리캠(100)으로부터 그 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송한다.The
여기서 지상통제장치(300)는 멀티드롭 방식으로 다수의 헬리캠(100)을 동시에 접속하여 제어하거나 조종자가 헬리캠(100)을 직접 제어할 수 있는 제어 모듈과, 헬리캠(100)의 비행 항로를 미리 설정할 수 있는 미션 모듈 등을 포함하여 구성될 수 있으며, 아울러 조종자의 수동 조작을 위한 조이스틱과, 그 조이스틱의 수동 조작에 따라 조종 신호를 발생하는 신호발생기를 포함하여 구성될 수 있다.Here, the
또한, 헬리캠(100)과의 실제 통신이 이루어지기 전에 서로 연결하는 페어링(fairing) 과정이 선행되는 것이 바람직하며, 이 과정에서 헬리캠(100)의 고유 번호를 전달받아 저장 및 관리하며, 이를 암호 데이터로 공유하는 것이 바람직하다.In addition, before actual communication with the
스트리밍 서버(400)는 헬리캠(100)의 취득정보송신부(170)로부터 전송되는 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 지상통제장치(300)를 통해 실시간으로 수신 및 수집하여 영상처리장치(500)로 전송한다.The streaming
여기서 스트리밍 서버(400)는 Wi-Fi, 4G, 5G 등의 무선통신망 및 단말을 통해 이동통신 기지국에 접속하여 수집한 정보를 영상처리장치(500)로 실시간 스트리밍(streaming)으로 전송할 수도 있다.Here, the streaming
영상처리장치(500)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보, 위치 정보, 촬영 각도 정보, 촬영 고도 정보와 미리 배치 및 저장된 지상기준점의 GPS 좌표를 이용하여 해당 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하고, 그 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하여 해당 영상 정보에 자막으로 입혀서 저장한다.The
구체적으로 영상처리장치(500)는 기준좌표식별부(510), 좌표추정부(520), 지리정보추출부(530), 자막생성부(540) 및 통합정보수신부(550)를 포함하고 있다.Specifically, the
기준좌표식별부(510)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별한다.The reference coordinate
즉, 기준좌표식별부(510)는 헬리캠(100)의 영상 정보 영역 내에 복수개로 미리 배치 및 지상기준점의 GPS 좌표 정보 및 위치를 미리 저장하도록 구성되어 있고, 통합정보수신부(550)에 의해 수신된 헬리캠(100)의 영상 정보로부터 미리 배치된 지상기준점의 GPS 좌표의 이미지를 식별하도록 구성되어 있다.That is, the reference coordinate
여기서 지상기준점의 GPS 좌표의 이미지를 식별하는 방법은 각각의 지상기준점의 GPS 좌표에 상응하는 모양과 고유의 색상 배열이 위치하는 픽셀들을 이미지로부터 추출하는 방식 또는 이미지 처리 알고리즘에 의해 이루어질 수 있다.Here, the method of identifying the image of the GPS coordinates of the ground reference point may be performed by a method of extracting from the image pixels in which a shape corresponding to the GPS coordinates of each ground reference point and a unique color array are located, or an image processing algorithm.
또한, 기준좌표식별부(510)는 통합정보수신부(550)에 의해 수신된 헬리캠(100)의 영상 정보를 저장하도록 구성될 수 있고, 아울러 헬리캠(100)의 촬영 고도에 따른 영상 정보와 실제 이미지의 비율을 나타내는 축적 정보를 저장할 수도 있다.In addition, the reference coordinate
좌표추정부(520)는 헬리캠(100)의 비행 방향, 비행 속도, 위치 정보, 촬영 각도 및 촬영 고도 정보와 기준좌표식별부(510)의 GPS 좌표를 이용하여 헬리캠(100)의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정한다.The coordinate
즉, 좌표추정부(520)는 헬리캠(100)의 현재 위치 정보 및 비행 상태 정보와 영상촬영부(130)의 촬영 각도 및 촬영 고도 정보, 미리 저장된 영상촬영부(130)의 화각 정보를 이용한 삼각측량으로 영상 정보상의 공간에 존재하는 또는 중앙에 위치하는 대상 지점에 대한 특정 좌표를 추정하여 산출할 수 있다.That is, the coordinate estimating
예를 들면, 좌표추정부(520)는 헬리캠(100)의 현재 위치 정보 및 고도값에 비행하는 지형을 나타내는 3차원 좌표 정보의 고도값을 빼는 방식으로 수선의 길이, 즉 영상 정보상의 중앙에 위치하는 대상 지점과의 거리를 산출할 수 있다.For example, the coordinate estimating
여기서 헬리캠(100)의 영상 정보는 넓게 퍼져 있는 영역을 하나의 고정된 지점에서 촬영한 것이므로, 영상촬영부(130)에 장치되는 렌즈의 구면수차(spherical aberration)로 인한 이미지의 왜곡이 존재할 수 있어, 좌표추정부(520)가 영상촬영부(130)의 영상 정보상의 대상 지점에 대해 추정한 좌표와, 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 상호 비교하여 추정 좌표를 검증한다.Here, since the image information of the
예를 들어, 영상촬영부(130)의 영상 정보가 가로 및 세로 방향의 픽셀 개수에 따라 200×100의 해상도를 갖는 이미지이며, 그 이미지의 중앙 좌표를 (0, 0)이라고 하고, 식별된 지상기준점의 GPS 좌표 중 이미지의 중앙에 가장 가깝게 위치하는 지상기준점의 GPS 좌표는 (5, -8)이라고 가정할 경우, 이미지의 중앙에 가장 가깝게 위치하는 지상기준점의 GPS 좌표(5, -8)와 이에 인접한 추정 좌표 사이의 실제 거리는 미리 저장된 GPS 좌표를 통해 산출될 수 있으므로, 지상기준점의 GPS 좌표와 이에 인접한 추정 좌표 사이의 실제 거리를 이미지에 투영하여 영상 정보 내 위치를 검증할 수 있다.For example, the image information of the
이때, 실제 지표면상의 거리와 이미지 내의 거리의 비율은 영상 정보의 촬영 시 헬리캠(100)의 촬영 고도 정보와 기준좌표식별부(510)에 저장된 영상촬영부(130)의 사진 축척 정보를 이용하여 산출할 수도 있다.In this case, the ratio of the distance on the actual ground surface and the distance in the image is determined by using the photographing altitude information of the
한편, 좌표추정부(520)가 추정 좌표를 검증하는 방법은 전자적으로 정보를 처리하는 다양한 수단을 통하여 명령을 수행하는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Meanwhile, the method of verifying the estimated coordinates by the coordinate estimating
지리정보추출부(530)는 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출한다.The geographic
즉, 지리정보추출부(530)는 지리정보시스템의 GIS 서버(600)에 접속하여 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 추출한다.That is, the geographic
자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보에 자막으로 입힌다.The
즉, 자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 분석하여 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보 내 중앙에 위치하는 대상 지점과 일치하는 위치 및 속성 정보가 존재할 경우, 이와 매칭되는 텍스트 또는 숫자로 검출하여 해당 영상 정보에 좌표, 주소, 주변 건물 명칭이나 주요 지형 명칭 등의 위치 및 속성 정보로 자막 처리할 수 있다.That is, the
예를 들어, 3D 좌표를 가진 가상공간에서 자막(caption)으로 처리된 영역의 모델링 또는 속성을 가진 덱스트나 숫자 오브젝트(object)를 자막 오브젝트라 할 때, 현실공간에서 헬리캠(100)이 촬영한 실제 영상 정보의 측점 시점에서 바라본 자막 오브젝트가 있는 가상 공간의 화면을 실제 영상 정보와 겹쳐서(merge) 합성한 후 이를 모니터링 화면에 출력하거나 저장장치에 저장할 수 있다.For example, when the modeling of an area processed as a caption in a virtual space with 3D coordinates or a dext or numeric object having attributes is referred to as a caption object, the
통합정보수신부(550)는 스트리밍 서버(400)를 통해 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 수신하여 출력한다.The integrated
즉, 통합정보수신부(550)는 스트리밍 서버(400)를 통해 수신된 통합 정보를 별도의 디스플레이 단말로 출력하거나 저장장치에 저장할 수 있다.That is, the integrated
GIS 서버(600)는 지도 기반의 지리정보 즉 공간적으로 분포하는 정보를 데이터베이스화화여 제공한다.The
여기서 GIS 서버(600)의 데이터베이스는 공간자료와 속성자료로 이루어져 있는데, 공간자료는 지형요소에 대한 유형, 위치, 크기, 다른 지형요소와의 공간적 위상관계 등이며, 속성자료는 지형요소의 속성에 대한 수학적 의미를 포함하는 정량적 자료와 지도명, 주기, 라벨 등 대상물 설명에 필한 정성적 자료가 있다.Here, the database of the
이와 같이 구성된 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템에서 위치 및 속성 정보를 자막으로 생성하는 방법을 도 1 및 도 2를 참조하여 설명하면 다음과 같다.A method of generating position and attribute information as captions in a system that generates position and attribute information as captions in a real-time captured image of a helicam according to an embodiment of the present invention configured as described above will be described with reference to FIGS. 1 and 2. Is the same as
먼저, 헬리캠(100)은 지상통제장치(300)의 조종 및 제어에 따라 비행하면서 그 GPS 수신기(110)가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송한다.First, the
그리고 헬리캠(100)의 위치측위부(120)가 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성한다.In addition, the
이어서, 헬리캠(100)의 영상촬영부(130)가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 아울러 헬리캠(100)의 촬영각도측정부(150) 및 촬영고도측정부(160)가 영상촬영부(130)의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부(170)를 통해 지상통제장치(300)로 실시간 전송한다.Subsequently, the
지상통제장치(300)는 취득정보송신부(170)로부터 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송한다.The
이때, 영상처리장치(500)의 기준좌표식별부(510)는 스트리밍 서버(400)를 통해 수신받는 헬리캠(100)의 영상촬영부(130)에서 획득한 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별한다.At this time, the reference coordinate
이어서, 영상처리장치(500)의 좌표추정부(520)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 스트리밍 서버(400)를 통해 전송되는 영상촬영부(130)에서 획득한 영상 정보상의 대상 지점에 대한 특정 좌표를 추정한다.Subsequently, the coordinate
이때, 좌표추정부(520)는 도 3에서와 같이 스트리밍 서버(400)를 통해 전송되는 영상촬영부(130)에서 획득한 영상 정보상의 중앙(중앙점)에 위치하는 대상 지점(뉴인빌딩)에 대해 추정한 좌표와, 미리 배치 및 저장된 지상기준점들의 GPS 좌표 정보 중 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보를 삼각측정법으로 지정 및 선택한 후 상호 비교하여 추정 좌표를 검증할 수 있다.At this time, the coordinate estimating
아울러 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 영상촬영부(130)에서 획득하여 스트리밍 서버(400)를 통해 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 기준좌표식별부(510)의 GPS 좌표를 이용하여 변경 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이를 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 추정 좌표를 검증할 수 있다.In addition, when the location information, the shooting angle, and the shooting altitude information of the
이어서, 영상처리장치(500)의 지리정보추출부(530)는 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출한다.Subsequently, the geographic
이후, 영상처리장치(500)의 자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 영상촬영부(130)에서 획득하여 스트리밍 서버(400)를 통해 전송되는 영상 정보에 자막으로 입혀서 합성한 후 모니터로 출력하거나 별도의 저장장치에 저장할 수 있다.Thereafter, the
이처럼 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템은, 헬리캠(100)의 실시간 촬영 영상상의 대상 지점에 대한 좌표를 추정하고, 이에 부합하는 위치 및 속성 정보를 자막으로 합성하여 출력하므로 촬영 영상 내의 대상 지점의 위치 및 속성 정보를 더욱 정확하고 신속하게 파악할 수 있다.As described above, the system for generating position and attribute information as captions in the real-time photographed image of the helicam according to an embodiment of the present invention estimates the coordinates of the target point on the real-time photographed image of the
또한, 국토지리정보원의 VRS 서버(200)로부터 수신받는 VRS 보정 데이터를 활용하여 실시간 위치 정보를 생성하므로 헬리캠(100)의 촬영 위치에 대한 정확도를 높임은 물론 지상기준점의 GPS 좌표를 탐지하여 추정 좌표와의 상호 거리 및 위치를 검증하므로 촬영 영상 내의 정확한 위치 및 속성 정보를 획득할 수 있다.In addition, since real-time location information is generated by using VRS correction data received from the
이상에서 설명한 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고, 아울러 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The operation by the method of generating position and property information as captions in the real-time photographed image of the helicam according to the embodiment of the present invention described above may be implemented at least partially as a computer program and recorded on a computer-readable recording medium. In addition, the recording medium in which a program for implementing the operation by the method is recorded and the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer is stored.
여기서 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CDROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. Examples of computer-readable recording media include ROM, RAM, CDROM, magnetic tapes, floppy disks, and optical data storage devices.
또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.In addition, the computer-readable recording medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored and executed in a distributed manner.
한편, 본 발명은 상술한 실시 예(embodiment) 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 예시되지 않은 여러 가지로 다양하게 변형하고 응용할 수 있음은 물론이고 각 구성요소의 치환 및 균등한 타 실시 예로 변경하여 폭넓게 적용할 수도 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백하다.On the other hand, the present invention is not limited by the above-described embodiment and the accompanying drawings, and can be variously modified and applied in various ways not illustrated within the scope not departing from the technical spirit of the present invention. It will be apparent to those of ordinary skill in the art that the substitution of components and the possibility of wide application by changing to other equivalent embodiments are possible.
그러므로 본 발명의 기술적 특징을 변형하고 응용하는 것에 관계된 내용은 본 발명의 기술사상 및 범위 내에 포함되는 것으로 해석하여야 할 것이다.Therefore, the contents related to modification and application of the technical features of the present invention should be interpreted as being included within the spirit and scope of the present invention.
100: 헬리캠
200: VRS 서버
300: 지상통제장치
400: 스트리밍 서버
500: 영상처리장치
600: GIS 서버100: helicam
200: VRS server
300: ground control device
400: streaming server
500: image processing device
600: GIS server
Claims (4)
상기 헬리캠(100)에 설치되고 상기 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 위치측위부(120);
상기 헬리캠(100)에 설치되고 피사체를 실시간 항공 촬영하여 영상 신호로 변환하는 영상촬영부(130);
상기 헬리캠(100)의 비행 제어 및 상기 영상촬영부(130)의 촬영 각도를 조절하는 비행조종제어부(140);
상기 영상촬영부(130)의 촬영 각도를 측정하는 촬영각도측정부(150);
상기 헬리캠(100)에 설치되고 상기 영상촬영부(130)의 초점과 지표 간의 절대고도를 측정하는 촬영고도측정부(160);
상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 취득하여 실시간으로 전송하는 취득정보송신부(170);
상기 헬리캠(100)에 설치되고 암호 체계를 사용하여 지상통제장치(300)와의 통신을 수행하되, 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장하는 패스워드 변경정보부(181)와, 상기 헬리캠(100)의 통신 시스템에 대한 정보 및 기존 패스워드 정보를 관리하는 정보관리부(182)와, 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 상기 헬리캠(100)의 통신 시스템에 대한 신규 패스워드 정보를 자동 생성하는 패스워드 변경부(183) 및 신규 패스워드 정보를 상기 헬리캠(100)의 통신 시스템 패스워드로 설정하는 패스워드 설정부(184)로 구성된 통신보안 모듈(180);
상기 취득정보송신부(170)로부터 상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)로 전송하고, 상기 헬리캠(100)을 지상에서 원격 제어 및 조종하는 지상통제장치(300);
상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보를 바탕으로 필요한 정보를 분석 및 처리하는 영상처리장치(500)에 설치되고 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별하는 기준좌표식별부(510);
상기 영상처리장치(500)에 설치되고 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부(510)의 GPS 좌표를 이용하여 상기 영상촬영부(130)의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 좌표추정부(520);
상기 영상처리장치(500)에 설치되고 상기 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하는 지리정보추출부(530);
상기 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보에 자막으로 입히는 자막생성부(540); 및
상기 영상처리장치(500)에 설치되고 상기 스트리밍 서버(400)를 통해 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 수신하여 출력하는 통합정보수신부(550);
를 포함하여 이루어지며,
상기 헬리캠(100)의 GPS 수신기(110)가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송하고,
상기 헬리캠(100)의 위치측위부(120)가 상기 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하고,
상기 헬리캠(100)의 영상촬영부(130)가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고,
상기 헬리캠(100)의 촬영각도측정부(150) 및 촬영고도측정부(160)가 상기 영상촬영부(130)의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부(170)를 통해 상기 지상통제장치(300)로 실시간 전송하고,
상기 지상통제장치(300)가 상기 취득정보송신부(170)로부터 상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 상기 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송하고,
상기 영상처리장치(500)의 기준좌표식별부(510)가 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별하고,
상기 영상처리장치(500)의 좌표추정부(520)가 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 상기 영상촬영부(130)에서 획득한 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하고,
상기 영상처리장치(500)의 좌표추정부(520)가 상기 헬리캠(100)으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대해 추정한 좌표와, 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보를 상호 비교하여 상기 추정 좌표를 검증하되, 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 상기 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 상기 헬리캠(100)으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 변경하여 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 상기 추정 좌표를 검증하고,
상기 영상처리장치(500)의 지리정보추출부(530)가 상기 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하며,
상기 영상처리장치(500)의 자막생성부(540)가 상기 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버(400)를 통해 수신받는 상기 헬리캠(100)의 영상촬영부(130)에서 획득한 영상 정보상에 자막으로 입히는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템.A GPS receiver 110 installed on the helicam 100 that variably uses the rotational force of the rotor to fly, and extracts NMEA data by receiving GPS information from an artificial satellite and transmits it to the VRS server 200 of the National Geographic Information Institute;
A location positioning unit 120 installed on the helicam 100 and receiving VRS correction data from the VRS server 200 of the National Geographic Information Institute to generate real-time location information;
An image photographing unit 130 installed on the helicam 100 and converting a subject into an image signal by photographing a subject in real time;
A flight control control unit 140 for controlling a flight of the helicam 100 and a photographing angle of the image capturing unit 130;
A photographing angle measurement unit 150 for measuring a photographing angle of the image photographing unit 130;
A photographing altitude measuring unit 160 installed on the helicam 100 and measuring an absolute altitude between the focus of the image capturing unit 130 and an index;
An acquisition information transmission unit 170 for acquiring location information, image information, shooting angle, and shooting altitude information of the helicam 100 and transmitting it in real time;
A password change information unit 181 installed in the helicam 100 and performing communication with the ground control device 300 using an encryption system, but receiving and storing information on a password change cycle and change rule, and the Information on the communication system of the helicam 100 and the communication system of the helicam 100 based on the information management unit 182 that manages the information on the communication system of the helicam 100 and the existing password information, the password change cycle and change rules, and the existing password information. A communication security module 180 comprising a password changing unit 183 for automatically generating new password information and a password setting unit 184 for setting new password information as a communication system password of the helicam 100;
The location information, image information, photographing angle and photographing altitude information of the helicam 100 are received from the acquisition information transmitting unit 170 in real time and transmitted to the streaming server 400, and the helicam 100 is transmitted from the ground. A ground control device 300 for remote control and control;
The heli received through the streaming server 400 and installed in the image processing device 500 that analyzes and processes necessary information based on the image information of the helicam 100 received through the streaming server 400 A reference coordinate identification unit 510 for detecting and identifying GPS coordinates of a ground reference point previously arranged and stored in the image information area of the cam 100;
The image of the image capture unit 130 is installed in the image processing device 500 and uses the location information, the shooting angle, and the shooting altitude information of the helicam 100 and the GPS coordinates of the reference coordinate identification unit 510. A coordinate estimating unit 520 for estimating specific coordinates for a target point on the information;
A geographic information extracting unit 530 installed in the image processing apparatus 500 and extracting location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system;
A caption generating unit 540 for captioning the location and attribute information extracted from the geographic information extracting unit 530 on the image information of the helicam 100 received through the streaming server 400; And
An integrated information receiving unit 550 installed in the image processing apparatus 500 and receiving and outputting location information, image information, photographing angle and photographing altitude information of the helicam 100 through the streaming server 400;
It is made including,
The GPS receiver 110 of the helicam 100 receives GPS information from an artificial satellite, extracts NMEA data, and transmits it to the VRS server 200 of the National Geographic Information Institute,
The location positioning unit 120 of the helicam 100 receives VRS correction data from the VRS server 200 of the National Geographic Information Institute to generate real-time location information,
The image capturing unit 130 of the helicam 100 photographs a subject in real time and converts it into an image signal,
The photographing angle measurement unit 150 and the photographing height measurement unit 160 of the helicam 100 measure the photographing angle and photographing height of the image photographing unit 130, and control the ground through the acquisition information transmission unit 170. Real-time transmission to the device 300,
The ground control device 300 receives the location information, image information, shooting angle and shooting altitude information of the helicam 100 from the acquisition information transmission unit 170 in real time, and processes the image through the streaming server 400 Transfer to the device 500,
The reference coordinate identification unit 510 of the image processing device 500 detects and identifies the GPS coordinates of the ground reference point previously arranged and stored in the image information area of the helicam 100 received through the streaming server 400 and,
The coordinate estimation unit 520 of the image processing device 500 receives the location information, the shooting angle and the shooting altitude information of the helicam 100 received through the streaming server 400, and the reference coordinate identification unit 510 Estimating specific coordinates for a target point on the image information acquired by the image capturing unit 130 using GPS coordinate information of,
The coordinate estimation unit 520 of the image processing device 500 estimates the coordinates of the target point located at the center of the image information transmitted from the helicam 100, and pre-arranges the coordinates closest to the estimated coordinates, and The estimated coordinates are verified by comparing the stored GPS coordinate information of the ground reference point, but when the location information, the shooting angle, and the shooting altitude information of the helicam 100 are changed, the GPS coordinate information of the reference coordinate identification unit 510 If the estimated coordinates for the target point located at the center of the image information transmitted from the helicam 100 are changed and calculated, and the estimated coordinates are continuously changed and calculated, the distance between the previous estimated coordinates and the current estimated coordinates After calculating the estimated coordinates, the estimated coordinates are verified by comparing the distance between the GPS coordinate information of the ground reference point previously placed and stored in the nearest place to the previous estimated coordinates and the GPS coordinate information of the ground reference point previously placed and stored in the closest place to the current estimated coordinates and,
The geographic information extracting unit 530 of the image processing apparatus 500 extracts location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system,
The caption generation unit 540 of the image processing device 500 receives the location and attribute information extracted from the geographic information extraction unit 530 through the streaming server 400 to take an image of the helicam 100 A system for generating position and attribute information as a caption on a real-time photographed image of a helicam, characterized in that the caption is applied on the image information obtained by the unit 130.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210017185A KR102243810B1 (en) | 2021-02-08 | 2021-02-08 | Caption adding system and method of helicam recording image with position information for filming site |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210017185A KR102243810B1 (en) | 2021-02-08 | 2021-02-08 | Caption adding system and method of helicam recording image with position information for filming site |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102243810B1 true KR102243810B1 (en) | 2021-04-23 |
Family
ID=75738112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210017185A KR102243810B1 (en) | 2021-02-08 | 2021-02-08 | Caption adding system and method of helicam recording image with position information for filming site |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102243810B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102534829B1 (en) * | 2022-12-13 | 2023-05-26 | (주)로우코리아 | An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same |
KR20230077300A (en) * | 2021-11-25 | 2023-06-01 | 이승호 | Methods and systems for obtaining geographic coordinates |
WO2024014614A1 (en) * | 2022-07-13 | 2024-01-18 | 한국전자기술연구원 | Image acquisition/pre-processing/transmission system and method based on unmanned aerial vehicle |
CN118138699A (en) * | 2023-12-04 | 2024-06-04 | 中国人民解放军92941部队 | Image-text subtitle superposition method and device based on target recognition |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101865500B1 (en) * | 2017-02-14 | 2018-07-13 | 한국광기술원 | Portable storage device capable of outputting image with subtitles and driving method thereof |
JP6431186B2 (en) * | 2015-03-31 | 2018-11-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Unmanned aerial vehicle |
KR101954748B1 (en) * | 2018-08-29 | 2019-03-06 | 한화시스템 주식회사 | System and method for extracting target coordinate |
KR102065758B1 (en) * | 2019-10-22 | 2020-01-13 | 주식회사 미래지중정보 | Image processing system using drone |
KR102085051B1 (en) | 2018-04-30 | 2020-03-05 | 김장훈 | Controlling system using drone |
KR102130973B1 (en) | 2018-04-30 | 2020-07-08 | (주)테슬라시스템 | Meta File Structure used when Inserting Augment Reality Information into Drone Moving Picture |
KR102178383B1 (en) | 2019-03-07 | 2020-11-12 | (주)테슬라시스템 | Playing Method of Drone Moving Picture with Augment Reality Additional Information based on LOD |
KR102206007B1 (en) * | 2020-05-08 | 2021-01-21 | (주)스페이스 | A digital map production system that updates the location information of ground water based on GPS |
-
2021
- 2021-02-08 KR KR1020210017185A patent/KR102243810B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6431186B2 (en) * | 2015-03-31 | 2018-11-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Unmanned aerial vehicle |
KR101865500B1 (en) * | 2017-02-14 | 2018-07-13 | 한국광기술원 | Portable storage device capable of outputting image with subtitles and driving method thereof |
KR102085051B1 (en) | 2018-04-30 | 2020-03-05 | 김장훈 | Controlling system using drone |
KR102130973B1 (en) | 2018-04-30 | 2020-07-08 | (주)테슬라시스템 | Meta File Structure used when Inserting Augment Reality Information into Drone Moving Picture |
KR101954748B1 (en) * | 2018-08-29 | 2019-03-06 | 한화시스템 주식회사 | System and method for extracting target coordinate |
KR102178383B1 (en) | 2019-03-07 | 2020-11-12 | (주)테슬라시스템 | Playing Method of Drone Moving Picture with Augment Reality Additional Information based on LOD |
KR102065758B1 (en) * | 2019-10-22 | 2020-01-13 | 주식회사 미래지중정보 | Image processing system using drone |
KR102206007B1 (en) * | 2020-05-08 | 2021-01-21 | (주)스페이스 | A digital map production system that updates the location information of ground water based on GPS |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230077300A (en) * | 2021-11-25 | 2023-06-01 | 이승호 | Methods and systems for obtaining geographic coordinates |
KR102677091B1 (en) * | 2021-11-25 | 2024-06-19 | 이승호 | Methods and systems for obtaining geographic coordinates |
WO2024014614A1 (en) * | 2022-07-13 | 2024-01-18 | 한국전자기술연구원 | Image acquisition/pre-processing/transmission system and method based on unmanned aerial vehicle |
KR102534829B1 (en) * | 2022-12-13 | 2023-05-26 | (주)로우코리아 | An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same |
CN118138699A (en) * | 2023-12-04 | 2024-06-04 | 中国人民解放军92941部队 | Image-text subtitle superposition method and device based on target recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102243810B1 (en) | Caption adding system and method of helicam recording image with position information for filming site | |
CN111316066B (en) | Standby navigation system for unmanned aerial vehicle | |
JP6609833B2 (en) | Method and system for controlling the flight of an unmanned aerial vehicle | |
EP3391164B1 (en) | System and method for capturing, processing, retrieving and displaying images from an unmanned aerial vehicle | |
EP3397554B1 (en) | System and method for utilization of multiple-camera network to capture static and/or motion scenes | |
CN104168455B (en) | A kind of space base large scene camera system and method | |
JP6496323B2 (en) | System and method for detecting and tracking movable objects | |
EP3570132B1 (en) | System and method for data recording and analysis | |
WO2017173734A1 (en) | Method and device for adjusting photographic angle and unmanned aerial vehicle | |
JP7251474B2 (en) | Information processing device, information processing method, information processing program, image processing device, and image processing system | |
Adams et al. | Unmanned aerial vehicle data acquisition for damage assessment in hurricane events | |
JP6583840B1 (en) | Inspection system | |
JP6138326B1 (en) | MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE | |
WO2021237618A1 (en) | Capture assistance method, ground command platform, unmanned aerial vehicle, system, and storage medium | |
CN111796603A (en) | Smoke inspection unmanned aerial vehicle system, inspection detection method and storage medium | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
US11869236B1 (en) | Generating data for training vision-based algorithms to detect airborne objects | |
WO2020062024A1 (en) | Distance measurement method and device based on unmanned aerial vehicle and unmanned aerial vehicle | |
Roca et al. | Novel aerial 3D mapping system based on UAV platforms and 2D laser scanners | |
WO2021014752A1 (en) | Information processing device, information processing method, and information processing program | |
CN110906922A (en) | Unmanned aerial vehicle pose information determining method and device, storage medium and terminal | |
JP6730764B1 (en) | Flight route display method and information processing apparatus | |
WO2021064982A1 (en) | Information processing device and information processing method | |
WO2021124579A1 (en) | Image capturing method of flight vehicle and information processing device | |
WO2021035746A1 (en) | Image processing method and device, and movable platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |