KR102243810B1 - Caption adding system and method of helicam recording image with position information for filming site - Google Patents

Caption adding system and method of helicam recording image with position information for filming site Download PDF

Info

Publication number
KR102243810B1
KR102243810B1 KR1020210017185A KR20210017185A KR102243810B1 KR 102243810 B1 KR102243810 B1 KR 102243810B1 KR 1020210017185 A KR1020210017185 A KR 1020210017185A KR 20210017185 A KR20210017185 A KR 20210017185A KR 102243810 B1 KR102243810 B1 KR 102243810B1
Authority
KR
South Korea
Prior art keywords
information
helicam
unit
image
photographing
Prior art date
Application number
KR1020210017185A
Other languages
Korean (ko)
Inventor
오경영
Original Assignee
뉴인테크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴인테크 주식회사 filed Critical 뉴인테크 주식회사
Priority to KR1020210017185A priority Critical patent/KR102243810B1/en
Application granted granted Critical
Publication of KR102243810B1 publication Critical patent/KR102243810B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • G01S19/05Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing aiding data
    • G01S19/06Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing aiding data employing an initial estimate of the location of the receiver as aiding data or in generating aiding data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23206
    • H04N5/23299
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Studio Devices (AREA)

Abstract

The present invention is to provide a system for synthesizing location and attribute information through a caption by using a geographic information system when real-time photographing image information of a helicam is provided to an operator through a network. Accordingly, the present invention relates to a system for generating location and attribute information in a real-time photographing image of a helicam by a caption which comprises: a helicam that flies using variably rotational force of a rotor; a ground control device that receives location information, image information, a photographing angle, and photographing altitude information of the helicam in real time and transmits them to a streaming server and remotely controls and operates the helicam on the ground; and an image processing device for applying the location and attribute information to the image information of the helicam received through the streaming server by a caption.

Description

헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템{Caption adding system and method of helicam recording image with position information for filming site}{Caption adding system and method of helicam recording image with position information for filming site}

본 발명은 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 현재 촬영지 및 배경, 건물 등 대상 지점의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for generating position and attribute information as captions in a real-time photographed image of a helicam, and more particularly, utilizing a geographic information system when providing real-time photographed image information of a helicam to an operator through a network. The present invention relates to a method and system for synthesizing and outputting real-time location and attribute information of a target point, such as a current location and background, and a building.

헬리캠은 생동감 있는 영상이나 사람의 접근이 어려운 곳에서의 촬영을 위해 소형 무인 헬리콥터에 카메라를 장착하여 만든 원격 무선조종 촬영 장비로, 고공을 비행하면서 여러 각도의 촬영이 가능하고 원격에서 무선조종하기 때문에 생동감 있는 영상 연출이 가능하고 암벽이나 화재, 화공 약품, 방사능 누출 사고 현장 등 인간의 접근이 어려운 환경에서 요긴하게 사용되고 있다.Helicam is a remote radio-controlled photographing equipment made by attaching a camera to a small unmanned helicopter for shooting lively images or in places where people are difficult to access. It is possible to shoot at various angles while flying at high altitude, and to remotely control it. Because of this, it is possible to produce lively images and is useful in environments where human access is difficult, such as rock walls, fires, chemicals, and radioactive leakage accident sites.

이러한 헬리캠은 최근 무선조종을 위한 오픈 소스 소프트웨어가 개발되고 접근성이 높아짐에 따라 방송촬영, 3차원 공간 정보 획득, 통신, 농업, 배송 등 여러 분야로 이용이 확산되고 있다.As open source software for wireless control is recently developed and accessibility increases, the helicam is being used in various fields such as broadcasting shooting, 3D spatial information acquisition, communication, agriculture, and delivery.

그런데 기존의 헬리캠은 위성항법장치(GPS)를 활용하여 획득한 경도 및 위도를 촬영지의 위치 정보로 운용자에게 전송하는 방식이기 때문에 헬리캠의 실시간 촬영 영상의 위치 정보를 정확하고 신속하게 파악하기 매우 어려운 한계가 있다.However, since the existing helicam is a method that transmits the longitude and latitude acquired using the satellite navigation system (GPS) to the operator as the location information of the shooting location, it is very easy to accurately and quickly grasp the location information of the real-time image of the helicam. There is a difficult limit.

또한, 운용자가 헬리캠의 현재 위치 정보를 파악하기 위해서는 구글 등 포털사이트에 접속하여 위성항법장치(GPS)의 정보를 임의로 주소 등으로 변환하여 확인하는 수밖에 없어 상당히 번거로운 데다 비상상황 발생 시 등에 신속하게 대처하기 어려운 문제점이 있다.In addition, in order for the operator to determine the current location information of the helicam, it is very cumbersome, as it is very cumbersome because the operator has no choice but to check the information of the satellite navigation system (GPS) by accessing a portal site such as Google and converting it into an address. There is a problem that is difficult to cope with.

한편, 헬리캠은 무선으로 조종을 하기 때문에 비행기록 및 촬영 영상 등을 가로채거나, GPS 신호 또는 오작동 신호를 보내어 탈취하거나, 작동불능 상태로 만드는 등의 해킹에 취약한 문제가 있다.On the other hand, since the helicam is controlled wirelessly, it is vulnerable to hacking such as intercepting flight records and recorded images, hijacking by sending a GPS signal or malfunctioning signal, or rendering it inoperable.

즉, 헬리캠과 지상통제장치(GCS: GROUND CONTROL STATION) 간의 무선통신은 보안이 취약하여 액세스가 가능한 범위 안의 악의적인 공격자가 정당한 지상통제장치로 위장하여 공격하는 것이 가능하다.In other words, the wireless communication between the helicam and the ground control device (GCS) is weak, so it is possible for a malicious attacker within the accessible range to attack by disguised as a legitimate ground control device.

예컨대, 보안이 적용되지 않은 헬리캠은 무선 채널로 전송되는 데이터를 검증하지 않고 처리하므로 정당하지 않은 지상통제장치로부터 잘못된 제어명령을 전송(fault injection attacks) 받으면, 이를 수행 및 비행을 유지하기 위하여 배터리 전력을 불필요하게 소모하는 오작동이 발생하고, 이로 인해 본래의 임무를 수행하지 못하고 작동 불능 상태에 빠질 수 있다.For example, a helicam that does not have security applied does not verify the data transmitted through the wireless channel without verifying it, so if it receives an incorrect control command from an unjust ground control device (fault injection attacks), it is necessary to carry out it and maintain the flight. Malfunctions that unnecessarily consume power may occur, resulting in an inability to perform the original task and result in an inoperable state.

또한, 카메라, 센서 및 별도의 공격용 무기를 탑재할 수 있기 때문에 사람에 대한 사생활 침해, 개인정보 유출, 영상 정보 유출 등의 피해뿐만 아니라 주요시설 충돌, 공격 등 물리적 피해를 입히는 무력화 공격이 가능하다.In addition, since cameras, sensors, and separate weapons for attack can be mounted, it is possible to incapacitate attacks that cause physical damage such as collisions and attacks of major facilities, as well as damages such as privacy invasion, personal information leakage, and video information leakage.

따라서 헬리캠과 지상통제장치(GCS), 관제 시스템 간의 통신 보안, 기기인증, 컨트롤러의 안전한 운용, 개인정보 보호, 네트워크 보안, 악성코드 방지 등을 통해 안전성을 강화하는 기술이 요구되고 있다.Therefore, there is a need for a technology that enhances safety through communication security between helicam and ground control system (GCS), control system, device authentication, safe operation of controllers, personal information protection, network security, and malicious code prevention.

여기서 상술한 배경기술 또는 종래기술은 본 발명자가 보유하거나 본 발명을 도출하는 과정에서 습득한 정보로서 본 발명의 기술적 의의를 이해하는데 도움이 되기 위한 것일 뿐, 본 발명의 출원 전에 이 발명이 속하는 기술분야에서 널리 알려진 기술을 의미하는 것은 아님을 밝힌다.The background technology or the prior art described herein is information possessed by the present inventor or acquired in the process of deriving the present invention, and is only intended to help understand the technical significance of the present invention, and the technology to which the present invention belongs prior to the filing of the present invention. It is stated that it does not mean a well-known technology in the field.

KRKR 10-208505110-2085051 B1(2020.02.28)B1(2020.02.28) KRKR 10-217838310-2178383 B1(2020.11.06)B1(2020.11.06) KRKR 10-213097310-2130973 B1(2020.07.01)B1(2020.07.01)

이에 본 발명자는 상술한 제반 사항을 종합적으로 고려함과 동시에 기존의 헬리캠 기술이 지닌 기술적 한계 및 문제점들을 해결하려는 발상에서, 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 현재 촬영지의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력함으로써, 이를 모니터링하는 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능하고, 아울러 헬리캠과 지상통제장치(GCS) 간의 통신 보안성을 한층 높이는 효과를 도모할 수 있는 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 새로운 방법 및 시스템을 개발하고자 각고의 노력을 기울여 부단히 연구하던 중 그 결과로써 본 발명을 창안하게 되었다.Accordingly, the present inventor comprehensively considers the above-described matters and at the same time provides a geographic information system when providing real-time photographed image information of the helicam to the operator through a network in the idea of solving the technical limitations and problems of the existing helicam technology. By utilizing the real-time location and property information of the current filming location by synthesizing and outputting it as a subtitle, the operator or manager who monitors it can accurately and quickly grasp the location and property information in the filmed image to quickly respond to emergency situations, etc. In addition, every effort to develop a new method and system for generating position and attribute information as subtitles in real-time images of the helicam that can further enhance the communication security between the helicam and the ground control system (GCS). As a result, the present invention was invented while continuing to study with inclination.

따라서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 헬리캠의 촬영 영상의 위치 및 속성 정보를 정확하고 신속하게 파악할 수 있도록 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템을 제공하는 데 있는 것이다.Therefore, the technical problem and object to be solved by the present invention is a method of generating position and attribute information as a caption on a real-time photographed image of a helicam so that the position and attribute information of the captured image of the helicam can be accurately and quickly identified, and It is in providing the system.

본 발명이 해결하고자 하는 다른 기술적 과제 및 목적은 헬리캠과 지상통제장치 간의 보안성을 강화할 수 있도록 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법 및 시스템을 제공하는 데 있는 것이다.Another technical problem and object to be solved by the present invention is to provide a method and system for generating position and attribute information as captions in a real-time photographed image of a helicam to enhance security between a helicam and a ground control device. There is.

여기서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 이상에서 언급한 기술적 과제 및 목적으로 국한하지 않으며, 언급하지 않은 또 다른 기술적 과제 및 목적들은 아래의 기재로부터 당업자가 명확하게 이해할 수 있을 것이다.Here, the technical problems and objects to be solved by the present invention are not limited to the technical problems and objects mentioned above, and other technical problems and objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 바와 같은 본 발명의 기술적 과제를 해결하기 위한 새로운 착상을 구체화하면서 특정의 기술적 목적을 효과적으로 달성하기 위한 본 발명의 일실시 태양(aspect)에 따른 구체적인 수단은, 로터의 회전력을 가변적으로 이용해 비행하되, 인공위성으로부터 GPS 정보를 수신하여 NMEA(The National Marine Electronics Association) 데이터를 추출 및 국토지리정보원의 VRS(Virtual Reference Station) 서버로 전송하는 GPS 수신기, 상기 국토지리정보원의 VRS 서버로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 위치측위부, 피사체를 실시간 항공 촬영하여 영상 신호로 변환하는 영상촬영부, 비행 방향과 자세를 제어 및 상기 영상촬영부의 촬영 각도를 조절하는 비행조종제어부, 상기 영상촬영부의 촬영 각도를 측정하는 촬영각도측정부, 상기 영상촬영부의 초점과 지표 간의 절대고도를 측정하는 촬영고도측정부 및 상기 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 전송하는 취득정보송신부를 포함하여 구성된 헬리캠, 상기 취득정보송신부로부터 상기 헬리캠의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버로 전송하고, 상기 헬리캠을 지상에서 원격 제어 및 조종하는 지상통제장치, 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보 영역 내에 미리 배치된 지상기준점의 GPS 좌표를 식별하는 기준좌표식별부, 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부의 GPS 좌표를 이용하여 상기 영상촬영부의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 좌표추정부, 상기 좌표추정부의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버로부터 추출하는 지리정보추출부 및 상기 지리정보추출부로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보에 자막으로 입히는 자막생성부를 포함하여 구성된 영상처리장치를 포함하는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 제시한다.A specific means according to an aspect of the present invention for effectively achieving a specific technical purpose while specifying a new concept for solving the technical problem of the present invention as described above is to fly by variably using the rotational force of the rotor. However, a GPS receiver that receives GPS information from a satellite, extracts NMEA (The National Marine Electronics Association) data and transmits it to the Virtual Reference Station (VRS) server of the National Geographic Information Institute, and VRS correction data from the VRS server of the National Geographic Information Institute. A positioning unit that receives and generates real-time location information, an image photographing unit that converts a subject into an image signal by real-time aerial photographing, a flight control control unit that controls the flight direction and posture and adjusts the photographing angle of the image photographing unit, and the image photographing A photographing angle measuring unit that measures a negative photographing angle, a photographing altitude measuring unit that measures the absolute altitude between the focus and the index of the image photographing unit, and an acquisition information transmitting unit that transmits the location information, image information, photographing angle and photographing altitude information in real time. A helicam configured to include, receiving location information, image information, shooting angle and shooting altitude information of the helicam from the acquisition information transmitting unit in real time and transmitting it to a streaming server, and remotely controlling and controlling the helicam from the ground. Ground control device, a reference coordinate identification unit that identifies the GPS coordinates of the ground reference point previously arranged in the image information area of the helicam received through the streaming server, the location information of the helicam, the shooting angle and the shooting altitude information, and the A coordinate estimating unit that estimates specific coordinates for a target point on the image information of the image capture unit using the GPS coordinates of the reference coordinate identification unit, and location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit from the GIS server of the geographic information system. Generating a caption in which the extracted geographic information extracting unit and the location and attribute information extracted from the geographic information extracting unit are applied as captions to the image information of the helicam received through the streaming server A system for generating position and attribute information in a real-time photographed image of a helicam as a caption, characterized in that it includes an image processing device including a unit, is presented.

이로써 본 발명은, 헬리캠의 실시간 촬영 영상 정보를 네트워크를 통해 운용자에게 제공 시 지리정보시스템을 활용해 대상 지점의 실시간 위치 및 속성 정보를 자막으로 합성하여 출력할 수 있고, 이를 통해 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능할 수 있다.Accordingly, the present invention can synthesize and output real-time location and attribute information of a target point into subtitles using a geographic information system when providing real-time photographed image information of a helicam to an operator through a network. By accurately and quickly grasping the location and attribute information in the captured image, it is possible to quickly respond to an emergency situation or the like.

또한, 본 발명의 바람직한 일실시 태양(aspect)으로 상기 헬리캠은, 암호 체계를 사용하여 상기 지상통제장치와의 정보를 송수신하는 통신보안 모듈을 더 포함하여 구성되고, 상기 통신보안 모듈은, 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장하는 패스워드 변경정보부, 상기 헬리캠에 대한 정보 및 기존 패스워드 정보를 관리하는 정보관리부, 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 상기 헬리캠에 대한 신규 패스워드 정보를 자동 생성하는 패스워드 변경부 및 신규 패스워드 정보를 상기 헬리캠의 패스워드로 설정하는 패스워드 설정부를 포함하여 구성됨으로써 헬리캠과 지상통제장치 간의 통신 보안성을 강화할 수 있다.In addition, as a preferred aspect of the present invention, the helicam further includes a communication security module for transmitting and receiving information with the ground control device using an encryption system, and the communication security module includes a password A password change information unit that receives and stores information on the change cycle and change rule of the Helicam, an information management unit that manages the information on the helicam and existing password information, the password change cycle and change rule, and the heli based on the existing password information. By including a password change unit for automatically generating new password information for the cam and a password setting unit for setting new password information as the password of the helicam, communication security between the helicam and the ground control device may be enhanced.

본 발명의 다른 실시 태양(aspect)에 따른 구체적인 수단은, (가) 헬리캠의 GPS 수신기가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버로 전송하는 단계, (나) 상기 헬리캠의 위치측위부가 상기 국토지리정보원의 VRS 서버로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 단계, (다) 상기 헬리캠의 영상촬영부가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 상기 헬리캠의 촬영각도측정부 및 촬영고도측정부가 상기 영상촬영부의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부를 통해 지상통제장치로 실시간 전송하는 단계, (라) 상기 지상통제장치가 상기 취득정보송신부로부터 상기 헬리캠의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버로 전송하는 단계, (마) 영상처리장치의 기준좌표식별부가 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보 영역 내에 미리 배치된 지상기준점의 GPS 좌표를 식별하는 단계, (바) 상기 영상처리장치의 좌표추정부가 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부의 GPS 좌표를 이용하여 상기 영상촬영부의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 단계, (사) 상기 영상처리장치의 지리정보추출부가 상기 좌표추정부의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버로부터 추출하는 단계, (아) 상기 영상처리장치의 자막생성부가 상기 지리정보추출부로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버를 통해 수신받은 상기 헬리캠의 영상 정보에 자막으로 입히는 단계를 포함하여 이루어지는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법을 제시한다.A specific means according to another aspect of the present invention is: (a) the GPS receiver of the helicam receives GPS information from the satellite, extracts NMEA data, and transmits the NMEA data to the VRS server of the National Geographic Information Institute, (b) The step of generating real-time location information by receiving VRS correction data from the VRS server of the National Geographic Information Service by the location positioning unit of the helicam, (c) the image capture unit of the helicam photographs the subject in real time and converts it into an image signal. , The photographing angle measuring unit and the photographing altitude measuring unit of the helicam measure the photographing angle and photographing altitude of the image photographing unit, and transmitting real-time to the ground control device through the acquisition information transmission unit, (D) the ground control device acquires the Receiving the location information, image information, shooting angle, and shooting altitude information of the helicam from an information transmission unit in real time and transmitting it to a streaming server, (e) the reference coordinate identification unit of the image processing device received through the streaming server. Identifying the GPS coordinates of the ground reference point previously arranged in the image information area of the helicam, (f) the coordinate estimation unit of the image processing device receives the location information, the shooting angle, and the shooting altitude of the helicam through the streaming server. Estimating specific coordinates for a target point on the image information of the image capturing unit using information and GPS coordinates of the reference coordinate identification unit, (g) a geographic information extracting unit of the image processing unit corresponding to the estimated coordinates of the coordinate estimating unit Extracting the location and attribute information from the GIS server of the geographic information system, (H) the caption generation unit of the image processing apparatus receives the position and attribute information extracted from the geographic information extraction unit through the streaming server. A method of generating position and attribute information in a real-time photographed image of a helicam as a caption, characterized in that it comprises the step of coating image information of a cam with a caption.

이로써 본 발명은 지리정보시스템을 활용해 헬리캠의 실시간 촬영 영상 정보에 위치 및 속성 정보를 자막으로 합성하여 출력할 수 있고, 이를 통해 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처가 가능할 수 있다.Accordingly, the present invention uses a geographic information system to synthesize location and attribute information into real-time photographed image information of helicam as subtitles, and through this, an operator or manager can accurately and quickly determine the position and attribute information in the photographed image. By grasping it, it can be possible to quickly respond in case of an emergency situation.

또한, 본 발명의 바람직한 다른 실시 태양(aspect)으로 상기 (바) 단계에서, 상기 좌표추정부가 상기 영상촬영부의 영상 정보상의 대상 지점에 대해 추정한 좌표 및 그 추정 좌표와 가장 가까운 곳에 미리 배치된 지상기준점의 GPS 좌표를 상호 비교하여 상기 추정 좌표를 검증함으로써, 헬리캠의 실시간 촬영 영상 정보에 실제 좌표에 해당하는 위치 및 속성 정보를 더욱 정확하게 자막으로 합성하여 출력할 수 있다.In addition, as another preferred aspect of the present invention, in the step (f), the coordinate estimation unit estimates the coordinates of the target point on the image information of the image capturing unit and the ground pre-arranged at the closest position to the estimated coordinates. By comparing the GPS coordinates of the reference points and verifying the estimated coordinates, position and attribute information corresponding to the actual coordinates in the real-time photographed image information of the helicam can be more accurately synthesized and output as a caption.

또한, 본 발명의 바람직한 다른 실시 태양(aspect)으로 상기 (바) 단계에서, 상기 헬리캠의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 상기 기준좌표식별부의 GPS 좌표 정보를 이용하여 상기 헬리캠으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 변경하여 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 상기 추정 좌표를 검증함으로써, 헬리캠의 실시간 촬영 영상 정보에 실제 좌표에 해당하는 위치 및 속성 정보를 더욱 정밀하게 산출할 수 있다.In addition, as another preferred aspect of the present invention, in the step (f), when the location information, the shooting angle, and the shooting altitude information of the helicam are changed, the helicam is Calculate by changing the estimated coordinates for the target point located at the center of the image information transmitted from the cam, and if the estimated coordinates are continuously changed and calculated, the distance between the previous estimated coordinates and the current estimated coordinates is calculated, and then the previous estimated coordinates The estimated coordinates are verified by comparing the distance between the GPS coordinate information of the ground reference point placed and stored in advance and stored in the nearest place and the GPS coordinate information of the ground reference point previously placed and stored in the nearest place to verify the real-time photographed image of the helicam. Position and attribute information corresponding to the actual coordinates in the information can be calculated more precisely.

상기와 같은 기술적 과제를 해결하고자 특유한 해결 수단이 기초하고 있는 본 발명의 기술사상 및 실시 예(embodiment)에 따르면, 지리정보시스템을 활용해 헬리캠의 실시간 촬영 영상에 대상 지점의 위치 및 속성 정보를 자막으로 합성하여 출력함으로써, 이를 모니터링하는 운용자나 관리자 등이 촬영 영상 내의 위치 및 속성 정보를 정확하고 신속하게 파악하여 비상상황 발생 시 등에 신속한 대처 및 조치가 가능하여 피해를 최소화할 수 있다.According to the technical idea and embodiment of the present invention, on which a unique solution is based to solve the above technical problem, the location and attribute information of the target point is recorded in the real-time photographed image of the helicam using a geographic information system. By synthesizing and outputting the subtitles, the operator or manager who monitors them can accurately and quickly grasp the location and attribute information in the captured image, and can quickly respond and take measures in the event of an emergency situation, thereby minimizing damage.

또한, VRS 데이터를 활용하여 헬리캠의 촬영 위치의 정확도를 높임은 물론 지상기준점의 GPS 좌표를 탐지하여 추정 좌표와의 상호 거리 및 위치를 검증하므로 촬영 영상 내의 정확한 위치 및 속성 정보를 획득할 수 있다.In addition, by using VRS data, the accuracy of the shooting position of the helicam is improved, as well as by detecting the GPS coordinates of the ground reference point, and verifying the mutual distance and position with the estimated coordinates, it is possible to obtain accurate location and attribute information in the captured image. .

게다가 헬리캠과 지상통제장치 간 통신 시스템의 접속을 위한 암호화 체계를 주기적으로 자동 변경함으로써 보안성을 한층 강화할 수 있다.In addition, the security can be further strengthened by periodically automatically changing the encryption system for the connection of the communication system between the helicam and the ground control device.

여기서 본 발명의 효과들은 이상에서 언급한 효과들로 국한하지 않으며, 언급하지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자가 명확하게 이해할 수 있을 것이다.Here, the effects of the present invention are not limited to the above-mentioned effects, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 구성하는 통신보안 모듈을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템의 디스플레이 및 검증 과정의 이해를 돕기 위한 개념도이다.
1 is a block diagram schematically illustrating a system for generating position and property information as captions in a real-time captured image of a helicam according to an exemplary embodiment of the present invention.
2 is a block diagram schematically illustrating a communication security module constituting a system for generating position and attribute information as captions in a real-time photographed image of a helicam according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a display and verification process of a system for generating position and attribute information as captions in a real-time photographed image of a helicam according to an embodiment of the present invention.

이하, 본 발명에 따른 실시 예를 첨부된 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

이에 앞서, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합되는 개념과 당해 기술분야에서 통용 또는 통상적으로 인식되는 의미로 해석하여야 함을 명시한다.Prior to this, the terms to be described later are defined in consideration of functions in the present invention, and this should be interpreted as a concept conforming to the technical idea of the present invention and a meaning commonly or commonly recognized in the art.

또한, 본 발명과 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when it is determined that a detailed description of a known function or configuration related to the present invention may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

여기서 첨부된 도면들은 기술의 구성 및 작용에 대한 설명과, 이해의 편의 및 명확성을 위해 일부분을 과장하거나 간략화하여 도시한 것으로, 각 구성요소가 실제의 크기 및 형태와 정확하게 일치하는 것은 아님을 밝힌다.Here, the accompanying drawings are partially exaggerated or simplified for description of the configuration and operation of the technology, and for convenience and clarity of understanding, and it is understood that each component does not exactly match the actual size and shape.

아울러 본 명세서에서 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하는 의미이며, 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in the present specification, the term and/or is meant to include a combination of a plurality of related items or any item among a plurality of related items, and when a certain part includes a certain element, it is a particularly opposite description. Unless there is no other component is not excluded, it means that other components can be further included.

즉, '포함하다' 또는 '구비하다', '가지다' 등의 용어는 본 명세서에서 설시(說示)하는 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해해야 한다.In other words, terms such as'include','equipment', and'have' mean the presence of features, numbers, steps, actions, components, parts, or a combination of the features set out in the present specification. It is to be understood that it does not exclude the possibility of the presence or addition of one or more other features or numbers, step-operating components, parts, or combinations thereof.

아울러 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, each step may occur differently from the specified order unless a specific order is clearly stated in the context. That is, each of the steps may occur in the same order as the specified order, may be performed substantially simultaneously, or may be performed in the reverse order.

이외에도 "부" 및 "유닛"의 용어에 대한 의미는 시스템에서 목적하는 적어도 하나의 기능이나 어느 일정한 동작을 처리하는 단위 또는 역할을 하는 모듈 형태를 의미하며, 이는 하드웨어나 소프트웨어 혹은 하드웨어 및 소프트웨어의 결합 등을 통한 수단이나 독립적인 동작을 수행할 수 있는 디바이스 또는 어셈블리 등으로 구현할 수 있다.In addition, the meaning of the terms "unit" and "unit" refers to a unit or a module that serves to process at least one function or a certain operation desired in the system, which is hardware or software, or a combination of hardware and software. It may be implemented as a device or assembly capable of performing an independent operation or means through the like.

또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있다. 즉, 제1, 제2 등의 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다. 예를 들어, 제1 구성요소는 본 발명의 보호범위를 벗어나지 않는 한에서 제2 구성요소로 명명할 수 있고, 또 제2 구성요소도 제1 구성요소로 명명할 수도 있다.Also, terms such as first and second may be used to describe various elements. That is, terms such as first and second may be used only for the purpose of distinguishing one component from another component. For example, a first component may be referred to as a second component without departing from the protection scope of the present invention, and a second component may also be referred to as a first component.

또한, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 하나의 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 하나의 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.In addition, the terms "transmission", "communication", "transmission", "receiving" and other similar meanings of signals or information are not only direct transmission of signals or information from one component to another component, but also other components. It includes what is transmitted through. In particular, "transmitting" or "transmitting" a signal or information as a component indicates the final destination of the signal or information and does not mean a direct destination. The same is true for "reception" of signals or information.

도 1 및 도 2에 도시된 바와 같이 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템을 구성하는 주요 구성요소는 헬리캠(100), VRS 서버(200), 지상통제장치(300), 스트리밍 서버(400), 영상처리장치(500) 및 GIS 서버(600)를 포함하고 있으며, 상호 간의 통신 방법은 유선 및/또는 무선 네트워크를 통하여 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있다.As shown in FIGS. 1 and 2, the main components constituting the system for generating position and property information as captions in the real-time photographed image of the helicam according to the embodiment of the present invention are the helicam 100 and the VRS server ( 200), a ground control device 300, a streaming server 400, an image processing device 500, and a GIS server 600, and the communication method between the object and the object is It can include any communication method that can be networked.

예를 들어, 헬리캠(100), VRS 서버(200), 지상통제장치(300), 스트리밍 서버(400), 영상처리장치(500) 및 GIS 서버(600) 사이의 유선 및/또는 무선 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE80216m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 80216e), UMB (formerly EV-DO Rev C), Flash-OFDM, iBurst and MBWA (IEEE 80220) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.For example, the wired and/or wireless network between the helicam 100, the VRS server 200, the ground control device 300, the streaming server 400, the image processing device 500 and the GIS server 600 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access) , Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Zigbee, Wi-Fi, Voice over Internet Protocol (VoIP), LTE Advanced, IEEE80216m, WirelessMAN -Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 80216e), UMB (formerly EV-DO Rev C), Flash-OFDM, iBurst and MBWA (IEEE 80220) systems, HIPERMAN, Beam-Division Multiple Access It may refer to a communication network using one or more communication methods selected from the group consisting of (BDMA), World Interoperability for Microwave Access (Wi-MAX), and ultrasonic communication, but is not limited thereto.

헬리캠(100)은 로터의 회전력을 가변적으로 이용해 비행하면서 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 위치 정보 등의 데이터를 생성하여 실시간으로 전송한다.The helicam 100 variably uses the rotational force of the rotor to take a real-time aerial photograph of a subject while flying, converts it into an image signal, generates data such as location information, and transmits it in real time.

구체적으로 헬리캠(100)은 GPS 수신기(110), 위치측위부(120), 영상촬영부(130), 비행조종제어부(140), 촬영각도측정부(150), 촬영고도측정부(160), 취득정보송신부(170) 및 통신보안 모듈(180)을 포함하고 있다.Specifically, the helicam 100 includes a GPS receiver 110, a positioning unit 120, an image capturing unit 130, a flight control control unit 140, a photographing angle measuring unit 150, and a photographing altitude measuring unit 160. , Acquisition information transmission unit 170 and a communication security module 180.

GPS 수신기(110)는 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송한다.The GPS receiver 110 receives GPS information from an artificial satellite, extracts NMEA data, and transmits it to the VRS server 200 of the National Geographic Information Institute.

여기서 NMEA(The National Marine Electronics Association) 데이터는 GPS에서 사용되는 신호 형식을 의미하며, GPGGA(Global Positioning System Fix Data), GPGSV(GPS Satellites in View), GPRMC(Recommended Minimum Specific GNSS Data) 등의 데이터가 모두 포함된 가공되지 않은 데이터이다.Here, NMEA (The National Marine Electronics Association) data refers to the signal format used in GPS, and data such as Global Positioning System Fix Data (GPGGA), GPS Satellites in View (GPGSV), and Recommended Minimum Specific GNSS Data (GPRMC) are available. This is all-inclusive raw data.

또한, NMEA 데이터 전체를 패킷 형태로 국토지리정보원의 VRS 서버(200)로 전송할 경우 데이터 용량이 크고 불필요한 정보가 많이 포함되어 전송이 원활하게 이루어지지 않을 수 있어, NMEA 데이터에서 GPGGA 데이터를 추출하는 작업을 거친 뒤, 이를 VRS 서버(200)로 전송하는 것이 바람직하다. 이를 위해 헬리캠(100)은 데이터 처리모듈을 포함하여 구성되어야 함은 물론이다.In addition, if the entire NMEA data is transmitted to the VRS server 200 of the National Geographic Information Institute in the form of a packet, the data volume is large and the transmission may not be performed smoothly because a lot of unnecessary information is included, so the operation of extracting GPGGA data from the NMEA data After passing through, it is preferable to transmit it to the VRS server 200. To this end, it goes without saying that the helicam 100 must include a data processing module.

한편, GPS 수신기(110)는 가상기준점측량(Network-based RTK) 방식을 지원하는 2주파수 이상의 수신기로 구성될 수 있다.Meanwhile, the GPS receiver 110 may be configured as a receiver of two or more frequencies supporting a network-based RTK method.

위치측위부(120)는 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 헬리캠(100)의 실시간 위치 정보를 생성한다.The location positioning unit 120 receives VRS correction data from the VRS server 200 of the National Geographic Information Institute and generates real-time location information of the helicam 100.

즉, 위치측위부(120)는 VRS 서버(200)를 통해 헬리캠(100)의 정확한 현재 위치 정보를 획득할 수 있다.That is, the location positioning unit 120 may obtain accurate current location information of the helicam 100 through the VRS server 200.

영상촬영부(130)는 피사체를 실시간 항공 촬영하여 영상 신호로 변환한다.The image capturing unit 130 photographs a subject in real time and converts it into an image signal.

즉, 영상촬영부(130)는 헬리캠(100)의 진행 방향 및 아래 방향을 주사하여 물체의 탐지 및 영상을 획득하기 위해 헬리캠(100)의 동체 중심부에 탑재되어 있다.That is, the image capturing unit 130 is mounted in the center of the body of the helicam 100 to detect an object and acquire an image by scanning the moving direction and the downward direction of the helicam 100.

여기서 영상촬영부(130)는 가시광선 카메라, 적외선 카메라, 스테레오 카메라 등 촬영 대상인 피사체의 형태를 구분할 수 있는 영상을 획득 가능한 촬영 수단인 경우 특별히 그 종류를 한정하지 않는다.Here, if the image capturing unit 130 is a photographing means capable of obtaining an image capable of distinguishing the shape of a subject to be photographed, such as a visible ray camera, an infrared camera, or a stereo camera, the type is not particularly limited.

또한, 영상촬영부(130)는 별도의 짐벌(Gimbal) 또는 3축 이동안정화시스템(3axis motion stabilizer system for camera)을 이용함으로써 비행 중 바람 등의 외적 작용에 의한 영상의 흔들림을 최소화하여 안정적인 영상을 취득할 수 있다.In addition, by using a separate gimbal or a 3-axis motion stabilizer system for camera, the image capture unit 130 minimizes image shaking caused by external actions such as wind during flight, thereby providing a stable image. Can be acquired.

한편, 영상촬영부(130)는 영상 정보를 압축하여 전송함으로써 효율적인 신호 처리를 수행할 수 있다.Meanwhile, the image capturing unit 130 may perform efficient signal processing by compressing and transmitting image information.

비행조종제어부(140)는 제어 프로세서로 이루어져 헬리캠(100)의 비행 방향과 자세, 속도, 고도 등을 제어하고 영상촬영부(130)의 촬영 각도 및 촬영 조건 등 조절한다.The flight control control unit 140 is composed of a control processor and controls the flight direction, posture, speed, and altitude of the helicam 100 and adjusts the shooting angle and shooting conditions of the image capturing unit 130.

여기서 비행조종제어부(140)는 별도의 하드웨어로 구현되거나 또는 동일한 하드웨어에서 구현될 수 있다.Here, the flight control control unit 140 may be implemented as separate hardware or may be implemented in the same hardware.

예를 들어, 동일한 ASIC, CPU, FPGA 등의 프로세서에서 구현되거나 별개의 프로세서에서 구현될 수 있다.For example, it can be implemented on a processor such as the same ASIC, CPU, or FPGA, or can be implemented on a separate processor.

또한, 비행조종제어부(140)는 조종자의 조작에 따라 영상촬영부(130)의 좌우로 기울여 촬영 각도를 조절하거나 상하 기준축을 중심으로 360도 회전시킬 수 있다.In addition, the flight control control unit 140 may adjust the photographing angle by tilting the image capturing unit 130 to the left or right according to the manipulator's manipulation, or rotate it 360 degrees around the vertical reference axis.

예를 들면, 모터를 이용한 회전수 조절을 통해 영상촬영부(130)의 회전 및 기울임 정도를 제어할 수 있다.For example, it is possible to control the degree of rotation and tilt of the image capturing unit 130 by adjusting the number of rotations using a motor.

이외에도 비행조종제어부(140)는 짐벌 및 항법 좌표계를 이용하여 영상촬영부(130)의 롤(roll), 피치(pitch), 요(yaw) 각도를 조절하여 촬영 자세를 유지하도록 제어할 수 있다.In addition, the flight control control unit 140 may control to maintain the photographing posture by adjusting the roll, pitch, and yaw angle of the image capturing unit 130 using a gimbal and a navigation coordinate system.

촬영각도측정부(150)는 영상촬영부(130)의 촬영 각도를 측정한다.The photographing angle measuring unit 150 measures the photographing angle of the image photographing unit 130.

즉, 촬영각도측정부(150)는 헬리캠(100)에 대한 영상촬영부(130)의 기울어진 각도를 상하 방향의 기준축을 중심으로 산출하고, 기준축으로부터 시계방향으로 회전한 각도를 산출한다.That is, the photographing angle measurement unit 150 calculates the inclined angle of the image capturing unit 130 with respect to the helicam 100 around a reference axis in the vertical direction, and calculates an angle rotated clockwise from the reference axis. .

촬영고도측정부(160)는 영상촬영부(130)의 촬영 고도를 측정한다.The photographing altitude measurement unit 160 measures the photographing altitude of the image photographing unit 130.

즉, 촬영고도측정부(160)는 영상촬영부(130)의 카메라 초점과 지표 간의 절대고도를 측정하여 영상촬영부(130)의 촬영 고도를 산출한다.That is, the photographing altitude measuring unit 160 calculates the photographing altitude of the image photographing unit 130 by measuring the absolute altitude between the camera focus of the image photographing unit 130 and the index.

취득정보송신부(170)는 무선 네트워크 기반으로 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 무선 통신 프로토콜에 따라 실시간으로 전송한다.The acquisition information transmission unit 170 transmits location information, image information, photographing angle, and photographing altitude information based on a wireless network in real time according to a wireless communication protocol.

통신보안 모듈(180)은 암호 체계를 사용하여 지상통제장치(300)와의 통신을 수행한다.The communication security module 180 performs communication with the ground control device 300 using an encryption system.

구체적으로 통신보안 모듈(180)은 통신 과정에서 데이터 유출을 막고 네트워크에 대한 인증을 위해 암호화된 통신을 수행하며, 패스워드 변경정보부(181), 정보관리부(182), 패스워드 변경부(183) 및 패스워드 설정부(184)를 포함하고 있다.Specifically, the communication security module 180 prevents data leakage during the communication process and performs encrypted communication for authentication to the network, and the password change information unit 181, the information management unit 182, the password change unit 183, and the password It includes a setting unit 184.

패스워드 변경정보부(181)는 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장한다.The password change information unit 181 receives and stores information on a change period and change rule of a password.

예를 들어, 패스워드의 변경 주기는 최대 사용기간을 설정하고, 그 사용기간이 경과하면 영문자, 숫자, 특수문자의 조합으로 이루어진 변경 규칙에 의거하여 자동으로 생성될 수 있다.For example, the password change period can be automatically generated based on a change rule consisting of a combination of alphabetic characters, numbers, and special characters when the maximum period of use is set, and when the period of use has elapsed.

정보관리부(182)는 헬리캠(100)의 통신 시스템에 대한 정보 및 기존 패스워드 정보를 관리한다.The information management unit 182 manages information on the communication system of the helicam 100 and existing password information.

여기서 기존 패스워드 정보는 헬리캠(100)의 통신 시스템과의 통신을 위한 개인 계정, 공유 계정 및 애플리케이션 계정 중 어느 하나에 대한 패스워드 정보일 수 있다.Here, the existing password information may be password information for any one of a personal account, a shared account, and an application account for communication with the communication system of the helicam 100.

패스워드 변경부(183)는 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 헬리캠(100)의 통신 시스템과의 통신을 위한 신규 패스워드 정보를 자동 생성한다.The password change unit 183 automatically generates new password information for communication with the communication system of the helicam 100 based on the password change cycle and change rule, and existing password information.

그리고 패스워드 변경부(183)는 패스워드 변경 주기, 관리자 제어 중 적어도 하나에 기초하여 신규 패스워드 정보를 자동 생성할 수 있다. In addition, the password changer 183 may automatically generate new password information based on at least one of a password change period and an administrator control.

이때, 신규 패스워드 정보는 기존 패스워드 정보에 대응되는 헬리캠(100)의 통신 시스템의 개인 계정, 공유 계정 및 애플리케이션 계정 중 어느 하나에 대한 패스워드의 정보일 수 있다.In this case, the new password information may be information of a password for any one of a personal account, a shared account, and an application account of the communication system of the helicam 100 corresponding to the existing password information.

또한, 패스워드 변경부(183)는 자동 변경, 요청 변경 방식으로 헬리캠(100)의 통신 시스템의 패스워드를 변경할 수 있다. 자동 변경 방식은 패스워드 변경 주기에 따른 주기적 자동 변경, 랜덤 변경, 규칙 변경으로 통신 시스템의 패스워드를 변경하는 방식이고, 요청 변경 방식은 사용자의 제어 즉, 승인 처리에 의하여 통신 시스템의 패스워드를 변경하는 방식이다.In addition, the password change unit 183 may change the password of the communication system of the helicam 100 in an automatic change or request change method. The automatic change method is a method of changing the password of the communication system through periodic automatic change, random change, and rule change according to the password change period, and the request change method is a method of changing the password of the communication system through user control, that is, approval processing. to be.

패스워드 설정부(184)는 패스워드 변경부(183)에서 생성한 신규 패스워드 정보를 헬리캠(100)의 통신 시스템의 패스워드로 설정한다.The password setting unit 184 sets the new password information generated by the password changing unit 183 as the password of the communication system of the helicam 100.

이때, 패스워드 설정부(184)는 헬리캠(100)의 통신 시스템의 애플리케이션 계정의 패스워드를 푸쉬(Push) 방식 혹은 폴링(Polling) 방식으로 기존 패스워드 정보를 신규 패스워드 정보로 변경할 수있다. In this case, the password setting unit 184 may change the password of the application account of the communication system of the helicam 100 into new password information by using a push method or a polling method.

또한, 패스워드 설정부(184)는 헬리캠(100)의 통신 시스템의 애플리케이션 계정의 패스워드가 스크립트 혹은 환경 파일에 존재하는 경우, 신규 패스워드 정보를 헬리캠(100)의 통신 시스템에서 애플리케이션 및 스크립트 혹은 환경 파일에 동기화하는 형식으로 패스워드 정보를 변경할 수 있다.In addition, when the password of the application account of the communication system of the helicam 100 is present in the script or environment file, the password setting unit 184 stores the new password information in the communication system of the helicam 100 and the application and script or environment. You can change the password information in a format that synchronizes to a file.

따라서 헬리캠(100)과 지상통제장치(300) 간 통신 시스템의 접속을 위한 암호화 체계를 주기적으로 변경함으로써 보안성을 한층 강화할 수 있다.Therefore, it is possible to further enhance security by periodically changing the encryption system for accessing the communication system between the helicam 100 and the ground control device 300.

한편, 헬리캠(100)의 동체에는 무선 전파로 기체를 조종할 수 있도록 하는 GPS 장치, 안전한 비행에 필요한 센서, 지상통제장치(300)와 무선 통신을 위한 통신시스템, 회전익과 배터리를 포함하는 동력 모듈 및 이를 제어하는 소프트웨어 모듈 등이 탑재되어 있다.On the other hand, the fuselage of the helicam 100 includes a GPS device that allows you to control the aircraft with wireless radio waves, a sensor necessary for safe flight, a communication system for wireless communication with the ground control device 300, and a power including a rotorcraft and a battery. Modules and software modules that control them are mounted.

예를 들면, 헬리캠(100)의 동체 내부에는 동력 모듈과 전기적으로 연결되어 그 구동 및 구동 방향을 전류의 인가 여부 및 인가방향에 따라 제어하는 소프트웨어 모듈이 장치되어 있다.For example, inside the body of the helicam 100, a software module is installed that is electrically connected to a power module and controls its driving and driving directions according to whether current is applied and the applied direction.

또한, 헬리캠(100)은 3차원 좌표 정보에 기반한 비행 경로를 따라 비행하기 위한 자율비행 소프트웨어(FMS)가 장치될 수도 있다.In addition, the helicam 100 may be equipped with autonomous flight software (FMS) for flying along a flight path based on 3D coordinate information.

여기서 헬리캠(100)의 비행체는 회전익 드론뿐만 아니라 고정익 드론, 틸트 로터(tilt-rotor) 드론 및 공기흡입 및 배출을 통해 양력 및 추진력을 얻는 임펠러 시스템(impeller system)을 이용한 드론 등 특별히 그 종류를 한정하지 않는다.Here, the aircraft of the helicam 100 is not only a rotary wing drone, but also a fixed wing drone, a tilt-rotor drone, and a drone using an impeller system that obtains lift and propulsion through air intake and discharge. Not limited.

특히 회전익 드론인 경우 비행 모듈은 모터의 구동에 의해 회전되는 프로펠러(프롭,prop)를 포함할 수 있고, 이 경우 회전익 드론에서 비행 제어는 프로펠러의 제어(프로펠러의 회전수 또는 프로펠러의 가변 피치 등)를 통해 비행 자세 및 경로, 이착륙을 제어할 수 있으나, 고정익 드론 또는 임펠러 시스템 드론 등에서는 날개, 비행 모듈은 공기 흡입 또는 배출 시스템, 프로펠러 등을 포함할 수 있고, 비행 제어는 각 부품의 각도, 회전 수, 모터 구동 등의 제어 등 해당 드론의 형태 및 구조에 따라 추진력 및 양력을 제어하기 위한 부품 또는 구조를 제어할 수 있다.In particular, in the case of a rotorcraft drone, the flight module may include a propeller (prop) that is rotated by the drive of a motor, and in this case, the flight control in a rotorcraft drone is controlled by the propeller (rotation speed of the propeller or variable pitch of the propeller, etc.) Flight attitude, path, and take-off and landing can be controlled through a fixed-wing drone or impeller system drone, etc., the wing and the flight module may include an air intake or discharge system, a propeller, etc., and flight control can include the angle and rotation of each part. It is possible to control parts or structures for controlling propulsion and lift according to the shape and structure of the drone, such as controlling water and motor driving.

한편, 헬리캠(100)에 포함된 각 부(unit) 또는 모듈은, 전적으로 하드웨어이거나 또는 부분적으로는 하드웨어이고 부분적으로는 소프트웨어일 수 있다. 예컨대, 특정 형식 및 내용의 데이터를 처리하거나 또는/또한 전자통신 방식으로 주고받기 위한 하드웨어 및 이에 관련된 소프트웨어를 통칭할 수 있다. Meanwhile, each unit or module included in the helicam 100 may be entirely hardware or partially hardware and partially software. For example, it may collectively refer to hardware for processing data of a specific format and content or/or sending and receiving data in an electronic communication method, and software related thereto.

또한, 본 명세서에서 "부", "모듈", "장치", "단말기", "서버" 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭할 수 있다.In addition, in the present specification, terms such as "unit", "module", "device", "terminal", "server" or "system" may refer to a combination of hardware and software driven by the hardware.

예를 들어, 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다.For example, the hardware may be a data processing device including a CPU or other processor.

또한, 하드웨어에 의해 구동되는 소프트웨어는 실행 중인 프로세스, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.In addition, software driven by hardware may refer to an executing process, an object, an executable file, a thread of execution, a program, and the like.

그리고 헬리캠(100)을 구성하는 각각의 구성요소는 반드시 서로 물리적으로 구분되는 별개의 장치를 지칭하는 것으로 의도되지 않는다.In addition, each component constituting the helicam 100 is not necessarily intended to refer to separate devices that are physically separated from each other.

즉, 위치측위부(120), 촬영각도측정부(150), 촬영고도측정부(160), 취득정보송신부(170) 및 통신보안 모듈(180) 등은 헬리캠(100)을 구성하는 하드웨어를 해당 하드웨어에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐, 반드시 각각의 부가 서로 독립적으로 구비되어야 하는 것이 아니다. 물론, 실시 예에 따라서는 각 구성요소 중 하나 이상이 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.That is, the positioning unit 120, the shooting angle measurement unit 150, the shooting altitude measurement unit 160, the acquisition information transmission unit 170 and the communication security module 180, etc. It is functionally classified according to an operation performed by the corresponding hardware, and each unit is not necessarily provided independently of each other. Of course, depending on the embodiment, one or more of the respective components may be implemented as separate devices that are physically separated from each other.

VRS 서버(200)는 헬리캠(100)의 GPS 수신기(110)로부터 NMEA 데이터를 수신받아 VRS 보정 데이터를 생성한 후 네트워크를 통해 헬리캠(100)의 위치측위부(120)로 전송한다.The VRS server 200 receives NMEA data from the GPS receiver 110 of the helicam 100, generates VRS correction data, and transmits it to the positioning unit 120 of the helicam 100 through a network.

즉, VRS 서버(200)는 헬리캠(100)으로부터 NMEA 데이터 또는 이로부터 추출된 GPGGA 데이터를 수신하여 현재 위치의 VRS(Virtual Reference Station) 데이터를 생성한다.That is, the VRS server 200 receives NMEA data or GPGGA data extracted therefrom from the helicam 100 to generate VRS (Virtual Reference Station) data of the current location.

여기서 VRS 보정 데이터는 GPS 수신기(110)에서 추출한 NMEA 데이터의 위치 보정에 사용하여 헬리캠(100)의 현재 좌표에 대한 정확도를 높이게 된다.Here, the VRS correction data is used for position correction of the NMEA data extracted from the GPS receiver 110 to increase the accuracy of the current coordinates of the helicam 100.

즉, VRS 서버(200)는 GPS 상시관측소로 이루어진 기준국망을 이용하여 오차를 분리 및 모델링하고, GPS 수신기(110)에서 가까운 지점에 가상기준국을 생성한 후 실제 기준국에 형성된 네트워크를 이용해 계산된 보정 값을 수신하여 가상기준국에 대한 위치를 재계산한 뒤 GPS 수신기(110)에 대한 정확한 위치를 결정하여 헬리캠(100)의 위치측위부(120)로 전송할 수 있다.That is, the VRS server 200 separates and models the error using a reference station network consisting of GPS stations, creates a virtual reference station at a point near the GPS receiver 110, and then calculates using the network formed in the actual reference station. After receiving the corrected value and recalculating the position of the virtual reference station, the correct position of the GPS receiver 110 may be determined and transmitted to the position positioning unit 120 of the helicam 100.

지상통제장치(300)는 헬리캠(100)을 지상에서 원격 제어 및 조종하며, 헬리캠(100)으로부터 그 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송한다.The ground control device 300 remotely controls and controls the helicam 100 from the ground, and receives the location information, image information, shooting angle and shooting altitude information from the helicam 100 in real time, and the streaming server 400 It is transmitted to the image processing apparatus 500 through.

여기서 지상통제장치(300)는 멀티드롭 방식으로 다수의 헬리캠(100)을 동시에 접속하여 제어하거나 조종자가 헬리캠(100)을 직접 제어할 수 있는 제어 모듈과, 헬리캠(100)의 비행 항로를 미리 설정할 수 있는 미션 모듈 등을 포함하여 구성될 수 있으며, 아울러 조종자의 수동 조작을 위한 조이스틱과, 그 조이스틱의 수동 조작에 따라 조종 신호를 발생하는 신호발생기를 포함하여 구성될 수 있다.Here, the ground control device 300 is a control module through which a plurality of helicams 100 can be simultaneously connected and controlled in a multi-drop method or a pilot can directly control the helicam 100, and the flight route of the helicam 100 It may be configured to include a mission module, etc. that can be set in advance, and may include a joystick for manual manipulation of a manipulator, and a signal generator that generates a control signal according to the manual manipulation of the joystick.

또한, 헬리캠(100)과의 실제 통신이 이루어지기 전에 서로 연결하는 페어링(fairing) 과정이 선행되는 것이 바람직하며, 이 과정에서 헬리캠(100)의 고유 번호를 전달받아 저장 및 관리하며, 이를 암호 데이터로 공유하는 것이 바람직하다.In addition, before actual communication with the helicam 100 is performed, it is preferable that a pairing process for connecting to each other is preceded, and in this process, the unique number of the helicam 100 is received and stored and managed. It is advisable to share it as encrypted data.

스트리밍 서버(400)는 헬리캠(100)의 취득정보송신부(170)로부터 전송되는 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 지상통제장치(300)를 통해 실시간으로 수신 및 수집하여 영상처리장치(500)로 전송한다.The streaming server 400 provides the location information, image information, shooting angle and shooting altitude information of the helicam 100 transmitted from the acquisition information transmission unit 170 of the helicam 100 in real time through the ground control device 300. It receives and collects and transmits it to the image processing apparatus 500.

여기서 스트리밍 서버(400)는 Wi-Fi, 4G, 5G 등의 무선통신망 및 단말을 통해 이동통신 기지국에 접속하여 수집한 정보를 영상처리장치(500)로 실시간 스트리밍(streaming)으로 전송할 수도 있다.Here, the streaming server 400 may transmit information collected by accessing a mobile communication base station through a wireless communication network such as Wi-Fi, 4G, 5G, etc. and a terminal to the image processing apparatus 500 through real-time streaming.

영상처리장치(500)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보, 위치 정보, 촬영 각도 정보, 촬영 고도 정보와 미리 배치 및 저장된 지상기준점의 GPS 좌표를 이용하여 해당 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하고, 그 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하여 해당 영상 정보에 자막으로 입혀서 저장한다.The image processing device 500 uses image information, location information, shooting angle information, shooting altitude information, and GPS coordinates of a pre-arranged and stored ground reference point of the helicam 100 received through the streaming server 400. Specific coordinates for the target point on the information are estimated, location and attribute information corresponding to the estimated coordinates are extracted from the GIS server 600 of the geographic information system, and the corresponding image information is covered with captions and stored.

구체적으로 영상처리장치(500)는 기준좌표식별부(510), 좌표추정부(520), 지리정보추출부(530), 자막생성부(540) 및 통합정보수신부(550)를 포함하고 있다.Specifically, the image processing apparatus 500 includes a reference coordinate identification unit 510, a coordinate estimation unit 520, a geographic information extraction unit 530, a caption generation unit 540, and an integrated information receiving unit 550.

기준좌표식별부(510)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별한다.The reference coordinate identification unit 510 detects and identifies GPS coordinates of a ground reference point previously arranged and stored in the image information area of the helicam 100 received through the streaming server 400.

즉, 기준좌표식별부(510)는 헬리캠(100)의 영상 정보 영역 내에 복수개로 미리 배치 및 지상기준점의 GPS 좌표 정보 및 위치를 미리 저장하도록 구성되어 있고, 통합정보수신부(550)에 의해 수신된 헬리캠(100)의 영상 정보로부터 미리 배치된 지상기준점의 GPS 좌표의 이미지를 식별하도록 구성되어 있다.That is, the reference coordinate identification unit 510 is configured to pre-arrange a plurality of images in the image information area of the helicam 100 and to store the GPS coordinate information and the location of the ground reference point in advance, and received by the integrated information receiving unit 550 It is configured to identify the image of the GPS coordinates of the ground reference point arranged in advance from the image information of the helicam 100.

여기서 지상기준점의 GPS 좌표의 이미지를 식별하는 방법은 각각의 지상기준점의 GPS 좌표에 상응하는 모양과 고유의 색상 배열이 위치하는 픽셀들을 이미지로부터 추출하는 방식 또는 이미지 처리 알고리즘에 의해 이루어질 수 있다.Here, the method of identifying the image of the GPS coordinates of the ground reference point may be performed by a method of extracting from the image pixels in which a shape corresponding to the GPS coordinates of each ground reference point and a unique color array are located, or an image processing algorithm.

또한, 기준좌표식별부(510)는 통합정보수신부(550)에 의해 수신된 헬리캠(100)의 영상 정보를 저장하도록 구성될 수 있고, 아울러 헬리캠(100)의 촬영 고도에 따른 영상 정보와 실제 이미지의 비율을 나타내는 축적 정보를 저장할 수도 있다.In addition, the reference coordinate identification unit 510 may be configured to store the image information of the helicam 100 received by the integrated information receiving unit 550, and the image information according to the shooting altitude of the helicam 100 and It is also possible to store accumulation information indicating the percentage of the actual image.

좌표추정부(520)는 헬리캠(100)의 비행 방향, 비행 속도, 위치 정보, 촬영 각도 및 촬영 고도 정보와 기준좌표식별부(510)의 GPS 좌표를 이용하여 헬리캠(100)의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정한다.The coordinate estimation unit 520 uses the flight direction, flight speed, location information, photographing angle and photographing altitude information of the helicam 100 and the image information of the helicam 100 using the GPS coordinates of the reference coordinate identification unit 510 Estimate specific coordinates for the target point on the image.

즉, 좌표추정부(520)는 헬리캠(100)의 현재 위치 정보 및 비행 상태 정보와 영상촬영부(130)의 촬영 각도 및 촬영 고도 정보, 미리 저장된 영상촬영부(130)의 화각 정보를 이용한 삼각측량으로 영상 정보상의 공간에 존재하는 또는 중앙에 위치하는 대상 지점에 대한 특정 좌표를 추정하여 산출할 수 있다.That is, the coordinate estimating unit 520 uses the current location information and flight status information of the helicam 100, the shooting angle and shooting altitude information of the image capturing unit 130, and the angle of view information stored in advance of the image capturing unit 130. It can be calculated by estimating specific coordinates for a target point existing in the space on the image information or located in the center by triangulation.

예를 들면, 좌표추정부(520)는 헬리캠(100)의 현재 위치 정보 및 고도값에 비행하는 지형을 나타내는 3차원 좌표 정보의 고도값을 빼는 방식으로 수선의 길이, 즉 영상 정보상의 중앙에 위치하는 대상 지점과의 거리를 산출할 수 있다.For example, the coordinate estimating unit 520 subtracts the altitude value of 3D coordinate information representing the flying terrain from the current location information and altitude value of the helicam 100, and the length of the repair line, that is, at the center of the image information. You can calculate the distance to the target point where it is located.

여기서 헬리캠(100)의 영상 정보는 넓게 퍼져 있는 영역을 하나의 고정된 지점에서 촬영한 것이므로, 영상촬영부(130)에 장치되는 렌즈의 구면수차(spherical aberration)로 인한 이미지의 왜곡이 존재할 수 있어, 좌표추정부(520)가 영상촬영부(130)의 영상 정보상의 대상 지점에 대해 추정한 좌표와, 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 상호 비교하여 추정 좌표를 검증한다.Here, since the image information of the helicam 100 is photographed at one fixed point in a wide area, there may be distortion of the image due to spherical aberration of the lens installed in the image capturing unit 130. The coordinate estimation unit 520 compares the coordinates estimated for the target point on the image information of the image taking unit 130 and the GPS coordinates of the ground reference point previously arranged and stored in the closest position to the estimated coordinates to be estimated coordinates. To verify.

예를 들어, 영상촬영부(130)의 영상 정보가 가로 및 세로 방향의 픽셀 개수에 따라 200×100의 해상도를 갖는 이미지이며, 그 이미지의 중앙 좌표를 (0, 0)이라고 하고, 식별된 지상기준점의 GPS 좌표 중 이미지의 중앙에 가장 가깝게 위치하는 지상기준점의 GPS 좌표는 (5, -8)이라고 가정할 경우, 이미지의 중앙에 가장 가깝게 위치하는 지상기준점의 GPS 좌표(5, -8)와 이에 인접한 추정 좌표 사이의 실제 거리는 미리 저장된 GPS 좌표를 통해 산출될 수 있으므로, 지상기준점의 GPS 좌표와 이에 인접한 추정 좌표 사이의 실제 거리를 이미지에 투영하여 영상 정보 내 위치를 검증할 수 있다.For example, the image information of the image capturing unit 130 is an image having a resolution of 200×100 according to the number of pixels in the horizontal and vertical directions, and the center coordinate of the image is called (0, 0), and the identified ground Assuming that the GPS coordinates of the ground reference point located closest to the center of the image among the GPS coordinates of the reference point are (5, -8), the GPS coordinates of the ground reference point located closest to the center of the image (5, -8) and Since the actual distance between estimated coordinates adjacent thereto may be calculated through pre-stored GPS coordinates, the actual distance between the GPS coordinates of the ground reference point and the estimated coordinates adjacent thereto can be projected onto the image to verify the position in the image information.

이때, 실제 지표면상의 거리와 이미지 내의 거리의 비율은 영상 정보의 촬영 시 헬리캠(100)의 촬영 고도 정보와 기준좌표식별부(510)에 저장된 영상촬영부(130)의 사진 축척 정보를 이용하여 산출할 수도 있다.In this case, the ratio of the distance on the actual ground surface and the distance in the image is determined by using the photographing altitude information of the helicam 100 and the photo scale information of the image photographing unit 130 stored in the reference coordinate identification unit 510 when photographing the image information. It can also be calculated.

한편, 좌표추정부(520)가 추정 좌표를 검증하는 방법은 전자적으로 정보를 처리하는 다양한 수단을 통하여 명령을 수행하는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Meanwhile, the method of verifying the estimated coordinates by the coordinate estimating unit 520 may be implemented in the form of a program command that executes a command through various means for electronically processing information and recorded in a storage medium. The storage medium may include program instructions, data files, data structures, and the like alone or in combination.

지리정보추출부(530)는 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출한다.The geographic information extracting unit 530 extracts location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system.

즉, 지리정보추출부(530)는 지리정보시스템의 GIS 서버(600)에 접속하여 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 추출한다.That is, the geographic information extraction unit 530 connects to the GIS server 600 of the geographic information system and extracts location and attribute information corresponding to the estimated coordinates of the coordinate estimation unit 520.

자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보에 자막으로 입힌다.The caption generating unit 540 coats the location and attribute information extracted from the geographic information extracting unit 530 onto the image information of the helicam 100 received through the streaming server 400 as captions.

즉, 자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 분석하여 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 영상 정보 내 중앙에 위치하는 대상 지점과 일치하는 위치 및 속성 정보가 존재할 경우, 이와 매칭되는 텍스트 또는 숫자로 검출하여 해당 영상 정보에 좌표, 주소, 주변 건물 명칭이나 주요 지형 명칭 등의 위치 및 속성 정보로 자막 처리할 수 있다.That is, the caption generation unit 540 analyzes the location and attribute information extracted from the geographic information extraction unit 530, and the target point located at the center of the image information of the helicam 100 received through the streaming server 400 If there is location and attribute information matching with, it may be detected as text or number matching with the corresponding image information, and the corresponding image information may be captioned with location and attribute information such as coordinates, addresses, names of nearby buildings, or major terrain names.

예를 들어, 3D 좌표를 가진 가상공간에서 자막(caption)으로 처리된 영역의 모델링 또는 속성을 가진 덱스트나 숫자 오브젝트(object)를 자막 오브젝트라 할 때, 현실공간에서 헬리캠(100)이 촬영한 실제 영상 정보의 측점 시점에서 바라본 자막 오브젝트가 있는 가상 공간의 화면을 실제 영상 정보와 겹쳐서(merge) 합성한 후 이를 모니터링 화면에 출력하거나 저장장치에 저장할 수 있다.For example, when the modeling of an area processed as a caption in a virtual space with 3D coordinates or a dext or numeric object having attributes is referred to as a caption object, the helicam 100 photographed in a real space. The screen of the virtual space with the caption object viewed from the point of view of the actual image information may be merged with the actual image information and then combined, and then output to a monitoring screen or stored in a storage device.

통합정보수신부(550)는 스트리밍 서버(400)를 통해 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 수신하여 출력한다.The integrated information receiving unit 550 receives and outputs the location information, image information, photographing angle, and photographing altitude information of the helicam 100 through the streaming server 400.

즉, 통합정보수신부(550)는 스트리밍 서버(400)를 통해 수신된 통합 정보를 별도의 디스플레이 단말로 출력하거나 저장장치에 저장할 수 있다.That is, the integrated information receiving unit 550 may output the integrated information received through the streaming server 400 to a separate display terminal or store it in a storage device.

GIS 서버(600)는 지도 기반의 지리정보 즉 공간적으로 분포하는 정보를 데이터베이스화화여 제공한다.The GIS server 600 provides map-based geographic information, that is, spatially distributed information, in a database.

여기서 GIS 서버(600)의 데이터베이스는 공간자료와 속성자료로 이루어져 있는데, 공간자료는 지형요소에 대한 유형, 위치, 크기, 다른 지형요소와의 공간적 위상관계 등이며, 속성자료는 지형요소의 속성에 대한 수학적 의미를 포함하는 정량적 자료와 지도명, 주기, 라벨 등 대상물 설명에 필한 정성적 자료가 있다.Here, the database of the GIS server 600 consists of spatial data and attribute data, and the spatial data are the type, location, size, and spatial topological relationship with other terrain elements, and the attribute data is the attribute of the terrain element. There are quantitative data including the mathematical meaning of Korea and qualitative data necessary for the description of the object such as map name, cycle, and label.

이와 같이 구성된 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템에서 위치 및 속성 정보를 자막으로 생성하는 방법을 도 1 및 도 2를 참조하여 설명하면 다음과 같다.A method of generating position and attribute information as captions in a system that generates position and attribute information as captions in a real-time captured image of a helicam according to an embodiment of the present invention configured as described above will be described with reference to FIGS. 1 and 2. Is the same as

먼저, 헬리캠(100)은 지상통제장치(300)의 조종 및 제어에 따라 비행하면서 그 GPS 수신기(110)가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송한다.First, the helicam 100, while flying according to the control and control of the ground control device 300, the GPS receiver 110 receives GPS information from an artificial satellite, extracts NMEA data, and the VRS server 200 of the National Geographic Information Institute. Transfer to.

그리고 헬리캠(100)의 위치측위부(120)가 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성한다.In addition, the location positioning unit 120 of the helicam 100 receives VRS correction data from the VRS server 200 of the National Geographic Information Institute and generates real-time location information.

이어서, 헬리캠(100)의 영상촬영부(130)가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고, 아울러 헬리캠(100)의 촬영각도측정부(150) 및 촬영고도측정부(160)가 영상촬영부(130)의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부(170)를 통해 지상통제장치(300)로 실시간 전송한다.Subsequently, the image capturing unit 130 of the helicam 100 photographs the subject in real time and converts it into an image signal, and the shooting angle measurement unit 150 and the shooting altitude measurement unit 160 of the helicam 100 The photographing angle and photographing altitude of the image capturing unit 130 are measured and transmitted to the ground control device 300 in real time through the acquisition information transmitting unit 170.

지상통제장치(300)는 취득정보송신부(170)로부터 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송한다.The ground control device 300 receives the location information, image information, shooting angle, and shooting altitude information of the helicam 100 from the acquisition information transmission unit 170 in real time, and the image processing device 500 through the streaming server 400 Transfer to.

이때, 영상처리장치(500)의 기준좌표식별부(510)는 스트리밍 서버(400)를 통해 수신받는 헬리캠(100)의 영상촬영부(130)에서 획득한 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별한다.At this time, the reference coordinate identification unit 510 of the image processing apparatus 500 is placed and stored in the image information area obtained by the image capture unit 130 of the helicam 100 received through the streaming server 400 in advance. The GPS coordinates of the reference point are detected and identified.

이어서, 영상처리장치(500)의 좌표추정부(520)는 스트리밍 서버(400)를 통해 수신받은 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 스트리밍 서버(400)를 통해 전송되는 영상촬영부(130)에서 획득한 영상 정보상의 대상 지점에 대한 특정 좌표를 추정한다.Subsequently, the coordinate estimation unit 520 of the image processing apparatus 500 includes location information, photographing angle and photographing altitude information of the helicam 100 received through the streaming server 400, and the GPS of the reference coordinate identification unit 510. Using the coordinate information, specific coordinates for the target point on the image information acquired by the image capturing unit 130 transmitted through the streaming server 400 are estimated.

이때, 좌표추정부(520)는 도 3에서와 같이 스트리밍 서버(400)를 통해 전송되는 영상촬영부(130)에서 획득한 영상 정보상의 중앙(중앙점)에 위치하는 대상 지점(뉴인빌딩)에 대해 추정한 좌표와, 미리 배치 및 저장된 지상기준점들의 GPS 좌표 정보 중 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보를 삼각측정법으로 지정 및 선택한 후 상호 비교하여 추정 좌표를 검증할 수 있다.At this time, the coordinate estimating unit 520 is at a target point (newin building) located at the center (central point) of the image information acquired by the image capturing unit 130 transmitted through the streaming server 400 as shown in FIG. 3. The estimated coordinates of the estimated coordinates and the GPS coordinates of the pre-arranged and stored ground reference points among the GPS coordinates information of the pre-arranged and stored ground reference points are designated and selected by triangulation, and then the estimated coordinates are verified I can.

아울러 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 영상촬영부(130)에서 획득하여 스트리밍 서버(400)를 통해 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 기준좌표식별부(510)의 GPS 좌표를 이용하여 변경 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이를 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 추정 좌표를 검증할 수 있다.In addition, when the location information, the shooting angle, and the shooting altitude information of the helicam 100 are changed, the image capture unit 130 obtains and estimates a target point located at the center of the image information transmitted through the streaming server 400. The coordinates are changed and calculated using the GPS coordinates of the reference coordinate identification unit 510, and when the estimated coordinates are continuously changed and calculated, the distance between the previous estimated coordinates and the current estimated coordinates is calculated, and then the distance between the previous estimated coordinates and the current estimated coordinates is calculated. The estimated coordinates may be verified by comparing the distance between the GPS coordinate information of the ground reference point previously placed and stored at the location and the GPS coordinate information of the ground reference point previously placed and stored at the nearest location to the current estimated coordinates.

이어서, 영상처리장치(500)의 지리정보추출부(530)는 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출한다.Subsequently, the geographic information extracting unit 530 of the image processing apparatus 500 extracts location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system.

이후, 영상처리장치(500)의 자막생성부(540)는 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 영상촬영부(130)에서 획득하여 스트리밍 서버(400)를 통해 전송되는 영상 정보에 자막으로 입혀서 합성한 후 모니터로 출력하거나 별도의 저장장치에 저장할 수 있다.Thereafter, the caption generation unit 540 of the image processing apparatus 500 acquires the location and attribute information extracted from the geographic information extraction unit 530 from the image capturing unit 130 and transmits the image through the streaming server 400. After captioning the information and synthesizing it, it can be output to a monitor or stored in a separate storage device.

이처럼 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템은, 헬리캠(100)의 실시간 촬영 영상상의 대상 지점에 대한 좌표를 추정하고, 이에 부합하는 위치 및 속성 정보를 자막으로 합성하여 출력하므로 촬영 영상 내의 대상 지점의 위치 및 속성 정보를 더욱 정확하고 신속하게 파악할 수 있다.As described above, the system for generating position and attribute information as captions in the real-time photographed image of the helicam according to an embodiment of the present invention estimates the coordinates of the target point on the real-time photographed image of the helicam 100, and the corresponding position And since the attribute information is synthesized and outputted as a caption, it is possible to more accurately and quickly grasp the location and attribute information of the target point in the captured image.

또한, 국토지리정보원의 VRS 서버(200)로부터 수신받는 VRS 보정 데이터를 활용하여 실시간 위치 정보를 생성하므로 헬리캠(100)의 촬영 위치에 대한 정확도를 높임은 물론 지상기준점의 GPS 좌표를 탐지하여 추정 좌표와의 상호 거리 및 위치를 검증하므로 촬영 영상 내의 정확한 위치 및 속성 정보를 획득할 수 있다.In addition, since real-time location information is generated by using VRS correction data received from the VRS server 200 of the National Geographic Information Institute, the accuracy of the shooting location of the helicam 100 is improved as well as the GPS coordinates of the ground reference point are detected and estimated. Since the mutual distance and position with the coordinates are verified, accurate position and attribute information in the captured image can be obtained.

이상에서 설명한 본 발명의 실시 예에 따른 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고, 아울러 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The operation by the method of generating position and property information as captions in the real-time photographed image of the helicam according to the embodiment of the present invention described above may be implemented at least partially as a computer program and recorded on a computer-readable recording medium. In addition, the recording medium in which a program for implementing the operation by the method is recorded and the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer is stored.

여기서 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CDROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. Examples of computer-readable recording media include ROM, RAM, CDROM, magnetic tapes, floppy disks, and optical data storage devices.

또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.In addition, the computer-readable recording medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored and executed in a distributed manner.

한편, 본 발명은 상술한 실시 예(embodiment) 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 예시되지 않은 여러 가지로 다양하게 변형하고 응용할 수 있음은 물론이고 각 구성요소의 치환 및 균등한 타 실시 예로 변경하여 폭넓게 적용할 수도 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백하다.On the other hand, the present invention is not limited by the above-described embodiment and the accompanying drawings, and can be variously modified and applied in various ways not illustrated within the scope not departing from the technical spirit of the present invention. It will be apparent to those of ordinary skill in the art that the substitution of components and the possibility of wide application by changing to other equivalent embodiments are possible.

그러므로 본 발명의 기술적 특징을 변형하고 응용하는 것에 관계된 내용은 본 발명의 기술사상 및 범위 내에 포함되는 것으로 해석하여야 할 것이다.Therefore, the contents related to modification and application of the technical features of the present invention should be interpreted as being included within the spirit and scope of the present invention.

100: 헬리캠
200: VRS 서버
300: 지상통제장치
400: 스트리밍 서버
500: 영상처리장치
600: GIS 서버
100: helicam
200: VRS server
300: ground control device
400: streaming server
500: image processing device
600: GIS server

Claims (4)

로터의 회전력을 가변적으로 이용해 비행하는 헬리캠(100)에 설치되고, 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송하는 GPS 수신기(110);
상기 헬리캠(100)에 설치되고 상기 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하는 위치측위부(120);
상기 헬리캠(100)에 설치되고 피사체를 실시간 항공 촬영하여 영상 신호로 변환하는 영상촬영부(130);
상기 헬리캠(100)의 비행 제어 및 상기 영상촬영부(130)의 촬영 각도를 조절하는 비행조종제어부(140);
상기 영상촬영부(130)의 촬영 각도를 측정하는 촬영각도측정부(150);
상기 헬리캠(100)에 설치되고 상기 영상촬영부(130)의 초점과 지표 간의 절대고도를 측정하는 촬영고도측정부(160);
상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 취득하여 실시간으로 전송하는 취득정보송신부(170);
상기 헬리캠(100)에 설치되고 암호 체계를 사용하여 지상통제장치(300)와의 통신을 수행하되, 패스워드의 변경 주기 및 변경 규칙에 대한 정보를 수신하여 저장하는 패스워드 변경정보부(181)와, 상기 헬리캠(100)의 통신 시스템에 대한 정보 및 기존 패스워드 정보를 관리하는 정보관리부(182)와, 패스워드의 변경 주기 및 변경 규칙, 기존 패스워드 정보에 기초하여 상기 헬리캠(100)의 통신 시스템에 대한 신규 패스워드 정보를 자동 생성하는 패스워드 변경부(183) 및 신규 패스워드 정보를 상기 헬리캠(100)의 통신 시스템 패스워드로 설정하는 패스워드 설정부(184)로 구성된 통신보안 모듈(180);
상기 취득정보송신부(170)로부터 상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 스트리밍 서버(400)로 전송하고, 상기 헬리캠(100)을 지상에서 원격 제어 및 조종하는 지상통제장치(300);
상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보를 바탕으로 필요한 정보를 분석 및 처리하는 영상처리장치(500)에 설치되고 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별하는 기준좌표식별부(510);
상기 영상처리장치(500)에 설치되고 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부(510)의 GPS 좌표를 이용하여 상기 영상촬영부(130)의 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하는 좌표추정부(520);
상기 영상처리장치(500)에 설치되고 상기 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하는 지리정보추출부(530);
상기 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보에 자막으로 입히는 자막생성부(540); 및
상기 영상처리장치(500)에 설치되고 상기 스트리밍 서버(400)를 통해 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 수신하여 출력하는 통합정보수신부(550);
를 포함하여 이루어지며,
상기 헬리캠(100)의 GPS 수신기(110)가 인공위성으로부터 GPS 정보를 수신하여 NMEA 데이터를 추출 및 국토지리정보원의 VRS 서버(200)로 전송하고,
상기 헬리캠(100)의 위치측위부(120)가 상기 국토지리정보원의 VRS 서버(200)로부터 VRS 보정 데이터를 수신받아 실시간 위치 정보를 생성하고,
상기 헬리캠(100)의 영상촬영부(130)가 피사체를 실시간 항공 촬영하여 영상 신호로 변환하고,
상기 헬리캠(100)의 촬영각도측정부(150) 및 촬영고도측정부(160)가 상기 영상촬영부(130)의 촬영 각도 및 촬영 고도를 측정하여 취득정보송신부(170)를 통해 상기 지상통제장치(300)로 실시간 전송하고,
상기 지상통제장치(300)가 상기 취득정보송신부(170)로부터 상기 헬리캠(100)의 위치 정보, 영상 정보, 촬영 각도 및 촬영 고도 정보를 실시간으로 수신하여 상기 스트리밍 서버(400)를 통해 영상처리장치(500)로 전송하고,
상기 영상처리장치(500)의 기준좌표식별부(510)가 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 영상 정보 영역 내에 미리 배치 및 저장된 지상기준점의 GPS 좌표를 탐지하여 식별하고,
상기 영상처리장치(500)의 좌표추정부(520)가 상기 스트리밍 서버(400)를 통해 수신받은 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보와 상기 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 상기 영상촬영부(130)에서 획득한 영상 정보상의 대상 지점에 대한 특정 좌표를 추정하고,
상기 영상처리장치(500)의 좌표추정부(520)가 상기 헬리캠(100)으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대해 추정한 좌표와, 그 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보를 상호 비교하여 상기 추정 좌표를 검증하되, 상기 헬리캠(100)의 위치 정보, 촬영 각도 및 촬영 고도 정보가 변경될 경우 상기 기준좌표식별부(510)의 GPS 좌표 정보를 이용하여 상기 헬리캠(100)으로부터 전송되는 영상 정보상의 중앙에 위치하는 대상 지점에 대한 추정 좌표를 변경하여 산출하고, 그 추정 좌표가 연속해서 변경 산출되는 경우 이전 추정 좌표와 현재 추정 좌표 간의 거리를 산출한 후, 이전 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보와 현재 추정 좌표와 가장 가까운 곳에 미리 배치 및 저장된 지상기준점의 GPS 좌표 정보 간의 거리와 비교하여 상기 추정 좌표를 검증하고,
상기 영상처리장치(500)의 지리정보추출부(530)가 상기 좌표추정부(520)의 추정 좌표에 해당하는 위치 및 속성 정보를 지리정보시스템의 GIS 서버(600)로부터 추출하며,
상기 영상처리장치(500)의 자막생성부(540)가 상기 지리정보추출부(530)로부터 추출된 위치 및 속성 정보를 상기 스트리밍 서버(400)를 통해 수신받는 상기 헬리캠(100)의 영상촬영부(130)에서 획득한 영상 정보상에 자막으로 입히는 것을 특징으로 하는, 헬리캠의 실시간 촬영 영상에 위치 및 속성 정보를 자막으로 생성하는 시스템.
A GPS receiver 110 installed on the helicam 100 that variably uses the rotational force of the rotor to fly, and extracts NMEA data by receiving GPS information from an artificial satellite and transmits it to the VRS server 200 of the National Geographic Information Institute;
A location positioning unit 120 installed on the helicam 100 and receiving VRS correction data from the VRS server 200 of the National Geographic Information Institute to generate real-time location information;
An image photographing unit 130 installed on the helicam 100 and converting a subject into an image signal by photographing a subject in real time;
A flight control control unit 140 for controlling a flight of the helicam 100 and a photographing angle of the image capturing unit 130;
A photographing angle measurement unit 150 for measuring a photographing angle of the image photographing unit 130;
A photographing altitude measuring unit 160 installed on the helicam 100 and measuring an absolute altitude between the focus of the image capturing unit 130 and an index;
An acquisition information transmission unit 170 for acquiring location information, image information, shooting angle, and shooting altitude information of the helicam 100 and transmitting it in real time;
A password change information unit 181 installed in the helicam 100 and performing communication with the ground control device 300 using an encryption system, but receiving and storing information on a password change cycle and change rule, and the Information on the communication system of the helicam 100 and the communication system of the helicam 100 based on the information management unit 182 that manages the information on the communication system of the helicam 100 and the existing password information, the password change cycle and change rules, and the existing password information. A communication security module 180 comprising a password changing unit 183 for automatically generating new password information and a password setting unit 184 for setting new password information as a communication system password of the helicam 100;
The location information, image information, photographing angle and photographing altitude information of the helicam 100 are received from the acquisition information transmitting unit 170 in real time and transmitted to the streaming server 400, and the helicam 100 is transmitted from the ground. A ground control device 300 for remote control and control;
The heli received through the streaming server 400 and installed in the image processing device 500 that analyzes and processes necessary information based on the image information of the helicam 100 received through the streaming server 400 A reference coordinate identification unit 510 for detecting and identifying GPS coordinates of a ground reference point previously arranged and stored in the image information area of the cam 100;
The image of the image capture unit 130 is installed in the image processing device 500 and uses the location information, the shooting angle, and the shooting altitude information of the helicam 100 and the GPS coordinates of the reference coordinate identification unit 510. A coordinate estimating unit 520 for estimating specific coordinates for a target point on the information;
A geographic information extracting unit 530 installed in the image processing apparatus 500 and extracting location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system;
A caption generating unit 540 for captioning the location and attribute information extracted from the geographic information extracting unit 530 on the image information of the helicam 100 received through the streaming server 400; And
An integrated information receiving unit 550 installed in the image processing apparatus 500 and receiving and outputting location information, image information, photographing angle and photographing altitude information of the helicam 100 through the streaming server 400;
It is made including,
The GPS receiver 110 of the helicam 100 receives GPS information from an artificial satellite, extracts NMEA data, and transmits it to the VRS server 200 of the National Geographic Information Institute,
The location positioning unit 120 of the helicam 100 receives VRS correction data from the VRS server 200 of the National Geographic Information Institute to generate real-time location information,
The image capturing unit 130 of the helicam 100 photographs a subject in real time and converts it into an image signal,
The photographing angle measurement unit 150 and the photographing height measurement unit 160 of the helicam 100 measure the photographing angle and photographing height of the image photographing unit 130, and control the ground through the acquisition information transmission unit 170. Real-time transmission to the device 300,
The ground control device 300 receives the location information, image information, shooting angle and shooting altitude information of the helicam 100 from the acquisition information transmission unit 170 in real time, and processes the image through the streaming server 400 Transfer to the device 500,
The reference coordinate identification unit 510 of the image processing device 500 detects and identifies the GPS coordinates of the ground reference point previously arranged and stored in the image information area of the helicam 100 received through the streaming server 400 and,
The coordinate estimation unit 520 of the image processing device 500 receives the location information, the shooting angle and the shooting altitude information of the helicam 100 received through the streaming server 400, and the reference coordinate identification unit 510 Estimating specific coordinates for a target point on the image information acquired by the image capturing unit 130 using GPS coordinate information of,
The coordinate estimation unit 520 of the image processing device 500 estimates the coordinates of the target point located at the center of the image information transmitted from the helicam 100, and pre-arranges the coordinates closest to the estimated coordinates, and The estimated coordinates are verified by comparing the stored GPS coordinate information of the ground reference point, but when the location information, the shooting angle, and the shooting altitude information of the helicam 100 are changed, the GPS coordinate information of the reference coordinate identification unit 510 If the estimated coordinates for the target point located at the center of the image information transmitted from the helicam 100 are changed and calculated, and the estimated coordinates are continuously changed and calculated, the distance between the previous estimated coordinates and the current estimated coordinates After calculating the estimated coordinates, the estimated coordinates are verified by comparing the distance between the GPS coordinate information of the ground reference point previously placed and stored in the nearest place to the previous estimated coordinates and the GPS coordinate information of the ground reference point previously placed and stored in the closest place to the current estimated coordinates and,
The geographic information extracting unit 530 of the image processing apparatus 500 extracts location and attribute information corresponding to the estimated coordinates of the coordinate estimating unit 520 from the GIS server 600 of the geographic information system,
The caption generation unit 540 of the image processing device 500 receives the location and attribute information extracted from the geographic information extraction unit 530 through the streaming server 400 to take an image of the helicam 100 A system for generating position and attribute information as a caption on a real-time photographed image of a helicam, characterized in that the caption is applied on the image information obtained by the unit 130.
삭제delete 삭제delete 삭제delete
KR1020210017185A 2021-02-08 2021-02-08 Caption adding system and method of helicam recording image with position information for filming site KR102243810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210017185A KR102243810B1 (en) 2021-02-08 2021-02-08 Caption adding system and method of helicam recording image with position information for filming site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210017185A KR102243810B1 (en) 2021-02-08 2021-02-08 Caption adding system and method of helicam recording image with position information for filming site

Publications (1)

Publication Number Publication Date
KR102243810B1 true KR102243810B1 (en) 2021-04-23

Family

ID=75738112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017185A KR102243810B1 (en) 2021-02-08 2021-02-08 Caption adding system and method of helicam recording image with position information for filming site

Country Status (1)

Country Link
KR (1) KR102243810B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102534829B1 (en) * 2022-12-13 2023-05-26 (주)로우코리아 An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same
KR20230077300A (en) * 2021-11-25 2023-06-01 이승호 Methods and systems for obtaining geographic coordinates
WO2024014614A1 (en) * 2022-07-13 2024-01-18 한국전자기술연구원 Image acquisition/pre-processing/transmission system and method based on unmanned aerial vehicle
CN118138699A (en) * 2023-12-04 2024-06-04 中国人民解放军92941部队 Image-text subtitle superposition method and device based on target recognition

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865500B1 (en) * 2017-02-14 2018-07-13 한국광기술원 Portable storage device capable of outputting image with subtitles and driving method thereof
JP6431186B2 (en) * 2015-03-31 2018-11-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle
KR101954748B1 (en) * 2018-08-29 2019-03-06 한화시스템 주식회사 System and method for extracting target coordinate
KR102065758B1 (en) * 2019-10-22 2020-01-13 주식회사 미래지중정보 Image processing system using drone
KR102085051B1 (en) 2018-04-30 2020-03-05 김장훈 Controlling system using drone
KR102130973B1 (en) 2018-04-30 2020-07-08 (주)테슬라시스템 Meta File Structure used when Inserting Augment Reality Information into Drone Moving Picture
KR102178383B1 (en) 2019-03-07 2020-11-12 (주)테슬라시스템 Playing Method of Drone Moving Picture with Augment Reality Additional Information based on LOD
KR102206007B1 (en) * 2020-05-08 2021-01-21 (주)스페이스 A digital map production system that updates the location information of ground water based on GPS

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6431186B2 (en) * 2015-03-31 2018-11-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle
KR101865500B1 (en) * 2017-02-14 2018-07-13 한국광기술원 Portable storage device capable of outputting image with subtitles and driving method thereof
KR102085051B1 (en) 2018-04-30 2020-03-05 김장훈 Controlling system using drone
KR102130973B1 (en) 2018-04-30 2020-07-08 (주)테슬라시스템 Meta File Structure used when Inserting Augment Reality Information into Drone Moving Picture
KR101954748B1 (en) * 2018-08-29 2019-03-06 한화시스템 주식회사 System and method for extracting target coordinate
KR102178383B1 (en) 2019-03-07 2020-11-12 (주)테슬라시스템 Playing Method of Drone Moving Picture with Augment Reality Additional Information based on LOD
KR102065758B1 (en) * 2019-10-22 2020-01-13 주식회사 미래지중정보 Image processing system using drone
KR102206007B1 (en) * 2020-05-08 2021-01-21 (주)스페이스 A digital map production system that updates the location information of ground water based on GPS

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230077300A (en) * 2021-11-25 2023-06-01 이승호 Methods and systems for obtaining geographic coordinates
KR102677091B1 (en) * 2021-11-25 2024-06-19 이승호 Methods and systems for obtaining geographic coordinates
WO2024014614A1 (en) * 2022-07-13 2024-01-18 한국전자기술연구원 Image acquisition/pre-processing/transmission system and method based on unmanned aerial vehicle
KR102534829B1 (en) * 2022-12-13 2023-05-26 (주)로우코리아 An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same
CN118138699A (en) * 2023-12-04 2024-06-04 中国人民解放军92941部队 Image-text subtitle superposition method and device based on target recognition

Similar Documents

Publication Publication Date Title
KR102243810B1 (en) Caption adding system and method of helicam recording image with position information for filming site
CN111316066B (en) Standby navigation system for unmanned aerial vehicle
JP6609833B2 (en) Method and system for controlling the flight of an unmanned aerial vehicle
EP3391164B1 (en) System and method for capturing, processing, retrieving and displaying images from an unmanned aerial vehicle
EP3397554B1 (en) System and method for utilization of multiple-camera network to capture static and/or motion scenes
CN104168455B (en) A kind of space base large scene camera system and method
JP6496323B2 (en) System and method for detecting and tracking movable objects
EP3570132B1 (en) System and method for data recording and analysis
WO2017173734A1 (en) Method and device for adjusting photographic angle and unmanned aerial vehicle
JP7251474B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system
Adams et al. Unmanned aerial vehicle data acquisition for damage assessment in hurricane events
JP6583840B1 (en) Inspection system
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
WO2021237618A1 (en) Capture assistance method, ground command platform, unmanned aerial vehicle, system, and storage medium
CN111796603A (en) Smoke inspection unmanned aerial vehicle system, inspection detection method and storage medium
US20210229810A1 (en) Information processing device, flight control method, and flight control system
US11869236B1 (en) Generating data for training vision-based algorithms to detect airborne objects
WO2020062024A1 (en) Distance measurement method and device based on unmanned aerial vehicle and unmanned aerial vehicle
Roca et al. Novel aerial 3D mapping system based on UAV platforms and 2D laser scanners
WO2021014752A1 (en) Information processing device, information processing method, and information processing program
CN110906922A (en) Unmanned aerial vehicle pose information determining method and device, storage medium and terminal
JP6730764B1 (en) Flight route display method and information processing apparatus
WO2021064982A1 (en) Information processing device and information processing method
WO2021124579A1 (en) Image capturing method of flight vehicle and information processing device
WO2021035746A1 (en) Image processing method and device, and movable platform

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant