KR20040015509A - Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network - Google Patents
Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network Download PDFInfo
- Publication number
- KR20040015509A KR20040015509A KR1020020047780A KR20020047780A KR20040015509A KR 20040015509 A KR20040015509 A KR 20040015509A KR 1020020047780 A KR1020020047780 A KR 1020020047780A KR 20020047780 A KR20020047780 A KR 20020047780A KR 20040015509 A KR20040015509 A KR 20040015509A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- video
- audio
- satellite
- stream
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/20—Adaptations for transmission via a GHz frequency band, e.g. via satellite
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B7/00—Radio transmission systems, i.e. using radiation field
- H04B7/14—Relay systems
- H04B7/15—Active relay systems
- H04B7/185—Space-based or airborne stations; Stations for satellite systems
- H04B7/1851—Systems using a satellite or space-based relay
- H04B7/18515—Transmission equipment in satellites or space-based relays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radio Relay Systems (AREA)
Abstract
Description
본 발명은 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법에 관한 것으로, 보다 상세하게는 항공기의 조종실 및 탑승실 내에서 발생되는 이벤트를 카메라 및 마이크로폰을 통해 캡쳐하여 위성 통신망을 통해 유관기관(예컨대, 관제탑, 위성 관리소, 통합 사령실 등)으로 송신하고, 송신된 영상 및 음성 데이터를 수신하여 항공기 조종실 및 탑승실의 현재 상황을 즉시 인지 및 모니터링 할 수 있는 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for transmitting / receiving video / audio data of an aircraft situation using a satellite communication network, and more particularly, to capture events generated in an aircraft's cockpit and a passenger compartment through a camera and a microphone, and to associate them through a satellite communication network. Images of aircraft conditions using satellite communications that can be sent to an organization (e.g., control tower, satellite control station, integrated command room, etc.) and receive the transmitted video and audio data to instantly recognize and monitor the current status of the aircraft cockpit and cabin. / Voice data transmission system and method.
항공기는 세계 어느 곳이나 신속하게 데려다주는 장점이 있는 반면, 하늘에서 움직이기 때문에 한번 사고가 발생되면 치명적이라는 단점이 있다. 항공기 추락사고와 같은 대형 참사의 특징은 사고를 일으킨 실체가 거의 소멸되어 좀처럼 사고 원인을 발견하기 어렵다는 점이다. 산산이 부서진 잔해 속에서 사고의 원인을 밝힐 수 있는 단서를 찾아내기란 결코 쉬운 일이 아니기 때문이다.Aircraft have the advantage of taking them anywhere in the world quickly, while moving in the sky has the disadvantage of being fatal once an accident occurs. A major catastrophe such as an aircraft crash is that the entity that caused the accident is almost extinguished, making it difficult to find the cause of the accident. It is never easy to find clues that can reveal the cause of an accident in shattered debris.
이러한 문제를 해결하기 위해 등장한 것이 바로 블랙박스이다. 블랙박스는 커다란 충격이나 화재 속에서도 유일하게 손상되지 않고 사고 직전의 항공기 상황을 알려줄 수 있는 유일한 열쇠이다. 따라서, 항공기 사고현장에서 가장 먼저 서둘러야 할 일은 인명구조작업과 블랙박스의 회수이다. 블랙박스는 추락시 가장 충격을 적게 받는 항공기 꼬리 밑부분에 대부분 설치되며, 항공기가 바다나 호수에 침수될 때와 같이 블랙박스의 위치를 파악할 수 없을 때를 대비하여 블랙박스 손잡이 측면에 주파수 발신장치가 설치되어 있고 주파수 탐지기를 동원하여 블랙박스의 위치를 탐색할 수 있다.The black box that emerged to solve this problem. The black box is the only key to telling the situation of the aircraft just before an accident, without being damaged in the event of a major shock or fire. Therefore, the first thing to hurry at an aircraft accident scene is to save lives and black boxes. The black box is mostly installed at the bottom of the tail of the aircraft that is least impacted by a crash, and the frequency transmitter is located on the handle of the black box in case the black box cannot be located, such as when the aircraft is submerged in the sea or lake. Is installed and the frequency detector can be mobilized to locate the black box.
블랙박스는 땅에 떨어지는 순간(6.5m초, 1m초=1/1000초) 자기 무게의 3400배를 감당하고, 1100℃에서 30분간 견디는 특수 재질로 이루어져 있고, 6000m 바다 속에서도 30일을 버티며 고유의 비상용 주파수(37.5kHz)를 발신하며, 자체 배터리 수명은 6년이다. 이러한 블랙박스를 해독함으로써 항공기 사고 원인을 판독할 수 있는 장점이 있지만, 블랙박스의 해독작업은 수개월이 소요된다는 단점이 있다. 또한, 블랙박스는 주로 음성만을 레코딩하기 때문에 정확한 사고 원인을 파악하는데 무리가 있으며, 블랙박스는 사후 처리를 주목적으로 하는 수동적인 수단이다. 따라서, 블랙박스와는 별도로 항공기의 기계적인 결함 및 항공기 조종실 및 탑승실의 현재 상황을 조속한 기간(바람직하게는 실시간)에 확인할 수 있는 능동적인 새로운 시스템의 도입이 필요하다.The black box is made of special materials that can handle 3400 times its own weight when it falls to the ground (6.5m sec, 1m sec = 1/1000 sec), endure 30 minutes at 1100 ℃, and endure 30 days in 6000m sea It emits an emergency frequency (37.5kHz) and its own battery life is six years. Decrypting such a black box has the advantage of being able to read the cause of the aircraft accident, but the disadvantage of the black box decryption operation takes several months. In addition, since the black box mainly records only the voice, it is difficult to determine the exact cause of the accident, and the black box is a passive means mainly for post processing. Therefore, apart from the black box, there is a need for an active new system that can identify the mechanical defects of the aircraft and the current situation of the aircraft cockpit and the cabin at an early stage (preferably in real time).
따라서, 본 발명은 상기한 바와 같은 종래의 제반 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 항공기 조종실 및 탑승실의 현재 상황을 영상 및 음성으로 데이터화하여 위성 통신망을 통해 유관기관으로 송신하고, 유관기관은영상 및 음성 데이터를 수신하여 항공기 조종실 및 탑승실의 현재 상황을 조속한 기간(바람직하게는 실시간)에 확인할 수 있는 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법을 제공하는 데 있다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, the object of the present invention is to transmit the current situation of the aircraft cockpit and the cabin as a video and audio data to the relevant authorities through the satellite communication network The related organization provides a video and audio data transmission / reception system and method using a satellite communication network that can receive video and audio data to confirm the current situation of the aircraft cockpit and the cabin at an early time (preferably in real time). There is.
본 발명의 다른 목적은 항공기 조종실 및 탑승실의 현재 상황을 조기에 파악하여 예기치 않은 항공기 사고 및 하이재킹 등과 같은 항공기 테러에 능동적으로 대처할 수 있는 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is a system and method for transmitting / receiving video / audio data of an aircraft situation using a satellite communication network that can proactively cope with aircraft terrorism such as unexpected aircraft accidents and hijacking by early grasping the current situation of the aircraft cockpit and the cabin. To provide.
도 1은 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 서비스도이고,1 is a service diagram of a video / audio data transmission and reception system of the aircraft situation according to the present invention,
도 2는 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 내부 구성을 보여주는 블록도이고,2 is a block diagram showing the internal configuration of a video / audio data transmission and reception system of the aircraft situation according to the present invention,
도 3은 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 전체적인 동작을 설명하는 흐름도이다.Figure 3 is a flow chart illustrating the overall operation of the video / audio data transmission and reception system of the aircraft situation according to the present invention.
♣ 도면의 주요 부분에 대한 부호의 설명 ♣♣ Explanation of symbols for the main parts of the drawing ♣
100: 항공기110: 데이터 압축부100: aircraft 110: data compression unit
111: 제1 A/D 변환부112: 제2 A/D 변환부111: first A / D converter 112: second A / D converter
113: 비디오 인코딩부114: 오디오 인코딩부113: video encoding unit 114: audio encoding unit
115: 멀티플랙서120: 데이터 송신부115: multiplexer 120: data transmission unit
200: 통신위성300: 위성 안테나200: communication satellite 300: satellite antenna
310: 데이터 수신부400: 데이터 처리 서버310: data receiving unit 400: data processing server
410: 디멀티플랙서420: 비디오 디코딩부410: demultiplexer 420: video decoding unit
430: 오디오 디코딩부440: 데이터 처리부430: audio decoding unit 440: data processing unit
450: 인터페이스부500: D/B450: interface unit 500: D / B
600: 외부기기600: external device
이와 같은 목적을 달성하기 위한 본 발명은 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 방법에 있어서, 항공기 조종실 및 탑승실의 소정 위치에 장착된 카메라 및 마이크로폰으로부터 수집된 영상 및 음성 데이터를 디지털 변환하고, 변환된 디지털 데이터를 일정한 포맷으로 디코딩하여 비디오 및 오디오 스트림 데이터를 생성하는 단계와; 디코딩된 비디오 및 오디오 스트림 데이터를 압축 및 다중화하는 단계와; 다중화된 비디오 및 오디오 스트림 데이터에 부가정보를 추가하여 특정 대역의 무선 주파수로 변조한 후 송신 안테나를 통해 통신위성으로 송신하는 단계와; 송신된 무선 주파수를 수신하여 증폭 변환하고, 통신위성을 통해 특정 주파수 대역으로 위성 전파를 지상으로 중계하는 단계와; 통신위성으로부터 전송되는 위성 전파를 위성 안테나를 통해 수신하고, 수신된 위성 전파를 복조기를 통해 복조한 후 채널 디코더를 통해 트랜스포트 스트림 패킷 형태의 신호열을 출력하는 단계와; 신호열에 대한 비트 스트림을 추출하여 비디오 데이터와 오디오 데이터로 분리한 후 디코딩 하는 단계; 및 디코딩된 비디오 및 오디오 데이터를 아날로그 변환하여 모니터 및 스피커를 통해 영상 및 음성으로 출력하고, 디코딩된 비디오 및 오디오 데이터를 저장하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a method for transmitting / receiving video / audio data in an aircraft situation using a satellite communication network, and digitally converting video and audio data collected from cameras and microphones mounted at predetermined positions in an aircraft cockpit and a passenger compartment. Decoding the converted digital data into a predetermined format to generate video and audio stream data; Compressing and multiplexing the decoded video and audio stream data; Adding additional information to the multiplexed video and audio stream data, modulating the radio frequency in a specific band, and transmitting the data to a communication satellite through a transmission antenna; Receiving and amplifying and transmitting the transmitted radio frequency, and relaying satellite radio waves to the ground through a communication satellite in a specific frequency band; Receiving satellite radio waves transmitted from a communication satellite through a satellite antenna, demodulating the received satellite radio waves through a demodulator and outputting a signal stream in the form of a transport stream packet through a channel decoder; Extracting a bit stream for the signal sequence, separating the video stream into video data and audio data, and then decoding the bit stream; And converting the decoded video and audio data into an image and audio through a monitor and a speaker, and storing the decoded video and audio data.
또한, 본 발명은 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템에 있어서, 항공기 조종실 및 탑승실의 소정 위치에 장착되어 항공기 조종실 및 탑승실 내부를 촬영하는 다수개의 카메라와; 항공기 조종실 및 탑승실의 소정 위치에 장착되어 항공기 조종실 및 탑승실 내부에서 발생되는 각종 소리를 캡쳐하는 다수개의 마이크로폰과; 카메라에 연결되어 있으며, 카메라에서 캡쳐된 영상 데이터를 디지털 데이터로 변환하고, 변환된 디지털 데이터를 일정한 포맷으로 디코딩하여 비디오 스트림 데이터를 생성하는 제1 A/D 변환 및 디코딩부와; 마이크로폰에 연결되어 있으며, 마이크로폰에서 캡쳐된 음성 데이터를 디지털 데이터로 변환하고, 변환된 디지털 데이터를 일정한 포맷으로 디코딩하여 오디오 스트림 데이터를 생성하는 제2 A/D 변환 및 디코딩부와; 제1 A/D 변환 및 디코딩부에 연결되어 있으며, 제1 A/D 변환 및 디코딩부에서 디코딩된 비디오 스트림 데이터를 압축하는 비디오 인코딩부와; 제2 A/D 변환 및 디코딩부에 연결되어 있으며, 제2 A/D 변환 및 디코딩부에서 디코딩된 오디오 스트림 데이터를 압축하는 오디오 인코딩부와; 비디오 인코딩부 및 오디오 인코딩부에 연결되어 있으며, 비디오 인코딩부 및 오디오 인코딩부로부터 인가되는 압축된 비디오 및 오디오 스트림 데이터를 다중화하는 멀티플랙서와; 멀티플랙서에 연결되어 있으며, 멀티플랙서로부터 인가되는 다중화된 스트림 데이터에 부가정보를 추가하여 무선 주파수로 변조한 후 지정된 경로로 송신하는 데이터 송신부와; 데이터 송신부와 무선으로 연결되어 있으며, 데이터 송신부에서 송신된 무선 주파수를 수신하여 소정 주파수 대역으로 증폭 변환한 위성 전파를 지상으로 중계하는 통신위성과; 통신위성과 무선으로 연결되어 있으며, 통신위성으로부터 전송되는 위성 전파를 위성 안테나를 통해 수신하고, 수신된 위성 전파를 복조기를 통해 복조한 후 채널 디코더를 통해 트랜스포트 스트림 패킷 형태의 신호열을 출력하는 데이터 수신부와; 데이터 수신부에 연결되어 있으며, 데이터 수신부로부터 인가되는 신호열에 대한 비트 스트림을 추출하고, 인가된 패킷의 ID 번호를 추출 및 분석하여 신호열을 비디오 데이터와 오디오 데이터로 분리하는 디멀티플랙서와; 디멀티플랙서에 연결되어 있으며, 디멀티플랙서로부터 인가되는 비디오 데이터를 압축 해제하여 원래의 비디오 데이터로 복원하는 비디오 디코딩부와; 디멀티플랙서에 연결되어 있으며, 디멀티플랙서로부터 인가되는 오디오 데이터를 압축 해제하여 원래의 오디오 데이터로 복원하는 오디오 디코딩부; 및 비디오 디코딩부 및 오디오 디코딩부에 연결되어 있으며, 비디오 디코딩부 및 오디오 디코딩부로부터 인가되는 복원된 비디오 및 오디오 데이터를 아날로그 신호로 변환하여 모니터 및 스피커를 통해 영상 및 음성을 출력하고, 복원된 비디오 및 오디오 데이터를 데이터베이스에 저장하고, 외부 요청시 비디오 및 오디오 데이터를 추출하여 전송하도록 제어하는 데이터 처리부를 포함하는 것을 특징으로 한다.In another aspect, the present invention provides a video / audio data transmission and reception system of the aircraft situation using a satellite communication network, a plurality of cameras are mounted at a predetermined position of the aircraft cockpit and the boarding room to photograph the interior of the aircraft cockpit and the cabin; A plurality of microphones mounted at predetermined positions of the aircraft cockpit and the cabin to capture various sounds generated inside the aircraft cockpit and the cabin; A first A / D conversion and decoding unit connected to the camera, converting the image data captured by the camera into digital data, and decoding the converted digital data into a predetermined format to generate video stream data; A second A / D conversion and decoding unit connected to the microphone and converting the voice data captured by the microphone into digital data and decoding the converted digital data into a predetermined format to generate audio stream data; A video encoding unit connected to the first A / D conversion and decoding unit and compressing the video stream data decoded by the first A / D conversion and decoding unit; An audio encoding unit coupled to the second A / D conversion and decoding unit, for compressing audio stream data decoded by the second A / D conversion and decoding unit; A multiplexer connected to the video encoding unit and the audio encoding unit and multiplexing compressed video and audio stream data applied from the video encoding unit and the audio encoding unit; A data transmitter connected to the multiplexer and configured to add additional information to the multiplexed stream data applied from the multiplexer, modulate it to a radio frequency, and transmit the modulated signal to a designated path; A communication satellite connected wirelessly to the data transmitter, for relaying the radio wave transmitted from the data transmitter to the ground by amplifying and converting satellite radio waves into a predetermined frequency band; It is wirelessly connected to the communication satellite and receives the satellite radio wave transmitted from the communication satellite through the satellite antenna, demodulates the received satellite radio wave through the demodulator and outputs the signal stream in the form of transport stream packet through the channel decoder. A receiver; A demultiplexer coupled to the data receiver, for extracting a bit stream for the signal sequence applied from the data receiver, for extracting and analyzing the ID number of the applied packet to separate the signal sequence into video data and audio data; A video decoding unit connected to the demultiplexer and decompressing video data applied from the demultiplexer to restore original video data; An audio decoding unit connected to the demultiplexer and decompressing audio data applied from the demultiplexer to restore original audio data; And a video decoding unit and an audio decoding unit, converting the restored video and audio data applied from the video decoding unit and the audio decoding unit into analog signals, and outputting the image and audio through the monitor and the speaker. And a data processing unit for storing audio data in a database and controlling to extract and transmit video and audio data when an external request is made.
이하, 본 발명에 따른 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법에 대한 바람직한 실시예를 첨부된 도면에 의거하여 상세하게 설명한다.Hereinafter, a preferred embodiment of a system and method for transmitting / receiving video / audio data in an aircraft situation using a satellite communication network according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 서비스도로서, 본 항공기 상황의 영상/음성 데이터 송수신 시스템은 항공기(100), 통신위성(200), 위성 안테나(300), 데이터 처리 서버(400) 및 데이터베이스(DB)(500)를 포함하여 구성되어 있다.1 is a service diagram of a video / audio data transmission and reception system of the aircraft situation according to the present invention, the video / audio data transmission and reception system of the aircraft situation is the aircraft 100, communication satellite 200, satellite antenna 300, data It is configured to include a processing server 400 and a database (DB) 500.
항공기(100)의 조종실 및 탑승실에는 카메라(예컨대, CCTV 카메라, CCD 카메라, PC 카메라 및 웹 카메라 등)와 마이크로폰을 소정 위치에 설치하고 카메라 및 마이크로폰에서 수집된 영상 및 음성 데이터를 통신위성(200)으로 전송한다. 항공기(100)와 통신위성(200)간의 데이터 통신은 이리듐(Iridium) 서비스를 이용한 위성 통신망을 이용할 수 있다. 항공기(100)와 통신위성(200)의 데이터 통신망에는 3개의 위성으로 전세계로 데이터를 송수신하는 인마르셋(INMARSAT)을 이용한 위성 통신망과 66개의 위성으로 전세계로 데이터를 송수신하는 이리듐 서비스를 이용한 위성 통신망 등이 있으며, 인마르셋 위성 통신망 서비스는 64Kbps의 처리 속도를 지원하지만 사용료가 고가인 단점이 있고, 이리듐 위성 통신망 서비스는 2.4∼9.6Kbps의 처리 속도를 지원하며 인마르셋 위성 통신망 서비스보다 저렴하다는 장점이 있다. 따라서, 본 발명에서는 처리 속도가 다소 늦더라도 사용료가 저렴한 이리듐 위성 통신망을 사용하는 것이 바람직하다. 그렇지만, 처리 속도를 주목적으로 데이터 통신에는 인마셋 위성 통신망을 이용할 수 있음은 물론이다.Cameras (e.g., CCTV cameras, CCD cameras, PC cameras, web cameras, etc.) and microphones are installed in the cockpit and the cabin of the aircraft 100 at predetermined positions, and video and audio data collected from the cameras and microphones are communicated with the satellites. ). Data communication between the aircraft 100 and the communication satellite 200 may use a satellite communication network using an iridium service. The data communication network of the aircraft 100 and the communication satellite 200 includes a satellite communication network using INMARSAT, which transmits and receives data to three satellites, and a satellite communication network using iridium service, which transmits and receives data to and from 66 satellites. Inmarset satellite network service supports 64Kbps processing speed, but the fee is expensive.Iridium satellite network service supports 2.4 ~ 9.6Kbps processing speed and is cheaper than Inmarset satellite network service. have. Therefore, in the present invention, it is preferable to use an iridium satellite communication network which is inexpensive even though the processing speed is somewhat slow. However, it is a matter of course that an inset satellite communication network can be used for data communication mainly for processing speed.
통신위성(200)은 항공기(100)와 무선으로 연결되어 있으며, 지구 상공의 일정 궤도에서 지구 주위를 회전하면서 항공기(100)로부터 전송되는 영상 및 음성 데이터를 수신하여 그 신호를 증폭 변환한 후 지상으로 재전송하는 전파 중계소 역할을 수행한다. 통신위성(200)은 국제통신위성기구에서 운영하는 대륙간 통신 중계용의 인텔셋(INTELSAT) 통신위성과 국제해사위성통신기구에서 선박이나 항공기의 통신 및 안전 서비스를 위한 인마르셋, 과거에 러시아를 중심으로 동유럽 국가들로 구성된 인터스푸트니크(INTERSPUTNIK)가 대표적 국제 통신위성이다. 대륙간의 통신중계보다 특정지역에 통신 서비스를 하는 지역통신위성이 현재 급속히 발전되고 있으며 1995년 8월 5일 발사된 한국의 무궁화위성(KOREASAT:1996년 3월 18일부터 위성 서비스 실시)도 이에 속한다.The communication satellite 200 is wirelessly connected to the aircraft 100, and receives the video and audio data transmitted from the aircraft 100 while rotating around the earth in a predetermined orbit above the earth and amplifies and converts the signal into the ground. It acts as a head-end for retransmission. The communication satellite 200 is an INTELSAT communication satellite for intercontinental communication relay operated by the International Telecommunications Satellite Organization and an inmarset for the communication and safety services of ships or aircrafts in the International Maritime Satellite Communication Organization. INTERSPUTNIK, composed of Eastern European countries, is a representative international communications satellite. Regional telecommunications satellites, which provide telecommunication services to specific regions rather than inter-continental telecommunications, are currently developing rapidly. Korea's Mugunghwa satellite, launched on August 5, 1995 (KOREASAT: satellite service from March 18, 1996) is also included. .
위성 안테나(300)는 통신위성(200)으로부터 증폭 변환된 위성 전파를 수신하여 데이터 처리 서버(400)로 인가하는 역할을 수행한다. 위성 안테나(300)에서 데이터 처리 서버(400)로의 데이터 전송은 데이터 수신부(후술하는 도 2의 310)가 담당한다.The satellite antenna 300 receives the amplified and converted satellite radio wave from the communication satellite 200 and applies it to the data processing server 400. Data transmission from the satellite antenna 300 to the data processing server 400 is in charge of a data receiver (310 of FIG. 2 to be described later).
데이터 처리 서버(400)는 위성 안테나(300)에 연결되어 있으며, 위성 안테나(300)에서 수신되어 복조된 데이터를 영상 및 음성 데이터로 분리하고, 각각의 영상 및 음성 데이터를 디코딩하여 모니터 및 스피커를 통해 해당 데이터를 복원하고, 복원된 데이터를 데이터베이스(DB)에 저장하도록 관리한다. 따라서, 항공기 조종실 및 탑승실에서 캡쳐한 영상 및 음성 데이터를 조속한 기간 내에 지상에서 확인할 수 있다. 또한, 데이터 처리 서버(400)에는 수신된 영상 및 음성 데이터를 보다 신속하고 정확하게 복구하기 위해 3D 시뮬레이터 및 FDR(Flight Data Recorder) 분석기 등이 연결되어 다양한 사용자 인터페이스 기능을 제공할 수도 있다.The data processing server 400 is connected to the satellite antenna 300, and separates the demodulated data received from the satellite antenna 300 into video and audio data, and decodes the video and audio data to monitor and speaker. It restores the data and stores the restored data in the database. Therefore, the video and audio data captured in the aircraft cockpit and the cabin can be checked on the ground within a fast time period. In addition, the data processing server 400 may be connected to the 3D simulator and Flight Data Recorder (FDR) analyzer to provide a variety of user interface functions to more quickly and accurately recover the received video and audio data.
도 2는 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 내부 구성을 보여주는 블록도로서, 항공기(100) 내에는 카메라, 마이크로폰, 데이터 압축부(110), 데이터 송신부(120)가 탑재되고, 데이터 압축부(110)에는 제1 및 제2 A/D 변환 및 디코딩부(111, 112), 비디오 인코딩부(113), 오디오 인코딩부(114) 및 멀티플랙서(115)가 포함된다. 또한, 데이터 처리 서버(400)에는 디멀티플랙서(410), 비디오 디코딩부(420), 오디오 디코딩부(430), 데이터 처리부(440) 및 인터페이스부(450)가 포함된다. 또한, 데이터 처리 서버(400)에는 외부기기(예컨대, 3D 시뮬레이터 및 FDR 분석기 등)가 인터페이스부(450)를 통해 연결되어 있다.2 is a block diagram showing the internal configuration of the video / audio data transmission and reception system of the aircraft situation according to the present invention, the aircraft 100 is equipped with a camera, a microphone, a data compression unit 110, a data transmitter 120 The data compression unit 110 includes first and second A / D conversion and decoding units 111 and 112, a video encoding unit 113, an audio encoding unit 114, and a multiplexer 115. In addition, the data processing server 400 includes a demultiplexer 410, a video decoding unit 420, an audio decoding unit 430, a data processing unit 440, and an interface unit 450. In addition, an external device (eg, a 3D simulator, an FDR analyzer, etc.) is connected to the data processing server 400 through an interface unit 450.
카메라는 항공기 조종실 및 탑승실 내부의 현재 상황을 캡쳐하는 것으로, 조종실 및 탑승실 내부를 여러 각도에서 관찰할 수 있도록 다수개의 카메라를 소정 위치에 장착하여 여러 채널에서 영상 데이터를 캡쳐한다. 카메라는 CCTV 카메라, CCD 카메라, PC 카메라 및 웹 카메라 등 중에서 어느 것을 사용하여도 무방하지만, 본 발명에서는 CCTV 카메라를 사용한다. 예컨대, 조종실 및 탑승실의 전방, 후방 및 양측방의 영상 데이터가 서로 다른 채널을 통해 캡쳐되도록 구현할 수 있다.The camera captures the current situation in the cockpit of the aircraft and the cabin, and captures image data from various channels by mounting a plurality of cameras in predetermined positions so that the interior of the cockpit and the cabin can be viewed from various angles. The camera may be any one of a CCTV camera, a CCD camera, a PC camera, and a web camera, but in the present invention, a CCTV camera is used. For example, the image data of the front, rear and both sides of the cockpit and the cabin can be implemented to be captured through different channels.
마이크로폰은 항공기 조종실 및 탑승실 내부에서 발생되는 음성을 캡쳐하는 것으로, 조종실 및 탑승실 내부의 모든 소리를 캡쳐하기 위해 다수개의 마이크로폰을 소정 위치에 장착하여 여러 채널에서 음성 데이터를 캡쳐한다. 예컨대, 항공기 조종실 및 탑승실에서 발생하는 기장, 부기장, 항법사(기관사), 승객의 음성 및 조종실 및 탑승실 내의 소음이 서로 다른 채널을 통해 캡쳐되도록 구현할 수 있다.The microphone captures voice generated inside the aircraft cockpit and the cabin, and captures voice data on multiple channels by mounting a plurality of microphones in predetermined positions to capture all sounds inside the cockpit and the cabin. For example, the voices of the captain, the captain, the navigator (engineer), the passenger, and the noises in the cockpit and the cabin that occur in the aircraft cockpit and the cabin may be implemented to be captured through different channels.
제1 A/D 변환 및 디코딩부(111)는 카메라에 연결되어 있으며, 카메라에서 캡쳐된 영상 데이터를 디지털 데이터로 변환하고, 변환된 디지털 데이터를 일정한 포맷(예컨대, YUV 포맷)으로 디코딩하여 비디오 스트림 데이터를 생성하는 역할을 수행한다. 또한, 제2 A/D 변환 및 디코딩부(112)는 마이크로폰에 연결되어 있으며, 마이크로폰에서 캡쳐된 음성 데이터를 디지털 데이터로 변환하고, 변환된 디지털 데이터를 일정한 포맷(예컨대, WAV 포맷)으로 디코딩하여 오디오 스트림 데이터를 생성하는 역할을 수행한다.The first A / D conversion and decoding unit 111 is connected to a camera, converts the image data captured by the camera into digital data, and decodes the converted digital data into a predetermined format (eg, YUV format) to generate a video stream. It is responsible for generating data. In addition, the second A / D conversion and decoding unit 112 is connected to a microphone, converts the voice data captured by the microphone into digital data, and decodes the converted digital data into a predetermined format (for example, WAV format). It is responsible for generating audio stream data.
비디오 인코딩부(113)는 제1 A/D 변환 및 디코딩부(111)에 연결되어 있으며, 제1 A/D 변환 및 디코딩부(111)에서 디코딩된 비디오 스트림 데이터를 용이하게 전송하도록 압축하는 기능을 수행한다. 또한, 오디오 인코딩부(114)는 제2 A/D 변환 및 디코딩부(112)에 연결되어 있으며, 제2 A/D 변환 및 디코딩부(112)에서 디코딩된 오디오 스트림 데이터를 용이하게 전송하도록 압축하는 기능을 수행한다. 캡쳐된 고용량의 비디오 및 오디오 데이터를 효율적으로 전송하기 위해서는 압축기술이 필수적이며, 통상 엠펙(MPEG) 방식의 압축기술을 사용한다. 이러한 압축기술을 이용하면 45Mbps의 정보를 1.5Mbps 정도로 압축할 수 있다. 엠펙 방식의 압축기술에는 CD 롬의 축적 미디오를 적용 대상으로 하는 MPEG-1, 픽셀이나 화면 구성에 따라 압축률을 다르게 설정하는 MPEG-2, 전화선이나 인터넷망을 이용하여 실시간으로 데이터를 전송할 수 있도록 데이터의 압축률을 높이면서 임의의 통신망의 데이터를 원활하게 전송할 수 있는 가변 전송률을 지원하는 MPEG-4 등이 있지만, 본 발명에서는 MPEG-4 방식의 압축기술을 사용하는 것이 바람직하다. 부가적으로, 오디오 데이터는 돌비 AC-3 방식을 이용하여 압축할 수도 있다.The video encoding unit 113 is connected to the first A / D conversion and decoding unit 111 and compresses the video stream data decoded by the first A / D conversion and decoding unit 111 to easily transmit the data. Do this. In addition, the audio encoding unit 114 is connected to the second A / D conversion and decoding unit 112 and compressed to easily transmit the audio stream data decoded by the second A / D conversion and decoding unit 112. It performs the function. In order to efficiently transmit captured high-capacity video and audio data, a compression technique is essential, and a compression technique of MPEG is generally used. Using this compression technology, 45Mbps of information can be compressed to 1.5Mbps. MPEG-type compression technology includes MPEG-1, which applies CD-ROM accumulated media, MPEG-2, which sets compression ratio differently according to pixel or screen configuration, and enables data to be transmitted in real time using a telephone line or an internet network. Although there are MPEG-4 and the like, which support a variable bit rate for smoothly transmitting data of an arbitrary communication network while increasing the compression rate, the MPEG-4 type compression technique is preferably used in the present invention. In addition, the audio data may be compressed using the Dolby AC-3 scheme.
멀티플랙서(115)는 비디오 인코딩부(113) 및 오디오 인코딩부(114)에 연결되어 있으며, 비디오 인코딩부(113) 및 오디오 인코딩부(114)로부터 인가되는 비디오 및 오디오 스트림 데이터를 다중화하는 역할을 수행한다. 멀티플랙서(115)는 인가되는 비디오 및 오디오 스트림 데이터를 패킷으로 나누고, 각 패킷 또는 패킷유형을 고유하게 규정하고, 비디오 및 오디오 스트림 데이터를 하나의 데이터 스트림으로 다중화하는 방법 등을 규정한다. 부가적으로, 멀티플랙서(115)는 비디오 및 오디오 관련 프로그램 서비스를 지칭하는 보조 데이터를 비디오 및 오디오 스트림 데이터에 추가하여 다중화할 수 있다. 보조 데이터에는 제어 데이터, 제한수신 제어 데이터 및 클로즈드 캡션(closed caption)과 같은 비디오/오디오 프로그램 서비스 관련 데이터 등이 포함된다. 멀티플랙서(115)에 의해 다중화된 비디오 및 오디오 스트림 데이터는 TCP/IP 또는 UDP/IP 등의 통신 프로토콜 방식에 따라 전송된다.The multiplexer 115 is connected to the video encoding unit 113 and the audio encoding unit 114, and serves to multiplex the video and audio stream data applied from the video encoding unit 113 and the audio encoding unit 114. Do this. The multiplexer 115 divides the applied video and audio stream data into packets, uniquely defines each packet or packet type, defines a method of multiplexing the video and audio stream data into one data stream, and the like. In addition, the multiplexer 115 may multiplex by adding auxiliary data indicating video and audio related program services to the video and audio stream data. The auxiliary data includes control data, CA control data, and data related to video / audio program services such as closed captions. The video and audio stream data multiplexed by the multiplexer 115 is transmitted according to a communication protocol scheme such as TCP / IP or UDP / IP.
데이터 송신부(120)는 멀티플랙서(115)에 연결되어 있으며, 멀티플랙서(115)로부터 인가되는 다중화된 스트림 데이터에 부가정보를 추가하여 무선 주파수로 변조한 후 통신위성으로 송신하는 역할을 수행한다. 데이터 송신부(120)에는 전송 과정 중의 손상으로 인한 소실된 데이터를 복원하는데 사용되는 부가정보를 다중화된 스트림 데이터에 부가하는 채널 부호기, 부가정보가 추가된 스트림 데이터를 소정 주파수 대역의 무선 주파수로 변조하는 변조기 및 변조된 무선 주파수를 통신위성으로 송신하는 송신 안테나가 포함되어 있다.The data transmitter 120 is connected to the multiplexer 115 and modulates the radio frequency by adding additional information to the multiplexed stream data applied from the multiplexer 115 and transmits it to a communication satellite. do. The data transmitter 120 modulates a channel encoder for adding additional information used to restore data lost due to damage during transmission to the multiplexed stream data, and modulates the stream data with the additional information added to a radio frequency of a predetermined frequency band. A modulator and a transmit antenna for transmitting the modulated radio frequency to a communication satellite are included.
통신위성(200)은 데이터 송신부(120)와 무선으로 연결되어 있으며, 데이터송신부(120)에서 송신된 무선 주파수를 수신하여 소정 주파수 대역으로 증폭 변환한 위성 전파를 지상으로 중계하는 역할을 수행한다. 통신위성(200)에는 기본적으로 중계기와 처리기가 포함되어 있으며, 중계기는 데이터 송신부(120)에서 송신된 무선 주파수를 수신하여 일정 대역(예컨대, 1544.5MHz)의 위성 전파로 변환한 후 자동출력 조절장치(ALC: Automatic Level Control)를 통해 지상에서 요구한 일정한 출력으로 조정하여 송신하는 역할을 수행하고, 처리기는 무선 주파수 수신시간, 위성 전파 송신시간 및 각종 메시지를 포함한 출력 프레임을 생성하여 전송하고, 생성된 출력 프레임을 기억장치에 저장하는 역할을 수행한다. 출력 프레임을 기억장치에 저장하는 이유는 위성 전파의 송신 도중에 데이터 송신부(120)로부터 다른 무선 주파수가 수신될 경우, 위성 전파의 송신을 일시 중단하고 해당 무선 주파수를 먼저 수신한 후에 모든 데이터를 처리할 수 있도록 하거나 광역모드 동작을 수행하기 위함이다.The communication satellite 200 is wirelessly connected to the data transmitter 120 and performs a role of relaying satellite radio waves amplified and converted to a predetermined frequency band by receiving the radio frequency transmitted from the data transmitter 120. The communication satellite 200 basically includes a repeater and a processor, and the repeater receives the radio frequency transmitted from the data transmitter 120 and converts it into satellite radio waves of a predetermined band (for example, 1544.5 MHz) and then adjusts the automatic power output. Through automatic level control (ALC), it adjusts and transmits a constant output required from the ground, and the processor generates and transmits an output frame including radio frequency reception time, satellite radio transmission time, and various messages. It stores the output frame in the storage device. The reason for storing the output frame in the storage device is that if another radio frequency is received from the data transmitter 120 during the transmission of the satellite radio waves, the transmission of the radio waves is suspended and the radio frequency is first received before processing all the data. To do so or to perform wide-area operations.
데이터 수신부(310)는 통신위성(200)과 무선으로 연결되어 있으며, 통신위성(200)으로부터 전송되는 위성 전파를 위성 안테나를 통해 수신하고, 수신된 위성 전파를 복조기를 통해 복조한 후 채널 디코더를 통해 트랜스포트 스트림 패킷(transprot stream packet) 형태의 신호열을 출력하는 역할을 수행한다. 여기에서, 신호열은 패킷으로 구성되어 있으며, 패킷의 시작부분에는 패킷 ID 번호가 기록된 헤더가 있다. 패킷 ID 번호는 현재 수신된 패킷의 종류를 식별하기 위한 것으로, 수신된 패킷의 ID 번호에 따라 수신된 패킷이 비디오 패킷인지 오디오 패킷인지를 식별할 수 있다. 또한, 패킷 ID 번호는 시간 다중화(time-multiplex)된 신호를 역다중화하는 정보로 이용될 수 있다.The data receiver 310 is wirelessly connected to the communication satellite 200, receives the satellite radio wave transmitted from the communication satellite 200 through a satellite antenna, demodulates the received satellite radio wave through a demodulator, and then performs a channel decoder. It outputs a signal stream in the form of a transport stream packet. Here, the signal sequence is composed of packets, and at the beginning of the packet is a header in which a packet ID number is recorded. The packet ID number is for identifying the type of the currently received packet and may identify whether the received packet is a video packet or an audio packet according to the ID number of the received packet. In addition, the packet ID number may be used as information for demultiplexing a time-multiplexed signal.
디멀티플랙서(410)는 데이터 수신부(310)에 연결되어 있으며, 데이터 수신부(310)에서 트랜스포트 스트림 형태로 시간 다중화된 각각의 신호열에 대한 비트 스트림을 추출하고, 인가된 패킷의 ID 번호를 추출 및 분석하여 인가된 신호열을 비디오 데이터와 오디오 데이터로 분리하는 역할을 수행한다. 분리된 신호열 중 비디오 데이터는 비디오 디코딩부(420)로 전송되고, 오디오 데이터는 오디오 디코딩부(430)로 각각 전송된다.The demultiplexer 410 is connected to the data receiver 310, extracts a bit stream for each signal sequence time-multiplexed in the form of a transport stream in the data receiver 310, and extracts the ID number of the applied packet. It extracts and analyzes and separates the applied signal sequence into video data and audio data. Among the separated signal sequences, video data is transmitted to the video decoding unit 420, and audio data is transmitted to the audio decoding unit 430, respectively.
비디오 디코딩부(420)는 디멀티플랙서(410)에 연결되어 있으며, 디멀티플랙서(410)로부터 인가되는 비디오 데이터를 압축 해제하여 원래의 비디오 데이터로 복원하는 역할을 수행한다. 또한, 오디오 디코딩부(430)는 디멀티플랙서(410)에 연결되어 있으며, 디멀티플랙서(410)로부터 인가되는 오디오 데이터를 압축 해제하여 원래의 오디오 데이터로 복원하는 역할을 수행한다.The video decoding unit 420 is connected to the demultiplexer 410, and decompresses video data applied from the demultiplexer 410 to restore original video data. In addition, the audio decoding unit 430 is connected to the demultiplexer 410, and decompresses audio data applied from the demultiplexer 410 to restore original audio data.
데이터 처리부(440)는 비디오 디코딩부(420) 및 오디오 디코딩부(430)에 연결되어 있으며, 비디오 디코딩부(420) 및 오디오 디코딩부(430)로부터 인가되는 복원된 비디오 및 오디오 데이터를 아날로그 신호로 변환하여 모니터 및 스피커를 통해 영상 및 음성을 출력하고, 복원된 비디오 및 오디오 데이터를 데이터베이스(500)에 저장하고, 외부 요청시 해당 데이터를 추출하여 전송하도록 제어하는 역할을 수행한다.The data processing unit 440 is connected to the video decoding unit 420 and the audio decoding unit 430, and the restored video and audio data applied from the video decoding unit 420 and the audio decoding unit 430 as an analog signal. It converts and outputs the video and audio through the monitor and the speaker, and stores the restored video and audio data in the database 500, and controls to extract and transmit the data upon external request.
인터페이스부(450)는 데이터 처리부(440) 및 외부기기(600) 사이에 위치하고, 데이터 처리부(440)와 외부기기(600)간의 데이터 표현 형식의 차이와 동작 타이밍을 조절하여 데이터를 상호 교환하도록 인터페이싱하는 역할을 수행한다. 데이터 처리부(440)와 외부기기(600)는 일반적으로 동작 속도가 다르게 구성되어 있기 때문에 데이터를 주고받는 경우에 송신측과 수신측에서는 서로 상대의 상태를 확인하면서 통신하여야 한다. 따라서, 데이터 처리부(440)와 외부기기(600)는 상대방이 데이터를 수신할 수 있는 상태인지의 여부를 확인하면서 전송하는 핸드세이크 전송방식으로 데이터를 교환한다. 외부기기(600)는 전술한 바와 같이, 3D 시뮬레이터 및 FDR 분석기 등이 포함된다.The interface unit 450 is positioned between the data processing unit 440 and the external device 600, and interfaces the data processing unit 440 and the external device 600 to exchange data by controlling a difference in a data representation format and an operation timing. It plays a role. Since the data processor 440 and the external device 600 are generally configured to have different operating speeds, the transmitting side and the receiving side should communicate with each other while checking the state of each other. Accordingly, the data processor 440 and the external device 600 exchange data by using a handshake transmission method for confirming whether or not the other party can receive data. As described above, the external device 600 includes a 3D simulator and an FDR analyzer.
이하에서는, 본 발명에 따른 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법에 대한 동작관계를 첨부된 도면에 의거하여 좀 더 구체적으로 설명하면 다음과 같다.Hereinafter, the operation relationship of the video / audio data transmission and reception system and method of the aircraft situation using the satellite communication network according to the present invention will be described in more detail with reference to the accompanying drawings.
도 3은 본 발명에 따른 항공기 상황의 영상/음성 데이터 송수신 시스템의 전체적인 동작을 설명하는 흐름도이고, 카메라 및 마이크로폰을 소정 위치(예컨대, 카메라는 조종실 및 탑승실의 전방, 후방 및 양측방을 촬영할 수 있는 위치, 마이크로폰은 기장, 부기장, 항법사(기관사), 승객의 음성 및 조종실 및 탑승실 내의 소음을 캡쳐할 수 있는 위치)에 설치하였다고 가정한다.3 is a flowchart illustrating the overall operation of the video / audio data transmission and reception system of the aircraft situation according to the present invention, the camera and the microphone can be photographed at a predetermined position (for example, the front and rear and both sides of the cockpit and the cabin). Position, the microphone is installed in the captain, the vice-chief, the navigator (engineer), the passenger's voice and the cockpit, and in the cabin.
먼저, 카메라와 마이크로폰을 작동시켜 항공기 조종실 및 탑승실 내의 현재 상황을 캡쳐하여 영상 및 음성 데이터를 수집한다(S310). 다음에, 카메라 및 마이크로폰으로부터 수집된 영상 및 음성 데이터(아날로그 데이터)를 디지털 데이터로 A/D 변환하고, 변환된 디지털 데이터를 일정한 포맷으로 디코딩 한다(S320). 즉, 영상 데이터는 YUV 형태로 포맷하여 비디오 스트림 데이터를 생성하고, 음성 데이터는 WAV 형태로 포맷하여 오디오 스트림 데이터를 생성한다.First, by operating the camera and the microphone to capture the current situation in the aircraft cockpit and the cabin to collect video and audio data (S310). Next, the video and audio data (analog data) collected from the camera and the microphone are A / D converted into digital data, and the converted digital data is decoded into a predetermined format (S320). That is, the video data is formatted in the YUV format to generate video stream data, and the audio data is formatted in the WAV format to generate audio stream data.
디코딩된 비디오 및 오디오 데이터는 각각 비디오 인코딩부 및 오디오 인코딩부에 의해 압축되고, 멀티플랙서에 의해 다중화 된다(S330). 비디오 및 오디오 데이터는 MPEG-4 방식의 압축기술을 사용하는 것이 바람직하며, 부가적으로, 오디오 데이터는 돌비 AC-3 방식을 이용하여 압축할 수도 있다. 멀티플랙서는 인가되는 비디오 및 오디오 스트림 데이터를 패킷으로 나누고, 각 패킷 또는 패킷유형을 고유하게 규정하고, 비디오 및 오디오 스트림 데이터를 하나의 데이터 스트림으로 다중화하는 방법 등을 규정하고, 보조 데이터를 비디오 및 오디오 스트림 데이터에 추가하여 다중화 한다. 멀티플랙서에 의해 다중화된 비디오 및 오디오 스트림 데이터는 TCP/IP 또는 UDP/IP 등의 통신 프로토콜 방식에 따라 전송된다. 멀티플랙서에 의해 다중화된 비디오 및 오디오 스트림 데이터는 데이터 송신부에 인가되고, 데이터 송신부는 해당 데이터에 부가정보를 추가하여 특정 대역의 무선 주파수로 변조한 후 송신 안테나를 통해 통신위성으로 송신한다(S340).The decoded video and audio data are compressed by the video encoding unit and the audio encoding unit, respectively, and multiplexed by the multiplexer (S330). Video and audio data are preferably used in MPEG-4 compression technology, and in addition, audio data may be compressed using Dolby AC-3. The multiplexer divides the applied video and audio stream data into packets, uniquely defines each packet or packet type, defines a method of multiplexing the video and audio stream data into a single data stream, and the like. Multiplex in addition to audio stream data. Video and audio stream data multiplexed by the multiplexer are transmitted according to a communication protocol scheme such as TCP / IP or UDP / IP. The video and audio stream data multiplexed by the multiplexer are applied to a data transmitter, and the data transmitter adds additional information to the data, modulates it to a radio frequency of a specific band, and transmits the data to a communication satellite through a transmission antenna (S340). ).
다음에, 통신위성은 데이터 송신부에서 송신된 무선 주파수를 수신하여 소정 주파수 대역(예컨대, 1544.5MHz)으로 증폭 변환한 위성 전파를 지상으로 중계한다(S350). 이 때, 통신위성은 증폭 변환한 위성 전파에 각종 정보(예컨대, 무선 주파수 수신시간, 위성 전파 송신시간 및 각종 메시지 등)를 포함한 출력 프레임을 생성하여 전송하고, 생성된 출력 프레임을 기억장치에 저장하도록 운용하는 것이 바람직하다.Next, the communication satellite receives the radio frequency transmitted from the data transmitter and relays the satellite radio wave amplified and converted to a predetermined frequency band (for example, 1544.5 MHz) to the ground (S350). At this time, the communication satellite generates and transmits an output frame including various information (for example, radio frequency reception time, satellite radio wave transmission time, and various messages) to the amplified satellite radio wave, and stores the generated output frame in the storage device. It is desirable to operate it.
데이터 수신부는 통신위성으로부터 전송되는 위성 전파를 위성 안테나를 통해 수신하고, 수신된 위성 전파를 복조기를 통해 복조한 후 채널 디코더를 통해 트랜스포트 스트림 패킷 형태의 신호열을 출력한다(S360). 전술한 바와 같이, 패킷으로 구성된 신호열은 시작부분에 패킷 ID 번호가 기록된 헤더가 포함되어 있으며, 패킷 ID 번호에 따라 수신된 패킷의 종류(비디오 패킷인지 오디오 패킷인지의 여부)를 식별할 수 있다. 데이터 수신부에서 트랜스포트 스트림 형태로 출력된 신호열은 디멀티플랙서에 의해 각 신호열에 대한 비트 스트림이 추출되어 비디오 데이터와 오디오 데이터로 분리된 후 디코딩 된다(S370). 분리된 신호열 중 비디오 데이터는 비디오 디코딩부에 의해 압축이 해제되고, 오디오 데이터는 오디오 디코딩부에 의해 압축이 해제된다. 디코딩된 비디오 및 오디오 데이터는 데이터 처리부에 의해 아날로그 변환되어 모니터 및 스피커를 통해 영상 및 음성으로 출력되고, 디코딩된 비디오 및 오디오 데이터를 데이터베이스에 저장한다(S380).The data receiver receives satellite radio waves transmitted from the communication satellite through a satellite antenna, demodulates the received satellite radio waves through a demodulator, and outputs a signal stream in the form of a transport stream packet through a channel decoder (S360). As described above, the signal sequence composed of the packet includes a header in which a packet ID number is recorded at the beginning, and can identify the type of received packet (whether it is a video packet or an audio packet) according to the packet ID number. . The signal sequence output from the data receiver in the form of a transport stream is extracted by decoding a bit stream for each signal sequence by a demultiplexer, separating the data stream into video data and audio data (S370). Among the separated signal sequences, video data is decompressed by the video decoding unit, and audio data is decompressed by the audio decoding unit. The decoded video and audio data are analog-converted by the data processor to be output as video and audio through a monitor and a speaker, and the decoded video and audio data are stored in a database (S380).
또한, 데이터 처리부는 외부기기와 연결되었는가를 판단하여 연결되지 않았으면 모든 처리과정을 종료하고, 외부기기와 연결되었으면 데이터베이스에 저장된 데이터를 외부기기로 전송하고, 외부기기에서 분석 처리된 데이터를 수신하여 데이터 처리한다(S395). 데이터 처리부와 외부기기간에 교환되는 데이터는 인터페이스부에 의해 표현 형식 및 동작 타이밍이 조절되어 교환된다. 전술한 바와 같이, 데이터 처리 서버에 연결되는 외부기기에는 3D 시뮬레이터 및 FDR 분석기 등이 포함된다.In addition, the data processing unit determines whether it is connected to an external device, and if not connected, terminates all processes, and if connected to an external device, transmits data stored in a database to an external device, and receives data analyzed and processed by the external device. Data processing (S395). Data exchanged between the data processing unit and the external period is exchanged by adjusting the expression format and operation timing by the interface unit. As described above, an external device connected to the data processing server includes a 3D simulator and an FDR analyzer.
이상의 설명은 하나의 실시예를 설명한 것에 불과하고, 본 발명은 상술한 실시예에 한정되지 않으며 첨부한 특허청구범위 내에서 다양하게 변경 가능한 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소의 형상 및 구조는 변형하여 실시할 수 있을 것이다.The above description is only for explaining one embodiment, and the present invention is not limited to the above-described embodiment and can be variously changed within the scope of the appended claims. For example, the shape and structure of each component specifically shown in the embodiments of the present invention may be modified.
이상에서 설명한 바와 같이 본 발명에 따른 위성 통신망을 이용한 항공기 상황의 영상/음성 데이터 송수신 시스템 및 방법에 의하면, 항공기 조종실 및 탑승실의 현재 상황을 영상 및 음성으로 데이터화하여 위성 통신망을 통해 유관기관으로 송신함으로써, 유관기관은 항공기 조종실 및 탑승실의 현재 상황을 조속한 기간(바람직하게는 실시간)에 확인할 수 있는 효과가 있다.As described above, according to the system and method for transmitting / receiving video / audio data of an aircraft situation using the satellite communication network according to the present invention, the present situation of the aircraft cockpit and the boarding room is data and transmitted to the related organization through the satellite communication network. By doing so, the relevant organization has an effect of confirming the current situation of the aircraft cockpit and the cabin at an early time (preferably in real time).
또한, 본 발명은 항공기 조종실 및 탑승실의 현재 상황을 조기에 파악하여 예기치 않은 항공기 사고 및 하이재킹 등과 같은 항공기 테러에 능동적으로 대처할 수 있는 효과가 있다.In addition, the present invention has the effect of being able to proactively cope with aircraft terrorism such as unexpected aircraft accidents and hijacking by early grasping the current situation of the aircraft cockpit and the cabin.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020047780A KR20040015509A (en) | 2002-08-13 | 2002-08-13 | Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020047780A KR20040015509A (en) | 2002-08-13 | 2002-08-13 | Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20040015509A true KR20040015509A (en) | 2004-02-19 |
Family
ID=37321763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020020047780A KR20040015509A (en) | 2002-08-13 | 2002-08-13 | Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20040015509A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112099479A (en) * | 2015-04-08 | 2020-12-18 | 珠海磐磊智能科技有限公司 | Remote controller, remote control travel device control system and method thereof |
KR102529888B1 (en) * | 2022-12-26 | 2023-05-09 | 국방과학연구소 | Method for transmitting and receiving data and unmanned aerial vehicle supporting thereof |
-
2002
- 2002-08-13 KR KR1020020047780A patent/KR20040015509A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112099479A (en) * | 2015-04-08 | 2020-12-18 | 珠海磐磊智能科技有限公司 | Remote controller, remote control travel device control system and method thereof |
KR102529888B1 (en) * | 2022-12-26 | 2023-05-09 | 국방과학연구소 | Method for transmitting and receiving data and unmanned aerial vehicle supporting thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4511886A (en) | Electronic security and surveillance system | |
KR100554428B1 (en) | Reception system and reception method | |
US6275529B1 (en) | Method of and apparatus for transmitting news data with script | |
US7640083B2 (en) | Record and playback system for aircraft | |
US7634334B2 (en) | Record and playback system for aircraft | |
CN111726700A (en) | Video relay system and video receiving system | |
US6005633A (en) | Signal transmitting-receiving system | |
EP1574003A1 (en) | Flexible radio transceiver with procotol converter | |
JPH08298647A (en) | Digital broadcasting system using satellite | |
EP1558036A2 (en) | System and method for providing broadcast signals to an aircraft | |
KR20040015509A (en) | Method and system for transmitting and receiving video/audio data of aircraft condition using satellite network | |
KR101267097B1 (en) | Digital transmission device | |
JP4537926B2 (en) | Wireless relay system and relay monitoring method | |
WO2011105250A1 (en) | Transmission device, reception device, communication system, transmission method, and conversion method | |
KR101032427B1 (en) | Broadcasting for warning disaster using satellite | |
RU43424U1 (en) | VIDEO AND / OR AUDIO INFORMATION RECORDING, STORAGE AND TRANSMISSION SYSTEMS FROM THE AIRCRAFT | |
JP3913988B2 (en) | Satellite observation system | |
JPH0993175A (en) | Satellite communication vehicle system | |
JP4320297B2 (en) | Digital broadcast packet configuration method and real-time data transmission / reception system | |
KR20160107698A (en) | System and method for broadcasting mounted on unmanned aerial vehicle | |
EP1463327A1 (en) | Integrated high frequency terminal apparatus for wireless communication systems | |
JP4559037B2 (en) | Transmission / reception terminal device | |
JPH09261197A (en) | Superimposed transmission system | |
JPH0936791A (en) | Emergency communication equipment using satellite communication system | |
KR100439231B1 (en) | transmission system of digital TV using an INTERNET and controlling method therefore |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |