KR102227740B1 - Landing Support System for Vertical Takeoff and Landing Type PAV - Google Patents

Landing Support System for Vertical Takeoff and Landing Type PAV Download PDF

Info

Publication number
KR102227740B1
KR102227740B1 KR1020190086210A KR20190086210A KR102227740B1 KR 102227740 B1 KR102227740 B1 KR 102227740B1 KR 1020190086210 A KR1020190086210 A KR 1020190086210A KR 20190086210 A KR20190086210 A KR 20190086210A KR 102227740 B1 KR102227740 B1 KR 102227740B1
Authority
KR
South Korea
Prior art keywords
landing
pav
camera
support system
image
Prior art date
Application number
KR1020190086210A
Other languages
Korean (ko)
Other versions
KR20210009545A (en
Inventor
양인석
김종섭
고기옥
Original Assignee
한국항공우주산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주산업 주식회사 filed Critical 한국항공우주산업 주식회사
Priority to KR1020190086210A priority Critical patent/KR102227740B1/en
Publication of KR20210009545A publication Critical patent/KR20210009545A/en
Application granted granted Critical
Publication of KR102227740B1 publication Critical patent/KR102227740B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/2257
    • H04N5/23206
    • H04N5/23299

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은, PAV의 전방측과 후방측에 각각 구비되는 카메라, 카메라에서 획득된 영상이 표시 될 수 있도록 구성되는 디스플레이부 및 조종사의 입력에 의해 착륙모드로 전환되는 경우 카메라로부터 하측방향의 영상을 획득하여 디스플레이부에 표시할 수 있도록 구성되는 영상처리부를 포함하는 수직 이착륙형 PAV의 착륙지원 시스템에 관한 것이다.
본 발명에 따른 수직 이착륙형 PAV의 착륙지원 시스템은 착륙시 안정적으로 착륙지점에 대한 정보를 전달하고, 위험요소가 존재하는 경우 이를 조종사에게 인지시킬 수 있으므로 착륙시에 사각지역에서 발생할 수 있는 충돌을 방지할 수 있는 효과가 있다.
The present invention provides a camera provided on the front and rear sides of the PAV, a display unit configured to display an image obtained from the camera, and an image in a downward direction from the camera when it is switched to the landing mode by input from the pilot. It relates to a landing support system for a vertical take-off and landing type PAV including an image processing unit configured to be acquired and displayed on a display unit.
The landing support system of the vertical take-off and landing type PAV according to the present invention stably transmits information on the landing point when landing, and when a risk factor exists, it can be recognized by the pilot, thus preventing a collision that may occur in a blind area during landing. There is an effect that can be prevented.

Description

수직 이착륙형 PAV의 착륙지원 시스템{Landing Support System for Vertical Takeoff and Landing Type PAV}Landing Support System for Vertical Takeoff and Landing Type PAV}

본 발명은 수직 이착륙형 PAV의 착륙지원 시스템에 관한 것이며, 보다 상세하게는 수직 이착륙시 사용자의 육안로 직접 식별하지 못하는 지면의 정보를 전달하여 안전한 착륙을 수행할 수 있는 착륙지원 시스템에 관한 것이다.The present invention relates to a landing support system of a vertical take-off and landing type PAV, and more particularly, to a landing support system capable of performing a safe landing by transmitting information on the ground that cannot be directly identified with the naked eye of a user during vertical take-off and landing.

개인비행기(PAV; Personal Air Vehicle) 개념은 2차원적인 평면상에서 이동하는 개인용 운송수단의 한계를 뛰어넘어 3차원적인 이동을 수행하기 위해 도출되었다. PAV는 3차원적으로 이동하는 기존의 항공기 또는 헬리콥터와 달리 별도의 전용 이착륙 공간이 없더라도 일반도로와 같은 공간에 이착륙이 가능한 Point-By-Point 방식을 지향하여 개발되고 있다. The concept of a personal air vehicle (PAV) was derived to perform a three-dimensional movement beyond the limitations of personal transportation means moving on a two-dimensional plane. Unlike conventional aircraft or helicopters that move three-dimensionally, PAV is being developed toward a point-by-point method that allows take-off and landing in the same space as a general road, even if there is no separate take-off and landing space.

한편, 일반적인 항공기 또는 헬리콥터의 경우 착륙시 장애물의 판별은 주로 조종사가 직접 육안으로 확인하며, 이를 위하여 조종석에서는 사각지대가 최소화 할 수 있도록 조종실 공간을 설계한다. 그러나 PAV는 개인정보보호의 중요성에 따라 외부에서 내부를 볼 수 있는 가능성을 낮추어야 하며, 이는 필연적으로 조종사의 사각지대의 증가를 야기한다. On the other hand, in the case of a general aircraft or helicopter, the detection of obstacles when landing is mainly performed by the pilot directly with the naked eye, and for this purpose, the cockpit space is designed to minimize blind spots in the cockpit. However, according to the importance of personal information protection, PAV should reduce the possibility of seeing the inside from the outside, which inevitably causes an increase in the pilot's blind spot.

이와 같은 종래의 PAV와 관련하여 대한민국 등록특허 제1775922 호(2017.09.01. 등록)가 개시되어 있다. 그러나 이러한 종래기술은 수직이착륙시 사각지대에 의해 사고가 발생할 위험을 내포하고 있는 문제점이 있었다.In connection with such a conventional PAV, Korean Patent No. 1775922 (registered on September 1, 2017) is disclosed. However, this prior art has a problem that involves the risk of accidents due to blind spots during vertical take-off and landing.

대한민국 등록특허 제1775922 호(2017.09.01. 등록)Korean Registered Patent No. 1775922 (registered on September 1, 2017)

본 발명은 종래의 PAV에서 착륙시 사각지역에 대한 정보를 전달하지 못하여 충돌의 위험이 있는 문제를 해결하기 위한 수직 이착륙형 PAV의 착륙지원 시스템을 제공하는 것에 그 목적이 있다.An object of the present invention is to provide a landing support system for a vertical take-off and landing type PAV in order to solve a problem in which there is a risk of collision due to a failure to transmit information on a blind area during landing in a conventional PAV.

상기 과제의 해결 수단으로서, PAV의 전방측과 후방측에 각각 구비되는 카메라, 카메라에서 획득된 영상이 표시 될 수 있도록 구성되는 디스플레이부 및 조종사의 입력에 의해 착륙모드로 전환되는 경우 카메라로부터 하측방향의 영상을 획득하여 디스플레이부에 표시할 수 있도록 구성되는 영상처리부를 포함하는 수직 이착륙형 PAV의 착륙지원 시스템이 제공될 수 있다.As a means of solving the above problems, cameras provided on the front and rear sides of the PAV, respectively, a display unit configured to display images obtained from the camera, and a downward direction from the camera when switching to the landing mode by input from the pilot A landing support system for a vertical take-off and landing type PAV including an image processing unit configured to acquire an image of and display it on the display unit may be provided.

한편, 본 발명은 카메라의 시선방향을 독립적으로 조절할 수 있도록 구성되는 복수의 카메라 구동부를 더 포함할 수 있으며, 착륙모드로 전환되는 경우 지면과 PAV와의 거리를 근거로 카메라 구동부를 조절하는 제어부를 더 포함할 수 있다.On the other hand, the present invention may further include a plurality of camera driving units configured to independently adjust the gaze direction of the camera, and when switching to the landing mode, a control unit for adjusting the camera driving unit based on the distance between the ground and the PAV is further provided. Can include.

한편, 제어부는 지면 중 PAV가 착륙에 필요한 착륙영역을 설정하며, PAV의 고도에 따라 카메라가 착륙영역을 포함한 영역의 영상을 획득할 수 있도록 카메라 구동부의 각도를 조절할 수 있다.On the other hand, the controller may set the landing area required for landing by the PAV among the ground, and adjust the angle of the camera driving unit so that the camera can acquire an image of the area including the landing area according to the altitude of the PAV.

한편, 영상처리부는 획득된 영상에서 착륙영역을 추출하며, 추출된 영상으로부터 착륙영역 내에 장애물의 존재 여부를 식별하며, 제어부는 착륙영역 내에 장애물이 존재하는 경우 사용자에게 경고를 수행하도록 제어할 수 있다.Meanwhile, the image processing unit extracts the landing area from the acquired image, identifies whether an obstacle exists in the landing area from the extracted image, and the control unit can control to warn the user when an obstacle exists in the landing area. .

또한, 제어부는 지면에서 착륙영역의 반경이 d이며, PAV의 중심으로부터 제1 카메라까지의 직선거리는 a1, PAV의 중심으로부터 제2 카메라까지의 직선거리는 a2 인 경우, PAV의 고도(h) 및 PAV의 피치(pitch)각(θ)을 근거로 하며, PAV의 전방과 전방측에 구비되는 제1 카메라의 시선방향이 이루는 각도를

Figure 112019073137083-pat00001
로 결정할 수 있다.In addition, if the radius of the landing area on the ground is d, the linear distance from the center of the PAV to the first camera is a1, and the linear distance from the center of the PAV to the second camera is a2, the altitude (h) and PAV of the PAV Is based on the pitch angle (θ) of the PAV, and the angle formed by the gaze direction of the first camera provided on the front and front sides of the PAV
Figure 112019073137083-pat00001
Can be determined by

또한, 제어부는 PAV의 본체의 후방과 후방측에 구비되는 제2 카메라의 시선방향이 이루는 각도를

Figure 112019073137083-pat00002
로 결정할 수 있다.In addition, the control unit determines the angle formed by the direction of sight of the second camera provided on the rear and rear sides of the PAV
Figure 112019073137083-pat00002
Can be determined by

본 발명에 따른 수직 이착륙형 PAV의 착륙지원 시스템은 착륙시 안정적으로 착륙지점에 대한 정보를 전달하고, 위험요소가 존재하는 경우 이를 조종사에게 인지시킬 수 있으므로 착륙시에 사각지역에서 발생할 수 있는 충돌을 방지할 수 있는 효과가 있다.The landing support system of the vertical take-off and landing type PAV according to the present invention stably transmits information on the landing point when landing, and when a risk factor exists, it can be recognized by the pilot, thus preventing a collision that may occur in a blind area during landing. There is an effect that can be prevented.

도 1은 본 발명에 따른 PAV의 착륙시 영상을 획득하는 영역에 대한 개념이 도시되어 있다.
도 2는 본 발명에 따른 일 실시예의 구성을 나타낸 블록도이다.
도 3은 본 발명에 따른 일 실시예의 작동순서를 나타낸 흐름도이다.
도 4는 카메라의 각도제어를 나타낸 도면이다.
1 illustrates a concept of a region for acquiring an image when a PAV lands according to the present invention.
2 is a block diagram showing the configuration of an embodiment according to the present invention.
3 is a flowchart showing an operation sequence of an embodiment according to the present invention.
4 is a view showing the angle control of the camera.

이하, 본 발명의 실시 예에 수직 이착륙형 PAV의 착륙지원 시스템에 대하여, 첨부된 도면을 참조하여 상세히 설명한다. 그리고 이하의 실시예의 설명에서 각각의 구성요소의 명칭은 당업계에서 다른 명칭으로 호칭될 수 있다. 그러나 이들의 기능적 유사성 및 동일성이 있다면 변형된 실시예를 채용하더라도 균등한 구성으로 볼 수 있다. 또한 각각의 구성요소에 부가된 부호는 설명의 편의를 위하여 기재된다. 그러나 이들 부호가 기재된 도면상의 도시 내용이 각각의 구성요소를 도면내의 범위로 한정하지 않는다. 마찬가지로 도면상의 구성을 일부 변형한 실시예가 채용되더라도 기능적 유사성 및 동일성이 있다면 균등한 구성으로 볼 수 있다. 또한 당해 기술 분야의 일반적인 기술자 수준에 비추어 보아, 당연히 포함되어야 할 구성요소로 인정되는 경우, 이에 대하여는 설명을 생략한다. 한편, 본 발명에서 설명하는 착륙영역은 PAV의 착륙시 외부물체와의 간섭을 피하기 위하여 필요한 최소한의 영역을 뜻하며, PAV의 형상에 따라 다양하게 구성될 수 있다. 일 예로, 착륙영역은 PAV의 둘레로부터 소정 여유를 두고 설정된 영역이 될 수 있다.Hereinafter, a landing support system of a vertical take-off and landing type PAV according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, in the description of the following embodiments, the names of each component may be referred to as different names in the art. However, if they have functional similarities and identity, even if a modified embodiment is employed, it can be viewed as a uniform configuration. In addition, symbols added to each component are described for convenience of description. However, the content illustrated on the drawings in which these symbols are indicated does not limit each component to the range within the drawings. Likewise, even if an embodiment in which the configuration in the drawings is partially modified is employed, it can be viewed as an equivalent configuration if there is functional similarity and identity. In addition, in view of the level of a general technician in the relevant technical field, if it is recognized as a component that should be included of course, a description thereof will be omitted. Meanwhile, the landing area described in the present invention refers to a minimum area necessary to avoid interference with external objects during landing of the PAV, and may be variously configured according to the shape of the PAV. For example, the landing area may be an area set with a predetermined margin from the periphery of the PAV.

도 1은 본 발명에 따른 PAV(1)의 착륙시 영상을 획득하는 영역에 대한 개념이 도시되어 있다.FIG. 1 shows a concept of an area for acquiring an image upon landing of the PAV 1 according to the present invention.

도시된 바와 같이, 본 발명이 적용되는 PAV(1)는 수직 이착륙형 PAV(1)로서, 수직방향으로 착륙이 가능하도록 하나 이상의 프로펠러를 포함하여 구성될 수 있다. 한편 도시된 바와 같이, 본 발명이 적용되는 PAV(1)는 현존하는 자동차와 유사하게 조종석의 투광영역이 전방측의 일부에만 형성이 되어 있어, PAV(1)의 착륙시 조종사가 직접 눈으로 연직 하측 방향에 위치하는 착륙영역(Rd)에 대한 정보를 확인할 수 없게 된다. As shown, the PAV (1) to which the present invention is applied is a vertical take-off and landing type PAV (1), and may be configured to include one or more propellers to allow landing in a vertical direction. On the other hand, as shown, the PAV 1 to which the present invention is applied has a light-transmitting area of the cockpit formed only on a part of the front side, similar to the existing automobile, so that the pilot can directly visualize the vertical position when the PAV 1 is landed. Information on the landing area Rd located in the lower direction cannot be confirmed.

본 발명에 따른 수직 이착륙형 PAV(1)의 착륙지원 시스템은 PAV(1)를 조종하는 조종사에게 사각지역에 대한 시각적인 정보를 전달할 수 있도록 구성된다.The landing support system of the vertical take-off and landing type PAV (1) according to the present invention is configured to transmit visual information on the blind area to the pilot who controls the PAV (1).

도 2는 본 발명에 따른 일 실시예의 구성을 나타낸 블록도이다. 2 is a block diagram showing the configuration of an embodiment according to the present invention.

도시된 바와 같이, 본 발명에 따른 수직 이착륙형 PAV(1)의 착륙지원 시스템은 카메라, 카메라 구동부(300), 영상처리부(200), 디스플레이부(400) 및 제어부(500)를 포함하여 구성될 수 있다.As shown, the landing support system of the vertical take-off and landing type PAV 1 according to the present invention includes a camera, a camera driving unit 300, an image processing unit 200, a display unit 400, and a control unit 500. I can.

카메라는 착륙영역(Rd)의 영상을 획득할 수 있도록 구성된다. 카메라는 2개 이상으로 구성될 수 있으며, 일 예로서 카메라가 한 쌍으로 구성된 경우 PAV(1)의 전방측과 후방측에 구비될 수 있다. 한 쌍의 카메라는 전방측에 구비된 제1 카메라(101)와 후방측에 구비되는 제2 카메라(102)를 포함하여 구성될 수 있다. 제1 카메라(101)와 제2 카메라(102)는 하측방향의 영상 획득시에 사각지역을 최소화할 수 있도록 각각 90도 이상의 시야각을 갖는 카메라로 구성될 수 있다. 다만, 시야각은 PAV(1)의 크기와 한 쌍의 카메라의 이격거리에 따라 다양한 조합으로 구성될 수 있으므로 구체적인 수치에 대하여는 생략하도록 한다.The camera is configured to acquire an image of the landing area Rd. Two or more cameras may be configured, and as an example, when the camera is configured as a pair, it may be provided on the front side and the rear side of the PAV 1. The pair of cameras may include a first camera 101 provided on the front side and a second camera 102 provided on the rear side. The first camera 101 and the second camera 102 may be configured as cameras each having a viewing angle of 90 degrees or more so as to minimize a blind spot when obtaining an image in a downward direction. However, since the viewing angle may be configured in various combinations depending on the size of the PAV 1 and the separation distance of the pair of cameras, specific values will be omitted.

복수의 카메라는 일정 각도로 각도 조절이 가능하도록 구비될 수 있다. 일 예로 착륙시에 앞뒤 방향으로 기울어지는 경우, 즉 PAV(1) 본체의 피치(Pitch)각이 달라지는 경우에도 안정적으로 착륙영역(Rd)의 영상을 획득할 수 있도록 시선방향(p)이 조절될 수 있다. 시선 방향의 조절은 후술할 구동부의 구동으로 카메라 자체가 PAV(1)의 본체와 이루는 각도가 조절되어 이루어질 수 있다.A plurality of cameras may be provided to enable angle adjustment at a predetermined angle. As an example, when landing is tilted forward and backward, that is, when the pitch angle of the main body of the PAV (1) is changed, the gaze direction (p) may be adjusted so that the image of the landing area (Rd) can be stably acquired. I can. Adjustment of the gaze direction may be performed by adjusting the angle formed by the camera itself with the main body of the PAV 1 by driving a driving unit to be described later.

카메라 구동부(300)는 전술한 카메라의 시선 방향을 조절할 수 있도록 구성된다. 카메라 구동부(300)는 적어도 2개로 구성되며, 제1 카메라(101) 및 제2 카메라(102) 각각을 독립적으로 조절할 수 있도록 구성될 수 있다. 카메라 구동부(300)는 카메라의 각도를 조절할 수 있는 다양한 구성으로 구비될 수 있으며, 일 예로 모터로 구성될 수 있다.The camera driving unit 300 is configured to adjust the gaze direction of the above-described camera. The camera driver 300 includes at least two, and may be configured to independently control each of the first camera 101 and the second camera 102. The camera driving unit 300 may be provided in various configurations capable of adjusting the angle of the camera, and for example, may be configured as a motor.

영상처리부(200)는 카메라에서 획득되는 영상신호를 수신하고, 디스플레이부(400)에서 표시되는 영상을 생성하도록 구성될 수 있다. 영상처리부(200)는 복수의 카메라에서 획득되는 영상을 사용자의 선택에 따라 택일적으로 표시하도록 출력신호를 생성할 수 있으며, 또한 획득된 복수의 영상을 블랜딩(blending)하여 출력신호를 생성할 수 있다.The image processing unit 200 may be configured to receive an image signal obtained from a camera and generate an image displayed on the display unit 400. The image processing unit 200 may generate an output signal to selectively display images acquired from a plurality of cameras according to a user's selection, and may also generate an output signal by blending a plurality of acquired images. have.

영상처리부(200)는 획득된 영상을 분석하여 사물을 인식할 수 있도록 구성될 수 있다. 일 예로 획득횐 영상에서 착륙지점에서 착륙을 방해하는 장애물이 존재하는 경우 인식된 장애물을 시각적으로 강조할 수 있는 심볼을 추가하여 영상에 표시하도록 구성될 수 있다. 여기서 장애물은 착륙지면에 고정되어 있는 장애물 또는 이동중인 장애물이 될 수 있다. 영상처리부(200)는 이동중인 장애물을 인식한 경우 이동함에 따라 달라지는 위치를 트래킹하여 화면상에 표시되는 심볼위치를 변화시킬 수 있다.The image processing unit 200 may be configured to recognize an object by analyzing the acquired image. For example, when an obstacle obstructing the landing at the landing point exists in the acquired image, a symbol capable of visually emphasizing the recognized obstacle may be added and displayed on the image. Here, the obstacle may be an obstacle fixed to the landing ground or a moving obstacle. When recognizing an obstacle in motion, the image processing unit 200 may change a position of a symbol displayed on the screen by tracking a position that changes according to the movement.

디스플레이부(400)는 영상처리부(200)에서 처리된 신호를 표시할 수 있도록 구성된다. 디스플레이부(400)는 조종석에서 조종사가 시각적으로 인식할 수 있는 위치에 구비될 수 있다. 일 예로 디스플레이부(400)는 PAV(1)에 구비된 MFD(Multi Function Display)가 될 수 있다.The display unit 400 is configured to display a signal processed by the image processing unit 200. The display unit 400 may be provided in a position in the cockpit that the pilot can visually recognize. For example, the display unit 400 may be a multi function display (MFD) provided in the PAV 1.

제어부(500)는 카메라, 카메라 구동부(300) 및 영상처리부(200)를 포함한 각각의 구성요소를 제어할 수 있도록 구성된다. 제어부(500)는 조종사의 입력에 의해 발생된 착륙모드 신호를 수신하는 경우 카메라, 영상처리부(200) 및 디스플레이부(400)를 제어하여 카메라에서 획득된 신호가 디스플레이부(400)에서 표시될 수 있도록 제어할 수 있다. 또한 제어부(500)는 PAV(1)에 구비된 센서부로부터 자세에 대한 정보를 수신하고 자세에 다른 카메라 각도를 조절할 수 있도록 카메라 구동부(300)를 제어할 수 있다.The control unit 500 is configured to control respective components including the camera, the camera driving unit 300 and the image processing unit 200. When receiving the landing mode signal generated by the pilot's input, the control unit 500 controls the camera, the image processing unit 200 and the display unit 400 to display the signal obtained from the camera on the display unit 400. So you can control it. In addition, the controller 500 may control the camera driving unit 300 to receive information on the posture from a sensor unit provided in the PAV 1 and adjust a camera angle different from the posture.

이와 같은 영상처리부(200) 및 제어부(500)의 기능에 대하여는 이하에서 도 3 및 도 4를 참조하여 상세히 설명하도록 한다.The functions of the image processing unit 200 and the control unit 500 will be described in detail below with reference to FIGS. 3 and 4.

도 3은 본 발명에 따른 일 실시예의 작동순서를 나타낸 흐름도이다. 도시된 바와 같이, 본 발명에 따른 착륙지원 시스템은 PAV(1)가 비행 중에 사용자의 입력에 의해 사각지역의 영상을 표시할 수 있도록 구성되며, 특히 착륙모드 입력을 수신한 경우 착륙시 착륙영역(Rd)의 상황을 분석하여 사용자에게 전달할 수 있도록 구성된다.3 is a flowchart showing an operation sequence of an embodiment according to the present invention. As shown, the landing support system according to the present invention is configured to allow the PAV 1 to display an image of a blind area by a user's input during flight. In particular, when receiving a landing mode input, the landing area ( It is configured to analyze the situation of Rd) and deliver it to the user.

제어부(500)는 착륙모드 입력을 수신한 경우 현재의 고도와 기 설정된 착륙영역(Rd) 정보를 근거로 하여 카메라 구동부(300)를 제어하는 구동신호를 발생시킨다. 착륙영역(Rd)이 PAV(1)의 둘레보다 더 넓게 형성된 경우를 예를 들어 설명하면, 제어부(500)는 PAV(1)가 지상으로부터 충분히 높은 경우 복수의 카메라가 연직 하방을 바라볼 수 있도록 복수의 카메라의 방향을 제어하며, PAV(1)가 지상에 가까워지는 경우 복수의 카메라는 서로 시선방향(p)이 멀어지도록 복수의 카메라의 방향을 제어한다. 따라서 착륙모드에서 고도가 달라지더라도 지속적으로 착륙영역(Rd) 전체를 포함한 영상을 획득할 수 있게 된다.When receiving the landing mode input, the control unit 500 generates a driving signal for controlling the camera driving unit 300 based on the current altitude and preset landing area (Rd) information. When the landing area Rd is formed wider than the circumference of the PAV 1 as an example, the controller 500 allows a plurality of cameras to look vertically downward when the PAV 1 is sufficiently high from the ground. The directions of the plurality of cameras are controlled, and when the PAV 1 approaches the ground, the plurality of cameras control the directions of the plurality of cameras so that the gaze direction p is further away from each other. Therefore, even if the altitude changes in the landing mode, an image including the entire landing area Rd can be continuously acquired.

영상처리부(200)는 제어부(500)로부터 수신된 착륙영역(Rd)에 대한 정보 및 PAV(1)의 고도 정보를 근거로 획득된 촬영영역(Rs)에서 착륙영역(Rd)을 추출하고, 착륙영역(Rd) 내부의 상황을 분석하게 된다. 영상처리부(200)는 착륙영역(Rd)의 영상을 근거로 장애물이 존재하는 경우 사용자가 장애물을 인식할 수 있도록 별도의 심볼을 생성하여 촬영된 영상과 함께 디스플레이 할 수 있다. The image processing unit 200 extracts the landing area Rd from the photographing area Rs obtained based on the information on the landing area Rd received from the control unit 500 and the altitude information of the PAV 1, and landing The situation inside the area Rd is analyzed. When an obstacle exists based on the image of the landing area Rd, the image processing unit 200 may generate a separate symbol so that the user can recognize the obstacle and display the captured image together with the image.

제어부(500)는 획득된 영상신호에서 장애물이 존재하는 경우, 그리고 현재 고도가 소정 고도보다 낮은 경우 경고를 수행하도록 구성될 수 있다. 따라서 고도가 다소 낮아 실질적으로 충돌의 위험이 있는지 여부를 판단하여 조종사에게 인식시킬 수 있게 된다. 장애물 인식 및 경고는 착륙이 완료될때 까지 반복적으로 수행될 수 있다.The controller 500 may be configured to perform a warning when an obstacle exists in the acquired image signal and when the current altitude is lower than a predetermined altitude. Therefore, it is possible to determine whether there is a risk of a collision because the altitude is somewhat low, and the pilot can recognize it. Obstacle recognition and warning can be performed repeatedly until landing is complete.

한편, 제어부(500)는 착륙모드를 수신한 경우 착륙이 완료될 때까지 지속적으로 카메라의 시선방향(p)을 조절하도록 카메라 구동부(300)를 제어할 수 있다.On the other hand, when receiving the landing mode, the controller 500 may control the camera driving unit 300 to continuously adjust the gaze direction p of the camera until the landing is completed.

한편, 카메라의 시선방향(p)을 조절하기 위한 구체적인 제어방법은 이하에서 도 4를 참조하여 상세히 설명하도록 한다.Meanwhile, a specific control method for adjusting the gaze direction p of the camera will be described in detail with reference to FIG. 4 below.

도 4는 카메라의 각도제어를 나타낸 도면이다. 도시된 바와 같이, 제어부(500)는 센서부에서 획득되는 현재 PAV(1)의 자세와 고도를 기준으로 카메라 구동부(300) 및 영상처리부(200)를 제어하도록 구성된다.4 is a view showing the angle control of the camera. As shown, the controller 500 is configured to control the camera driving unit 300 and the image processing unit 200 based on the current posture and altitude of the PAV 1 acquired from the sensor unit.

센서부는 PAV(1)에 구비는 거리센서 및 자세센서를 포함하여 구성될 수 있다. 거리센서는 PAV(1)와 현재 위치에서 연직 하방의 지면까지의 거리를 측정하도록 구성된다. 자세센서는 현재 PAV(1)의 자세를 측정할 수 있도록 구성되며, 특히 PAV(1)의 3축 방향 각도를 측정하도록 구성될 수 있다. 일 예로 자이로스코프로 구성될 수 있다. The sensor unit may be configured to include a distance sensor and a posture sensor provided in the PAV 1. The distance sensor is configured to measure the distance from the PAV 1 and the current position to the ground vertically below. The posture sensor is configured to measure the current posture of the PAV 1, and in particular, may be configured to measure an angle in the three-axis direction of the PAV 1. For example, it may be configured with a gyroscope.

한편, 일반적으로 PAV(1)는 전후 방향으로 긴 형상으로 구성되며, 전후방 방향으로 사각지역이 가장 넓게 형성되므로, 3축 방향의 각도 중 pitch 방향에 대한 제어를 우선하여 수행할 수 있다. Meanwhile, in general, the PAV 1 has a long shape in the front-rear direction, and since the rectangular area is the widest in the front-rear direction, it is possible to prioritize control for the pitch direction among the angles in the three-axis direction.

구체적으로, 제어부(500)에서는 현재 고도(h), 기 설정된 착륙영역(Rd)의 반경(d) 및 pitch 각(θ)을 기준으로 카메라 구동부(300)의 구동량을 결정한다. Specifically, the control unit 500 determines the driving amount of the camera driving unit 300 based on the current altitude h, the radius d of the preset landing area Rd, and the pitch angle θ.

PAV(1)의 전방측에 구비된 제1 카메라(101)가 PAV(1)의 전방과 이루는 각도(φ1)는 다음의 식으로부터 결정될 수 있다.The angle φ1 formed by the first camera 101 provided on the front side of the PAV 1 and the front side of the PAV 1 may be determined from the following equation.

Figure 112019073137083-pat00003
Figure 112019073137083-pat00003

여기서 a1은 PAV(1)의 중심으로부터 제1 카메라(101)까지의 직선거리를 뜻한다.Here, a1 means a linear distance from the center of the PAV 1 to the first camera 101.

또한 PAV(1)의 후방측에 구비된 제2 카메라(102)가 PAV(1)의 후방과 이루는 각도(φ2)는 다음의 식으로부터 결정될 수 있다.In addition, the angle φ2 formed by the second camera 102 provided on the rear side of the PAV 1 and the rear side of the PAV 1 may be determined from the following equation.

Figure 112019073137083-pat00004
Figure 112019073137083-pat00004

여기서 a2은 PAV(1)의 중심으로부터 제2 카메라(102)까지의 직선거리를 뜻한다.Here, a2 means a linear distance from the center of the PAV 1 to the second camera 102.

결국 제1 카메라(101) 및 제2 카메라(102)는 PAV(1)의 고도가 달라지더라도 착륙영역(Rd)의 경계를 바라볼 수 있도록 제어되며, 구체적으로 각각의 카메라의 시선방향(p)이 착륙영역(Rd)의 경계와 교차할 수 있도록 제어될 수 있다.Eventually, the first camera 101 and the second camera 102 are controlled to look at the boundary of the landing area Rd even if the altitude of the PAV 1 is different, and in detail, the gaze direction of each camera (p ) Can be controlled to cross the boundary of the landing area Rd.

이상에서 설명한 바와 같이, 본원발명에 따른 수직 이착륙형 PAV의 착륙지원 시스템은 착륙영역 및 고도에 대한 정보를 근거로 사각지역에 대한 영상을 지속적으로 획득하여 조종사에게 표시할 수 있으며, 획득된 영상을 분석하여 위험여부를 알릴 수 있어 착륙시 안정성을 향상시킬 수 있는 효과가 있다.As described above, the landing support system of the vertical take-off and landing type PAV according to the present invention can continuously acquire and display an image of a blind area based on information on the landing area and altitude, and display the acquired image to the pilot. It has the effect of improving the stability when landing because it can be analyzed and notified of danger.

101: 제1 카메라
102: 제2 카메라
200: 영상처리부
300: 카메라 구동부
400: 디스플레이부
500: 제어부
p: 카메라 시선방향
1: PAV
Rd: 착륙영역
Rs: 촬영영역
101: first camera
102: second camera
200: image processing unit
300: camera driving unit
400: display unit
500: control unit
p: Camera gaze direction
1: PAV
Rd: landing area
Rs: shooting area

Claims (6)

PAV의 전방측과 후방측에 각각 구비되는 카메라;
상기 카메라에서 획득된 영상이 표시 될 수 있도록 구성되는 디스플레이부; 및
조종사의 입력에 의해 착륙모드로 전환되는 경우 상기 카메라로부터 하측방향의 영상을 획득하여 상기 디스플레이부에 표시할 수 있도록 구성되는 영상처리부를 포함하며,
지면 중 상기 PAV가 착륙에 필요한 착륙영역을 설정하며, 상기 PAV의 고도에 따라 상기 카메라가 상기 착륙영역을 포함한 영역의 영상을 획득할 수 있도록 상기 카메라의 각도를 조절할 수 있도록 구성되는 제어부를 포함하는 수직 이착륙형 PAV의 착륙지원 시스템.
Cameras provided on the front and rear sides of the PAV, respectively;
A display unit configured to display an image obtained from the camera; And
An image processing unit configured to obtain an image in a downward direction from the camera and display it on the display unit when switching to the landing mode by an input of a pilot,
And a control unit configured to adjust the angle of the camera so that the PAV of the ground sets a landing area required for landing, and the camera acquires an image of an area including the landing area according to the altitude of the PAV. Landing support system of vertical take-off and landing type PAV.
제1 항에 있어서,
상기 카메라의 시선방향을 독립적으로 조절할 수 있도록 구성되는 복수의 카메라 구동부를 더 포함하며,
상기 제어부는 상기 착륙모드로 전환되는 경우 지면과 상기 PAV와의 거리를 근거로 상기 카메라 구동부를 조절하는 수직 이착륙형 PAV의 착륙지원 시스템.
The method of claim 1,
Further comprising a plurality of camera driving units configured to independently adjust the gaze direction of the camera,
When the control unit is switched to the landing mode, the landing support system of the vertical take-off and landing type PAV controls the camera driving unit based on the distance between the ground and the PAV.
삭제delete 제2 항에 있어서,
상기 영상처리부는,
상기 획득된 영상에서 착륙영역을 추출하며,
상기 추출된 영상으로부터 상기 착륙영역 내에 장애물의 존재 여부를 식별하며,
상기 제어부는,
상기 착륙영역 내에 상기 장애물이 존재하는 경우 사용자에게 경고를 수행하도록 제어하는 것을 특징으로 하는 수직 이착륙형 PAV의 착륙지원 시스템.
The method of claim 2,
The image processing unit,
Extracting a landing area from the acquired image,
Identifying whether an obstacle exists in the landing area from the extracted image,
The control unit,
A landing support system of a vertical take-off and landing type PAV, characterized in that controlling to warn a user when the obstacle exists in the landing area.
제4 항에 있어서,
상기 제어부는,
상기 카메라는 상기 PAV의 전방측에 구비되는 제1 카메라 및 후방측에 구비되는 제2 카메라를 포함하며,
지면에서 상기 착륙영역의 반경이 d이며, 상기 PAV의 중심으로부터 상기 제1 카메라까지의 직선거리는 a1, 상기 PAV의 중심으로부터 상기 제2 카메라까지의 직선거리는 a2 인 경우,
상기 PAV의 고도(h) 및 상기 PAV의 피치(pitch)각(θ)을 근거로 하며,
상기 PAV의 전방과 상기 제1 카메라의 시선방향이 이루는 각도를
Figure 112020095901257-pat00005

로 결정하는 것을 특징으로 하는 수직 이착륙형 PAV의 착륙지원 시스템.
The method of claim 4,
The control unit,
The camera includes a first camera provided on the front side of the PAV and a second camera provided on the rear side,
When the radius of the landing area on the ground is d, the linear distance from the center of the PAV to the first camera is a1, and the linear distance from the center of the PAV to the second camera is a2,
Based on the altitude (h) of the PAV and the pitch angle (θ) of the PAV,
The angle formed by the front of the PAV and the gaze direction of the first camera
Figure 112020095901257-pat00005

Vertical take-off and landing type PAV landing support system, characterized in that determined by.
제5 항에 있어서,
상기 제어부는,
상기 PAV의 본체의 후방과 상기 제2 카메라의 시선방향이 이루는 각도를
Figure 112020095901257-pat00006

로 결정하는 것을 특징으로 하는 수직 이착륙형 PAV의 착륙지원 시스템.
The method of claim 5,
The control unit,
The angle formed by the rear side of the main body of the PAV and the gaze direction of the second camera
Figure 112020095901257-pat00006

Vertical take-off and landing type PAV landing support system, characterized in that determined by.
KR1020190086210A 2019-07-17 2019-07-17 Landing Support System for Vertical Takeoff and Landing Type PAV KR102227740B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190086210A KR102227740B1 (en) 2019-07-17 2019-07-17 Landing Support System for Vertical Takeoff and Landing Type PAV

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190086210A KR102227740B1 (en) 2019-07-17 2019-07-17 Landing Support System for Vertical Takeoff and Landing Type PAV

Publications (2)

Publication Number Publication Date
KR20210009545A KR20210009545A (en) 2021-01-27
KR102227740B1 true KR102227740B1 (en) 2021-03-15

Family

ID=74238724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190086210A KR102227740B1 (en) 2019-07-17 2019-07-17 Landing Support System for Vertical Takeoff and Landing Type PAV

Country Status (1)

Country Link
KR (1) KR102227740B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593390B1 (en) * 2023-03-29 2023-10-25 (주)마이크로드론코리아 A device for controlling drone landing and a method thereof
KR20240015292A (en) 2022-07-27 2024-02-05 주식회사 페타브루 take-off and landing system for urban air mobility using radar and CONTROL method OF the same
KR20240015294A (en) 2022-07-27 2024-02-05 주식회사 페타브루 Take-off and landing system for urban air mobility and operation method of the same
WO2024043459A1 (en) * 2022-08-26 2024-02-29 금오공과대학교 산학협력단 Autonomous landing method for drone using object recognition and camera angle control

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371147B1 (en) * 2021-09-16 2022-03-04 주식회사 위젠텍에어로스페이스 A warning system for rotary-wing aircraft
KR102539004B1 (en) 2022-08-26 2023-06-01 한화시스템 주식회사 Controller and take-off and landing method for urban air mobility

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120043413A1 (en) * 2005-10-18 2012-02-23 Smith Frick A Apparatus and method for vertical take-off and landing aircraft

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636301B1 (en) * 2014-10-30 2016-07-05 주식회사 유라코퍼레이션 System and method for anti-collision of the vehicle
KR101775922B1 (en) 2015-05-21 2017-09-08 한국항공우주연구원 Personal air vehicle for road-driving and vertical takeoff and landing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120043413A1 (en) * 2005-10-18 2012-02-23 Smith Frick A Apparatus and method for vertical take-off and landing aircraft

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240015292A (en) 2022-07-27 2024-02-05 주식회사 페타브루 take-off and landing system for urban air mobility using radar and CONTROL method OF the same
KR20240015294A (en) 2022-07-27 2024-02-05 주식회사 페타브루 Take-off and landing system for urban air mobility and operation method of the same
WO2024043459A1 (en) * 2022-08-26 2024-02-29 금오공과대학교 산학협력단 Autonomous landing method for drone using object recognition and camera angle control
KR102593390B1 (en) * 2023-03-29 2023-10-25 (주)마이크로드론코리아 A device for controlling drone landing and a method thereof

Also Published As

Publication number Publication date
KR20210009545A (en) 2021-01-27

Similar Documents

Publication Publication Date Title
KR102227740B1 (en) Landing Support System for Vertical Takeoff and Landing Type PAV
US10345806B2 (en) Autonomous driving system and method for same
JP6459205B2 (en) Vehicle display system
EP3301502A1 (en) Display device, display method and display medium
US20200283167A1 (en) Methods and systems for avoiding a collision between an aircraft and an obstacle using a three-dimensional visual indication of an aircraft wingtip path
JP6744064B2 (en) Automotive image display system
IL201336A (en) System and method for assisting navigation of a vehicle in circumstances where there is a possibility of the view being obscured
JP6375816B2 (en) Vehicle peripheral information display system and display device
US8803727B2 (en) Method for producing sensor-supported, synthetic vision for landing support of helicopters under brown-out or white-out conditions
KR20180083623A (en) Electronic apparatus and control method thereof
JP2015226304A (en) Projection device for vehicle and head-up display system
US20210088652A1 (en) Vehicular monitoring systems and methods for sensing external objects
CN104798084A (en) Method and information system for filtering object information
JP2016074410A (en) Head-up display device and head-up display display method
JP6394940B2 (en) Vehicle display system
KR20160134005A (en) The method of ensuring visibility using drone and adjacent vehicle and the display system using them
WO2016056199A1 (en) Head-up display device, and display method for head-up display
US10893183B1 (en) On-vehicle imaging system
US8547456B1 (en) System and method for monitoring inactive pixels in a scene imaging system
JP4324403B2 (en) Visibility device for moving objects
JP7480756B2 (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP7367922B2 (en) Pilot support system
Senpheng et al. Automatic landing assistant system based on stripe lines on runway using computer vision
US10969589B2 (en) Head up display system, associated display system and computer program product
JP6365409B2 (en) Image display device for vehicle driver

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant