KR20090127837A - 디스플레이 장치의 동작 방법 및 시스템 - Google Patents

디스플레이 장치의 동작 방법 및 시스템 Download PDF

Info

Publication number
KR20090127837A
KR20090127837A KR1020090051138A KR20090051138A KR20090127837A KR 20090127837 A KR20090127837 A KR 20090127837A KR 1020090051138 A KR1020090051138 A KR 1020090051138A KR 20090051138 A KR20090051138 A KR 20090051138A KR 20090127837 A KR20090127837 A KR 20090127837A
Authority
KR
South Korea
Prior art keywords
image
display
portions
display device
aircraft
Prior art date
Application number
KR1020090051138A
Other languages
English (en)
Inventor
브렌트 디. 라슨
존 지. 서드레스
Original Assignee
허니웰 인터내셔널 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 허니웰 인터내셔널 인코포레이티드 filed Critical 허니웰 인터내셔널 인코포레이티드
Publication of KR20090127837A publication Critical patent/KR20090127837A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

디스플레이 장치를 동작시키는 방법과 시스템이 제공된다. 제1 이미지가 상기 디스플레이 장치 상에 표시되어진다. 상기 제1 이미지는 적어도 항공기 기내로부터의 시야를 나타낸다. 제2 이미지가 상기 제1 이미지 위에 상기 디스플레이 장치 상에 부여된다. 상기 제2 이미지의 적어도 일부의 휘도가 시간에 따라 변조된다.
Figure P1020090051138
디스플레이, 항공전자 시스템

Description

디스플레이 장치의 동작 방법 및 시스템{METHOD AND SYSTEM FOR OPERATING A DISPLAY DEVICE}
본 발명은 일반적으로 디스플레이 장치에 관한 것으로, 보다 상세하게는 헤드업 디스플레이(head-up display, 이하 'HUD'라고도 함), 헤드다운 디스플레이(head down display, 이하 'HDD'라고도 함), 및 NTE(near-to-eye) 디스플레이 등의 디스플레이 장치를 동작시키는 방법 및 시스템에 관한 것이다.
항공기와 같은 현대의 운송 수단은 종종, 투명한 디스플레이, 또는 이미지 결합기(image combiner) 상으로 다양한 심볼과 정보를 투영하고 이를 통해 사용자(예컨대, 항공기 조종사)가 외부를 동시에 볼 수 있는 헤드업 디스플레이(HUD)를 포함한다. 전통적인 HUD는 항공기의 전면유리(windshield) 상에 계기판 위에 위치하거나 전면유리와 조정사의 머리 사이에 직접 위치하는 고정된 이미지 결합기가 구비되어 있다.
최근에는, 조종사의 머리의 변하는 위치와 각도 방위와 함께 움직이는 조종사의 헬멧 또는 헤드셋(headset)에 결합된, NTE(near-to-eye) 디스플레이와 같은, 이미지 결합기를 이용하는 "두부 장착(head-mounted)" HUD가 더욱 더 발전되어가고 있다. 두부 장착 HUD의 장점은 디스플레이되는 정보가 조종사의 머리의 위치와 방향에 상관없이 조종사에게 보여질 수 있다는 점이지만, 그 정보가 NTE 디스플레이에 보여지지 않기를 더 원하는 경우가 있을 수 있는데, 예를 들어 조종사가 가능한 한 가시적인 방해물을 최소로 한 상태에서 지형을 보려고 할 때나 혹은 조종사가 계기판 상의 디스플레이(즉, "헤드다운(head-down)" 디스플레이)를 보고 있을 때 그러하다.
이러한 견지에서, 고정된 이미지 결합기를 이용하는 전통적인 HUD는 전형적으로 조종사의 머리가 이미지 결합기 앞에 정면으로 있을 때에만 디스플레이되는 정보가 보이는 장점을 제공한다. 즉, 조종사가 이미지 결합기 주위를 살펴보기 위해 측면으로 기댈 경우에는, HUD 상의 정보가 더이상 보이지 않게 된다. 그러나, 이러한 신체적인 움직임은 조정사가 항공기를 조정하거나 동작시키는 것을 더 어렵게 만든다.
다른 구현예에서는, 외부 시야(outside field of view)의 표시가, 전통적인 HDD에서 이용될 수 있는 오버레이된 이미지들(overlaid imagery)과 함께, 보여질 수 있다.
따라서, HUD 상의 정보와 HUD 이미지가 오버레이되는 이미지 정보의 가시성(visibility)의 균형을 개선하도록 하는 방식으로, 오버레이(overlay)와 함께 대표적인 시야, 예를 들어 외부 시야를 표시하는 전통적인 HUD, NTE 디스플레이, HDD 등의 디스플레이 장치를 제공하는 것이 바람직하다. 또한 본 발명의 다른 바람직한 특징과 특성들은, 첨부된 도면과 배경기술과 함께, 이하의 발명의 상세한 설명 및 특허청구범위로부터 분명해질 것이다.
본 발명의 실시형태들은 HUD 등의 디스플레이 장치에서 사용자에게 시각적인 장애를 최소화한 상태로 정보를 제공할 수 있는 디스플레이의 동작 방법 및 시스템을 제공한다.
디스플레이 장치를 동작시키는 방법이 제공된다. 제1 이미지가 디스플레이 장치 상에 표시되어진다. 제1 이미지는 적어도 항공기 기내로부터의 시야(field of view)를 나타낸다. 제2 이미지가 디스플레이 장치 상에 제1 이미지 위에 주어진다. 제2 이미지의 적어도 일부의 휘도가 시간에 따라 변조된다(temporally modulated).
헤드업 디스플레이(HUD) 장치를 동작시키는 방법이 제공된다. 제1 이미지가 디스플레이 장치 상에 표시되어진다. 제1 이미지는 적어도 항공기에 탑승한 사용자로부터의 시야를 나타낸다. 제2 이미지가 제1 이미지 위에 디스플레이 장치 상에 주어진다. 제2 이미지는 복수개의 실질적으로 선형인 인접부들(linear adjacent portions)을 포함한다. 제2 이미지의 복수의 실질직으로 선형인 인접부들의 휘도가 시간에 따라(temporally) 순차적으로 변조된다(modulated)
항공전자 시스템이 제공된다. 이 항공전자 시스템(avionics system)은 헤드 업 디스플레이(HUD) 장치 및 그 HUD 장치와 통신하는 프로세서를 포함한다. 프로세서는, 적어도 항공기 기내로부터의 시야를 나타내는 제1 이미지가 디스플레이 장치 상에 표시되게 하고, 디스플레이 장치 상에 제1 이미지 위에 복수의 실질적으로 선형인 인접부들을 포함하는 제2 이미지를 주고, 제2 이미지의 복수의 실질적으로 선형인 인접부들의 휘도를 시간에 따라 순차적으로 변조한다.
본 발명에 따르면, HUD 이미지가 예상대로 단속적인 방식으로 디스플레이된다. 이에 따라, HUD 이미지는 시각적인 장애를 최소화한 상태로 사용자에게 정보를 제공하게 된다.
이하, 첨부된 도면을 참조하여 본 발명을 설명한다. 동일 도면부호는 동일 요소를 나타낸다.
다음의 상세한 설명은 본래 단지 예시적인 것이며 본 발명 또는 그 적용 및 본 발명의 사용 또는 용도를 한정하려고 하는 것이 아니다. 또한, 다음의 설명에 앞서 기재된 기술분야, 배경기술 및 과제 해결 수단 또는 다음의 상세한 설명에 존재하는 어떠한 명시적 혹은 암시적인 이론에 의해서 한정하려는 의도는 없다. 도 1 내지 7은 단지 설명을 위해 예시적인 것이며 일정 비율로 축소하여 그려진 것이 아 니다.
도 1 내지 도 7은 디스플레이 장치를 동작시키는 방법와 시스템을 설명한다. 제1 이미지가 디스플레이 장치 상에 표시되어진다. 제1 이미지는 적어도 항공기 기내로부터의 시야를 나타낸다. 제2 이미지는 디스플레이 장치 상에 제1 이미지 위에 주어진다. 제2 이미지의 적어도 일부의 휘도가 시간에 따라(temporally) 변조된다.
일 실시예에서, 디스플레이 장치는 항공기 기내의 헤드업 디스플레이(HUD)이며, 제2 이미지는 기호 및/또는 EVS(enhanced flight vision system) 피처(features)를 포함한다. 제2 이미지는 제2 이미지의 일측으로부터 제2 이미지의 반대측으로 순차적으로 변조되는(modulated) 복수의 실질적으로 선형인 부분들을 포함할 수 있다. 이러한 변조(modulating)는 제2 이미지의 일부의 밝기를 증가시키는 것과 제2 이미지의 그 일부분의 밝기를 감소시키는 것을 포함할 수 있다.
도 1은 본 발명의 실시예에 따른, 항공기 등의 운송수단(20)을 개략적으로 나타낸다. 운송수단(20)은, 일 실시예에서, 예를 들어, 프로펠러 또는 제트 엔진 구동의 자가 비행기, 상업용 제트 여객기, 또는 헬리콥터 등의 다양한 종류의 항공기 중의 어느 하나일 수 있다. 도시된 실시예에서, 항공기(20)는 비행 데스크(22)(또는 조종석)와 항공전자/비행 시스템(24)을 포함한다. 구체적으로 도시되어 있지 않지만, 일반적으로 이해되는 바와 같이, 항공기(20)는 또한, 비행 데스 크(22) 및 항공전자/비행 시스템(24)이 연결된 프레임 또는 기체(body)를 포함한다. 항공기(20)는 단지 예시적인 것이며 도시된 구성요소들, 시스템 및 데이터 소스 중 하나 이상이 없이도 구현될 수 있다. 또한 항공기(20)는 하나 이상의 추가적인 구성요소, 시스템 또는 데이터 소스를 더 포함하여 구현될 수도 있다.
비행 데스크(22)는 사용자 인터페이스(26), 디스플레이 장치들(28) (예를 들어, 주 비행 디스플레이(primary flight display; PFD), 통신 라디오(30), 내비게이션 라디오(32), 오디오 장치(34), 헤드셋(36), 및 머리(및/또는 눈) 동작 트랙커(motion tracker)(38)를 포함한다.
사용자 인터페이스(26)는 사용자(40)(예컨대, 조종사)로부터 입력을 받고, 사용자 입력에 응하여, 명령 신호(command signal)를 항공전자/비행 시스템(24)에 제공하도록 구성된다. 사용자 인터페이스(26)는 비행 조정장치(flight controls)(도시 안함)을 포함하고, 이에 한정되지는 않지만, 마우스 등의 커서 제어 장치(cursor control device; CCD), 트랙볼, 또는 조이스틱 및/또는 키보드, 하나 이상의 버튼, 스위치, 또는 손잡이를 포함하는 알려진 다양한 사용자 인터페이스 장치 중 어느 하나 또는 이들의 조합을 포함할 수 있다. 도시된 실시예에서, 사용자 인터페이스(26)는 CCD(42)와 키보드(44)를 포함한다. 사용자(40)는, 예를 들어, 디스플레이 장치(28) 상에서 커서 기호를 움직이기 위해 CCD(42)를 사용하고, 예를 들어 텍스트 데이터를 입력하기 위해 키보드(44)를 사용한다.
계속해서 도 1을 참조하면, 디스플레이 장치들(28)은 다양한 이미지와 데이터를 그래픽, 아이콘 및/또는 텍스트 형식으로 디스플레이하기 위해, 그리고 사용자(40)에 의해 사용자 인터페이스(26)에 제공된 사용자 입력 명령(user input commands)에 응하여 사용자(40)에게 시각적인 피드백을 제공하기 위해 사용된다. 디스플레이 장치들(28) 각각은, 음극선관(CRT) 디스플레이, LCD(liquid crystal display), 또는 TFT(thin film transistor) 디스플레이 등과 같이, 사용자(40)에게 보여질 수 있는 형식으로 이미지 및/또는 텍스트 데이터를 제공하는 데에 적합한 다수의 알려진 디스플레이 중 어느 하나를 사용하여 구현될 수 있다. 또한, 디스플레이 장치들(28)은 "헤드-다운(head-down)" 디스플레이 또는 고정된 이미지 결합기상에 투영되는 헤드-업 디스플레이(HUD)로서 비행 데스크(22) 상에 구현될 수 있다.
통신 라디오(30)는, 일반적으로 이해되는 바와 같이, 항공 교통 관제관(air-traffic controllers) 및 다른 항공기의 조종사와 같은, 운송수단 (20)의 외부 존재(entities)와 통신하기 위해 사용된다. 내비게이션 라디오(32)는, 외부 소스로부터, GPS(Global Positioning Satellite) 시스템과 ADF(Automatic Direction Finder)(이하에서 설명 바와 같음)와 같은, 운송수단의 위치에 관한 다양한 형태의 정보를 외부 소스로부터 수신받아서 사용자에게 전달하기 위해 사용된다. 오디오 장치(34)는, 일 실시예에서, 비행 데스크(22) 내에 장착된 오디오 스피커이다.
헤드셋(36)은 이어폰(46), 마이크로폰(48), 및 NTE(near-to-eye) 디스플레이(또는 디스플레이 스크린)(50) 등의 디스플레이 장치의 상호 연결된 조합을 포함한다. 이어폰(46)은 실질적으로 헤드셋(36)을 위한 프레임을 형성하고 조종사에 의해 제거가능하게 착용될 수 있다. 이어폰(46)과 마이크로폰(48)은 통신 라디오(30)와 통신 동작할 수 있으며, NTE 디스플레이는 아래 설명하는 바와 같이, 항공전자 시스템(34)과 통신 동작할 수 있다. 일반적으로 이해되는 바와 같이, 헤드셋(36)을 착용하는 동안 디스플레이(50)가 사용자의 눈 앞 정면에 배치될 수 있도록 NTE 디스플레이(50)는 이어폰(46)으로부터 조정가능하게 달려있을 수 있다. 일 실시예에서, NTE 디스플레이(50)는 일반적으로 이해되는 바와 같이, 이미지 결합기(image combiner)(즉, 실질적으로 투명한 판)이다. NTE 디스플레이(50)는 또한, 예를 들어, LCD 디스플레이 스크린과 같은, 평판 디스플레이 스크린일 수 있다. 도시되어 있지는 않지만, 헤드셋(36)은 또한, 사용자의 머리에 대해 상대적인 사용자 눈의 동작을 탐지하는 눈 동작 탐지기를 포함할 수 있다. 또한, 헤드셋(36)은 사용자의 머리의 동작을 탐지하기 위한, 관성 센서 등의, 다양한 하드웨어를 포함할 수 있다.
일반적으로 이해되는 바와 같이, 동작 트랙커(38)는 조종사의 머리, 전체로서의 헤드셋(36), 및/또는 NTE 디스플레이(50)의 움직임(즉, 위치 및 각도 방위)을 (독자적으로 또는 헤드셋(36) 내의 하드웨어와 공동하여) 탐지하도록 구성된다. 도 시되어 있지는 않지만, 동작 트랙커(38)는 헤드셋(36) 내에 위치하는 광학적 및/또는 적외선 구성요소 및 관성 센서를 포함하여 움직임을 결정하기 위해 다양한 방법을 이용할 수 있다.
도 1에 도시된 바와 같이, 항공전자/비행 시스템(24)은 활주로 인식 및 보고 시스템(RAAS; runway awareness and advisory system)(54), 계기 착륙 시스템(ILS; instrument landing system)(56), 비행 지시기(flight director)(58), 날씨 데이터 소스(60), 지형 회피 경고 시스템(TAWS; terrain avoidance warning system)(62), 운항 및 충돌 방지 시스템(TCAS; traffic and collision avoidance system)(64), 복수의 센서(66)(예를 들어, 기압 센서, 온도계, 및 풍속 센서), 하나 이상의 지형 데이터베이스(68), 하나 이상의 내비게이션 데이터베이스(70), 내비게이션 및 제어 시스템(또는 내비게이션 컴퓨터)(72), 및 프로세서(74)를 포함한다. 항공전자/비행 시스템(24)의 다양한 구성요소가 데이터 버스(76)(또는 항공전자 버스; avionics bus)를 통해 통신 동작 가능하다. 도시되어 있지는 않지만, 내비게이션 및 제어 시스템(72)은 비행 관리 시스템(FMS; flight management system), 제어 디스플레이 유닛(CDU; control display unit), 자동항법(autopilot) 또는 자동 유도 시스템(automated guidance system), 다중 비행 조종면(multiple flight control surfaces)(예컨대, 에일러론(ailerons), 엘리베이터(elevators) 및 러더(rudders)), ADC(Air Data Computer), 고도계, ADS(Air Data System), GPS(Global Positioning Satellite) 시스템, ADF(Automatic Direction Finder), 나 침반, 적어도 하나의 엔진, 및 기어(즉, 착륙 기어(landing gear))를 포함할 수 있다.
프로세서(74)는, 필드 프로그래머블 게이트 어레이(FPGAs; field programmable gate arrays), 특정 응용 집적회로(ASICs; application specific integrated circuits), 디스크릿 로직(discrete logic), 마이크로프로세서, 마이크로콘트롤러 및 디지털 신호 프로세서(DSPs; digital signal processors), 또는 이들의 조합과 같은, 프로그램 명령(program instructions)에 응하여 동작하는 알려진 다수의 다양한 범용 제어기 또는 특정 응용 프로세서(application specific processor) 중 어느 하나일 수 있다. 도시된 실시예에서, 프로세서(74)는 기내의 RAM(random access memory)(78)과 기내의 ROM(read only memory)(80)을 포함한다. 프로세서(74)를 제어하는 프로그램 명령(program instructions)은 RAM(78) 및 ROM(80) 둘다에 저장되거나 둘 중 하나에 저장될 수 있다. 예를 들어, 운영 시스템 소프트웨어는 ROM(80)에 저장될 수 있는 반면에, 다양한 동작 모드 소프트웨어 루틴과 다양한 동작 파라미터들은 RAM(78)에 저장될 수 있다. RAM(78) 및/또는 ROM(80)은 아래 설명된 방법과 프로세스를 실행하기 위해 그 메모리에 저장된 명령(instructions)을 포함할 수 있다. 이것은 운영 시스템 소프트웨어 및 소프트웨어 루틴을 저장하는 방식의 일례일 뿐이며 다른 다양한 저장 방식이 구현될 수 있음은 분명하다. 또한, 프로세서(74)는 프로그래머블 프로세서뿐만 아니라, 다양한 다른 회로를 이용하여 구현될 수 있다. 예를 들어, 디지털 로직 회로와 아날로그 신호 처리 회로가 또한 사용될 수 있다.
항공기(20)의 동작 동안에, 헤드셋(36)은 조종사(40)(또는 다른 사용자)에 의해 착용되고, 이어폰(46)과 마이크로폰(48)이 다른 항공기뿐만 아니라 지상의 인원과 통신하기 위해 사용된다. 또한, NTE 디스플레이(50)는 사용자(40)의 눈 중 적어도 한쪽 눈 앞 정면(바로 앞)에 배치되도록 조절된다.
도 2는 동작 동안의 NTE 디스플레이(50)를 나타낸다. NTE 디스플레이(50) 상에는, 제1 이미지(82)와 제2 이미지(84)가 보여진다. 도시된 실시예에서, 제1 이미지(82)는 적어도 비행 데스크(22)로부터 조종사의 시야를 나타내는 아래에 있는 지형 이미지이다. 도 3에 도시된 일 실시예에서, 제1 이미지(82)는 항공기(20)로부터 항공기(20) 외부의 지형의 사시도(perspective view)를 묘사하고, 실질적으로 디스플레이(50) 전체에 걸쳐 표시된다. 제1 이미지(82)는 지형부(terrain portion)(86)과 하늘부(sky portion)(88)를 포함하는데, 지형과 하늘 간의 묘사는 조종사의 운전에 매우 중요하다. 일반적으로 이해되는 바와 같이, 디스플레이(50)가 이미지 결합기인 실시예에서, 제1 이미지(82)는 단순히, NTE 디스플레이(50)를 통해 보여지는 물리적인 지형(및/또는 비행 데스크(22)이 내부)에 대한 조종사(40)의 실제 시야이다. 한편, NTE 디스플레이(50)가, 예를 들어 LCD 디스플레이인 실시예에서는, 제1 이미지(82)는, 지형 및 내비게이션 데이터베이스(68, 70)(도 1 참조)뿐만 아니라, 항공기(20)의 현재 위치 및/또는 방위(예를 들어, 방향(heading))를 제공하고 항공기(20)의 위치 및/또는 방위가 바뀜에 따라 변화하는 항공기(20) 기내의 다양한 계기로부터의 다중 판독에 기반한 컴퓨터 생성 이미지(예컨대, 합성 시계(synthetic vision))일 수 있다. 도 2에 나타난 바와 같이, 사용자(40)의 항공기(20) 운영을 돕도록 지형 지세(예컨대, 언덕, 산, 계곡 등)가 제1 이미지(82) 상에 보여질 수 있다.
계속해서 도 2를 참조하면, 제2 이미지(또는 HUD 이미지)(84)는 제1 이미지(82) 위에 디스플레이된다. 제2 이미지(84)는, 도 3에 도시된 실시예에서, 다양한 기호(symbology) 피처(90-100)와 "EVS(enhanced flight vision system)" 피처(102 및 104)를 포함한다. 기호 피처는 (지평선 바(100)를 포함하여) 고도 지시계(90), 대기 속도계(airspeed indicator)(92), 방향 지시계(heading indicator)(94), 롤 지시계(roll indicator)(96), 및 피치 지시계(pitch indicator)(98) 와 같은 다수의 디지털 계기들을 포함한다. 도시된 실시예에서, 고도 지시계(90)와 대기 속도계(92)는 일반적으로 이해되는 바와 같이, 고도 "테이프(tape)"와 대기속도 테이프로서 각각 디스플레이된다. 방향 지시계(94)는 디스플레이(50)의 하부 중심부에 나침반처럼 도해적으로 디스플레이된다. 롤 지시계(96)는 방향 지시계(94) 위에 디스플레이(50)의 상부에서 디스플레이되고, 피치 지시계(98)는 방향 지시계(94)와 롤 지시계(96) 사이에 배치된다. 디지털 계기(90-98)는, 항공기(20)의 위치 및/또는 방위(즉, 방향, 피치, 롤 등)의 지시를 사용자(40)에게 제공한다. 지평선 바(100)는 스크린(50) 중심 근방에 피치 지시계(98)를 통하 여 수평으로 연장된다.
나타나 보이는 EVS 피처는 라디오 타워(102)와 활주로(104)의 지상 이미지를 포함한다. 일반적으로 이해되는 바와 같이, EVS 시스템은 전형적으로 적외선 카메라 등의 "강화된 영상(enhanced vision)" 카메라 또는 센서를 이용하여, 항공기 외부의 실세계 대상물(real world objects)의 이미지를 생성하고 이를 다른 이미지(예를 들어, 제1 이미지(82))에 오버레이(overlay)한다. 이러한 오버레이된 이미지(예를 들어, 102 및 104)는 실세계 대상물(예를 들어, 실세계 라디오 타워 및 실세계 활주로)를 명확히 마킹함으로써 조종사의 항공기 운전을 용이하게 한다.
일 실시예에서, 전체 제2 이미지(84)(즉, 기호 및/또는 EVS 피처)는 상대적으로 낮은 휘도(예를 들어, 0%의 최대 휘도)에서 시작한다. 그리고 나서, 제2 이미지(84)의 다른 부분들은 짧은 시간(예컨대, 일 펄스) 동안에 연속해서 휘도가 증가한다. 짧은 시간이 지난후에, 제2 이미지의 각 부분은 (예를 들어 지수함수적으로(exponentially)) 어두워지게(dimmed) 된다. 이러한 프로세스는 일정한 시간 간격을 두고 반복되어 조종사(40)는 제2 이미지(84)의 다른 부분들이 "리프레시되는(refreshed)" 리듬에 익숙해진다.
도 3 및 4에 도시된 바와 같이, 사용자에게는 보이지 않을 수 있는 점선(106)이 NTE 디스플레이(50)를 가로질러 제2 이미지(84)의 제1 측(또는 좌 측)(108)으로부터 제2 이미지(84)의 제2 측(또는 우측)(110)으로 쓸어지나간다(swept). 점선(106)이 제2 이미지(84) 위로 지나갈 때, 점선(106)으로 "덮힌(covered)" (또는 점선(106)과 일치하는(congruent) 제2 이미지의 부분은 휘도가 증가하여, 사용자 눈에 보이게 된다. 이러한 것으로서, 제2 이미지(84)는 점선(106)과 일치하는 제2 이미지(84)의 부분들에 대응하는, 예를들어, 한 픽셀의 폭으로 된 수많은 수직, 선형부(linear portions)로 나뉘어지는 것으로 여겨질 수 있다. 이 부분들은 스크린에 걸쳐서 연속적으로 밝아져서, 도시된 실시예에서는, 제2 이미지(84)가 눈으로 볼 수 있는 형태로 좌측에서 우측으로 "스윕핑된다(swept)". 일 실시예에서, 점선(106)은, 예를 들어, 0.5와 5.0초 사이의 시간에 제1 측(108)으로부터 제2 측(110)으로 제2 이미지(84)를 가로질러 갈 수 있다.
도 5는 도 4 및 5에 도시된 제2 이미지(84)의 선형부들 중 하나에 대한 휘도 프로파일(112)을 나타낸다. 이 휘도 프로파일은 펄스 섹션(114)과 쇠퇴 섹션(decay section)(116)을 포함한다. 펄스 섹션(114)은 점선(106)이 제2 이미지(84)의 특정 섹션 위를 지나갈 때 발생하고(도 5), (더 긴 상승 시간(rise time)이 사용된다 하더라도, 프로파일(112)의 기울기가 거의 수직이 되도록) 매우 짧은 시간에 매우 낮은 휘도(예를 들어, 0%)로부터 상대적으로 높은 휘도(예를 들어, 80%)로 증가된 휘도에 의해 특징지워진다. 점선(106)이 계속 이미지의 다른 부분으로 나아간 후에는, 프로파일(112)의 쇠퇴 섹션(116)에 의해 표시된 바와 같이 휘도가 점점 감소한다. 즉, 제2 부분이 상술한 바와 같이 "펄스로 되는(pulsed)" 동안, 제1 부분은 어 두워지게 된다(dimmed).
일 실시예에서, 펄스 섹션(114)은, 예를 들어, 0.05와 0.5초 사이의 지속시간을 갖고 쇠퇴 섹션(116)은, 예를 들어, 0.5와 5초 사이의 지속시간을 갖는다. 눈으로 볼 수 있게 제2 이미지(84)가 점선(106)에 의해 "스윕핑된(swept)" 후에는, 제2 이미지(84)는 시야에서 사라지거나 어두워지게 된다. 도 4 및 5에 도시된 실시예에서, 제2 이미지(84)의 좌측(108)이 우측(110) 이전에 펄스로 되고, 제2 이미지(84)는 좌측에서 우측으로 사라진다.
그리고 나서, 이러한 프로세스는 좌측(108)에서 다시 시작하는 점선(106)으로 다시 시작할 수 있다. 점선(106)의 다음 스윕프(sweep)는 이전 스윕프 후에 즉시 시작하거나, 예를 들어 몇초 동안의 지연 후에 시작할 수 있다. 이러한 것으로서, 여기서 설명하는 시스템의 몇가지 특징들이 예를 들어 사용자 인터페이스(26)를 통해 사용자(40)에 의해 조정될 수 있는데, 예를 들어, 점선(106)이 제2 이미지(84)를 가로질러 가는 속력, 휘도 프로파일(112)의 펄스 및 쇠퇴 섹션(114 및 116)의 길이 및/또는 기울기, 및 점선(106)의 연속적인 스윕프 사이의 지연 등의 특징들이 조정될 수 있다.
도 6 및 7은 본 발명의 다른 실시예에 따른 NTE 디스플레이(50)를 나타낸다. 도시된 바와 같이, 도 6 및 7에서의 점선(106)은 도 3 및 4와 다르게 방향이 정해 져 있다. 특히, 점선(106)은 피봇점(pivot point)(118)을 중심으로 선회하며, 이 피봇점은 NTE 디스플레이(50) 아래에(적어도 가상적으로, 피봇점(118)은 사용자(40)에게 보이지 않음) NTE 디스플레이(50)에 대하여 고정된 위치에 위치한다. 이러한 것으로서, 점선(106)은, "전면 유리 와이퍼(windshield wiper)"와 유사한 방식으로 제2 이미지(84)를 가로질러 선회하여 스위핑한다. 또한, 점선은 제2 이미지의 좌측(108)으로부터 제2 이미지(84)의 우측(110)으로 가로질러 가고 나서 우측(110)으로부터 좌측(108)으로 가로질러 간다(즉, 좌측(108)과 우측(110) 사이에서 좌우로 가로질러 감). 이러한 것으로서, 점선(106)의 움직임의 방향과 마찬가지로, 점선(106)의 방위가 다른 실시예에서 변할 수 있다. 또 다른 실시예에서, 피봇점(118)은 NTE 디스플레이(50) 상에 위치하여, 사용자(40)에게 보여지도록 할 수 있다. 또 다른 실시예에서, 가로지르는 방향이 동일한 상태로 남아있을 수도 있다. 또 다른 실시예에서, 피봇점(118)은 디스플레이 이외의 다른 기준 프레임(reference frame)에 관하여 고정될 수 있는데, 예를 들어 운송수단의 기준 프레임 혹은 외부 세계의 기준 프레임의 일 지점에 관하여 고정될 수 있다.
상술한 방법과 시스템의 장점 중 하나는 HUD 이미지가 예상대로 간헐적인(단속적인) 방식으로 디스플레이된다는 점이다. 이러한 것으로서, HUD 이미지는 시각적인 장애를 최소화하는 방식으로 사용자에게 정보를 제공한다.
다른 실시예들은 컨포멀한(conformal) 방식으로 오버레이된 EVS 또는 합성 시계 이미지(synthetic vision images)를 포함할 수 있거나, 또는 육상의 운송수단 및 선박 등과 같은, 항공기 이외의 다른 운송수단에 상술한 방법과 시스템을 이용할 수 있다. 상술한 방법과 시스템은 다른 형태의 디스플레이 장치, 예를 들어 HDD와 함께 사용될 수 있고, 또한, 사용중인 디스플레이 시스템이 사용자에 의한 운송수단의 원격 조정을 행하는 스테이션의 일부를 이루는 무인 운송수단에 사용될 수도 있다.
상술한 설명에서 적어도 하나의 실시예가 설명되었으나, 다양한 수정예, 변형예가 존재한다. 상술한 실시예는 단지 예시적인 것이며 본발명의 범위, 적용성, 또는 구성을 한정하는 것이 아니다. 상술한 상세한 설명은 본 기술분야의 통상의 지식을 가진 자에게 실시예를 구현하기 위한 로드랩을 제공한다. 특허청구범위에 기재된 본 발명 및 이의 균등물의 범위를 벗어나지 않고서 다양한 변형이 구성요소의 배치, 기능에서 이루어 질 수 있다.
도 1은 본 발명의 일 실시예에 따른, 항공기의 개략적인 블록도이다.
도 2는 제1 및 제2 이미지가 부여된 도 1의 항공기 내의 NTE(near-to-eye) 디스플레이의 평면도이다.
도 3은 본 발명의 일 실시예에 따라, 제2 이미지의 시간에 따른 변조를 나타내는 도 2에 유사한 NTE 디스플레이의 평면도이다.
도 4는 도 3에서의 제2 이미지의 시간에 따른 변조를 추가로 나타내는 NTE 디스플레이의 평면도이다.
도 5는 도 3 및 4의 이미지의 제2 부분의 일부의 휘도 프로파일을 나타내는 그래프이다.
도 6은 본 발명의 다른 실시예에 따라, 제2 이미지의 시간에 따른 변조를 나타내는 NTE 디스플레이의 평면도이다.
도 7은 도 6에서의 제2 이미지의 시간에 따른 변조를 추가로 나타내는 NTE 디스플레이의 평면도이다.

Claims (10)

  1. 적어도 항공기(20) 기내로부터의 시야를 나타내는 제1 이미지(82)가 디스플레이 장치(50) 상에 표시되게 하는 단계;
    상기 디스플레이 장치(50) 상에 상기 제1 이미지(82) 위에 제2 이미지(84)를 부여하는 단계; 및
    상기 제2 이미지(84)의 적어도 일부의 휘도를 시간에 따라 변조하는 단계를 포함하는 디스플레이 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 시간에 따른 변조는 상기 제2 이미지(84)의 적어도 일부의 휘도를 반복적으로 증가시키고 감소시키는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 제2 이미지(84)의 적어도 일부는 상기 제2 이미지(84)의 복수의 인접 부분들을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  4. 제3항에 있어서,
    상기 시간에 따른 변조는,
    상기 제2 이미지(84)의 부분들중 제1 부분의 휘도를 증가시키는 단계;
    상기 제2 이미지(84)의 부분들중 상기 제1 부분의 휘도를 감소시키는 단계;
    상기 제2 이미지(84)의 부분들중 제2 부분의 휘도를 증가시키는 단계 - 상기 이미지(84)의 부분들중 상기 제2 부분은 상기 제1 부분에 인접함 - ; 및
    상기 제2 이미지(84)의 부분들중 상기 제2 부분의 휘도를 감소시키는 단계를 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  5. 제4항에 있어서,
    상기 제2 이미지(84)의 부분들중 상기 제2 부분의 휘도의 증가는 상기 제1 부분의 휘도의 감소 동안에 발생되는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  6. 제5항에 있어서,
    상기 제2 이미지(84)의 복수의 인접 부분들 각각은 실질적으로 선형인 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  7. 제6항에 있어서,
    상기 제2 이미지(84)는 서로 반대측에 있는 제1측 및 제2측(108, 110)을 포함하고, 상기 실질적으로 선형인 인접 부분들이 상기 제2 이미지(84)의 제1측(108)으로부터 상기 제2 이미지(84)의 제2측(110)으로 시간에 따라 변조되도록 상기 제2 이미지(84)의 실질적으로 선형인 부분들의 상기 시간에 따른 변조는 순차적으로 일어나는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
  8. 헤드업 디스플레이(HUD) 장치(50); 및
    상기 HUD 장치(50)와 통신하는 프로세서(74)를 포함하고,
    상기 프로세서(74)는,
    적어도 항공기(20) 기내로부터의 시야를 나타내는 제1 이미지(82)가 상기 디스플레이 장치(50) 상에 표시되게 하고,
    상기 디스플레이 장치(50) 상에 상기 제1 이미지(82) 위에, 복수의 실질적으로 선형인 인접 부분들을 포함하는 제2 이미지(84)를 부여하고,
    상기 제2 이미지(84)의 복수의 실질적으로 선형인 부분들의 휘도를 시간에 따라 순차적으로 변조하는 것을 특징으로 하는 항공전자 시스템.
  9. 제8항에 있어서,
    상기 제2 이미지(84)는 기호(symbology)와 EVS(enhanced flight vision system) 피처들 중 적어도 하나를 포함하는 것을 특징으로 하는 항공전자 시스템.
  10. 제9항에 있어서,
    상기 제2 이미지(84)는 서로 반대측에 있는 제1측 및 제2측(108, 110)을 포함하고, 상기 실질적으로 선형인 인접 부분들이 상기 제2 이미지(84)의 제1측(108)으로부터 상기 제2 이미지(84)의 제2측(110)으로 시간에 따라 변조되도록 상기 시간에 따른 변조의 순서가 이루어지는 것을 특징으로 하는 항공전자 시스템.
KR1020090051138A 2008-06-09 2009-06-09 디스플레이 장치의 동작 방법 및 시스템 KR20090127837A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/135,801 US8026834B2 (en) 2008-06-09 2008-06-09 Method and system for operating a display device
US12/135,801 2008-06-09

Publications (1)

Publication Number Publication Date
KR20090127837A true KR20090127837A (ko) 2009-12-14

Family

ID=41055220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090051138A KR20090127837A (ko) 2008-06-09 2009-06-09 디스플레이 장치의 동작 방법 및 시스템

Country Status (5)

Country Link
US (1) US8026834B2 (ko)
EP (1) EP2133728B1 (ko)
JP (1) JP2009292470A (ko)
KR (1) KR20090127837A (ko)
TW (1) TW201009802A (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2921181B1 (fr) * 2007-09-14 2010-06-11 Thales Sa Procede de presentation d'informations d'anti-collision dans un viseur tete haute pour aeronef
US8416152B2 (en) 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
US8914166B2 (en) 2010-08-03 2014-12-16 Honeywell International Inc. Enhanced flight vision system for enhancing approach runway signatures
US8487787B2 (en) 2010-09-30 2013-07-16 Honeywell International Inc. Near-to-eye head tracking ground obstruction system and method
US20120140125A1 (en) * 2010-12-03 2012-06-07 Honeywell International Inc. Aircraft cockpit visor display
JP6227858B2 (ja) * 2011-06-06 2017-11-08 晃栄化学工業株式会社 水稲用肥料及び水稲栽培方法
US8754786B2 (en) * 2011-06-30 2014-06-17 General Electric Company Method of operating a synthetic vision system in an aircraft
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
US8698654B2 (en) * 2011-12-28 2014-04-15 Honeywell International Inc. System and method for selecting images to be displayed
US9165366B2 (en) 2012-01-19 2015-10-20 Honeywell International Inc. System and method for detecting and displaying airport approach lights
EP2662722B1 (en) * 2012-05-11 2016-11-23 AGUSTAWESTLAND S.p.A. Helicopter and method for displaying a visual information associated to flight parameters to an operator of an helicopter
JP2013257492A (ja) * 2012-06-14 2013-12-26 Sony Corp 制御装置、表示装置、制御方法、照明制御方法及びプログラム
FR2996670B1 (fr) * 2012-10-05 2014-12-26 Dassault Aviat Systeme de visualisation pour aeronef, et procede de visualisation associe
FR3001826B1 (fr) * 2013-02-06 2016-05-06 Airbus Operations Sas Procede d'aide au pilotage d'un aeronef par affichage adapte de symboles
US20150015698A1 (en) * 2013-07-10 2015-01-15 Gulfstream Aerospace Corporation Methods and systems for optical aircraft detection
JP2016080984A (ja) * 2014-10-21 2016-05-16 株式会社デンソー 表示制御方法、表示制御装置、表示装置
US9811954B2 (en) * 2014-12-02 2017-11-07 Honeywell International, Inc. Near-to-eye display systems and methods for verifying aircraft components
US10540007B2 (en) * 2016-03-04 2020-01-21 Rockwell Collins, Inc. Systems and methods for delivering imagery to head-worn display systems
TWI757318B (zh) * 2017-08-03 2022-03-11 宏碁股份有限公司 儀表板顯示畫面的控制方法及使用其方法的電子裝置
US10876856B2 (en) * 2018-01-10 2020-12-29 Gulfstream Aerospace Corporation Aircraft HUD with curved tapes and flight mode annunciation boxes
US11582412B2 (en) * 2021-04-01 2023-02-14 Rockwell Collins, Inc. Camera agnostic core monitor incorporating projected images with high spatial frequency
US11960644B2 (en) 2021-08-05 2024-04-16 Rockwell Collins, Inc. System and method for gaze and pose detection to anticipate operator intent
US20230043771A1 (en) * 2021-08-05 2023-02-09 Rockwell Collins, Inc. System and method for assessing operator situational awareness via context-aware gaze detection

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4702698A (en) * 1984-09-21 1987-10-27 Harris Corporation Digital radar generator
US4752825A (en) * 1986-10-10 1988-06-21 Grumman Aerospace Corporation Video display simulator and analyzer
US5281960A (en) * 1991-11-19 1994-01-25 Silhouette Technology, Inc. Helmet mounted display
US6700692B2 (en) * 1997-04-02 2004-03-02 Gentex Corporation Electrochromic rearview mirror assembly incorporating a display/signal light
GB9807186D0 (en) * 1998-04-04 1998-06-03 Marconi Gec Ltd Display arrangements
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
JP4354085B2 (ja) * 2000-05-09 2009-10-28 本田技研工業株式会社 車両用ヘッドアップディスプレイ装置
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
WO2004099851A2 (en) * 2003-05-12 2004-11-18 Elbit Systems Ltd. Method and system for audiovisual communication
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
US8194002B2 (en) * 2004-09-14 2012-06-05 The Boeing Company Situational awareness components of an enhanced vision system
US8416152B2 (en) * 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display

Also Published As

Publication number Publication date
JP2009292470A (ja) 2009-12-17
EP2133728B1 (en) 2013-06-19
EP2133728A3 (en) 2011-11-02
US8026834B2 (en) 2011-09-27
TW201009802A (en) 2010-03-01
EP2133728A2 (en) 2009-12-16
US20090303082A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
US8026834B2 (en) Method and system for operating a display device
US8416152B2 (en) Method and system for operating a near-to-eye display
US11215834B1 (en) Head up display for integrating views of conformally mapped symbols and a fixed image source
EP2437234B1 (en) Near-to-eye head tracking ground obstruction system and method
EP2182326B1 (en) Methods and systems for displaying sensor-based images of an external environment
US8170729B2 (en) Method and system for operating a display device on-board an aircraft
US8576094B2 (en) Method and system for displaying navigation corridors
US8907887B2 (en) Methods and systems for operating avionic systems based on user gestures
US8963804B2 (en) Method and system for operating a near-to-eye display
EP2461202B1 (en) Near-to-eye head display system and method
EP2200005B1 (en) Method and system for managing traffic advisory information
US9864194B2 (en) Systems and methods for displaying FOV boundaries on HUDs
EP4027298A1 (en) Apparent video brightness control and metric
EP3933805A1 (en) Augmented reality vision system for vehicular crew resource management
US20200307823A1 (en) Intelligent and ergonomic flight deck workstation

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid