KR20150144091A - 차량용 디스플레이 장치 - Google Patents

차량용 디스플레이 장치 Download PDF

Info

Publication number
KR20150144091A
KR20150144091A KR1020140072755A KR20140072755A KR20150144091A KR 20150144091 A KR20150144091 A KR 20150144091A KR 1020140072755 A KR1020140072755 A KR 1020140072755A KR 20140072755 A KR20140072755 A KR 20140072755A KR 20150144091 A KR20150144091 A KR 20150144091A
Authority
KR
South Korea
Prior art keywords
display
user
hand
processor
displayed
Prior art date
Application number
KR1020140072755A
Other languages
English (en)
Other versions
KR101637881B1 (ko
Inventor
조영준
박수용
정문채
김선욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140072755A priority Critical patent/KR101637881B1/ko
Publication of KR20150144091A publication Critical patent/KR20150144091A/ko
Application granted granted Critical
Publication of KR101637881B1 publication Critical patent/KR101637881B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 차량용 디스플레이 장치에 관한 것이다. 본 발명의 실시예에 따른 차량용 디스플레이 장치는, 디스플레이와, 디스플레이 주변에 배치되며, 사용자 손의 접근 또는 이동을 감지하는 공간 인식 센서부와, 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 디스플레이에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어하는 프로세서를 포함한다. 이에 의해, 사용자 이용 편의성이 향상될 수 있다.

Description

차량용 디스플레이 장치{Display apparatus for vehicle}
본 발명은 차량용 디스플레이 장치에 관한 것이며, 더욱 상세하게는 사용자 이용 편의성이 향상시킬 수 있는 차량용 디스플레이 장치에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량에 탑승한 사용자를 위해, 다양한 정보를 제공하는 디스플레이 장치에 대한 다양한 연구가 진행되고 있다.
최근 터치(Touch) 기술과 3D 기술 등의 발전으로, 3D 인터렉션(Interaction) 이 가능토록 하는 기술에 대한 연구가 활발하다.
한편, 3D 인터렉션(Interaction)은 기존 터치 센서(touch sensor)에서의 X-Y축 입력 센싱에서 확장하여 Z축 입력도 센싱하는 것을 포함하는 기술이다. 현재 카메라 또는 초음파 등을 기반으로 근접 터치 또는 공간 인식을 구현하여 이를 차량 내에 상용화시키기 위한 노력들이 진행 중이다.
예를 들어, 한국 특허공개공보 제10-2012-0058308호에서는, 디스플레이부를 포함하는 휴대기기가, 사용자의 모션을 감지하는 것을 예시한다. 특히, 근접 센서에 의해, 근접 입력을 감지하고, 터치 센서에 의해 터치 입력을 감지하는 것을 개시한다.
하지만, 카메라 기반 또는 초음파(ultrasonic) 기반 등의 일반 센서 모듈을 사용하여, Z축 입력을 센싱하는 경우, 해상도(resolution)나 시야각 등으로 인해, 근접 공간 인식의 성공률이 떨어지는 문제점이 있다.
본 발명의 목적은, 사용자 이용 편의성을 향상시킬 수 있는 차량용 디스플레이 장치를 제공함에 있다.
본 발명의 다른 목적은, 사용자 제스쳐가, 제1 방향 원형 궤도에 대응하는 경우, 줌 모드로 간단하게 진입하기 위한 차량용 디스플레이 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 차량용 디스플레이 장치는, 디스플레이와, 디스플레이 주변에 배치되며, 사용자 손의 접근 또는 이동을 감지하는 공간 인식 센서부와, 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 디스플레이에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어하는 프로세서를 포함한다.
본 발명의 일 실시예에 따른 차량용 디스플레이 장치는, 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 디스플레이에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 함으로써, 간단하게 줌 모드로 진입할 수 있게 된다. 이에 의해, 사용자의 이용 편의성이 증대될 수 있다.
한편, 사용자의 제스쳐가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도인 경우, 간단하게, 줌 모드를 종료할 수 있으며, 이에 의해, 사용자의 이용 편의성이 증대될 수 있다.
한편, 사용자 손의 거리에 따라, 공간 인식 센서부와 터치 센서부가 동작 가능하며, 이에 의해, 정확한 위치 정보를 획득할 수 있게 된다.
특히, 디스플레이 장치의 전면에 대한, 공간에서의 사용자 손 인식시, 사각 지대가 없게 된다. 또한, 사용자 손 검출 시의 검출 속도가 빠르며, 대형의 디스플레이 장치에서도 사용 가능하다.
도 1은 본 발명의 일 실시예에 따른 차량용 디스플레이 장치를 도시한 도면이다.
도 2a 내지 도 2g는 도 1의 디스플레이 장치의 구조를 설명하는 도면이다.
도 3은 도 1의 디스플레이 장치의 내부 블록도이다.
도 4a 내지 도 4b는 도 1의 디스플레이 장치의 사용자 손 인식을 설명하기 위해 참조되는 도면이다.
도 5는, 도 3의 공간 인식 센서부 및 터치 센서부의 동작을 설명하기 위해 참조되는 도면이다.
도 6a 내지 도 6c는 도 3의 터치 센서부의 동작을 설명하기 위해 참조되는 도면이다.
도 7은 본 발명의 일 실시예에 따른 차량용 디스플레이 장치의 동작방법을 나타내는 순서도이다.
도 8 내지 도 17은 도 7의 동작방법을 설명하기 위해 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이, 자전거를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
한편, 본 명세서에서 기술되는 차량용 디스플레이 장치는, AVN(Audio Video Navigation) 장치일 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량용 디스플레이 장치를 도시한 도면이다.
도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 바퀴(203FR,203FL,203RL,..), 차량(200)의 진행 방향을 조절하기 위한 핸들(250), 및, 사용자에게 정보를 제공하기 위한 디스플레이 장치(100)를 구비할 수 있다.
이때의 차량(200)은, 화석 연료를 기반으로 동력을 공급하는 엔진, 또는 솔라셀 또는 배터리 등의 직류 전원을 이용하여 동력을 공급하는 전기 모터 등을 구비할 수 있다. 또한, 엔진으로부터의 동력을 회전력으로 변환하는 변속기, 차량의 진행을 멈추기 위한 브레이크 등을 구비할 수 있다.
본 명세서에서 기술되는 차량(200)은, 엔진을 구비하는 차량, 엔진과 전기 모터를 구비하는 하이브리드 차량, 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 디스플레이(도 3의 180)와, 디스플레이(도 3의 180) 주변에 배치되며, 사용자 손의 접근 또는 이동을 감지하는 공간 인식 센서부(도 3의 121)와, 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 디스플레이(도 3의 180)에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어하는 프로세서(도 3의 170)를 포함할 수 있다.
프로세서(도 3의 170)는, 줌 모드 진입 이후, 사용자의 손이 디스플레이(180)에 접근하는 경우, 디스플레이(도 3의 180)에 표시되는 이미지 중 적어도 일부를 줌 인하도록 제어하고, 사용자의 손이 디스플레이(도 3의 180)로부터 멀어지는 경우, 디스플레이(도 3의 180)에 표시되는 이미지 중 적어도 일부를 줌 아웃하도록 제어할 수 있다.
프로세서(도 3의 170)는, 디스플레이(도 3의 180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어할 수 있다.
프로세서(도 3의 170)는, 디스플레이(도 3의 180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트를 디스플레이(도 3의 180)에 표시하도록 제어할 수 있다.
프로세서(도 3의 170)는, 줌 모드 진입 이후, 사용자의 손의 움직임 궤도가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 줌 모드를 종료하도록 제어할 수 있다.
프로세서(도 3의 170)는, 줌 모드에서, 디스플레이(도 3의 180)에 표시되는 맵 이미지를 줌 인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트가 표시된 상태에서, 사용자의 손의 움직임 궤도가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 돋보기 오브젝트가 사라지도록 제어할 수 있다.
이와 같이, 사용자의 손의 제스쳐, 특히 제1 방향 원형 궤도 입력에 의해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 함으로써, 사용자의 이용 편의성이 증대될 수 있다.
한편, 사용자의 제스쳐가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도인 경우, 간단하게, 줌 모드를 종료할 수 있으며, 이에 의해, 사용자의 이용 편의성이 증대될 수 있다.
한편, 사용자 손의 거리에 따라, 공간 인식 센서부(도 3의 121)와 터치 센서부(도 3의 126)가 동작 가능하며, 이에 의해, 정확한 위치 정보를 획득할 수 있게 된다. 이에 의해, 디스플레이 장치(100)의 전면에 대한, 공간에서의 사용자 손 인식시, 사각 지대가 없게 된다. 또한, 사용자 손 검출 시의 검출 속도가 빠르며, 대형의 디스플레이 장치에서도 사용 가능할 수 있다.
도 2a 내지 도 2g는 도 1의 디스플레이 장치의 구조를 설명하는 도면이다.
먼저, 도 2a는 도 1의 디스플레이 장치의 제1 예를 예시한다. 특히, 도 2a는 도 1의 디스플레이 장치의 정면도를 예시한다.
도 2a를 참조하면, 디스플레이 장치(100)의 전면 영역은, 디스플레이 영역(102)과, 디스플레이 영역 주위의, 에지 영역에 대응하는 디스플레이 주변 영역(101)으로 구분될 수 있다.
디스플레이 영역(102)에는, 디스플레이(180)와, 디스플레이(180)의 상면 또는 하면에 터치 센서부(126)가 배치될 수 있으며, 디스플레이 주변 영역(101)에는, 베젤 프레임(103)과, 공간 인식 센서부(121)가 배치될 수 있다.
도 2a에서는, 2개의 공간 인식 센서부(121L,121R)가, 디스플레이 주변 영역(101) 중 좌,우 디스플레이 주변 영역 상에, 배치되는 것으로 예시한다.
한편, 터치 센서부(126)의 면적은, 디스플레이(180)의 면적과 동일한 것이 바람직하다. 이에 의해, 디스플레이(180)의 전 영역 대한, 터치 입력을 감지할 수 있게 된다.
한편, 본 발명의 실시예에 따른, 터치 센서부(126)는, 디스플레이 장치(100)에 대한 직접적인 터치 감지 외에, 소정 거리 이내로, 사용자의 손가락 접근도 감지 가능하다. 이를 플로팅 터치(floating touch), 또는 후버링(hovering)이라 명명할 수 있다. 이하에서는, 플로팅 터치라는 용어를 중심으로 기술한다.
다음, 도 2b는, 3개의 공간 인식 센서부(121L,121R,121D)가, 디스플레이 주변 영역(101) 중 좌,우,하의 디스플레이 주변 영역 상에, 배치되는 것으로 예시한다.
다음, 도 2c는, 4개의 공간 인식 센서부(121L,121R,121D,121U)가, 디스플레이 주변 영역(101) 중 좌,우,하,상의 디스플레이 주변 영역 상에, 배치되는 것으로 예시한다.
다음, 도 2d는, 4개의 공간 인식 센서부(121LU,121RU,121LD,121RD)가, 디스플레이 주변 영역(101) 중 좌상,우상,좌하,우하의 디스플레이 주변 영역 상에, 배치되는 것으로 예시한다.
다음, 도 2e는, 3개의 공간 인식 센서부(121LD,121RD,121U)가, 디스플레이 주변 영역(101) 중 좌하,우하, 상의 디스플레이 주변 영역 상에, 배치되는 것으로 예시한다.
한편, 도 2a 내지 도 2e에서는, 바(bar) 타입의 공간 인식 센서부 등을 도시하였으나, 이에 한정되지 않으며, 원형 타입의 공간 인식 센섭도 가능하다.
도 2f는, 12개의 원형 타입의 공간 인식 센서부(121a, ...,121l)이, 디스플레이 주변 영역(101)에 배치되는 것을 예시한다.
한편, 도 2b 내지 도 2f에서는, 터치 센서부(126)를 도시하지 않았으나, 디스플레이(180)의 상면 또는 하면에 터치 센서부(126)가 배치되는 것도 가능하다.
한편, 도 2e는, 도 2a 내지 도 2f의 공간 인식 센서부(121)에 의해, 공간 인식 가능한 영역(297)을 예시한다. 도면을 참조하면, 공간 인식 센서부(121)에 의해, 디스플레이(180) 전면 영역을 모두 인식 가능함을 알 수 있다.
도 3은 도 1의 디스플레이 장치의 내부 블록도이다.
도면을 참조하면, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 입력부(110), 통신부(120), 공간 인식 센서부(121), 터치 센서부(126), 인터페이스부(130), 메모리(140), 프로세서(170), 디스플레이(180), 오디오 입력부(183), 오디오 출력부(185), 전원 공급부(190)를 구비할 수 있다.
입력부(110)는, 디스플레이 장치(100)에 부착되는 버튼을 구비한다. 예를 들어, 전원 버튼을 구비할 수 있다. 그 외에, 추가로, 메뉴 버튼, 상,하 조절 버튼, 좌,우 조절 버튼 중 적어도 하나를 더 구비할 수 있다.
입력부(110)를 통한 입력 신호는, 프로세서(170)로 전달될 수 있다.
통신부(120)는, 인접하는 전자 장치와, 데이터를 교환할 수 있다. 예를 들어, 차량 내부 전자 장치 또는 서버(미도시)와, 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
예를 들어, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기와 디스플레이 장치(100)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
한편, 통신부(120)는, GPS 수신 장치를 구비할 수 있으며, 이를 통해, GPS 정보, 즉 차량의 위치 정보를 수신할 수 있다.
공간 인식 센서부(121)는, 사용자 손의 접근 또는 이동을 감지할 수 있다. 이를 위해, 도 2a 내지 도 2f에 기술한 바와 같이, 디스플레이(180) 주변에 배치될 수 있다.
공간 인식 센서부(121)는, 광 기반 하에 공간 인식을 수행하거나, 초음파 기반하여 공간 인식을 수행할 수 있다. 이하에서는 광 기반 하에 공간 인식을 수행하는 것을 위주로 기술한다.
공간 인식 센서부(121)는, 출력광의 출력과 이에 대응하는 수신광의 수신에 기초하여, 사용자의 손의 접근 또는 이동을 감지할 수 있다. 특히, 프로세서(170)는, 출력광 및 수신광의 전기 신호에 대한 신호 처리를 수행할 수 있다.
이를 위해, 공간 인식 센서부(121)는, 광 출력부(122)와 광 수신부(124)를 구비할 수 있다.
광 출력부(122)는, 디스플레이 장치(100) 전면에 위치하는 사용자 손 감지를 위해, 예를 들어, 적외선(IR) 광을 출력할 수 있다.
광 수신부(124)는, 광 출력부(122)에서 출력된 광이, 디스플레이 장치(100) 전면에 위치하는 사용자 손에서, 산란 또는 반사되는 경우, 산란 또는 반사되는 광을 수신한다. 구체적으로 광 수신부(124)는, 포토 다이오드(photo diode)를 구비할 수 있으며, 포토 다이오드를 통해, 수신 광을 전기 신호로 변환할 수 있다. 변환된 전기 신호는, 프로세서(170)로 입력될 수 있다.
터치 센서부(126)는, 플로팅 터치 및 직접 터치를 감지한다. 이를 위해, 터치 센서부(126)는, 전극 어레이, 및 MCU 등을 구비할 수 있다. 터치 센서부가 동작하는 경우, 전극 어레이에 전기 신호가 공급되어, 전극 어레이 상에, 전기장(electric field)이 형성된다.
터치 센서부(126)는, 공간 인식 센서부(121)에서 수신되는 광의 세기가 제1 레벨 이상인 경우, 동작할 수 있다.
즉, 사용자의 손 등의 사용자 손이, 소정 거리 이내로 접근한 경우, 터치 센서부(126) 내의, 전극 어레이 등에 전기 신호가 공급될 수 있다. 전극 어레이에 공급되는 전기 신호에 의해, 전극 어레이 상에, 전기장(electric field)이 형성되며, 이러한 전기장을 이용하여, 정전 용량 변화를 감지한다. 그리고, 정전 용량 변화 감지에 기초하여, 플로팅 터치 및 직접 터치를 감지한다.
특히, 터치 센서부(126)를 통해, 사용자의 손의 접근에 따라, x,y 축 정보 외에, z 축 정보를 감지할 수 있게 된다.
인터페이스부(130)는, 차량 내의 다른 전자 장치와 데이터를 교환할 수 있다. 예를 들어, 인터페이스부(130)는, 유선 통신 방식에 의해, 차량 내부의 ECU 등과 데이터 통신을 수행할 수 있다.
구체적으로, 인터페이스부(130)는, 차량 내부의 ECU 등 과의 데이터 통신에 의해, 차량 상태 정보를 수신할 수 있다.
여기서, 차량 상태 정보는, 배터리 정보, 연료 정보, 차량 속도 정보, 타이어 정보, 핸들 회전에 의한 스티어링 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
인터페이스부(130)는, 추가로, GPS 정보를 차량 내부의 ECU 등으로부터 수신할 수도 있다. 또는, 디스플레이 장치(100)에서 수신되는, GPS 정보를, ECU 등으로 전송하는 것도 가능하다.
메모리(140)는, 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 디스플레이 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
예를 들어, 메모리(140)는, 차량의 주행 경로를 안내하기 위한, 지도 맵을 저장할 수 있다.
다른 예로, 메모리(140)는, 사용자의 이동 단말기와의 페어링을 위해, 사용자 정보, 사용자의 이동 단말기 정보를 저장할 수 있다.
오디오 출력부(185)는, 프로세서(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(185)는, 입력부(110), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
오디오 입력부(183)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, 프로세서(170)로 전달될 수 있다.
프로세서(170)는, 차량용 디스플레이 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다.
예를 들어, 프로세서(170)는, 사용자의 입력부에 대한 조작 신호에 기초하여, 복수의 버튼 중 적어도 하나의 기능을 가변할 수 있다.
한편, 본 발명의 실시예와 관련하여, 프로세서(170)는, 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 디스플레이(180)에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어할 수 있다.
프로세서(170)는, 줌 모드 진입 이후, 사용자의 손이 디스플레이(180)에 접근하는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 인하도록 제어하고, 사용자의 손이 디스플레이(180)로부터 멀어지는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 아웃하도록 제어할 수 있다.
프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어할 수 있다.
프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트를 디스플레이(180)에 표시하도록 제어할 수 있다.
프로세서(170)는, 줌 모드 진입 이후, 사용자의 손의 움직임 궤도가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 줌 모드를 종료하도록 제어할 수 있다.
프로세서(170)는, 줌 모드에서, 디스플레이(180)에 표시되는 맵 이미지를 줌 인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트가 표시된 상태에서, 사용자의 손의 움직임 궤도가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 돋보기 오브젝트가 사라지도록 제어할 수 있다.
프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어하며, 디스플레이(180)에, 제1 메뉴 화면이 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면을 표시하도록 제어할 수 있다.
프로세서(170)는, 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면을 표시한 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 제3 메뉴 화면을 표시하도록 제어할 수 있다.
프로세서(170)는, 제2 메뉴 화면을 표시한 상태에서, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 입력이 있는 경우, 제1 메뉴 화면을 표시하도록 제어할 수 있다.
프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 연속하여 있는 경우, 차량 내부 공기조화 설정, 램프 설정, 볼륨 설정, 윈도우 설정, 썬 루프 설정 중 적어도 하나를 제어하기 위한 설정 화면을 표시하도록 제어할 수 있다.
한편, 프로세서(170)는, 사용자의 손이, 디스플레이 장치의 전면에 위치한 상태에서, 순차적으로 접근하는 경우, 터치 입력을 행할 때까지, 손의 모든 경로와 구간, 그 위치를 인식(Hand Detection)하고, 특히, 손과의 거리가 제3 거리(도 4a 등의 L3) 이내인 경우, 손가락을 인식(Finger Detection)할 수 있다.
구체적으로, 사용자의 손(400)이, 디스플레이 장치(100)로부터, 제1 거리(도 4a 등의 L1) 이내, 구체적으로는 제1 거리(도 4a 등의 L1)와 제2 거리(도 4a 등의 L2) 사이에 위치하는 경우, 프로세서(170)는, 공간 인식 센서부(121)에서 수신되는 광에 대응하는 전기 신호를 수신한다.
프로세서(170)는, 공간 인식 센서부(121)로부터의 전기 신호에 기초하여, 사용자 손의 위치에 대응하는 위치 정보를 연산할 수 있다. 구체적으로는, 디스플레이 장치(100) 대비, x,y 축 정보를 연산할 수 있다. 또한, 공간 인식 센서부(121)로부터의 전기 신호의 세기(또는 크기, 앰플리튜드)에 기초하여, 디스플레이 장치(100)와 사용자 손과의 거리인, z축 정보를 대략적으로 연산할 수 있다.
사용자 손이, 연속적으로, 디스플레이 장치(100)로 접근하는 경우, 프로세서(170)는, 광 수신부(124)에 수신된 광에 기초하여, 연속하여, 사용자 손에 대한, x,y,z 축 정보를 연산할 수 있다. 이때, z축 정보는, 순차적으로 작아질 수 있다.
한편, 사용자 손이, 제1 거리(도 4a 등의 L1) 보다 디스플레이(180)에 근접한 제2 거리(도 4a 등의 L2) 이내로 접근하는 경우, 프로세서(170)는, 터치 센서부(126)가 동작하도록 제어할 수 있다. 즉, 프로세서(170)는, 공간 인식 센서부(121)로부터의 전기 신호의 세기가, 기준 레벨 이상인 경우, 터치 센서부(126)가 동작하도록 제어할 수 있다. 이에 의해, 터치 센서부(126) 내의 각 전극 어레이로 전기 신호가 공급된다.
한편, 프로세서(170)는, 사용자 손이, 제2 거리(도 4a 등의 L2) 이내에 위치하는 경우, 터치 센서부(126)에서 센싱되는 센싱 신호에 기초하여, 플로팅 터치를 감지할 수 있다. 특히 센싱 신호는, 정전 용량의 변화를 나타내는 신호일 수 있다.
이러한 센싱 신호에 기초하여, 프로세서(170)는, 플로팅 터치 입력의, x,y 축 정보를 연산하며, 정전 용량 변화의 세기에 기초하여, 디스플레이 장치(100)와 사용자 손과의 거리인, z축 정보를 연산할 수 있다.
한편, 프로세서(170)는, 사용자의 손의 거리에 따라, 터치 센서부(126) 내의, 전극 어레이에 대한 그룹핑을 가변할 수 있다.
구체적으로, 프로세서(170)는, 공간 인식 센서부(121)에서 수신된 수신 광을 기반으로 연산된, 대략적인 z 축 정보에 기초하여, 터치 센서부(126) 내의, 전극 어레이에 대한 그룹핑을 가변하는 것이 가능하다. 거리가 멀수록, 전극 어레이 그룹의 크기가 더 커지도록, 설정할 수 있다.
즉, 프로세서(170)는, 사용자 손의 거리 정보, 즉, z 축 정보에 기초하여, 터치 센서부(126) 내의, 전극 어레이에 대한 터치 감지 셀의 크기를 가변하는 것이 가능하다.
예를 들어, 사용자의 손의 거리가 제2 거리(도 4a 등의 L2) 이내인 경우, 전극 어레이의 그룹핑에 의해, 터치 감지셀(그룹핑 전극)의 크기는, 4개의 전극 셀에 대응하는 크기일 수 있으며, 사용자의 손의 거리가 제2 거리(도 4a 등의 L2) 보다 작은, 제2 거리(도 4a 등의 L3) 이내인 경우, 터치 감지셀(그룹핑 전극)의 크기는, 1개의 전극 셀에 대응하는 크기일 수 있다.
한편, 터치 감지셀(그룹핑 전극)의 크기 가변은, 전극 어레이에 인가되는, 전기 신호의 가변에 의해 수행 가능하다.
예를 들어, 터치 감지셀(그룹핑 전극)의 크기가, 4개의 전극 셀에 대응하는 크기인 경우, 제1 내지 제3 수평 전극 중 제1 수평 전극과 제3 수평 전극에만 전기 신호를 인가하고, 제1 내지 제3 수직 전극 중 제1 수직 전극과 제3 수직 전극에만 전기 신호를 인가하여, 4개의 전극 셀에 대응하는 크기에 대응하는 터치 감지셀(그룹핑 전극)의 크기를 설정할 수 있다.
다른 예로, 터치 감지셀(그룹핑 전극)의 크기가, 1개의 전극 셀에 대응하는 크기인 경우, 각 수평 전극, 각 수직 전극에 전기 신호를 인가하여, 1개의 전극 셀에 대응하는 크기에 대응하는 터치 감지셀(그룹핑 전극)의 크기를 설정할 수 있다.
결국, 사용자의 손의 거리에 따라, 터치 센서부(126) 내의, 전극 어레이에서 소모되는 전력의 크기가 가변될 수 있다. 사용자의 손의 거리가 가까울수록, 에 따라, 터치 센서부(126) 내의, 전극 어레이에서 소모되는 전력의 크기가, 커지게 된다.
터치 센서부(126)는, 디스플레이 장치(100)의 전면에 형성되는 전기장에, 사용자 손가락에 의한 정전 용량 변화를 감지한다.
그리고, 프로세서(170)는, 감지된 정전 용량 변화에 기초하여, 플로팅 터치 입력의, x,y 축 정보를 연산할 수 있다. 또한, 정전 용량 변화의 세기에 기초하여, 디스플레이 장치(100)와 사용자 손가락과의 거리인, z축 정보를 연산할 수 있다.
한편, 프로세서(170)는, 제2 거리(도 4a 등의 L2) 이내에 사용자 손이 위치한 상태에서, 설정된 복수의 터치 감지셀 중 일부에서, 사용자 손에 대한, 정전 용량 변화 신호가 감지되는 경우, 감지된 정전 용량 변화 신호 중 세기가 가장 큰 신호에 기초하여, 사용자 손에 대한 위치 정보를 연산할 수 있다. 즉, 복수의 플로팅 터치 중 어느 한 터치만을 인식할 수 있다. 또는, 복수의 플로팅 터치 모두를 인식하는 것도 가능하다. 다만, 복수의 플로팅 터치 인식시, 정전 용량 변화 신호의 세기가 소정치 이상인 것만 인식하는 것도 가능하다.
한편, 프로세서(170)는, 제1 거리(도 4a 등의 L1) 이내에 사용자 손이 위치한 상태에서, 디스플레이 주변 영역(101)에 위치하는 경우, 출력광과, 공간 인식 센서부에서 수신되는 수신광에 기초하여, 사용자 손에 대한, 위치 정보 연산을 수행할 수 있다. 즉, 프로세서(170)는, 공간 인식 센서부(121)에의 의해, 사용자 손에 대한 위치 정보를 연산하는 경우, 디스플레이 영역(102)은 물론, 디스플레이 영역(102) 주위의 디스플레이 주변 영역(101)에 사용자 손이 위치하더라도, 위치 정보를 연산할 수 있다. 이는, 공간 인식 센서부(121)가 디스플레이 주변 영역(101)에 배치되기 때문이다.
한편, 터치 센서부(126)는, 디스플레이(180)의 상면 또는 하면에 배치될 수 있다. 이에 따라, 사용자 손이 제2 거리(도 4a 등의 L2) 이내이면서, 디스플레이 영역(102)에 대응하는 영역에 위치하는 경우에는, 사용자 손에 대한 인식이 가능하나, 디스플레이 영역(102) 주위의 디스플레이 주변 영역(101)에 사용자 손이 위치하는 경우에는, 사용자 손에 대한 인식이 정확하게 수행되지 않을 수 있다.
즉, 공간 인식 센서부(121)에서 인식 가능한, x,y 축 기준의, 영역의 범위가, 터치 센서부(126)에서 인식 가능한, x,y 축 기준의, 영역의 범위 보다 더 넓게 된다.
디스플레이(180)는, 버튼에 대해 설정된 기능에 대응하는 이미지를 별도로 표시할 수 있다. 이러한 이미지 표시를 위해, 디스플레이(180)는, LCD, OLED 등 다양한 디스플레이 모듈로서 구현될 수 있다. 한편, 디스플레이(180)는, 차량 내부 전면의 클러스터(cluster)로서 구현되는 것도 가능하다.
전원 공급부(190)는, 프로세서(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.
도 4a 내지 도 4b는 도 1의 디스플레이 장치의 사용자 손 인식을 설명하기 위해 참조되는 도면이다.
도면을 참조하면, 도 4a는 사용자의 손(400)이, 디스플레이 장치(100)의 전면에 위치하면서, 순차적으로 접근하는 것을 예시한다.
본 발명의 실시예에 따른 디스플레이 장치(100)는, 사용자의 손이, 디스플레이 장치의 전면에 위치한 상태에서, 순차적으로 접근하는 경우, 터치 입력을 행할 때까지, 손의 모든 경로와 구간, 그 위치를 인식(Hand Detection)하고, 점점 더 접근하는 경우, 손가락을 인식(Finger Detection)하는 것이 가능하다.
이를 위해, 디스플레이 장치(100)는, 공간 인식 센서부(121)와 터치 센서부(126)을 구비한다.
한편, 본 명세서에서의 디스플레이 장치(100)에 대한, 사용자 손의 접근 경로는, 도 4b와 같이, 구분될 수 있다.
즉, 제1 거리(L1)와 제2 거리(L2) 사이의, 제1 영역(Area 1)(410), 제2 거리(L2)와 제3 거리(L3) 사이의 제2 영역(Area 2)(420), 제3 거리(L3) 이내의 제3 영역(Area 3)(430)으로 구분될 수 있다.
제1 영역(Area 1)은, 공간 인식 센서부(121)에서 출력되는 출력 광이 분산되는 출력광원 분산 영역이다. 제1 영역(Area 1)은, 디스플레이 장치에서 가장 먼 영역으로서, 이머징(emerging) 영역으로 명명될 수 있다.
한편, 제2 영역(Area 2)과 제3 영역(Area 3)은, 터치 센서부(126)의 동작에 의해, 터치 센서부(126)에서 발생되는 전기장(Electric Field)이 분산되는 전기장 분산 영역이다.
특히, 제2 영역(Area 2)은, 공간 인식 센서부(121)에서 출력되는 출력광 및 수신광에 기초하여, 연산된 거리에 대응하여, 터치 센서부(126)가 동작하는 영역일 수 있다. 이에 따라, 제2 영역은, 어프로칭(aaproaching) 영역으로 명명될 수 있다.
한편, 제2 영역(Area 2)과 제3 영역(Area 3)은, 전기장 분산 영역으로서, 플로팅 터치가 가능하나, 터치 감지셀의 크기에서 차이가 있을 수 있다.
즉, 제2 영역(Area 2)에 비해 제3 영역(Area 3)의 터치 감지셀의 크기가 더 작을 수 있으며, 이에 따라, 더 미세하게, 사용자 손에 대한 위치 정보를 파악할 수 있다.
결국, 제3 영역(Area 3)은, 사용자 손에 대한 포인팅 또는 타겟팅이 가능하다. 따라서, 제3 영역(Area 3)을 타겟팅(targetting) 영역이라고 명명될 수 있다.
한편, 제2 영역(Area 2)에도, 공간 인식 센서부(121)에서 출력되는 출력 광이 분산될 수 있다. 이에 따라, 제2 영역(Area 2)은, 터치 센서부(126)에 의한, 전기장과, 출력광이 함께 중첩되는 중첩영역일 수 있다.
결국, 디스플레이 장치는, 공간 인식 센서부를 통해, 제1 영역(Area 1) 내의 사용자의 손의 움직임(hand motion)을 검출할 수 있으며, 터치 센서부를 통해, 제2 영역(Area 2) 및 제3 영역(Area3) 내의 사용자의 손(hand detection)의 존재를 검출할 수 있다.
도 5는, 도 3의 공간 인식 센서부 및 터치 센서부의 동작을 설명하기 위해 참조되는 도면이다.
도 5의 (a)는, 도 4b에서 기술한, 제1 영역(Area 1)과 제2 영역(Area 2)에서, 출력되는 출력광의 분포도를 예시한다. 특히, 도면에서는, 디스플레이 장치(100)의 주변에, 출력광의 세기가 더 크나, 디스플레이 장치(100)의 전면 부분의 전 영역에 출력광이 분포하는 것을 예시한다.
도 5의 (b)는, 도 4b에서 기술한, 제2 영역(Area 2)과 제3 영역(Area 3)에서의, 전기장 분포도를 예시한다. 상술한 바와 같이, 터치 센서부(126) 내의 전극 어레이에 전기 신호가 공급됨에 따라, 디스플레이 장치(100)의 전면 부분의 전 영역에, 전기장이 분포하게 된다.
이와 같이, 본 발명의 실시예에 따른 디스플레이 장치(100)는, 적외선 방식의 광을 기반으로, 공간 인식 센서부(121)와, 플로팅 터치 입력을 검출하기 위한 터치 센서부(126)의 조합에 의해, 디스플레이 장치(100)의 전면에 대한, 공간에서의 사용자 손 인식시, 사각 지대가 없게 된다. 또한, 사용자 손 등의 사용자 손에 대한, x,y,z축 정보를 획득할 수 있게 된다. 또한, 사용자 손 검출 시의 검출 속도가 빠르며, 대형의 디스플레이 장치(100)에서도 사용 가능하다. 또한, 터치 센서부(126)를 선택적으로 동작시키므로, 전력 소비를 저감할 수 있게 된다.
도 6a 내지 도 6c는 도 3의 터치 센서부의 동작을 설명하기 위해 참조되는 도면이다.
먼저, 도 6a는, 터치 센서부(126) 내의 전극 어레이(610)의 일부를 예시한다.
전극 어레이(610)는, 수평 전극들(Ex1,Ex2,Ex3,Ex4)과, 수직 전극들(Ey1,Ey2,Ey3,Ey4,Ey5,Ey6)을 구비할 수 있다.
한편, 프로세서(170)는, 공간 인식 센서부(121)에서 수신된 수신 광을 기반으로 연산된, 대략적인 z 축 정보에 기초하여, 터치 센서부(126) 내의, 전극 어레이에 대한 그룹핑을 가변하는 것이 가능하다.
예를 들어, 사용자의 손의 거리가 제3 거리(L3) 이내, 즉 상술한 제3 영역(A3) 내에 위치하는 경우, 터치 감지셀(그룹핑 전극)의 크기는, 도면과 같이, 1개의 전극 셀(Ec1)에 대응하는 크기일 수 있다.
다른 예로, 사용자의 손의 거리가 제2 거리(L2)와 제3 거리(L3) 사이인 경우, 즉 상술한 제2 영역(A2) 내에 위치하는 경우, 터치 감지셀(그룹핑 전극)의 크기는, 도 6b와 같이, 4개의 전극 셀(Electrode Group A)에 대응하는 크기일 수 있다.
도 6b는, 터치 센서부(126) 내의 전극 어레이(610)의 일부를 예시한다. 특히, 4개의 전극 셀(Electrode Group A)에 대응하여, 정전 용량의 변화를 감지한다. 복수의 전극 셀에서 감지된 정전 용량 변화에 대한 신호는, MUX(620)에서 먹싱되고, ADC(630)에서 디지털 신호로 변환되며 MCU(640)에서 신호 처리된다.
MCU(640)는, 변환된 디지털 신호에 기초하여, 플로팅 터치 입력에 대한, x,y,z축 정보를 연산할 수 있다.
한편, MCU(640)는, 도 6(b)와 같이, 터치 감지셀(그룹핑 전극)의 크기가, 4개의 전극 셀에 대응하는 크기인 경우, 복수의 수평 전극들(Ex1,Ex2,Ex3,Ex4) 중 제1 수평 전극(Ex1)과 제3 수평 전극(Ex3)에만 전기 신호를 인가하고, 복수의 수직 전극들(Ey1,Ey2,Ey3,Ey4,Ey5,Ey6) 중 제1, 제3, 제5 수직 전극(Ey1, Ey3, Ey5)에만 전기 신호를 인가할 수 있다. 이에 의해, 터치 감지셀(그룹핑 전극)의 크기가, 4개의 전극 셀에 대응하여 설정될 수 있다.
한편, MCU(640)는, 상술한 프로세서(170) 내에 포함되는 것도 가능하다.
한편, 터치 감지셀(그룹핑 전극)의 크기는, 1X1,2X2,3X3,2X7 등 사용자의 손 또는 손가락 위치에 대응하여, 다양하게 설정 가능하다.
다음, 도 6c는, 터치 센서부(126) 내의 전극 어레이(610)에서 감지되는 정전 용량 변화를 예시한다.
도면에서는, 복수의 전극 셀(Electrode Group A,B,C,D...)에서, 감지되는 정전 용량 변화 신호(651,652,653,654)가, 시분할로, 감지되는 것을 예시한다. Mux(620)는, 이러한 신호들(651,652,653,654)을 먹싱하여, 먹싱된 아날로그 신호를 출력할 수 있다.
도 7은 본 발명의 일 실시예에 따른 차량용 디스플레이 장치의 동작방법을 나타내는 순서도이다.
도면을 참조하면, 먼저, 디스플레이 장치(100)의 프로세서(170)는, 공간 인식 센서부(121)를 통해 손을 인식한다(S710).
공간 인식 센서부(121)의 광 출력부(122)는 광을 출력하며, 광 수신부(122)는, 디스플레이(180)에서, 제1 거리(L1) 이내에 사용자의 손(400)이 위치하는 경우, 출력광이, 사용자 손에 반사 또는 산란되므로, 반사 또는 산란되는 수신광을 수신한다.
프로세서(170)는, 출력광의 전기 신호와 수신광의 전기 신호의 차이에 기초하여, 사용자 손의 위치 정보를 연산할 수 있다.
특히, 도 2a 내지 도 2e와 같이, 복수개의 공간 인식 센서부가 사용되므로, 이에 기초하여, 사용자의 손의 위치 정보를 인식할 수 있다.
다음, 디스플레이 장치(100)의 프로세서(170)는, 사용자의 손의 궤도를 추적한다(S720).
공간 인식 센서부(121)를 통해, 사용자의 손(400)을 인식한 이후, 프로세서(170)는, 출력광의 전기 신호와 수신광의 전기 신호의 차이에 기초하여, 사용자 손(400)의 움직임을 트래킹할 수 있다. 즉, 사용자 손(400)의 움직이는 궤도를 인식할 수 있다.
다음, 디스플레이 장치(100)의 프로세서(170)는, 손의 궤도가 원형 궤도인 경우, 대응하는 동작을 수행하도록 제어한다(S730).
예를 들어, 프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 맵 이미지를 줌인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트를 디스플레이(180)에 표시하도록 제어할 수 있다.
다른 예로, 프로세서(170)는, 디스플레이(180)에, 제1 메뉴 화면이 표시된 상태에서, 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면을 표시하도록 제어할 수 있다.
한편, 프로세서(170)는, 줌 모드 진입 이후, 사용자의 손의 움직임 궤도가, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 줌 모드를 종료하도록 제어할 수 있다.
한편, 프로세서(170)는, 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면이 표시된 상태에서, 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 다시 제1 메뉴 화면이 표시되도록 제어할 수 있다.
디스플레이 장치(100)의 프로세서(170)는, 디스플레이(180)로부터 제1 거리(L1)과 제2 거리(L2) 사이인 경우에는, 공간 인식 센서부(121)를 통해, 사용자의 손(400)의 궤적을 인식하며, 디스플레이(180)로부터 제3 거리(L3) 이내인 경우에는, 터치 센서부(126)를 통해, 사용자의 손(400)의 궤적을 인식할 수 있다.
한편, 디스플레이 장치(100)의 프로세서(170)는, 제2 거리(L2)와 제3 거리(L3)에 사용자의 손(400)이 위치하는 경우에는, 공간 인식 센서부(121)와 터치 센서부(126) 모두를 통해, 사용자의 손(400)의 궤적을 인식하는 것도 가능하다.
도 8은 사용자 제스쳐에 대한 인식율을 나타내는 도면이다.
Ga는 손을 우측으로 웨이빙(waving) 하는 제스쳐를 나타내며, Gb는 손을 좌측으로 웨이빙(waving) 하는 제스쳐를 나타낸다. Gc는 손을 상(top) 방향으로 움직이는 제스쳐를 나타내며, Gd는 손을 하(botttom) 방향으로 움직이는 제스쳐를 나타낸다.
Ge는 정지(stop) 상태의 제스쳐를 나타내며, Gf는 시계 방향(clockwise)의 원형 궤도의 제스쳐를 나타내며, Gg는 반시계 방향(counter clockwise)의 원형 궤도의 제스쳐를 나타낸다.
도면을 보면, 제스쳐가 없는 Ge나, 일방향 등으로 움직이는 Gc 나 Gd 에 비해, 원형 궤도 제스쳐(810)인 Gf,Gg 의 인식률이 더 높은 것을 알 수 있다.
이에 따라, 본 발명에서는, 다른 제스쳐 보다, 우선하여, 원형 궤도 제스쳐에 대한 설명을 기술한다.
도 9a 내지 도 9b는 원형 궤도 제스쳐 인식을 위해 참조되는 도면이다.
도 9a의 (a)는, 디스플레이 장치(100) 전면에, 사용자 손(400)에 의한 시계 방향(clockwise)의 원형 궤도의 제스쳐(Gci)가 있는 경우를 예시한다.
도 9a의 (b)는, 제스쳐(Gci)에 대응하여 원형 궤도 영역(910)이 매핑되는 것을 예시한다.
프로세서(170)는, 제스쳐(Gci)에 대응하여 원형 궤도 영역(910)에 비트(bit)를 각각 할당하되, 각 위치에 따라, 구별을 위한 비트를 할당할 수 있다. 도면에서는, 시작 영역(915)에 "011.."로 시작하는 비트가 할당되는 것을 예시한다.
프로세서(170)는, 매 프레임 마다, 할당되는 비트를 체크하며, 이에 기초하여, 제스쳐(Gci)의 시작 지점과 종료 지점 등을 연산할 수 있다.
한편, 프로세서(170)는, 절대 좌표치에 기반한 터치 입력 감지 방법과 달리, 공간에서의 상대 좌표치에 기반하여, 제스쳐 입력을 감지한다.
도 9b와 같이, 사용자 손(400)에 의한 시계 방향으로의 제스쳐(Cu1)가 있는 경우, 프로세서(170)는, 각 포인트들(P1,P2,P3,P4,P5)에서의, center of Moving Weight (무빙 무게중심)을 연산한다. 즉, 도면에서 cen과 같은 무빙 무게 중심을 연산한다.
프로세서(170)는, 이러한 무빙 무게 중심에 기초하여, 각도를 추출하고, 이러한 각도에 기초하여, 제스쳐의 종료 지점을 연산할 수 있다.
도 10a 내지 도 17은, 디스플레이 장치(100)의 동작 설명에 참조되는 도면이다.
도 10a는, 차량 내부에 배치되는 차량용 디스플레이 장치(100)에 다양한 애플리케이션 항목을 포함하는 제1 메뉴 화면(1010)이 표시되는 것을 예시한다.
제1 메뉴 화면(1010)이 표시된 상태에서, 사용자의 손(400)이, 시계 방향의 원형 궤도 입력(Gc1)을 취하는 경우, 프로세서(170)는, 공간 인식 센서부(121) 또는 터치 센서부(126)를 통해 감지되는 신호에 기초하여, 시계 방향의 원형 궤도 입력(Gc1)을 인식한다.
그리고, 프로세서(170)는, 도 10b와 같이, 제2 메뉴 화면(1015)이 표시되도록 제어할 수 있다.
예를 들어, 디스플레이 장치(100)에, 미리, 시계 방향의 원형 궤도 입력(Gc1)에 대응하는 동작이 세팅된 경우, 도면과 같이, 제2 메뉴 화면(1015)이 표시될 수 있다.
다른 예로, 프로세서(170)는, 이러한 세팅 없는 경우라도, 사용자가 즐겨 사용하는 애플리케이션 항목들을 포함하는 제2 메뉴 화면(1015)가, 자동으로 표시되도록 제어할 수 있다.
제2 메뉴 화면(1015)은, 일부 애플리케이션인 브라우저 애플리케이션(1011), 서치 애플리케이션(1012)이 활성화되어 표시되고, 다른 애플리케이션인, 전화 애플리케이션(1013)과 비디오 애플리케이션(1014)는 비활성화되는 것을 예시한다.
한편, 도면과 같이, 가장 빈번히 사용되는 브라우저 애플리케이션(1011)이 최상단에 표시될 수 있다. 이에 의해, 차량 운전 중, 사용자가 자주 사용하는 애플리케이션 항목을, 바로 찾을 수 있게 된다.
한편, 제2 메뉴 화면(1015)이 표시된 상태에서, 사용자의 손(400)이, 시계 방향의 원형 궤도 입력(Gc1)을 취하는 경우, 프로세서(170)는, 시계 방향의 원형 궤도 입력(Gc1)을 인식하고, 도 10c와 같이, 제3 메뉴 화면(1018)이 표시되도록 제어할 수 있다.
제3 메뉴 화면(1018)은, 제2 메뉴 화면(1015)에 비해, 애플리케이션 항목들(1011,1012,1013,1014)이 회전되어 표시되며, 일부 애플리케이션 항목들(1013,1014)이 활성화되는 것을 예시한다. 이에 의해, 차량 운전 중, 사용자가 원하는 애플리케이션 항목들을, 바로 찾을 수 있게 된다.
도 10d는, 제1 메뉴 화면(1010) 또는 제2 메뉴 화면(1015)이 표시된 상태에서, 사용자의 손(400)이, 시계 방향의 원형 궤도 입력(Gc1)을 취하는 경우, 디스플레이 장치(100)에 맵 이미지(1020)가 표시되는 것을 예시한다.
이에 의해, 사용자는 시계 방향의 원형 궤도 입력(Gc1) 만으로도, 간편하게 맵 이미지를 확인할 수 있게 된다.
한편, 맵 이미지(1020) 하단에, 다양한 애플리케이션 항목들(1022)이 표시되는 것도 가능하다.
프로세서(170)는, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우, 디스플레이(180)에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어할 수 있다.
즉, 프로세서(170)는, 도 11의 (a)와 같이, 디스플레이(180)에 맵 이미지(1030)가 표시된 상태에서, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우, 맵 이미지(1030)를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어할 수 있다.
도 11의 (a)에서는, 디스플레이 장치(100)에, 맵 이미지(1030) 외에, 차량 방향 안내 정보(1037), 차량 속도 제한 정보(1035), 다양한 메뉴들(1032)이 더 표시되는 것을 예시한다.
구체적으로, 프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우, 줌 모드로 진입하여, 도 11의 (b)와 같이, 맵 이미지(1031) 내의 일부를 줌인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트(1040)가 디스플레이(180)에 표시하도록 제어할 수 있다.
이때, 사용자의 손(400)의 거리가, d1인 경우, 돋보기 오브젝트(1040) 내의 이미지(1042)는 별도의 줌 없이 그대로 표시될 수 있다.
한편, 줌 모드인 상태에서, 즉, 돋보기 오브젝트(1040)가 표시된 상태에서, 사용자의 손(400)의 거리가, d1 보다 가까운 d2인 경우, 도 11의 (c)와 같이, 돋보기 오브젝트(1040) 내의 이미지(1043)가 줌인(zoom in)되어 확대 표시되게 된다. 이에 의해, 사용자는, 원하는 영역을 간단하게 상세히 볼 수 있게 된다.
즉, 프로세서(170)는, 줌 모드 진입 이후, 사용자의 손이 디스플레이(180)에 접근하는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 인하도록 제어하고, 사용자의 손이 디스플레이(180)로부터 멀어지는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 아웃하도록 제어할 수 있다.
도 12는 제1 메뉴 화면이 표시된 상태에서, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우 등을 예시한다.
도 12의 (a)는 제1 메뉴 화면(1010)이 표시된 상태에서, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우를 예시한다.
이러한 경우, 프로세서(170)는, 도 12의 (b)와 같이, 기설정된 애플리케이션 구동 화면(1210)이 표시되도록 제어할 수 있다. 도면에서는 음악 재생 애플리케이션 실행 화면(1210)이 표시되는 것을 예시한다. 이에 의해, 차량 운전 중, 원하는 애플리케이션을 바로 실행할 수 있게 된다.
한편, 기설정된 애플리케이션 구동 화면(1210)이 표시된 상태에서, 반시계 방향의 원형 궤도 입력(Gcc1)이 있는 경우, 프로세서(170)는, 도 12의 (c)와 같이, 제1 메뉴 화면(1010)이 표시되도록 제어한다.
즉, 프로세서(170)는, 반시계 방향의 원형 궤도 입력(Gcc1)이 있는 경우, 기설정된 애플리케이션 구동 화면(1210)의 표시를 종료하고, 이전 화면이 표시되도록 제어할 수 있다. 이에 의해, 차량 운전 중, 간편하게 이전 화면으로 되돌아 갈 수 있게 된다.
도 13의 (a)는, 도 11의 (b)와 같이, 맵 이미지(1031)와, 맵 이미지(1031) 내의 일부를 줌인 또는 줌 아웃하기 위한 돋보기 오브젝트(1040)가 표시되는 상태에서, 반시계 방향의 원형 궤도 입력(Gcc1)이 있는 경우를 예시한다.
이에 따라, 프로세서(170)는, 줌 모드를 종료하고, 이전 화면이 표시되도록 제어할 수 있다.
즉, 도 13의 (b)와 같이, 돋보기 오브젝트(1040)가 사라진, 맵 이미지(1030)가 디스플레이 장치(100)에 표시될 수 있다. 이에 따라, 차량 운전 중, 간편하게 이전 화면으로 되돌아 갈 수 있게 된다.
프로세서(170)는, 디스플레이(180)에 맵 이미지가 표시된 상태에서, 시계 방향의 원형 궤도 입력(Gc1)이 연속하여 있는 경우, 차량 내부 공기조화 설정, 램프 설정, 볼륨 설정, 윈도우 설정, 썬 루프 설정 중 적어도 하나를 제어하기 위한 설정 화면을 표시하도록 제어할 수 있다.
도 14의 (a)는, 맵 이미지(1030) 표시 중 2회의 시계 방향의 원형 궤도 입력(Gc1)이 연속하여 발생한 경우를 예시한다.
이에 따라, 도 14의 (b)와 같이, 맵 이미지(1045)는 비활성화되고, 차량 내부 공기조화 설정 화면(1410)이 표시될 수도 있다. 이에 의해, 사용자는, 간편하게, 차량 내부의 온도 설정, 풍향 조절 등을 수행할 수 있게 된다.
한편, 도 14의 (b)의 차량 내부 공기조화 설정 화면(1410)이 표시된 상태에서, 반시계 방향의 원형 궤도 입력(Gcc1)이 있는 경우, 도 14(c)아 같이, 이전 화면인, 맵 이미지(1030)가 디스플레이 장치(100)에 표시될 수 있다.
한편, 줌 모드는, 시계 방향의 원형 궤도 입력(Gc1) 외에, 별도의 메뉴 항목 선택에 의해 진입하는 것도 가능하다.
도 15는, 맵 이미지(1500)가 표시된 상태에서, 줌 모드를 나타내는 오브젝트(1505)를 선택하는 사용자의 터치 입력이 있거나, 또는, 시계 방향의 원형 궤도 입력(Gc1)이 있는 경우, 줌 모드로 진입하여, 맵 이미지(1531)와, 내부의 줌인 이미지(1543)를 포함하는 돋보기 오브젝트(1540)가, 디스플레이 장치(100)에 표시되는 것을 예시한다.
프로세서(170)는, 줌 모드 진입 이후, 사용자의 손이 디스플레이(180)에 접근하는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 인하도록 제어하고, 사용자의 손이 디스플레이(180)로부터 멀어지는 경우, 디스플레이(180)에 표시되는 이미지 중 적어도 일부를 줌 아웃하도록 제어할 수 있다.
도 16은, 디스플레이 장치(100)에 줌 모드가 활성화된 상태에서, 제1 거리(L1), 제2 거리(L2), 제3 거리(L3)에, 각각 해당하는 제1 영역(A1), 제2 영역(A2), 제3 영역(A3)에, 사용자의 손(400)이 위치할 경우, 맵 이미지 내의 줌인/줌아웃을 예시하는 도면이다.
사용자의 손(400)이, 디스플레이 장치(100)에 가장 먼, 제1 영역(A1)에 있는 경우, 돋보기 오브젝트(1540) 내의 이미지(1542)의 배율이 가장 낮으며, 사용자의 손(400)이 디스플레이 장치(100)에 가장 가까운 제1 영역(A1)에 있는 경우, 돋보기 오브젝트(1540) 내의 이미지(1542)의 배율이 가장 높은 것(줌 인된 것)을 알 수 있다. 이에 의해, 사용자는, 차량 운전 중에, 간편하게, 맵 이미지 내의 영역이 줌인/ 줌아웃 되는 것을 확인할 수 있게 된다.
한편, 줌 모드에서, 소정 기간 동안, 사용자의 입력이 없는 경우, 즉, 사용자 손(400)의 움직임이 없는 경우, 도 17과 같이, 줌 모드가 종료되어, 돋보기 오브젝트(1540)가 사라지고, 맵 이미지(1500)만 표시되는 것도 가능하다.
본 발명의 실시예에 따른 차량용 디스플레이 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 차량용 디스플레이 장치의 동작방법은 차량용 디스플레이 장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (14)

  1. 디스플레이;
    상기 디스플레이 주변에 배치되며, 상기 사용자 손의 접근 또는 이동을 감지하는 공간 인식 센서부;
    상기 사용자 손의 움직임 궤도가, 제1 방향 원형 궤도에 대응하는 경우, 상기 디스플레이에 표시되는 이미지의 적어도 일부에 대해, 줌인 또는 줌 아웃 하기 위한 줌 모드로 진입하도록 제어하는 프로세서;를 포함하는 것을 특징으로 하는 차량용 디스플레이 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 줌 모드 진입 이후,
    상기 사용자의 손이 상기 디스플레이에 접근하는 경우, 상기 디스플레이에 표시되는 이미지 중 적어도 일부를 줌 인하도록 제어하고,
    상기 사용자의 손이 상기 디스플레이로부터 멀어지는 경우, 상기 디스플레이에 표시되는 이미지 중 적어도 일부를 줌 아웃하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이에 맵 이미지가 표시된 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 상기 맵 이미지를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  4. 제1항 또는 제2항에 있어서,
    상기 프로세서는,
    상기 디스플레이에 맵 이미지가 표시된 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 상기 맵 이미지를 줌인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트를 상기 디스플레이에 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 줌 모드 진입 이후, 상기 사용자의 손의 움직임 궤도가, 상기 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 상기 줌 모드를 종료하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 줌 모드에서, 상기 디스플레이에 표시되는 맵 이미지를 줌 인 또는 줌 아웃 수행을 위한, 돋보기 오브젝트가 표시된 상태에서, 상기 사용자의 손의 움직임 궤도가, 상기 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 경우, 상기 돋보기 오브젝트가 사라지도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이에 맵 이미지가 표시된 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 상기 맵 이미지를 줌인 또는 줌 아웃하기 위한 줌 모드로 진입하도록 제어하며,
    상기 디스플레이에,
    제1 메뉴 화면이 표시된 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 제2 메뉴 화면 또는 기설정된 애플리케이션 구동 화면을 표시한 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 있는 경우, 제3 메뉴 화면을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 제2 메뉴 화면을 표시한 상태에서, 상기 제1 방향 원형 궤도와 다른 제2 방향 원형 궤도에 대응하는 입력이 있는 경우, 상기 제1 메뉴 화면을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이에 맵 이미지가 표시된 상태에서, 상기 제1 방향 원형 궤도에 대응하는 입력이 연속하여 있는 경우, 차량 내부 공기조화 설정, 램프 설정, 볼륨 설정, 윈도우 설정, 썬 루프 설정 중 적어도 하나를 제어하기 위한 설정 화면을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  11. 제1항에 있어서,
    상기 디스플레이의 상면 또는 하면에 배치되는 터치 센서부;를 더 포함하며,
    상기 프로세서는,
    상기 디스플레이와 제1 거리 이내 또는 상기 제1 거리 보다 가까운 제2 거리 이내에, 상기 사용자 손이 위치하는 경우, 상기 공간 인식 센서부에 기초하여, 상기 사용자 손의 접근 또는 이동을 감지하고,
    상기 제2 거리 보다 가까운 제3 거리 이내에, 상기 사용자 손이 위치하는 경우, 상기 터치 센서부에서 감지되는 정전 용량 변화에 기초하여, 상기 사용자 손에 대한 위치 정보를 연산하는 것을 특징으로 하는 차량용 디스플레이 장치.
  12. 제11항에 있어서,
    상기 공간 인식 센서부는,
    출력광을 출력하는 광출력부와, 상기 출력광에 대응하는 수신광을 수신하는 광수신부를 구비하며,
    상기 프로세서는,
    상기 제1 거리 내지 상기 제2 거리 사이에, 상기 사용자 손이 위치한 경우, 상기 출력광과, 상기 수신광에 기초하여, 상기 사용자 손에 대한, 거리 정보를 연산하는 것을 특징으로 하는 차량용 디스플레이 장치.
  13. 제11항에 있어서,
    상기 프로세서는
    상기 제2 거리와 상기 제3 거리 사이에, 상기 사용자의 손이 위치하는 경우와, 상기 제3 거리 이내에, 상기 사용자의 손이 위치하는 경우에, 상기 터치 센서부 내의, 복수의 터치 감지셀에 대한 크기가, 서로 다르도록 설정하는 것을 특징으로 하는 차량용 디스플레이 장치.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 제2 거리와 상기 제3 거리 사이에, 상기 사용자의 손이 위치하는 경우와, 상기 터치 감지셀의 크기가 제1 크기가 되도록 설정하고,
    상기 제3 거리 이내에, 상기 사용자의 손이 위치하는 경우, 상기 터치 감지셀의 크기가 상기 제1 크기 보다 작은, 제2 크기가 되도록 설정하는 것을 특징으로 하는 차량용 디스플레이 장치.
KR1020140072755A 2014-06-16 2014-06-16 차량용 디스플레이 장치 KR101637881B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140072755A KR101637881B1 (ko) 2014-06-16 2014-06-16 차량용 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140072755A KR101637881B1 (ko) 2014-06-16 2014-06-16 차량용 디스플레이 장치

Publications (2)

Publication Number Publication Date
KR20150144091A true KR20150144091A (ko) 2015-12-24
KR101637881B1 KR101637881B1 (ko) 2016-07-08

Family

ID=55084153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140072755A KR101637881B1 (ko) 2014-06-16 2014-06-16 차량용 디스플레이 장치

Country Status (1)

Country Link
KR (1) KR101637881B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3067788A1 (en) * 2015-03-10 2016-09-14 LG Electronics Inc. Vehicle display apparatus
CN110779515A (zh) * 2019-10-31 2020-02-11 北京地平线机器人技术研发有限公司 电子导航地图的显示方法、装置以及电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130029831A (ko) * 2011-09-16 2013-03-26 (주)다음소프트 모바일 단말기의 지도 디스플레이 장치 및 방법
KR20130124061A (ko) * 2012-05-04 2013-11-13 삼성전자주식회사 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
KR20140070536A (ko) * 2012-10-14 2014-06-10 네오노드, 인크. 광-기반 근접 검출 시스템 및 사용자 인터페이스

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130029831A (ko) * 2011-09-16 2013-03-26 (주)다음소프트 모바일 단말기의 지도 디스플레이 장치 및 방법
KR20130124061A (ko) * 2012-05-04 2013-11-13 삼성전자주식회사 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
KR20140070536A (ko) * 2012-10-14 2014-06-10 네오노드, 인크. 광-기반 근접 검출 시스템 및 사용자 인터페이스

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3067788A1 (en) * 2015-03-10 2016-09-14 LG Electronics Inc. Vehicle display apparatus
US9891756B2 (en) 2015-03-10 2018-02-13 Lg Electronics Inc. Vehicle display apparatus including capacitive and light-based input sensors
CN110779515A (zh) * 2019-10-31 2020-02-11 北京地平线机器人技术研发有限公司 电子导航地图的显示方法、装置以及电子设备和存储介质

Also Published As

Publication number Publication date
KR101637881B1 (ko) 2016-07-08

Similar Documents

Publication Publication Date Title
KR101655810B1 (ko) 차량용 디스플레이 장치
US9891756B2 (en) Vehicle display apparatus including capacitive and light-based input sensors
EP3488427B1 (en) Haptic guidance system
US9921580B2 (en) Apparatus for switching driving modes of vehicle and method of switching between modes of vehicle
KR101766978B1 (ko) 디스플레이 장치와 이를 포함하는 차량
KR102311551B1 (ko) 자동 조정장치가 활성화되는 동안에 차량 내의 통신 단말기를 사용하기 위한 방법 및 차량
US9656690B2 (en) System and method for using gestures in autonomous parking
KR101904373B1 (ko) 차량용 디스플레이 장치 및 차량
US20120287050A1 (en) System and method for human interface in a vehicle
US10649587B2 (en) Terminal, for gesture recognition and operation command determination, vehicle having the same and method for controlling the same
WO2015102069A1 (ja) 操作装置
JP2009298285A (ja) 入力装置
EP3239813B1 (en) Display apparatus for vehicle
KR20160121017A (ko) 이동단말기, 차량과 이동 단말기의 연동 시스템
CN111231860B (zh) 用于车辆的操作模块、操作方法、操作系统及存储介质
KR101637881B1 (ko) 차량용 디스플레이 장치
KR102266660B1 (ko) 차량 인터페이스를 제어하는 휴대용 단말기 및 그 동작 방법
US20200278745A1 (en) Vehicle and control method thereof
KR20180024327A (ko) 이동단말기, 차량과 이동 단말기의 연동 시스템
TWI513617B (zh) 具有遠端控制功能的方向盤
KR101567408B1 (ko) 차량용 디스플레이 장치
KR101860668B1 (ko) 디스플레이 장치와 이를 포함하는 차량
KR20220025610A (ko) 개인형 이동수단용 자율주행 전자장치
CN117885722A (zh) 车辆控制方法和装置
KR20180127825A (ko) 스티어링 휠 입력 장치 및 그의 입력 처리 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant