WO2020222316A1 - 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 - Google Patents

차량용 전자 장치 및 차량용 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2020222316A1
WO2020222316A1 PCT/KR2019/005135 KR2019005135W WO2020222316A1 WO 2020222316 A1 WO2020222316 A1 WO 2020222316A1 KR 2019005135 W KR2019005135 W KR 2019005135W WO 2020222316 A1 WO2020222316 A1 WO 2020222316A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
hand
vehicle
processor
signal
Prior art date
Application number
PCT/KR2019/005135
Other languages
English (en)
French (fr)
Inventor
조성일
김자연
장유준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/005135 priority Critical patent/WO2020222316A1/ko
Publication of WO2020222316A1 publication Critical patent/WO2020222316A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10

Abstract

본 발명은 디스플레이부; 사용자의 손의 위치를 센싱하여 제1 신호를 생성하는 손 감지부; 및 상기 제1 신호에 기초하여, 센터페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치되는 입력 장치 주변에 사용자의 손이 위치하는지 판단하고, 상기 입력 장치 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 상기 디스플레이에 상기 입력 장치에 대응되는 그래픽 객체를 표시하는 적어도 하나의 프로세서;를 포함하는 차량용 전자 장치에 관한 것이다.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 차량에는, 차량과 사용자와의 소통을 위한 인터페이스 장치(HMI : Human Machine Interface)가 구비된다. 인터페이스 장치는 사용자 입력 장치를 포함하는데, 보통 입력 장치는, 차량의 센터페시아, 콘솔, 스티어링 휠 및 도어 등에 배치된다. 사용자가 운전중에 이러한 입력 장치를 조작하려고 시선을 이동하는 경우, 사고가 발생될 우려가 있다. 또한, 공유 차량에서는, 사용자가 입력 장치에 포함된 기능 버튼 들의 위치를 정확하게 알지 못해 운전 중에 기능 조작을 제대로 못하는 경우도 있다.
본 발명은 상기한 문제점을 해결하기 위하여, 입력 장치 주변에 위치하는 사용자 손이 센싱되는 경우, 입력 장치에 대응되는 그래픽 객체를 표시하는 차량용 전자 장치를 제공하는데 목적이 있다.
또한, 본 발명의 실시예는, 입력 장치 주변에 위치하는 사용자 손이 센싱되는 경우, 입력 장치에 대응되는 그래픽 객체를 표시하는 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 디스플레이부; 사용자의 손의 위치를 센싱하여 제1 신호를 생성하는 손 감지부; 및 상기 제1 신호에 기초하여, 센터페시아, 콘솔, 스티어링 휠 및 도어 중 적어도 어느 하나에 배치되는 입력 장치 주변에 사용자의 손이 위치하는지 판단하고, 상기 입력 장치 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 상기 디스플레이에 상기 입력 장치에 대응되는 그래픽 객체를 표시하는 적어도 하나의 프로세서;를 포함한다.
본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법은, 손 감지부가, 사용자의 손의 위치를 센싱하여 제1 신호를 생성하는 단계; 적어도 하나의 프로세서가, 상기 제1 신호에 기초하여, 센터페시아, 콘솔, 스티어링 휠 및 도어 중 적어도 어느 하나에 배치되는 입력 장치 주변에 사용자의 손이 위치하는지 판단하는 단계; 및 적어도 하나의 프로세서가, 상기 입력 장치 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 디스플레이에 상기 입력 장치에 대응되는 그래픽 객체를 표시하는 단계;를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 사용자의 입력 장치 조작에 운전 방해 요소를 제거하는 효과가 있다.
둘째, 입력 장치에서 사용자의 손의 위치보다 사용자가 보는 포인트 위치에 우선하여 조작 신호를 생성함에 따라, 조작의 혼동이 발생되지 않는 효과가 있다.
셋째, 사용자 편의성이 증대되는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 제어 블럭도이다.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.
도 6 내지 도 10c는 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은 자율 주행 차량일 수 있다.
차량(10)은, 차량용 전자 장치(100)를 포함할 수 있다. 차량용 전자 장치(100)는, 사용자 인터페이스 장치 또는 HMI(Human Machine Interface) 장치로 명명될 수 있다. 차량용 전자 장치(100)는, 사용자의 손의 위치가 입력 장치 주변에 위치하는 것으로 판단되는 경우, 입력 장치에 대응되는 그래픽 객체를 표시할 수 있다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
차량용 전자 장치(100)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 차량용 전자 장치(100)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 차량용 전자 장치(100)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
차량 구동 장치(250)는, 차량(10)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(250)는, 파워 트레인 구동부, 샤시 구동부, 도어/윈도우 구동부, 안전 장치 구동부, 램프 구동부 및 공조 구동부를 포함할 수 있다. 파워 트레인 구동부는, 동력원 구동부 및 변속기 구동부를 포함할 수 있다. 샤시 구동부는, 조향 구동부, 브레이크 구동부 및 서스펜션 구동부를 포함할 수 있다.
한편, 안전 장치 구동부는, 안전 벨트 제어를 위한 안전 벨트 구동부를 포함할 수 있다.
ADAS(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. ADAS(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.
ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 3은 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 제어 블럭도이다.
도 3 내지 도 4를 참조하면, 차량용 전자 장치(100)는, 입력 장치(110), 손 감지부(120), 내부 카메라(130), 메모리(140), 출력부(150), 프로세서(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.
입력 장치(110)는, 사용자의 물리적 입력을 전기적 신호로 전환할 수 있다. 입력 장치(110)는, 차량 내부에 배치될 수 있다. 입력 장치(110)는, 센타페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치될 수 있다. 입력 장치(110)는, 버튼, 패들 쉬프트 및 조그 다이얼 중 어느 하나의 형태를 가질 수 있다. 입력 장치(110)는, 제1 버튼 및 제2 버튼을 포함할 수 있다.
손 감지부(120)는, 사용자의 손을 센싱할 수 있다. 손 감지부(120)는, 사용자의 손의 위치, 손의 모션, 손의 자세, 입력 장치(110)에서 사용자 손까지의 거리를 센싱할 수 있다. 손 감지부(120)는, 사용자의 손의 위치를 센싱하여 제1 신호를 생성할 수 있다. 예를 들면, 손 감지부(120)는, 사용자의 손이 입력 장치(110) 주변에 기 설정 시간 이상 위치하는 경우, 제1 신호를 생성할 수 있다. 사용자의 손이 입력 장치(110) 주변에 위치하는 상태는, 사용자의 손이 입력 장치(110)에 수cm 이내로 근접한 상태로 이해될 수 있다.
손 감지부(120)는, 광 신호에 기초하여, 사용자의 손을 센싱할 수 있다. 예를 들면, 손 감지부(120)는, 가시광 신호 또는 적외선 광 신호에 기초하여, 사용자의 손을 센싱할 수 있다. 손 감지부(120)는, 카메라 및 적외선 센서 중 적어도 어느 하나를 포함할 수 있다.
내부 카메라(130)는, 차량 내부 영상을 획득할 수 있다. 내부 카메라(130)는, 차량 내부 영상에 기초하여, 사용자의 시선을 센싱할 수 있다. 내부 카메라(130)는, 소정의 영상 처리 알고리즘을 이용하여, 사용자의 시선을 센싱할 수 있다. 내부 카메라(130)는, 사용자의 시선을 센싱하여 제2 신호를 생성할 수 있다. 예를 들면, 내부 카메라(130)는, 사용자의 손으로 이동하는 사용자의 시선이 센싱되는 경우, 제2 신호를 생성할 수 있다. 내부 카메라(130)는, 차량 내부 영상에 기초하여, 사용자의 헤드 포지션을 센싱할 수 있다. 내부 카메라(130)는, 소정의 영상 처리 알고리즘을 이용하여, 사용자의 헤드 포지션을 센싱할 수 있다. 내부 카메라(130)는, 사용자의 헤드 포지션을 센싱하여 제3 신호를 생성할 수 있다.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.
출력부(150)는, 디스플레이부(151) 및 음향 출력부(152)를 포함할 수 있다.
디스플레이부(251)는, 프로세서(170)에서 제공되는 신호에 기초하여, 그래픽 객체를 표시할 수 있다. 디스플레이부(251)는, HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(251)가 HUD로 구현되는 경우, 디스플레이부(251)는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다. 디스플레이부(251)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다. 한편, 실시예에 따라, 디스플레이부(251)는, 복수일 수 있다. HUD로 구현되는 디스플레이부 외에 스티어링 휠의 일 영역, 인스투루먼트 패널의 일 영역, 시트의 일 영역, 각 필러의 일 영역, 도어의 일 영역, 센타 콘솔의 일 영역, 헤드 라이닝의 일 영역, 썬바이저의 일 영역에 배치되는 디스플레이부를 더 포함할 수 있다.
디스플레이부(251)는, 프로세서(170)에서 제공되는 신호에 기초하여, 입력 장치(110)에 대응되는 그래픽 객체를 표시할 수 있다. 디스플레이부(251)는, 그래픽 객체 상에 사용자의 손의 움직임에 맞춰 움직이는 포인터를 표시할 수 있다.
음향 출력부(252)는, 프로세서(170)로부터 제공되는 전기적 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 음향 출력부(252)는, 적어도 하나의 스피커를 포함할 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(140), 차량 구동 장치(250), ADAS(260), 센싱부(170) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(180)는, 위치 데이터 생성 장치(280)로부터, 차량(10) 위치 데이터를 수시할 수 있다. 인터페이스부(180)는, 센싱부(270)로부터 주행 속도 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 차량 주변 오브젝트 데이터를 수신할 수 있다.
전원 공급부(190)는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 ECU(140)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 전원 공급부(190)는, SMPS(switched-mode power supply)로 구현될 수 있다.
프로세서(170)는, 메모리(140), 인터페이스부(280), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, 입력 장치(110), 손 감지부(120), 내부 카메라(130) 및 출력부(150)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 전원 공급부(190)로부터 제공되는 전원에 의해 구동될 수 있다. 프로세서(170)는, 전원 공급부(190)에 의해 전원이 공급되는 상태에서 데이터를 수신하고, 데이터를 처리하고, 신호를 생성하고, 신호를 제공할 수 있다.
프로세서(170)는, 손 감지부(120)로부터 수신되는 제1 신호에 기초하여, 센터페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치되는 입력 장치(110) 주변에 사용자 손이 위치하는지 판단할 수 있다. 프로세서(170)는, 내부 카메라(130)로부터 수신되는 제2 신호에 더 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 손으로 이동하는 사용자의 시선을 센싱함에 따라 생성되는 제2 신호에 더 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다.
프로세서(170)는, 입력 장치(110) 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 디스플레이(151)에 입력 장치(110)에 대응되는 그래픽 객체를 표시할 수 있다.
프로세서(170)는, 그래픽 객체 상에 사용자의 손의 움직임에 맞춰 움직이는 포인터를 표시할 수 있다. 프로세서(170)는, 사용자의 손의 모션을 센싱하는 손 감지부(120)로부터 수신되는 신호에 기초하여, 포인터를 표시할 수 있다. 포인터는, 사용자의 손 또는 손가락에 대응되게 표시될 수 있다. 프로세서(170)는, 사용자의 손 또는 손가락의 움직임에 맞춰 포인트가 움직이도록 디스플레이부(151)에 신호를 제공할 수 있다. 예를 들면, 사용자의 손 또는 손가락이 입력 장치(110)의 제1 버튼 상에 위치하는 경우, 프로세서(170)는, 그래픽 객체 중 제1 버튼에 대응되는 제1 버튼 이미지 상에 포인트가 위치하도록 디스플레이부(151)에 신호를 제공할 수 있다. 예를 들면, 사용자의 손 또는 손가락이 입력 장치(110)의 제1 버튼에서 제2 버튼으로 이동하는 경우, 프로세서(170)는, 그래픽 객체 중 제1 버튼에 대응되는 제1 버튼 이미지에서 제2 버튼에 대응되는 제2 버튼 이미지로 포인트가 이동하도록 디스플레이부(151)에 신호를 제공할 수 있다.
프로세서(170)는, 입력 장치(110) 중 어느 하나에 의해 입력 신호가 생성되는 경우, 입력 신호에 기초한 조작 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 입력 장치(110) 중 제1 버튼에 의해 입력 신호가 생성되는 경우, 입력 신호에 기초한 조작 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 입력 장치(110) 중 제1 조그 다이얼에 의해 입력 신호가 생성되는 경우, 입력 신호에 기초한 조작 신호를 제공할 수 있다.
프로세서(170)는, 입력 장치(110) 상에서의 사용자의 손의 위치와 그래픽 객체 상에서의 포인터의 위치가 불일치하는 상태에서, 사용자의 손의 위치보다 포인터의 위치에 더 우선하여 조작 신호를 제공할 수 있다. 가령, 프로세서(170)는, 입력 장치(110) 상에서의 사용자 손의 위치와 그래픽 객체 상에서의 포인터의 위치가 불일치하는 상태에서, 입력 장치 중 어느 하나에 의해 입력 신호가 생성되는 경우, 포인터의 위치에 따른 조작 신호를 우선하여 제공할 수 있다. 입력 장치(110)는, 제1 버튼 및 제2 버튼을 포함할 수 있다. 그래픽 객체는, 제1 버튼에 대응되는 제1 버튼 이미지 및 제2 버튼에 대응되는 제2 버튼 이미지를 포함할 수 있다. 프로세서(170)는, 제2 버튼에 위치하는 사용자의 손에 대한 제1 신호에 대응하여 그래픽 객체 중 제1 버튼 이미지에 포인트가 위치하는 경우, 제2 버튼 입력에 의해 생성되는 신호에 기초하여, 제1 버튼에 대응하는 조작 신호를 제공할 수 있다.
한편, 제2 버튼 바깥쪽에 위치하는 사용자의 손에 대한 제1 신호에 대응하여 그래픽 객체 중 제2 버튼 이미지에 포인터가 위치하는 경우, 사용자 제스쳐 입력을 감지하도록 손 감지부(120)를 제어할 수 있다. 프로세서(170)는, 손 감지부(120)를 통해, 사용자 제스쳐 입력이 수신되는 경우, 제2 버튼에 대응하는 조작 신호를 제공할 수 있다.
프로세서(170)는, 입력 장치(110) 상에서의 사용자의 손의 위치와 그래픽 객체 상에서의 포인터의 위치가 불일치하는 상태에서, 그래픽 객체에서 벗어나는 사용자의 시선이 센싱되는 경우, 그래픽 객체 상에서의 포인터의 위치를 입력 장치 상에서의 사용자 손의 위치와 일치시킬 수 있다.
한편, 프로세서(170)는, 내부 카메라로부터 수신되는 제3 신호에 기초하여, 그래픽 객체의 크기를 조정할 수 있다. 제3 신호는, 사용자의 헤드 포지션을 센싱하여 생성된 신호일 수 있다. 예를 들면, 프로세서(170)는, 사용자의 헤드가 윈드 쉴드의 그래픽 객체 표시 지점으로부터 점점 가까워질수록, 그래픽 객체를 점점 작게 표시할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 헤드가 윈드 쉴드의 그래픽 객체의 표시 지점으로부터 점점 멀어질수록, 그래픽 객체를 점점 크게 표시할 수 있다.
한편, 프로세서(170)는, 인터페이스부(180)를 통해, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나를 수신할 수 있다. 프로세서(170)는, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나에 기초하여, 그래픽 객체의 표시를 비활성화할 수 있다. 예를 들면, 사고 다발 지점에 위치하는 차량 위치 데이터를 수신하는 경우, 프로세서(170)는, 그래픽 객체의 표시를 비활성화할 수 있다. 예를 들면, 시속 100km 이상의 주행 속도 데이터를 수신하는 경우, 프로세서(170)는, 그래픽 객체의 표시를 비활성화할 수 있다. 예를 들면, 차량의 전방에 위치하는 자전거에 대한 데이터를 수신하는 경우, 프로세서(170)는, 그래픽 객체의 표시를 비활성화할 수 있다.
한편, 프로세서(170)는, 사용자의 손과 입력 장치(110)와의 거리값에 따라 그래픽 객체의 표시 형태를 조절할 수 있다. 손 감지부(120)는, 사용자의 손과 입력 장치(110)까지의 거리를 센싱할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 손이 입력 장치(110)로부터 제1 거리 범위에 위치하는 것으로 센싱되는 경우, 그래픽 객체를 개별 버튼 이미지가 포함되지 않은 제1 형태로 표시할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 손이 입력 장치(110)로부터 제2 거리 범위에 위치하는 것으로 센싱되는 경우, 그래픽 객체를 개별 버튼 이미지가 포함된 제2 형태로 표시할 수 있다. 제2 거리 범위는, 제1 거리 범위보다 입력 장치(110)와 사용자의 손 사이의 거리가 더 가까운 범위일 수 있다.
전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 입력 장치(110), 손 감지부(120), 내부 카메라(130), 메모리(140), 출력부(150), 인터페이스부(180), 전원 공급부(190) 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다. 도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법(S500)을 설명하는데 참조되는 도면이다.
도 5를 참조하면, 손 감지부(120)는, 사용자의 손의 위치를 센싱하여 제1 신호를 생성할 수 있다(S505).
프로세서(170)는, 손 감지부(120)로부터 수신되는 제1 신호에 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다(S520). 입력 장치(110)는, 센터페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치될 수 있다.
프로세서(170)는, 입력 장치(110) 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 디스플레이(151)에 입력 장치(110)에 대응되는 그래픽 객체를 표시할 수 있다(S525).
한편, 표시하는 단계(S525)는, 적어도 하나의 프로세서(170)가, 사용자의 손이 입력 장치(110)로부터 제1 거리 범위에 위치하는 것으로 센싱되는 경우, 그래픽 객체를 개별 버튼 이미지가 포함되지 않은 제1 형태로 표시하는 단계 및 적어도 하나의 프로세서(170)가, 사용자의 손이 입력 장치(110)로부터 제2 거리 범위에 위치하는 것으로 센싱되는 경우, 그래픽 객체를 개별 버튼 이미지가 포함된 제2 형태로 표시하는 단계를 포함할 수 있다.
한편, 내부 카메라(130)는, 사용자의 시선을 센싱하여 제2 신호를 생성할 수 있다(S510). 판단하는 단계(S520)에서, 프로세서(170)가, 내부 카메라(130)로부터 수신되는 제2 신호에 더 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다. 즉, 프로세서(170)는, 제1 신호 및 제2 신호에 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다. 제2 신호를 생성하는 단계(S510)에서, 프로세서(170)가, 사용자의 손으로 이동하는 사용자의 시선이 센싱되는 경우, 제2 신호를 생성할 수 있다.
한편, 내부 카메라(130)는, 사용자의 헤드 포지션을 센싱하여 제3 신호를 생성할 수 있다(S515). 프로세서(170)는, 내부 카메라(130)로부터 수신되는 제3 신호에 기초하여, 그래픽 객체의 크기를 조정할 수 있다(S530). 예를 들면, 프로세서(170)는, 사용자의 헤드가 윈드 쉴드의 그래픽 객체 표시 지점으로부터 점점 가까워질수록, 그래픽 객체를 점점 작게 표시할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 헤드가 윈드 쉴드의 그래픽 객체의 표시 지점으로부터 점점 멀어질수록, 그래픽 객체를 점점 크게 표시할 수 있다.
프로세서(170)는, 인터페이스부(180)를 통해, 주행 상황 정보를 수신할 수 있다(S535). 주행 상황 정보는, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나를 포함할 수 있다. 만약, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나를 수신하는 경우, 프로세서(170)는, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나에 기초하여, 그래픽 객체의 표시를 비활성화할 수 있다(S540).
S535 단계에서, 주행 상황 정보가 수신되지 않는 경우, 프로세서(170)는, 그래픽 객체 상에 사용자의 손의 움직임에 맞춰 움직이는 포인터를 표시할 수 있다.
프로세서(170)는, 입력 장치(110) 상에서의 사용자의 손위 위치와 그래픽 객체 상에서의 포인터의 위치가 일치하는지 판단할 수 있다(S550). 프로세서(170)는, 손의 위치와 포인터의 위치가 일치하는 것으로 판단되는 경우, 입력 장치(110)에 의한 입력에 따른 조작 신호를 제공할 수 있다(S555). 프로세서(170)는, 손의 위치와 포인터의 위치가 불일치하는 것으로 판단되는 경우, 포인터의 위치에 따른 조작 신호를 우선하여 제공할 수 있다(S560). 프로세서(170)는, 입력 장치(110) 상에서의 사용자 손의 위치와 그래픽 객체 상에서의 포인터의 위치가 불일치하는 상태에서, 입력 장치(110) 중 어느 하나가 입력되는 경우, 포인터의 위치에 따른 조작 신호를 우선하여 제공할 수 있다. . 입력 장치(110)는, 제1 버튼 및 제2 버튼을 포함할 수 있다. 그래픽 객체는, 제1 버튼에 대응되는 제1 버튼 이미지 및 제2 버튼에 대응되는 제2 버튼 이미지를 포함할 수 있다. 프로세서(170)는, 제2 버튼에 위치하는 사용자의 손에 대한 제1 신호에 대응하여 그래픽 객체 중 제1 버튼 이미지에 포인트가 위치하는 경우, 제2 버튼 입력에 의해 생성되는 신호에 기초하여, 제1 버튼에 대응하는 조작 신호를 제공할 수 있다. 한편, 제2 버튼 바깥쪽에 위치하는 사용자의 손에 대한 제1 신호에 대응하여 그래픽 객체 중 제2 버튼 이미지에 포인터가 위치하는 경우, 사용자 제스쳐 입력을 감지하도록 손 감지부(120)를 제어할 수 있다. 프로세서(170)는, 손 감지부(120)를 통해, 사용자 제스쳐 입력이 수신되는 경우, 제2 버튼에 대응하는 조작 신호를 제공할 수 있다.
도 6 내지 도 10c는 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
도 6은, 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 예시도이다.
도 6을 참조하면, 손 감지부(120)는, 사용자의 손(610a, 610b)을 센싱할 수 있다. 손 감지부(120)는, 센터페시아, 콘솔, 헨들 및 도어 중 적어도 어느 하나에 배치되는 입력 장치(620a, 620b) 주변에 위치하는 사용자의 손(610a, 610b)을 센싱할 수 있다. 손 감지부(120)는, 사용자의 손을 센싱하여 제1 신호를 생성할 수 있다.
프로세서(170)는, 손 감지부(120)로부터 수신되는 제1 신호에 기초하여, 입력 장치(110) 주변에 사용자의 손이 위치하는지 판단할 수 있다. 프로세서(170)는, 입력 장치(110) 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 디스플레이(151)에 입력 장치(110)에 대응되는 그래픽 객체(630a, 630b)를 표시할 수 있다. 디스플레이(151)는, HUD(Head Up Display)로 구현되어, 사용자가 전방을 응시한 채 그래픽 객체(630a, 630b)를 확인할 수 있도록 구현될 수 있다.
도 7 내지 도 9는 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
도 7 및 도 8을 참조하면, 프로세서(170)는, 손 감지부(120)로부터 수신되는 제1 신호에 기초하여, 주행 중 사용자의 손이 기능 조작부(예를 들면, 입력 장치(110))에 위치하는지 판단할 수 있다(S710).
프로세서(170)는, 기능 조작부에 사용자의 손이 기 설정된 시간 이상 머무르거나 사용자의 시선이 손으로 이동하는지 판단할 수 있다(S720).
만약, S720 단계에서, 기능 조작부에 사용자의 손이 기 설정된 시간 이상 머무르지 않고, 사용자의 시선이 손으로 이동하지 않는 것으로 판단되는 경우, 프로세서(170)는, 상태를 유지할 수 있다(S730).
만약, S730 단계에서, 기능 조작부에 사용자의 손이 기 설정된 시간 이상 머무르거나, 사용자의 시선이 손으로 이동하는 것으로 판단되는 경우, 프로세서(170)는, 디스플레이(151)에 기능 조작부에 대응되는 기능 UI(User Interface)(예를 들면, 그래픽 객체)를 표시할 수 있다(S740).
프로세서(170)는, 디스플레이 UI와 조작부의 기능 버튼이 일치하는지 판단할 수 있다(S750). S750 단계에서, 일치하는 것으로 판단되는 경우, 프로세서(170)는, 기능 UI의 표시 상태를 유지할 수 있다(S760). S750 단계에서, 일치하지 않는 것으로 판단되는 상태에서, 프로세서(170)는, 운전자에 의해 입력 장치(110)가 조작되는지 판단할 수 있다. 운전자에 의해 입력 장치(110)가 조작되는 것으로 판단되는 경우, 프로세서(170)는, 디스플레이에 표시된 UI의 기능을 우선하여 실행할 수 있다(S780).
도 9를 참조하면, 프로세서(170)는, 사용자의 제스쳐 입력에 기초하여, 조작 여부를 확인하는 과정을 더 수행할 수 있다. 프로세서(170)는, 내부 카메라(130)로부터, 사용자 시선(910)을 센싱한 데이터를 수신할 수 있다. 프로세서(170)는, 사용자 시선(910)을 센싱한 데이터에 기초하여, 입력 요소를 타겟팅할 수 있다. 이후에, 프로세서(170)는, 손 감지부(120) 및 내부 카메라(130) 중 적어도 어느 하나로부터, 사용자의 제스쳐 입력을 수신할 수 있다. 손 감지부(120)는, 손을 이용한 제스쳐를 센싱하여 입력 신호로 전환할 수 있다. 내부 카메라(130)는, 머리를 이용한 제스쳐를 센싱하여 입력 신호로 전환할 수 있다.
도 10a 내지 도 10c는 손가락의 위치와 포인트의 위치가 불일치하는 경우의 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
도면을 참조하면, 입력 장치(110)는, 제1 버튼(1011) 및 제2 버튼(1012)을 포함할 수 있다. 프로세서(170)는, 사용자의 손(1000)이 입력 장치(110)에 근접하는 것으로 판단되는 경우, 그래픽 객체를 표시할 수 있다. 그래픽 객체는, 제1 버튼 이미지(1021) 및 제2 버튼 이미지(1022)를 포함할 수 있다. 제1 버튼 이미지(1021)는, 제1 버튼(1011)에 대응되고, 제2 버튼 이미지(1022)는, 제2 버튼(1012)에 대응될 수 있다. 프로세서(170)는, 사용자의 손(100)에 대응하여 포인트(1001)를 표시할 수 있다. 프로세서(170)는, 사용자의 손(100)의 움직임에 따라, 포인트(1001)를 움직일 수 있다.
프로세서(170)는, 입력 장치(110) 상에서의 사용자 손(1000)의 위치와 그래픽 객체 상에서의 포인터(1001)의 위치가 불일치하는 상태에서, 입력 장치(110) 중 어느 하나에 의해 입력 신호가 생성되는 경우, 포인터의 위치에 따른 조작 신호를 우선하여 제공할 수 있다.
도 10a에 예시된 바와 같이, 프로세서(170)는, 제2 버튼(1012)에 위치하는 사용자 손(1000)에 대한 신호에 대응하여 그래픽 객체 중 제1 버튼 이미지(1021)에 포인트(1001)를 위치시킬 수 있다. 이 상태에서, 사용자는 제2 버튼(1012)을 눌러 입력 신호가 생성될 수 있다. 프로세서(170)는, 제2 버튼(1012) 입력에 의해 생성되는 신호에 기초하여, 제1 버튼(1011)에 대응하는 조작 신호를 제공할 수 있다. 이와 같은 제어를 통해, 사용자의 혼동을 방지할 수 있다.
도 10b에 예시된 바와 같이, 프로세서(170)는, 제2 버튼(1012) 바깥쪽에 위치하는 사용자 손(1000)에 대한 신호에 대응하여 그래픽 객체 중 제2 버튼 이미지(1022)에 포인트(1001)를 위치시킬 수 있다. 이 상태에서, 프로세서(170)는, 사용자 제스쳐 입력을 감지하도록 손 감지부(120)를 제어할 수 있다. 프로세서(170)는, 손 감지부(120)를 통해, 사용자 제스쳐 입력이 수신되는 경우, 제2 버튼(1012)에 대응하는 조작 신호를 제공할 수 있다.
도 10c에 예시된 바와 같이, 프로세서(170)는, 입력 장치(110) 상에서의 사용자의 손의 위치(1000)와 그래픽 객체 상에서의 포인터(1001)의 위치가 불일치하는지 인지할 수 있다. 이 상태에서, 프로세서(170)는, 그래픽 객체에서 벗어나는 사용자의 시선 데이터를 내부 카메라(130)로부터, 수신할 수 있다. 프로세서(170)는, 그래픽 객체에서 벗어나는 사용자의 시선 데이터를 수신하는 경우, 그래픽 객체 상에서의 포인터(1001)의 위치를 입력 장치(110) 상에서의 사용자 손의 위치와 일치시킬 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[부호의 설명]
10 : 차량
100 : 차량용 전자 장치

Claims (20)

  1. 디스플레이부;
    사용자의 손의 위치를 센싱하여 제1 신호를 생성하는 손 감지부; 및
    상기 제1 신호에 기초하여, 센터페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치되는 입력 장치 주변에 사용자의 손이 위치하는지 판단하고,
    상기 입력 장치 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 상기 디스플레이에 상기 입력 장치에 대응되는 그래픽 객체를 표시하는 적어도 하나의 프로세서;를 포함하는 차량용 전자 장치.
  2. 제 1항에 있어서,
    사용자의 시선을 센싱하여 제2 신호를 생성하는 내부 카메라;를 더 포함하고,
    상기 프로세서는,
    상기 제2 신호에 더 기초하여, 상기 입력 장치 주변에 사용자의 손이 위치하는지 판단하는 차량용 전자 장치.
  3. 제 2항에 있어서,
    상기 내부 카메라는,
    사용자의 손으로 이동하는 사용자의 시선이 센싱되는 경우, 상기 제2 신호를 생성하는 차량용 전자 장치.
  4. 제 1항에 있어서,
    상기 프로세서는,
    상기 그래픽 객체 상에 사용자의 손의 움직임에 맞춰 움직이는 포인터를 표시하는 차량용 전자 장치.
  5. 제 4항에 있어서,
    상기 프로세서는,
    상기 입력 장치 상에서의 사용자 손의 위치와 상기 그래픽 객체 상에서의 상기 포인터의 위치가 불일치하는 상태에서, 상기 입력 장치 중 어느 하나에 의해 입력 신호가 생성되는 경우, 상기 포인터의 위치에 따른 조작 신호를 우선하여 제공하는 차량용 전자 장치.
  6. 제 5항에 있어서,
    상기 입력 장치는,
    제1 버튼 및 제2 버튼을 포함하고,
    상기 그래픽 객체는,
    상기 제1 버튼에 대응되는 제1 버튼 이미지 및 상기 제2 버튼에 대응되는 제2 버튼 이미지를 포함하고,
    상기 프로세서는,
    상기 제2 버튼에 위치하는 사용자의 손에 대한 상기 제1 신호에 대응하여 상기 그래픽 객체 중 제1 버튼 이미지에 상기 포인터가 위치하는 경우,
    상기 제2 버튼 입력에 의해 생성되는 신호에 기초하여, 상기 제1 버튼에 대응하는 조작 신호를 제공하는 차량용 전자 장치.
  7. 제 6항에 있어서,
    상기 프로세서는,
    상기 제2 버튼 바깥쪽에 위치하는 사용자의 손에 대한 상기 제1 신호에 대응하여 상기 그래픽 객체 중 제2 버튼 이미지에 상기 포인터가 위치하는 경우,
    사용자 제스쳐 입력을 감지하도록 상기 손 감지부를 제어하는 차량용 전자 장치.
  8. 제 7항에 있어서,
    상기 프로세서는,
    상기 손 감지부를 통해, 사용자 제스쳐 입력이 수신되는 경우, 상기 제2 버튼에 대응하는 조작 신호를 제공하는 차량용 전자 장치.
  9. 제 5항에 있어서,
    사용자의 시선을 센싱하는 내부 카메라;를 더 포함하고,
    상기 프로세서는,
    상기 그래픽 객체에서 벗어나는 사용자의 시선이 센싱되는 경우, 상기 그래픽 객체 상에서의 상기 포인터의 위치를 상기 입력 장치 상에서의 사용자 손의 위치와 일치시키는 차량용 전자 장치.
  10. 제 1항에 있어서,
    사용자의 헤드 포지션을 센싱하여 제3 신호를 생성하는 내부 카메라;를 더 포함하고,
    상기 프로세서는,
    상기 제3 신호에 기초하여, 상기 그래픽 객체의 크기를 조정하는 차량용 전자 장치.
  11. 제 1항에 있어서,
    인터페이스부;를 더 포함하고,
    상기 프로세서는,
    상기 인터페이스부를 통해, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나를 수신하고,
    상기 차량 위치 데이터, 상기 주행 속도 데이터 및 상기 차량 주변 오브젝트 데이터 중 적어도 어느 하나에 기초하여, 상기 그래픽 객체의 표시를 비활성화하는 차량용 전자 장치.
  12. 제 1항에 있어서,
    상기 프로세서는,
    상기 사용자의 손이 상기 입력 장치로부터 제1 거리 범위에 위치하는 것으로 센싱되는 경우, 상기 그래픽 객체를 개별 버튼 이미지가 포함되지 않은 제1 형태로 표시하고,
    상기 사용자의 손이 상기 입력 장치로부터 제2 거리 범위에 위치하는 것으로 센싱되는 경우, 상기 그래픽 객체를 개별 버튼 이미지가 포함된 제2 형태로 표시하는 차량용 전자 장치.
  13. 손 감지부가, 사용자의 손의 위치를 센싱하여 제1 신호를 생성하는 단계;
    적어도 하나의 프로세서가, 상기 제1 신호에 기초하여, 센터페시아, 콘솔, 핸들 및 도어 중 적어도 어느 하나에 배치되는 입력 장치 주변에 사용자의 손이 위치하는지 판단하는 단계; 및
    적어도 하나의 프로세서가, 상기 입력 장치 주변에 사용자의 손이 위치하는 것으로 판단되는 경우, 디스플레이에 상기 입력 장치에 대응되는 그래픽 객체를 표시하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  14. 제 13항에 있어서,
    내부 카메라가, 사용자의 시선을 센싱하여 제2 신호를 생성하는 단계;를 더 포함하고,
    상기 판단하는 단계는,
    적어도 하나의 프로세서가, 상기 제2 신호에 더 기초하여, 상기 입력 장치 주변에 사용자의 손이 위치하는지 판단하는 차량용 전자 장치의 동작 방법.
  15. 제 14항에 있어서,
    상기 제2 신호를 생성하는 단계는,
    적어도 하나의 프로세서가, 사용자의 손으로 이동하는 사용자의 시선이 센싱되는 경우, 상기 제2 신호를 생성하는 차량용 전자 장치의 동작 방법.
  16. 제 13항에 있어서,
    적어도 하나의 프로세서가, 상기 그래픽 객체 상에 사용자의 손의 움직임에 맞춰 움직이는 포인터를 표시하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  17. 제 16항에 있어서,
    적어도 하나의 프로세서가, 상기 입력 장치 상에서의 사용자 손의 위치와 상기 그래픽 객체 상에서의 상기 포인터의 위치가 불일치하는 상태에서, 상기 입력 장치 중 어느 하나가 입력되는 경우, 상기 포인터의 위치에 따른 조작 신호를 우선하여 제공하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  18. 제 13항에 있어서,
    내부 카메라가, 사용자의 헤드 포지션을 센싱하여 제3 신호를 생성하는 단계; 및
    적어도 하나의 프로세서가, 상기 제3 신호에 기초하여, 상기 그래픽 객체의 크기를 조정하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  19. 제 13항에 있어서,
    적어도 하나의 프로세서가, 인터페이스부를 통해, 차량 위치 데이터, 주행 속도 데이터 및 차량 주변 오브젝트 데이터 중 적어도 어느 하나를 수신하는 단계; 및
    적어도 하나의 프로세서가, 상기 차량 위치 데이터, 상기 주행 속도 데이터 및 상기 차량 주변 오브젝트 데이터 중 적어도 어느 하나에 기초하여, 상기 그래픽 객체의 표시를 비활성화하는 단계;를 포함하는 차랑용 전자 장치의 동작 방법.
  20. 제 13항에 있어서,
    상기 표시하는 단계는,
    적어도 하나의 프로세서가, 상기 사용자의 손이 상기 입력 장치로부터 제1 거리 범위에 위치하는 것으로 센싱되는 경우, 상기 그래픽 객체를 개별 버튼 이미지가 포함되지 않은 제1 형태로 표시하는 단계; 및
    적어도 하나의 프로세서가, 상기 사용자의 손이 상기 입력 장치로부터 제2 거리 범위에 위치하는 것으로 센싱되는 경우, 상기 그래픽 객체를 개별 버튼 이미지가 포함된 제2 형태로 표시하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
PCT/KR2019/005135 2019-04-29 2019-04-29 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 WO2020222316A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/005135 WO2020222316A1 (ko) 2019-04-29 2019-04-29 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/005135 WO2020222316A1 (ko) 2019-04-29 2019-04-29 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
WO2020222316A1 true WO2020222316A1 (ko) 2020-11-05

Family

ID=73029721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005135 WO2020222316A1 (ko) 2019-04-29 2019-04-29 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Country Status (1)

Country Link
WO (1) WO2020222316A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321382A (ja) * 1998-05-11 1999-11-24 Harness Syst Tech Res Ltd スイッチポジション表示装置
JP3831849B2 (ja) * 1997-10-21 2006-10-11 カルソニックカンセイ株式会社 車両用コントローラ
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
KR20160061941A (ko) * 2016-05-18 2016-06-01 현대자동차주식회사 차량의 제어 방법
JP2018010472A (ja) * 2016-07-13 2018-01-18 カルソニックカンセイ株式会社 車内電子機器操作装置及び車内電子機器操作方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3831849B2 (ja) * 1997-10-21 2006-10-11 カルソニックカンセイ株式会社 車両用コントローラ
JPH11321382A (ja) * 1998-05-11 1999-11-24 Harness Syst Tech Res Ltd スイッチポジション表示装置
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
KR20160061941A (ko) * 2016-05-18 2016-06-01 현대자동차주식회사 차량의 제어 방법
JP2018010472A (ja) * 2016-07-13 2018-01-18 カルソニックカンセイ株式会社 車内電子機器操作装置及び車内電子機器操作方法

Similar Documents

Publication Publication Date Title
WO2021002519A1 (ko) 차량용 광고 제공 장치 및 차량용 광고 제공 방법
WO2017003013A1 (ko) 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
CN109353279A (zh) 一种增强现实车载抬头显示系统
WO2020241955A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002517A1 (ko) 공유형 차량 관리 장치 및 공유형 차량의 관리 방법
KR20160147557A (ko) 자동 주차 장치 및 차량
WO2021002503A1 (ko) 차량용 전자 장치 및 그 동작 방법
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020241952A1 (ko) 자율 주행 차량 시스템 및 차량의 자율 주행 방법
WO2020241971A1 (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
WO2020222317A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020222333A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020222316A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020145440A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020091113A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
KR102168041B1 (ko) 차량 제어장치 및 차량 제어방법
WO2020059924A1 (ko) 차량용 사용자 인터페이스 장치 및 차량용 사용자 인터페이스 장치의 동작 방법
WO2020222318A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020091120A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020004886A1 (ko) 통신용 ecu
WO2021002505A1 (ko) 자율 주행 차량용 전자 장치 및 자율 주행 차량용 전자 장치의 동작 방법
WO2020122280A1 (ko) 차량용 시스템 및 방법
WO2021010515A1 (ko) 차량용 방화벽 제공 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19926982

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19926982

Country of ref document: EP

Kind code of ref document: A1