KR20240008735A - System for controlling display of vehicle and method thereof - Google Patents

System for controlling display of vehicle and method thereof Download PDF

Info

Publication number
KR20240008735A
KR20240008735A KR1020220085952A KR20220085952A KR20240008735A KR 20240008735 A KR20240008735 A KR 20240008735A KR 1020220085952 A KR1020220085952 A KR 1020220085952A KR 20220085952 A KR20220085952 A KR 20220085952A KR 20240008735 A KR20240008735 A KR 20240008735A
Authority
KR
South Korea
Prior art keywords
display device
user
processor
vehicle
gesture
Prior art date
Application number
KR1020220085952A
Other languages
Korean (ko)
Inventor
김재중
박보영
황영지
정상일
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220085952A priority Critical patent/KR20240008735A/en
Publication of KR20240008735A publication Critical patent/KR20240008735A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • B60K35/26
    • B60K35/28
    • B60K35/60
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/20Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors for lighting specific fittings of passenger or driving compartments; mounted on specific fittings of passenger or driving compartments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • B60K2360/48

Abstract

차량의 디스플레이 장치 제어 시스템 및 방법이 개시된다. 본 발명의 일 측면에 따른 차량의 디스플레이 장치 제어 시스템은, 차량 내 각 좌석의 상면에 설치되어, 사용자의 영상을 획득하는 센서, 차량 내 각 좌석의 정면에 설치되는 디스플레이 장치, 각 디스플레이 장치 주위에 설치되는 사운드 모듈, 각 디스플레이 장치 주위에 설치되는 조명 모듈, 센서를 통해 획득된 영상에 기초하여 사용자의 의도를 파악하고, 사용자의 의도가 디스플레이 장치의 프로그램 제어인 경우, 해당 디스플레이 장치 주위에 설치된 사운드 모듈 및 조명 모듈을 통해 리스닝 피드백을 출력하며, 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치의 특정 영역을 확대하고, 특정 영역의 아이콘에 대한 인터랙션 가이드를 상기 디스플레이 장치를 통해 출력하며, 센서를 통해 획득된 영상에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 프로세서를 포함한다. A system and method for controlling a display device of a vehicle are disclosed. A display device control system for a vehicle according to an aspect of the present invention includes a sensor installed on the top of each seat in the vehicle to acquire an image of the user, a display device installed in front of each seat in the vehicle, and a sensor around each display device. The user's intention is determined based on the installed sound module, the lighting module installed around each display device, and the image acquired through the sensor. If the user's intention is program control of the display device, the sound installed around the display device Listening feedback is output through the module and lighting module, a specific area of the display device where the user's gaze gazes for more than a preset certain period of time is enlarged, an interaction guide for the icon of the specific area is output through the display device, and a sensor It includes a processor that recognizes the user's gesture based on the image acquired through and controls a program corresponding to the icon based on the recognized gesture.

Description

차량의 디스플레이 장치 제어 시스템 및 방법{SYSTEM FOR CONTROLLING DISPLAY OF VEHICLE AND METHOD THEREOF}Vehicle display device control system and method {SYSTEM FOR CONTROLLING DISPLAY OF VEHICLE AND METHOD THEREOF}

본 발명은 차량의 디스플레이 장치 제어 시스템 및 방법에 관한 것으로서, 보다 상세하게는 차량에 구비된 디스플레이 장치의 GUI(Graphical User Interface)를 터치리스 인터랙션(interaction) 방식으로 제어 시, 사용자의 의도를 분석하여 사용자에게 알리고, 분석된 의도가 맞는 경우 디스플레이 장치의 GUI를 제스처 인터랙션으로 제어할 수 있도록 하는 차량의 디스플레이 장치 제어 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for controlling a display device of a vehicle. More specifically, when controlling the GUI (Graphical User Interface) of a display device provided in a vehicle using a touchless interaction method, the user's intention is analyzed and the user's intention is analyzed. The present invention relates to a system and method for controlling a display device of a vehicle that informs the user and, if the analyzed intention is correct, controls the GUI of the display device through gesture interaction.

전염병 위험에 따라 접촉을 최소화하는 기술이 대두되고 있다. 이와 같은 이유 외에도 차량 내부에서는 운전의 안전성을 높이기 위해 터치리스 기술이 중요하게 여겨져 왔다. 운전자가 다른 기기를 직접 터치하여 컨트롤하지 않아 운전에 집중할 수 있기 때문이다. 차량에서 주로 사용되는 터치리스 인터랙션 방식은 제스처 인식, 얼굴 인식, 음성 인식 등이 있다.Depending on the risk of infectious diseases, technologies to minimize contact are emerging. In addition to these reasons, touchless technology has been considered important to increase driving safety inside vehicles. This is because drivers can focus on driving without having to directly touch and control other devices. Touchless interaction methods commonly used in vehicles include gesture recognition, face recognition, and voice recognition.

그러나 터치리스 인터랙션 방식 중 제스처 인식의 경우 터치리스임에도 불구하고, 차량에 있는 디스플레이 화면에 의존하는 이유로 인해 여러 단계와 뎁스를 가지고 있다. 즉, 여러 메뉴의 단계들을 눌러가는 수단으로써 터치를 하지 않는다는 것 외에는 기존 터치방식과 동일하다. 얼굴 인식의 경우 탑승자를 인식하여 탑승자에게 알맞은 맞춤형 환경을 제공하는 데에 사용되는데, 이 역시도 탑승자가 본인 의사를 묻는 과정이 생략되고 자동 설정이 되기 때문에 상호작용적 측면에서는 문제점을 가지고 있다. 음성 인식의 경우 피드백 또한 음성으로 제공되기 때문에 오해를 하거나 순간적으로 전달받은 내용이 기억이 나지 않는다는 문제를 만들 수 있다.However, in the case of gesture recognition among touchless interaction methods, despite being touchless, it has multiple steps and depths due to its dependence on the display screen in the vehicle. In other words, it is the same as the existing touch method except that touch is not used as a means of pressing various menu steps. In the case of facial recognition, it is used to recognize the passenger and provide a customized environment suitable for the passenger, but this also has problems in terms of interaction because the process of asking the passenger's opinion is omitted and the setting is automatic. In the case of voice recognition, feedback is also provided by voice, which can cause problems such as misunderstanding or not remembering what was momentarily delivered.

이러한 터치리스 인터랙션 방식은 차량에 구비된 디스플레이 장치의 제어에 이용되고 있다. 예를 들어, 특정 제스처를 이용하여 디스플레이 장치의 GUI를 통해 프로그램을 제어하는 경우 특정 제스처는 일반적인 상황에서도 발생될 수 있어 오인식되는 문제가 있다. 즉, 특정 제스처가 의도적으로 디스플레이 장치의 GUI를 제어하기 위하여 발생된 것인지 일반적인 상황에 의해 발생된 것인지 알 수 없다.This touchless interaction method is used to control display devices installed in vehicles. For example, when controlling a program through the GUI of a display device using a specific gesture, there is a problem of misrecognition because the specific gesture can occur even in general situations. In other words, it is not possible to know whether a specific gesture is intentionally generated to control the GUI of the display device or is generated due to a general situation.

이에, 차량에 구비된 디스플레이 장치의 GUI를 터치리스 인터랙션 방식으로 제어 시, 사용자의 의도를 분석하여 사용자에게 알리고, 분석된 의도가 맞는 경우 디스플레이 장치의 GUI를 제스처 인터랙션으로 제어할 수 있도록 하는 기술 개발이 요구되고 있다. Accordingly, when controlling the GUI of a display device installed in a vehicle using a touchless interaction method, the user's intention is analyzed and notified to the user, and if the analyzed intention is correct, a technology is developed that allows the display device's GUI to be controlled through gesture interaction. This is being demanded.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2022-0062165호(2022.05.16. 공개)의 '사용자 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법'에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Publication No. 10-2022-0062165 (published on May 16, 2022) titled ‘User interface device, vehicle having the same, and method of controlling the same.’

본 발명은 전술한 문제점을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 차량에 구비된 디스플레이 장치의 GUI를 터치리스 인터랙션 방식으로 제어 시, 사용자의 의도를 분석하여 사용자에게 알리고, 분석된 의도가 맞는 경우 디스플레이 장치의 GUI를 제스처 인터랙션으로 제어할 수 있도록 하는 차량의 디스플레이 장치 제어 시스템 및 방법을 제공하는 것이다. The present invention was created to improve the above-mentioned problems. The purpose of the present invention is to analyze the user's intention and inform the user when controlling the GUI of the display device installed in the vehicle through a touchless interaction method, and to inform the user of the analyzed intention. If correct, the present invention provides a system and method for controlling a display device of a vehicle that allows the GUI of the display device to be controlled through gesture interaction.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 측면에 따른 차량의 디스플레이 장치 제어 시스템은, 차량 내 각 좌석의 상면에 설치되어, 사용자의 영상을 획득하는 센서, 상기 차량 내 각 좌석의 정면에 설치되는 디스플레이 장치, 상기 디스플레이 장치 주위에 설치되는 사운드 모듈, 각 디스플레이 장치 주위에 설치되는 조명 모듈, 상기 센서를 통해 획득된 영상에 기초하여 상기 사용자의 의도를 파악하고, 상기 사용자의 의도가 디스플레이 장치의 프로그램 제어인 경우, 해당 디스플레이 장치 주위에 설치된 사운드 모듈 및 조명 모듈을 통해 리스닝 피드백을 출력하며, 상기 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치의 특정 영역을 확대하고, 상기 특정 영역의 아이콘에 대한 인터랙션 가이드를 상기 디스플레이 장치를 통해 출력하며, 상기 센서를 통해 획득된 영상에 기초하여 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 프로세서를 포함한다. A display device control system for a vehicle according to an aspect of the present invention includes a sensor installed on the upper surface of each seat in the vehicle to obtain an image of the user, a display device installed in front of each seat in the vehicle, and around the display device. A sound module installed in, a lighting module installed around each display device, and the user's intention are determined based on the image acquired through the sensor, and when the user's intention is program control of the display device, the display device It outputs listening feedback through sound modules and lighting modules installed around it, enlarges a specific area of the display device where the user's gaze gazes for more than a preset certain period of time, and provides an interaction guide for the icon in the specific area to the display device. and includes a processor that recognizes the user's gesture based on the image acquired through the sensor and controls a program corresponding to the icon based on the recognized gesture.

본 발명에서 상기 센서는, 상기 사용자의 시선을 트래킹하기 위한 제1 영상을 획득하는 제1 센서, 및 상기 사용자의 제스처를 감지하기 위한 제2 영상을 획득하는 제2 센서를 포함할 수 있다.In the present invention, the sensor may include a first sensor that acquires a first image for tracking the user's gaze, and a second sensor that acquires a second image for detecting the user's gesture.

본 발명에서 상기 디스플레이 장치는, 필러(pillar)형으로 구현될 수 있다. In the present invention, the display device may be implemented as a pillar type.

본 발명은 상기 디스플레이 장치의 각도를 적용하여 상기 차량의 외부에 장착되는 촬영장치를 더 포함하고, 상기 디스플레이 장치는, 상기 촬영장치를 통해 촬영된 영상을 화면상에 실시간으로 출력하고, 상기 영상 출력 화면 상에 프로그램 제어를 위한 적어도 하나의 아이콘을 표시할 수 있다. The present invention further includes a photographing device mounted on the exterior of the vehicle by applying the angle of the display device, wherein the display device outputs an image captured through the photographing device on a screen in real time, and outputs the image. At least one icon for program control can be displayed on the screen.

본 발명에서 상기 프로세서는, 상기 영상으로부터 사용자의 얼굴 영상을 획득하고, 상기 얼굴 영상에서 눈 영상을 검출하며, 상기 검출된 눈 영상에서 동공의 위치를 획득하여 사용자의 시선의 위치를 인식하고, 상기 시선의 위치를 트래킹(tracking)함으로써, 상기 사용자의 의도를 파악할 수 있다. In the present invention, the processor acquires a face image of the user from the image, detects an eye image from the face image, obtains the position of the pupil from the detected eye image, and recognizes the position of the user's gaze. By tracking the position of the gaze, the user's intention can be determined.

본 발명에서 상기 프로세서는, 상기 사용자의 시선이 기 설정된 제1 시간 이상 동안 디스플레이 장치 쪽을 응시하는 경우, 상기 디스플레이 장치의 프로그램 제어를 사용자 의도로 파악하고, 상기 조명 모듈을 점등하거나 플리커(flicker)하도록 제어함으로써, 상기 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력할 수 있다. In the present invention, when the user's gaze gazes toward the display device for a preset first time or more, the processor recognizes program control of the display device as the user's intention, and turns on the lighting module or causes a flicker. By controlling it to do so, listening feedback indicating that the user's gesture interaction is in a state to be listened to can be output.

본 발명에서 상기 디스플레이 장치는 복수의 영역으로 구분되고, 상기 프로세서는, 상기 리스닝 피드백 출력 후, 기 설정된 제2 시간 이상 동안 상기 사용자의 시선이 상기 디스플레이 장치의 특정 영역을 응시하는 경우, 상기 특정 영역을 상기 디스플레이 장치의 중앙으로 확대하고, 상기 확대된 영역에 표시된 아이콘을 제어하기 위한 인터랙션 가이드를 상기 디스플레이 장치를 통해 표시할 수 있다. In the present invention, the display device is divided into a plurality of areas, and the processor, after outputting the listening feedback, when the user's gaze gazes at a specific area of the display device for a preset second time or more, the specific area can be enlarged to the center of the display device, and an interaction guide for controlling icons displayed in the enlarged area can be displayed through the display device.

본 발명에서 상기 프로세서는, 상기 리스닝 피드백 출력 후, 기 설정된 제2 시간 경과 전에 상기 사용자의 시선이 디스플레이 장치 쪽이 아닌 다른 쪽으로 이동하는 경우, 상기 사운드 모듈 및 조명 모듈을 비활성화시키고, 대기모드로 전환시킬 수 있다. In the present invention, when the user's gaze moves to a direction other than the display device after outputting the listening feedback and before a preset second time has elapsed, the processor deactivates the sound module and the lighting module and switches to standby mode. You can do it.

본 발명에서 상기 프로세서는, 상기 인식된 제스처가 상기 인터랙션 가이드에 대응하는 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 정상 동작이 수행되었음을 알리고, 해당 아이콘에 대응하는 프로그램을 실행시키며, 상기 인식된 제스처가 상기 인터랙션 가이드에 대응하지 않은 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 비정상 동작이 수행되었음을 알릴 수 있다. In the present invention, if the recognized gesture is a gesture corresponding to the interaction guide, the processor notifies that a normal operation has been performed through the sound module and the lighting module, executes a program corresponding to the icon, and executes the recognized gesture. If the gesture does not correspond to the interaction guide, it can be notified that an abnormal operation has been performed through the sound module and lighting module.

본 발명의 다른 측면에 따른 차량의 디스플레이 장치 제어 방법은, 프로세서가, 제1 센서를 통해 획득된 제1 영상에 기초하여 사용자의 의도를 파악하는 단계, 상기 사용자의 의도가 디스플레이 장치의 프로그램 제어인 경우, 상기 프로세서가 해당 디스플레이 장치 주위에 설치된 사운드 모듈 및 조명 모듈을 통해 리스닝 피드백을 출력하고, 상기 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치의 특정 영역을 확대하는 단계, 상기 프로세서가 상기 특정 영역의 아이콘에 대한 인터랙션 가이드를 상기 디스플레이 장치를 통해 출력하고, 제2 센서를 활성화시키는 단계, 및 상기 프로세서가 상기 제2 센서를 통해 획득된 제2 영상에 기초하여 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 단계를 포함한다. A method of controlling a display device of a vehicle according to another aspect of the present invention includes, by a processor, identifying a user's intention based on a first image acquired through a first sensor, wherein the user's intention is program control of the display device. In this case, the processor outputs listening feedback through sound modules and lighting modules installed around the display device, and enlarging a specific area of the display device where the user's gaze gazes for more than a preset certain period of time, the processor Outputting an interaction guide for an icon in a specific area through the display device and activating a second sensor, and the processor recognizing the user's gesture based on a second image acquired through the second sensor , and controlling a program corresponding to the icon based on the recognized gesture.

본 발명은 상기 사용자의 의도를 파악하는 단계에서, 상기 프로세서는, 상기 제1 영상에 기초하여 사용자의 얼굴 트래킹 또는 시선 트래킹을 수행하고, 상기 사용자의 얼굴 각도 또는 시선이 기 설정된 제1 시간 이상 동안 디스플레이 장치 쪽을 응시하는 경우, 디스플레이 장치의 프로그램 제어를 사용자의 의도로 파악할 수 있다. In the present invention, in the step of determining the user's intention, the processor performs face tracking or gaze tracking of the user based on the first image, and the user's face angle or gaze is maintained for a preset first time or more. When looking toward the display device, program control of the display device can be determined as the user's intention.

본 발명은 상기 디스플레이 장치의 특정 영역을 확대하는 단계에서, 상기 프로세서는, 상기 디스플레이 장치 주위에 설치된 조명 모듈을 점등하거나 플리커(flicker)하도록 제어함으로써, 상기 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력할 수 있다. In the present invention, in the step of enlarging a specific area of the display device, the processor controls lighting modules installed around the display device to turn on or flicker, thereby indicating that the user's gesture interaction is in a state of listening. Listening feedback can be output.

본 발명은 상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 단계에서, 상기 프로세서는, 상기 인식된 제스처가 상기 인터랙션 가이드에 대응하는 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 정상 동작이 수행되었음을 알리고, 해당 아이콘에 대응하는 프로그램을 실행시키며, 상기 인식된 제스처가 상기 인터랙션 가이드에 대응하지 않은 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 비정상 동작이 수행되었음을 알릴 수 있다. In the step of controlling the program corresponding to the icon based on the recognized gesture, the processor, if the recognized gesture is a gesture corresponding to the interaction guide, normalizes the program through the sound module and the lighting module. Notifies that an operation has been performed, executes a program corresponding to the corresponding icon, and, if the recognized gesture is a gesture that does not correspond to the interaction guide, may notify that an abnormal operation has been performed through the sound module and lighting module.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, other methods for implementing the present invention, other systems, and computer programs for executing the methods may be further provided.

본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템 및 방법은, 차량에 구비된 디스플레이 장치의 GUI를 터치리스 인터랙션 방식으로 제어 시, 얼굴 트래킹 또는 시선 트래킹을 통해 사용자의 의도를 분석하여 사용자에게 알리고, 분석된 의도가 맞는 경우 디스플레이 장치의 GUI를 제스처 인터랙션으로 제어함으로써, 직관성 높은 원거리 비접촉 인터랙션을 구현할 수 있다.The system and method for controlling a display device of a vehicle according to an embodiment of the present invention analyzes the user's intention through face tracking or gaze tracking when controlling the GUI of the display device provided in the vehicle through a touchless interaction method and provides information to the user. By notifying and controlling the GUI of the display device through gesture interaction if the analyzed intention is correct, highly intuitive long-distance non-contact interaction can be implemented.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the effects mentioned above, and various effects may be included within the range apparent to those skilled in the art from the contents described below.

도 1은 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템을 설명하기 위한 도면이다.
도 2는 도 1에 도시된 디스플레이 장치 제어 시스템의 설치 위치를 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치 제어 시스템의 동작을 설명하기 위한 화면 예시도이다.
도 4는 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining a vehicle display device control system according to an embodiment of the present invention.
FIG. 2 is an example diagram for explaining the installation location of the display device control system shown in FIG. 1.
Figure 3 is an example screen diagram for explaining the operation of a display device control system according to an embodiment of the present invention.
Figure 4 is a flowchart illustrating a method of controlling a display device of a vehicle according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, a system and method for controlling a display device of a vehicle according to an embodiment of the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation.

또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Additionally, implementations described herein may be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Additionally, the terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are assigned the same drawing numbers and duplicate descriptions thereof are omitted. I decided to do it.

도 1은 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템을 설명하기 위한 도면, 도 2는 도 1에 도시된 디스플레이 장치 제어 시스템의 설치 위치를 설명하기 위한 예시도, 도 3은 본 발명의 일 실시예에 따른 디스플레이 장치 제어 시스템의 동작을 설명하기 위한 화면 예시도이다. FIG. 1 is a diagram illustrating a display device control system for a vehicle according to an embodiment of the present invention, FIG. 2 is an exemplary diagram illustrating the installation position of the display device control system shown in FIG. 1, and FIG. 3 is a diagram illustrating the present invention. This is an example screen diagram for explaining the operation of a display device control system according to an embodiment of.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템(100)은 센서(110), 사운드 모듈(120), 조명 모듈(130), 디스플레이 장치(140), 프로세서(150) 및 메모리(160)를 포함한다. Referring to FIG. 1, the vehicle display device control system 100 according to an embodiment of the present invention includes a sensor 110, a sound module 120, a lighting module 130, a display device 140, and a processor 150. ) and memory 160.

센서(110)는 차량 내 각 좌석의 상면에 설치되어, 사용자의 영상을 획득하고, 획득된 영상을 프로세서(150)로 전송할 수 있다. 센서(110)는 RGB 카메라, depth 카메라, 듀얼 카메라, 360도 카메라, 2D 영상 촬영 카메라, 심도 카메라, 비전 카메라 등으로 구현될 수 있다. The sensor 110 is installed on the upper surface of each seat in the vehicle, acquires an image of the user, and transmits the acquired image to the processor 150. The sensor 110 may be implemented as an RGB camera, depth camera, dual camera, 360-degree camera, 2D video capture camera, depth camera, vision camera, etc.

이러한 센서(110)는 사용자의 얼굴 또는 시선을 트래킹하기 위한 제1 영상을 획득하는 제1 센서(112), 및 사용자의 제스처를 감지하기 위한 제2 영상을 획득하는 제2 센서(114)를 포함할 수 있다.This sensor 110 includes a first sensor 112 that acquires a first image for tracking the user's face or gaze, and a second sensor 114 that acquires a second image for detecting the user's gesture. can do.

제1 센서(112)는 도 2에 도시된 바와 같이 디스플레이 장치(140)의 위쪽에 설치되어, 사용자의 얼굴 부분을 촬영할 수 있다. 제1 센서(112)는 예컨대, RGB 카메라로 구현될 수 있다.The first sensor 112 is installed above the display device 140 as shown in FIG. 2 and can capture a portion of the user's face. The first sensor 112 may be implemented as, for example, an RGB camera.

제2 센서(114)는 도 2에 도시된 바와 같이 차량의 상면 특히, 디스플레이 장치(140)의 위쪽 부근에 설치되어, 사용자의 손 부분을 촬영할 수 있다. 제2 센서(114)는 예컨대, 3D depth를 구할 수 있는 카메라로 구현될 수 있다. As shown in FIG. 2, the second sensor 114 is installed on the top of the vehicle, particularly near the top of the display device 140, and can capture the user's hand. The second sensor 114 may be implemented, for example, as a camera capable of obtaining 3D depth.

사운드 모듈(120)은 각 디스플레이 장치(140) 주위에 각각 설치되고, 프로세서(150)의 제어에 따라 사운드를 출력할 수 있다. 즉, 사운드 모듈(120)은 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 사운드로 출력할 수 있다. 예를 들면, 사운드 모듈(120)은 "웅~"의 소리를 리스닝 피드백으로 출력할 수 있다. The sound module 120 is installed around each display device 140 and can output sound under the control of the processor 150. That is, the sound module 120 may output listening feedback indicating that it is in a state to listen to the user's gesture interaction as a sound. For example, the sound module 120 may output the sound of “hung~” as listening feedback.

이러한 사운드 모듈(120)은 예컨대, 스피커 등으로 구현될 수 있다. This sound module 120 may be implemented, for example, as a speaker.

조명 모듈(130)은 각 디스플레이 장치(140) 주위에 각각 설치되고, 프로세서(150)의 제어에 따라 점등, 점멸, 플러깅 등을 수행할 수 있다. 조명 모듈(130)은 사용자에 의해 제어될 수 있다는 것을 알리는 조명으로, 디스플레이 장치(140) 뒤쪽에 설치될 수 있다. 예를 들면, 조명 모듈(130)은 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 플리커(flicker)로 표시할 수 있다. 이러한 조명 모듈(130)은 LED 등의 간접등으로 구현될 수 있다.The lighting module 130 is installed around each display device 140 and can perform lighting, blinking, plugging, etc. under the control of the processor 150. The lighting module 130 is a light that indicates that it can be controlled by a user, and may be installed behind the display device 140. For example, the lighting module 130 may display listening feedback indicating that it is in a state to listen to the user's gesture interaction as a flicker. This lighting module 130 may be implemented as indirect lighting such as LED.

디스플레이 장치(140)는 도 2에 도시된 바와 같이 차량 내 각 좌석의 정면에 각각 설치될 수 있다. 예를 들어, 4개의 좌석이 구비된 차량인 경우, 디스플레이 장치(140)는 4개의 좌석 정면에 각각 설치될 수 있다.The display device 140 may be installed in front of each seat in the vehicle, as shown in FIG. 2 . For example, in the case of a vehicle equipped with four seats, the display device 140 may be installed in front of each of the four seats.

디스플레이 장치(140)는 필러(pillar)형으로 구현될 수 있다.The display device 140 may be implemented as a pillar type.

디스플레이 장치(140)는 차량 외부에 장착된 촬영장치(미도시)를 통해 촬영된 영상을 화면상에 실시간으로 출력하고, 영상 출력 화면 상에 디스플레이 장치(140)의 프로그램 제어를 위한 적어도 하나의 아이콘을 표시할 수 있다. 이때, 촬영장치는 디스플레이 장치(140)의 각도를 적용하여 영상을 촬영할 수 있고, 디스플레이 장치(140)는 촬영장치를 통해 촬영된 영상을 출력함으로써, 디스플레이 장치(140)와 차량의 윈도우가 이어진 것처럼 보일 수 있다.The display device 140 outputs images captured through a photographing device (not shown) mounted outside the vehicle on a screen in real time, and displays at least one icon for program control of the display device 140 on the video output screen. can be displayed. At this time, the photographing device can capture an image by applying the angle of the display device 140, and the display device 140 outputs the image captured through the photographing device, as if the display device 140 and the window of the vehicle are connected. It can be seen.

디스플레이 장치(140)는 촬영장치를 통해 실제 촬영되고 있는 실시간 화면 상에 GUI(그래픽)를 표시할 수 있다. 여기서, GUI는 아이콘, 스크롤바, 단추 등을 포함하는 개념일 수 있다. The display device 140 can display a GUI (graphics) on a real-time screen that is actually being captured through a photographing device. Here, GUI may be a concept including icons, scrollbars, buttons, etc.

이러한 디스플레이 장치(140)는 LCD(Liquid Crystal Display) 패널, LED(Light Emitting Diode) 패널 등 영상을 표시할 수 있는 다양한 디스플레이 패널이 적용될 수 있다.The display device 140 may be a variety of display panels capable of displaying images, such as a Liquid Crystal Display (LCD) panel or a Light Emitting Diode (LED) panel.

프로세서(150)는 센서(110)를 통해 획득된 영상에 기초하여 사용자의 의도를 파악하고, 사용자의 의도가 디스플레이 장치(140)의 프로그램 제어인 경우, 해당 디스플레이 장치(140) 주위에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 리스닝 피드백을 출력하며, 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치(140)의 특정 영역을 확대하고, 특정 영역의 아이콘에 대한 인터랙션 가이드를 디스플레이 장치(140)를 통해 출력하며, 센서(110)를 통해 획득된 영상에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 기초하여 아이콘에 대응하는 프로그램을 제어할 수 있다. The processor 150 determines the user's intention based on the image acquired through the sensor 110, and when the user's intention is program control of the display device 140, the sound module installed around the display device 140 Listening feedback is output through 120 and lighting module 130, enlarges a specific area of the display device 140 where the user's gaze gazes for more than a preset certain period of time, and displays an interaction guide for the icon in the specific area. It is output through the device 140, recognizes the user's gesture based on the image acquired through the sensor 110, and controls a program corresponding to the icon based on the recognized gesture.

이하, 프로세서(150)의 동작에 대해 구체적으로 설명하기로 한다. Hereinafter, the operation of the processor 150 will be described in detail.

프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 사용자의 얼굴을 인식하고, 얼굴 트래킹 또는 시선 트래킹을 통해 사용자의 의도를 파악할 수 있다.The processor 150 may recognize the user's face from the first image acquired through the first sensor 112 and determine the user's intention through face tracking or gaze tracking.

즉, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 배경 영역을 제거하여 사용자의 얼굴 영상을 획득하고, 획득된 얼굴 영상에서 에지, 색상 정보를 이용하여 얼굴 영역을 추출한 후, 얼굴 트래킹을 수행할 수 있다. 프로세서(150)는 얼굴 트래킹을 통해 얼굴 각도를 파악하고, 얼굴 각도에 기초하여 사용자의 의도를 파악할 수 있다. That is, the processor 150 obtains the information obtained through the first sensor 112. The user's face image can be obtained by removing the background area from the first image, the face area can be extracted from the obtained face image using edge and color information, and then face tracking can be performed. The processor 150 can determine the face angle through face tracking and determine the user's intention based on the face angle.

또한, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 사용자의 얼굴 영상을 획득하고, 얼굴 영상에서 눈 영상을 검출하며, 검출된 눈 영상에서 동공의 위치를 획득하여 사용자의 시선의 위치를 인식하고, 시선의 방향을 검출함으로써 사용자의 의도를 파악할 수 있다. In addition, the processor 150 acquires the user's face image from the first image acquired through the first sensor 112, detects the eye image from the face image, and obtains the position of the pupil from the detected eye image to obtain the user's face image from the first image acquired through the first sensor 112. By recognizing the position of the user's gaze and detecting the direction of the gaze, the user's intention can be determined.

또한, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 사용자의 두 눈의 위치(예를 들어, 동공 위치)를 검출함으로써, 사용자의 눈의 위치를 트래킹(tracking)할 수 있다. 프로세서(150)는 제1 센서(112)에 의해 사용자의 영상을 지속적으로 수신하며, 이로부터 검출된 특징점들에 기초하여 눈의 위치(또는 동공 위치)를 트래킹할 수 있다.In addition, the processor 150 tracks the position of the user's eyes by detecting the positions of the user's eyes (e.g., pupil positions) from the first image acquired through the first sensor 112. You can. The processor 150 continuously receives the user's image through the first sensor 112 and can track the eye position (or pupil position) based on feature points detected therefrom.

이처럼 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 눈동자를 검출함으로써 눈동자의 움직임에 따라 사용자의 시선의 방향을 확인할 수 있다. 또한, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 사용자 얼굴의 눈과 코 및 얼굴 전체 윤곽을 검출하고, 검출된 눈과 코 및 얼굴 전체 윤곽의 상대적 위치에 따라 사용자의 얼굴이 향한 방향을 추정할 수 있다. 프로세서(150)는 사용자의 얼굴 트래킹 또는 시선 트래킹을 수행함으로써, 사용자의 의도를 파악할 수 있다.In this way, the processor 150 detects the pupil from the first image acquired through the first sensor 112 and can confirm the direction of the user's gaze according to the movement of the pupil. In addition, the processor 150 detects the eyes, nose, and overall facial outline of the user's face from the first image acquired through the first sensor 112, and detects the user's face according to the relative positions of the detected eyes, nose, and overall facial outline. The direction of the face can be estimated. The processor 150 can determine the user's intention by performing face tracking or gaze tracking.

사용자의 얼굴 트래킹 또는 시선 트래킹 결과, 도 3의 (a)에 도시된 바와 같이 사용자의 얼굴 각도 또는 시선이 디스플레이 장치(140)쪽을 향하는 경우, 프로세서(150)는 디스플레이 장치(140)의 프로그램 제어를 사용자의 의도로 파악할 수 있다. 이때, 프로세서(150)는 사용자의 얼굴 또는 시선이 기 설정된 제1 시간(예: 2-3초) 이상 디스플레이 장치(140)쪽을 유지하는 경우, 디스플레이 장치(140)의 프로그램 제어를 사용자의 의도로 파악할 수 있다.As a result of the user's face tracking or gaze tracking, when the user's face angle or gaze is directed toward the display device 140 as shown in (a) of FIG. 3, the processor 150 controls the program of the display device 140 can be determined by the user's intention. At this time, when the user's face or gaze remains toward the display device 140 for more than a preset first time (e.g., 2-3 seconds), the processor 150 controls the program of the display device 140 according to the user's intention. It can be understood as

디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 파악된 의도에 대응하여 사운드 모듈(120) 및 조명 모듈(130)을 통해 리스닝 피드백을 출력하고, 사용자의 제스처를 인식하기 위한 제2 센서(114)를 활성화시킬 수 있다. 이때, 프로세서(150)는 사용자의 얼굴 각도 또는 시선이 향하는 디스플레이 장치(140) 주위에 설치된 조명 모듈(130)을 통해 리스닝 피드백을 출력할 수 있다.When the program control of the display device 140 is identified as the user's intention, the processor 150 outputs listening feedback through the sound module 120 and the lighting module 130 in response to the identified intention, and performs the user's gesture. The second sensor 114 for recognition may be activated. At this time, the processor 150 may output listening feedback through the lighting module 130 installed around the display device 140 where the user's face angle or gaze is directed.

즉, 디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 도 3의 (b)에 도시된 바와 같이 해당 디스플레이 장치(140) 주위에 설치된 조명 모듈(130)을 A와 같이 점등하거나 플리커(flicker)하도록 제어함으로써, 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력할 수 있다. 또한 디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 사운드 모듈(120)을 통해 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 사운드로 출력할 수 있다. 예를 들면, 사운드 모듈(120)은 "웅~" 소리를 리스닝 피드백으로 출력할 수 있다. That is, when the program control of the display device 140 is determined to be the user's intention, the processor 150 sets the lighting module 130 installed around the display device 140 to A as shown in (b) of FIG. By controlling it to light up or flicker as shown, listening feedback indicating that the user's gesture interaction is in a state of listening can be output. Additionally, if the program control of the display device 140 is determined to be the user's intention, the processor 150 may output listening feedback indicating that the user's gesture interaction is in a state to be listened to as a sound through the sound module 120. For example, the sound module 120 may output a “hum” sound as listening feedback.

이처럼 디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 사용자의 제스처 인터랙션을 리스닝할 상태가 되었다는 전환과 함께 사운드 모듈(120) 및 조명 모듈(130)에 신호를 주어 사용자에게 리스닝 상태를 안내할 수 있다. 사용자는 조명 모듈(130) 및 사운드 모듈(120)을 통해 출력되는 리스닝 피드백을 확인하고, 자신의 의도가 맞는지를 확인할 수 있다.In this way, when the program control of the display device 140 is determined to be the user's intention, the processor 150 sends a signal to the sound module 120 and the lighting module 130 along with a transition indicating that it is in a state to listen to the user's gesture interaction. The user can be informed of the listening status. The user can check the listening feedback output through the lighting module 130 and the sound module 120 and confirm whether the user's intention is correct.

리스닝 피드백 출력 후, 도 3의 (c)에 도시된 바와 같이 기 설정된 제2 시간(예: 2-3초) 이상 동안 사용자의 시선이 디스플레이 장치(140)의 특정 영역을 유지하는 경우, 프로세서(150)는 도 3의 (d)와 같이 해당 특정 영역을 디스플레이 장치(140)의 중앙으로 확대하고, 도 3의 (e)와 같이 확대된 영역에 표시된 아이콘을 제어하기 위한 인터랙션 가이드를 디스플레이 장치(140)를 통해 표시할 수 있다. 여기서, 인터랙션 가이드는 도 3의 (e)에 도시된 바와 같이 확대된 영역에 표시된 아이콘을 선택(클릭, 터치)하기 위한 제스처(C)를 지시하는 가이드일 수 있다. 사용자는 인터랙션 가이드에 표시되는 제스처 가이드에 따라 제스처를 수행할 수 있다. 그러면, 해당 아이콘에 대응하는 프로그램이 실행될 수 있다. After outputting the listening feedback, as shown in (c) of FIG. 3, when the user's gaze maintains a specific area of the display device 140 for more than a preset second time (e.g., 2-3 seconds), the processor ( 150) enlarges the specific area to the center of the display device 140 as shown in (d) of FIG. 3, and provides an interaction guide for controlling the icon displayed in the enlarged area as shown in (e) of FIG. 3 to the display device ( 140). Here, the interaction guide may be a guide that instructs a gesture (C) to select (click, touch) an icon displayed in the enlarged area, as shown in (e) of FIG. 3. The user can perform gestures according to the gesture guide displayed in the interaction guide. Then, the program corresponding to the icon can be executed.

만약, 리스닝 피드백 출력 후, 기 설정된 제2 시간(예: 2-3초) 경과 전에 사용자의 얼굴 각도 또는 시선이 디스플레이 장치(140) 쪽이 아닌 다른 쪽으로 이동하게 되면, 프로세서(150)는 사용자가 디스플레이 장치(140)를 제어하지 않을 것이라 판단하여 사운드 모듈(120) 및 조명 모듈(130)을 비활성화시키고, 대기모드(idle 상태)로 전환시킬 수 있다. If, after outputting the listening feedback, the user's face angle or gaze moves to a direction other than the display device 140 before the preset second time (e.g., 2-3 seconds) has elapsed, the processor 150 If it is determined that the display device 140 will not be controlled, the sound module 120 and the lighting module 130 may be deactivated and converted to standby mode (idle state).

디스플레이 장치(140)를 통해 인터랙션 가이드가 표시되고, 제2 센서(114)가 활성화되면, 프로세서(150)는 제2 센서(114)를 통해 획득된 영상에 기초하여 사용자의 제스처를 인식할 수 있다. 이때, 프로세서(150)는 제2 센서(114)를 통해 획득된 영상으로부터 배경 영역을 제거하여 사용자의 신체의 영상을 획득하고, 획득된 사용자의 신체 영상에서 에지, 색상 정보를 이용하여 사용자의 얼굴, 팔, 손, 몸통, 다리 및 발 영역을 추출하며, 추출된 얼굴, 팔, 손, 몸통, 다리, 발 등에서 특징점을 추출하여 사용자가 취한 제스처를 인식할 수 있다. 또한, 프로세서(150)는 제스처 영역에서 감지되는 사용자의 제스처를 제스처 인식 알고리즘에 따라 처리할 수 있다. 제스처 영역은, 예를 들면, 사용자의 제스처를 감지할 수 있는 영역 전체를 의미할 수 있다. 예를 들어, 프로세서(150)는, 사용자의 골격을 확인하여 관절의 움직임 등을 인식하여 해당 제스처를 인식할 수 있다. 또한, 프로세서(150)는 사용자가 손으로 가리키는 동작, 손을 앞/뒤/좌/우로 움직이는 동작, 손으로 삼각형이나 원을 그리는 동작을 감지할 수 있다.When the interaction guide is displayed through the display device 140 and the second sensor 114 is activated, the processor 150 may recognize the user's gesture based on the image acquired through the second sensor 114. . At this time, the processor 150 obtains an image of the user's body by removing the background area from the image acquired through the second sensor 114, and uses edge and color information from the acquired body image of the user to determine the user's face. , the arm, hand, torso, leg, and foot regions are extracted, and feature points are extracted from the extracted face, arm, hand, torso, leg, and foot to recognize the gesture taken by the user. Additionally, the processor 150 may process the user's gesture detected in the gesture area according to a gesture recognition algorithm. For example, the gesture area may mean the entire area where a user's gesture can be detected. For example, the processor 150 may recognize the corresponding gesture by checking the user's skeleton and recognizing joint movements. Additionally, the processor 150 can detect the user's pointing motion, the motion of moving the hand forward/backward/left/right, and the motion of drawing a triangle or circle with the hand.

인식된 제스처가 인터랙션 가이드에 대응하는 제스처인 경우, 프로세서(150)는 해당 디스플레이 장치(140) 주위에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 정상 동작이 수행되었음을 알리고, 해당 아이콘을 선택하여 실행시킬 수 있다. If the recognized gesture is a gesture corresponding to the interaction guide, the processor 150 notifies that a normal operation has been performed through the sound module 120 and the lighting module 130 installed around the display device 140 and displays the corresponding icon. You can select and run it.

만약, 인식된 제스처가 인터랙션 가이드에 대응하지 않은 제스처인 경우, 프로세서(150)는 해당 디스플레이 장치(140) 주위에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 비정상 동작이 수행되었음을 알릴 수 있다. If the recognized gesture is a gesture that does not correspond to the interaction guide, the processor 150 may notify that an abnormal operation has been performed through the sound module 120 and lighting module 130 installed around the display device 140. there is.

예를 들어, 인터랙션 가이드에 해당하는 제스처가 인식된 경우, 프로세서(150)는 조명 모듈(130)을 파랑색으로 점등되도록 하고, 사운드 모듈(120)을 통해 정상적으로 동작이 수행되었음을 출력할 수 있다. 만약, 인터랙션 가이드에 해당하는 제스처가 인식되지 않은 경우, 프로세서(150)는 조명 모듈(130)을 빨강색으로 점등되도록 하고, 사운드 모듈(120)을 통해 비정상적으로 동작이 수행되었음을 출력할 수 있다.For example, when a gesture corresponding to an interaction guide is recognized, the processor 150 may turn on the lighting module 130 in blue and output through the sound module 120 that the operation has been performed normally. If the gesture corresponding to the interaction guide is not recognized, the processor 150 may light the lighting module 130 in red and output that an abnormal operation has been performed through the sound module 120.

메모리(160)는 디스플레이 장치(140) 제어 시스템의 동작과 관련된 데이터들을 저장하는 구성이다. 특히, 메모리(160)에는 영상에 기초하여 사용자의 의도를 파악하고, 파악된 의도에 대응하여 리스닝 피드백을 출력하며, 사용자의 시선이 기 설정된 일정시간 이상 유지되는 디스플레이 장치(140)의 특정 영역을 확대하고, 특정 영역의 아이콘에 대한 인터랙션 가이드를 출력하며, 영상에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 기초하여 아이콘에 대응하는 프로그램을 제어하는 어플리케이션(프로그램 또는 애플릿) 등이 저장될 수 있으며, 저장되는 정보들은 필요에 따라 프로세서(150)에 의해 취사선택될 수 있다. 즉, 메모리(160)에는 디스플레이 장치(140) 제어 시스템의 구동을 위한 운영 체제나 디스플레이 장치 제어 어플리케이션(프로그램 또는 애플릿)의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다. 이때, 메모리(160)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. 또한, 메모리(160)는 프로세서(150)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(160)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 160 is a component that stores data related to the operation of the control system of the display device 140. In particular, the memory 160 detects the user's intention based on the image, outputs listening feedback in response to the identified intention, and identifies a specific area of the display device 140 where the user's gaze is maintained for more than a preset certain period of time. An application (program or applet) that enlarges, outputs an interaction guide for icons in a specific area, recognizes user gestures based on images, and controls programs corresponding to icons based on recognized gestures will be stored. The stored information can be selected by the processor 150 as needed. That is, the memory 160 stores various types of data generated during the execution of an operating system for driving the display device 140 control system or a display device control application (program or applet). At this time, the memory 160 refers to a non-volatile storage device that continues to retain stored information even when power is not supplied, and a volatile storage device that requires power to maintain the stored information. Additionally, the memory 160 may perform a function of temporarily or permanently storing data processed by the processor 150. Here, the memory 160 may include magnetic storage media or flash storage media in addition to volatile storage devices that require power to maintain stored information, but the scope of the present invention is limited thereto. It doesn't work.

도 4는 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 방법을 설명하기 위한 흐름도이다. Figure 4 is a flowchart illustrating a method of controlling a display device of a vehicle according to an embodiment of the present invention.

도 4를 참조하면, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상에 기초하여 사용자의 얼굴 트래킹 또는 시선 트래킹을 수행한다(S402). 즉, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 사용자의 얼굴 영상을 획득하고, 얼굴 영상에서 눈 영상을 검출하며, 검출된 눈 영상에서 동공의 위치를 획득하여 사용자의 시선의 위치를 인식하고, 인식된 시선의 위치를 트래킹(tracking)할 수 있다. 또한, 프로세서(150)는 제1 센서(112)를 통해 획득된 제1 영상으로부터 얼굴 영상을 획득하고, 얼굴 영상에서 얼굴 영역을 추출하여 얼굴 트래킹을 수행할 수 있다. Referring to FIG. 4, the processor 150 performs face tracking or gaze tracking of the user based on the first image acquired through the first sensor 112 (S402). That is, the processor 150 acquires the user's face image from the first image acquired through the first sensor 112, detects the eye image from the face image, and obtains the position of the pupil from the detected eye image to determine the user's face image. It is possible to recognize the position of the gaze and track the position of the recognized gaze. Additionally, the processor 150 may obtain a face image from the first image acquired through the first sensor 112, extract a face area from the face image, and perform face tracking.

S402 단계가 수행되면, 프로세서(150)는 사용자의 얼굴 각도 또는 시선이 기 설정된 제1 시간 동안 디스플레이 장치(140)쪽을 응시하는지를 판단한다(S404).When step S402 is performed, the processor 150 determines whether the user's face angle or gaze gazes toward the display device 140 for a preset first time (S404).

S404 단계의 판단결과, 제1 시간 동안 사용자의 얼굴 각도 또는 시선이 디스플레이 장치(140)쪽을 응시하면, 프로세서(150)는 디스플레이 장치(140)의 프로그램 제어를 사용자의 의도로 파악하고(S406). 해당 디스플레이 장치(140) 주위에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 리스닝 피드백을 출력한다(S408). As a result of the determination in step S404, if the user's face angle or gaze gazes toward the display device 140 during the first time, the processor 150 determines the program control of the display device 140 as the user's intention (S406) . Listening feedback is output through the sound module 120 and the lighting module 130 installed around the display device 140 (S408).

즉, 디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 해당 디스플레이 장치(140)의 주위에 설치된 조명 모듈(130)을 점등하거나 플리커(flicker)하도록 제어함으로써, 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력할 수 있다. 또한 디스플레이 장치(140)의 프로그램 제어가 사용자의 의도로 파악되면, 프로세서(150)는 사운드 모듈(120)을 통해 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 사운드로 출력할 수 있다.That is, when the program control of the display device 140 is determined to be the user's intention, the processor 150 controls the lighting module 130 installed around the display device 140 to turn on or flicker, thereby Listening feedback indicating that the gesture interaction is in a state of listening can be output. Additionally, if the program control of the display device 140 is determined to be the user's intention, the processor 150 may output listening feedback indicating that the user's gesture interaction is in a state to be listened to as a sound through the sound module 120.

S408 단계가 수행되면, 프로세서(150)는 기 설정된 제2 시간(예: 2-3초) 이상 동안 사용자의 시선이 디스플레이 장치(140)의 특정 영역을 응시하는지를 판단한다(S410).When step S408 is performed, the processor 150 determines whether the user's gaze gazes at a specific area of the display device 140 for more than a preset second time (eg, 2-3 seconds) (S410).

S410 단계의 판단결과, 제2 시간 이상 동안 사용자의 시선이 디스플레이 장치(140)의 특정 영역을 응시하면, 프로세서(150)는 특정 영역을 디스플레이 장치(140)의 중앙으로 확대하고(S412), 확대된 영역에 표시된 아이콘을 제어하기 위한 인터랙션 가이드를 디스플레이 장치(140)를 통해 표시하며(S414), 사용자의 제스처를 인식하기 위한 제2 센서(114)를 활성화시킨다(S416).As a result of the determination in step S410, if the user's gaze gazes at a specific area of the display device 140 for a second time or more, the processor 150 enlarges the specific area to the center of the display device 140 (S412) and enlarges the specific area. An interaction guide for controlling the icon displayed in the area is displayed through the display device 140 (S414), and the second sensor 114 for recognizing the user's gesture is activated (S416).

S416 단계가 수행되면, 프로세서(150)는 제2 센서(114)를 통해 획득된 제2 영상에 기초하여 사용자의 제스처를 인식한다(S418). 이때, 프로세서(150)는 사용자가 손으로 가리키는 동작, 손을 앞/뒤/좌/우로 움직이는 동작, 손으로 삼각형이나 원을 그리는 동작을 감지할 수 있다.When step S416 is performed, the processor 150 recognizes the user's gesture based on the second image acquired through the second sensor 114 (S418). At this time, the processor 150 can detect the user's pointing motion, the motion of moving the hand forward/backward/left/right, and the motion of drawing a triangle or circle with the hand.

S418 단계가 수행되면, 프로세서(150)는 인식된 제스처가 인터랙션 가이드에 대응하는 제스처인지를 판단한다(S420).When step S418 is performed, the processor 150 determines whether the recognized gesture is a gesture corresponding to the interaction guide (S420).

S420 단계의 판단결과, 인식된 제스처가 인터랙션 가이드에 대응하는 제스처인 경우, 프로세서(150)는 해당 디스플레이 장치(140) 주변에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 정상 동작이 수행되었음을 알리고(S422), 제스처에 따라 해당 아이콘에 대응하는 프로그램을 실행시킨다(S424).As a result of the determination in step S420, if the recognized gesture is a gesture corresponding to the interaction guide, the processor 150 performs a normal operation through the sound module 120 and the lighting module 130 installed around the display device 140. This is notified (S422), and the program corresponding to the icon is executed according to the gesture (S424).

만약, 인식된 제스처가 인터랙션 가이드에 대응하지 않은 제스처인 경우, 프로세서(150)는 해당 디스플레이 장치(140) 주변에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 통해 비정상 동작이 수행되었음을 알린다(S426).If the recognized gesture is a gesture that does not correspond to the interaction guide, the processor 150 notifies that an abnormal operation has been performed through the sound module 120 and the lighting module 130 installed around the display device 140 ( S426).

S410 단계의 판단결과, 제2 시간 이상 동안 사용자의 얼굴 각도 또는 시선이 디스플레이 장치(140)의 특정 영역을 응시하지 않으면, 프로세서(150)는 해당 디스플레이 장치(140) 주위에 설치된 사운드 모듈(120) 및 조명 모듈(130)을 비활성화시키고, 대기모드로 전환한다(S428).As a result of the determination in step S410, if the user's face angle or gaze does not gaze at a specific area of the display device 140 for more than a second time, the processor 150 determines the sound module 120 installed around the display device 140. and deactivates the lighting module 130 and switches to standby mode (S428).

상술한 바와 같이 본 발명의 일 실시예에 따른 차량의 디스플레이 장치 제어 시스템 및 방법은, 차량에 구비된 디스플레이 장치의 GUI를 터치리스 인터랙션 방식으로 제어 시, 얼굴 트래킹 또는 시선 트래킹을 통해 사용자의 의도를 분석하여 사용자에게 알리고, 분석된 의도가 맞는 경우 디스플레이 장치의 GUI를 제스처 인터랙션으로 제어함으로써, 직관성 높은 원거리 비접촉 인터랙션을 구현할 수 있다.As described above, the system and method for controlling a display device of a vehicle according to an embodiment of the present invention detects the user's intention through face tracking or gaze tracking when controlling the GUI of a display device provided in a vehicle using a touchless interaction method. By analyzing and notifying the user, and controlling the GUI of the display device through gesture interaction if the analyzed intention is correct, highly intuitive long-distance non-contact interaction can be implemented.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand. Therefore, the true technical protection scope of the present invention should be determined by the scope of the patent claims below.

100 : 디스플레이 장치 제어 시스템
110 : 센서
112 : 제1 센서
114 : 제2 센서
120 : 사운드 모듈
130 : 조명 모듈
140 : 디스플레이 장치
150 : 프로세서
160 : 메모리
100: Display device control system
110: sensor
112: first sensor
114: second sensor
120: sound module
130: lighting module
140: display device
150: processor
160: memory

Claims (13)

차량 내 각 좌석의 상면에 설치되어, 사용자의 영상을 획득하는 센서;
상기 차량 내 각 좌석의 정면에 설치되는 디스플레이 장치;
각 디스플레이 장치 주위에 설치되는 사운드 모듈;
각 디스플레이 장치 주위에 설치되는 조명 모듈; 및
상기 센서를 통해 획득된 영상에 기초하여 상기 사용자의 의도를 파악하고, 상기 사용자의 의도가 디스플레이 장치의 프로그램 제어인 경우, 해당 디스플레이 장치 주위에 설치된 사운드 모듈 및 조명 모듈을 통해 리스닝 피드백을 출력하며, 상기 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치의 특정 영역을 확대하고, 상기 특정 영역의 아이콘에 대한 인터랙션 가이드를 상기 디스플레이 장치를 통해 출력하며, 상기 센서를 통해 획득된 영상에 기초하여 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 프로세서
를 포함하는 차량의 디스플레이 장치 제어 시스템.
A sensor installed on the upper surface of each seat in the vehicle to acquire an image of the user;
a display device installed in front of each seat in the vehicle;
A sound module installed around each display device;
Lighting modules installed around each display device; and
Determine the user's intention based on the image acquired through the sensor, and if the user's intention is program control of the display device, output listening feedback through a sound module and a lighting module installed around the display device, Enlarges a specific area of the display device where the user's gaze gazes for more than a predetermined period of time, outputs an interaction guide for the icon of the specific area through the display device, and outputs the display device based on the image acquired through the sensor. A processor that recognizes the user's gestures and controls a program corresponding to the icon based on the recognized gestures.
A display device control system for a vehicle including a.
제1항에 있어서,
상기 센서는,
상기 사용자의 시선을 트래킹하기 위한 제1 영상을 획득하는 제1 센서; 및
상기 사용자의 제스처를 감지하기 위한 제2 영상을 획득하는 제2 센서를 포함하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The sensor is,
A first sensor that acquires a first image for tracking the user's gaze; and
A display device control system for a vehicle, comprising a second sensor that acquires a second image for detecting the user's gesture.
제1항에 있어서,
상기 디스플레이 장치는,
필러(pillar)형으로 구현되는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The display device is,
A display device control system for a vehicle, characterized in that it is implemented in a pillar type.
제1항에 있어서,
상기 디스플레이 장치의 각도를 적용하여 상기 차량의 외부에 장착되는 촬영장치를 더 포함하고,
상기 디스플레이 장치는, 상기 촬영장치를 통해 촬영된 영상을 화면상에 실시간으로 출력하고, 상기 영상 출력 화면 상에 프로그램 제어를 위한 적어도 하나의 아이콘을 표시하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
Further comprising a photographing device mounted on the outside of the vehicle by applying the angle of the display device,
A display device control system for a vehicle, wherein the display device outputs an image captured through the photographing device on a screen in real time, and displays at least one icon for program control on the image output screen.
제1항에 있어서,
상기 프로세서는,
상기 영상으로부터 사용자의 얼굴 영상을 획득하고, 상기 얼굴 영상에서 눈 영상을 검출하며, 상기 검출된 눈 영상에서 동공의 위치를 획득하여 사용자의 시선의 위치를 인식하고, 상기 시선의 위치를 트래킹(tracking)함으로써, 상기 사용자의 의도를 파악하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The processor,
Obtain the user's face image from the image, detect the eye image from the face image, obtain the position of the pupil from the detected eye image, recognize the position of the user's gaze, and track the position of the gaze. ), a vehicle display device control system characterized by identifying the user's intention.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 시선이 기 설정된 제1 시간 이상 동안 디스플레이 장치 쪽을 응시하는 경우, 상기 디스플레이 장치의 프로그램 제어를 사용자 의도로 파악하고, 상기 조명 모듈을 점등하거나 플리커(flicker)하도록 제어함으로써, 상기 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The processor,
When the user's gaze gazes toward the display device for a preset first time or more, the program control of the display device is recognized as the user's intention, and the lighting module is controlled to light or flicker, thereby A display device control system for a vehicle, characterized in that it outputs listening feedback indicating that it is in a state to listen to gesture interaction.
제1항에 있어서,
상기 디스플레이 장치는 복수의 영역으로 구분되고,
상기 프로세서는,
상기 리스닝 피드백 출력 후, 기 설정된 제2 시간 이상 동안 상기 사용자의 시선이 상기 디스플레이 장치의 특정 영역을 응시하는 경우, 상기 특정 영역을 상기 디스플레이 장치의 중앙으로 확대하고, 상기 확대된 영역에 표시된 아이콘을 제어하기 위한 인터랙션 가이드를 상기 디스플레이 장치를 통해 표시하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The display device is divided into a plurality of areas,
The processor,
After outputting the listening feedback, when the user's gaze gazes at a specific area of the display device for a preset second time or more, the specific area is enlarged to the center of the display device and an icon displayed in the enlarged area is displayed. A display device control system for a vehicle, characterized in that an interaction guide for control is displayed through the display device.
제1항에 있어서,
상기 프로세서는,
상기 리스닝 피드백 출력 후, 기 설정된 제2 시간 경과 전에 상기 사용자의 시선이 디스플레이 장치 쪽이 아닌 다른 쪽으로 이동하는 경우, 상기 사운드 모듈 및 조명 모듈을 비활성화시키고, 대기모드로 전환시키는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The processor,
After outputting the listening feedback, if the user's gaze moves to a direction other than the display device before a preset second time has elapsed, the sound module and the lighting module are deactivated and switched to standby mode. Display device control system.
제1항에 있어서,
상기 프로세서는,
상기 인식된 제스처가 상기 인터랙션 가이드에 대응하는 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 정상 동작이 수행되었음을 알리고, 해당 아이콘에 대응하는 프로그램을 실행시키며,
상기 인식된 제스처가 상기 인터랙션 가이드에 대응하지 않은 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 비정상 동작이 수행되었음을 알리는 것을 특징으로 하는 차량의 디스플레이 장치 제어 시스템.
According to paragraph 1,
The processor,
If the recognized gesture is a gesture corresponding to the interaction guide, notifying that a normal operation has been performed through the sound module and lighting module and executing a program corresponding to the icon,
A display device control system for a vehicle, characterized in that when the recognized gesture is a gesture that does not correspond to the interaction guide, it notifies that an abnormal operation has been performed through the sound module and the lighting module.
프로세서가, 제1 센서를 통해 획득된 제1 영상에 기초하여 사용자의 의도를 파악하는 단계;
상기 사용자의 의도가 디스플레이 장치의 프로그램 제어인 경우, 상기 프로세서가 해당 디스플레이 장치 주위에 설치된 사운드 모듈 및 조명 모듈을 통해 리스닝 피드백을 출력하고, 상기 사용자의 시선이 기 설정된 일정시간 이상 응시하는 디스플레이 장치의 특정 영역을 확대하는 단계;
상기 프로세서가 상기 특정 영역의 아이콘에 대한 인터랙션 가이드를 상기 디스플레이 장치를 통해 출력하고, 제2 센서를 활성화시키는 단계; 및
상기 프로세서가 상기 제2 센서를 통해 획득된 제2 영상에 기초하여 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 단계
를 포함하는 차량의 디스플레이 장치 제어 방법.
A step of the processor identifying the user's intention based on the first image acquired through the first sensor;
When the user's intention is to control the program of the display device, the processor outputs listening feedback through sound modules and lighting modules installed around the display device, and the display device on which the user's gaze gazes for more than a preset certain period of time enlarging a specific area;
The processor outputting an interaction guide for icons in the specific area through the display device and activating a second sensor; and
Recognizing the user's gesture based on a second image acquired through the second sensor by the processor, and controlling a program corresponding to the icon based on the recognized gesture
A method of controlling a display device of a vehicle comprising:
제10항에 있어서,
상기 사용자의 의도를 파악하는 단계에서,
상기 프로세서는, 상기 제1 영상에 기초하여 사용자의 얼굴 트래킹 또는 시선 트래킹을 수행하고, 상기 사용자의 얼굴 각도 또는 시선이 기 설정된 제1 시간 이상 동안 디스플레이 장치 쪽을 응시하는 경우, 디스플레이 장치의 프로그램 제어를 사용자의 의도로 파악하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 방법.
According to clause 10,
In the step of determining the user's intention,
The processor performs face tracking or gaze tracking of the user based on the first image, and when the user's face angle or gaze gazes toward the display device for a preset first time or more, program control of the display device A method of controlling a display device of a vehicle, characterized in that the user's intention is identified.
제10항에 있어서,
상기 디스플레이 장치의 특정 영역을 확대하는 단계에서,
상기 프로세서는, 상기 디스플레이 장치 주위에 설치된 조명 모듈을 점등하거나 플리커(flicker)하도록 제어함으로써, 상기 사용자의 제스처 인터랙션을 리스닝할 상태가 되었음을 나타내는 리스닝 피드백을 출력하는 것을 특징으로 하는 차량의 디스플레이 장치 제어 방법.
According to clause 10,
In the step of enlarging a specific area of the display device,
The processor controls lighting modules installed around the display device to turn on or flicker, thereby outputting listening feedback indicating that it is in a state to listen to the user's gesture interaction. .
제10항에 있어서,
상기 인식된 제스처에 기초하여 상기 아이콘에 대응하는 프로그램을 제어하는 단계에서,
상기 프로세서는, 상기 인식된 제스처가 상기 인터랙션 가이드에 대응하는 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 정상 동작이 수행되었음을 알리고, 해당 아이콘에 대응하는 프로그램을 실행시키며,
상기 인식된 제스처가 상기 인터랙션 가이드에 대응하지 않은 제스처인 경우, 상기 사운드 모듈 및 조명 모듈을 통해 비정상 동작이 수행되었음을 알리는 것을 특징으로 하는 차량의 디스플레이 장치 제어 방법.
According to clause 10,
In the step of controlling the program corresponding to the icon based on the recognized gesture,
When the recognized gesture is a gesture corresponding to the interaction guide, the processor notifies that a normal operation has been performed through the sound module and the lighting module and executes a program corresponding to the icon,
When the recognized gesture is a gesture that does not correspond to the interaction guide, a method of controlling a display device of a vehicle, characterized in that notifying that an abnormal operation has been performed through the sound module and the lighting module.
KR1020220085952A 2022-07-12 2022-07-12 System for controlling display of vehicle and method thereof KR20240008735A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220085952A KR20240008735A (en) 2022-07-12 2022-07-12 System for controlling display of vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220085952A KR20240008735A (en) 2022-07-12 2022-07-12 System for controlling display of vehicle and method thereof

Publications (1)

Publication Number Publication Date
KR20240008735A true KR20240008735A (en) 2024-01-19

Family

ID=89717558

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220085952A KR20240008735A (en) 2022-07-12 2022-07-12 System for controlling display of vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR20240008735A (en)

Similar Documents

Publication Publication Date Title
US9703380B2 (en) Vehicle operation input device
US8523358B2 (en) Information processing apparatus, method, and storage medium storing program
US10156938B2 (en) Information processing apparatus, method for controlling the same, and storage medium
KR20080041809A (en) Apparatus and method for controlling display in potable terminal
US9261992B2 (en) Touch method for palm rejection and electronic device using the same
CN102887121A (en) Method to map gaze position to information display in vehicle
RU2011107930A (en) DEVICE AND METHOD FOR PROCESSING INFORMATION AND PROGRAM
JP2012221073A (en) Information processing apparatus, information processing method, and computer program
US20120113151A1 (en) Display apparatus and display method
US20150331494A1 (en) Electronic Control Apparatus
US20140152539A1 (en) Apparatus and method for an infrared contactless gesture system
US20200401218A1 (en) Combined gaze and touch input for device operation
US20070146320A1 (en) Information input system
EP2824562B1 (en) Method and apparatus to reduce display lag of soft keyboard presses
KR101806172B1 (en) Vehicle terminal control system and method
US11402646B2 (en) Display apparatus, display control method, and program
EP3255523B1 (en) Electronic device, photographing method and photographing apparatus
JP2009031981A (en) Interface device, interface method and interface program
US20140313153A1 (en) Electronic device, operation control method and recording medium
TW201546656A (en) Gesture identification system in tablet projector and gesture identification method thereof
KR20240008735A (en) System for controlling display of vehicle and method thereof
KR20200043786A (en) Method of controlling screen and display device having the same
KR20150093016A (en) Dispaly apparatus and controlling method thereof
KR20120054739A (en) User interface providing system using user identification
US8972889B2 (en) Display processing apparatus and display processing method