KR101603551B1 - Method for executing vehicle function using wearable device and vehicle for carrying out the same - Google Patents

Method for executing vehicle function using wearable device and vehicle for carrying out the same Download PDF

Info

Publication number
KR101603551B1
KR101603551B1 KR1020140162337A KR20140162337A KR101603551B1 KR 101603551 B1 KR101603551 B1 KR 101603551B1 KR 1020140162337 A KR1020140162337 A KR 1020140162337A KR 20140162337 A KR20140162337 A KR 20140162337A KR 101603551 B1 KR101603551 B1 KR 101603551B1
Authority
KR
South Korea
Prior art keywords
image
avn
smart glasses
vehicle
function
Prior art date
Application number
KR1020140162337A
Other languages
Korean (ko)
Inventor
정경조
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140162337A priority Critical patent/KR101603551B1/en
Application granted granted Critical
Publication of KR101603551B1 publication Critical patent/KR101603551B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to, in selecting and performing various functions in a vehicle, a method of using a wearable mobile device which is worn by a driver and a vehicle which can carry out the same. To solve the above purpose, according to an embodiment of the present invention, a method for executing a vehicle function using smart glasses, comprises: a step of connecting with the smart glasses wirelessly; a step of transmitting a first image including a list of at least one executable function with the smart glasses; a step of receiving information indicating a specific location of the first image from the smart glasses; and a step of executing a function corresponding to the specific location among the at least one executable function when a selected signal inputted from a mechanical system is transmitted, after the information is received.

Description

차량에서 웨어러블 기기를 이용한 기능 실행 방법 및 이를 수행하는 차량{METHOD FOR EXECUTING VEHICLE FUNCTION USING WEARABLE DEVICE AND VEHICLE FOR CARRYING OUT THE SAME}TECHNICAL FIELD [0001] The present invention relates to a method of performing a function using a wearable device in a vehicle,

본 발명은 차량에서 각종 기능을 선택하고 실행시킴에 있어, 운전자가 착용한 모바일 기기를 이용하는 방법 및 이를 수행할 수 있는 차량에 관한 것이다.The present invention relates to a method of using a mobile device worn by a driver in selecting and executing various functions in a vehicle, and a vehicle capable of performing the method.

차량에서 멀티미디어 시스템의 사용 빈도는 늘어나고 있으며 사용자의 니즈에 따라서 차량용 멀티미디어 시스템의 기능 또한 복잡해지고 있다. 그런데, 다양한 기능의 차량용 멀티미디어 시스템을 조작하기 위해서 사용자의 시선은 빈번하게 전방에서 벗어날 수 있으며 이러한 전방 주시 이탈 빈도가 늘어날수록 차량 사고의 위험성은 커지게 된다.The frequency of use of the multimedia system in the vehicle is increasing, and the function of the multimedia system of the vehicle is becoming more complicated according to the needs of the user. However, in order to operate a multimedia system of a vehicle having various functions, the user's gaze may frequently be diverted from the front, and the risk of a vehicle accident increases as the frequency of departing from the front increases.

현재의 멀티미디어 시스템 조작 방법은 화면 터치 방법과 버튼이나 조그 다이얼 등의 조작계를 통한 방법으로 나뉘어져 있다. 이러한 조작 방법들의 일례가 도 1에 도시된다.The current multimedia system operation method is divided into a screen touch method and an operation system such as a button or a jog dial. One example of such manipulation methods is shown in Fig.

도 1은 차량에서 멀티미디어 시스템 구성의 일례를 나타낸다.1 shows an example of a multimedia system configuration in a vehicle.

도 1을 참조하면, 차량에서 운전 중 멀티미디어 기능의 시각적 출력 및 기능 조작에 의해 사용자가 시선을 두는 곳은 헤드업 디스플레이(HUD, 110)나 AVN(Audio, Video, Navigation) 시스템(120)의 디스플레이와 그 주변의 키버튼, 변속 기어봉 주변의 조작계(130) 및 핸들의 조작계(140) 등을 들 수 있다. 이들 중, 헤드업 디스플레이(110)나 핸들의 조작계(140)의 경우, 운전 중 사용자가 주시해야할 시선 방향과 유사한 향하기 때문에 안전에 문제를 야기할 가능성이 낮다. 그러나, AVN 시스템(120)의 디스플레이나 그 주변의 키버튼들 및 변속 기어봉 주변의 조작계(130)를 운전자가 운전 중 조작하게 되는 경우, 전방 주시 이탈을 막기 어렵다는 문제점이 있다.Referring to FIG. 1, a visual point of a multimedia function during a driving operation of a vehicle, and a function of the user, may include a display of a head up display (HUD) 110 or an AVN (Audio, Video, Navigation) A key button in the vicinity thereof, an operating system 130 around the speed change gear, and an operating system 140 of the handle. Of these, the heads-up display 110 and the steering system 140 of the handle are likely to cause problems in safety because they are oriented in the same direction as the direction of the eyes to be watched by the user during operation. However, when the driver manipulates the display system of the AVN system 120, the key buttons around the AVN system 120, and the operating system 130 around the shift gear, the driver is difficult to prevent the driver from looking ahead.

본 발명은 운전자의 전방 주시 이탈 없이 사용자가 희망하는 기능을 선택하고 실행시킬 수 있는 방법 및 그를 수행할 수 있는 차량을 제공하기 위한 것이다.The present invention is intended to provide a method by which a user can select and execute a desired function without departing from the front of the driver and a vehicle capable of performing the method.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기와 같은 과제를 해결하기 위해 본 발명의 일 실시예에 따른 차량의 오디오비디오네비게이션(AVN) 시스템이 스마트 안경을 이용하여 차량의 기능을 실행하는 방법은, 상기 AVN 시스템의 무선 통신부를 통해 스마트 안경과 무선으로 연결되는 단계; 상기 스마트 안경으로 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 무선 통신부를 통해 전송하는 단계; 상기 스마트 안경으로부터 상기 제 1 영상의 특정 위치를 지시하는 정보를 상기 무선 통신부를 통해 수신하는 단계; 및 상기 정보가 수신된 후 조작계를 통해 입력된 선택 신호가 전달되면, 상기 AVN 시스템의 제어부에서 상기 적어도 하나의 실행 가능한 기능 중 상기 특정 위치에 대응되는 기능을 실행하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for an audio / video navigation (AVN) system of a vehicle, the method comprising: And wirelessly; Transmitting, through the wireless communication unit, a first image including the list of at least one function executable in the AVN system to the smart glasses; Receiving information indicating a specific position of the first image from the smart glasses through the wireless communication unit; And executing a function corresponding to the specific one of the at least one executable function in the controller of the AVN system when a selection signal inputted through the operating system is received after the information is received.

또한, 본 발명의 일 실시예에 따른 차량의 오디오비디오네비게이션(AVN) 시스템은, 스마트 안경과 무선으로 연결되는 무선 통신부; 상기 차량의 핸들에 구비되되, 운전자로부터 명령을 입력받기 위한 조작계와 유선으로 연결되는 유선 통신부; 및 상기 스마트 안경으로 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상이 상기 무선 통신부를 통해 전송되도록 하고, 상기 스마트 안경으로부터 상기 제 1 영상의 특정 위치를 지시하는 정보가 수신되고, 상기 조작계를 통해 입력된 선택 신호가 전달되면, 상기 적어도 하나의 실행 가능한 기능 중 상기 특정 위치에 대응되는 기능을 실행하는 제어부를 포함할 수 있다.
또한, 본 발명의 일 실시예에 따른 스마트 안경의 제어방법은, 무선통신부를 통해 차량의 오디오비디오네비게이션(AVN) 시스템과 무선으로 연결되는 단계; 상기 무선통신부를 통해 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 AVN 시스템으로부터 수신하는 단계; 디스플레이부를 통해 상기 수신된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는 단계; 제어부에서 사용자의 눈을 촬영하도록 배치된 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하는 단계; 상기 제어부에서 상기 판단된 시선 방향을 이용하여 상기 제 1 영상 내에서 특정 위치를 획득하는 단계; 및 상기 무선통신부를 통해 상기 획득된 특정 위치에 대한 정보를 상기 AVN 시스템으로 전송하는 단계를 포함할 수 있다.
According to another aspect of the present invention, there is provided an audio-visual navigation system (AVN) of a vehicle, comprising: a wireless communication unit wirelessly connected to smart glasses; A wired communication unit provided on a handle of the vehicle, the wired communication unit being connected to an operating system for receiving a command from a driver; And a first image including a list of at least one function executable in the AVN system is transmitted through the wireless communication unit with the smart glasses, and information indicating a specific position of the first image from the smart glasses is received And a controller for executing a function corresponding to the specific position among the at least one executable function when the input signal inputted through the operating system is transmitted.
Further, a method of controlling smart glasses according to an exemplary embodiment of the present invention includes the steps of wirelessly connecting with an audio / video navigation system (AVN) of a vehicle through a wireless communication unit; Receiving from the AVN system a first image including a list of at least one function executable in the AVN system through the wireless communication unit; Displaying the received first image through a display unit in the form of a head mounted display (HMD); Determining a gaze direction of the user with a second image photographed through a camera arranged to photograph the user's eyes from the control unit; Acquiring a specific position in the first image using the determined viewing direction; And transmitting information on the obtained specific location to the AVN system through the wireless communication unit.

삭제delete

아울러, 본 발명의 일 실시예에 따른 스마트 안경은, 차량의 오디오비디오네비게이션(AVN) 시스템과 무선으로 연결되어 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 AVN 시스템으로부터 수신하는 무선 통신부; 상기 수신된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는 디스플레이부; 사용자의 눈을 촬영하도록 배치된 카메라; 및 상기 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하고, 상기 판단된 시선 방향을 이용하여 상기 영상 내에서 특정 위치를 획득하며, 상기 획득된 특정 위치에 대한 정보가 상기 AVN 시스템으로 전송되도록 제어하는 제어부를 포함할 수 있다.In addition, the smart glasses according to an embodiment of the present invention can be connected to an audio / video navigation (AVN) system of a vehicle wirelessly and transmit a first image including a list of at least one function executable in the AVN system to the AVN system A wireless communication unit receiving the wireless communication signal; A display unit for displaying the received first image in the form of a head mounted display (HMD); A camera arranged to photograph a user's eyes; And acquiring a specific position in the image by using the determined gaze direction, and acquiring information on the obtained specific position from the AVN system To be transmitted to the mobile station.

본 발명의 적어도 일 실시예에 의하면, 다음과 같은 효과가 있다.According to at least one embodiment of the present invention, there are the following effects.

스마트 안경을 이용한 AVN 화면의 전송과 시선 감지를 통한 기능 선택, 그리고 운전자의 전방에 위치한 조작계를 통한 기능 실행으로 멀티미디어 시스템의 분산된 조작계를 한곳으로 통일하고 다수의 버튼을 제거함으로써 입력 시스템을 단순화 할 수 있다.It simplifies the input system by unifying the distributed operating system of the multimedia system into one place and removing a large number of buttons by transmitting functions of the AVN screen using the smart glasses, selecting the function through the sight detection, and executing the function through the operating system located at the driver's front .

또한 시선이 전방을 주시할 수 있도록 스마트 안경을 통해서 화면이 표출되고 시선 정보를 통해서 실행 희망 기능을 선택하기 때문에 전방 주시 이탈을 피할 수 있다.In addition, since the screen is displayed through the smart glasses so that the eye can watch ahead, and the desired function is selected through the eye information, it is possible to avoid departure from the front view.

본 발명에서 얻은 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 차량에서 멀티미디어 시스템 구성의 일례를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 기기를 이용한 차량 기능의 선택 및 실행 과정의 일례를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 웨어러블 기기를 이용한 차량 기능의 선택 및 실행 과정의 일례를 나타내는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 AVN 시스템 구성의 일례를 나타내는 블럭도이다.
도 5는 본 발명의 실시예들에 적용될 수 있는 스마트 안경의 일례를 나타낸다.
1 shows an example of a multimedia system configuration in a vehicle.
2 shows an example of a process of selecting and executing a vehicle function using a wearable device according to an embodiment of the present invention.
3 is a flowchart illustrating an example of a process of selecting and executing a vehicle function using a wearable device according to an embodiment of the present invention.
4 is a block diagram showing an example of the configuration of an AVN system according to an embodiment of the present invention.
5 shows an example of smart glasses that can be applied to embodiments of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

본 발명의 일 실시예에서는, 운전자가 운전자의 눈을 향하는 카메라를 구비한 글래스 타입의 웨어러블 기기(즉, 스마트 안경)를 착용하는 경우, AVN 시스템에서 표시되는 화면을 스마트 안경으로 전송하여 스마트 안경에 표시되도록 하고, 스마트 안경에 표시된 화면을 주시하는 사용자의 시선 방향을 카메라로 판독하여 운전자가 실행하고자 하는 실행 희망 기능을 판단하도록 할 것을 제안한다. 실행 희망 기능이 판단된 상태에서, 차량 또는 스마트 안경을 통해 실행 명령이 입력되면, AVN 시스템은 이를 실행할 수 있다. 이를 위하여, 차량의 AVN 시스템은 운전자의 스마트 안경과 무선으로 연결되는 것이 바람직하다. 또한, 기능의 실행은 스마트 안경에 구비된 키버튼이나 터치 센서의 조작을 통해 수행될 수도 있고, 운전자의 시선 이탈을 최소화하기 위하여 핸들에 구비된 조작계 중 어느 한 버튼의 조작을 통해 수행되도록 할 수도 있다.In the embodiment of the present invention, when a wearer wears a glass-type wearable device (i.e., smart glasses) having a camera facing the driver's eyes, the screen displayed in the AVN system is transmitted to the smart glasses, And the user's eyesight direction watching the screen displayed on the smart glasses is read by the camera to determine the desired function to be executed by the driver. If the execution command is inputted through the vehicle or the smart glasses while the execution desired function is determined, the AVN system can execute it. For this purpose, the AVN system of the vehicle is preferably wirelessly connected to the driver's smart glasses. In addition, the function may be performed through operation of a key button or a touch sensor provided in the smart glasses, or may be performed through operation of any one of the operation systems provided in the handle have.

이하, 상술한 실시예를 도 2를 참조하여 보다 상세히 설명한다.Hereinafter, the above-described embodiment will be described in more detail with reference to FIG.

도 2는 본 발명의 일 실시예에 따른 웨어러블 기기를 이용한 차량 기능의 선택 및 실행 과정의 일례를 나타낸다.2 shows an example of a process of selecting and executing a vehicle function using a wearable device according to an embodiment of the present invention.

도 2에서는 운전자가 착용한 스마트 안경은 무선 연결 기능을 지원하는 차량의 AVN 시스템 또는 AVN 시스템과 연결된 무선 통신 시스템과 블루투스나 와이파이 등의 무선 통신 방식을 통하여 연결이 완료된 상태를 가정한다.In FIG. 2, the smart glasses worn by a driver assume a state in which a connection is completed through a wireless communication system such as Bluetooth or Wi-Fi with a wireless communication system connected to an AVN system or AVN system of a vehicle supporting a wireless connection function.

도 2의 (a)를 참조하면, 운전자가 착용한 스마트 안경(200)에는, 운전자의 눈을 향하는 방향으로 카메라가 구비되어 운전자의 시선 방향을 감지할 수 있다.Referring to FIG. 2 (a), the smart glasses 200 worn by the driver are provided with a camera in the direction toward the eyes of the driver, so that the direction of the driver's eyes can be sensed.

운전자가 운전 중, 특정 기능의 실행을 희망하는 경우 핸들에 구비된 조작계또는 스마트 안경에서 특정 키버튼을 조작할 수 있다. 그에 따라, AVN 시스템(120)은 도 2의 (b)와 같이 실행 가능한 기능들을 포함하는 자신의 화면 영상(120')을 스마트 안경에 무선 연결을 통해 전송할 수 있다. 화면 영상(120')에는 적어도 하나의 실행 가능한 기능의 목록이 표시될 수 있다. 여기서 목록은 각 기능에 대응되는 아이콘이 나열된 형태일 수도 있고, 텍스트나 이미지 또는 그 들이 조합된 형태일 수도 있다. 스마트 안경에서는 수신된 화면 영상(120')을 자신의 디스플레이를 통해 표시할 수 있다. 여기서 운전자가 스마트 안경의 디스플레이에 표시된 영상(120')에서 실행을 희망하는 실행 희망 기능의 위치에 대응되는 영역(121')을 주시하는 경우, 스마트 안경은 카메라를 통해 운전자의 시선 방향을 판단하고, 판단된 방향에 대한 정보를 AVN 시스템(120)에 전송할 수 있다.When the driver desires to execute a specific function during operation, a specific key button can be operated in the operating system or smart glasses provided on the handle. Accordingly, the AVN system 120 can transmit its own screen image 120 'including executable functions to the smart glasses through wireless connection as shown in FIG. 2 (b). The screen image 120 'may display a list of at least one executable function. Here, the list may be a form in which icons corresponding to respective functions are listed, or text, an image, or a combination thereof. In the smart glasses, the received screen image 120 'can be displayed through its own display. Here, when the driver watches the area 121 'corresponding to the position of the desired execution function in the image 120' displayed on the display of the smart glasses, the smart glasses determine the direction of the driver's gaze through the camera , And may transmit information on the determined direction to the AVN system 120. [

그에 따라 AVN 시스템은 운전자의 시선 방향에 대응되는 선택 영역에 기 설정된 형태의 시각효과(예를 들어, 하이라이트, 색상 부여, 아이콘 크기/형태 변경 등)가 표시되도록 할 수 있다. 이러한 시각효과가 부여된 AVN 시스템의 화면 영상은 다시 스마트 안경으로 전송될 수 있으며, 스마트 안경은 이를 자신의 디스플레이를 통해 표시하여 운전자에게 판단된 선택 영역을 보여줄 수 있다.Accordingly, the AVN system can display a predetermined type of visual effect (for example, highlight, coloring, icon size / shape change, etc.) in the selection area corresponding to the driver's gaze direction. The screen image of the AVN system having such a visual effect can be transmitted to the smart glasses again, and the smart glasses can display the selected area to the driver through the display thereof through the display thereof.

운전자는 실행 희망 기능이 표시되는 위치에 시각효과가 부여되면, 자신의 시선이 바르게 인식된 것을 확인하고, 도 2의 (c)와 같이 핸들에 구비된 조작계(140)의 특정 키버튼을 조작할 수 있으며, 키버튼의 조작 신호가 AVN 시스템(120)에 전달되면, AVN 시스템(120)은 해당 기능을 실행시킬 수 있다.When a visual effect is given to a position at which an execution desired function is displayed, the driver confirms that his / her line of sight is correctly recognized and operates a specific key button of the operating system 140 provided in the handle as shown in Fig. 2 (c) When the operation signal of the key button is transmitted to the AVN system 120, the AVN system 120 can execute the corresponding function.

전술한 과정을 도 3을 참조하여 순서도 형태로 설명한다.The above-described process will be described in the form of a flowchart with reference to FIG.

도 3은 본 발명의 일 실시예에 따른 웨어러블 기기를 이용한 차량 기능의 선택 및 실행 과정의 일례를 나타내는 순서도이다.3 is a flowchart illustrating an example of a process of selecting and executing a vehicle function using a wearable device according to an embodiment of the present invention.

도 3을 참조하면, 먼저 운전자의 스마트 안경과 AVN 시스템이 연결됨에 따라, AVN 시스템의 화면이 스마트 안경의 디스플레이에 전송되고, 스마트 안경에서는 수신된 화면이 디스플레이를 통해 표시된다(S310).Referring to FIG. 3, as the smart glasses of the driver are connected to the AVN system, the screen of the AVN system is transmitted to the display of the smart glasses, and the received screen is displayed through the display (S310).

운전자는 스마트 안경에 출력된 화면에서 실행 희망 기능이 표시되는 위치를 바라보게 되고(S320), 스마트 안경에서는 운전자의 눈을 향하는 카메라에서 촬영된 영상을 통해 운전자의 동공 위치 정보를 획득한다(S330). 스마트 안경은 획득된 동공 위치를 기반으로 운전자의 시선(방향) 정보를 파악할 수 있고(S340), 수십된 시선 정보를 통해 스마트 안경의 디스플레이에 상에서 운전자의 시선이 가리키는 위치를 판단할 수 있다(S350). 판단된 위치는 AVN 시스템으로 전송되며, 이를 이용하여 AVN 시스템과 스마트 안경의 디스플레이 각각에서는 판단된 위치에 대응되는 선택 영역에 소정의 시각효과가 표시될 수 있다(S360).The driver looks at the position where the desired function is displayed on the screen displayed on the smart glasses (S320), and acquires the pupil position information of the driver through the image photographed by the camera facing the driver's eyes (S330) . The smart glasses can grasp information on the driver's gaze (direction) based on the acquired pupil position (S340), and can determine the position indicated by the driver's gaze on the display of smart glasses through dozens of gaze information (S350 ). The determined position is transmitted to the AVN system, and a predetermined visual effect may be displayed in the selected area corresponding to the determined position in the AVN system and the display of the smart glasses, in operation S360.

이후 사용자는 시각효과를 통해 선택 영역을 확인하고(S370), 스마트 안경 또는 차량의 조작계를 통해 선택 영역의 아이콘 등을 선택하는 방법으로 해당 기능에 대한 실행 명령을 입력한다(S380).Then, the user confirms the selected area through the visual effect (S370), and inputs an execution command for the corresponding function by selecting icons of the selected area through the smart glasses or the operating system of the vehicle (S380).

그에 따라 AVN 시스템에서는 선택된 아이콘에 대응되는 기능이 실행될 수 있다(S390).Accordingly, the function corresponding to the selected icon can be executed in the AVN system (S390).

이하에서는, 상술한 실시예들을 구현하기 위한 장치 구성을 설명한다.Hereinafter, an apparatus configuration for implementing the above-described embodiments will be described.

상술한 기능을 수행하기 위한 AVN 시스템의 구성의 일례가 도 4에 도시된다.An example of the configuration of the AVN system for performing the above functions is shown in Fig.

도 4는 본 발명의 일 실시예에 따른 AVN 시스템 구성의 일례를 나타내는 블럭도이다.4 is a block diagram showing an example of the configuration of an AVN system according to an embodiment of the present invention.

도 4를 참조하면, 차량의 AVN 시스템은 스마트 안경과 연결되어 블루투스나 와이파이 등의 무선 통신 방식으로 각종 제어 신호와 AVN 화면 영상을 교환하기 위한 무선통신부(410), 핸들의 조작 계통 등 차량의 다른 제어기와 신호를 교환하기 위한 유선 통신부(420), 각종 기능의 목록이나 실행 화면을 표시하는 디스플레이부(430), 터치 패드나 키버튼 등 운전자로부터 명령을 입력받기 위한 명령 입력부(440) 및 전술한 구성요소들을 제어하고 본 실시예의 수행에 요구되는 판단을 수행하며, 각종 기능(네비게이션, 멀티미디어 재생 등)의 실행에 요구되는 연산을 수행하는 제어부(450)를 포함할 수 있다. 예를 들어, 제어부(450)는 디스플레이에 표시되는 화면이 무선통신부를 통해 스마트 안경에 전송되도록 제어하거나, 스마트 안경에서 수신된 사용자의 시선 방향 정보에 대응되는 위치에 소정의 시각효과가 부여되도록 디스플레이부(430)를 제어하거나, 명령 입력부(440)의 신호에 따라 운전자가 실행을 희망하는 기능으로 판단된 기능을 실행시킬 수도 있다.Referring to FIG. 4, the AVN system of the vehicle includes a wireless communication unit 410 for exchanging various control signals and AVN screen images by a wireless communication method such as Bluetooth or WiFi in connection with smart glasses, A wired communication unit 420 for exchanging signals with the controller, a display unit 430 for displaying a list of various functions or execution screens, a command input unit 440 for receiving commands from a driver such as a touch pad or a key button, A controller 450 for controlling the components, performing a judgment required for performing the embodiment, and performing an operation required for executing various functions (navigation, multimedia reproduction, etc.). For example, the control unit 450 may control the display of the screen to be transmitted to the smart glasses through the wireless communication unit, or may display the displayed images on the display unit such that a predetermined visual effect is provided at a position corresponding to the gaze direction information of the user, The control unit 430 may control the function or the function determined to be the function desired by the driver according to the signal of the command input unit 440. [

물론, 도 4의 구성은 예시적인 것으로 필요에 따라 더 많거나 더 적은 구성요소를 포함할 수 있음은 당업자에 자명하다. 예를 들어, 무선통신부는 AVN 시스템 외부에 존재하는 제어기에 구비될 수도 있으며, 멀티미디어나 내비게이션 안내 음성을 출력하기 위한 음향 출력부가 더 구비될 수도 있다.Of course, it will be apparent to those skilled in the art that the configuration of FIG. 4 is illustrative and can include more or fewer components as needed. For example, the wireless communication unit may be provided in a controller existing outside the AVN system, and may further include an audio output unit for outputting multimedia or navigation announcement audio.

다음으로, 도 5를 참조하여 스마트 안경의 구성을 설명한다.Next, the configuration of the smart glasses will be described with reference to Fig.

도 5는 본 발명의 실시예들에 적용될 수 있는 스마트 안경의 일례를 나타낸다.5 shows an example of smart glasses that can be applied to embodiments of the present invention.

스마트 안경(200)은 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(201)과 제2 프레임(202)을 포함하는 것을 예시하고 있다.The smart glasses 200 are configured to be worn on the head of a human body, and a frame part (case, housing, etc.) for the smart glasses 200 may be provided. The frame portion may be formed of a flexible material to facilitate wearing. In this figure, it is illustrated that the frame portion includes a first frame 201 and a second frame 202 of different materials.

프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(280), 음향 출력 모듈(252) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈(203)가 착탈 가능하게 장착될 수 있다.The frame portion is supported on the head portion, and a space for mounting various components is provided. As shown in the figure, electronic parts such as the control module 280, the sound output module 252, and the like may be mounted on the frame part. In addition, a lens 203 covering at least one of the left and right eyes may be detachably mounted on the frame portion.

제어 모듈(280)은 스마트 안경(200)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 예를 들어, 제어 모듈(280)은 스마트 안경의 무선통신부(미도시)를 통해 차량의 AVN 시스템과 무선 데이터 경로가 설립되도록 하고, 설립된 데이터 경로로 차량의 AVN 영상이 수신되도록 할 수 있다. 또한, 제어 모듈(280)은 디스플레이(251)에 수신된 AVN 영상이 표시되도록 할 수 있으며, 사용자의 눈을 향하도록 배치된 카메라를 통해 촬영된 영상으로 사용자의 시선 방향을 판단할 수 있다. 아울러, 제어 모듈(280)은 디스플레이된 영상에서 판단된 시선 방향에 대응되는 위치에 소정의 시각효과가 표시되도록 할 수 있으며, 시각효과가 표시되는 중 특정 명령 입력부(223)가 조작되면, 해당 위치에 대응되는 기능을 실행할 것을 요청하는 신호가 AVN 모듈로 전송되도록 무선통신 모듈을 제어할 수 있다.The control module 280 is configured to control various electronic components included in the smart glasses 200. For example, the control module 280 may establish a wireless data path with the AVN system of the vehicle through a wireless communication unit (not shown) of the smart glasses and allow the AVN image of the vehicle to be received through the established data path. In addition, the control module 280 can display the received AVN image on the display 251, and can determine the direction of the user's gaze to the image photographed through the camera disposed facing the user's eyes. In addition, the control module 280 may display a predetermined visual effect at a position corresponding to the visual line direction determined in the displayed image. When the specific command inputting section 223 is displayed while the visual effect is being displayed, A signal requesting execution of a function corresponding to the AVN module is transmitted to the AVN module.

본 도면에서는, 제어 모듈(280)이 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(280)의 위치는 이에 한정되지 않는다.In this figure, the control module 280 is provided on the frame portion on one side of the head. However, the position of the control module 280 is not limited thereto.

디스플레이부(251)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 스마트 안경(200)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(251)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(251)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다.The display unit 251 may be implemented as a head mounted display (HMD). The HMD type refers to a display method that is mounted on a head and displays an image directly in front of the user's eyes. When the user wears the smart glasses 200, the display unit 251 may be disposed to correspond to at least one of the left eye and the right eye so that the user can directly provide an image in front of the user's eyes. In this figure, the display unit 251 is located at a portion corresponding to the right eye so that an image can be output toward the user's right eye.

디스플레이부(251)는 프리즘을 이용하여 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.The display unit 251 can project an image with the user's eyes using a prism. Further, the prism may be formed to be transmissive so that the user can view the projected image and the general view of the front (the range that the user views through the eyes) together.

이처럼, 디스플레이부(251)를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 스마트 안경(200)은 이러한 디스플레이의 특성을 이용하여 운전시 전방 주시를 방해하지 않으면서도 운전자의 기능 선택을 도울 수 있다.As described above, the image output through the display unit 251 can be overlapped with the general view. The smart glasses 200 can utilize the characteristics of such a display to assist the driver in selecting functions without disturbing the forward gaze during operation.

카메라(221)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(221)가 눈에 인접하여 위치하므로, 카메라(221)는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.The camera 221 is disposed adjacent to at least one of the left eye and the right eye, and is configured to photograph a forward image. Since the camera 221 is located adjacent to the eye, the camera 221 can acquire a scene viewed by the user as an image.

본 도면에서는, 카메라(221)가 제어 모듈(280)에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(221)는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다. 또한, 전면을 향하는 카메라(221)의 반대 방향으로, 사용자의 눈을 향하는 카메라(미도시)가 추가로 배치될 수 있다. 사용자의 눈을 향하는 카메라는 사용자의 동공 추적을 통해 시선 방향을 판단하기 위한 영상을 획득한다.Although the camera 221 is provided in the control module 280 in this figure, it is not limited thereto. The camera 221 may be installed in the frame part, or may be provided in a plurality of ways to acquire a stereoscopic image. In addition, a camera (not shown) facing the user's eyes may be additionally arranged in a direction opposite to the camera 221 facing the front. The camera facing the user's eyes acquires an image for determining the gaze direction through pupil tracking of the user.

스마트 안경(200)는 제어명령을 입력 받기 위하여 조작되는 명령 입력부(223a, 223b)를 구비할 수 있다. 명령 입력부(223a, 223b)는 터치, 푸시 등의 방식으로 조작될 수 있다.The smart glasses 200 may include command input units 223a and 223b operated to receive a control command. The command input units 223a and 223b can be operated by a touch, a push, or the like.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The present invention described above can be implemented as computer readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Claims (18)

차량의 오디오비디오네비게이션(AVN) 시스템이 스마트 안경을 이용하여 차량의 기능을 실행하는 방법에 있어서,
상기 AVN 시스템의 무선 통신부를 통해 스마트 안경과 무선으로 연결되는 단계;
상기 스마트 안경으로 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 무선 통신부를 통해 전송하는 단계;
상기 스마트 안경으로부터 상기 제 1 영상의 특정 위치를 지시하는 정보를 상기 무선 통신부를 통해 수신하는 단계; 및
상기 정보가 수신된 후 조작계를 통해 입력된 선택 신호가 전달되면, 상기 AVN 시스템의 제어부에서 상기 적어도 하나의 실행 가능한 기능 중 상기 특정 위치에 대응되는 기능을 실행하는 단계를 포함하는, 스마트 안경을 이용한 차량 기능 실행 방법.
A method for an audio video navigation (AVN) system of a vehicle to perform functions of a vehicle using smart glasses,
Connecting wirelessly with smart glasses through a wireless communication unit of the AVN system;
Transmitting, through the wireless communication unit, a first image including the list of at least one function executable in the AVN system to the smart glasses;
Receiving information indicating a specific position of the first image from the smart glasses through the wireless communication unit; And
And executing a function corresponding to the specific one of the at least one executable function in the control unit of the AVN system when a selection signal input through the manipulation system is received after the information is received, How to implement the vehicle function.
제 1항에 있어서,
상기 제 1 영상은 오디오비디오네비게이션(AVN) 시스템의 디스플레이를 통해 표시되는 영상인, 스마트 안경을 이용한 차량 기능 실행 방법.
The method according to claim 1,
Wherein the first image is a video displayed through a display of an audio-video navigation (AVN) system.
제 2항에 있어서,
상기 정보가 수신된 후, 상기 제 1 영상의 특정 위치에 기 설정된 시각효과가 표시되는 단계를 더 포함하는, 스마트 안경을 이용한 차량 기능 실행 방법.
3. The method of claim 2,
Further comprising displaying a predetermined visual effect at a specific location of the first image after the information is received.
제 1항에 있어서,
상기 스마트 안경은,
상기 전송된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는, 스마트 안경을 이용한 차량 기능 실행 방법.
The method according to claim 1,
In the smart glasses,
And displaying the transmitted first image in the form of a head mounted display (HMD).
제 4항에 있어서,
상기 스마트 안경은,
사용자의 눈을 촬영하는 카메라를 구비하고,
상기 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하여 상기 특정 위치를 획득하는, 스마트 안경을 이용한 차량 기능 실행 방법.
5. The method of claim 4,
In the smart glasses,
And a camera for photographing the user's eyes,
And determining a gaze direction of the user with a second image photographed through the camera to acquire the specific position.
차량의 오디오비디오네비게이션(AVN) 시스템에 있어서,
스마트 안경과 무선으로 연결되는 무선 통신부;
상기 차량의 핸들에 구비되되, 운전자로부터 명령을 입력받기 위한 조작계와 유선으로 연결되는 유선 통신부; 및
상기 스마트 안경으로 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상이 상기 무선 통신부를 통해 전송되도록 하고, 상기 스마트 안경으로부터 상기 제 1 영상의 특정 위치를 지시하는 정보가 수신되고, 상기 조작계를 통해 입력된 선택 신호가 전달되면, 상기 적어도 하나의 실행 가능한 기능 중 상기 특정 위치에 대응되는 기능을 실행하는 제어부를 포함하는, 차량의 오디오비디오네비게이션(AVN) 시스템.
An audio-video navigation (AVN) system for a vehicle,
A wireless communication unit wirelessly connected to the smart glasses;
A wired communication unit provided on a handle of the vehicle, the wired communication unit being connected to an operating system for receiving a command from a driver; And
A first image including a list of at least one function executable in the AVN system is transmitted through the wireless communication unit with the smart glasses and information indicating a specific position of the first image is received from the smart glasses And a control unit for executing a function corresponding to the specific position among the at least one executable function when a selection signal inputted through the operating system is transmitted.
제 6항에 있어서,
상기 제 1 영상을 표시하는 디스플레이를 더 포함하는, 차량의 오디오비디오네비게이션(AVN) 시스템.
The method according to claim 6,
Further comprising a display for displaying the first image. ≪ Desc / Clms Page number 19 >
제 7항에 있어서,
상기 제어부는,
상기 정보가 수신된 후, 상기 제 1 영상의 특정 위치에 기 설정된 시각효과가 부가되도록 제어하는, 차량의 오디오비디오네비게이션(AVN) 시스템.
8. The method of claim 7,
Wherein,
And controls the predetermined visual effect to be added to a specific position of the first image after the information is received.
제 6항에 있어서,
상기 스마트 안경은,
상기 전송된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는, 차량의 오디오비디오네비게이션(AVN) 시스템.
The method according to claim 6,
In the smart glasses,
And displays the transmitted first image in the form of a head mounted display (HMD).
제 9항에 있어서,
상기 스마트 안경은,
사용자의 눈을 촬영하는 카메라를 구비하고,
상기 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하여 상기 특정 위치를 획득하는, 차량의 오디오비디오네비게이션(AVN) 시스템.
10. The method of claim 9,
In the smart glasses,
And a camera for photographing the user's eyes,
(AVN) system of a vehicle, wherein the AVN system acquires the specific position by determining a direction of the user's gaze to a second image photographed through the camera.
스마트 안경의 제어방법에 있어서,
무선통신부를 통해 차량의 오디오비디오네비게이션(AVN) 시스템과 무선으로 연결되는 단계;
상기 무선통신부를 통해 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 AVN 시스템으로부터 수신하는 단계;
디스플레이부를 통해 상기 수신된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는 단계;
제어부에서 사용자의 눈을 촬영하도록 배치된 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하는 단계;
상기 제어부에서 상기 판단된 시선 방향을 이용하여 상기 제 1 영상 내에서 특정 위치를 획득하는 단계; 및
상기 무선통신부를 통해 상기 획득된 특정 위치에 대한 정보를 상기 AVN 시스템으로 전송하는 단계를 포함하는, 스마트 안경의 제어방법.
A method of controlling smart glasses,
Wirelessly connecting to an audio-video navigation (AVN) system of the vehicle through a wireless communication unit;
Receiving from the AVN system a first image including a list of at least one function executable in the AVN system through the wireless communication unit;
Displaying the received first image through a display unit in the form of a head mounted display (HMD);
Determining a gaze direction of the user with a second image photographed through a camera arranged to photograph the user's eyes from the control unit;
Acquiring a specific position in the first image using the determined viewing direction; And
And transmitting information on the obtained specific location to the AVN system through the wireless communication unit.
제 11항에 있어서,
상기 표시되는 수신된 영상에서, 상기 획득된 특정 위치에 기 설정된 시각효과를 표시하는 단계를 더 포함하는, 스마트 안경의 제어방법.
12. The method of claim 11,
Further comprising the step of displaying, in the displayed received image, a predetermined visual effect at the obtained specific position.
제 12항에 있어서,
상기 기 설정된 시각효과가 표시될 때 명령 입력부가 조작되면, 상기 특정 위치에 대응되는 기능을 실행할 것을 요청하는 신호를 상기 AVN 시스템으로 전송하는 단계를 더 포함하는, 스마트 안경의 제어방법.
13. The method of claim 12,
Further comprising transmitting to the AVN system a signal requesting execution of a function corresponding to the specific position when the command input unit is operated when the preset visual effect is displayed.
제 11항에 있어서,
상기 수신된 영상은,
상기 AVN 시스템을 통해 디스플레이되는 영상인, 스마트 안경의 제어방법.
12. The method of claim 11,
The received image may be,
And displaying the image on the AVN system.
차량의 오디오비디오네비게이션(AVN) 시스템과 무선으로 연결되어 상기 AVN 시스템에서 실행 가능한 적어도 하나의 기능의 목록을 포함하는 제 1 영상을 상기 AVN 시스템으로부터 수신하는 무선 통신부;
상기 수신된 제 1 영상을 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 표시하는 디스플레이부;
사용자의 눈을 촬영하도록 배치된 카메라; 및
상기 카메라를 통해 촬영된 제 2 영상으로 상기 사용자의 시선 방향을 판단하고, 상기 판단된 시선 방향을 이용하여 상기 영상 내에서 특정 위치를 획득하며, 상기 획득된 특정 위치에 대한 정보가 상기 AVN 시스템으로 전송되도록 제어하는 제어부를 포함하는, 스마트 안경.
A wireless communication unit wirelessly connected to an audio / video navigation (AVN) system of a vehicle and receiving a first image from the AVN system, the first image including a list of at least one function executable in the AVN system;
A display unit for displaying the received first image in the form of a head mounted display (HMD);
A camera arranged to photograph a user's eyes; And
A second image obtained through the camera, determines a direction of the user's gaze, acquires a specific position in the image using the determined gaze direction, and transmits the information on the obtained specific position to the AVN system And a control unit for controlling the light source to be transmitted.
제 15항에 있어서,
상기 제어부는,
상기 표시되는 수신된 영상에서, 상기 획득된 특정 위치에 기 설정된 시각효과가 표시되도록 제어하는, 스마트 안경.
16. The method of claim 15,
Wherein,
And controls to display a predetermined visual effect at the acquired specific position in the displayed received image.
제 16항에 있어서,
사용자로부터 명령을 입력받기 위한 명령 입력부를 더 포함하되,
상기 제어부는,
상기 기 설정된 시각효과가 표시될 때 상기 명령 입력부가 조작되면, 상기 특정 위치에 대응되는 기능을 실행할 것을 요청하는 신호가 상기 AVN 시스템으로 전송되도록 제어하는, 스마트 안경.
17. The method of claim 16,
And a command input unit for receiving a command from a user,
Wherein,
And controls to transmit a signal requesting execution of a function corresponding to the specific position to the AVN system when the command input unit is operated when the preset visual effect is displayed.
제 15항에 있어서,
상기 수신된 영상은,
상기 AVN 시스템을 통해 디스플레이되는 영상인, 스마트 안경.
16. The method of claim 15,
The received image may be,
The smart glasses are images displayed through the AVN system.
KR1020140162337A 2014-11-20 2014-11-20 Method for executing vehicle function using wearable device and vehicle for carrying out the same KR101603551B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140162337A KR101603551B1 (en) 2014-11-20 2014-11-20 Method for executing vehicle function using wearable device and vehicle for carrying out the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140162337A KR101603551B1 (en) 2014-11-20 2014-11-20 Method for executing vehicle function using wearable device and vehicle for carrying out the same

Publications (1)

Publication Number Publication Date
KR101603551B1 true KR101603551B1 (en) 2016-03-15

Family

ID=55542329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140162337A KR101603551B1 (en) 2014-11-20 2014-11-20 Method for executing vehicle function using wearable device and vehicle for carrying out the same

Country Status (1)

Country Link
KR (1) KR101603551B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105691304A (en) * 2016-04-11 2016-06-22 青岛理工大学 Automotive display system based on wearable display equipment
CN113147596A (en) * 2021-04-13 2021-07-23 一汽奔腾轿车有限公司 AR technology-based head-mounted vehicle-mounted information display system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036069A (en) * 2001-07-25 2003-02-07 Sharp Corp Head mount display apparatus
KR20060026273A (en) * 2004-09-20 2006-03-23 삼성전자주식회사 Apparatus and method for inputting key of hmd information terminal
KR20140128489A (en) * 2013-04-25 2014-11-06 (주)세이엔 Smart glass using image recognition and touch interface and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036069A (en) * 2001-07-25 2003-02-07 Sharp Corp Head mount display apparatus
KR20060026273A (en) * 2004-09-20 2006-03-23 삼성전자주식회사 Apparatus and method for inputting key of hmd information terminal
KR20140128489A (en) * 2013-04-25 2014-11-06 (주)세이엔 Smart glass using image recognition and touch interface and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105691304A (en) * 2016-04-11 2016-06-22 青岛理工大学 Automotive display system based on wearable display equipment
CN113147596A (en) * 2021-04-13 2021-07-23 一汽奔腾轿车有限公司 AR technology-based head-mounted vehicle-mounted information display system and method

Similar Documents

Publication Publication Date Title
CN105700676B (en) Wearable glasses, control method thereof, and vehicle control system
KR102182161B1 (en) Head mounted display and method for controlling the same
KR101867915B1 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
TWI610097B (en) Electronic system, portable display device and guiding device
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
KR101596751B1 (en) Method and apparatus for displaying blind spot customized by driver
JP6252849B2 (en) Imaging apparatus and method
WO2016017062A1 (en) Information processing for motion sickness prevention in an image display system
CN111630477A (en) Apparatus for providing augmented reality service and method of operating the same
US9582073B2 (en) Image processing device and image processing method, display device and display method, computer program, and image display system
US20180143433A1 (en) Head mounted display, control method thereof, and computer program
JP2013093768A (en) Head-mounted display and display control method
US9846305B2 (en) Head mounted display, method for controlling head mounted display, and computer program
KR20150034558A (en) A head mounted display and the method of controlling the same
JP2018006914A (en) External imaging system, external imaging method, external imaging program
EP3086216A1 (en) Mobile terminal and controlling method thereof
KR20170013737A (en) Head mount display apparatus and method for operating the same
JP2018137505A (en) Display device and control method thereof
JP2010107685A (en) Three-dimensional display apparatus, method, and program
KR101603551B1 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
JP2017182228A (en) Input device, input method, and computer program
JP2015228543A (en) Electronic apparatus and display processing method
CN111722401A (en) Display device, display control method, and display system
KR20170084443A (en) Method for controlling head mount display device
WO2021220407A1 (en) Head-mounted display device and display control method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190227

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200227

Year of fee payment: 5