KR101597531B1 - Control apparatus for vechicle and vehicle - Google Patents

Control apparatus for vechicle and vehicle Download PDF

Info

Publication number
KR101597531B1
KR101597531B1 KR1020150173146A KR20150173146A KR101597531B1 KR 101597531 B1 KR101597531 B1 KR 101597531B1 KR 1020150173146 A KR1020150173146 A KR 1020150173146A KR 20150173146 A KR20150173146 A KR 20150173146A KR 101597531 B1 KR101597531 B1 KR 101597531B1
Authority
KR
South Korea
Prior art keywords
user
unit
operation unit
display
hand
Prior art date
Application number
KR1020150173146A
Other languages
Korean (ko)
Other versions
KR20150146474A (en
Inventor
이승환
이기혁
한재현
김선준
Original Assignee
현대자동차주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 한국과학기술원 filed Critical 현대자동차주식회사
Priority to KR1020150173146A priority Critical patent/KR101597531B1/en
Publication of KR20150146474A publication Critical patent/KR20150146474A/en
Application granted granted Critical
Publication of KR101597531B1 publication Critical patent/KR101597531B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R7/00Stowing or holding appliances inside vehicle primarily intended for personal property smaller than suit-cases, e.g. travelling articles, or maps
    • B60R7/04Stowing or holding appliances inside vehicle primarily intended for personal property smaller than suit-cases, e.g. travelling articles, or maps in driver or passenger space, e.g. using racks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • B60W2050/0066Manual parameter input, manual setting means, manual initialising or calibrating means using buttons or a keyboard connected to the on-board processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • B60W2550/402

Abstract

개시된 발명의 일 측면은, 사용자가 편리하게 조작할 수 있는 조작부를 구비한 차량용 제어 장치 및 이를 포함하는 차량을 제공한다.
일 실시예에 따른 차량용 제어 장치는 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 탄력성을 갖는 패드를 포함하는 조작부; 및 상기 조작부의 출력 신호에 기초하여 차량을 제어하기 위한 제어 신호를 생성하는 제어부를 포함한다.
One aspect of the disclosed invention provides a vehicle control apparatus having an operation section that can be operated by a user conveniently, and a vehicle including the same.
The vehicle controller according to an embodiment includes an operation unit including an object sensing unit for sensing an object in a non-contact manner and a pad disposed on the object sensing unit and having elasticity; And a control unit for generating a control signal for controlling the vehicle based on the output signal of the operating unit.

Description

차량용 제어 장치 및 차량{CONTROL APPARATUS FOR VECHICLE AND VEHICLE}[0001] CONTROL APPARATUS FOR VECHICLE AND VEHICLE [0002]

개시된 발명은 사용자의 명령을 입력 받을 수 있는 차량용 제어 장치 및 차량에 관한 것이다.The disclosed invention relates to a vehicle control device and a vehicle capable of receiving a command of a user.

차량은 기본적인 주행 기능 외에도 오디오 기능, 비디오 기능, 내비게이션 기능, 공조 제어, 시트 제어, 조명 제어 등의 사용자 편의를 위한 부가적인 기능을 더 수행할 수 있다.In addition to basic driving functions, the vehicle can perform additional functions for user convenience such as audio function, video function, navigation function, air conditioning control, seat control, lighting control, and the like.

이러한 기능을 수행하기 위해 차량에는 메뉴 화면 또는 제어 화면을 표시하는 디스플레이가 구비되고, 하드 키(hard key) 방식, 터치 스크린 방식 또는 제스처 인식 방식에 따라 사용자로부터 원하는 메뉴의 선택을 입력 받거나 선택된 메뉴에 대한 제어 명령을 입력 받는다.In order to perform such a function, the vehicle is provided with a menu display screen or a display for displaying a control screen, and receives a selection of a desired menu from a user according to a hard key method, a touch screen method or a gesture recognition method, And receives a control command.

그러나, 하드 키 방식을 이용할 경우에는 다수의 하드 키를 구비하기 위해 물리적으로 넓은 공간이 소모되거나, 소수의 하드 키로 제어 명령을 입력받기 위해 사용자의 조작 부하가 늘어나는 문제가 있다. However, in the case of using the hard key method, there is a problem that a large amount of physical space is consumed in order to have a plurality of hard keys, or a user's operation load is increased in order to receive a control command with a small number of hard keys.

또한, 터치 스크린 방식은 운전자가 제어 명령을 입력하기 위해 대시 보드에 마련된 디스플레이를 일일이 터치해야 하기 때문에 안전 운전에 영향을 미칠 수 있고, 제스처 인식 방식은 오동작의 위험이 있다.In addition, since the touch screen method requires the driver to touch the display provided on the dashboard one by one in order to input a control command, it may affect safe driving, and the gesture recognition method may malfunction.

개시된 발명의 일 측면은, 사용자가 편리하게 조작할 수 있는 조작부를 구비한 차량용 제어 장치 및 이를 포함하는 차량을 제공한다.One aspect of the disclosed invention provides a vehicle control apparatus having an operation section that can be operated by a user conveniently, and a vehicle including the same.

일 실시예에 따른 차량용 제어 장치는 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 탄력성을 갖는 패드를 포함하는 조작부; 및 상기 조작부의 출력 신호에 기초하여 차량을 제어하기 위한 제어 신호를 생성하는 제어부를 포함한다.The vehicle controller according to an embodiment includes an operation unit including an object sensing unit for sensing an object in a non-contact manner and a pad disposed on the object sensing unit and having elasticity; And a control unit for generating a control signal for controlling the vehicle based on the output signal of the operating unit.

상기 패드는, 겔 상태의 탄성체로 이루어질 수 있다.The pad may be made of a gel-like elastic body.

상기 물체 감지부는, 정전 용량형 근접 센서, 초음파 근접 센서 및 광전형 근접 센서 중 적어도 하나를 포함할 수 있다.The object sensing unit may include at least one of a capacitive proximity sensor, an ultrasonic proximity sensor, and a photoelectric proximity sensor.

상기 물체 감지부는, 2차원으로 배열된 복수의 센서를 포함할 수 있다.The object detecting unit may include a plurality of sensors arranged in two dimensions.

상기 제어부는, 상기 물체 감지부의 출력 신호에 기초하여 상기 조작부 상에서의 물체의 위치 또는 높이를 연산할 수 있다.The control unit may calculate a position or height of an object on the operation unit based on an output signal of the object detection unit.

상기 조작부는, 상기 물체 감지부의 하부에 배치되어 압력을 감지하는 압력 감지부를 더 포함할 수 있다The operation unit may further include a pressure sensing unit disposed under the object sensing unit to sense pressure

일 실시예에 따른 차량은 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 탄력성을 갖는 패드를 포함하는 조작부; According to an embodiment of the present invention, a vehicle includes an operation unit including an object sensing unit for sensing an object in a non-contact manner, and a pad disposed above the object sensing unit and having elasticity;

디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및 상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함한다. An AVN (Audio Video Navigation) device including a display; And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit.

상기 패드는, 겔 상태의 탄성체로 이루어질 수 있다.The pad may be made of a gel-like elastic body.

상기 물체 감지부는, 정전 용량형 근접 센서, 초음파 근접 센서 및 광전형 근접 센서 중 적어도 하나를 포함할 수 있다.The object sensing unit may include at least one of a capacitive proximity sensor, an ultrasonic proximity sensor, and a photoelectric proximity sensor.

상기 물체 감지부는, 2차원으로 배열된 복수의 센서를 포함할 수 있다.The object detecting unit may include a plurality of sensors arranged in two dimensions.

상기 제어부는, 상기 물체 감지부의 출력 신호에 기초하여 상기 조작부 상에서의 물체의 위치 또는 높이를 연산할 수 있다.The control unit may calculate a position or height of an object on the operation unit based on an output signal of the object detection unit.

상기 조작부는, 상기 물체 감지부의 하부에 배치되어 압력을 감지하는 압력 감지부를 더 포함할 수 있다.The operation unit may further include a pressure sensing unit disposed under the object sensing unit to sense pressure.

상기 디스플레이는, 상기 조작부 상에서의 물체의 위치에 대응되는 위치에 포인팅 객체를 표시할 수 있다.The display may display the pointing object at a position corresponding to the position of the object on the operation unit.

상기 디스플레이는, 상기 조작부 상에서의 물체의 높이에 따라 상기 포인팅 객체의 시각적 특성을 다르게 표시할 수 있다.The display may display the visual characteristics of the pointing object differently according to the height of the object on the operation unit.

상기 디스플레이는, 적어도 하나의 메뉴 버튼을 표시하고, 상기 제어부는, 상기 조작부가 가압되면, 상기 복수의 메뉴 버튼 중 상기 포인팅 객체가 위치하는 메뉴 버튼을 선택하기 위한 제어신호를 생성할 수 있다. The display may display at least one menu button and the control unit may generate a control signal for selecting a menu button where the pointing object is located among the plurality of menu buttons when the operation unit is pressed.

상기 제어부는, 상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득할 수 있다.The control unit may obtain a user image including a user's hand from an output signal of the object sensing unit.

상기 제어부는, 상기 사용자 영상에 기초하여 상기 조작부의 일부 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단할 수 있다.The control unit may determine whether a portion of the operation unit is covered by the user's hand based on the user image.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지면, 상기 미리 설정된 영역에 대해 맵핑된 메뉴 목록을 표시할 수 있다.The display may display a menu list mapped to the predetermined area when a predetermined area of the operation unit is covered by the user's hand.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 기준 시간 이상 가려지면, 상기 미리 설정된 영역에 대해 맵핑된 메뉴 목록을 표시할 수 있다.The display may display a menu list mapped to the preset area if a preset area of the operation unit is covered by the user's hand for a reference time or longer.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려진 시간과 상기 기준 시간의 비율을 나타내는 기준 바(bar)를 표시할 수 있다.The display may display a reference bar indicating a ratio of a time that a predetermined area of the operation unit is hidden by the user's hand to the reference time.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 상기 미리 설정된 영역에 대해 맵핑된 메뉴 목록을 표시할 수 있다.The display may display a menu list mapped to the predetermined area when a predetermined area of the operation unit is pressed by the user's hand.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지면, 오프(off)될 수 있다.The display may be turned off when a predetermined area of the operation unit is covered by the user's hand.

상기 디스플레이는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 오프될 수 있다.The display may be turned off when a predetermined area of the operation unit is pressed by the user's hand.

상기 AVN 장치는, 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 오프될 수 있다.The AVN apparatus can be turned off when a predetermined area of the operation unit is pressed by the user's hand.

상기 디스플레이는, 내비게이션 기능을 수행하기 위한 지도 데이터를 표시할 수 있다.The display may display map data for performing a navigation function.

상기 제어부는, 상기 사용자 영상에 기초하여 상기 패드에 접촉한 손가락의 각도를 연산할 수 있다.The control unit may calculate an angle of a finger that contacts the pad based on the user image.

상기 디스플레이는, 내비게이션 기능을 수행하기 위한 지도 데이터를 표시할 수 있다.The display may display map data for performing a navigation function.

상기 디스플레이는, 상기 연산된 손가락의 각도에 따라 상기 지도 데이터의 뷰(view)각도를 다르게 표시할 수 있다.The display may display the view angle of the map data differently according to the calculated angle of the calculated finger.

상기 디스플레이는, 상기 연산된 손가락의 각도가 기준 각도 이상이면 상기 지도 데이터를 수직 뷰에 따라 표시할 수 있다.The display may display the map data according to a vertical view if the calculated angle of the calculated finger is equal to or greater than a reference angle.

상기 디스플레이는, 상기 연산된 손가락의 각도가 기준 각도 이하이면 상기 연산된 손가락의 각도에 대응되는 버드 뷰(bird view)에 따라 상기 지도 데이터를 표시할 수 있다.The display may display the map data according to a bird view corresponding to the calculated angle of the calculated finger if the calculated angle of the calculated finger is less than a reference angle.

상기 조작부는, 운전석과 보조석 사이에 마련된 암레스트의 단부에 연결될 수 있다.The operating portion may be connected to an end portion of an armrest provided between a driver's seat and an assistant's seat.

개시된 발명의 일 측면에 따른 차량용 제어 장치 및 이를 포함하는 차량에 의하면, 사용자가 운전 중에도 조작부를 용이하게 조작하여 차량에 구비된 각종 편의 장치에 대한 제어 명령을 입력할 수 있다.According to the vehicle control apparatus and the vehicle including the same, the user can easily operate the operation unit during operation to input control commands to various convenience devices provided in the vehicle.

도 1은 일 실시예에 따른 차량용 제어 장치의 제어 블록도이다.
도 2는 압력 감지부를 더 포함하는 차량용 제어 장치의 제어 블록도이다.
도 3은 조작부의 일 예시에 따른 구조를 나타낸 측면도이다.
도 4는 일 예시에 따른 조작부를 위에서 바라본 평면도이다.
도 5는 물체 감지부를 구성하는 LED 매트릭스의 회로도이다.
도 6은 물체 감지부를 구성하는 포토 트랜지스터 어레이의 회로도이다.
도 7은 일 실시예에 따른 차량의 외관도이다.
도 8은 일 실시예에 따른 차량의 제어 블록도이다.
도 9는 차량에 장착된 차량용 제어 장치를 뒷좌석에서 바라본 외관도이다.
도 10은 차량에 장착된 차량용 제어 장치를 조수석에서 바라본 외관도이다.
도 11은 사용자가 조작부를 조작하는 일 예시를 나타낸 도면이다.
도 12는 사용자가 도 11에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 사용자 영상의 일 예시를 나타낸 도면이다.
도 13은 AVN 장치의 디스플레이에 표시되는 오디오 재생 화면의 일 예시를 나타낸 도면이다.
도 14는 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 일 예시를 나타낸 도면이다.
도 15는 사용자의 조작 시간 대비 기준 시간의 비율을 시각적으로 표시해주는 일 예시를 나타낸 도면이다.
도 16은 사용자가 조작부를 조작하는 다른 예시를 나타낸 도면이다.
도 17은 사용자가 도 16에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 사용자 영상의 일 예시를 나타낸 도면이다.
도 18은 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 다른 예시를 나타낸 도면이다.
도 19는 사용자의 조작 시간 대비 기준 시간의 비율을 시각적으로 표시해주는 다른 예시를 나타낸 도면이다.
도 20은 사용자가 조작부를 조작하는 또 다른 예시를 나타낸 도면이다.
도 21은 사용자가 도 20에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 영상의 일 예시를 나타낸 도면이다.
도 22 및 도 23은 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 또 다른 예시를 나타낸 도면이다.
도 24는 손가락 위치에 대응되는 포인팅 객체를 표시하는 디스플레이를 나타낸 도면이다.
도 25는 복수의 메뉴 버튼이 연속적으로 나열된 메뉴 목록이 표시된 디스플레이를 나타낸 도면이다.
도 26은 메뉴 목록을 이동시키기 위한 드래그 동작을 나타낸 도면이다.
도 27은 내비게이션 기능을 수행하는 AVN 장치의 구성이 구체화된 제어 블록도이다.
도 28 및 도 29는 내비게이션 기능을 수행할 때에 디스플레이가 표시하는 지도 화면의 예시를 나타낸 도면이다.
도 30 및 도 31은 수직 뷰를 표시하기 위한 조작의 일 예시를 나타낸 도면이다.
도 32는 버드 뷰를 표시하기 위한 조작의 일 예시를 나타낸 도면이다.
도 33은 수직 뷰를 표시하기 위한 조작을 가했을 때 획득되는 사용자 영상의 일 예시이다.
도 34는 버드 뷰를 표시하기 위한 조작을 가했을 때 획득되는 사용자 영상의 일 예시이다.
도 35는 공조장치를 제어하는 차량용 제어 장치를 포함하는 차량의 제어 블록도이다.
1 is a control block diagram of a vehicle control apparatus according to an embodiment.
2 is a control block diagram of a control apparatus for a vehicle further comprising a pressure sensing unit.
3 is a side view showing a structure according to an example of an operation unit.
Fig. 4 is a plan view of the operating portion according to one example viewed from above. Fig.
5 is a circuit diagram of an LED matrix constituting an object sensing unit.
6 is a circuit diagram of a phototransistor array constituting an object sensing portion.
7 is an external view of a vehicle according to an embodiment.
8 is a control block diagram of a vehicle according to an embodiment.
9 is an external view of the vehicle control device mounted on the vehicle as viewed from the rear seat.
10 is an external view of the vehicle control device mounted on the vehicle as viewed from the passenger seat.
11 is a diagram showing an example in which a user operates the operation unit.
12 is a diagram showing an example of a user image formed by an output signal of the object detection unit when the user operates the operation unit as shown in FIG.
13 is a view showing an example of an audio reproduction screen displayed on the display of the AVN apparatus.
14 is a diagram showing an example of a screen displayed on the display of the AVN apparatus according to a user's operation.
FIG. 15 is a diagram showing an example of visually displaying the ratio of the user's operation time to the reference time.
16 is a view showing another example in which the user operates the operation unit.
17 is a view showing an example of a user image formed by an output signal of the object detection unit when the user operates the operation unit as shown in FIG.
18 is a diagram showing another example of a screen displayed on the display of the AVN apparatus according to the user's operation.
19 is a diagram showing another example of visually displaying the ratio of the user's operation time to the reference time.
20 is a diagram showing another example in which the user operates the operation unit.
21 is a diagram showing an example of an image formed by an output signal of the object detection unit when the user operates the operation unit as shown in Fig.
22 and 23 are diagrams showing still another example of a screen displayed on the display of the AVN apparatus according to a user operation.
24 is a diagram illustrating a display that displays a pointing object corresponding to a finger position;
25 is a view showing a display in which a menu list in which a plurality of menu buttons are continuously arranged is displayed.
26 is a diagram showing a drag operation for moving a menu list.
27 is a control block diagram in which a configuration of an AVN apparatus that performs a navigation function is embodied.
28 and 29 are diagrams showing examples of a map screen displayed on the display when the navigation function is performed.
30 and 31 are views showing an example of an operation for displaying a vertical view.
32 is a diagram showing an example of an operation for displaying a bird view.
33 is an example of a user image obtained when an operation for displaying a vertical view is applied.
34 is an example of a user image obtained when an operation for displaying a bird view is applied.
35 is a control block diagram of a vehicle including a vehicle control device for controlling the air conditioner.

이하 첨부된 도면을 참조하여 일 측면에 따른 차량용 제어 장치 및 이를 포함하는 차량에 관한 실시예를 상세하게 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a vehicle control apparatus and a vehicle including the same will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 차량용 제어 장치의 제어 블록도이고, 도 2는 압력 감지부를 더 포함하는 차량용 제어 장치의 제어 블록도이다.FIG. 1 is a control block diagram of a control apparatus for a vehicle according to an embodiment of the present invention, and FIG. 2 is a control block diagram of a control apparatus for a vehicle including a pressure sensing section.

도 1을 참조하면, 일 실시예에 따른 차량용 제어 장치(100)는 사용자로부터 제어 명령을 입력 받는 조작부(110) 및 조작부(110)의 출력 신호에 기초하여 사용자의 제어 명령을 판단하고, 사용자의 제어 명령에 대응되는 제어 신호를 생성하는 제어부(120)를 포함한다.Referring to FIG. 1, a control apparatus 100 for a vehicle according to an exemplary embodiment of the present invention determines a control command of a user based on an output signal of an operation unit 110 and a control unit 110, And a control unit 120 for generating a control signal corresponding to the control command.

조작부(110)는 탄력성 있는 패드(111) 및 패드(111)의 하부에 배치되어 조작부(110)에 근접한 물체를 감지하는 물체 감지부(112)를 포함한다. The operation unit 110 includes a flexible pad 111 and an object sensing unit 112 disposed below the pad 111 and sensing an object in proximity to the operation unit 110.

패드(111)는 사용자가 조작부(110)를 조작할 때 사용자의 손이 접촉되는 부분으로서, 탄력성이 있는 투명한 물질로 이루어질 수 있다. 탄력성이 있는 패드(111)로 인해 사용자의 조작감이 향상되고, 촉각적인 피드백을 제공할 수 있다. 구체적으로, 사용자는 푹신한 표면 상에 이동량을 가지는 조작을 가함으로써 실제 버튼을 누르는 듯한 부드럽고 자연스러운 조작감을 얻을 수 있다.The pad 111 may be made of a transparent and elastic material as a part of the user's hand when the user operates the operation unit 110. [ The elastic pad 111 improves the user's sense of operation and provides tactile feedback. Specifically, a user can obtain a smooth and natural operation feeling as if pressing an actual button by applying an operation having a moving amount on a fluffy surface.

또한, 사용자가 조작부(110)를 조작하지 않는 경우에도 손을 올려놓을 수 있는 편의성을 제공한다. In addition, even when the user does not operate the operation unit 110, it is convenient to raise his / her hand.

예를 들어, 패드(111)는 겔 상태의 실리콘 화합물, 겔 상태의 폴리 우레탄 등의 탄성체로 이루어질 수 있고, 실리콘 화합물로는 PDMS(Polydimethylsiloxane) 등이 사용될 수 있다. 다만, 패드(111)를 구성하는 물질이 상기 물질들에 한정되는 것은 아니며, 상기 물질들 외에도 탄력성이 있는 투명한 물질이라면 어느 것이든 패드(111)를 구성하는 물질이 될 수 있다. For example, the pad 111 may be made of a gel state silicone compound, a gel state polyurethane, or the like, and the silicon compound may be PDMS (Polydimethylsiloxane) or the like. However, the material constituting the pad 111 is not limited to the materials, and any material that is flexible in addition to the materials may be a material constituting the pad 111.

물체 감지부(112)는 조작부(110)에 근접한 물체를 비접촉식으로 감지할 수 있다. 다만, 이는 물체가 조작부(110)에 접촉하지 않은 상태에서도 감지할 수 있다는 의미일 뿐, 접촉된 물체는 감지할 수 없다는 의미는 아니다. 즉, 물체 감지부(112)는 패드(111)에 접촉한 물체뿐만 아니라 패드(111)와 이격되어 있는 물체도 감지할 수 있다. 이를 위해, 물체 감지부(112)는 근접 센서를 포함할 수 있으며, 예를 들어, 정전 용량형 근접 센서, 초음파 근접 센서 및 광전형 근접 센서 중 적어도 하나를 포함할 수 있다. 당해 실시예에서의 근접 센서는 센서와 근접하기만 하면 접촉한 물체뿐만 아니라 이격되어 있는 물체도 감지할 수 있는 모든 센서를 총칭하는 것으로 정의한다.The object detection unit 112 can detect an object in proximity to the operation unit 110 in a non-contact manner. However, this means that an object can be detected even when the object is not in contact with the operation unit 110, which does not mean that the object can not be detected. That is, the object detecting unit 112 can detect not only an object contacting the pad 111, but also an object apart from the pad 111. To this end, the object sensing unit 112 may include a proximity sensor and may include at least one of, for example, a capacitive proximity sensor, an ultrasonic proximity sensor, and a photoelectric proximity sensor. The proximity sensor in this embodiment is collectively referred to as all sensors capable of sensing not only an object contacting but also a separated object as long as it is close to the sensor.

물체 감지부(112)가 정전 용량형 근접 센서를 포함하는 경우에는 물체가 접근함에 따라 달라지는 정전 용량 변화에 기초하여 물체와 조작부(110) 사이의 거리를 결정할 수 있고, 초음파 근접 센서를 포함하는 경우에는 물체에 반사되어 돌아오는 초음파 신호의 세기에 기초하여 물체와 조작부(110) 사이의 거리를 결정할 수 있으며, 광전형 근접 센서를 포함하는 경우에는 물체에 반사되어 돌아오는 광 신호의 세기에 기초하여 물체와 조작부(110) 사이의 거리를 결정할 수 있다. 한편, 당해 실시예에서 조작부(110)와 물체 사이의 거리는 패드(111)와 물체 사이의 거리 또는 물체 감지부(112)와 물체 사이의 거리를 의미한다.When the object detecting unit 112 includes the capacitive proximity sensor, the distance between the object and the operation unit 110 can be determined based on the capacitance change that varies as the object approaches, and when the object includes the ultrasonic proximity sensor The distance between the object and the operation unit 110 can be determined based on the intensity of the ultrasonic signal reflected on the object and based on the intensity of the optical signal reflected on the object when the proximity sensor is included The distance between the object and the operation unit 110 can be determined. In this embodiment, the distance between the operation unit 110 and the object means the distance between the pad 111 and the object or the distance between the object sensing unit 112 and the object.

후술하는 바와 같이, 물체 감지부(112)는 복수의 근접 센서가 2차원으로 배열된 형태를 가질 수 있는바, 물체 감지부(112)의 출력 신호를 이용하면 조작부(110)에 근접한 물체의 영상을 획득할 수 있고, 2차원 평면 상에서의 물체의 위치도 판단할 수 있다. As described later, the object detection unit 112 may have a configuration in which a plurality of proximity sensors are arranged in two dimensions. When the output signal of the object detection unit 112 is used, the image of the object close to the operation unit 110 And the position of the object on the two-dimensional plane can also be determined.

사용자가 조작부(110)를 조작하는 방식에는 패드(111)를 가압(press)하는 방식이 포함될 수 있다. 물체 감지부(112)가 광전형 근접 센서 또는 초음파 근접 센서를 포함하는 경우, 물체 감지부(112)의 출력 신호만으로도 패드(111)의 가압 여부를 판단할 수 있다. 구체적으로, 패드(111)가 가압되면 사용자의 손가락이 물체 감지부(112)와 더 가까워지고, 패드(111)가 눌리면서 광이 분산되는 등의 광학적 특징이 나타난다. 또한, 가압 동작은 빠른 시간 안에 이루어지기 때문에 순간적인 패턴 변화를 활용하면, 압력을 감지하는 별도의 장치 없이도 가압 여부를 판단할 수 있다. The manner in which the user operates the operation unit 110 may include a method of pressing the pad 111. When the object detecting unit 112 includes a photoelectric proximity sensor or an ultrasonic proximity sensor, it is possible to determine whether the pad 111 is pressed by using only the output signal of the object detecting unit 112. Specifically, when the pad 111 is pressed, an optical characteristic such as a user's finger is closer to the object sensing portion 112 and light is dispersed while the pad 111 is pressed. Further, since the pressing operation is performed in a short time, if the instantaneous pattern change is utilized, it is possible to judge whether or not the pressure is applied without a separate device for sensing the pressure.

또는, 도 2에 도시된 바와 같이, 조작부(110)가 압력을 감지하는 압력 감지부(113)를 더 포함하는 것도 가능하다.Alternatively, as shown in FIG. 2, the operation unit 110 may further include a pressure sensing unit 113 for sensing pressure.

압력 감지부(113)는 마이크로 스위치처럼 기계적인 접촉으로 압력을 감지하는 기계식 압력 센서를 포함할 수도 있고, 두 전극 사이의 정전 용량 변화로부터 그 사이의 변위를 측정하는 전기식 압력 센서를 포함할 수도 있으며, 압전 효과를 이용하여 압력을 감지하는 반도체식 압력 센서를 포함할 수도 있고, 외부로부터 압력이 가해지면 마주보는 두 전극이 서로 맞닿으면서 발생한 전류 또는 저항의 변화를 측정하여 압력을 감지하는 저항막 방식 압력 센서를 포함할 수도 있다.The pressure sensing portion 113 may include a mechanical pressure sensor that senses pressure in a mechanical contact, such as a microswitch, and may include an electrical pressure sensor that measures the displacement therebetween from a capacitance change between the two electrodes , A semiconductor type pressure sensor that senses a pressure using a piezoelectric effect, or a resistive film that senses a pressure by measuring a change in current or resistance generated when two opposing electrodes come into contact with each other when a pressure is applied from the outside, Type pressure sensor.

다만, 상기 압력 센서들은 압력 감지부(113)에 포함될 수 있는 압력 센서의 예시들에 불과하고, 차량용 제어 장치(100)의 실시예가 상기 예시들에 한정되는 것은 아니다.However, the pressure sensors are merely examples of pressure sensors that can be included in the pressure sensor 113, and the embodiment of the vehicle controller 100 is not limited to the above examples.

앞서, 물체 감지부(112)의 출력 신호로부터 조작부(110) 위에 근접한 물체의 위치를 판단할 수 있다고 하였다. 따라서, 압력 감지부(113)는 압력을 감지하기만 하고, 압력이 감지된 위치는 물체 감지부(112)의 출력 신호로부터 판단하는 것이 가능하다. The position of the object close to the operation unit 110 can be determined from the output signal of the object detection unit 112. [ Accordingly, the pressure sensing unit 113 senses only the pressure, and the position where the pressure is sensed can be determined from the output signal of the object sensing unit 112.

또는, 압력 감지부(113) 역시 복수의 압력 센서가 2차원으로 배열된 형태를 갖거나, 압력 센서 자체가 2차원 상에서 정의되는 각각의 위치에서 압력을 감지할 수 있는 구조일 수도 있다. 따라서, 압력 감지부(113)의 출력 신호를 이용하여 물체에 의해 가압된 조작부(110)의 위치를 판단할 수도 있다.Alternatively, the pressure sensing unit 113 may have a configuration in which a plurality of pressure sensors are arranged in two dimensions, or a structure in which the pressure sensor itself can sense pressure at each position defined on two dimensions. Therefore, the position of the operation unit 110, which is pressed by the object, can be determined using the output signal of the pressure sensing unit 113.

한편, 조작부(110)가 감지하는 물체 또는 조작부(110)를 가압하는 물체는 제어 명령을 입력하는 사용자의 손일 수 있는바, 제어부(120)는 조작부(110)의 출력 신호에 기초하여 사용자의 제어 명령을 판단할 수 있다. An object to be sensed by the operation unit 110 or an object to press the operation unit 110 may be a hand of a user who inputs a control command. The control unit 120 controls the operation of the user based on the output signal of the operation unit 110. [ The command can be judged.

제어부(120)는 물체 감지부(112) 또는 압력 감지부(113)의 동작을 제어하는 센서 제어부(121) 및 조작부(110)의 출력 신호에 기초하여 제어 신호를 생성하는 제어신호 생성부(122)를 포함할 수 있고, 센서 제어부(121)와 제어신호 생성부(122)는 마이크로 프로세서(microprocessor), 마이크로 컨트롤러(micro controller) 등으로 이루어질 수 있다. The control unit 120 includes a sensor control unit 121 for controlling the operation of the object sensing unit 112 or the pressure sensing unit 113 and a control signal generating unit 122 for generating a control signal based on the output signal of the operation unit 110 The sensor control unit 121 and the control signal generation unit 122 may include a microprocessor and a micro controller.

한편, 도 1의 제어 블록도에 도시된 구성 요소들은 물리적으로 구분된 것이 아니라 기능적으로 구분된 것이다. 따라서, 센서 제어부(121)와 제어신호 생성부(122)는 물리적으로 하나의 모듈일 수도 있고, 물리적으로 분리된 별개의 모듈일 수도 있다. 또한, 센서 제어부(121)와 제어신호 생성부(122)는 모두 조작부(110)에 마련될 수도 있고, 이들 중 하나만 조작부(110)에 마련될 수도 있으며, 센서 제어부(121)와 제어신호 생성부(122)가 모두 조작부(110)의 외부에 별도로 마련되는 것도 가능하다.Meanwhile, the components shown in the control block diagram of FIG. 1 are not physically divided but functionally separated. Accordingly, the sensor control unit 121 and the control signal generation unit 122 may be physically one module or physically separate modules. Both the sensor control unit 121 and the control signal generation unit 122 may be provided on the operation unit 110. Only one of the sensor control unit 121 and the control signal generation unit 122 may be provided on the operation unit 110, (122) may be provided separately on the outside of the operation unit (110).

도 3은 조작부의 일 예시에 따른 구조를 나타낸 측면도이고, 도 4는 일 예시에 따른 조작부를 위에서 바라본 평면도이다.Fig. 3 is a side view showing a structure of an example of an operation unit, and Fig. 4 is a plan view of an operation unit viewed from above.

당해 예시에서는 조작부(110)를 구성하는 물체 감지부(112)가 광전형 근접 센서를 포함하는 것으로 한다. 도 3을 참조하면, 물체 감지부(112)는 복수의 발광부(112a)와 복수의 수광부(112b)를 포함할 수 있다. 발광부(112a)는 적외선 LED일 수 있고, 수광부(112b)는 적외선을 감지하는 포토 트랜지스터일 수 있다. In this example, it is assumed that the object detection unit 112 constituting the operation unit 110 includes a photoelectric proximity sensor. Referring to FIG. 3, the object detecting unit 112 may include a plurality of light emitting units 112a and a plurality of light receiving units 112b. The light emitting portion 112a may be an infrared LED, and the light receiving portion 112b may be a phototransistor that senses infrared rays.

한편, 발광부(112a)가 적외선 LED로 구현되는 경우에는 발광부(112a)에서 발생된 적외선 외에 다른 외부 광원에서 발생된 적외선이 수광부(112b)로 입사되는 것을 방지하기 위한 적외선 필터가 패드(111)와 물체 감지부(112) 사이에 마련될 수 있다. In the case where the light emitting unit 112a is implemented by an infrared LED, an infrared ray filter for preventing the infrared ray generated from the external light source other than the infrared ray generated from the light emitting unit 112a from being incident on the light receiving unit 112b, And an object detecting unit 112. [0033] FIG.

도 4를 참조하면, 복수의 발광부(112a)와 복수의 수광부(112b)는 기판(112c) 위에 2차원으로 배열될 수 있으며, 복수의 발광부(112a)는 매트릭스 방식으로 연결되어 개별적으로 점멸 가능하고, 포토 트랜지스터(112b)는 병렬로 연결되어 넓은 면을 가진 일종의 광 센서로서 동작할 수 있다.4, the plurality of light emitting units 112a and the plurality of light receiving units 112b may be arranged two-dimensionally on the substrate 112c, and the plurality of light emitting units 112a are connected in a matrix manner, And the phototransistor 112b may be connected in parallel to operate as a kind of optical sensor having a wide surface.

압력 감지부(113) 역시 기판(113b) 위에 2차원으로 배열된 복수의 압력 센서(113a)를 포함하거나, 서로 마주보는 두 개의 전도막과 전도막 사이의 공간을 2차원으로 구획하는 스페이서(spacer)를 포함할 수도 있다. 다만, 도 4의 구성은 조작부(110)의 일 예시에 불과하고, 전술한 바와 같이 조작부(110)에 압력 감지부(113)가 포함되지 않는 것도 가능하다.The pressure sensing part 113 may also include a plurality of pressure sensors 113a two-dimensionally arranged on the substrate 113b or two spaced apart conductive films and a spacer ). 4 is merely an example of the operation unit 110, and it is also possible that the operation unit 110 does not include the pressure detection unit 113 as described above.

도 5는 물체 감지부를 구성하는 LED 매트릭스의 회로도이며, 도 6은 물체 감지부를 구성하는 포토 트랜지스터 어레이의 회로도이다.FIG. 5 is a circuit diagram of an LED matrix constituting an object sensing unit, and FIG. 6 is a circuit diagram of a phototransistor array constituting an object sensing unit.

도 5를 참조하면, P1-P5와 Q1-Q7는 센서 제어부(121)의 디지털 출력핀을 나타낸다. 이들 출력을 적절히 조절하여 원하는 LED를 점등할 수 있다. 예를 들어, 세 번째 행, 두 번째 열의 LED를 점등하기 위해 센서 제어부(121)는 P1=P2=P4=P5=0, P3=1, Q1=Q3=Q4=Q5=Q6=Q7=1, Q2=0으로 출력을 조절하면 된다. 이러한 방식으로 한 번에 하나의 LED를 순차적으로 점등할 수 있다.Referring to FIG. 5, P1-P5 and Q1-Q7 denote the digital output pins of the sensor control unit 121. The desired LEDs can be turned on by adjusting these outputs appropriately. For example, to light the LEDs in the third row and the second column, the sensor control unit 121 sets P1 = P2 = P4 = P5 = 0, P3 = 1, Q1 = Q3 = Q4 = Q5 = Q6 = Q7 = 1, You can adjust the output with Q2 = 0. In this way, one LED can be lit sequentially at a time.

도 6을 참조하면, 모든 포토 트랜지스터는 병렬로 연결되고, 이들을 통한 전류는 모두 상단의 저항을 통하여 흐르게 된다. 따라서, 포토 트랜지스터 어레이의 출력핀을 통해 출력되는 출력 신호(OUT)는 광이 없을 경우에는 전원 공급 전압 VCC에 가까운 값을 유지하다가 포토 트랜지스터 어레이에 광이 입사되면 그 양에 비례하여 전압이 강하한다. Referring to FIG. 6, all the phototransistors are connected in parallel, and the current through them all flows through the upper resistor. Accordingly, when the output signal OUT outputted through the output pin of the phototransistor array maintains a value close to the power supply voltage VCC in the absence of light, when the light is incident on the phototransistor array, the voltage drops in proportion to the amount thereof .

포토 트랜지스터의 출력 신호는 제어신호 생성부(122)로 입력되고, 제어신호 생성부(122)는 센서 제어부(121)가 점등한 LED의 위치와 포토 트랜지스터의 출력 신호에 기초하여 조작부(110)에 근접한 물체, 예를 들어 사용자의 손 또는 손가락의 위치, 조작부(110)와의 거리, 면적 등을 연산할 수 있다. 이에 관한 구체적인 설명은 후술하도록 한다.The output signal of the phototransistor is input to the control signal generation unit 122. The control signal generation unit 122 outputs the control signal to the control unit 110 based on the position of the LED and the output signal of the phototransistor, For example, the position of a user's hand or finger, the distance to the operation unit 110, the area, and the like. A detailed description thereof will be given later.

상기 도 5 및 도 6에 도시된 구조는 차량용 제어 장치(100)의 일 실시예에 적용될 수 있는 예시에 불과하며, 차량용 제어 장치(100)의 실시예가 상기 예시에 한정되는 것은 아니다. 따라서, 상기 도 5 및 도 6에 도시된 구조가 아니더라도 조작부(110)에 근접한 사용자의 손 또는 손가락을 감지하여 그 위치, 거리, 면적 등을 연산할 수 있게 하는 구조이면 조작부(110)에 적용될 수 있다. 5 and 6 are merely examples that can be applied to an embodiment of the on-vehicle control device 100, and the embodiment of the onboard control device 100 is not limited to the above example. 5 and 6, it can be applied to the operation unit 110 as long as it can detect the user's hand or finger near the operation unit 110 and calculate the position, distance, area, have.

이하, 차량용 제어 장치(100)가 장착된 차량의 실시예를 설명하면서 차량용 제어 장치(100)의 동작을 함께 설명하도록 한다. Hereinafter, the operation of the onboard control device 100 will be described together with an embodiment of the onboard vehicle control device 100 mounted on the vehicle.

도 7은 일 실시예에 따른 차량의 외관도이고, 도 8은 일 실시예에 따른 차량의 제어 블록도이다.FIG. 7 is an external view of a vehicle according to an embodiment, and FIG. 8 is a control block diagram of a vehicle according to an embodiment.

도 7을 참조하면, 일 실시예에 따른 차량(10)은 차량(10)의 외관을 형성하는 본체(1), 차량(100)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(60), 차량(10) 내부를 외부로부터 차폐시키는 도어(71, 72(도 9 참조)), 차량(10) 내부의 운전자에게 차량(10) 전방의 시야를 제공하는 전면 유리(31), 운전자에게 차량(10) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다. 7, a vehicle 10 according to an embodiment includes a main body 1 forming an appearance of a vehicle 10, wheels 51 and 52 for moving the vehicle 100, wheels 51 and 52, A door 71 and 72 for shielding the interior of the vehicle 10 from the outside (see Fig. 9), a front surface for providing the driver inside the vehicle 10 with a view of the front of the vehicle 10 Glass 31, and side mirrors 81 and 82 that provide the driver with a field of view behind the vehicle 10.

차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함하며, 구동 장치(60)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.The wheels 51 and 52 include a front wheel 51 provided on the front of the vehicle and a rear wheel 52 provided on the rear side of the vehicle and the driving device 60 includes a front wheel 51 and a rear wheel 52, (51) or the rear wheel (52). Such a drive unit 60 may employ an engine for generating a rotational force by burning fossil fuel or a motor for generating a rotational force by receiving power from a capacitor (not shown).

도어(71, 72)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(10)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.The doors 71 and 72 are provided so as to be rotatable on the left and right sides of the main body 1 so that the driver can ride inside the vehicle 10 at the time of opening. Shield.

전면 유리(31)는 본체(1)의 전방 상측에 마련되어 차량(10) 내부의 운전자가 차량(10) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다. The front glass 31 is provided on the front upper side of the main body 1 so that a driver inside the vehicle 10 can obtain time information in front of the vehicle 10. The windshield glass is also called a windshield glass.

또한, 사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함하며, 차량(10) 내부의 운전자가 차량(10) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.The side mirrors 81 and 82 include a left side mirror 81 provided on the left side of the main body 1 and a right side mirror 82 provided on the right side. 10) side information and rear-side time information.

이외에도 차량(10)은 후방 또는 측방의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다. In addition, the vehicle 10 may include a proximity sensor for detecting rear or side obstacles or other vehicles, and a rain sensor for detecting rainfall and precipitation.

도 8을 참조하면, 일 실시예에 따른 차량(10)은 차량용 제어 장치(100) 및 AVN(Audio Video Navigation) 장치(200)를 포함한다. AVN 장치(200)는 오디오 기능, 비디오 기능 및 내비게이션 기능을 통합적으로 수행하는 장치로서, 상기 기능들 외에도 전화 걸기 등의 추가적인 기능들을 더 수행하는 것도 가능하다. Referring to FIG. 8, a vehicle 10 according to an embodiment includes a vehicle control device 100 and an AVN (Audio Video Navigation) The AVN apparatus 200 is an apparatus for integrally performing an audio function, a video function, and a navigation function. In addition to the above functions, it is also possible to perform additional functions such as a telephone call.

차량용 제어 장치(100)의 구성은 전술한 바와 같고, AVN 장치(200)는 각종 기능을 수행하기 위한 정보를 시각적으로 출력하는 디스플레이(210), 청각적으로 출력하는 스피커(220) 및 AVN 장치(200)를 전반적으로 제어하는 AVN 제어부(230)를 포함한다.The AVN apparatus 200 includes a display 210 for visually outputting information for performing various functions, a speaker 220 for outputting audibly and an AVN apparatus The AVN control unit 230 controls the AVN 200 as a whole.

이하, 차량(10)의 내부에 장착된 차량용 제어 장치(100)와 AVN 장치(200)의 외관을 함께 참조하여 구체적인 동작을 설명하도록 한다.Hereinafter, the operation of the vehicle control apparatus 100 mounted inside the vehicle 10 and the external appearance of the AVN apparatus 200 will be described together with a specific operation.

도 9는 차량에 장착된 차량용 제어 장치를 뒷좌석에서 바라본 외관도이며, 도 10은 차량에 장착된 차량용 제어 장치를 조수석에서 바라본 외관도이다.Fig. 9 is an external view of the vehicle control device mounted on the vehicle from the rear seat, and Fig. 10 is an external view of the vehicle control device mounted on the vehicle from the passenger seat.

도 9 및 도 10을 참조하면, 디스플레이(210)는 대시보드(32)의 중앙 영역인 센터페시아(33)에 장착될 수 있으며, 오디오 화면, 비디오 화면, 내비게이션 화면, 기타 AVN 장치(200)가 수행하는 각종 기능을 수행하는데 필요한 화면을 표시할 수 있다. 9 and 10, the display 210 may be mounted on the center fascia 33, which is a central area of the dashboard 32, and may include an audio screen, a video screen, a navigation screen, A screen necessary for performing various functions to be performed can be displayed.

디스플레이(210)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등으로 구현될 수 있다.The display 210 may be implemented as an LCD (Liquid Crystal Display), a LED (Light Emitting Diode), a PDP (Plasma Display Panel), an OLED (Organic Light Emitting Diode), a CRT (Cathode Ray Tube)

조작부(110)는 운전석(21)과 조수석(22) 사이의 센터 콘솔(40)에 마련될 수 있다. 센터 콘솔(40)은 운전석(21)과 조수석(22) 사이에 기어 레버(41)와 물품을 보관하는 수납 공간인 콘솔 박스(42)가 형성된 영역을 의미한다. The operation unit 110 may be provided on the center console 40 between the driver's seat 21 and the passenger's seat 22. [ The center console 40 refers to an area in which a gear lever 41 and a console box 42 as a storage space for storing articles are formed between the driver's seat 21 and the passenger's seat 22. [

일 예로, 조작부(110)는 콘솔 박스(42)의 상부에 마련된 암레스트(arm rest)(43)의 앞쪽 단부에 연장된 형태로 마련될 수 있다. For example, the operation unit 110 may be extended to a front end of an arm rest 43 provided at an upper portion of the console box 42.

일반적으로, AVN 장치(200)를 제어하기 위해 사용자는 디스플레이(210)의 근처에 마련된 하드 키(211), 센터 콘솔(40)에 마련된 조그 셔틀 또는 센터 콘솔(40)에 마련된 하드 키를 조작한다. 이로 인해 운전 중인 사용자의 자세가 흐트러져 안전 운행에 영향을 미칠 수 있고, 다수의 하드 키를 마련하기 위해 많은 공간을 소모하거나, 원하는 제어 명령을 입력하기 위해 하드 키나 조그 셔틀을 수 회 조작해야 한다. In general, in order to control the AVN apparatus 200, the user operates a hard key 211 provided near the display 210, a jog shuttle provided on the center console 40, or a hard key provided on the center console 40 . This may affect the safety operation of the user during operation and may require a lot of space in order to provide a large number of hard keys, or a hard key or jog shuttle several times in order to input desired control commands.

그러나, 일 실시예에 따른 차량(10)에서는 앞좌석(21,22)에 탑승한 사용자가 팔을 암레스트(43)에 올려놓은 상태에서 손(H)을 이용하여 조작부(110)를 안정적으로 조작할 수 있다. However, in the vehicle 10 according to the embodiment, the user who rides on the front seats 21 and 22 stably holds the operating portion 110 using the hand H in a state in which the arm is placed on the armrest 43 Can be operated.

조작부(110)의 최상부에는 패드(111)가 위치하므로 사용자는 패드(111)에 손을 접촉하여 제어 명령을 입력할 수 있다. 전술한 바와 같이, 패드(111)는 탄력성 있는 물질로 이루어지므로 사용자의 조작감이 향상될 수 있고, 제어 명령을 입력하지 않는 경우에도 패드(111) 위에 손을 올려놓은 상태를 편안하게 유지할 수 있다.Since the pad 111 is located at the top of the operation unit 110, the user can touch the pad 111 and input a control command. As described above, since the pad 111 is made of a flexible material, the user's operation feeling can be improved, and even when the control command is not input, the user can comfortably hold the hand on the pad 111. [

또한, 후술하는 바와 같이 간단한 조작에 의해 사용자가 원하는 메뉴 화면을 디스플레이(211)에 표시함으로써 핫 키(hot key) 기능을 실행할 수 있다. In addition, a hot key function can be performed by displaying a desired menu screen on the display 211 by a simple operation as described later.

한편, 차량용 제어 장치(100)의 장착 위치가 도 9 및 도 10의 예시에 한정되는 것은 아니며, 차량용 제어 장치(100)는 뒷 좌석의 암레스트에 장착되어 뒷 좌석에 탑승한 동승자로부터 제어 명령을 입력 받을 수도 있고, 차량(10)에 복수의 차량용 제어 장치(100)를 구비하여 하나는 도 9 및 도 10의 예시와 같이 센터 콘솔(40)에 장착하고, 다른 하나는 뒷 좌석의 암레스트에 장착하는 것도 가능하다.On the other hand, the mounting position of the vehicle control apparatus 100 is not limited to the example shown in Figs. 9 and 10, and the vehicle control apparatus 100 is mounted on the armrest of the rear seat so as to receive a control command from the occupant on the rear seat And a plurality of vehicle control apparatuses 100 are provided in the vehicle 10 so that one is mounted on the center console 40 as shown in FIGS. 9 and 10 and the other is mounted on the armrest of the rear seat It is also possible to mount it.

도 11은 사용자가 조작부를 조작하는 일 예시를 나타낸 도면이고, 도 12는 사용자가 도 11에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 사용자 영상의 일 예시를 나타낸 도면이다.FIG. 11 is a diagram illustrating an example of a user operating the operation unit, and FIG. 12 is a diagram illustrating an example of a user image formed by an output signal of the object detection unit when the user operates the operation unit as shown in FIG. 11 .

사용자의 손이 조작부(110)의 미리 설정된 영역을 가리거나, 가압하거나, 또는 사용자의 손가락이 조작부(110)를 가압하는 등의 조작 방식이 제어 명령을 입력하는 방식으로 설정될 수 있다. 따라서, 상기 조작 방식 각각에 대응되는 제어 명령이 미리 맵핑되고, 사용자가 제어 명령을 입력하면 제어신호 생성부(122)가 그에 대응되는 제어 신호를 생성할 수 있다.The user's hand may be set in such a manner that the operation mode such as covering or pressing the predetermined area of the operation unit 110 or pressing the operation unit 110 by the user's finger inputs the control command. Therefore, the control commands corresponding to the respective operation modes are mapped in advance, and when the user inputs a control command, the control signal generator 122 can generate control signals corresponding thereto.

또는, 조작부(110)의 미리 설정된 각각의 영역마다 그에 대응되는 제어 명령을 맵핑하고, 사용자의 손이 미리 설정된 영역을 가리거나 가압하는 경우에 모두 해당 영역에 맵핑된 제어 명령을 실행하도록 하는 것도 가능하다. 이하, 구체적인 실시예를 설명하도록 한다.Alternatively, a control command corresponding to each of the preset areas of the operation unit 110 may be mapped, and a control command mapped to the corresponding area may be executed when the user's hands cover or press a predetermined area Do. Hereinafter, specific embodiments will be described.

예를 들어, 도 11에 도시된 바와 같이, 사용자의 손(H)이 조작부(110)의 좌측 단부를 가리는 방식으로 제어 명령이 입력될 수 있다. 물체 감지부(112)가 전술한 바와 같이 광전형 근접 센서를 포함하는 경우에는 물체 감지부(112)를 구성하는 복수의 포토 트랜지스터(112b)에서 출력되는 각각의 출력 신호가 하나의 영상을 구성하는 픽셀값이 될 수 있다. 이하 상술할 실시예에서는 물체 감지부(112)의 출력 신호에 의해 형성되는 영상을 사용자 영상이라 하기로 한다.For example, as shown in Fig. 11, a control command can be inputted in such a manner that the user's hand H covers the left end of the operation portion 110. [ When the object detection unit 112 includes the photovoltaic proximity sensor as described above, the respective output signals output from the plurality of phototransistors 112b constituting the object detection unit 112 constitute one image Pixel value. Hereinafter, the image formed by the output signal of the object detection unit 112 will be referred to as a user image.

물체 감지부(112)를 구성하는 포토 트랜지스터 어레이가 상기 도 6에 도시된 바와 같은 회로 구성을 갖는 경우에는 포토 트랜지스터의 컬렉터 전압이 출력이 되므로 포토 트랜지스터에 입사되는 LED 반사 광의 양이 많을수록 포토 트랜지스터 어레이의 출력이 낮아지고, 포토 트랜지스터에 입사되는 LED 반사 광의 양이 적을수록 포토 트랜지스터 어레이의 출력이 높아진다. 6, the collector voltage of the phototransistor becomes an output, so that the greater the amount of the LED reflected light incident on the phototransistor, the more the phototransistor array < RTI ID = 0.0 > The output of the phototransistor array becomes higher as the amount of LED reflected light incident on the phototransistor becomes smaller.

포토 트랜지스터의 출력이 최대일 때의 픽셀이 흰색을 나타내도록 하고, 포토 트랜지스터의 출력이 최소일 때의 픽셀이 검은색을 나타내도록 하면, 사용자가 도 11에 도시된 바와 같이 조작부를 조작하였을 때 도 12에 도시된 바와 같은 사용자 영상(I)이 획득될 수 있다. When the pixel at the maximum output of the phototransistor is white and the pixel at the minimum output of the phototransistor is black, when the user operates the operation portion as shown in Fig. 11 A user image I as shown in Fig. 12 can be obtained.

제어신호 생성부(122)는 도 11에 도시된 바와 같은 사용자 영상(I)이 획득되면, 사용자의 손(H)이 조작부(110)의 좌측 단부를 가리고 있음을 판단할 수 있고, 그에 대응되는 제어신호를 생성할 수 있다. 조작부(110)의 좌측 단부를 가리고 있는 물체가 사용자의 손(H)인지 여부를 판단하기 위해, 영상 인식 알고리즘을 적용할 수 있다. 이를 위해, 제어신호 생성부(122)는 인체의 손이 갖는 형태적 특징을 미리 저장하고 사용자 영상(I)에 나타난 물체가 손인지 여부를 판단한다. 이러한 과정을 통해, 사용자의 팔이나 손목 등 인체의 다른 부위가 조작부(110) 위에 위치하는 경우까지 제어 명령이 입력되는 것으로 오인하는 것을 걸러낼 수 있다. The control signal generating unit 122 can determine that the user's hand H covers the left end of the operation unit 110 when the user image I as shown in FIG. 11 is acquired, A control signal can be generated. An image recognition algorithm can be applied to determine whether the object covering the left end of the operation unit 110 is the user's hand H. [ To this end, the control signal generator 122 preliminarily stores the morphological characteristics of the hand of the human body, and determines whether or not the object represented by the user image I is a hand. Through this process, it is possible to filter out misidentification that the control command is input until another part of the human body such as the user's arm or wrist is positioned on the operation unit 110. [

도 13은 AVN 장치의 디스플레이에 표시되는 오디오 재생 화면의 일 예시를 나타낸 도면이고, 도 14는 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 일 예시를 나타낸 도면이며, 도 15는 사용자의 조작 시간 대비 기준 시간의 비율을 시각적으로 표시해주는 일 예시를 나타낸 도면이다.FIG. 13 is a diagram showing an example of an audio reproduction screen displayed on the display of the AVN apparatus, FIG. 14 is a diagram showing an example of a screen displayed on the display of the AVN apparatus according to a user's operation, FIG. 8 is a view showing an example of visually displaying the ratio of the operation time to the reference time.

일 예로, 상기 도 11에서 설명한 조작 방식은 메인 메뉴를 불러오기 위한 핫 키 기능에 맵핑될 수 있다. 핫 키 기능은 현재 AVN 장치(200)가 수행 중인 기능에 무관하게 원하는 기능을 바로 호출할 수 있는 기능이다. For example, the operation method described with reference to FIG. 11 may be mapped to a hot key function for calling up the main menu. The hot key function is a function that can immediately call a desired function irrespective of the function currently being performed by the AVN apparatus 200. [

일 예로, 도 13에 도시된 바와 같이 디스플레이(210)에 오디오 재생 화면이 표시된 상태에서, 상기 도 11에 도시된 바와 같이 사용자의 손(H)이 조작부(110)의 좌측 단부를 가리면, 도 14에 도시된 바와 같이 디스플레이(210)의 일 영역에 메인 메뉴 목록(213a)이 표시될 수 있다. 13, when the user's hand H covers the left end of the operation unit 110 as shown in FIG. 11 in a state that an audio reproduction screen is displayed on the display 210 as shown in FIG. 13, The main menu list 213a may be displayed in one area of the display 210 as shown in FIG.

구체적으로, 사용자의 손이 조작부(110)의 좌측 단부를 가리면, 물체 감지부(112)의 출력 신호에 의해 상기 도 12에 도시된 바와 같은 사용자 영상(I)이 획득되고, 제어신호 생성부(122)는 사용자 영상(I)에 기초하여 사용자의 손(H)이 조작부(110)의 좌측 단부를 가리고 있음을 판단할 수 있다. 사용자의 손(H)이 조작부(110)의 좌측 단부를 가리는 조작은 메인 메뉴를 호출하라는 제어 명령에 맵핑되어 있고, 제어신호 생성부(122)는 메인 메뉴를 호출하기 위한 제어 신호를 생성하여 AVN 장치(200)의 AVN 제어부(230)에 전송한다. 그리고, AVN 제어부(230)는 도 14에 도시된 바와 같이 디스플레이(210)에 메인 메뉴 목록(213a)이 표시되도록 제어한다.12 is obtained by the output signal of the object detection unit 112, and the control signal generation unit (not shown) 122 may determine that the user's hand H covers the left end of the operation unit 110 based on the user image I. [ The operation of the user's hand H covering the left end of the operation unit 110 is mapped to a control command for calling the main menu and the control signal generation unit 122 generates a control signal for calling the main menu, To the AVN control unit 230 of the device 200. Then, the AVN controller 230 controls the display 210 to display the main menu list 213a as shown in FIG.

한편, 제어 명령을 위한 조작 이외의 동작과의 구별을 위해 사용자의 손이 조작부(110)의 좌측 단부를 기준 시간 이상 가리고 있는 경우에만 제어신호 생성부(122)가 메인 메뉴를 호출하기 위한 제어 신호를 생성할 수 있다. 이를 위해, 기준 시간이 미리 설정될 수 있고, 사용자에게 기준 시간에 도달하기까지 얼마나 더 남았는지에 관한 정보를 제공할 수 있다.On the other hand, only when the user's hand touches the left end of the operation unit 110 for more than the reference time for distinguishing the operation other than the operation for the control command, the control signal generation unit 122 generates a control signal Lt; / RTI > To this end, the reference time can be set in advance, and the user can be provided with information about how much time remains before reaching the reference time.

예를 들어, 도 15에 도시된 바와 같이, 사용자의 손이 조작부(110)의 좌측 단부를 가리고 있는 시간 대비 기준 시간의 비율을 나타내는 기준 바(bar)(213b)를 디스플레이(210)에 표시할 수 있다. 기준 바(213b)의 높이는 시간에 따라 변할 수 있으며, 초기에 디스플레이(210)의 하단에서부터 시작하여 높이가 점점 높아질 수 있다. 그리고, 기준 시간에 도달하면 기준 바(213b)의 높이가 디스플레이(210)의 상단까지 도달하고 도 14에 도시된 바와 같이 메인 메뉴 목록(213a)이 표시될 수 있다.For example, as shown in FIG. 15, a reference bar 213b indicating a ratio of a time to a reference time when the user's hand covers the left end of the operation unit 110 is displayed on the display 210 . The height of the reference bar 213b may vary with time, and may start from the bottom of the display 210 initially and gradually increase in height. When the reference time is reached, the height of the reference bar 213b reaches the upper end of the display 210, and the main menu list 213a can be displayed as shown in FIG.

사용자는 도 15에 도시된 기준 바(213b)를 보고 손을 얼마나 더 가리고 있어야 하는지 파악할 수 있으며, 메인 메뉴를 호출하지 않고자 하는 경우에는 기준 시간에 도달하기 전에 조작부(110)를 가리는 동작을 중단하여 메인 메뉴 호출을 위한 제어 명령을 취소할 수 있다. The user can grasp how much the user should hide his / her hands by looking at the reference bar 213b shown in FIG. 15. If the user does not want to call the main menu, the user can stop the operation of covering the operation unit 110 before reaching the reference time To cancel the control command for the main menu call.

또한, 기준 시간까지 기다리지 않고 바로 메인 메뉴를 호출하고자 하는 경우에는 조작부(110)의 좌측 단부를 손으로 가린 상태에서 그대로 패드(111)를 가압하여 메인 메뉴를 바로 호출할 수도 있다. 이 경우, 압력 감지부(113)가 이를 감지하고, 제어신호 생성부(122)는 압력 감지부(113)의 출력 신호가 조작부(110)의 가압을 나타내면 기준 시간까지 기다리지 않고 바로 메인 메뉴를 호출하기 위한 제어 신호를 생성하여 AVN 제어부(230)에 전송할 수 있다. 또는, 전술한 바와 같이 조작부(110)가 압력 감지부(113)를 포함하지 않는 경우에는, 물체 감지부(112)의 출력 신호를 이용하여 조작부(111)의 가압 여부를 판단할 수도 있다.When the user desires to call the main menu immediately without waiting until the reference time, the user can directly call the main menu by pressing the pad 111 while keeping the left end of the operation unit 110 covered with the hand. In this case, the pressure sensing unit 113 senses this, and when the output signal of the pressure sensing unit 113 indicates the pressing of the operation unit 110, the control signal generating unit 122 calls the main menu immediately without waiting until the reference time And transmits the generated control signal to the AVN control unit 230. Alternatively, when the operation unit 110 does not include the pressure sensing unit 113 as described above, it may be determined whether the operation unit 111 is pressed by using the output signal of the object sensing unit 112.

도 16은 사용자가 조작부를 조작하는 다른 예시를 나타낸 도면이고, 도 17은 사용자가 도 16에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 사용자 영상의 일 예시를 나타낸 도면이다.FIG. 16 is a view showing another example in which a user operates the operation unit, and FIG. 17 is a view showing an example of a user image formed by an output signal of the object detection unit when the user operates the operation unit as shown in FIG. 16 .

도 16에 도시된 바와 같이, 사용자의 손(H)이 조작부(110)의 우측 단부를 가리는 방식으로도 제어 명령이 입력될 수 있다. 물체 감지부(112)가 전술한 바와 같이 광전형 근접 센서를 포함하는 경우에는 물체 감지부(112)를 구성하는 복수의 포토 트랜지스터(112b)에서 출력되는 각각의 출력 신호가 하나의 영상을 구성하는 픽셀값이 될 수 있다. 16, a control command can also be input in such a manner that the user's hand H covers the right end of the operation unit 110. [ When the object detection unit 112 includes the photovoltaic proximity sensor as described above, the respective output signals output from the plurality of phototransistors 112b constituting the object detection unit 112 constitute one image Pixel value.

물체 감지부(112)를 구성하는 포토 트랜지스터 어레이가 상기 도 6에 도시된 바와 같은 회로 구성을 갖는 경우에는 포토 트랜지스터의 컬렉터 전압이 출력이 되므로 포토 트랜지스터에 입사되는 LED 반사 광의 양이 많을수록 포토 트랜지스터 어레이의 출력이 낮아지고, 포토 트랜지스터에 입사되는 LED 반사 광의 양이 적을수록 포토 트랜지스터 어레이의 출력이 높아진다. 6, the collector voltage of the phototransistor becomes an output, so that the greater the amount of the LED reflected light incident on the phototransistor, the more the phototransistor array < RTI ID = 0.0 > The output of the phototransistor array becomes higher as the amount of LED reflected light incident on the phototransistor becomes smaller.

포토 트랜지스터의 출력이 최대일 때의 픽셀이 흰색을 나타내도록 하고, 포토 트랜지스터의 출력이 최소일 때의 픽셀이 검은색을 나타내도록 하면, 사용자가 도 16에 도시된 바와 같이 조작부(110)를 조작하였을 때 도 17에 도시된 바와 같은 사용자 영상(I)이 획득될 수 있다When the pixel at the maximum output of the phototransistor is white and the pixel at the minimum output of the phototransistor is black, when the user operates the operation unit 110 as shown in Fig. 16 The user image I as shown in Fig. 17 can be obtained

제어신호 생성부(122)는 사용자 영상(I)에 영상 인식 알고리즘을 적용하여 조작부(110) 상부에 근접한 물체가 손인지 여부를 판단할 수 있다. 사용자 영상(I)에 나타난 물체가 사용자의 손이고, 사용자의 손이 조작부(110)의 우측 단부를 가리고 있으면, 그에 대응되는 제어신호를 생성할 수 있다.The control signal generation unit 122 may determine whether an object close to the upper portion of the operation unit 110 is a hand by applying an image recognition algorithm to the user image I. [ If the object shown in the user image I is the user's hand and the user's hand covers the right end of the operation unit 110, a corresponding control signal can be generated.

또한, 상기 도 12 및 도 16의 예시에 있어서, 다른 제어 명령을 입력하기 위한 조작이나 제어 명령과 무관한 사용자의 동작과 구별하기 위해, 사용자의 손이 조작부(110)의 좌측 또는 우측 단부의 기준 면적을 가리고 있는 경우에 한하여, 그에 대응되는 제어신호를 생성할 수도 있는바, 기준 면적은 일정 범위를 갖도록 미리 설정될 수 있다.12 and 16, in order to distinguish the operation for inputting another control command or the operation of the user irrespective of the control command, when the user's hand moves to the reference of the left or right end of the operation unit 110 Only when the area is covered, a control signal corresponding thereto can be generated, so that the reference area can be set in advance to have a certain range.

더 나아가, 영상에 나타난 물체가 손인 경우에는 손가락의 배열 순서를 이용하여 해당 손이 운전자의 손인지 또는 보조석(22)에 탑승한 동승자의 손인지 여부를 판단할 수 있다. 이 판단 결과는 차량용 제어 장치(100)의 조작 권한에 대한 락(lock) 기능을 수행하는데 사용될 수 있는바, 차량용 제어 장치(100)의 조작 권한을 운전자에게만 부여하는 락 기능이 설정된 경우, 제어신호 생성부(122)는 사용자 영상(I)에 나타난 손이 운전자의 손인 경우에만 제어신호를 생성하여 AVN 장치(200)로 전송할 수 있다.Further, when the object shown in the image is a hand, it is possible to determine whether the hand is the hand of the driver or the passenger of the passenger boarding the assistant seat 22 by using the arrangement order of the fingers. This determination result can be used to perform a lock function for the operation authority of the on-vehicle control device 100. When the lock function that only gives the operation authority of the on-vehicle control device 100 to the driver is set, The generating unit 122 may generate a control signal and transmit the control signal to the AVN apparatus 200 only when the hand displayed in the user image I is the hands of the driver.

도 18은 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 다른 예시를 나타낸 도면이며, 도 19는 사용자의 조작 시간 대비 기준 시간의 비율을 시각적으로 표시해주는 다른 예시를 나타낸 도면이다. FIG. 18 is a view showing another example of a screen displayed on the display of the AVN apparatus according to a user operation, and FIG. 19 is a diagram showing another example of visually displaying the ratio of the user's operation time to the reference time.

일 예로, 상기 도 16에서 설명한 조작 방식은 도 18에 도시된 바와 같이 컨텍스트(context) 메뉴를 불러오기 위한 핫 키 기능에 맵핑될 수 있다. 도 18의 예시에서는 컨텍스트 메뉴 목록(213c)에 USB, 블루투스(bluetooth) 등의 항목이 표시되었으나, 이는 일 예시에 불과하며 컨텍스트 메뉴 목록(213c)에는 도 18에 도시된 항목 외에 다른 다양한 항목들이 표시되는 것도 가능하다. For example, the operation method described with reference to FIG. 16 may be mapped to a hot key function for invoking a context menu as shown in FIG. In the example of FIG. 18, items such as USB and Bluetooth are displayed in the context menu list 213c. However, this is only an example, and various items other than the items shown in FIG. 18 are displayed in the context menu list 213c .

한편, 이 경우에도 제어 명령을 위한 조작 이외의 동작과의 구별을 위해 사용자의 손(H)이 조작부(110)의 우측 단부를 기준 시간 이상 가리고 있는 경우에만 제어신호 생성부(122)가 컨텍스트 메뉴를 호출하기 위한 제어 신호를 생성할 수 있다. 이를 위해, 기준 시간이 미리 설정될 수 있고, 사용자에게 기준 시간에 도달하기까지 얼마나 더 남았는지에 관한 정보를 제공할 수 있다. 여기서, 기준 시간은 메인 메뉴를 호출하는데 적용되는 기준 시간과 동일하게 설정될 수도 있고, 다르게 설정될 수도 있다.In this case, too, the control signal generator 122 generates the context menu 122 only when the user's hand H is touching the right end of the operation unit 110 for more than the reference time for distinguishing the operation other than the operation for the control command. Lt; RTI ID = 0.0 > a < / RTI > To this end, the reference time can be set in advance, and the user can be provided with information about how much time remains before reaching the reference time. Here, the reference time may be set to be the same as or different from the reference time used for calling the main menu.

예를 들어, 도 19에 도시된 바와 같이, 사용자의 손이 조작부(110)의 우측 단부를 가리고 있는 시간 대비 기준 시간의 비율을 나타내는 기준 바(bar)(213d)를 디스플레이(210)에 표시할 수 있다. 기준 바(213d)의 높이는 시간에 따라 변할 수 있으며, 초기에 디스플레이(210)의 하단에서부터 시작하여 높이가 점점 높아질 수 있다. 그리고, 기준 시간에 도달하면 기준 바(213d)의 높이가 디스플레이(210)의 상단까지 도달하고 도 18에 도시된 바와 같이 컨텍스트 메뉴 목록(213c)이 표시될 수 있다.For example, as shown in Fig. 19, a reference bar 213d indicating a ratio of a time to a reference time when the user's hand covers the right end of the operation unit 110 is displayed on the display 210 . The height of the reference bar 213d may vary with time and may initially increase in height starting from the bottom of the display 210. [ When the reference time is reached, the height of the reference bar 213d reaches the upper end of the display 210, and the context menu list 213c can be displayed as shown in FIG.

사용자는 도 19에 도시된 기준 바(213d)를 보고 손을 얼마나 더 가리고 있어야 하는지 파악할 수 있으며, 컨텍스트 메뉴를 호출하지 않고자 하는 경우에는 기준 시간에 도달하기 전에 조작부(110)를 가리는 동작을 중단하여 컨텍스트 메뉴 호출을 위한 제어 명령을 취소할 수 있다. The user can grasp how much the user should hide his / her hands by looking at the reference bar 213d shown in FIG. 19. If the user does not want to call the context menu, the user can stop the operation of covering the operation unit 110 before reaching the reference time To cancel the control command for the context menu call.

또한, 기준 시간까지 기다리지 않고 바로 컨텍스트 메뉴를 호출하고자 하는 경우에는 조작부(110)의 우측 단부를 손으로 가린 상태에서 그대로 패드(111)를 가압하여 컨텍스트 메뉴를 바로 호출할 수도 있다. 이 경우, 압력 감지부(113)가 이를 감지하고, 제어신호 생성부(122)는 압력 감지부(113)의 출력 신호가 조작부(110) 우측 단부의 가압을 나타내면 기준 시간까지 기다리지 않고 바로 컨텍스트 메뉴를 호출하기 위한 제어 신호를 생성하여 AVN 제어부(230)에 전송할 수 있다. 또한, 전술한 바와 같이 조작부(110)가 압력 감지부(113)를 포함하지 않는 경우에는, 물체 감지부(112)의 출력 신호를 이용하여 조작부(111)의 가압 여부를 판단할 수도 있다.In addition, when the user desires to call the context menu immediately without waiting until the reference time, the user can directly call the context menu by pressing the pad 111 while keeping the right end of the operation unit 110 covered with the hand. In this case, the pressure sensing unit 113 senses this, and when the output signal of the pressure sensing unit 113 indicates the pressing of the right end of the operation unit 110, And transmits the generated control signal to the AVN control unit 230. [0050] FIG. When the operation unit 110 does not include the pressure sensing unit 113 as described above, it is possible to determine whether the operation unit 111 is pressed by using the output signal of the object sensing unit 112. [

도 20은 사용자가 조작부를 조작하는 또 다른 예시를 나타낸 도면이고, 도 21은 사용자가 도 20에 도시된 바와 같이 조작부를 조작하였을 때 물체 감지부의 출력 신호가 형성하는 영상의 일 예시를 나타낸 도면이다.20 is a view showing another example in which a user operates the operation unit, and FIG. 21 is a view showing an example of an image formed by an output signal of the object detection unit when the user operates the operation unit as shown in FIG. 20 .

도 20에 도시된 바와 같이, 사용자의 손이 조작부(110)의 중앙부를 가리는 방식으로도 제어 명령이 입력될 수 있다. 물체 감지부(112)가 광전형 근접 센서를 포함하는 경우에는 전술한 바와 같이 물체 감지부(112)를 구성하는 복수의 포토 트랜지스터(112b)에서 출력되는 각각의 출력 신호가 하나의 영상을 구성하는 픽셀값이 될 수 있다. As shown in FIG. 20, a control command can also be input in a manner in which the user's hand covers the central portion of the operation unit 110. FIG. When the object detecting unit 112 includes a photo proximity proximity sensor, as described above, the respective output signals output from the plurality of phototransistors 112b constituting the object detecting unit 112 constitute one image Pixel value.

물체 감지부(112)를 구성하는 포토 트랜지스터 어레이가 도 5에 도시된 바와 같은 회로 구성을 갖는 경우에는 포토 트랜지스터의 컬렉터 전압이 출력이 되므로 포토 트랜지스터에 입사되는 LED 반사 광의 양이 많을수록 포토 트랜지스터 어레이의 출력이 낮아지고, 포토 트랜지스터에 입사되는 LED 반사 광의 양이 적을수록 포토 트랜지스터 어레이의 출력이 커진다. When the photodiode array constituting the object detection unit 112 has a circuit configuration as shown in FIG. 5, since the collector voltage of the photodiode is output, the greater the amount of the LED reflected light incident on the photodiode transistor, As the output becomes lower and the amount of LED reflected light incident on the phototransistor becomes smaller, the output of the phototransistor array becomes larger.

포토 트랜지스터의 출력이 최대일 때의 픽셀이 흰색을 나타내도록 하고, 포토 트랜지스터의 출력이 최소일 때의 픽셀이 검은색을 나타내도록 하면, 사용자가 도 20에 도시된 바와 같이 조작부를 조작하였을 때 도 21에 도시된 바와 같은 사용자 영상(I)이 획득될 수 있다.When the pixel at the maximum output of the phototransistor is white and the pixel at the minimum output of the phototransistor is black, when the user manipulates the manipulating portion as shown in Fig. 20 A user image I as shown in Fig. 21 can be obtained.

도 22 및 도 23은 사용자의 조작에 따라 AVN 장치의 디스플레이에 표시되는 화면의 또 다른 예시를 나타낸 도면이다.22 and 23 are diagrams showing still another example of a screen displayed on the display of the AVN apparatus according to a user operation.

일 예로, 상기 도 20에서 설명한 조작 방식은 디스플레이(210)를 오프시키기 위한 핫 키 기능에 맵핑될 수 있다. 이 경우, 사용자 영상(I)에 나타난 사용자의 손이 조작부(110)의 중앙부를 가리고 있으면, 제어신호 생성부(122)는 디스플레이(210)를 오프시키기 위한 제어 신호를 생성하여 AVN 장치(200)로 전송한다. For example, the operation method described with reference to FIG. 20 may be mapped to a hot key function for turning off the display 210. The control signal generating unit 122 generates a control signal for turning off the display 210 and outputs the control signal to the AVN apparatus 200. In this case, Lt; / RTI >

한편, 디스플레이(210)가 오프되더라도 실행 중이던 기능은 계속 실행될 수 있다. 예를 들어, 오디오 기능이 실행 중이던 경우에는 스피커(220)를 통해 출력되는 음악이 디스플레이(210)의 오프 이후에도 계속 출력될 수 있고, 내비게이션 기능이 실행 중이던 경우에는 스피커(220)를 통해 출력되는 경로 안내 음성이 디스플레이(210)의 오프 이후에도 계속 출력될 수 있다.On the other hand, even if the display 210 is turned off, the function being executed can be continuously executed. For example, when the audio function is being executed, the music output through the speaker 220 can be continuously output even after the display 210 is turned off. In the case where the navigation function is being executed, The guidance voice can be continuously output even after the display 210 is turned off.

또한, 제어신호 생성부(122)는 다른 제어 명령을 입력하기 위한 조작이나 제어 명령과 무관한 사용자의 동작과 구별하기 위해, 사용자의 손이 조작부(110)의 중앙부의 기준 면적 이상을 가리고 있는 경우에 한하여, 디스플레이(210)를 오프시킬 수 있고, 더 나아가 기준 시간 이상 가리고 있는 경우에 한하여 디스플레이(210)를 오프시킬 수도 있다. 여기서, 기준 시간은 메인 메뉴를 호출하는데 적용되는 기준 시간 또는 컨텍스트 메뉴를 호출하는데 적용되는 기준 시간과 동일하게 설정될 수도 있고 다르게 설정될 수도 있다.When the user's hand covers the reference area of the central portion of the operation unit 110 in order to distinguish the operation for inputting another control command or the operation of the user irrespective of the control command The display 210 may be turned off, and further, the display 210 may be turned off only when the reference time is exceeded. Here, the reference time may be set equal to or different from the reference time applied to call up the main menu or the reference time applied to call up the context menu.

또는, 기준 시간까지 도달하지 않더라도 사용자의 손(H)이 조작부(110)의 중앙부를 가린 상태에서 그대로 패드(111)를 가압하면 바로 디스플레이(210)를 오프시키는 것도 가능하다. 이 경우, 압력 감지부(113)가 이를 감지하고, 제어신호 생성부(122)는 압력 감지부(113)의 출력 신호가 조작부(110) 중앙부의 가압을 나타내면 기준 시간까지 기다리지 않고 바로 디스플레이(210)를 오프시키기 위한 제어 신호를 생성하여 AVN 제어부(230)에 전송할 수 있다. 또한, 전술한 바와 같이 조작부(110)가 압력 감지부(113)를 포함하지 않는 경우에는, 물체 감지부(112)의 출력 신호를 이용하여 조작부(111)의 가압 여부를 판단할 수도 있다.Alternatively, even if the user does not reach the reference time, the display 210 may be turned off as soon as the user presses the pad 111 while keeping the central portion of the operation unit 110 covered. In this case, the pressure sensing unit 113 senses this, and when the output signal of the pressure sensing unit 113 indicates the pressing of the central portion of the operation unit 110, the control signal generating unit 122 immediately displays the display 210 And transmits the control signal to the AVN control unit 230. [0051] FIG. When the operation unit 110 does not include the pressure sensing unit 113 as described above, it is possible to determine whether the operation unit 111 is pressed by using the output signal of the object sensing unit 112. [

또는, 상기 도 20에서 설명한 조작 방식이 AVN 장치(200)의 전원을 오프시키기 위한 핫 키 기능에 맵핑되는 것도 가능하다. 이 경우, 물체 감지부(112)의 출력 신호 즉, 사용자 영상(I)에 나타난 사용자의 손이 조작부(110)의 중앙부를 가리고 있으면, 제어신호 생성부(122)가 AVN 장치(200)의 전원을 오프시키기 위한 제어 신호를 생성하여 AVN 장치(200)로 전송한다. AVN 장치(200)의 전원이 오프되면, 기존에 실행 중이던 기능도 모두 종료된다.Alternatively, the operation method described with reference to FIG. 20 may be mapped to the hot key function for turning off the AVN apparatus 200. In this case, if the output signal of the object detection unit 112, that is, the user's hand shown in the user image I covers the central part of the operation unit 110, the control signal generation unit 122 generates a control signal And transmits the generated control signal to the AVN apparatus 200. [0050] When the power of the AVN apparatus 200 is turned off, all functions that have been executed are also ended.

또는, 사용자의 손(H)이 조작부(110)의 중앙부를 가리는 경우에는 도 22에 도시된 바와 같이 디스플레이(210)를 오프시키고, 사용자의 손(H)이 조작부(110)의 중앙부를 가압하면 도 23에 도시된 바와 같이 AVN 장치(200)의 전원을 오프시키는 것도 가능하다.Alternatively, when the user's hand H covers the central portion of the operation portion 110, the display 210 is turned off as shown in FIG. 22, and when the user's hand H presses the central portion of the operation portion 110 It is also possible to turn off the power of the AVN apparatus 200 as shown in FIG.

한편, 차량용 제어 장치(100) 및 차량(10)의 실시예는 상기 도 11 내지 도 23을 참조하여 설명한 예시에 한정되지 않는다. 구체적으로, 사용자가 상기 도 11의 예시와 같이 조작부(110)를 조작하여 상기 도 12의 예시와 같은 사용자 영상(I)이 획득되었을 때, 메인 메뉴가 호출되지 않고 컨텍스트 메뉴의 호출, 디스플레이(210) 오프나 전원 오프 등 다른 핫 키 기능이 실행되는 것이 가능하며, 상기 도 16의 예시와 같이 조작부(110)를 조작하여 상기 도 17의 예시와 같은 사용자 영상이 획득되었을 때에도 마찬가지로 컨텍스트 메뉴가 호출되지 않고 메인 메뉴의 호출, 디스플레이(210) 오프나 전원 오프 등 다른 핫 키 기능이 실행되는 것이 가능하다. 상기 도 20의 예시와 같이 조작부(110)를 조작하여 상기 도 21의 예시와 같은 사용자 영상(I)이 획득되었을 때에도 디스플레이(210)가 오프되거나 전원이 오프되지 않고, 다른 핫 키 기능이 실행되는 것도 가능하다. On the other hand, the embodiments of the vehicular controller 100 and the vehicle 10 are not limited to the examples described with reference to Figs. 11 to 23 above. 12, when the user operates the operation unit 110 as in the example of FIG. 11 to acquire the user image I as in the example of FIG. 12, the main menu is not called and the call of the context menu 210 ), And other hot key functions such as power off or power off can be performed. When the user image as shown in the example of FIG. 17 is obtained by operating the operation unit 110 as in the example of FIG. 16, It is possible for other hot key functions to be performed, such as calling the main menu, turning off the display 210, or turning off the power. The display 210 is turned off or the power is not turned off even when the user image I as shown in the example of FIG. 21 is obtained by operating the operation unit 110 as in the example of FIG. 20, and another hot key function is executed It is also possible.

또한, 핫 키 기능을 실행하기 위한 조작 방식이 조작부(110)의 좌측 및 우측 단부와 중앙부를 손으로 가리는 방식에 한정되는 것은 아니며, 좌측 단부나 우측 단부 또는 중앙부가 아니더라도 조작부(110)의 다른 영역을 가리는 방식이 핫 키 기능을 실행하기 위한 조작 방식으로 설정될 수 있다. 예를 들어, 조작부(110)의 좌측 단부와 우측 단부를 각각 위아래로 분리한 네 개의 코너(corner)에 해당하는 영역에 각각 다른 핫 키 기능을 맵핑하고, 네 개의 코너 중 하나가 사용자의 손에 의해 가려지면 맵핑된 핫 키 기능을 실행시킬 수 있다.The operation mode for performing the hot key function is not limited to the manner in which the left and right end portions and the center portion of the operation section 110 are covered with the hand, and the operation mode is not limited to the left end, right end, May be set as an operation mode for executing the hot key function. For example, a different hot key function may be mapped to an area corresponding to four corners where the left end and the right end of the operation unit 110 are separated upward and downward, respectively, and one of the four corners is mapped to the user's hand It is possible to execute the mapped hot key function.

상술한 바와 같이 조작부(110)의 미리 설정된 영역을 손으로 덮는 동작은 운전자가 주행 중에 수행하기에도 부담이 없는 간단하고 용이한 동작이기 때문에 이러한 동작이 핫 키 기능을 실행하기 위한 조작 방식으로 설정되면, 운전자는 운전에 집중하고 자세를 유지하면서 원하는 제어 명령을 입력할 수 있다.As described above, the operation of manually covering the predetermined area of the operation unit 110 is a simple and easy operation that is not burdensome for the driver to perform while driving. Therefore, when such an operation is set as an operation mode for executing the hot key function , The driver can input a desired control command while focusing on driving and maintaining the posture.

조작부(110)를 조작하여 입력할 수 있는 제어 명령은 핫 키 기능을 실행하기 위한 것뿐만 아니라, 디스플레이(210)에 표시된 각종 메뉴를 선택하기 위한 것일 수도 있다. 이하, 구체적으로 설명한다.The control commands that can be input by operating the operation unit 110 may be for selecting various menus displayed on the display 210 as well as for executing the hot key function. Hereinafter, this will be described in detail.

도 24는 손가락 위치에 대응되는 포인팅 객체를 표시하는 디스플레이를 나타낸 도면이다.24 is a diagram illustrating a display that displays a pointing object corresponding to a finger position;

도 24를 참조하면, 디스플레이(210)는 조작부(110)와 근접한 손가락(F)의 위치와 대응되는 위치에 포인팅 객체(213e)를 표시할 수 있다. 이를 위해, 제어신호 생성부(122)는 조작부(110)에 근접한 손가락(F)의 위치를 연산한다. 여기서, 손가락(F)의 위치는 조작부(110)를 위에서 내려다본 2차원 평면 상에서의 위치이다. Referring to FIG. 24, the display 210 may display a pointing object 213e at a position corresponding to the position of the finger F close to the operation unit 110. FIG. To this end, the control signal generation unit 122 calculates the position of the finger F close to the operation unit 110. [ Here, the position of the finger F is a position on the two-dimensional plane viewed from above the operation unit 110.

제어신호 생성부(122)는 물체 감지부(112)의 출력 신호에 기초하여 손가락(F)의 위치를 연산할 수 있다. 앞서, 물체 감지부(112)의 출력 신호에 의해 사용자 영상(I)을 획득할 수 있다고 하였다. 예를 들어, 영상이 nxm개의 픽셀 어레이로 이루어진 경우, 임의의 픽셀 값 P(i, j)(1≤i≤n인 정수, 1≤j≤m인 정수)는 물체 감지부(112)의 (i, j) 번째 LED를 점등했을 때 포토 트랜지스터 어레이의 출력 신호에 대응되는 값을 갖는다. P(i, j)는 (i, j) 번째 LED에서 조사된 광을 반사시키는 물체가 없을 경우에 최대값을 갖고, 광을 반사시키는 물체가 (i, j) 번째 LED와 가장 근접하였을 때 최소값을 갖는다. 여기서, 조작부(110) 위에 위치하여 광을 반사시키는 물체는 사용자의 손가락인 것으로 할 수 있다. The control signal generation unit 122 can calculate the position of the finger F based on the output signal of the object detection unit 112. [ The user image I can be obtained by the output signal of the object detection unit 112. [ For example, when the image is composed of nxm pixel arrays, an arbitrary pixel value P (i, j) (an integer of 1? I? N and an integer of 1? J? M) i, j) th LED is turned on, the value corresponding to the output signal of the phototransistor array. P (i, j) has a maximum value when there is no object that reflects light irradiated from the (i, j) th LED, and when the object that reflects light is closest to the (i, Respectively. Here, the object positioned on the operation unit 110 and reflecting light may be a user's finger.

LED 및 포토 트랜지스터의 개별 소자 차이와 물체 감지부(112) 내에서 LED와 포토 트랜지스터의 분포 차이로 인해 P(i, j)가 모든 (i, j)에 대하여 동일한 최대값과 최소값을 갖지는 않는다. 따라서, 실험 또는 통계를 이용하여 P(i, j)의 최대값 PM(i, j)과 최소값 Pm(i, j)을 결정하고, 이들 값을 이용하여 아래 [수학식 1]에 따라 정규화(normalization)된 영상 g(i, j)을 얻을 수 있다.P (i, j) does not have the same maximum and minimum values for all (i, j) due to the difference between the individual elements of the LED and the phototransistor and the distribution difference between the LED and the phototransistor in the object detection unit 112 . Therefore, the maximum value P M (i, j) and the minimum value P m (i, j) of P (i, j) are determined using experiments or statistics and these values are used to calculate The normalized image g (i, j) can be obtained.

[수학식 1][Equation 1]

Figure 112015119456411-pat00001
Figure 112015119456411-pat00001

여기서, g(i, j)는 0과 1 사이의 값을 갖는다. 그리고, 제어신호 생성부(122)는 정규화된 영상의 각 픽셀 값을 화상 처리에 필요한 레벨로 변환하고, 변환된 값의 무게 중심 및 편평도(ellipticity)를 연산한다. 연산된 무게 중심 및 편평도를 이용하여 영상의 좌표를 보정하고, 보정된 좌표값을 적응형 저역 통과 필터(LPF)를 통해 필터링하여 물체의 평면상 위치를 연산할 수 있다. Here, g (i, j) has a value between 0 and 1. Then, the control signal generator 122 converts each pixel value of the normalized image into a level necessary for image processing, and calculates the center of gravity and the ellipticity of the converted value. The coordinates of the image can be corrected using the computed center of gravity and the flatness, and the position of the object on the plane can be calculated by filtering the corrected coordinate values through the adaptive low-pass filter (LPF).

구체적으로, 정규화된 영상 g(i, j)를 단위 구간 간의 함수 h(g)를 이용하여 변환한다. 함수 h(g)는 화상 처리에서 사용하는 감마 보정(gamma correction)과 같이 h(g) = gγ(γ>0)의 형태를 가질 수 있으나, 이에 한정되는 것은 아니고 이 외에도 다양한 형태를 가질 수 있다. Specifically, the normalized image g (i, j) is transformed using the function h (g) between unit intervals. The function h (g) may have a form of h (g) = g ? (?> 0) as in gamma correction used in image processing, but it is not limited thereto and may have various forms have.

정규화된 영상에 함수 h(g)를 적용하는 것은 사용자 영상(I)에서 손가락(F)의 끝부분에 해당하는 값을 강조하여 결과적으로 얻어질 손가락(F)의 위치가 손가락(F)의 끝부분에 가깝게 하도록 하기 위함이다. The application of the function h (g) to the normalized image emphasizes the value corresponding to the end of the finger F in the user image I and the position of the finger F to be obtained as a result is the end of the finger F To be close to the part.

정규화된 영상 g(i, j)에 함수 h(g)를 적용하여 변환된 영상을 h(i, j)라 하고, 조작부(110)의 왼쪽 위 꼭지점을 원점으로 하고 오른쪽 방향을 x축, 아래 방향을 y축이라 하면, 조작부(110) 상의 임의의 한 점의 좌표를 (x, y)로 나타낼 수 있다. 그리고, 아래 [수학식 2] 및 [수학식 3]에 따라 h(i, j)의 무게중심 좌표 (xc, yc)를 획득할 수 있다. The transformed image is obtained by applying the function h (g) to the normalized image g (i, j), the left upper corner point of the operation unit 110 as the origin, the right direction as the x axis, If the direction is the y-axis, the coordinates of an arbitrary point on the operation unit 110 can be represented by (x, y). The center of gravity coordinates (x c , y c ) of h (i, j) can be obtained according to the following equations (2) and (3)

[수학식 2]&Quot; (2) "

Figure 112015119456411-pat00002
Figure 112015119456411-pat00002

[수학식 3]&Quot; (3) "

Figure 112015119456411-pat00003
Figure 112015119456411-pat00003

조작부(110)를 조작하는 사용자의 손가락(F)이 엄지 손가락인 경우에는, 손가락의 구조적 특성 상 사용자 영상(I)에서는 손가락이 대각선 방향으로 길게 나타나게 된다. 이 경우, 앞서 설명한 바와 같이 무게 중심을 이용하여 손가락(F)의 좌표를 결정하면 결과적으로 얻어지는 좌표는 엄지 손가락의 끝부분에 해당하지 않고 손바닥 쪽으로 상당히 이동된 위치에 해당하는 값을 가질 수 있다. 따라서, 엄지 손가락의 구조적인 특징에 의해 나타나는 오차를 보정하기 위해 무게중심 좌표 (xc, yc)를 보정할 수 있다.When the finger F of the user operating the operation unit 110 is a thumb, the finger of the user image I is long in the diagonal direction due to the structural characteristics of the finger. In this case, if the coordinates of the finger F are determined using the center of gravity as described above, the resulting coordinates do not correspond to the end portion of the thumb, but may have a value corresponding to a position shifted considerably toward the palm. Therefore, the center-of-gravity coordinates (x c , y c ) can be corrected in order to correct the error represented by the structural characteristics of the thumb.

먼저, 엄지 손가락의 길이에 비례하는 여러 가지 가능한 값의 하나인 e를 아래 [수학식 4]에 따라 정의할 수 있다.First, one of several possible values proportional to the length of the thumb, e, can be defined according to Equation (4) below.

[수학식 4]&Quot; (4) "

Figure 112015119456411-pat00004
Figure 112015119456411-pat00004

상기 [수학식 4]에 따라 연산되는 e의 값은 영상에 나타나는 물체가 원형이면 0, 내려오는 대각선 방향으로 길어지면 양수, 올라가는 대각선 방향으로 길어지면 음수가 된다. 사용자가 운전자이고 조작부(110)를 오른손 엄지 손가락으로 조작하게 되면 영상에 나타나는 물체는 내려오는 대각선 방향으로 길게 나타나고 이 때 e는 양의 큰 값을 갖는다. The value of e calculated according to Equation (4) becomes 0 if the object appearing in the image is a circle, 0 if it is lengthened in the descending diagonal direction, and becomes negative if it is lengthened in the diagonal direction. When the user is a driver and manipulates the operation unit 110 with his right thumb, the object appearing in the image appears long in the descending diagonal direction, where e has a large positive value.

반대로, 사용자가 보조석(22)에 탑승한 동승자이고 조작부(110)를 왼손 엄지 손가락으로 조작하게 되면 영상에 나타나는 물체는 올라가는 대각선 방향으로 길게 나타나고 이 때 e는 음의 큰 값을 갖는다. 이러한 연산 결과를 반영하여 아래 [수학식 5]과 [수학식 6]에 따라 무게중심 좌표를 보정할 수 있다. On the other hand, when the user is a passenger boarded on the assistant seat 22 and manipulates the operation unit 110 with the left thumb, the object appearing in the image is displayed in a diagonal direction rising up, where e has a large negative value. The center-of-gravity coordinates can be corrected according to the following equations (5) and (6) by reflecting the calculation result.

[수학식 5]&Quot; (5) "

Figure 112015119456411-pat00005
Figure 112015119456411-pat00005

[수학식 6]&Quot; (6) "

Figure 112015119456411-pat00006
Figure 112015119456411-pat00006

여기서, β는 보정의 정도를 나타내는 양의 실수이고, 실험에 의하여 결정될 수 있다. 다만, 조작부(110)를 조작하는 사용자의 손가락(F)이 엄지 손가락이 아닌 경우에는 무게중심 좌표 (xc, yc)를 보정하지 않아도 무방하다.Here,? Is a positive real number indicating the degree of correction and can be determined by experiments. However, when the finger F of the user operating the operation unit 110 is not a thumb, the coordinates of the center of gravity (x c , y c ) need not be corrected.

그리고, 제어신호 생성부(122)는 상기 [수학식 1]에 따라 정규화된 영상 g(i, j)을 이용하여 패드(111) 평면 또는 물체 감지부(112)로부터의 손가락(F)의 높이 또는 패드(111) 평면 또는 물체 감지부(112)와 손가락(F)사이의 거리(z)를 추정할 수 있다. 이 때, 아래 [수학식 7]을 이용할 수 있다.The control signal generating unit 122 generates a control signal for controlling the height of the finger F from the pad 111 plane or the object sensing unit 112 using the image g (i, j) normalized according to Equation (1) Or the distance (z) between the pad 111 plane or the object sensing portion 112 and the finger F can be estimated. In this case, Equation (7) below can be used.

[수학식 7]&Quot; (7) "

Figure 112015119456411-pat00007
Figure 112015119456411-pat00007

앞서 정의한 g(i, j)는 0에서 1 사이의 값을 가지며, 손가락(F)이 패드(111)에 접촉하여 (i, j) 번째의 LED 위에서 최대 반사가 일어날 때 최대값 1을 갖게 된다. 따라서, z는 0에서 1 사이의 값을 갖는다. 즉, 손가락(F)이 패드(111)에 접촉하면 z는 0에 가까운 값을 갖게 되고, 손가락(F)이 패드(111)로부터 충분히 멀어지면 z는 1에 가까운 값을 갖게 되므로, 패드(111)와 손가락(F)이 근접한 정도를 근사적으로 나타낼 수 있다. 단, 이러한 값은 정확히 물리적 거리에 비례하는 값을 나타내는 것은 아닐 수 있다.The previously defined g (i, j) has a value between 0 and 1 and has a maximum value 1 when the finger F touches the pad 111 and the maximum reflection occurs on the (i, j) th LED . Therefore, z has a value between 0 and 1. That is, when the finger F touches the pad 111, z has a value close to 0, and when the finger F is far enough away from the pad 111, z has a value close to 1, ) And the finger F can be approximated to be close to each other. However, these values may not necessarily represent a value proportional to the physical distance.

그리고, 높이(z)의 변화율을 측정하여 적응형 저역 통과 필터(LPF)의 파라미터를 결정할 수 있다. 즉, 높이(z)를 저역 통과 필터를 통해 필터링하고, 필터링된 값을 차분하여 변화율을 측정하고, 이를 이용하여 적응형 저역 통과 필터의 파라미터를 결정하는 것이다. Then, the parameter of the adaptive low-pass filter (LPF) can be determined by measuring the rate of change of the height z. That is, the height z is filtered through a low-pass filter, and the rate of change is measured by differentiating the filtered value, and the parameters of the adaptive low-pass filter are determined using the measured rate of change.

적응형 저역 통과 필터를 적용하는 것은, 손의 떨림과 노이즈에 대응하기 위한 것으로서, 단순히 저역 통과 필터링을 하게 되면 손의 떨림은 완화가 되지만 동시에 시간적 지연이 발생하여 반응성이 저하될 수 있다. 따라서, 저역 통과 필터의 강도를 손가락(F)의 움직임의 크기에 따라 적응적으로 변화시킬 필요가 있다. Applying the adaptive low-pass filter is intended to cope with hand tremors and noise. If the low-pass filtering is merely performed, the hand trembling is alleviated, but at the same time, the delay may occur and the reactivity may be lowered. Therefore, it is necessary to change the strength of the low-pass filter adaptively according to the magnitude of the movement of the finger F.

구체적으로, (xc, yc) 또는 (x'c, y'c)의 변화가 클 경우에는 반응성의 유지가 떨림의 완화보다 더 중요하게 되므로 저역 통과 필터링을 약하게 하고, (xc, yc) 또는 (x'c, y'c)의 변화가 적을 경우에는 반응성보다 떨림의 완화가 더 중요하므로 저역 통과 필터링을 더 강하게 한다. Specifically, (x c, y c) or (x 'c, y' c ) is because the maintenance of the reactivity as more important than the relief of tremor and weaken the low pass filtering, (x c, y for a large change When the change of ( c ') or (x' c , y ' c ) is small, the relaxation of the tremor is more important than the reactivity.

또한, 손가락(F)이 패드(111)를 터치하는 순간에 손가락(F)의 위치 추정치(x, y)를 일정하게 하여 포인팅을 안정화할 필요가 있다. 이를 위해, z의 변화율을 측정하고, z가 급격히 감소하는 순간에는 저역 통과 필터링의 강도를 크게 하여 (x, y)의 변화를 적게 할 수 있다. 정리하면, (xc, yc) 또는 (x'c, y'c)의 분산을 측정하고, z의 변화율을 측정하여 저역 통과 필터의 파라미터를 결정할 수 있다. 먼저, 아래 [수학식 8]에 따라 저역 통과 필터를 이용하여 z를 필터링한다.It is also necessary to stabilize the pointing by making the position estimate x and y of the finger F constant at the moment when the finger F touches the pad 111. [ To this end, the rate of change of z is measured, and the intensity of the low-pass filtering is increased at the instant when z rapidly decreases, thereby reducing the variation of (x, y). In summary, the parameters of the low-pass filter can be determined by measuring the variance of (x c , y c ) or (x ' c , y' c ) and measuring the rate of change of z. First, z is filtered using a low-pass filter according to Equation (8) below.

[수학식 8]&Quot; (8) "

Figure 112015119456411-pat00008
Figure 112015119456411-pat00008

여기서,

Figure 112015119456411-pat00009
는 z가 저역 통과 필터에 의해 필터링된 값이고, az는 원폴 필터의 폴의 위치를 나타낸다. 연속하는 두
Figure 112015119456411-pat00010
값의 차이로 z의 변화율인 Vz를 연산한다. 그리고, 최근 w샘플 동안의 xc 또는 x'c 의 표준 편차인 σx와 최근 w샘플 동안의 yc 또는 y'c 의 표준 편차인 σy를 연산한다. 마지막으로, (xc, yc) 또는 (x'c, y'c)를 아래 [수학식 9] 및 [수학식 10]에 따른 저역 통과 필터를 이용하여 필터링하여 (
Figure 112015119456411-pat00011
,
Figure 112015119456411-pat00012
)를 구한다.here,
Figure 112015119456411-pat00009
Z is the value filtered by the low pass filter, and a z is the position of the pole of the one-pole filter. Two consecutive
Figure 112015119456411-pat00010
Vz, which is the rate of change of z , is calculated by the difference of the values. Then, the value of x c Or x is calculated for the standard deviation σ y c 'of the y or y c c for the standard deviation of σ x and w recent sample. Finally, (x c , y c ) or (x ' c , y' c ) is filtered using a low-pass filter according to Equation (9)
Figure 112015119456411-pat00011
,
Figure 112015119456411-pat00012
).

[수학식 9]&Quot; (9) "

Figure 112015119456411-pat00013
Figure 112015119456411-pat00013

[수학식 10]&Quot; (10) "

Figure 112015119456411-pat00014
Figure 112015119456411-pat00014

여기서, ax와 ay는 아래 [수학식 11] 및 [수학식 12]에 따라 결정할 수 있다.Here, a x and a y can be determined according to the following equations (11) and (12).

[수학식 11]&Quot; (11) "

ax = min(1,max(0, a0-κσx-ρVz))a x = min (1, max (0, a 0 - ? x -? V z )

[수학식 12]&Quot; (12) "

ay = min(1,max(0, a0-κσy-ρVz))a y = min (1, max (0, a 0 - ?? y -? V z )

여기서, a0는 전반적인 저역 통과 필터의 강도를 결정하는 0에서 1사이의 값이고, κ는 (xc, yc) 또는 (x'c, y'c)의 변화율을 반영하는 정도를 나타내는 양의 파라미터이며, ρ는 z의 변화율을 반영하는 정도를 나타내는 양의 파라미터이다.Here, a 0 is a value between 0 and 1 that determines the strength of the overall low-pass filter, and κ is a quantity representing the degree of reflection of (x c , y c ) or (x ' c , y' c ) And? Is a positive parameter indicating the degree of reflection of the rate of change of z.

상술한 바와 같이 제어신호 생성부(122)가 손가락(F)의 위치 (xc, yc), (x'c, y'c) 또는 (

Figure 112015119456411-pat00015
,
Figure 112015119456411-pat00016
) 와 손가락(F)이 패드(111)와 근접한 정도를 나타내는 높이 z 또는
Figure 112015119456411-pat00017
를 연산하면, 디스플레이(210)는 조작부(110) 위에서의 손가락(F)의 위치에 대응되는 위치에 포인팅 객체(213e)를 표시한다.Position of the control signal generator 122, the finger (F) as described above, (x c, y c), (x 'c, y' c) or (
Figure 112015119456411-pat00015
,
Figure 112015119456411-pat00016
And a height z indicating the degree of proximity of the finger F to the pad 111 or
Figure 112015119456411-pat00017
The display 210 displays the pointing object 213e at a position corresponding to the position of the finger F on the operation unit 110. [

다만, 상술한 방식은 손가락(F)의 위치나 높이를 연산하는 방식의 예시에 불과하며, 개시된 발명의 실시예가 상술한 예시에 한정되는 것은 아니다.However, the above-described method is merely an example of a method of calculating the position and height of the finger F, and the embodiment of the disclosed invention is not limited to the above-described example.

이를 위해, 제어신호 생성부(122) 또는 AVN 제어부(230)는 아래 [수학식 13]에 따라 조작부(110) 상의 손가락(F)의 위치와 대응되는 디스플레이(210) 상의 위치를 연산할 수 있다. 디스플레이(210)의 왼쪽 위 꼭지점을 원점으로 하고, 오른쪽 방향을 X축, 아래 방향을 Y축으로 하는 좌표계에 따라 디스플레이(210)상의 임의의 한 점의 좌표를 (X, Y)라 하기로 한다.The control signal generation unit 122 or the AVN control unit 230 may calculate the position on the display 210 corresponding to the position of the finger F on the operation unit 110 according to the following equation . The coordinate of an arbitrary point on the display 210 is (X, Y) according to a coordinate system in which the upper left vertex of the display 210 is the origin, the right direction is the X axis, and the downward direction is the Y axis .

[수학식 13]&Quot; (13) "

Figure 112015119456411-pat00018
Figure 112015119456411-pat00018

여기서, (xM, yM)은 조작부(110)의 오른쪽 아래 꼭지점의 좌표를 나타내고, (XM, YM)은 디스플레이(210)의 오른쪽 아래 꼭지점의 좌표를 나타낸다. 즉, 사각형의 조작부(110)의 네 꼭지점은 디스플레이(210)의 네 꼭지점에 각각 대응되고, 조작부(110) 내부의 점들은 선형적으로 비례하여 디스플레이(210) 내부의 점들에 각각 대응된다. 조작부(110)는 디스플레이(210)의 가로세로 비와 동일한 가로세로 비를 가질 수 있다. Here, (x M , y M ) represents the coordinates of the lower right corner of the operation unit 110, and (X M , Y M ) represents the coordinates of the lower right corner of the display 210. That is, the four vertexes of the rectangular manipulation unit 110 correspond to the four vertexes of the display 210, and the points inside the manipulation unit 110 correspond to the points inside the display 210 linearly in proportion to each other. The operation unit 110 may have the same aspect ratio as the display 210.

다시 도 24를 참조하면, 포인팅 객체(213e)는 손가락(F)이 위치하는 조작부(110) 상의 위치에 대응하는 디스플레이(210) 상의 위치에 표시될 수 있다. 사용자는 디스플레이(210)에 표시된 포인팅 객체(213e)를 보고 자신이 원하는 제어를 위해 손가락(F)를 어느 위치로 이동해야 하는지 파악할 수 있다. 즉, 자신이 수행하는 동작에 대한 피드백을 받을 수 있다. Referring again to FIG. 24, the pointing object 213e may be displayed at a location on the display 210 corresponding to the location on the operation unit 110 where the finger F is located. The user can see the pointing object 213e displayed on the display 210 and can grasp to which position the finger F should be moved for the desired control. In other words, it can receive feedback on the actions it performs.

포인팅 객체(213e)의 형상은 도 24에 도시된 바와 같이 원형의 형상일 수도 있으나 차량용 제어 장치(100) 및 차량(10)의 실시예가 이에 한정되는 것은 아니며, 원형 이외에도 사각형, 삼각형 등의 다각형이나 그 외에 어떠한 형상이든지 디스플레이(210)에 표시된 정보와 구별되어 손가락(F)의 위치를 나타낼 수 있는 것이면 된다.The shape of the pointing object 213e may be a circular shape as shown in FIG. 24, but the embodiment of the vehicle control device 100 and the vehicle 10 is not limited to this, and a polygon such as a square, Any other shape may be used as long as it can indicate the position of the finger F by being distinguished from the information displayed on the display 210.

한편, 포인팅 객체(213e)는 손가락(F)이 패드(111)와 접촉한 상태, 접촉하진 않았지만 근접한 상태 및 패드(111)를 가압한 상태에 모두 디스플레이(210)에 표시될 수 있다. 다만, 상기 상태마다 포인팅 객체(213e)가 다르게 표시될 수 있는바, 예를 들어, 포인팅 객체(213e)의 색의 특성이나 형상의 특성과 같은 시각적 특성이 다르게 표시될 수 있다. On the other hand, the pointing object 213e can be displayed on the display 210 in a state in which the finger F is in contact with the pad 111, a state in which the finger F is not in contact with the pad 111, and a state in which the pad 111 is pressed. However, the pointing object 213e may be displayed differently depending on the status, for example, the visual characteristic such as the color characteristic or the shape characteristic of the pointing object 213e may be displayed differently.

이를 위해, 상기 세 가지 상태를 구별해야 하는바, 제어신호 생성부(122)는 물체 감지부(112)의 출력신호를 이용하여 상기 세 가지 상태를 모두 구별할 수도 있고, 물체 감지부(112)와 압력 감지부(113)의 출력신호를 이용하여 상기 세 가지 상태를 구별할 수도 있다. The control signal generator 122 may distinguish all three states using the output signal of the object sensor 112. The object sensor 112 may be configured to detect the three states, And the output signal of the pressure sensing unit 113 may be used to distinguish the three states.

앞서, 조작부(110)와 손가락(F)이 근접한 정도를 높이 z로 나타낼 수 있다고 하였는바, z와 함께 패드(111)의 두께를 고려하면 손가락(F)이 현재 패드(111)와 접촉한 상태인지 아니면 접촉은 하지 않고 근접한 상태인지 여부를 판단할 수 있다. Considering that the thickness of the pad 111 together with z is taken into consideration, the finger F may be in contact with the current pad 111 It is possible to judge whether it is in a close state or not.

판단 결과, 손가락(F)이 패드(111)에 근접한 상태에서 접촉한 상태로 전이되면 포인팅 객체(213e)의 시각적 특성을 변화시킬 수 있다. 색의 특성을 변화시키는 예로서, 손가락(F)이 패드(111)에 접촉하면 접촉하기 전보다 색을 더 진하게 표시할 수 있다. 즉, 투명도를 감소시킬 수 있다.As a result of the determination, if the finger F transitions to the contact state while being in proximity to the pad 111, the visual characteristic of the pointing object 213e can be changed. As an example of changing the color characteristic, when the finger F touches the pad 111, the color can be displayed darker than before the touching. That is, transparency can be reduced.

손가락(F)이 패드(111)를 가압한 상태는, 압력 감지부(113)의 출력신호를 이용하여 판단할 수도 있으나 물체 감지부(112)의 출력신호를 이용하여 판단하는 것도 가능하다. 패드(111)는 탄력성이 있는 겔 상태의 물질로 이루어지므로, 손가락(F)이 패드(111)를 가압하면 패드(111)의 가압된 부분이 함몰되면서 손가락(F)과 물체 감지부(112) 사이의 거리가 가까워진다. 따라서, 제어신호 생성부(122)는 손가락(F)과 물체 감지부(112) 사이의 거리를 나타내는 z 값만으로도 손가락(F)이 패드(111)를 가압했는지 여부를 판단할 수 있다. The state in which the finger F is pressed against the pad 111 may be determined using the output signal of the pressure sensing unit 113 or may be determined using the output signal of the object sensing unit 112. [ When the finger F presses the pad 111, the pressed portion of the pad 111 is depressed and the finger F and the object detection unit 112 are pressed together, The distance between them becomes closer. The control signal generating unit 122 can determine whether the finger F has pressed the pad 111 with only the z value indicating the distance between the finger F and the object sensing unit 112. [

또는, z값의 패턴을 이용하여 손가락(F)이 패드(111)를 가압했는지 여부를 판단하는 것도 가능하다. 손가락(F)이 패드(111)에 단순히 접촉하거나 터치하는 것이 아니라 패드(111)를 가압하는 경우에는 z가 급격하게 변화할 것으로 예상할 수 있다. 따라서, z값이 급격하게 변하는 경우에 손가락(F)이 패드(111)를 가압한 것으로 판단하는 것도 가능하다. Alternatively, it is possible to judge whether or not the finger F has pressed the pad 111 by using the pattern of the z value. It can be expected that z changes abruptly when the finger F presses the pad 111 rather than simply touching or touching the pad 111. [ Therefore, it is also possible to judge that the finger F presses the pad 111 when the z value suddenly changes.

판단 결과, 손가락(F)이 접촉된 상태에서 가압 상태로 전이되면 포인팅 객체(213e)의 시각적 특성을 변화시킬 수 있다. 색의 특성을 변화시키는 예로서, 손가락(F)이 패드(111)를 가압하면 손가락(F)이 패드(111)를 터치한 상태에서보다 더 진하게 포인팅 객체(213e)의 색을 표시할 수 있다. As a result of the determination, when the finger F is moved from the contact state to the press state, the visual characteristic of the pointing object 213e can be changed. As an example of changing the color characteristic, when the finger F presses the pad 111, the color of the pointing object 213e can be displayed more darkly in a state where the finger F touches the pad 111 .

또는, 형상의 특성을 변화시키는 예로서, 손가락(F)이 패드(111)에 접촉하거나, 패드(111)를 가압하면 포인팅 객체(213e)의 크기를 증가시키거나 감소시킬 수도 있다.Alternatively, as an example of changing the shape characteristic, the size of the pointing object 213e may be increased or decreased when the finger F touches the pad 111 or presses the pad 111. [

한편, 손가락(F)이 조작부(110)와 접촉하지 않은 경우에는 손가락(F)과 조작부(110)의 근접 정도에 따라 포인팅 객체(213e)의 시각적 특성을 다르게 하여 표시할 수 있다. 예를 들어, 손가락(F)이 조작부(110)와 근접할수록 포인팅 객체(213e)의 색을 더 진하게 표시할 수 있다. 즉, 손가락(F)이 조작부(110)와 멀어질수록 포인팅 객체(213e)의 투명도를 증가시키고, 일정 한계 이상이 되면 표시하지 않을 수 있다.When the finger F is not in contact with the operation unit 110, the visual characteristics of the pointing object 213e may be different depending on the degree of proximity between the finger F and the operation unit 110. [ For example, the closer the finger F is to the operation unit 110, the darker the color of the pointing object 213e can be displayed. That is, the transparency of the pointing object 213e increases as the finger F becomes farther away from the operation unit 110, and may not be displayed when the finger F is above a predetermined limit.

또는, 포인팅 객체(213e)의 그림자를 반투명하게 하여 포인팅 객체(213e)의 아래에 표시하면서 포인팅 객체(213e)와 그림자 간의 거리를 손가락(F)과 조작부(110) 사이의 거리에 비례하게 표시할 수도 있다. Alternatively, the shadow of the pointing object 213e is displayed under the pointing object 213e with the shadow of the pointing object 213e being transparent, and the distance between the pointing object 213e and the shadow is displayed in proportion to the distance between the finger F and the operation unit 110 It is possible.

사용자는 포인팅 객체(213e)가 자신이 선택하고자 하는 메뉴 버튼 상에 위치할 때까지 손가락(F)을 조작부(110) 상에서 이동시킬 수 있고, 포인팅 객체(213e)가 자신이 선택하고자 하는 메뉴 버튼 상에 위치하면 패드(111)를 가압할 수 있다. 패드(111)가 가압되면, 디스플레이(210) 상의 포인팅 객체(213e)의 위치에 표시된 메뉴 버튼이 선택될 수 있다. The user can move the finger F on the operation unit 110 until the pointing object 213e is positioned on the menu button to be selected by the user and the pointing object 213e can move on the menu button The pad 111 can be pressed. When the pad 111 is pressed, the menu button displayed at the position of the pointing object 213e on the display 210 can be selected.

사용자가 패드(111)를 가압하기 전까지는 메뉴 버튼이 선택되지 않는다. 따라서, 사용자는 조작부(110)를 통해 제어를 수행하지 않는 경우에도 패드(111) 위에 손을 올려놓고 휴식을 취하거나 안정적인 자세로 주행을 유지할 수 있다. The menu button is not selected until the user presses the pad 111. [ Therefore, even when the user does not perform the control through the operation unit 110, the user can rest his / her hand on the pad 111 and maintain the running in a stable posture.

도 25는 복수의 메뉴 버튼이 연속적으로 나열된 메뉴 목록이 표시된 디스플레이를 나타낸 도면이고, 도 26은 메뉴 목록을 이동시키기 위한 드래그 동작을 나타낸 도면이다.FIG. 25 is a view showing a display in which a menu list in which a plurality of menu buttons are continuously arranged is displayed, and FIG. 26 is a diagram illustrating a drag operation for moving a menu list.

도 25에 도시된 바와 같이, 디스플레이(210)는 선택 가능한 메뉴 버튼이 연속적으로 나열된 메뉴 목록(215)을 표시할 수 있다. 도 25의 예시에서는 음악을 선택하기 위한 복수의 메뉴 버튼(215a-215e)이 나열되어 있다. 사용자는 조작부(110) 위에서 손가락(F)을 움직여 포인팅 객체(213e)를 원하는 메뉴 버튼 상에 위치시키고, 손가락(F)으로 패드(111)를 가압함으로써 원하는 메뉴 버튼을 선택할 수 있다.As shown in FIG. 25, the display 210 may display a menu list 215 in which selectable menu buttons are successively arranged. In the example of Fig. 25, a plurality of menu buttons 215a-215e for selecting music are listed. The user can select a desired menu button by moving the finger F on the operation unit 110 to position the pointing object 213e on the desired menu button and pressing the pad 111 with the finger F. [

다만, 메뉴 목록(215)에 포함되는 메뉴 버튼이 한 화면에 모두 표시되지 않는 경우가 있다. 이 경우, 사용자는 도 26에 도시된 바와 같이 손가락(F)이 패드(111)를 드래그(drag)하는 방식으로 메뉴 목록(215)을 이동시킬 수 있다. However, menu buttons included in the menu list 215 may not be displayed on one screen at all. In this case, the user can move the menu list 215 in such a manner that the finger F drags the pad 111 as shown in Fig.

드래그를 하기 위해, 먼저 손가락(F)으로 드래그 시작 지점에 대응되는 위치의 패드(111)를 가압하고, 패드(111)를 가압한 상태 또는 패드(111)에 접촉한 상태로 원하는 방향으로 손가락(F)을 움직인다. 도 25에 도시된 바와 같이 메뉴 버튼(215a-215e)이 상하 방향으로 나열된 경우에는 손가락(F)을 위 또는 아래 방향으로 움직임으로써 화면에 보이지 않던 메뉴 버튼이 나타나도록 할 수 있다. The user first presses the pad 111 at the position corresponding to the drag start point with the finger F and presses the finger 111 in the desired direction with the pad 111 pressed or in contact with the pad 111 F). When the menu buttons 215a to 215e are arranged in the vertical direction as shown in FIG. 25, a menu button that is not shown on the screen can be displayed by moving the finger F in the upward or downward direction.

도 26에 도시된 바와 같이, 손가락(F)을 아래 방향으로 움직이는 경우에는 위쪽에 보이지 않던 메뉴 버튼이 나타나고, 반대로 손가락(F)을 위 방향으로 움직이는 경우에는 아래쪽에 보이지 않던 메뉴 버튼이 나타난다. 메뉴 목록이 이동하는 정도는 손가락(F)의 이동 정도에 비례할 수도 있고, 손가락(F)의 이동 속도에 비례할 수도 있다. As shown in FIG. 26, when the finger F is moved downward, a menu button that is not visible is displayed. On the contrary, when the finger F is moved upward, a menu button that is not shown below is displayed. The degree to which the menu list moves may be proportional to the degree of movement of the finger F or may be proportional to the moving speed of the finger F. [

원하는 메뉴 버튼이 디스플레이(210)에 표시되면, 사용자는 원하는 메뉴 버튼 상에 포인팅 객체(213e)를 위치시키고, 패드(111)를 가압함으로써 원하는 메뉴 버튼을 선택할 수 있다. When a desired menu button is displayed on the display 210, the user can select a desired menu button by positioning the pointing object 213e on the desired menu button and pressing the pad 111. [

AVN 장치(200)가 수행할 수 있는 기능 중에 내비게이션 기능이 있다. 이하, 조작부(110)를 조작하여 사용자가 내비게이션 기능을 제어하는 구체적인 실시예를 설명하도록 한다. Among the functions that the AVN apparatus 200 can perform are navigation functions. Hereinafter, a specific embodiment in which the user operates the operation unit 110 to control the navigation function will be described.

도 27은 내비게이션 기능을 수행하는 AVN 장치의 구성이 구체화된 제어 블록도이고, 도 28 및 도 29는 내비게이션 기능을 수행할 때에 디스플레이가 표시하는 지도 화면의 예시를 나타낸 도면이다.FIG. 27 is a control block diagram in which a configuration of an AVN apparatus that performs a navigation function is embodied; FIGS. 28 and 29 are views showing examples of a map screen displayed on a display when performing a navigation function;

도 27을 참조하면, 내비게이션 기능을 수행하는 AVN 장치(200)는 GPS(Global Positioning System) 위성으로부터 차량(10)의 위치 정보를 수신하는 GPS 수신부(241) 및 지도 데이터가 저장되는 저장부(242)를 더 포함할 수 있다.27, the AVN apparatus 200 performing the navigation function includes a GPS receiver 241 for receiving position information of the vehicle 10 from GPS (Global Positioning System) satellites, and a storage unit 242 for storing map data ).

AVN제어부(230)는 저장부(242)에 저장된 지도 데이터를 이용하여 출발 위치로부터 목적지까지의 주행 경로를 생성하고, 생성된 주행 경로를 저장부(242)에 저장한다. 출발 위치는 GPS 수신부(241)로부터 수신한 차량(10)의 현재 위치일 수도 있고, 사용자가 별도로 설정한 위치일 수도 있다.The AVN control unit 230 generates a travel route from the start position to the destination using the map data stored in the storage unit 242 and stores the generated travel route in the storage unit 242. [ The starting position may be a current position of the vehicle 10 received from the GPS receiving unit 241, or may be a position separately set by the user.

그리고, 주행이 시작되면 디스플레이(210)는 차량(10)의 현재 위치에 대응되는 주행 경로를 표시하고, 표시된 주행 경로 상에 차량(10)의 현재 위치도 함께 표시할 수 있다. When the vehicle starts traveling, the display 210 displays the traveling route corresponding to the current position of the vehicle 10, and displays the current position of the vehicle 10 on the displayed traveling route.

한편, 저장부(242)에 저장되는 지도 데이터는 3차원 정보를 포함하는 지도 데이터일 수 있으며, AVN 제어부(230)는 디스플레이(210)가 지도 데이터를 다양한 뷰(view) 각도에 따라 표시하도록 제어할 수 있다. On the other hand, the map data stored in the storage unit 242 may be map data including three-dimensional information, and the AVN controller 230 may control the display 210 to display map data according to various view angles can do.

디스플레이(210)는 도 28에 도시된 바와 같이, 지도 데이터를 수직 상공에서 내려다 본 것과 같은 수직 뷰에 따라 표시할 수도 있고, 도 29에 도시된 바와 같이, 지도 데이터를 수직 뷰가 아닌 일정 각도의 뷰에서 바라본 것과 같은 버드 뷰(bird view)에 따라 표시할 수도 있다. 지도 데이터를 수직 뷰에 따라 표시하는 경우에는 실질적으로 주행 경로에 대한 2차원 정보를 제공하게 되고, 지도 데이터를 버드 뷰에 따라 표시하는 경우에는 주행 경로에 대한 3차원 정보를 제공하게 된다. The display 210 may display the map data according to a vertical view as seen from above in the vertical direction or may display the map data at a predetermined angle You can also display them according to the same bird view you see in the view. When the map data is displayed according to the vertical view, the two-dimensional information on the traveling route is substantially provided. When the map data is displayed according to the bird view, three-dimensional information on the traveling route is provided.

상황에 따라, 수직 뷰로 제공되는 정보가 유용할 수도 있고, 버드 뷰로 제공되는 정보가 유용할 수도 있다. 기존에는 사용자가 내비게이션의 설정 메뉴에 들어가서 뷰 각도를 조절하는 과정을 거쳐야 했으나, 차량용 제어 장치(100) 및 차량(10)의 실시예에서는, 디스플레이(210)가 주행 경로를 표시한 상태에서 사용자가 조작부(110)를 조작하여 뷰 각도를 조절할 수 있다. Depending on the situation, the information provided in the vertical view may be useful, or the information provided in the bird view may be useful. In the embodiment of the vehicle control device 100 and the vehicle 10, in the state where the display 210 displays the driving route, the user can not view the vehicle through the setting menu of the navigation, The viewing angle can be adjusted by operating the operation unit 110. [

도 30 및 도 31은 수직 뷰를 표시하기 위한 조작의 일 예시를 나타낸 도면이고, 도 32는 버드 뷰를 표시하기 위한 조작의 일 예시를 나타낸 도면이다.Figs. 30 and 31 are views showing an example of an operation for displaying a vertical view, and Fig. 32 is a view showing an example of an operation for displaying a bird view.

도 30은 조작부(110)를 조작하는 손(H)을 위에서 내려다 본 도면이고, 도 31은 조작부(110)를 조작하는 손(H)을 옆에서 바라본 도면이다. 도 30및 도 31을 참조하면, 두 개 이상의 손가락(F)으로 조작부(110)를 터치 또는 가압한 상태에서 손가락(F)을 90도로 구부리면 상기 도 28에 도시된 바와 같이 수직 뷰에 따라 지도 데이터가 표시될 수 있다. 여기서, 손가락(F)을 90도로 구부린다는 것은 손가락(F)의 끝부분부터 첫 번째 또는 두 번째 마디(J)까지의 부분을 패드(111)의 표면으로부터 90도로 세우는 것을 의미한다.30 is a top view of the hand H for operating the operation unit 110 and FIG. 31 is a side view of the hand H for operating the operation unit 110. FIG. 30 and 31, when the finger F is bent at 90 degrees in a state in which the operating unit 110 is touched or pressed with two or more fingers F, May be displayed. Here, the bending of the finger F by 90 degrees means that the portion from the end portion of the finger F to the first or second node J is raised from the surface of the pad 111 by 90 degrees.

지도 데이터가 수직 뷰에 따라 표시되면, 사용자가 좌회전, 우회전 또는 유턴 지점을 정확히 인식할 수 있고, 교차로 확인이나 거리 확인도 더 정확하게 할 수 있다.  When the map data is displayed according to the vertical view, the user can accurately recognize the left turn, the right turn or the U-turn point, and the intersection check or the distance check can be more accurately performed.

한편, 이후의 주행 경로가 어떤 상황인지, 전방에 어떤 도로나 건물이 있는지 확인하고자 하는 경우에는 지도 데이터를 버드 뷰에 따라 표시하는 것이 더 효과적이다. 이 경우, 사용자는 도 32에 도시된 바와 같이 패드(111) 위에서 손가락(F)을 90도보다 낮은 각도로 눕히거나 펼 수 있고, 디스플레이(210)는 도 29에 도시된 바와 같이 손가락(F)의 각도에 대응되는 버드 뷰에 따라 지도 데이터를 표시할 수 있다. On the other hand, it is more effective to display the map data in accordance with the bird view when it is desired to check the future traveling route and what road or building is ahead. In this case, the user can lay down or unfold the finger F on the pad 111 at an angle of less than 90 degrees as shown in Fig. 32, and the display 210 displays the finger F as shown in Fig. It is possible to display the map data according to the bird view corresponding to the angle of the vehicle.

정리하면, 도 28에 도시된 바와 같이 디스플레이(210)가 수직 뷰에 따라 지도 데이터를 표시한 경우, 사용자가 도 32에 도시된 바와 같이 패드(111) 위에서 손가락(F)을 90도보다 낮은 각도로 눕히면 뷰 각도가 손가락(F)의 각도에 대응되는 각도로 변경되어 버드 뷰에 따라 지도 데이터를 표시할 수 있다.In summary, when the display 210 displays the map data according to the vertical view as shown in Fig. 28, when the user places the finger F on the pad 111 at an angle lower than 90 degrees The view angle is changed to an angle corresponding to the angle of the finger F, and the map data can be displayed according to the bird view.

또한, 도 29에 도시된 바와 같이 디스플레이(210)가 버드 뷰에 따라 지도 데이터를 표시한 경우, 사용자가 도 30 및 도 31에 도시된 바와 같이 패드(111) 위에서 손가락(F)을 90도로 구부리면 수직 뷰에 따라 지도 데이터를 표시할 수 있다. 29, when the display 210 displays the map data according to the bird view, if the user bends the finger F by 90 degrees on the pad 111 as shown in Figs. 30 and 31 The map data can be displayed according to the vertical view.

다만, 사용자가 수직 뷰에 따라 지도 데이터를 보고자 한 경우라도, 정확하게 90도로 손가락(F)을 구부리기는 어려울 수 있다. 따라서, 수직 뷰에 대응되는 기준 각도를 미리 설정하고, 사용자의 손가락(F)이 기준 각도 이상으로 구부려진 경우에 지도 데이터가 수직 뷰에 따라 표시될 수 있다. 예를 들어, 기준 각도를 70도로 설정한 경우에는 사용자의 손가락(F) 각도가 70도를 넘으면 수직 뷰에 따라 지도 데이터를 표시하고, 70도를 넘지 않으면 해당 각도에 대응되는 버드 뷰에 따라 지도 데이터를 표시할 수 있다. However, even if the user wants to view the map data according to the vertical view, it may be difficult to bend the finger F exactly 90 degrees. Therefore, the reference angle corresponding to the vertical view is set in advance, and when the user's finger F is bent at a reference angle or more, the map data can be displayed according to the vertical view. For example, when the reference angle is set to 70 degrees, the map data is displayed according to the vertical view if the angle of the user's finger (F) exceeds 70 degrees. If the angle is not over 70 degrees, Data can be displayed.

전술한 바와 같이 조작부(110) 위의 손가락(F) 각도에 따라 디스플레이(210)에 표시된 지도 데이터의 뷰 각도를 변경하려면 손가락(F) 각도를 연산하는 과정이 필요하다. 이하 도 33 및 도 34를 참조하여 구체적으로 설명한다.As described above, in order to change the view angle of the map data displayed on the display 210 according to the angle of the finger F on the operation unit 110, a process of calculating the angle of the finger F is required. This will be described in detail with reference to FIGS. 33 and 34. FIG.

도 33은 수직 뷰를 표시하기 위한 조작을 가했을 때 획득되는 사용자 영상의 일 예시이고, 도 34는 버드 뷰를 표시하기 위한 조작을 가했을 때 획득되는 사용자 영상의 일 예시이다.33 is an example of a user image obtained when an operation for displaying a vertical view is applied, and FIG. 34 is an example of a user image obtained when an operation for displaying a bird view is applied.

앞서, 물체 감지부(112)의 출력 신호로부터 사용자 영상(I)을 획득할 수 있다고 하였는바, 사용자가 수직 뷰를 표시하기 위해 상기 도 30 및 도 31과 같은 조작을 가할 경우, 도 33의 예시와 같은 사용자 영상(I)을 획득할 수 있고, 버드 뷰를 표시하기 위해 상기 도 32와 같은 조작을 가할 경우, 도 34의 예시와 같은 사용자 영상(I)을 획득할 수 있다. If the user can obtain the user image I from the output signal of the object detection unit 112 and the user performs operations as shown in FIGS. 30 and 31 to display the vertical view, The user image I such as shown in FIG. 34 can be acquired when the operation as shown in FIG. 32 is performed to display the bird view.

제어신호 생성부(122)는 사용자 영상(I)으로부터 패드(111)에 접촉한 손가락(F) 끝부분과 손가락 마디(J) 사이의 거리를 연산할 수 있다. 사용자 영상(I)에 나타난 손가락(F) 끝부분과 손가락 마디(J) 사이의 거리는 손가락(F)을 구부린 정도에 따라 달라지는바, 손가락을 많이 구부릴수록 그 거리가 짧아진다. The control signal generation unit 122 may calculate the distance between the finger edge J and the end of the finger F that is in contact with the pad 111 from the user image I, The distance between the end of the finger F shown in the user image I and the finger joint J depends on the degree to which the finger F is bent.

그리고, 제어신호 생성부(122)는 사용자 영상(I)으로부터 손가락 마디(J)와 조작부(110) 사이의 거리를 연산할 수 있다. 조작부(110)와 물체 사이의 거리에 따라 사용자 영상(I)에 나타나는 밝기가 달라지는바, 도 33과 도 34의 예시는 조작부(110)와 물체 사이의 거리가 가까울수록 사용자 영상(I)에 어둡게 나타나는 경우이다. The control signal generation unit 122 may calculate the distance between the finger joint J and the operation unit 110 from the user image I. [ The brightness of the user image I varies depending on the distance between the operation unit 110 and the object. The examples of FIGS. 33 and 34 show that the closer the distance between the operation unit 110 and the object is, .

따라서, 사용자가 상기 도 30 및 도 31과 같이 손가락(F)을 수직으로 구부린 경우, 도 33의 예시와 같이 패드(111)에 접촉된 손가락(F)의 끝부분은 어둡게 나타나고 손바닥 방향으로 갈수록 급격하게 밝아진다.Accordingly, when the user bends the finger F vertically as shown in FIGS. 30 and 31, the end portion of the finger F touching the pad 111 appears dark, as shown in FIG. 33, Lt; / RTI >

또한, 사용자가 상기 도 32와 같이 손가락(F)을 편 경우에는, 도 34의 예시와 같이 패드(111)에 접촉된 손가락(F)의 끝부분부터 손바닥 방향까지 밝기가 균일하거나 점차적으로 밝아진다. 32, when the user fingers the finger F as shown in FIG. 32, the brightness is uniformly or gradually brighter from the end portion of the finger F touching the pad 111 to the palm direction as in the example of FIG. 34 .

따라서, 제어신호 생성부(122)는 사용자 영상(I)에 나타난 손가락(F)의 밝기 패턴으로부터 손가락(F)과 조작부(110) 사이의 거리를 연산할 수 있고, 손가락(F) 끝부분과 손가락 마디(J) 사이의 거리 및 손가락 마디(J)와 조작부(110) 사이의 거리에 기초하여 손가락(F)의 각도를 연산할 수 있다. The control signal generating unit 122 can calculate the distance between the finger F and the operation unit 110 from the brightness pattern of the finger F displayed on the user image I, The angle of the finger F can be calculated based on the distance between the finger joints J and the distance between the finger joint J and the operation portion 110. [

상기 도 30 내지 도 32의 예시에서는 사용자가 네 개의 손가락(F)을 이용하여 조작부(110)를 조작하였으나, 반드시 네 개의 손가락(F)을 모두 이용해야 하는 것은 아니고 두 개 이상의 손가락(F)을 이용하면 조작부(110)를 통해 뷰 각도에 관한 제어 명령을 입력할 수 있다. 줌 동작 등 다른 동작과의 혼동을 방지하기 위해 두 개 이상의 손가락(F)으로 먼저 패드(111)를 가압하는 것도 가능하나, 가압하지 않고 터치만 하더라도 터치 이후에 손가락(F)을 구부리는 동작이 뒤따르면 뷰 각도를 제어하기 위한 조작인 것으로 판단할 수 있다.30 to 32, the user manipulates the operation unit 110 using four fingers F, but it is not necessary to use all of the four fingers F, and instead of using two or more fingers F A control command relating to the view angle can be input through the operation unit 110. [ It is possible to press the pad 111 with two or more fingers F in advance to prevent confusion with other operations such as zooming operation, but it is also possible to bend the finger F after touching, It can be determined that the operation is for controlling the view angle.

손가락(F)의 각도가 연산되면, 제어신호 생성부(122)는 연산된 손가락(F)의 각도에 따라 뷰 각도를 변경하기 위한 제어신호를 생성하여 AVN 장치(200)로 전송하고, AVN 제어부(230)는 전송된 제어신호에 따라 디스플레이(210)를 제어한다.When the angle of the finger F is calculated, the control signal generating unit 122 generates a control signal for changing the view angle according to the calculated angle of the finger F and transmits the control signal to the AVN apparatus 200, (230) controls the display (210) according to the transmitted control signal.

차량용 제어 장치(100)는 AVN 장치(200) 외에도 차량(10)에 마련된 각종 편의 장치를 제어할 수 있다. 다른 예로, 차량용 제어 장치(100)는 공조 장치(300)를 제어할 수 있는바, 이하 구체적으로 설명한다.The vehicle control apparatus 100 can control various convenience devices provided in the vehicle 10 in addition to the AVN apparatus 200. [ As another example, the vehicle control apparatus 100 can control the air conditioning apparatus 300, which will be described in detail below.

도 35는 공조장치를 제어하는 차량용 제어 장치를 포함하는 차량의 제어 블록도이다.35 is a control block diagram of a vehicle including a vehicle control device for controlling the air conditioner.

도 35를 참조하면, 차량(10)은 차량용 제어 장치(100)와 함께 공조 장치(300)를 포함할 수 있고, 차량용 제어 장치(100)는 공조 장치(300)를 제어할 수 있다. 35, the vehicle 10 may include an air conditioner 300 together with the onboard controller 100, and the onboard controller 100 may control the air conditioner 300.

공조 장치(300)는 차량(10) 내부의 난방 및 냉방을 모두 수행할 수 있으며, 구체적인 예로서, 냉각 매체를 응축하여 액화시키는 응축기, 액화된 냉각 매체를 기화시키는 증발기, 냉각 매체를 압축시키는 압축기, 차량(10)의 실내 공기 또는 실외 공기를 선택적으로 배출 또는 유입시키는 내/외기 도어, 내/외기 도어를 통해 유입된 공기를 증발기로 보내주는 송풍기, 차량(10)의 내부로 유입되는 공기의 온도를 조절하는 히터 코어, 히터 코어를 냉각하는 냉각수 라인, 증발기와 히터 코어 사이에 제공되어 증발기를 통과한 공기에 대한 히터 코어의 흐름을 제어하는 온도 조절 도어, 증발기 또는 히터 코어를 통과한 공기를 차량(10)의 내부로 유입시키는 통풍구 등을 포함할 수 있다. The air conditioner 300 can perform both heating and cooling of the interior of the vehicle 10, and as a concrete example, a condenser for condensing and liquefying the cooling medium, an evaporator for vaporizing the liquefied cooling medium, a compressor An indoor / outdoor door for selectively exhausting or introducing indoor air or outdoor air of the vehicle 10, a blower for sending the air introduced through the indoor / outdoor door to the evaporator, A cooling water line for cooling the heater core, a temperature control door provided between the evaporator and the heater core for controlling the flow of the heater core to the air passing through the evaporator, an air passage through the evaporator or heater core A ventilation hole for introducing air into the interior of the vehicle 10, and the like.

차량(10)에 구비되는 공조 장치는 널리 공지된 기술이므로, 이에 관한 더 구체적인 설명은 생략하도록 한다. Since the air conditioner provided in the vehicle 10 is a well-known technology, a more detailed description thereof will be omitted.

일반적으로는 대시 보드(32)의 센터페시아(33)에 마련된 하드 키를 조작하여 공조 장치(300)에 대한 제어 명령을 입력한다. 그러나, 일 실시예에 따른 차량(10)은 차량용 제어 장치(100)를 이용하여 공조 장치(300)에 대한 제어 명령을 입력 받을 수도 있다. Generally, a control command for the air conditioner 300 is inputted by operating a hard key provided in the center pace 33 of the dashboard 32. However, the vehicle 10 according to the embodiment may receive a control command for the air conditioning apparatus 300 using the control apparatus 100 for a vehicle.

예를 들어, 디스플레이(210)에 공조 장치(300)의 제어에 관한 메뉴 화면이 표시되고, 전술한 바와 같이 사용자가 손가락(F)으로 조작부(110)를 조작하여 제어 명령을 입력할 수도 있다. For example, a menu screen related to the control of the air conditioner 300 is displayed on the display 210, and a user may input a control command by operating the operation unit 110 with the finger F as described above.

그러나, 디스플레이(210)에 공조 장치(300)의 제어에 관한 메뉴 화면이 표시되지 않는 경우라도 사용자는 조작부(110)를 조작하여 제어 명령을 입력할 수 있다. 구체적으로, 조작부(110)의 일 영역을 공조 장치(300)의 제어에 맵핑하고, 맵핑된 일 영역을 손으로 가리면 차량용 제어 장치(100)가 공조 장치(300)에 대한 제어 명령을 입력 받을 수 있는 상태가 된다.However, even when the menu screen related to the control of the air conditioner 300 is not displayed on the display 210, the user can operate the operation unit 110 to input the control command. Specifically, one area of the operation unit 110 is mapped to the control of the air conditioner 300, and when the mapped area is manually covered, the vehicle control apparatus 100 receives a control command for the air conditioner 300 .

차량용 제어 장치(100)가 공조 장치(300)에 대한 제어 명령을 입력 받을 수 있는 상태가 되면, 사용자는 조작부(110)를 조작하여 공조 장치(300)를 제어할 수 있다. 예를 들어, 상기 도 26에 도시된 바와 같이 패드(111)의 일 지점을 손가락(F)으로 가압하고, 가압을 유지하거나 패드(111)를 터치한 상태에서 손가락(F)을 위로 움직여 온도를 상승시키거나 아래로 움직여 온도를 하강시킬 수 있다.The user can control the air conditioner 300 by operating the operation unit 110 when the vehicle control apparatus 100 can receive the control command for the air conditioner 300. [ For example, as shown in Fig. 26, one point of the pad 111 is pressed by the finger F, and the finger F is moved upward while keeping the pressure or touching the pad 111, The temperature can be lowered by moving it up or down.

또한, 차량(10)에 장착된 차량용 제어 장치(100)는 좌석의 위치나 각도를 제어하는데 사용될 수도 있으며, 이뿐만 아니라 차량(10)에 마련된 각종 편의 장치는 모두 차량용 제어 장치(100)에 의해 제어되는 것이 가능하다.The vehicle control device 100 mounted on the vehicle 10 may be used to control the position and angle of the seat and the various convenience devices provided in the vehicle 10 may be all controlled by the vehicle control device 100 It can be controlled.

지금까지 상술한 차량용 제어 장치를 이용하여 차량을 제어하면, 사용자의 조작감 및 편의성이 향상되고, 사용자에게 시각적 및 촉각적인 피드백을 제공함으로써 조작의 정확도를 향상시킬 수 있다. Control of the vehicle using the above-described vehicle control device improves the operation feeling and convenience of the user and improves the accuracy of the operation by providing visual and tactile feedback to the user.

또한, 간단한 조작 방식으로 핫 키 기능을 수행함으로써, 다수의 하드 키를 구비하지 않아도 되며 이로 인해 공간 절약 효과를 얻을 수 있고, 주행 중에도 안정적으로 제어 명령을 입력할 수 있다.In addition, by performing the hot key function by a simple operation method, it is not necessary to provide a plurality of hard keys, thereby achieving a space saving effect and inputting a control command stably while driving.

10 : 차량 100 : 차량용 제어 장치
110 : 조작부 111 : 패드
112 : 물체 감지부 113 : 압력 감지부
120 : 제어부 121 : 센서 제어부
122 : 제어신호 생성부 200 : AVN 장치
210 : 디스플레이 220 : 스피커
230 : AVN 제어부 241 : GPS 수신부
242 : 저장부
10: vehicle 100: vehicle control device
110: Operation part 111: Pad
112: Object sensing unit 113: Pressure sensing unit
120: control unit 121: sensor control unit
122: control signal generator 200: AVN device
210: Display 220: Speaker
230: AVN control unit 241: GPS receiver
242:

Claims (28)

2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단하고,
상기 디스플레이는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 기준 시간 이상 가려지면, 상기 미리 설정된 영역에 대해 맵핑된 메뉴 목록을 표시하는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein,
And a control unit for acquiring a user image including a user's hand from an output signal of the object detection unit and determining whether a predetermined area of the operation unit is covered by the user's hand based on the user image,
Wherein the display comprises:
And displays a list of menus mapped to the preset area when a preset area of the operation part is covered by the hand of the user for more than a reference time.
제 1 항에 있어서,
상기 물체 감지부는,
정전 용량형 근접 센서, 초음파 근접 센서 및 광전형 근접 센서 중 적어도 하나를 포함하는 차량.
The method according to claim 1,
Wherein the object detection unit comprises:
A capacitive proximity sensor, an ultrasonic proximity sensor, and a photoelectric proximity sensor.
제 1 항에 있어서,
상기 제어부는,
상기 물체 감지부의 출력 신호에 기초하여 상기 조작부 상에서의 물체의 위치 또는 높이를 연산하는 차량.
The method according to claim 1,
Wherein,
And calculates the position or height of the object on the operation unit based on the output signal of the object detection unit.
제 3 항에 있어서,
상기 제어부는,
상기 조작부 상에서의 물체의 높이에 기초하여 상기 조작부가 상기 물체에 의해 가압되었는지 여부를 판단하는 차량.
The method of claim 3,
Wherein,
And judges whether or not the operating portion is pressed by the object based on the height of the object on the operating portion.
제 1 항에 있어서,
상기 조작부는,
상기 물체 감지부의 하부에 배치되어 압력을 감지하는 압력 감지부를 더 포함하는 차량.
The method according to claim 1,
Wherein,
And a pressure sensing unit disposed under the object sensing unit for sensing pressure.
제 3 항에 있어서,
상기 디스플레이는,
상기 조작부 상에서의 물체의 위치에 대응되는 위치에 포인팅 객체를 표시하는 차량.
The method of claim 3,
Wherein the display comprises:
And displays the pointing object at a position corresponding to the position of the object on the operation unit.
제 6 항에 있어서,
상기 디스플레이는,
상기 조작부 상에서의 물체의 높이에 따라 상기 포인팅 객체의 시각적 특성을 다르게 표시하는 차량.
The method according to claim 6,
Wherein the display comprises:
And displays the visual characteristic of the pointing object differently according to the height of the object on the operation unit.
제 6 항에 있어서,
상기 디스플레이는,
복수의 메뉴 버튼을 표시하고,
상기 제어부는,
상기 조작부가 가압되면, 상기 복수의 메뉴 버튼 중 상기 포인팅 객체가 위치하는 메뉴 버튼을 선택하기 위한 제어신호를 생성하는 차량.
The method according to claim 6,
Wherein the display comprises:
A plurality of menu buttons are displayed,
Wherein,
And generates a control signal for selecting a menu button where the pointing object is located among the plurality of menu buttons when the operation unit is pressed.
제 1 항에 있어서,
상기 디스플레이는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려진 시간과 상기 기준 시간의 비율을 나타내는 기준 바(bar)를 표시하는 차량.
The method according to claim 1,
Wherein the display comprises:
(Bar) indicating a ratio of a time when the preset area of the operation unit is covered by the user's hand and the reference time.
2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단하고,
상기 디스플레이는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 상기 미리 설정된 영역에 대해 맵핑된 메뉴 목록을 표시하는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein,
And a control unit for acquiring a user image including a user's hand from an output signal of the object detection unit and determining whether a predetermined area of the operation unit is covered by the user's hand based on the user image,
Wherein the display comprises:
And displays a menu list mapped to the predetermined area when a predetermined area of the operation unit is pressed by the user's hand.
2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단하고,
상기 디스플레이는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 오프되는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein,
And a control unit for acquiring a user image including a user's hand from an output signal of the object detection unit and determining whether a predetermined area of the operation unit is covered by the user's hand based on the user image,
Wherein the display comprises:
And when the predetermined area of the operating portion is pressed by the user's hand, the vehicle is turned off.
2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단하고,
상기 AVN 장치는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가압되면, 오프되는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein,
And a control unit for acquiring a user image including a user's hand from an output signal of the object detection unit and determining whether a predetermined area of the operation unit is covered by the user's hand based on the user image,
The AVN apparatus includes:
And when the predetermined area of the operating portion is pressed by the user's hand, the vehicle is turned off.
2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지는지 여부를 판단하고,
상기 디스플레이는,
상기 조작부의 미리 설정된 영역이 상기 사용자의 손에 의해 가려지면, 오프(off)되는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein,
And a control unit for acquiring a user image including a user's hand from an output signal of the object detection unit and determining whether a predetermined area of the operation unit is covered by the user's hand based on the user image,
Wherein the display comprises:
And is turned off when a predetermined area of the operation portion is covered by the user's hand.
2차원으로 배열된 복수의 센서를 포함하여 비접촉식으로 물체를 감지하는 물체 감지부 및 상기 물체 감지부의 상부에 배치되고 겔 상태의 탄성체로 이루어진 탄력성을 갖는 패드를 포함하는 조작부;
디스플레이를 포함하는 AVN(Audio Video Navigation) 장치; 및
상기 조작부의 출력 신호에 기초하여 상기 AVN 장치를 제어하기 위한 제어 신호를 생성하는 제어부를 포함하고,
상기 디스플레이는,
내비게이션 기능을 수행하기 위한 지도 데이터를 표시하고,
상기 제어부는,
상기 물체 감지부의 출력 신호로부터 사용자의 손을 포함하는 사용자 영상을 획득하고, 상기 사용자 영상에 기초하여 상기 패드에 접촉한 손가락의 각도를 연산하는 차량.
An operation unit including an object sensing unit for sensing an object in a non-contact manner including a plurality of sensors arranged in two dimensions, and a pad having elasticity, which is disposed on the object sensing unit and is made of a gel-like elastic body;
An AVN (Audio Video Navigation) device including a display; And
And a control unit for generating a control signal for controlling the AVN apparatus based on an output signal of the operation unit,
Wherein the display comprises:
Display map data for performing the navigation function,
Wherein,
Acquires a user image including a user's hand from an output signal of the object detection unit, and calculates an angle of a finger that contacts the pad based on the user image.
제 14 항에 있어서,
상기 디스플레이는,
상기 연산된 손가락의 각도에 따라 상기 지도 데이터의 뷰(view)각도를 다르게 표시하는 차량.
15. The method of claim 14,
Wherein the display comprises:
And displays the view angle of the map data differently according to the calculated angle of the finger.
제 15 항에 있어서
상기 디스플레이는,
상기 연산된 손가락의 각도가 기준 각도 이상이면 상기 지도 데이터를 수직 뷰에 따라 표시하는 차량.
The method of claim 15, wherein
Wherein the display comprises:
And displays the map data according to the vertical view when the calculated angle of the calculated finger is equal to or greater than a reference angle.
제 15 항에 있어서,
상기 디스플레이는,
상기 연산된 손가락의 각도가 기준 각도 이하이면 상기 연산된 손가락의 각도에 대응되는 버드 뷰(bird view)에 따라 상기 지도 데이터를 표시하는 차량.
16. The method of claim 15,
Wherein the display comprises:
And displays the map data according to a bird view corresponding to an angle of the calculated finger when the calculated angle of the finger is less than a reference angle.
제 14 항에 있어서,
상기 조작부는,
운전석과 보조석 사이에 마련된 암레스트의 단부에 연결되는 차량.
15. The method of claim 14,
Wherein,
And is connected to the end portion of the armrest provided between the driver's seat and the assistant's seat.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020150173146A 2015-12-07 2015-12-07 Control apparatus for vechicle and vehicle KR101597531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150173146A KR101597531B1 (en) 2015-12-07 2015-12-07 Control apparatus for vechicle and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150173146A KR101597531B1 (en) 2015-12-07 2015-12-07 Control apparatus for vechicle and vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140013082A Division KR20150092561A (en) 2014-02-05 2014-02-05 Control apparatus for vechicle and vehicle

Publications (2)

Publication Number Publication Date
KR20150146474A KR20150146474A (en) 2015-12-31
KR101597531B1 true KR101597531B1 (en) 2016-02-25

Family

ID=55129109

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150173146A KR101597531B1 (en) 2015-12-07 2015-12-07 Control apparatus for vechicle and vehicle

Country Status (1)

Country Link
KR (1) KR101597531B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8547339B2 (en) * 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
KR101091515B1 (en) * 2009-09-14 2011-12-08 대성전기공업 주식회사 Remote touch pad device of vehicle and control method of the same
KR101092722B1 (en) * 2009-12-02 2011-12-09 현대자동차주식회사 User interface device for controlling multimedia system of vehicle

Also Published As

Publication number Publication date
KR20150146474A (en) 2015-12-31

Similar Documents

Publication Publication Date Title
KR20150092561A (en) Control apparatus for vechicle and vehicle
US11124118B2 (en) Vehicular display system with user input display
KR101518194B1 (en) Light-based touch controls on a steering wheel and dashboard
CN104914986B (en) The method of terminal device, the vehicle with terminal device and controlling terminal equipment
KR100983622B1 (en) Input apparatus and imaging apparatus
US8116937B2 (en) Vehicle display apparatus
US9671867B2 (en) Interactive control device and method for operating the interactive control device
US8538090B2 (en) Device for manipulating vehicle built-in devices
US7342485B2 (en) Motor vehicle roof with a control means for electrical motor vehicle components and process for operating electrical motor vehicle components
CN101598980B (en) Input apparatus, control apparatus, control system, and control method
JP4274997B2 (en) Operation input device and operation input method
US20160132126A1 (en) System for information transmission in a motor vehicle
US10126928B2 (en) Vehicle human machine interface with auto-customization
US20120068956A1 (en) Finger-pointing, gesture based human-machine interface for vehicles
JP2010108255A (en) In-vehicle operation system
KR20170029180A (en) Vehicle, and control method for the same
KR20200093091A (en) Terminal device, vehicle having the same and method for controlling the same
KR101597531B1 (en) Control apparatus for vechicle and vehicle
KR20170011533A (en) Input device for vehicle, vehicle including comprising the same, and controll method thereof
KR20180074070A (en) Vehicle, and control method for the same
KR20180092058A (en) Vehicle, and control method for the same
CN116893738A (en) User interface, vehicle and method for operating a heating and air conditioning device
KR20190069651A (en) Display Apparatus And Having The Same Vehicle
JP2020157926A (en) Control device and control system
JP2018122827A (en) On-vehicle information input device and on-vehicle information input system

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191219

Year of fee payment: 5