KR20130069085A - Interaction system for vehicles - Google Patents
Interaction system for vehicles Download PDFInfo
- Publication number
- KR20130069085A KR20130069085A KR1020110136633A KR20110136633A KR20130069085A KR 20130069085 A KR20130069085 A KR 20130069085A KR 1020110136633 A KR1020110136633 A KR 1020110136633A KR 20110136633 A KR20110136633 A KR 20110136633A KR 20130069085 A KR20130069085 A KR 20130069085A
- Authority
- KR
- South Korea
- Prior art keywords
- module
- gesture
- wind pressure
- image processing
- feedback
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 차량 인터랙션 시스템에 관한 것으로서, 보다 상세하게는 탑승자의 제스쳐를 인식하여 촉각, 시각 또는 청각 방식으로 피드백을 함으로써 제스쳐 오입력을 감소시키고 운전자의 시야나 신경이 분산되지 않도록 하는 기술이다.The present invention relates to a vehicle interaction system. More particularly, the present invention relates to a vehicle interaction system, which recognizes a driver's gesture and provides feedback in a tactile, visual, or auditory manner, thereby reducing gesture misinput and distracting the driver's view or nerve.
차량 내 인터랙션 시스템에서 피드백은 시각적인 디스플레이나 조명, 또는 청각적인 소리가 대부분을 차지한다. 가령 운전자는 네비게이션의 터치 디스플레이를 조작하고, 이에 대해 네비게이션 시스템은 화면을 변경시키거나 소리를 내는 방식으로 운전자에게 운전자의 입력이 제대로 입력되었음을 피드백한다.In in-vehicle interaction systems, feedback is most likely a visual display, lighting, or audible sound. For example, the driver manipulates the touch display of the navigation, which the navigation system feeds back to the driver that the driver's input has been properly input in a manner that changes the screen or makes a sound.
그러나 이러한 과정에서 운전자의 시각적 집중력이 디스플레이에 분산되고 청각적 집중력이 피드백 소리에 분산되기 때문에, 차량 내 인터랙션 시스템 조작과정에서 실제 많은 사고가 발생한다.However, in this process, since the driver's visual concentration is distributed on the display and the auditory concentration is distributed on the feedback sound, many accidents occur in the process of operating the in-vehicle interaction system.
이에 카메라 등을 사용하여 촬영되는 탑승자의 제스쳐를 인지하는 방식을 사용한다면 디스플레이 패널 조작으로 인한 시야의 분산은 어느 정도 피할 수가 있겠지만, 이러한 비접촉식 입력 방식에 대해서는 위와 같은 기존의 방식으로 마땅한 피드백신호를 발생시킬 수 없다는 문제점이 있다.In this case, if the user's gesture is captured using a camera or the like, the dispersion of the field of view due to the display panel operation can be avoided to some extent. However, the non-contact input method generates a proper feedback signal as described above. There is a problem that you can not.
이러한 피드백 신호가 없다면 제스쳐의 시종이 불명확하고, 제스쳐와 제스쳐 사이의 동작도 제스쳐로 인식되는 등 입력이 쉽지 않다는 문제가 야기된다.Without this feedback signal, the behavior of the gesture is unclear, and the operation between the gesture and the gesture is recognized as a gesture, thereby causing a problem that input is not easy.
이에 본 발명은 비접촉식 제스쳐를 이용한 입력에 대응하여 적절한 신호를 발생시킴으로써 운전자의 시선이나 청각적 주의력 분산 없이 안전운행을 하면서 정확한 입력이 가능하도록 하는 차량 인터랙션 시스템을 제공함을 목적으로 한다.Accordingly, an object of the present invention is to provide a vehicle interaction system that enables accurate input while driving safely by generating an appropriate signal in response to an input using a non-contact gesture, without distracting the driver's gaze or auditory attention.
상기한 과제를 해결하기 위해 본 발명은 입력 가능 영역에서 제스쳐의 발생을 감지하는 카메라,In order to solve the above problems, the present invention provides a camera for detecting the occurrence of a gesture in the input possible region,
카메라에 의해 입력된 영상 중 제스쳐를 입력하는 신체를 추출하고 해당 신체의 위치를 계산하는 영상처리 모듈,An image processing module for extracting a body inputting a gesture from an image input by a camera and calculating a position of the body;
상기 영상처리 모듈에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈을 포함하는 차량 인터랙션 시스템을 제공한다.It provides a vehicle interaction system including a feedback module for generating a feedback signal according to the gesture recognized by the image processing module.
여기서 상기 피드백 모듈은 초음파 풍압 모듈과 상기 초음파 풍압 모듈의 방향을 정해주는 액추에이터를 포함하고,Here, the feedback module includes an actuator for defining the direction of the ultrasonic wind pressure module and the ultrasonic wind pressure module,
상기 초음파 풍압 모듈은, 바람을 발생시키는 풍력발생장치와, 발생된 바람에 지향성을 부여하는 초음파 발생장치를 포함할 수 있다.The ultrasonic wind pressure module may include a wind generator for generating wind and an ultrasonic generator for giving directivity to the generated wind.
또한 여기서 상기 피드백 모듈은 적외선 온열 램프 모듈과 상기 적외선 온열 램프 모듈의 방향을 정해주는 액추에이터를 포함하고, 상기 적외선 온열 램프 모듈은, 적외선을 발생시키는 적외선 발생장치와, 발생된 적외선을 집광하는 반사경 및 렌즈를 포함할 수 있다.In addition, the feedback module includes an actuator for directing the infrared thermal lamp module and the infrared thermal lamp module, the infrared thermal lamp module, an infrared ray generator for generating infrared rays, a reflector for collecting the generated infrared rays and It may include a lens.
또한 여기서 상기 피드백 모듈은 시각 및 청각 피드백 모듈을 포함하고, 상기 시각 및 청각 피드백 모듈은, 영상처리 모듈에 의해 추출된 제스쳐 입력 신체가 입력 가능 영역에 있을 때 이를 입력 가능 표시를 시각적으로 피드백하고, 영상처리 모듈에 의해 추출된 제스쳐가 정상적으로 입력된 경우 해당 제스쳐가 표시되거나 해당 제스쳐 입력 후 진행되는 화면을 시각적으로 피드백할 수 있다.In addition, the feedback module may include a visual and auditory feedback module, and the visual and auditory feedback module may visually feed back an inputtable display when the gesture input body extracted by the image processing module is in an inputable area, When the gesture extracted by the image processing module is normally input, the gesture may be displayed or may be visually fed back to the screen proceeding after inputting the gesture.
상기와 같은 본 발명에 의하면, 사용자가 어떻게 제스쳐를 취하면 어떻게 입력되는지에 대한 감각이 생기게 된다. 이 동작이 익숙해지면 사용자의 인지부하가 줄게 되고 제스쳐를 취할 때 오입력이 줄어들고 사용자 만족감이 늘어나게 된다.According to the present invention as described above, there is a sense of how the user inputs when the user gestures. Familiarity with this behavior will reduce the user's cognitive load, reduce erroneous input and increase user satisfaction when taking gestures.
운전자 손에 직접 풍압이나 온열감으로 피드백을 주게 되면 운전시 시선이 이동하지 않고도 제스쳐에 대한 느낌을 주므로 시선분산을 줄여주고 사용편의성을 높여준다.When feedback is given directly to the driver's hand with wind pressure or warmth, it gives a feeling of gesture without moving the eyes while driving, thus reducing gaze dispersion and improving convenience.
도 1은 본 발명에 따른 인터랙션 시스템의 제1실시예를 나타낸 도면이다.
도 2는 본 발명에 따른 인터랙션 시스템의 제1실시예의 알고리즘을 나타낸 도면이다.
도 3은 본 발명에 따른 인터랙션 시스템의 제2실시예를 나타낸 도면이다.
도 4는 본 발명에 따른 인터랙션 시스템의 제2실시예의 알고리즘을 나타낸 도면이다.
도 5는 본 발명에 따른 인터랙션 시스템의 제3실시예를 나타낸 도면이다.
도 6은 본 발명에 따른 인터랙션 시스템의 제3실시예의 알고리즘을 나타낸 도면이다.1 is a view showing a first embodiment of an interaction system according to the present invention.
2 is a diagram showing an algorithm of a first embodiment of an interaction system according to the present invention.
3 is a view showing a second embodiment of the interaction system according to the present invention.
4 is a diagram illustrating an algorithm of a second embodiment of an interaction system according to the present invention.
5 is a view showing a third embodiment of the interaction system according to the present invention.
6 is a diagram illustrating an algorithm of a third embodiment of an interaction system according to the present invention.
이하, 도 1 내지 도 6을 참고하여 본 발명의 구체적인 실시예를 설명하기로 한다. Hereinafter, specific embodiments of the present invention will be described with reference to FIGS. 1 to 6.
먼저, 도 1과 2를 참조하여 본 발명의 제1실시예를 설명한다.First, a first embodiment of the present invention will be described with reference to FIGS. 1 and 2.
차량의 실내에는 운전자의 근처 일정 영역을 지속적으로 촬영할 수 있는 카메라(2)와, 상기 일정 영역에 위치하여 촬영된 신체에서 제스쳐를 입력하는 신체부위(1;가령 손, 손가락 등)를 공지의 영상처리기법을 이용하여 추출하고, 추출된 신체의 위치를 계산하는 영상처리 모듈(10)이 설치되어 있다.In the interior of the vehicle, a
영상처리 모듈(10)은 추출된 신체 위치의 변동을 통해 제스쳐를 확정할 수 있게 되는데, 제스쳐가 확정된 경우 해당 제스쳐가 저장모듈(20)에 저장되어 있는 소정의 제스쳐와 일치하는지 확인하고, 소정의 제스쳐와 일치할 경우 올바른 입력이 이루어졌음을 운전자에게 알려야 한다. 이때, 저장모듈(20)은 손 흔들기, 주먹쥐기, 박수치기 등 다양한 제스쳐 형태를 미리 저장한다.The
이를 위해 차량의 실내에는 상기 영상처리 모듈(10)에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈로서 초음파 풍압 모듈(3)이 설치되어 있다.To this end, the ultrasonic
초음파 풍압 모듈(3)은 고지향성을 가지는 것으로서, 초음파를 이용하여 바람이 지향성을 가지게 함으로써 손끝과 같은 좁은 영역에 바람을 보낼 수 있도록 구성한다. 특히 초음파는 주파수가 높을수록 직진성이 커지고 분산각이 줄어들어 바람의 진행 영역을 좁게 한정시키기에 좋고 주파수 제어를 통해 제어가 용이하다.The ultrasonic
이 때 바람의 방향은 현재 신체부위가 위치하는 곳을 향해야 하는데 신체부위의 위치는 영상처리 모듈(10)을 통해 획득할 수 있다.At this time, the direction of the wind should be directed to the place where the current body part is located. The position of the body part can be obtained through the
영상처리 모듈(10)에 의해 획득된 신체의 위치로 초음파 풍압 모듈(3)의 방향을 이동시켜야 하는데 이는 초음파 풍압 모듈(3)에 설치된 액추에이터(미도시)의 제어를 통해 수행할 수 있으며, 이러한 제어는 가령 무인 터렛과 같은 기술에 사용되는 방식을 사용할 수 있다.The direction of the ultrasonic
도 2를 참조하여, 본 발명의 제 1 실시예에 따른 제스쳐 인식에 따른 피드백 방법을 설명하면 아래와 같다.Referring to FIG. 2, a feedback method according to gesture recognition according to a first embodiment of the present invention will be described below.
먼저, 카메라(2)를 이용하여 제스쳐 발생을 감지하면(S11), 영상처리모듈(10)은 카메라(20)에 의해 획득된 영상정보로부터 제스쳐 입력 위치 및 특징을 확인하고(S12) 제스쳐를 입력한 신체부위의 위치를 산출한다(S13).First, when the gesture is detected using the camera 2 (S11), the
이에, 영상처리모듈(10)은 초음파 풍압모듈(3)이 지향성 초음파를 발생하도록 제어하고(S14), 초음파 풍압모듈(30)은 제스쳐를 입력한 신체부위에 지향성 초음파를 발생한다(S15).Thus, the
이하 도 3과 4를 참조하여 본 발명의 제1실시예에서 피드백 모듈이 변형된 제2실시예를 설명하되, 제1실시예와 중복되는 카메라(2)와 영상처리 모듈(10) 부분에 대한 설명은 생략하기로 한다.Hereinafter, a second embodiment in which the feedback module is modified in the first embodiment of the present invention will be described with reference to FIGS. 3 and 4, wherein the portion of the
제2실시예의 차량의 실내에는 피드백 모듈로서 적외선 온열 램프 모듈(4)을 사용한다.The infrared thermal lamp module 4 is used as a feedback module in the interior of the vehicle of the second embodiment.
적외선 온열램프 모듈(4)은 신체와 접촉하는 지점의 온도를 의미 있는 정도로 상승시키지만 뜨겁거나 화상을 입을 정도에 이르지는 않도록 제어되는 적외선 발생장치(미도시)를 포함하며, 적외선이 퍼지지 않고 손끝과 같은 좁은 영역에 모일 수 있도록 하는 반사경 및 렌즈(미도시)를 더 포함한다.The infrared heat lamp module 4 includes an infrared generator (not shown) which is controlled to raise the temperature at the point of contact with the body to a significant extent but not to become hot or burned. It further includes a reflector and a lens (not shown) to collect in the same narrow area.
적외선의 방사 방향의 조절에 관한 부분은 제1실시예와 동일하다.The part regarding adjustment of the radial direction of infrared rays is the same as that of 1st Embodiment.
도 4의 과정 S21~S23, S25는 도 2의 과정 S11~S13, S15와 동일하고 피드백으로서 지향성 초음파 대신에 적외선 온열램프를 작동하는 부분만 상이하다.Processes S21 to S23 and S25 of FIG. 4 are the same as processes S11 to S13 and S15 of FIG. 2 and differ only in the portion for operating the infrared thermal lamp instead of the directional ultrasonic wave as feedback.
이하 도 5와 6을 참조하여 본 발명의 제3실시예를 설명한다. 제3실시예 역시 제1실시예와 카메라(2)와 영상처리 모듈(10) 부분은 동일하다.Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 5 and 6. The third embodiment is also identical to the first embodiment in the
제3실시예에서의 피드백 모듈로는 시각 및 청각 피드백 모듈(5)이 설치된다.As the feedback module in the third embodiment, the visual and
시각적 피드백 장치로는 LCD 등의 디스플레이, 또는 HUD 등이 사용될 수 있고, 청각적 장치로는 알람 음이 발생하거나 어떠한 동작이 수행되는지에 대한 음성안내 등이 발생할 수 있다.As a visual feedback device, a display such as an LCD, a HUD, or the like may be used, and as an audio device, an alarm sound may be generated or a voice guidance about what operation is performed may occur.
운전자의 입력 신체가 제스쳐 입력을 위한 소정의 입력가능영역에 위치하며 머무는 경우에는 손과 같은 모양이 뜨면서 게이지가 차오르거나 테두리 색이 변하는 등의 방법으로 사용자에게 알려준다.When the driver's input body stays in a predetermined input-capable area for gesture input, the driver's input body is displayed like a hand, and the gauge is raised or the border color is changed.
또 제스쳐에 의한 입력이 정상적으로 이루어졌음을 알리기 위해서는 해당 제스쳐에 대한 아이콘을 표시하거나 해당 제스쳐에 따른 다음 화면이 뜨는 방식으로 사용자에게 알려줄 수 있다.In addition, in order to notify that the input by the gesture is normally performed, an icon for the gesture may be displayed or the user may be notified by displaying the next screen according to the gesture.
이하, 도 6을 참조하여, 시각 및 청각 피드백을 제공하는 방법을 설명하기로 한다. Hereinafter, a method of providing visual and auditory feedback will be described with reference to FIG. 6.
먼저, 카메라(2)를 통해 제스쳐 발생이 감지되면(S31), 영상처리모듈(10)은 저장모듈(20)에 저장된 제스쳐와 비교하여 제스쳐를 확인하고(S32), 제스쳐 특징에 맞는 시나리오를 선택한다(S33). 그 후 영상처리모듈(10)은 시각 및 청각 피드백모듈(5)을 제어하여, 시각 및 청각 피드백모듈(5)이 시나리오별 시청각 아웃풋을 출력하고(S34), 시청각 사용자 입력 피드백을 제공한다(S35).First, when a gesture is detected through the camera 2 (S31), the
이와 같이, 본 발명은 운전자의 제스쳐를 인식하고 제스쳐 인식 시 적절한 피드백을 제공하도록 함으로써 제스쳐 오인식을 최소화할 수 있다.As described above, the present invention may minimize gesture misrecognition by recognizing a gesture of a driver and providing appropriate feedback in gesture recognition.
1 : 제스쳐 입력 신체
2 : 카메라
3 : 초음파 풍압 모듈
4 : 적외선 온열램프 모듈
5 : 시작 및 청각 피드백 모듈
10 : 영상처리 모듈1: gesture input body
2: Camera
3: ultrasonic wind pressure module
4: infrared thermal lamp module
5: start and auditory feedback module
10: image processing module
Claims (6)
카메라에 의해 입력된 영상 중 제스쳐를 입력하는 신체를 추출하고 해당 신체의 위치를 계산하는 영상처리 모듈; 및
상기 영상처리 모듈에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈을 포함하는 차량 인터랙션 시스템.A camera for detecting the occurrence of a gesture in the inputtable area;
An image processing module for extracting a body for inputting a gesture from an image input by a camera and calculating a position of the body; And
And a feedback module for generating a feedback signal according to a gesture recognized by the image processing module.
상기 피드백 모듈은,
풍압을 발생시키는 초음파 풍압 모듈; 및
상기 초음파 풍압 모듈의 방향을 정해주는 액추에이터를 포함하는 차량 인터랙션 시스템.The method according to claim 1,
The feedback module,
Ultrasonic wind pressure module for generating wind pressure; And
And an actuator for directing the ultrasonic wind pressure module.
상기 초음파 풍압 모듈은,
바람을 발생시키는 풍력발생장치; 및
발생된 바람에 지향성을 부여하는 초음파 발생장치를 포함하는 차량 인터랙션 시스템.The method according to claim 2,
The ultrasonic wind pressure module,
A wind turbine generator for generating wind; And
A vehicle interaction system comprising an ultrasonic generator for directing generated wind.
상기 피드백 모듈은,
적외선을 발생시키는 적외선 온열 램프 모듈; 및
상기 적외선 온열 램프 모듈의 방향을 정해주는 액추에이터를 포함하는 차량 인터랙션 시스템.The method according to claim 1,
The feedback module,
An infrared heat lamp module generating infrared light; And
And an actuator for directing the infrared thermal lamp module.
상기 적외선 온열 램프 모듈은,
적외선을 발생시키는 적외선 발생장치; 및
발생된 적외선을 집광하는 반사경 및 렌즈를 포함하는 차량 인터랙션 시스템.The method of claim 4,
The infrared thermal lamp module,
An infrared ray generator for generating infrared rays; And
A vehicle interaction system comprising a reflector and a lens for collecting the generated infrared rays.
상기 피드백 모듈은 시각 및 청각 피드백 모듈을 포함하고,
상기 시각 및 청각 피드백 모듈은,
영상처리 모듈에 의해 추출된 제스쳐 입력 신체가 입력 가능 영역에 있을 때 이를 입력 가능 표시를 시각적으로 피드백하고,
영상처리 모듈에 의해 추출된 제스쳐가 정상적으로 입력된 경우 해당 제스쳐가 표시되거나 해당 제스쳐 입력 후 진행되는 화면을 시각적으로 피드백하는 차량 인터랙션 시스템.The method according to claim 1,
The feedback module includes a visual and auditory feedback module,
The visual and auditory feedback module,
When the gesture input body extracted by the image processing module is in the inputtable area, it visually feeds back the inputtable display,
When the gesture extracted by the image processing module is normally input, the vehicle interaction system for visually feeding back the screen that the gesture is displayed or proceeds after inputting the gesture.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110136633A KR101704065B1 (en) | 2011-12-16 | 2011-12-16 | Interaction System for Vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110136633A KR101704065B1 (en) | 2011-12-16 | 2011-12-16 | Interaction System for Vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130069085A true KR20130069085A (en) | 2013-06-26 |
KR101704065B1 KR101704065B1 (en) | 2017-02-07 |
Family
ID=48864561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110136633A KR101704065B1 (en) | 2011-12-16 | 2011-12-16 | Interaction System for Vehicles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101704065B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104354701A (en) * | 2014-10-29 | 2015-02-18 | 云南大学 | Human-car interaction realization method |
KR101534718B1 (en) * | 2013-12-02 | 2015-07-07 | 현대자동차 주식회사 | In-vehicle infotainment device and method for controlling thereof |
KR20230026131A (en) * | 2021-08-17 | 2023-02-24 | 한국자동차연구원 | Systemt and method for guiding gesture recognition area based on non-contact haptic |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010163111A (en) * | 2009-01-16 | 2010-07-29 | Toyota Boshoku Corp | Air flow adjusting device |
KR20110022057A (en) * | 2008-06-18 | 2011-03-04 | 오블롱 인더스트리즈, 인크 | Gesture-based control system for vehicle interfaces |
-
2011
- 2011-12-16 KR KR1020110136633A patent/KR101704065B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110022057A (en) * | 2008-06-18 | 2011-03-04 | 오블롱 인더스트리즈, 인크 | Gesture-based control system for vehicle interfaces |
JP2010163111A (en) * | 2009-01-16 | 2010-07-29 | Toyota Boshoku Corp | Air flow adjusting device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101534718B1 (en) * | 2013-12-02 | 2015-07-07 | 현대자동차 주식회사 | In-vehicle infotainment device and method for controlling thereof |
CN104354701A (en) * | 2014-10-29 | 2015-02-18 | 云南大学 | Human-car interaction realization method |
CN104354701B (en) * | 2014-10-29 | 2016-11-23 | 云南大学 | The implementation method that a kind of people's car is mutual |
KR20230026131A (en) * | 2021-08-17 | 2023-02-24 | 한국자동차연구원 | Systemt and method for guiding gesture recognition area based on non-contact haptic |
Also Published As
Publication number | Publication date |
---|---|
KR101704065B1 (en) | 2017-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6214752B2 (en) | Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system | |
EP3598341B1 (en) | Implementation of biometric authentication using a viewfinder | |
US11688162B2 (en) | Drive assist device | |
CN104750247B (en) | Use single controller and the system and method for supporting the user interface of tactile to control multiple displays | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
CN105589594B (en) | Electronic device and operation control method of electronic device | |
EP3422156B1 (en) | Control unit for vehicle and control method for the same | |
US10191282B2 (en) | Computer display device mounted on eyeglasses | |
US10558271B2 (en) | System for receiving input in response to motion of user | |
US20100182232A1 (en) | Electronic Data Input System | |
JP2019039988A5 (en) | ||
JP5876013B2 (en) | Input device | |
KR101371749B1 (en) | Vehicle control devices | |
KR102117261B1 (en) | Range detection and bio-certification method, machine-readable storage medium and terminal | |
US10921899B2 (en) | Interaction system using collocated visual, haptic, and/or auditory feedback | |
RU2013122880A (en) | MEDICAL VISUALIZATION SYSTEM | |
US20160291330A1 (en) | Visual line direction sensing device | |
US20170300109A1 (en) | Method of blowable user interaction and an electronic device capable of blowable user interaction | |
JP2014149640A (en) | Gesture operation device and gesture operation program | |
KR20170109077A (en) | Information processing device and recording medium | |
KR20130069085A (en) | Interaction system for vehicles | |
JP2005254851A (en) | Command input device | |
JP6549839B2 (en) | Operation system | |
WO2018116565A1 (en) | Information display device for vehicle and information display program for vehicle | |
JP2014211738A (en) | On-vehicle device controller and on-vehicle device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20191219 Year of fee payment: 4 |