KR20130069085A - Interaction system for vehicles - Google Patents

Interaction system for vehicles Download PDF

Info

Publication number
KR20130069085A
KR20130069085A KR1020110136633A KR20110136633A KR20130069085A KR 20130069085 A KR20130069085 A KR 20130069085A KR 1020110136633 A KR1020110136633 A KR 1020110136633A KR 20110136633 A KR20110136633 A KR 20110136633A KR 20130069085 A KR20130069085 A KR 20130069085A
Authority
KR
South Korea
Prior art keywords
module
gesture
wind pressure
image processing
feedback
Prior art date
Application number
KR1020110136633A
Other languages
Korean (ko)
Other versions
KR101704065B1 (en
Inventor
박성민
김성운
오광명
최진하
이기춘
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020110136633A priority Critical patent/KR101704065B1/en
Publication of KR20130069085A publication Critical patent/KR20130069085A/en
Application granted granted Critical
Publication of KR101704065B1 publication Critical patent/KR101704065B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A vehicle interaction system is provided to reduce wrong gesture input and recognition loads by providing a sense of gesture input. CONSTITUTION: A camera(2) senses the generation of a gesture in an input area and an image processing module(10) extracts a human body inputting the gesture and calculates a position of the human body. A feedback module generates a feedback signal according to the gesture. The feedback module includes an ultrasound wind pressure module(3) generating wind pressure and an actuator designating a direction of the ultrasound wind pressure module. The ultrasound wind pressure module includes a wind power generating device and an ultrasound wind generating device. [Reference numerals] (10) Image processing module; (20) Storage module; (3) Ultrasound wind pressure module

Description

차량 인터랙션 시스템{Interaction System for Vehicles}Interaction System for Vehicles

본 발명은 차량 인터랙션 시스템에 관한 것으로서, 보다 상세하게는 탑승자의 제스쳐를 인식하여 촉각, 시각 또는 청각 방식으로 피드백을 함으로써 제스쳐 오입력을 감소시키고 운전자의 시야나 신경이 분산되지 않도록 하는 기술이다.The present invention relates to a vehicle interaction system. More particularly, the present invention relates to a vehicle interaction system, which recognizes a driver's gesture and provides feedback in a tactile, visual, or auditory manner, thereby reducing gesture misinput and distracting the driver's view or nerve.

차량 내 인터랙션 시스템에서 피드백은 시각적인 디스플레이나 조명, 또는 청각적인 소리가 대부분을 차지한다. 가령 운전자는 네비게이션의 터치 디스플레이를 조작하고, 이에 대해 네비게이션 시스템은 화면을 변경시키거나 소리를 내는 방식으로 운전자에게 운전자의 입력이 제대로 입력되었음을 피드백한다.In in-vehicle interaction systems, feedback is most likely a visual display, lighting, or audible sound. For example, the driver manipulates the touch display of the navigation, which the navigation system feeds back to the driver that the driver's input has been properly input in a manner that changes the screen or makes a sound.

그러나 이러한 과정에서 운전자의 시각적 집중력이 디스플레이에 분산되고 청각적 집중력이 피드백 소리에 분산되기 때문에, 차량 내 인터랙션 시스템 조작과정에서 실제 많은 사고가 발생한다.However, in this process, since the driver's visual concentration is distributed on the display and the auditory concentration is distributed on the feedback sound, many accidents occur in the process of operating the in-vehicle interaction system.

이에 카메라 등을 사용하여 촬영되는 탑승자의 제스쳐를 인지하는 방식을 사용한다면 디스플레이 패널 조작으로 인한 시야의 분산은 어느 정도 피할 수가 있겠지만, 이러한 비접촉식 입력 방식에 대해서는 위와 같은 기존의 방식으로 마땅한 피드백신호를 발생시킬 수 없다는 문제점이 있다.In this case, if the user's gesture is captured using a camera or the like, the dispersion of the field of view due to the display panel operation can be avoided to some extent. However, the non-contact input method generates a proper feedback signal as described above. There is a problem that you can not.

이러한 피드백 신호가 없다면 제스쳐의 시종이 불명확하고, 제스쳐와 제스쳐 사이의 동작도 제스쳐로 인식되는 등 입력이 쉽지 않다는 문제가 야기된다.Without this feedback signal, the behavior of the gesture is unclear, and the operation between the gesture and the gesture is recognized as a gesture, thereby causing a problem that input is not easy.

이에 본 발명은 비접촉식 제스쳐를 이용한 입력에 대응하여 적절한 신호를 발생시킴으로써 운전자의 시선이나 청각적 주의력 분산 없이 안전운행을 하면서 정확한 입력이 가능하도록 하는 차량 인터랙션 시스템을 제공함을 목적으로 한다.Accordingly, an object of the present invention is to provide a vehicle interaction system that enables accurate input while driving safely by generating an appropriate signal in response to an input using a non-contact gesture, without distracting the driver's gaze or auditory attention.

상기한 과제를 해결하기 위해 본 발명은 입력 가능 영역에서 제스쳐의 발생을 감지하는 카메라,In order to solve the above problems, the present invention provides a camera for detecting the occurrence of a gesture in the input possible region,

카메라에 의해 입력된 영상 중 제스쳐를 입력하는 신체를 추출하고 해당 신체의 위치를 계산하는 영상처리 모듈,An image processing module for extracting a body inputting a gesture from an image input by a camera and calculating a position of the body;

상기 영상처리 모듈에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈을 포함하는 차량 인터랙션 시스템을 제공한다.It provides a vehicle interaction system including a feedback module for generating a feedback signal according to the gesture recognized by the image processing module.

여기서 상기 피드백 모듈은 초음파 풍압 모듈과 상기 초음파 풍압 모듈의 방향을 정해주는 액추에이터를 포함하고,Here, the feedback module includes an actuator for defining the direction of the ultrasonic wind pressure module and the ultrasonic wind pressure module,

상기 초음파 풍압 모듈은, 바람을 발생시키는 풍력발생장치와, 발생된 바람에 지향성을 부여하는 초음파 발생장치를 포함할 수 있다.The ultrasonic wind pressure module may include a wind generator for generating wind and an ultrasonic generator for giving directivity to the generated wind.

또한 여기서 상기 피드백 모듈은 적외선 온열 램프 모듈과 상기 적외선 온열 램프 모듈의 방향을 정해주는 액추에이터를 포함하고, 상기 적외선 온열 램프 모듈은, 적외선을 발생시키는 적외선 발생장치와, 발생된 적외선을 집광하는 반사경 및 렌즈를 포함할 수 있다.In addition, the feedback module includes an actuator for directing the infrared thermal lamp module and the infrared thermal lamp module, the infrared thermal lamp module, an infrared ray generator for generating infrared rays, a reflector for collecting the generated infrared rays and It may include a lens.

또한 여기서 상기 피드백 모듈은 시각 및 청각 피드백 모듈을 포함하고, 상기 시각 및 청각 피드백 모듈은, 영상처리 모듈에 의해 추출된 제스쳐 입력 신체가 입력 가능 영역에 있을 때 이를 입력 가능 표시를 시각적으로 피드백하고, 영상처리 모듈에 의해 추출된 제스쳐가 정상적으로 입력된 경우 해당 제스쳐가 표시되거나 해당 제스쳐 입력 후 진행되는 화면을 시각적으로 피드백할 수 있다.In addition, the feedback module may include a visual and auditory feedback module, and the visual and auditory feedback module may visually feed back an inputtable display when the gesture input body extracted by the image processing module is in an inputable area, When the gesture extracted by the image processing module is normally input, the gesture may be displayed or may be visually fed back to the screen proceeding after inputting the gesture.

상기와 같은 본 발명에 의하면, 사용자가 어떻게 제스쳐를 취하면 어떻게 입력되는지에 대한 감각이 생기게 된다. 이 동작이 익숙해지면 사용자의 인지부하가 줄게 되고 제스쳐를 취할 때 오입력이 줄어들고 사용자 만족감이 늘어나게 된다.According to the present invention as described above, there is a sense of how the user inputs when the user gestures. Familiarity with this behavior will reduce the user's cognitive load, reduce erroneous input and increase user satisfaction when taking gestures.

운전자 손에 직접 풍압이나 온열감으로 피드백을 주게 되면 운전시 시선이 이동하지 않고도 제스쳐에 대한 느낌을 주므로 시선분산을 줄여주고 사용편의성을 높여준다.When feedback is given directly to the driver's hand with wind pressure or warmth, it gives a feeling of gesture without moving the eyes while driving, thus reducing gaze dispersion and improving convenience.

도 1은 본 발명에 따른 인터랙션 시스템의 제1실시예를 나타낸 도면이다.
도 2는 본 발명에 따른 인터랙션 시스템의 제1실시예의 알고리즘을 나타낸 도면이다.
도 3은 본 발명에 따른 인터랙션 시스템의 제2실시예를 나타낸 도면이다.
도 4는 본 발명에 따른 인터랙션 시스템의 제2실시예의 알고리즘을 나타낸 도면이다.
도 5는 본 발명에 따른 인터랙션 시스템의 제3실시예를 나타낸 도면이다.
도 6은 본 발명에 따른 인터랙션 시스템의 제3실시예의 알고리즘을 나타낸 도면이다.
1 is a view showing a first embodiment of an interaction system according to the present invention.
2 is a diagram showing an algorithm of a first embodiment of an interaction system according to the present invention.
3 is a view showing a second embodiment of the interaction system according to the present invention.
4 is a diagram illustrating an algorithm of a second embodiment of an interaction system according to the present invention.
5 is a view showing a third embodiment of the interaction system according to the present invention.
6 is a diagram illustrating an algorithm of a third embodiment of an interaction system according to the present invention.

이하, 도 1 내지 도 6을 참고하여 본 발명의 구체적인 실시예를 설명하기로 한다. Hereinafter, specific embodiments of the present invention will be described with reference to FIGS. 1 to 6.

먼저, 도 1과 2를 참조하여 본 발명의 제1실시예를 설명한다.First, a first embodiment of the present invention will be described with reference to FIGS. 1 and 2.

차량의 실내에는 운전자의 근처 일정 영역을 지속적으로 촬영할 수 있는 카메라(2)와, 상기 일정 영역에 위치하여 촬영된 신체에서 제스쳐를 입력하는 신체부위(1;가령 손, 손가락 등)를 공지의 영상처리기법을 이용하여 추출하고, 추출된 신체의 위치를 계산하는 영상처리 모듈(10)이 설치되어 있다.In the interior of the vehicle, a camera 2 capable of continuously photographing a certain area near the driver and a body part (eg, a hand, a finger, etc.) for inputting a gesture from a body photographed in the predetermined area are known images. An image processing module 10 for extracting by using a processing technique and calculating the position of the extracted body is installed.

영상처리 모듈(10)은 추출된 신체 위치의 변동을 통해 제스쳐를 확정할 수 있게 되는데, 제스쳐가 확정된 경우 해당 제스쳐가 저장모듈(20)에 저장되어 있는 소정의 제스쳐와 일치하는지 확인하고, 소정의 제스쳐와 일치할 경우 올바른 입력이 이루어졌음을 운전자에게 알려야 한다. 이때, 저장모듈(20)은 손 흔들기, 주먹쥐기, 박수치기 등 다양한 제스쳐 형태를 미리 저장한다.The image processing module 10 may determine the gesture by changing the extracted body position. When the gesture is determined, the image processing module 10 checks whether the corresponding gesture corresponds to a predetermined gesture stored in the storage module 20, and If the gesture matches, the driver must be informed that the correct input has been made. At this time, the storage module 20 stores in advance various gesture types such as shaking hands, clenching fists and clapping hands.

이를 위해 차량의 실내에는 상기 영상처리 모듈(10)에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈로서 초음파 풍압 모듈(3)이 설치되어 있다.To this end, the ultrasonic wind pressure module 3 is installed in the interior of the vehicle as a feedback module for generating a feedback signal according to the gesture recognized by the image processing module 10.

초음파 풍압 모듈(3)은 고지향성을 가지는 것으로서, 초음파를 이용하여 바람이 지향성을 가지게 함으로써 손끝과 같은 좁은 영역에 바람을 보낼 수 있도록 구성한다. 특히 초음파는 주파수가 높을수록 직진성이 커지고 분산각이 줄어들어 바람의 진행 영역을 좁게 한정시키기에 좋고 주파수 제어를 통해 제어가 용이하다.The ultrasonic wind pressure module 3 has a high directivity, and is configured to send wind to a narrow area such as a fingertip by allowing the wind to have directivity using ultrasonic waves. In particular, the higher the frequency, the greater the straightness and the smaller the dispersion angle, so that the narrower the area of the wind, the easier the frequency control.

이 때 바람의 방향은 현재 신체부위가 위치하는 곳을 향해야 하는데 신체부위의 위치는 영상처리 모듈(10)을 통해 획득할 수 있다.At this time, the direction of the wind should be directed to the place where the current body part is located. The position of the body part can be obtained through the image processing module 10.

영상처리 모듈(10)에 의해 획득된 신체의 위치로 초음파 풍압 모듈(3)의 방향을 이동시켜야 하는데 이는 초음파 풍압 모듈(3)에 설치된 액추에이터(미도시)의 제어를 통해 수행할 수 있으며, 이러한 제어는 가령 무인 터렛과 같은 기술에 사용되는 방식을 사용할 수 있다.The direction of the ultrasonic wind pressure module 3 should be moved to the position of the body obtained by the image processing module 10, which can be performed through the control of an actuator (not shown) installed in the ultrasonic wind pressure module 3. The control may use a method used for a technique such as an unattended turret.

도 2를 참조하여, 본 발명의 제 1 실시예에 따른 제스쳐 인식에 따른 피드백 방법을 설명하면 아래와 같다.Referring to FIG. 2, a feedback method according to gesture recognition according to a first embodiment of the present invention will be described below.

먼저, 카메라(2)를 이용하여 제스쳐 발생을 감지하면(S11), 영상처리모듈(10)은 카메라(20)에 의해 획득된 영상정보로부터 제스쳐 입력 위치 및 특징을 확인하고(S12) 제스쳐를 입력한 신체부위의 위치를 산출한다(S13).First, when the gesture is detected using the camera 2 (S11), the image processing module 10 checks the gesture input position and the feature from the image information acquired by the camera 20 (S12) and inputs the gesture. The position of one body part is calculated (S13).

이에, 영상처리모듈(10)은 초음파 풍압모듈(3)이 지향성 초음파를 발생하도록 제어하고(S14), 초음파 풍압모듈(30)은 제스쳐를 입력한 신체부위에 지향성 초음파를 발생한다(S15).Thus, the image processing module 10 controls the ultrasonic wind pressure module 3 to generate the directional ultrasonic waves (S14), and the ultrasonic wind pressure module 30 generates the directional ultrasonic waves on the body part in which the gesture is input (S15).

이하 도 3과 4를 참조하여 본 발명의 제1실시예에서 피드백 모듈이 변형된 제2실시예를 설명하되, 제1실시예와 중복되는 카메라(2)와 영상처리 모듈(10) 부분에 대한 설명은 생략하기로 한다.Hereinafter, a second embodiment in which the feedback module is modified in the first embodiment of the present invention will be described with reference to FIGS. 3 and 4, wherein the portion of the camera 2 and the image processing module 10 overlapping with the first embodiment will be described. The description will be omitted.

제2실시예의 차량의 실내에는 피드백 모듈로서 적외선 온열 램프 모듈(4)을 사용한다.The infrared thermal lamp module 4 is used as a feedback module in the interior of the vehicle of the second embodiment.

적외선 온열램프 모듈(4)은 신체와 접촉하는 지점의 온도를 의미 있는 정도로 상승시키지만 뜨겁거나 화상을 입을 정도에 이르지는 않도록 제어되는 적외선 발생장치(미도시)를 포함하며, 적외선이 퍼지지 않고 손끝과 같은 좁은 영역에 모일 수 있도록 하는 반사경 및 렌즈(미도시)를 더 포함한다.The infrared heat lamp module 4 includes an infrared generator (not shown) which is controlled to raise the temperature at the point of contact with the body to a significant extent but not to become hot or burned. It further includes a reflector and a lens (not shown) to collect in the same narrow area.

적외선의 방사 방향의 조절에 관한 부분은 제1실시예와 동일하다.The part regarding adjustment of the radial direction of infrared rays is the same as that of 1st Embodiment.

도 4의 과정 S21~S23, S25는 도 2의 과정 S11~S13, S15와 동일하고 피드백으로서 지향성 초음파 대신에 적외선 온열램프를 작동하는 부분만 상이하다.Processes S21 to S23 and S25 of FIG. 4 are the same as processes S11 to S13 and S15 of FIG. 2 and differ only in the portion for operating the infrared thermal lamp instead of the directional ultrasonic wave as feedback.

이하 도 5와 6을 참조하여 본 발명의 제3실시예를 설명한다. 제3실시예 역시 제1실시예와 카메라(2)와 영상처리 모듈(10) 부분은 동일하다.Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 5 and 6. The third embodiment is also identical to the first embodiment in the camera 2 and the image processing module 10.

제3실시예에서의 피드백 모듈로는 시각 및 청각 피드백 모듈(5)이 설치된다.As the feedback module in the third embodiment, the visual and auditory feedback module 5 is installed.

시각적 피드백 장치로는 LCD 등의 디스플레이, 또는 HUD 등이 사용될 수 있고, 청각적 장치로는 알람 음이 발생하거나 어떠한 동작이 수행되는지에 대한 음성안내 등이 발생할 수 있다.As a visual feedback device, a display such as an LCD, a HUD, or the like may be used, and as an audio device, an alarm sound may be generated or a voice guidance about what operation is performed may occur.

운전자의 입력 신체가 제스쳐 입력을 위한 소정의 입력가능영역에 위치하며 머무는 경우에는 손과 같은 모양이 뜨면서 게이지가 차오르거나 테두리 색이 변하는 등의 방법으로 사용자에게 알려준다.When the driver's input body stays in a predetermined input-capable area for gesture input, the driver's input body is displayed like a hand, and the gauge is raised or the border color is changed.

또 제스쳐에 의한 입력이 정상적으로 이루어졌음을 알리기 위해서는 해당 제스쳐에 대한 아이콘을 표시하거나 해당 제스쳐에 따른 다음 화면이 뜨는 방식으로 사용자에게 알려줄 수 있다.In addition, in order to notify that the input by the gesture is normally performed, an icon for the gesture may be displayed or the user may be notified by displaying the next screen according to the gesture.

이하, 도 6을 참조하여, 시각 및 청각 피드백을 제공하는 방법을 설명하기로 한다. Hereinafter, a method of providing visual and auditory feedback will be described with reference to FIG. 6.

먼저, 카메라(2)를 통해 제스쳐 발생이 감지되면(S31), 영상처리모듈(10)은 저장모듈(20)에 저장된 제스쳐와 비교하여 제스쳐를 확인하고(S32), 제스쳐 특징에 맞는 시나리오를 선택한다(S33). 그 후 영상처리모듈(10)은 시각 및 청각 피드백모듈(5)을 제어하여, 시각 및 청각 피드백모듈(5)이 시나리오별 시청각 아웃풋을 출력하고(S34), 시청각 사용자 입력 피드백을 제공한다(S35).First, when a gesture is detected through the camera 2 (S31), the image processing module 10 checks the gesture compared to the gesture stored in the storage module 20 (S32), and selects a scenario suitable for the gesture characteristic. (S33). Thereafter, the image processing module 10 controls the visual and auditory feedback module 5 so that the visual and auditory feedback module 5 outputs the audiovisual output for each scenario (S34), and provides the audiovisual user input feedback (S35). ).

이와 같이, 본 발명은 운전자의 제스쳐를 인식하고 제스쳐 인식 시 적절한 피드백을 제공하도록 함으로써 제스쳐 오인식을 최소화할 수 있다.As described above, the present invention may minimize gesture misrecognition by recognizing a gesture of a driver and providing appropriate feedback in gesture recognition.

1 : 제스쳐 입력 신체
2 : 카메라
3 : 초음파 풍압 모듈
4 : 적외선 온열램프 모듈
5 : 시작 및 청각 피드백 모듈
10 : 영상처리 모듈
1: gesture input body
2: Camera
3: ultrasonic wind pressure module
4: infrared thermal lamp module
5: start and auditory feedback module
10: image processing module

Claims (6)

입력 가능 영역에서 제스쳐의 발생을 감지하는 카메라;
카메라에 의해 입력된 영상 중 제스쳐를 입력하는 신체를 추출하고 해당 신체의 위치를 계산하는 영상처리 모듈; 및
상기 영상처리 모듈에 의해 인식된 제스쳐에 따른 피드백신호를 발생시키는 피드백 모듈을 포함하는 차량 인터랙션 시스템.
A camera for detecting the occurrence of a gesture in the inputtable area;
An image processing module for extracting a body for inputting a gesture from an image input by a camera and calculating a position of the body; And
And a feedback module for generating a feedback signal according to a gesture recognized by the image processing module.
청구항 1에 있어서,
상기 피드백 모듈은,
풍압을 발생시키는 초음파 풍압 모듈; 및
상기 초음파 풍압 모듈의 방향을 정해주는 액추에이터를 포함하는 차량 인터랙션 시스템.
The method according to claim 1,
The feedback module,
Ultrasonic wind pressure module for generating wind pressure; And
And an actuator for directing the ultrasonic wind pressure module.
청구항 2에 있어서,
상기 초음파 풍압 모듈은,
바람을 발생시키는 풍력발생장치; 및
발생된 바람에 지향성을 부여하는 초음파 발생장치를 포함하는 차량 인터랙션 시스템.
The method according to claim 2,
The ultrasonic wind pressure module,
A wind turbine generator for generating wind; And
A vehicle interaction system comprising an ultrasonic generator for directing generated wind.
청구항 1에 있어서,
상기 피드백 모듈은,
적외선을 발생시키는 적외선 온열 램프 모듈; 및
상기 적외선 온열 램프 모듈의 방향을 정해주는 액추에이터를 포함하는 차량 인터랙션 시스템.
The method according to claim 1,
The feedback module,
An infrared heat lamp module generating infrared light; And
And an actuator for directing the infrared thermal lamp module.
청구항 4에 있어서,
상기 적외선 온열 램프 모듈은,
적외선을 발생시키는 적외선 발생장치; 및
발생된 적외선을 집광하는 반사경 및 렌즈를 포함하는 차량 인터랙션 시스템.
The method of claim 4,
The infrared thermal lamp module,
An infrared ray generator for generating infrared rays; And
A vehicle interaction system comprising a reflector and a lens for collecting the generated infrared rays.
청구항 1에 있어서,
상기 피드백 모듈은 시각 및 청각 피드백 모듈을 포함하고,
상기 시각 및 청각 피드백 모듈은,
영상처리 모듈에 의해 추출된 제스쳐 입력 신체가 입력 가능 영역에 있을 때 이를 입력 가능 표시를 시각적으로 피드백하고,
영상처리 모듈에 의해 추출된 제스쳐가 정상적으로 입력된 경우 해당 제스쳐가 표시되거나 해당 제스쳐 입력 후 진행되는 화면을 시각적으로 피드백하는 차량 인터랙션 시스템.
The method according to claim 1,
The feedback module includes a visual and auditory feedback module,
The visual and auditory feedback module,
When the gesture input body extracted by the image processing module is in the inputtable area, it visually feeds back the inputtable display,
When the gesture extracted by the image processing module is normally input, the vehicle interaction system for visually feeding back the screen that the gesture is displayed or proceeds after inputting the gesture.
KR1020110136633A 2011-12-16 2011-12-16 Interaction System for Vehicles KR101704065B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110136633A KR101704065B1 (en) 2011-12-16 2011-12-16 Interaction System for Vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110136633A KR101704065B1 (en) 2011-12-16 2011-12-16 Interaction System for Vehicles

Publications (2)

Publication Number Publication Date
KR20130069085A true KR20130069085A (en) 2013-06-26
KR101704065B1 KR101704065B1 (en) 2017-02-07

Family

ID=48864561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110136633A KR101704065B1 (en) 2011-12-16 2011-12-16 Interaction System for Vehicles

Country Status (1)

Country Link
KR (1) KR101704065B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104354701A (en) * 2014-10-29 2015-02-18 云南大学 Human-car interaction realization method
KR101534718B1 (en) * 2013-12-02 2015-07-07 현대자동차 주식회사 In-vehicle infotainment device and method for controlling thereof
KR20230026131A (en) * 2021-08-17 2023-02-24 한국자동차연구원 Systemt and method for guiding gesture recognition area based on non-contact haptic

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010163111A (en) * 2009-01-16 2010-07-29 Toyota Boshoku Corp Air flow adjusting device
KR20110022057A (en) * 2008-06-18 2011-03-04 오블롱 인더스트리즈, 인크 Gesture-based control system for vehicle interfaces

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110022057A (en) * 2008-06-18 2011-03-04 오블롱 인더스트리즈, 인크 Gesture-based control system for vehicle interfaces
JP2010163111A (en) * 2009-01-16 2010-07-29 Toyota Boshoku Corp Air flow adjusting device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534718B1 (en) * 2013-12-02 2015-07-07 현대자동차 주식회사 In-vehicle infotainment device and method for controlling thereof
CN104354701A (en) * 2014-10-29 2015-02-18 云南大学 Human-car interaction realization method
CN104354701B (en) * 2014-10-29 2016-11-23 云南大学 The implementation method that a kind of people's car is mutual
KR20230026131A (en) * 2021-08-17 2023-02-24 한국자동차연구원 Systemt and method for guiding gesture recognition area based on non-contact haptic

Also Published As

Publication number Publication date
KR101704065B1 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
JP6214752B2 (en) Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
EP3598341B1 (en) Implementation of biometric authentication using a viewfinder
US11688162B2 (en) Drive assist device
CN104750247B (en) Use single controller and the system and method for supporting the user interface of tactile to control multiple displays
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
CN105589594B (en) Electronic device and operation control method of electronic device
EP3422156B1 (en) Control unit for vehicle and control method for the same
US10191282B2 (en) Computer display device mounted on eyeglasses
US10558271B2 (en) System for receiving input in response to motion of user
US20100182232A1 (en) Electronic Data Input System
JP2019039988A5 (en)
JP5876013B2 (en) Input device
KR101371749B1 (en) Vehicle control devices
KR102117261B1 (en) Range detection and bio-certification method, machine-readable storage medium and terminal
US10921899B2 (en) Interaction system using collocated visual, haptic, and/or auditory feedback
RU2013122880A (en) MEDICAL VISUALIZATION SYSTEM
US20160291330A1 (en) Visual line direction sensing device
US20170300109A1 (en) Method of blowable user interaction and an electronic device capable of blowable user interaction
JP2014149640A (en) Gesture operation device and gesture operation program
KR20170109077A (en) Information processing device and recording medium
KR20130069085A (en) Interaction system for vehicles
JP2005254851A (en) Command input device
JP6549839B2 (en) Operation system
WO2018116565A1 (en) Information display device for vehicle and information display program for vehicle
JP2014211738A (en) On-vehicle device controller and on-vehicle device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191219

Year of fee payment: 4