KR20170037585A - Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor - Google Patents

Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor Download PDF

Info

Publication number
KR20170037585A
KR20170037585A KR1020170033194A KR20170033194A KR20170037585A KR 20170037585 A KR20170037585 A KR 20170037585A KR 1020170033194 A KR1020170033194 A KR 1020170033194A KR 20170033194 A KR20170033194 A KR 20170033194A KR 20170037585 A KR20170037585 A KR 20170037585A
Authority
KR
South Korea
Prior art keywords
control
touch sensor
depth
center fascia
touch
Prior art date
Application number
KR1020170033194A
Other languages
Korean (ko)
Other versions
KR101808714B1 (en
Inventor
권순각
신근수
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020170033194A priority Critical patent/KR101808714B1/en
Publication of KR20170037585A publication Critical patent/KR20170037585A/en
Application granted granted Critical
Publication of KR101808714B1 publication Critical patent/KR101808714B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0211Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for record carriers apparatus, e.g. video recorders, tape players or CD players
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • B60K2350/1024
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • B60W2050/0064Manual parameter input, manual setting means, manual initialising or calibrating means using a remote, e.g. cordless, transmitter or receiver unit, e.g. remote keypad or mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a system to control a center fascia of a vehicle, generating a control graphic interface in a center fascia of a vehicle and using a position change of touch coordinates detected in a virtual touch sensor region, and a control method thereof, and more specifically, to an image processing technology to realize a virtual touch sensor region capable of recognizing multi-touch on a graphic interface for integrally controlling the center fascia of the vehicle, to allow a depth camera to recognize and convert one touch motion or multi-touch motion recognized by touch action of a driver in the virtual touch sensor region into depth information, to display a graphic event for control suitable for the depth information on the center fascia of the vehicle, and at the same time, to control the center fascia of the vehicle. According to the present invention, a system to control a center fascia of a vehicle by using depth information of an image and a virtual touch sensor, and a control method thereof installs the depth camera inside the vehicle, sequentially applies an algorithm of recognizing an object by using a flat structure part of the center fascia of the vehicle as a base structure for integrated control, projecting and generating a graphic interface for the integrated control on the flat structure part of the center fascia of the vehicle, and allowing the depth camera to recognize touch motion for a predetermined position of the driver when the driver touches the predetermined position, so as to transfer touch information to a control console. Moreover, the above individual modules are formed in one system.

Description

영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 방법{Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor}Technical Field [0001] The present invention relates to a vehicle center fascia control method using depth information of an image and a virtual touch sensor,

본 발명은 자동차 센터페시아(center fascia)에 제어용 그래픽 인터페이스(graphic interface)를 생성하고 가상 터치 센서 영역에서 감지한 터치 좌표들의 위치 변화에 따른 자동차 센터페시아 제어 시스템 및 그 제어 방법을 구현하는 것으로서, 더욱 상세하게는 자동차 센터페시아의 통합 제어용 그래픽 인터페이스 상에서 다중 터치 인식이 가능한 가상 터치 센서 영역을 구현하고, 상기 가상 터치 센서 영역 상에서 운전자의 터치 행위에 의하여 인식된 하나의 터치 동작 또는 다중 터치 동작을 깊이 카메라가 인식 및 깊이 정보로 변환하고 이에 적합한 제어용 그래픽 이벤트를 자동차 센터페시아 상에 나타나도록 함과 동시에 자동차 센터페시아의 제어가 이루어지도록 하는 영상 처리 기술에 관한 것이다.
The present invention implements a control system for controlling a vehicle center based on a change in position of touch coordinates detected in a virtual touch sensor area and a control graphic interface in a center fascia, A virtual touch sensor area capable of multi-touch recognition on a graphic interface for an integrated control of an automobile center fascia is implemented, and a single touch operation or multi-touch operation recognized by a driver's touch action on the virtual touch sensor area is called a depth camera To the recognition and depth information, and to display appropriate control graphic events on the automobile center fascia, and to control the automobile center fascia.

차 내부에 설치되어 있는 센터페시아는 운전자를 위한 편의 장치인 무선 라디오 및 카 오디오 등을 포함하는 음향 장치 모듈; 네비게이션 및 DMB(digital multimedia broadcasting) 등을 포함하는 디스플레이 장치 모듈; 냉방기 및 난방기 등을 포함하는 공조 장치 모듈 등이 장착되어 있다. 상기 센터페시아는 대시 보드(dash board)에 구비된 것으로, 브라켓(bracket)에 고정되어 자동차의 정면 중앙에 위치하고 운전자는 운전 중에 수시로 센터페시아로 시선 방향을 돌리고 손을 뻗어서 센터페시아에 설치된 음향 장치 모듈, 디스플레이 장치 모듈 및 공조 장치 모듈 등의 편의 장치를 조작하게 된다. 일반적으로 음향 장치 모듈과 디스플레이 장치 모듈은 센터페시아의 일측에 구비된 조절 노브(knob)를 조작하여 전원을 인가하거나 소리 출력을 조절한다. 공조 장치 모듈 역시 센터페시아의 일측에 구비된 조절 노브를 조작하여 냉방기 및 난방기의 온도, 풍속 및 풍향을 조절할 수 있다. 그러나 종래의 센터페시아 형태에서는 음향 장치 모듈, 디스플레이 장치 모듈 및 공조 장치 모듈과 같은 편의 장치 작동 시 수동으로 제어해야 하는 불편함이 있었으며, 이러한 수동 제어 방식으로 운전자가 주행 중에 차량의 편의장치를 조작하는 경우에는 지속적인 전방 주시가 불가능하여 사고 발생 위험도가 증대되는 문제점이 있다. The center fascia installed inside the car includes a sound module including a wireless radio and a car audio, which are convenience devices for the driver; A display device module including navigation and digital multimedia broadcasting (DMB); An air conditioner module including a radiator and a radiator, and the like. The center fascia is provided on a dash board, is fixed to a bracket and is positioned at the center of the front of the automobile. The driver turns his / her direction toward the center fascia from time to time during driving and extends his / her hands to the sound device module , A display device module, and an air conditioner module. Generally, the sound module and the display module operate a control knob provided on one side of the center fascia to adjust the power or the sound output. The air conditioner module can also control the temperature, wind speed and direction of the air conditioner and the heater by operating a control knob provided at one side of the center pace. However, in the conventional center fascia type, it is inconvenient to manually control a convenience device such as a sound device module, a display device module, and an air conditioner module. In this manual control method, There is a problem in that the risk of accidents is increased because the frontward observation can not be performed continuously.

한 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법을 개시하려는 유사 선행 기술에는 대한민국 특허청에 등록된 KR 10-1199144(B1); KR 10-1219933(B1); KR 10-1446031(B1); KR 10-1382287(B1); 등이 있다. 상기한 종래의 기술에서는 깊이 정보와 가상 터치 센서 영역을 동시에 활용하여 자동차 센터페시아를 제어하는 기술이 제공되지 못하였다.
Similar prior art to disclose depth information of an image and an automobile center fascia control system using the virtual touch sensor and a control method thereof include KR 10-1199144 (B1) registered in the Korean Intellectual Property Office; KR 10-1219933 (B1); KR 10-1446031 (B1); KR 10-1382287 (B1); . The conventional technology does not provide a technique for controlling the automobile center fascia by simultaneously using the depth information and the virtual touch sensor area.

10-1199144(B1)10-1199144 (B1) 10-1219933(B1)10-1219933 (B1) 10-1446031(B1)10-1446031 (B1) 10-1382287(B1)10-1382287 (B1)

발명은 상기한 발명의 배경으로부터 요구되는 기술적 필요성을 충족하는 것을 목적으로 한다. The invention aims at meeting the technical needs required from the background of the above-mentioned invention.

적으로, 본 발명의 목적은 자동차 센터페시아의 통합 제어용 그래픽 인터페이스 상에서 다중 터치 인식이 가능한 가상 터치 센서 영역을 구현하고, 상기 가상 터치 센서 영역 상에서 운전자의 터치 행위에 의하여 인식된 하나의 터치 동작 또는 다중 터치 동작을 깊이 카메라가 인식 및 깊이 정보로 변환하고 이에 적합한 제어용 그래픽 이벤트를 자동차 센터페시아 상에 나타나도록 함과 동시에 자동차 센터페시아의 제어가 이루어지도록 하는 영상 처리 기술을 제공하는 것이다.It is an object of the present invention to realize a virtual touch sensor area capable of multi-touch recognition on a graphic interface for integrated control of an automobile center fascia and to perform a single touch operation or multi-touch operation recognized by a driver's touch action on the virtual touch sensor area The present invention provides an image processing technique that enables a touch camera to convert a touch operation to recognition and depth information by a depth camera, and displays a suitable control graphic event on the automobile center fascia while controlling the automobile center fascia.

발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
The technical objects to be achieved by the present invention are not limited to the above-mentioned problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description will be.

한 목적을 달성하기 위한 본 발명에 따른 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법은 깊이 카메라를 자동차 내부에 설치하고 자동차 센터페시아의 평구조부를 통합 제어를 위한 기반체로 하여 객체를 인식시키고 상기 자동차 센터페시아 평구조부상에 통합 제어용 그래픽 인터페이스를 투사 및 생성한 후, 운전자가 특정 위치를 터치하면 깊이 카메라가 운전자의 특정 위치에 대한 터치 동작을 인식하여 제어 콘솔(console)로 터치 정보를 전달하는 알고리듬(algorithm)이 순차적으로 적용되고 상기한 개별 모듈(module)이 하나의 시스템으로 구성되는 것을 특징으로 한다.
In order to accomplish one object, an automobile center fascia control system and a control method thereof using depth information and a virtual touch sensor according to the present invention include a depth camera installed inside a car and a flat structure part of an automobile center fascia as an infrastructure for integrated control After the object is recognized and the graphic interface for integrated control is projected and generated on the automobile center fascia flat structure, when the driver touches a specific position, the depth camera recognizes the touch operation for the specific position of the driver, An algorithm for transmitting touch information is sequentially applied and the individual modules are configured as one system.

이상과 같이 본 발명은 자동차 센터페시아의 평구조부를 통합 제어를 위한 기반체로 하여 가상의 통합 제어용 그래픽 인터페이스를 생성할 수 있고, 운전자의 특정 위치에 대한 터치 동작을 실시간으로 인식함으로써 종래의 복잡한 형태로 센터페시아에 장착된 각종 편의 장치에 대한 조절 노브가 없이도 자동차 센터페시아의 직관적인 제어가 가능한 장점이 있다.As described above, according to the present invention, it is possible to create a virtual integrated control graphic interface by using the flat structure part of the automobile center fascia as an integrated control base, and to recognize the touch operation to a specific position of the driver in real time, There is an advantage that intuitive control of the automobile center fascia is possible without the adjustment knob for various convenience devices installed in the center fascia.

본 발명의 기술적 효과들은 이상에서 언급한 기술적 효과들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
It is to be understood that the technical advantages of the present invention are not limited to the technical effects mentioned above and that other technical effects not mentioned can be clearly understood by those skilled in the art from the description of the claims There will be.

도 1은 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법을 구현하기 위한 깊이 정보 처리 분석의 순서도;
도 2는 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 가상 터치 센서에 대한 깊이 영상 촬영 모듈 설치 위치의 예시도;
도 3은 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 1차원 선형 변환에 의하여 변환 전 좌표가 보정되는 과정의 예시도;
도 4는 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 터치 센서 영역에서의 터치 판단을 나타낸 구성도;
도 5는 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 포인터의 터치 속도 및 궤적의 흐름을 나타낸 구성도;
도 6은 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 제어 대상이 되는 자동차 센터페시아의 예시도;
도 7은 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법을 구현하기 위한 실시 흐름도;
도 8은 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법에서 제시하는 주요 모듈별 배치도;
도 9는 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법을 구현하기 위한 동작 인식 예시도이다.
1 is a flowchart of a depth information processing analysis for implementing an automobile center fascia control system and control method using depth information of an image and a virtual touch sensor according to an embodiment of the present invention;
FIG. 2 is an exemplary view showing an installation position of a depth image capturing module for a virtual touch sensor in an automobile center fascia control system using a virtual touch sensor and depth information of an image according to an embodiment of the present invention; and FIG.
FIG. 3 illustrates an example of a process of correcting coordinates before conversion by one-dimensional linear transformation in an automobile center fascia control system using a depth information of an image, a virtual touch sensor, and a control method thereof according to an embodiment of the present invention;
FIG. 4 is a view illustrating touch judgment in a touch sensor area in an automobile center fascia control system and control method using depth information of an image and a virtual touch sensor according to an embodiment of the present invention; FIG.
FIG. 5 is a diagram illustrating a flow of a touch speed and a locus of a pointer in an automobile center fascia control system using a virtual touch sensor and image depth information according to an embodiment of the present invention.
6 is an exemplary view of an automobile center fascia to be controlled in the automobile center fascia control system using the depth information of the image and the virtual touch sensor and the control method thereof according to the embodiment of the present invention;
FIG. 7 is a flowchart illustrating an automobile center fascia control system using a virtual touch sensor according to an exemplary embodiment of the present invention, and a control method thereof; FIG.
FIG. 8 is a layout diagram of major modules proposed by the automobile center fascia control system using the virtual depth sensor and the virtual touch sensor according to the embodiment of the present invention and its control method; FIG.
FIG. 9 is a view for explaining motion recognition for implementing the automobile center fascia control system using the depth information of the image, the virtual touch sensor, and the control method according to the embodiment of the present invention.

이하에서는, 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명하지만, 이는 본 발명의 더욱 용이한 이해를 위한 것으로, 본 발명의 범주가 그것에 의해 한정되는 것은 아니다. 또한 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It is not. In the following description of the present embodiment, the same components are denoted by the same reference numerals and symbols, and further description thereof will be omitted.

도 1을 참조하여 깊이 카메라를 이용한 깊이 정보 처리 분석의 개념을 설명하면 다음과 같다. 도 1(a)에서와 같이 가상 터치 센서의 상세 구성은, 터치 센서 영역을 활용하여 터치 센서 영역에 대한 깊이 영상을 얻는 깊이 영상 촬영 모듈(11); 상기 깊이 영상 촬영 모듈(11)이 촬영한 터치 센서 영역에 대한 영상의 공간 좌표 왜곡을 보정하는 공간 좌표 보정부(12); 상기 공간 좌표 보정부(12)에서 공간 좌표 왜곡이 보정된 깊이 영상에서 터치 센서 영역의 대표 깊이 값을 계산하는 깊이 값 계산부(13); 터치 센서 영역의 대표 깊이 값과 다른 깊이 값을 갖는 깊이 영상의 화소들을 순차적으로 그룹화하고 라벨링(labeling)하여 순서대로 객체 수만큼의 크기 값으로 저장하여 객체를 검출하는 객체 검출부(14); 검출된 객체에 포인터를 추출하는 포인터 추출부(15); 추출된 포인터 위치의 깊이 값을 기준으로 터치 센서 영역에 대한 터치 여부를 판단하는 터치 판단부(16)가 구비되는 것을 특징으로 한다. The concept of the depth information processing analysis using the depth camera will be described with reference to FIG. As shown in FIG. 1 (a), the detailed configuration of the virtual touch sensor includes a depth image photographing module 11 for obtaining a depth image of a touch sensor area using a touch sensor area; A spatial coordinate correction unit (12) for correcting spatial coordinate distortion of an image with respect to the touch sensor area taken by the depth image photographing module (11); A depth value calculation unit 13 for calculating a representative depth value of the touch sensor region in the depth image whose spatial coordinate distortion is corrected in the spatial coordinate correction unit 12; An object detector 14 for grouping and labeling pixels of a depth image having a depth value different from a representative depth value of the touch sensor area, storing the sequentially stored size values of the objects, and detecting the object; A pointer extracting unit (15) for extracting a pointer to the detected object; And a touch determination unit 16 for determining whether the touch sensor area is touched based on the depth value of the extracted pointer position.

또한, 도 1(b)에서와 같이 공간 좌표의 보정 순서를 다르게 할 수 있다. 공간 좌표의 보정을 터치 판단 이전에 하는 경우에는 도1(b)에서와 같이 터치 센서 영역을 촬영하여 터치 센서 영역에 대한 깊이 영상을 얻는 깊이 영상 촬영 모듈(21); 깊이 영상에서 터치 센서 영역의 대표 깊이 값을 계산하는 깊이 값 계산부(22); 터치 센서 영역의 대표 깊이 값과 다른 깊이 값을 갖는 깊이 영상의 화소들을 순차적으로 그룹화하고 라벨링하여 순서대로 객체 수만큼의 크기 값으로 저장하여 객체를 검출하는 객체 검출부(23); 검출된 객체에서 포인터를 추출하는 포인터 추출부(24); 터치 센서 영역에 대한 영상의 공간 좌표 왜곡을 보정하는 공간 좌표 보정부(25); 추출된 포인터 위치의 깊이 값을 기준으로 터치 센서 영역에 대한 터치 여부를 판단하는 터치 판단부(26)로 공간 좌표 보정 순서가 변경될 수 있는 것을 특징으로 한다. In addition, the order of correction of the spatial coordinates can be made different as shown in Fig. 1 (b). In the case where the correction of the spatial coordinates is performed before the touch determination, as shown in FIG. 1B, the depth image photographing module 21 photographs the touch sensor area to obtain a depth image for the touch sensor area; A depth value calculator 22 for calculating a representative depth value of the touch sensor area in the depth image; An object detection unit 23 for sequentially grouping and labeling pixels of a depth image having a depth value different from a representative depth value of the touch sensor area and storing the depth information as a size value corresponding to the number of objects in order; A pointer extracting unit (24) for extracting a pointer from the detected object; A spatial coordinate correcting unit 25 for correcting spatial coordinate distortion of an image with respect to the touch sensor area; And the spatial coordinate correction order can be changed by the touch determination unit 26 that determines whether or not the touch sensor area is touched based on the depth value of the extracted pointer position.

여기서, 공간 좌표 보정은 절대 공간 좌표가 응용될 경우에는 사용되고 상대 공간 좌표가 응용될 경우에는 사용되지 않아도 된다. 그리고 가상 터치 센서로 사용되는 디스플레이 모니터, 스크린, 평평하거나 곡면 형태의 물체 등의 영역에 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하 등의 어느 한 곳에 깊이 영상 촬영 모듈을 한 개 설치하거나 두 곳 이상에 다수 개가 설치될 수 있다(도 2). Here, the spatial coordinate correction is used when the absolute spatial coordinate is applied, and not when the relative spatial coordinate is applied. One image shooting module is installed in any one of the top, bottom, left, right, upper left, lower left, right upper, and lower right areas in a display monitor, screen, flat or curved object used as a virtual touch sensor Or may be installed in more than one place (FIG. 2).

상기 깊이 영상 촬영 모듈(11)은 행거, 받침대 등의 외부 거치대 형태, 벽 또는 바닥 내부에 고정식 형태, 탈부착이 자유로운 착탈식 형태, 단말 기기에 부착되는 소켓식 형태 등으로 부착이 가능하다. 그리고 상기 터치 센서 영역의 깊이 값 계산부(13)는 상기 깊이 영상 촬영 모듈(11)이 터치 센서 영역을 촬영하여 획득한 터치 센서 영역에 대한 깊이 영상을 받아 특정 지점의 깊이 값을 계산해 준다. 상기 깊이 값 계산부(13)는 실행의 초기에만 작동하는 부분이며, 깊이 영상의 첫 화면을 선택할 수 있다. 또한 안정적인 영상을 얻기 위하여 특정 개수에 해당되는 화면을 축적할 수 있다. 화면을 축적한 경우에는 평균값을 계산하여 터치 센서의 각 위치에 대표 깊이 값으로 저장한다. 이 때 평균값 이외에도 중간 값 또는 최빈치 값 등이 사용될 수도 있다. 촬영 모듈과 터치 센서 영역의 위치 또는 거리가 바뀔 경우에는 상기 깊이 값 계산부(13)가 다시 실행되는데 터치 센서 영역의 깊이 값은 매 화면마다 얻어지며 얻어진 깊이 값과 이전에 저장된 대표 깊이 값과의 절대 차이가 특정치 이상으로 발생하는 위치 수가 많을 경우에는 상기 터치 센서 영역의 깊이 값 계산부(13)가 다시 실행된다.The depth image photographing module 11 can be attached to an external mount such as a hanger or a pedestal, a fixed type inside a wall or a floor, a removable type which is freely attachable and detachable, and a socket type attached to a terminal device. The depth value calculation unit 13 of the touch sensor area calculates a depth value of a specific point by receiving the depth image of the touch sensor area obtained by capturing the touch sensor area by the depth image capturing module 11. The depth value calculation unit 13 is a part that operates only at the beginning of execution and can select the first screen of the depth image. In addition, a screen corresponding to a specific number can be accumulated to obtain a stable image. When the screen is accumulated, the average value is calculated and stored as the representative depth value at each position of the touch sensor. In this case, in addition to the average value, an intermediate value, a minimum value, or the like may be used. When the position or the distance of the photographing module and the touch sensor area is changed, the depth value calculation unit 13 is executed again. The depth value of the touch sensor area is obtained for each screen, and the obtained depth value is compared with the previously stored representative depth value The depth value calculation unit 13 of the touch sensor area is executed again when the absolute difference is larger than the predetermined value.

도 3은 깊이 영상 촬영 모듈이 가상 터치 센서 영역의 좌측에 설치된 환경 하에서 4개의 맵핑(mapping)되는 공간 좌표를 기반으로 1차원 선형 변환에 의하여 변환 전 좌표가 보정되는 것을 도식화한 것이며 다음의 관계가 정의된다.FIG. 3 is a diagram illustrating that the coordinates before transformation are corrected by one-dimensional linear transformation based on four spatial coordinates that are mapped under the environment in which the depth image capturing module is installed on the left side of the virtual touch sensor area. Is defined.

Figure pat00001
...수식(1)
Figure pat00001
... (1)

Figure pat00002
...수식(2)
Figure pat00002
... (2)

상기 수식(1)과 수식(2)를 이용하여 보정된 변환 후 절대 좌표를 구할 수 있다. 여기서, x(수평)와 y(수직)는 변환 전 좌표이고, X(수평)와 Y(수직)는 변환 후 좌표이다. Hx(폭)과 Vyo, Vy1 (높이)은 변환 전 터치 센서 영역에 해당되고 HX(폭)와 VY(높이)는 변환 후 터치 센서 영역에 해당된다. x0(수평)와 y0(수직)는 보정 오프셋(offset)이다.The corrected post-transformation absolute coordinates can be obtained by using the above equations (1) and (2). Here, x (horizontal) and y (vertical) are coordinates before conversion, and X (horizontal) and Y (vertical) are coordinates after conversion. H x (width), V yo , V y1 (height) correspond to the touch sensor area before conversion, H X (width) and V Y (height) correspond to the touch sensor area after conversion. x 0 (horizontal) and y 0 (vertical) are the correction offsets.

상기 객체 검출부(14)는 깊이 영상의 새로운 화면이 들어올 때 마다 이전 단계에서 저장해 놓은 터치 센서 영역의 대표 깊이 값과 비교하며, 두 값이 일정 범위를 벗어나면 객체가 검출된 것으로 판단한다. 즉, 다음의 수식(3)이 만족되면 수평방향 x와 수직방향 y 위치에서 객체가 검출된 것으로 판단하여 새로운 이진 영상을 만들고 해당 위치의 화소(pixel) 값을 '255'로 저장한다.Each time a new image of the depth image is input, the object detecting unit 14 compares the representative depth value of the touch sensor area stored in the previous step and determines that the object is detected if the two values are out of a predetermined range. That is, if the following equation (3) is satisfied, it is determined that the object is detected in the horizontal direction x and the vertical direction y position, and a new binary image is generated and the pixel value of the corresponding position is stored as '255'.

Figure pat00003
...수식(3)
Figure pat00003
... (3)

여기서, d는 현재 입력되는 깊이 영상에서의 깊이 값이고 ds는 터치 센서 영역의 대표 깊이 값이며 Ti는 특정 값으로 사용자에 의하여 설정되는데 일반적으로 밀리미터 단위 규격에서 5인 것이 바람직하다.Here, d is the depth value of the currently input depth image, d s is the representative depth value of the touch sensor area, and T i is a specific value, which is set by the user, and is preferably 5 in the millimeter standard.

한 화면에 대하여 객체 검출이 모두 수행되면 객체 부분에는 '255'로 객체가 아닌 부분에는 '0'으로 화소 값을 갖는 이진 영상이 생성된다. 이진 영상에서 화소 값이 '255'인 화소들을 순차적으로 그룹화하고 라벨링하는 과정을 수행한다. 라벨링된 순서대로 첫 번째에 객체에는 '1', 두 번째 객체에는 '2' 등으로 객체 수만큼의 크기 값으로 저장하여 객체를 검출한다. 또한 다양한 모폴로지(morphology) 연산, 침식, 팽창, 제거 및 채움 등을 통하여 잡음(noise)을 제거할 수 있다. 검출한 객체에 대한 라벨링에 잡음이 생길 수도 있으므로 잡음을 배제하기 위하여 라벨링된 객체의 화소 수가 특정 개수 이내이면 라벨링 객체에서 제외시킬 수 있다. 그리고 상기 포인터 추출부(15)는 검출된 객체에서 포인터를 추출하는데 포인터는 터치 센서 영역에 가장 가까운 위치를 얻어 포인터로서 사용한다. 추출된 포인터는 사람의 손가락 또는 지시 도구 등이 될 수 있다. 터치 센서 영역과의 가까운 위치를 찾는 것은 영상 촬영 모듈의 설치 방향에 따라 다르다. 깊이 영상 촬영 모듈이 터치 센서 영역의 좌측에 설치된 경우는 터치 센서 영역 깊이 영상의 방향을 기준으로 객체 내에서 가장 좌측에 있는 화소의 위치를 포인터로 사용하고, 영상 촬영 모듈이 우측일 때는 가장 우측에 있는 화소로, 상측일 때는 가장 상측에 있는 화소로, 하측일 때는 가장 하측에 있는 화소를 포인터로 사용한다.When object detection is performed for one screen, a binary image having a pixel value of '255' is generated in the object part and '0' is generated in the non-object part. A process of sequentially grouping and labeling pixels having a pixel value of '255' in a binary image is performed. In the labeled order, objects are detected by storing them as '1' for the first object, '2' for the second object, and so on. In addition, noise can be removed through various morphology operations, erosion, expansion, removal, and filling. Since noise may occur in the labeling of the detected object, if the number of pixels of the labeled object is within a certain number, it may be excluded from the labeling object to exclude noise. The pointer extracting unit 15 extracts a pointer from the detected object, and the pointer obtains a position closest to the touch sensor area and uses the pointer as a pointer. The extracted pointer may be a human finger or an indicator. Finding a position close to the touch sensor area depends on the installation direction of the image sensing module. When the depth imaging module is installed on the left side of the touch sensor area, the position of the leftmost pixel in the object is used as a pointer based on the direction of the depth sensor image of the touch sensor area, and when the imaging module is on the right side, A pixel located on the upper side when the image is on the upper side and a pixel located on the lower side when the lower side is used as a pointer.

도 4는 터치 센서 영역에서의 터치 판단을 나타낸 구성도이고 도 5는 포인터의 터치 속도 및 궤적의 흐름을 나타낸 구성도이다. 상기 터치 판단부(16)는 포인터가 터치 센서에 접근 또는 접촉하는지의 여부를 판단한다. 손 또는 지시 도구가 터치 센서 영역을 접촉한 경우에만 터치한 것으로 판단하거나 일정거리 이내로 접근한 경우에도 터치한 것으로 판단하는 지에 대한 여부는 사용자의 편의성에 따라 지정할 수 있다. 상기 터치 판단부(16)에서는 접촉한 경우를 터치한 것으로 고려한다면 포인터 위치의 깊이 값인 dp(x,y)와 터치 센서 영역의 깊이 영상에서 해당되는 위치에서의 깊이 값인 ds(x,y)를 비교하여 두 값의 절대 차이가 특정 값 미만일 때 터치한 것으로 판단한다. 즉, 다음의 수식(4)가 만족되면 수평방향 x와 수직방향 y위치에서 포인터가 터치 센서 영역에 터치한 것으로 판단한다.FIG. 4 is a block diagram showing touch judgment in a touch sensor area, and FIG. 5 is a block diagram showing a flow of a touch speed and a locus of a pointer. The touch determination unit 16 determines whether or not the pointer approaches or touches the touch sensor. Whether or not the touch sensor area is judged to be touched even when the hand or the pointer touches the touch sensor area is determined to be touched or when the touch point is within a certain distance, it can be determined according to the convenience of the user. The touch determiner 16 in the, given that touch the case of contact value of the depth of the pointer d p (x, y) and the value of the depth at which the position in the depth image of the touch sensor area d s (x, y ), And determines that the touch is made when the absolute difference between the two values is less than the specific value. That is, when the following equation (4) is satisfied, it is determined that the pointer touches the touch sensor area in the horizontal direction x and the vertical direction y position.

Figure pat00004
...수식(4)
Figure pat00004
... (4)

여기서, TD는 특정 값으로 사용자에 의하여 설정되며, 밀리미터 단위 규격에서는 일반적으로 5가 적당하다. 이때, 판단의 오동작을 방지하기 위하여 수평방향 x, 수직방향 y의 한 위치보다는 이웃한 여러 개의 수평방향으로 x-1, y, y+1 세 위치 깊이 값의 평균값이 사용될 수 있다. 또는 왼쪽 대각선, 오른쪽 대각선 등에 있는 이웃한 화소 값이 사용될 수도 있다. 접근한 것을 터치한 것으로 판단하는 경우에는 터치된 위치와 깊이 값이 비교되는 위치가 서로 다르게 된다. 즉, 터치 센서 영역의 왼쪽에 영상 촬영 모듈이 설치된 경우에 포인터 위치의 깊이 값인 dp(x,y)와 터치 센서 영역의 깊이 영상에서 해당되는 위치보다 왼쪽 일정 개수 T만큼 떨어진 화소 깊이 값인 ds(x-T,y)를 비교하여 두 값의 차가 특정 값 미만일 때 터치한 것으로 판단한다. 이 때 터치한 위치는 수평방향 x-T와 수직방향 y의 위치이며 다음의 수식(5)를 만족하면 해당 위치에서 포인터가 터치 센서 영역에 터치한 것으로 판단한다.Here, T D is set by the user as a specific value, and in the case of the millimeter standard, generally 5 is suitable. In this case, in order to prevent malfunctioning of the judgment, the average value of the x-1, y, y + 1 three-dimensional depth values in several neighboring horizontal directions rather than one position in the horizontal direction x and the vertical direction y may be used. Alternatively, neighboring pixel values on the left diagonal, right diagonal, etc. may be used. When it is judged that the approach is touched, the position at which the touched position is compared with the position at which the depth value is compared is different. That is, when the image pickup module is installed on the left side of the touch sensor area, d p (x, y) which is the depth value of the pointer position and d s (xT, y), and judges that the touch is made when the difference between the two values is less than the specified value. At this time, the touched position is the position of the horizontal direction xT and the vertical direction y, and if the following equation (5) is satisfied, it is determined that the pointer touches the touch sensor area at the corresponding position.

Figure pat00005
...수식(5)
Figure pat00005
(5)

여기서, T는 특정 값으로 사용자에 의하여 설정되며, 포인터와 터치 센서 영역 사이의 접근거리가 1cm인 경우에는 5화소가 적당하다. 접근한 경우에도 포인터 한 위치보다는 이웃한 여러 개의 깊이 값의 평균 값이 사용될 수 있다. 또한, 터치 센서 영역의 오른쪽에 영상 촬영 모듈이 설치되면 dp(x,y)와 ds(x+T,y)를 비교하여 (x+T,y) 위치에서 터치 여부를 판단하고, 위쪽일 때는 dp(x,y)와 ds(x,y-T)를 비교하여 (x, y-T) 위치에 터치 여부를 판단하며, 아래쪽일 때는 dp(x,y)와 ds(x,y+T)를 비교하여 (x,y+T) 위치의 터치 여부를 판단한다. 또한, 도 5와 같이 매 화면마다 포인터의 수평/수직 깊이 값을 획득할 수 있다. 즉, 화면의 프레임율을 바탕으로 포인터의 수평방향의 속도 및 방향성, 수직방향의 속도 및 방향성, 촬영 모듈 또는 터치 센서 영역과의 거리를 알 수 있다. 이와 같은 포인터의 이동 방향 및 속도 검출을 위한 방법의 하나는 깊이 영상 촬영 모듈로부터 획득한 깊이 영상의 이전 프레임과 현재 프레임을 연속적으로 비교하여 포인터의 이동 방향, 이동 속도, 이동 거리를 검출하는 방법이 사용될 수 있다.Here, T is set by a user as a specific value, and when an approach distance between the pointer and the touch sensor area is 1 cm, five pixels are suitable. The average value of several neighboring depth values may be used rather than one position of the pointer. When the image capturing module is installed on the right side of the touch sensor area, d p (x, y) is compared with d s (x + T, y) it indicates, d p (x, y) and d s Compare (x, yT) (x, yT) , and determines the touch whether or not the position, when the bottom of d p (x, y) and d s (x, y + T) to judge whether or not the position of (x, y + T) is touched. In addition, the horizontal / vertical depth value of the pointer can be obtained for each screen as shown in FIG. That is, the velocity and direction of the pointer in the horizontal direction, the velocity and direction in the vertical direction, and the distance from the photographing module or the touch sensor area can be known based on the frame rate of the screen. One of the methods for detecting the moving direction and speed of the pointer is to continuously compare the previous frame and the current frame of the depth image acquired from the depth image capturing module to detect the moving direction, the moving speed, and the moving distance of the pointer Can be used.

본 발명에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법은 깊이 카메라를 자동차 내부에 설치하고 도 6과 같은 센터페시아의 평구조부(1)를 통합 제어용 그래픽 인터페이스의 기반체로 하여 객체를 인식시키고 빔 프로젝터와 같은 영상 송출 모듈로 가상의 통합 제어용 그래픽 인터페이스 영역을 투사 및 생성한 후, 특정 위치를 터치하면 깊이 카메라가 운전자의 특정 위치에 대한 터치 동작을 인식하여 제어 콘솔로 터치 정보를 전달하는 알고리듬이 적용된다. 도 7을 참조하여 보다 순차적으로 설명하면, The depth information of the image according to the present invention and the automobile center fascia control system using the virtual touch sensor and the control method thereof are obtained by installing the depth camera in the automobile and connecting the flat structure part 1 of the center fascia as shown in FIG. The depth camera recognizes the touch operation to a specific position of the driver, recognizes the object by the base, and projects and generates a graphic interface area for virtual integrated control with a video transmission module such as a beam projector, To which the touch information is transmitted. Referring to FIG. 7,

깊이 카메라 촬영 및 깊이 영상 데이터 획득을 수행할 통합 제어용 그래픽 인터페이스 기반체인 센터페시아의 평구조부를 선정하고 깊이 영상 촬영을 시작하는 단계(S100); (S100) of selecting the flat structure part of the chain center pacea based on the graphic interface for integrated control to perform the depth camera photographing and the depth image data acquisition and to start the depth image photographing;

상기 S100 단계에서 선정된 센터페시아의 평구조부에 통합 제어용 그래픽 인터페이스 영상을 투사하여 생성하는 단계(S200); A step (S200) of projecting and generating a graphic interface image for integrated control on the flat structure part of the center pace in the step S100;

상기 S200 단계가 완료되면 센터페시아의 평구조부에 투사 및 생성된 통합 제어용 그래픽 인터페이스 영상에서 터치 영역 배경 데이터를 추출하는 단계(S210); (S210) extracting touch area background data from the integrated control graphic interface image projected and generated on the flat structure part of the center fascia upon completion of step S200;

상기 S200 단계에서 투사 및 생성된 통합 제어용 그래픽 인터페이스 영상과 운전자 손 사이의 변위에 대한 깊이 정보를 취득하기 위하여 깊이 카메라로 운전자의 손을 인식하는 객체 인식 단계(S300); An object recognizing step (S300) of recognizing a driver's hand with a depth camera to acquire depth information on the displacement between the graphic interface image for integrated control and the driver's hand projected and generated in step S200;

상기 S300 단계에서 객체 인식 완료된 운전자 손이 통합 제어용 그래픽 인터페이스 영상의 어느 위치를 터치하였는지 깊이 카메라로 터치 위치를 검출하는 단계(S400); In operation S400, a touch position is detected by a depth camera to determine which position of the graphic interface image for integrated control has been touched by the driver's hand whose object recognition is completed.

상기 S400 단계에서 검출된 터치 위치를 깊이 정보로 변환하는 단계(S500); Converting the touch position detected in step S400 into depth information (S500);

상기 S500 단계에서 깊이 정보로 변환 처리된 터치 위치와 제어 콘솔 상에 내재된 제어 정보를 확인 및 일치시키는 과정인, 제어 데이터 동기화 단계(S510); A control data synchronization step (S510) of confirming and matching the touch position converted into the depth information in step S500 and the control information embedded on the control console;

상기 S510 단계에서 터치 위치에 대한 깊이 정보와 제어 데이터가 동기화 된 코드(code)를 제어 콘솔에 전송하는 단계(S600); (S600) transmitting a code in which the depth information on the touch position and the control data are synchronized to the control console in step S510;

상기 S600 단계에서 전송된 코드를 제어 콘솔 상에 내재된 해당 제어 작업 정보로 선택 및 추출하는 단계(S610); (S610) selecting and extracting the code transmitted in the step S600 as the corresponding control operation information embedded in the control console;

상기 S610 단계에서 추출된 제어 작업 정보를 통합 제어용 그래픽 인터페이스로 다시 전송하는 피드백을 수행하고 제어 결과를 반영하는 단계(S700)로 구성되는 것을 특징으로 한다. (S700) of performing feedback to transmit the control job information extracted in the step S610 back to the graphic interface for integrated control and reflecting the control result.

도 8은 본 발명에 따른 깊이 정보와 가상 터치 센서를 이용한 동작 인식 기반의 자동차 센터페시아 제어 시스템 및 제어 방법을 구현하기 위한 전체 시스템(100)을 도식화한 것으로 세부적인 구성은, 8 is a schematic diagram of an overall system 100 for implementing an automobile center fascia control system and a control method based on motion recognition using depth information and a virtual touch sensor according to the present invention.

깊이 정보를 획득하기 위한 깊이 카메라 모듈(110); A depth camera module (110) for acquiring depth information;

통합 제어용 그래픽 인터페이스를 센터페시아의 평구조부(120);에 투사하기 위한 빔 프로젝터 영상 송출 모듈(130); A beam projector image sending module 130 for projecting the graphic interface for integrated control to the flat structure 120 of the center pacey;

터치 위치 인식용 통합 제어용 그래픽 인터페이스 데이터, 제어 데이터, 제어 안내 음성 데이터가 내재된 제어 콘솔 모듈(140);A control console module 140 in which graphic interface data for integrated control for touch location recognition, control data, and control announcement voice data are embedded;

제어 안내 음성을 출력하기 위한 스피커 모듈(150);이 구비되는 것을 특징으로 한다.And a speaker module 150 for outputting a control announcement voice.

상기 스피커 모듈(150)은 유선 연결을 최소화하고 공간 활용도를 증대시키기 위하여 근거리 무선 통신 모듈(160);을 장착하는 것을 특징으로 하며, 상기 근거리 무선 통신 모듈(160)은 저전력 기반의 근거리 무선 기술 표준인 블루투스(bluetooth) 통신 방식을 이용하는 것이 바람직하다.The short-range wireless communication module 160 may be a low-power-based short-range wireless communication technology standard (hereinafter referred to as " short-range wireless communication technology "), It is preferable to use a bluetooth communication method.

도 9는 본 발명의 실시예에 따른 영상의 깊이 정보와 가상 터치 센서를 이용한 자동차 센터페시아 제어 시스템 및 그 제어 방법을 구현하기 위한 동작 인식 예시도이다. 상기 센터페시아의 평구조부(120) 상에 구현된 가상 터치 센서 영역(12r)에 단일 터치 동작 또는 다중 터치 동작을 수행하면 깊이 카메라가 해당 터치의 좌표 정보(10t, 11t)를 인식하고 깊이 정보로 변환하여 상기 제어 콘솔 모듈(140)에 전달하여 이에 적합한 제어용 그래픽 이벤트를 상기 센터페시아의 평구조부(120) 상에 나타나도록 하여 동작 인식 기반의 자동차 센터페시아 제어 시스템 및 제어 방법을 구현하게 된다.FIG. 9 is a view for explaining motion recognition for implementing the automobile center fascia control system using the image depth information, the virtual touch sensor, and the control method according to the embodiment of the present invention. When a single touch operation or a multi-touch operation is performed on the virtual touch sensor area 12r implemented on the flat structure part 120 of the center pacea, the depth camera recognizes the coordinates information 10t and 11t of the touch, And transmits the generated control graphic event to the control console module 140 so that the control graphic event suitable for the control graphic event is displayed on the flat structure 120 of the center pascia, thereby realizing a motion recognition based automobile center fascia control system and control method.

이상 본 발명의 실시예에 따른 도면을 참조하여 설명하였지만, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면 상기 내용을 바탕으로 본 발명의 범주 내에서 다양한 응용, 변형 및 개작을 행하는 것이 가능할 것이다. 이에, 본 발명의 진정한 보호 범위는 첨부된 청구 범위에 의해서만 정해져야 할 것이다.
While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, will be. Accordingly, the true scope of the present invention should be determined only by the appended claims.

10t, 11t : 해당 터치의 좌표 정보
12r : 가상 터치 센서 영역
100 : 전체 시스템
120 : 센터페시아의 평구조부
140 : 제어 콘솔 모듈
10t, 11t: coordinate information of the corresponding touch
12r: Virtual touch sensor area
100: Whole system
120: Flat structure of center fascia
140: Control console module

Claims (1)

깊이 영상 촬영 모듈(11); 공간 좌표 보정부(12);영상의 깊이 값 계산부(13); 객체 검출부(14); 검출된 객체에 포인터를 추출하는 포인터 추출부(15); 터치 센서 영역에 대한 터치 여부를 판단하는 터치 판단부(16); 통합 제어용 그래픽 인터페이스를 센터페시아의 평구조부(120);에 투사하기 위한 빔 프로젝터 영상 송출 모듈(130); 제어 콘솔 모듈(140); 스피커 모듈(150); 근거리 무선 통신 모듈(160)로 구성되는 영상의 깊이 정보와 가상터치센서를 이용한 자동차 센터페시아 제어 방법에 있어서,
통합 제어용 그래픽 인터페이스 기반체인 센터페시아의 평구조부를 선정하고 깊이 영상 촬영을 시작하는 단계(S100);
상기 센터페시아의 평구조부에 통합 제어용 그래픽 인터페이스 영상을 투사하여 생성하는 단계(S200);
상기 통합 제어용 그래픽 인터페이스 영상에서 터치 영역 배경 데이터를 추출하는 단계(S210);
상기 통합 제어용 그래픽 인터페이스 영상과 운전자 손 사이의 변위에 대한 깊이 정보를 취득하고자 깊이 카메라로 운전자의 손을 인식하는 객체 인식 단계(S300);
상기 운전자 손이 통합 제어용 그래픽 인터페이스 영상에서 터치한 위치를 검출하는 단계(S400);
상기 검출된 터치 위치를 깊이 정보로 변환하는 단계(S500);
상기 변환된 깊이 정보를 제어 콘솔 상에 내재된 제어 정보와 일치시키는 데이터 동기화 단계(S510);
상기 제어 데이터가 동기화되지 않는 경우, 다시 터치 위치를 검출하는 단계(S400)로 되돌아가는 단계;
상기 제어 데이터가 동기화되는 경우, 상기 동기화된 데이터 코드를 제어 콘솔에 전송하는 단계(S600);
상기 전송된 코드를 제어 콘솔 상에 내재된 해당 제어 작업 정보로 추출하는 단계(S610);
상기 제어 콘솔내 제어 작업정보가 추출(S610)되지 않는 경우, 상기 터치 위치 검출단계(S400)로 되돌아가는 단계;
상기 제어 콘솔내 제어 작업정보가 추출(S610)된 경우, 상기 추출된 제어 작업 정보를 통합 제어용 그래픽 인터페이스로 재전송하는 피드백을 수행하고 제어 결과를 반영하는 단계(S700);로 구성되는 것을 특징으로 하는 영상의 깊이 정보와 가상터치센서를 이용한 자동차 센터페시아 제어 방법.
A depth image photographing module 11; A spatial coordinate correcting unit 12, an image depth value calculating unit 13; An object detecting unit 14; A pointer extracting unit (15) for extracting a pointer to the detected object; A touch determination unit (16) for determining whether or not the touch sensor area is touched; A beam projector image sending module 130 for projecting the graphic interface for integrated control to the flat structure 120 of the center pacey; A control console module 140; A speaker module 150; A method of controlling an automotive center fascia using depth information of an image composed of a short range wireless communication module (160) and a virtual touch sensor,
A step of selecting a flat structure part of a chain center fascia based on a graphic interface for integrated control and starting a depth image photographing (S100);
A step S200 of projecting and generating an integrated control graphic interface image on the flat structure part of the center pacecia;
Extracting touch area background data from the integrated control graphic interface image (S210);
An object recognition step (S300) of recognizing a driver's hand with a depth camera in order to acquire depth information on the displacement between the graphic interface image for integrated control and the driver's hand;
A step (S400) of detecting a position touched by the driver's hand on the graphic interface image for integrated control;
Converting the detected touch position into depth information (S500);
A data synchronization step (S510) of matching the converted depth information with the control information embedded in the control console;
When the control data is not synchronized, returning to the step of detecting the touch position again (S400);
If the control data is synchronized, transmitting the synchronized data code to the control console (S600);
Extracting the transmitted code as the corresponding control operation information embedded in the control console (S610);
Returning to the touch position detection step (S400) if the control operation information in the control console is not extracted (S610);
(S700), when the control task information in the control console is extracted (S610), the feedback for retransmitting the extracted control task information to the graphic interface for integrated control is performed and the control result is reflected Depth information of video and automobile center fascia control method using virtual touch sensor.
KR1020170033194A 2017-03-16 2017-03-16 Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor KR101808714B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170033194A KR101808714B1 (en) 2017-03-16 2017-03-16 Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170033194A KR101808714B1 (en) 2017-03-16 2017-03-16 Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150137038 Division 2015-09-25

Publications (2)

Publication Number Publication Date
KR20170037585A true KR20170037585A (en) 2017-04-04
KR101808714B1 KR101808714B1 (en) 2018-01-18

Family

ID=58588597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170033194A KR101808714B1 (en) 2017-03-16 2017-03-16 Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor

Country Status (1)

Country Link
KR (1) KR101808714B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI623867B (en) * 2017-07-19 2018-05-11 Multiple intelligent control type car audio and video device
WO2019168238A1 (en) * 2018-03-02 2019-09-06 엘지전자 주식회사 Mobile terminal and control method therefor
CN110968190A (en) * 2018-09-28 2020-04-07 苹果公司 IMU for touch detection
CN111921185A (en) * 2020-09-21 2020-11-13 鲁姆文化传媒(上海)有限公司 Intelligent riding and amusement method and system
CN113665493A (en) * 2021-09-23 2021-11-19 诺博汽车系统有限公司 Accuse screen and vehicle in rotation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102535360B1 (en) 2021-02-24 2023-05-30 이화여자대학교 산학협력단 System and method for controlling center fascia of vehicles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101199144B1 (en) 2010-06-28 2012-11-09 현대자동차주식회사 System for controlling vehicle by recognizing motion
KR101219933B1 (en) 2010-09-13 2013-01-08 현대자동차주식회사 System for controlling device in vehicle using augmented reality and thereof method
KR101382287B1 (en) 2012-08-22 2014-04-08 현대자동차(주) Apparatus and method for recognizing touching of touch screen by infrared light
KR101446031B1 (en) 2012-12-26 2014-10-02 제이와이커스텀(주) Automotive touch-sensitive monitor and touch opera tion, the device mirroring between the mobile communication terminal, and his mirrored touch operation control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101199144B1 (en) 2010-06-28 2012-11-09 현대자동차주식회사 System for controlling vehicle by recognizing motion
KR101219933B1 (en) 2010-09-13 2013-01-08 현대자동차주식회사 System for controlling device in vehicle using augmented reality and thereof method
KR101382287B1 (en) 2012-08-22 2014-04-08 현대자동차(주) Apparatus and method for recognizing touching of touch screen by infrared light
KR101446031B1 (en) 2012-12-26 2014-10-02 제이와이커스텀(주) Automotive touch-sensitive monitor and touch opera tion, the device mirroring between the mobile communication terminal, and his mirrored touch operation control method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI623867B (en) * 2017-07-19 2018-05-11 Multiple intelligent control type car audio and video device
WO2019168238A1 (en) * 2018-03-02 2019-09-06 엘지전자 주식회사 Mobile terminal and control method therefor
US11556182B2 (en) 2018-03-02 2023-01-17 Lg Electronics Inc. Mobile terminal and control method therefor
CN110968190A (en) * 2018-09-28 2020-04-07 苹果公司 IMU for touch detection
CN110968190B (en) * 2018-09-28 2021-11-05 苹果公司 IMU for touch detection
US11360550B2 (en) 2018-09-28 2022-06-14 Apple Inc. IMU for touch detection
US11803233B2 (en) 2018-09-28 2023-10-31 Apple Inc. IMU for touch detection
CN111921185A (en) * 2020-09-21 2020-11-13 鲁姆文化传媒(上海)有限公司 Intelligent riding and amusement method and system
CN113665493A (en) * 2021-09-23 2021-11-19 诺博汽车系统有限公司 Accuse screen and vehicle in rotation
CN113665493B (en) * 2021-09-23 2023-06-27 诺博汽车系统有限公司 Rotary central control screen and vehicle

Also Published As

Publication number Publication date
KR101808714B1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
KR101808714B1 (en) Vehicle Center Fascia Control Method Based On Gesture Recognition By Depth Information And Virtual Touch Sensor
US8971629B2 (en) User interface system based on pointing device
US20190163284A1 (en) Apparatus and method for remote control using camera-based virtual touch
US20130135199A1 (en) System and method for user interaction with projected content
JP2016506572A (en) Infotainment system
TW201443699A (en) Image processing device and method, and program
JP2015176253A (en) Gesture recognition device and control method thereof
KR101438615B1 (en) System and method for providing a user interface using 2 dimension camera in a vehicle
US11435856B2 (en) Information processing device, information processing method, and program
JPWO2014148394A1 (en) Image display device and image display method
CN109213363A (en) Predictive indicator touch location determines the system and method being directed toward in 3d space
KR101785781B1 (en) Virtual Piano Event Control Method using Depth Information
CN105323539A (en) Automotive safety system and operating method thereof
JP6452658B2 (en) Information processing apparatus, control method thereof, and program
KR101945097B1 (en) 3D image acquisition and delivery method of user viewpoint correspondence remote point
KR101775784B1 (en) Karaoke Machine System control method using Virtual Touch Sensor Based On Depth Information
KR20170035116A (en) Concurrency Game System Based On Gesture Recognition Using Virtual Touch Sensor
KR101808720B1 (en) Virtual Keyboard Control Method using Depth Image Processing
KR101428403B1 (en) Apparatus and method for detecting obstacle in front
KR20160147326A (en) Virtual Keyboard Operation System and Control Method using Depth Image Processing
KR101706952B1 (en) Display device and method for marking location of object
JP3220578B2 (en) Road image white line recognition device
JP4039423B2 (en) Edge position calculation device, obstacle detection system
CN117581531A (en) Information processing apparatus and control program
CN117692618A (en) Information processing system

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant