KR101438615B1 - 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법 - Google Patents

2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법 Download PDF

Info

Publication number
KR101438615B1
KR101438615B1 KR1020120148814A KR20120148814A KR101438615B1 KR 101438615 B1 KR101438615 B1 KR 101438615B1 KR 1020120148814 A KR1020120148814 A KR 1020120148814A KR 20120148814 A KR20120148814 A KR 20120148814A KR 101438615 B1 KR101438615 B1 KR 101438615B1
Authority
KR
South Korea
Prior art keywords
image
information
gesture
passenger
virtual
Prior art date
Application number
KR1020120148814A
Other languages
English (en)
Other versions
KR20140079160A (ko
Inventor
김성운
Original Assignee
현대자동차 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차 주식회사 filed Critical 현대자동차 주식회사
Priority to KR1020120148814A priority Critical patent/KR101438615B1/ko
Priority to US14/092,411 priority patent/US9052750B2/en
Priority to CN201310655463.7A priority patent/CN103869970B/zh
Priority to DE102013225027.4A priority patent/DE102013225027A1/de
Publication of KR20140079160A publication Critical patent/KR20140079160A/ko
Application granted granted Critical
Publication of KR101438615B1 publication Critical patent/KR101438615B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K37/00Dashboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • B60K2360/146
    • B60K2360/21
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

본 발명의 실시예에 따른 2차원 카메라를 이용한 사용자 인터페이스 조작 방법은, 탑승자를 촬영한 영상을 입력 받는 단계; 상기 촬영한 영상에서 탑승자의 실상과 허상을 추출하고, 이들의 상관관계를 이용하여 제스처 정보를 인식하는 단계; 및 상기 인식된 제스처 정보에 대응하는 차량 기기 조작을 선택하는 단계를 포함한다.
따라서, 전방을 주시하면서 탑승자의 한 손은 스티어링 휠을 조작하면서 다른 한 손의 움직임으로 차량 내부의 다양한 전자 장치들을 제어할 수 있어 탑승자의 편의성과 안전성이 향상된다.

Description

2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING A USER INTERFACE USING 2 DIMENSION CAMERA IN A VEHICLE}
본 발명은 2차원 카메라를 이용하여 차량 탑승자의 제스처를 인식하여 차량 내부의 기기들을 제어하는 사용자 인터페이스 조작 방법에 관한 것이다.
최근의 차량은 내부에 탑승자의 편의를 위해 다양한 전자 장치들이 탑재된다. 기존의 라디오, 에어컨 위주의 전자장치에서 네비게이션 시스템, 휴대전화 핸즈프리 시스템 등의 전자장치들이 탑재되고 있다.
기존 차량 내부의 전자 장치들은 지정된 버튼을 통해 사용자 인터페이스를 제공하며, 최근에는 터치 스크린의 사용도 보편화 되었다. 이러한 장치들은 탑승자가 손으로 직접 접촉하여 조작하여야 한다. 또한, 이러한 동작은 탑승자의 시선과 손 동작에 기반을 두고 있기 때문에 안전 운전에 방해가 될 수 있다.
따라서 운전에 방해를 주지 않으면서도 사용자의 편리성을 위한 인터페이스 기술 개발이 필요한 실정이다.
이러한 문제를 해결하기 위해 종래에는 초음파 센서를 이용하여 거리를 측정하고 속도를 검출하여 손의 위치나 모션을 인식하였다.
또한, 적외선 빔을 이용하여 손으로 가리거나 반사된 신호를 검출하여 손의 유무 또는 손위 위치를 간접적으로 검출하였다.
또한, 정전용량 센서를 이용하여 손의 근접을 전기적으로 인식하여 가까운 거리에 근접했음을 인식하였다.
최근에는 몸의 전도성을 이용하여 안테나처럼 전파 발신과 수신을 통해 제스처를 인식하는 기술도 공개되었다.
그러나 이와 같은 종래의 센서를 이용한 방법은 거리와 같은 1차원 정보만을 제공하며 복수의 센서를 이용하더라도 손의 모양과 관계없이 임의의 부분의 모션 인식만 가능하였다.
그리고 웹캠과 같은 2차원 카메라를 이용하더라도 카메라에 보이는 2차원 영상만을 이용하므로 카메라를 향한 성분의 모션은 측정이 어려웠다.
본 발명이 해결하고자 하는 과제는 종래의 불편한 점을 해결하고자 하는 것으로 차량내의 반사체와 2차원 카메라를 이용하여 촬영한 영상정보로부터 제스처를 인식하고 이에 따라 차량 내부의 다양한 전자 장치들을 제어할 수 있는 시스템 및 방법을 제공하는 것이다.
이러한 과제를 해결하기 위한 본 발명의 특징에 따른 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법은,
차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법에 있어서,
탑승자 및 탑승자가 반사체에 반사된 허상을 촬영한 영상을 입력 받는 단계;
상기 촬영한 영상에서 탑승자의 실상과 허상을 추출하고, 이들의 상관관계를 이용하여 제스처 정보를 인식하는 단계; 및
상기 인식된 제스처 정보에 대응하는 차량 기기 조작을 선택하는 단계를 포함한다.
상기 촬영한 영상에서 탑승자의 실상과 허상을 추출하고, 이들의 상관관계를 이용하여 제스처 정보를 인식하는 단계는,
상기 탑승자를 촬영한 영상으로부터 탑승자의 손 영상의 실상 및 허상을 추출하는 단계;
상기 탑승자를 촬영한 영상으로부터 탑승자의 손 영상을 추출하는 단계;
상기 실상과 허상의 궤적정보를 생성하는 단계;
상기 실상과 허상의 궤적정보로부터 제스처 정보를 인식하는 단계를 포함한다.
상기 실상과 허상의 궤적정보로부터 제스처 정보를 인식하는 단계는,
상기 실상과 허상의 궤적 정보와 매칭되는 제스처 정보가 정보 데이터베이스에 저장되어 있는지 판단하는 단계;
상기 실상과 허상의 궤적 정보와 매칭되는 제스처 정보가 정보 데이터베이스에 저장되어 있으면, 상기 실상과 허상의 궤적정보를 제스처 정보로 인식하는 단계를 포함한다.
상기 탑승자를 촬영한 영상을 입력 받는 단계 이전에,
제스처 인식 기능 사용 요청을 판단하는 단계를 더 포함하고,
제스처 인식 기능 사용 요청이 있으면, 상기 탑승자를 촬영한 영상을 입력 받는 단계를 수행한다.
상기 방법은,
상기 제스처 인식 기능 사용 종료 요청을 판단하는 단계;
상기 제스처 인식 기능 사용 종료 요청이 있으면, 상기 제스처 인식 기능을 사용 종료하는 단계를 더 포함한다.
이러한 과제를 해결하기 위한 본 발명의 특징에 따른 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템은,
반사체가 존재하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템에 있어서,
탑승자를 촬영하는 영상 촬영부;
상기 영상 촬영부에 의해 촬영되는 영상을 저장하는 영상 저장부;
인식 가능한 제스처 정보 및 그에 대응하는 기기조작정보를 저장하고 있는 정보 데이터베이스; 및
상기 영상 촬영부로부터의 입력 신호 및 상기 영상 저장부에 저장된 누적 영상 정보를 기초로 차량 기기 조작을 제어하는 전자제어유닛을 포함하되,
상기 전자제어유닛은, 상기 방법을 수행하기 위한 일련의 명령을 실행한다.
상기 시스템은,
탑승자로부터 제스처 인식 기능 사용을 위한 요청 신호를 입력받아 상기 전자제어유닛으로 전달하는 입력부; 및
상기 전자제어유닛의 차량 기기 조작 내용을 표시하는 출력부를 더 포함한다.
본 발명의 실시예에서는 2차원 카메라를 이용하여 획득한 실상과 허상의 상관관계로부터 탑승자의 제스처를 추출할 수 있으므로 비용이 적게 소요된다.
또한, 본 발명의 실시예에서는 기존의 2차원 카메라와 차량 내의 반사체를 이용하므로 추가적인 부담없이 3차원 모션인 제스처의 인식이 가능하다.
또한, 본 발명의 실시예에서는 손의 상하좌우 모션뿐만 아니라 3차원 모션의 인식이 가능하므로 자연스럽게 제스쳐를 취할 수 있고, 이에 따른 기기의 조작이 가능하여 사용성이 높아진다.
따라서, 탑승자의 한 손은 스티어링 휠을 조작하고 시야는 전방을 주시하면서도 다른 한손의 간단한 움직임으로 차량 내부의 다양한 전자 장치들을 제어할 수 있어 탑승자의 편의성과 운전 안전성이 향상된다.
도 1은 본 발명의 실시예에 따른 차량 내 2차원 카메라를 이용한 사용자 인터페이스 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법에 대한 순서도이다.
도 3은 본 발명의 실시예에 따른 제스처에 대응되는 동작의 예시도이다.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조로 상세하게 설명하면 다음과 같다.
본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
또한, 도면에서 나타난 각 구성은 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도면에 도시된 바에 한정되지 않는다.
도 1은 본 발명의 실시예에 따른 2차원 카메라를 이용한 사용자 인터페이스 장치를 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 2차원 카메라를 이용한 사용자 인터페이스(User Interface; UI) 장치는 입력부(100), 영상 촬영부(110), 정보 데이터베이스(120), 타이머(160), 영상 저장부(150), 전자제어유닛(130)(Electronic Control Unit; ECU), 출력부(140)을 포함한다.
입력부(100)는 버튼, 터치스크린 등을 포함한다. 여기서 입력은 버튼이나 터치스크린을 통하여 입력 신호를 발생시키는 것으로 설명하나, 다른 입력 방법으로 음성, 제스처 등이 가능하다.
영상 촬영부(110)는 웹캠 등의 2차원 카메라, 광센서, 초음파센서, 이미지 센서 등을 포함하고, 신체의 실상과 반사체(200)에 반사된 허상을 컬러 영상 또는 흑백 영상으로 촬영할 수 있다. 상기 영상 촬영부(110)의 위치는 스티어링휠 옆, 아래 또는 위 모두 가능하며, 사용자의 손, 다리 등 신체 영상을 촬영하기에 좋은 자리이면 된다.
여기서, 반사체(200)는 AVN과 같은 디스플레이, 윈드실드, 룸미러, 센터페시아 인테리어, 변속레버 측면의 인테리어 또는 인위적인 거울이 될 수 있다.
영상 저장부(150)는 영상 촬영부(110)에서 촬영되는 영상의 프레임을 누적하여 저장하거나 전자제어유닛(130)에서 처리된 영상을 저장할 수도 있다..
타이머(160)는 시간을 체크한다.
정보 데이터베이스(120)는 미리 정의된 다양한 신체정보의 실상과 허상의 궤적 정보에 대응하는 손 제스처 정보를 저장한다. 또한, 필요에 따라서는 제스처 정보에 대응하는 기기 조작 정보를 저장한다. 예를 들면, 도 3과 같이, 실상과 허상의 손바닥이 근접, 실상과 허상의 손바닥 좌로 이동, 실상과 허상의 손바닥이 위로 이동 등의 제스처에 대하여 선택할 수 있는 차량 기기 조작은 전화받기, 운전 중 음악 재생, 볼륨업 등이며, 이외에도 다양한 제스쳐에 대해 음악정지, 음악 온/오프, 음악 일시정지, 에이컨 온/오프 조작 등 다양한 기기 조작이 가능하다.
상기 저장된 제스처 정보는 일반적으로 정의되어 있는 제스처에 대하여 미리 설정되어 있는 것이 바람직하다.
또한, 상기 정보 데이터베이스(120)는 탑승자에 의해 등록된 제스처 정보를 저장한다. 탑승자는 다양한 신체의 실상과 허상의 궤적 정보를 선정하여 제스처로서 저장할 수 있다.
즉, 탑승자마다 각각 다른 신체 예를 들면, 손의 실상과 허상의 궤적 정보를 제스처로 오류 없이 인식하도록 탑승자가 직접 자신의 손의 실상과 허상의 궤적 정보를 제스처를 입력하는 것이 바람직하다.
전자제어유닛(130)은 영상 촬영부(110)로부터 입력되는 영상에서 실제 손 영상과 손이 반사체(200)에 반사된 허상을 추출한다. 이렇게 실상과 허상의 추출을 반복 누적함으로써 실상과 허상의 궤적을 생성할 수 있다.
또한, 현재 영상 프레임과 영상 저장부(150)에 저장된 이전 영상 프레임을 비교하여 손의 실상과 허상의 궤적정보를 검출할 수도 있다.
이러한 실상과 허상의 궤적 정보 생성 방법은 다양하게 변형이 가능하며, 다른 방법으로도 실상과 허상의 궤적 정보를 검출할 수 있다.
예를 들면, 전자제어유닛(130)은 인체 영상을 기초로 영상 처리를 할 수도 있다. 즉, 상기 탑승자의 인체 영상중 실상과 허상에서 인체 주변 이미지를 제거하고, 추출된 이미지를 머리, 몸통, 팔, 손, 다리로 구분하여 모델링한다. 상기 모델링한 손 이미지를 이용하여 실상과 허상의 궤적정보를 검출하게 된다.
그리고 전자제어유닛(130)은 소정 시간의 실상과 허상의 궤적정보로부터 정보 데이터베이스(120)를 참조하여 제스처를 인식하게 된다.
상기 소정의 시간은 실상과 허상의 궤적을 형성하는 시간으로서 제스처를 인식하기에 충분한 시간으로 타이머(160)를 참조하여 체크할 수 있다
그리고, 상기 전자제어유닛(130)은 상기 취득한 실상과 허상의 궤적 정보와 매칭되는 제스처 정보가 상기 정보 데이터베이스(120)에 저장되어 있는지 판단한다. 상기 전자제어유닛(130)은 매칭되는 제스처가 저장되어 있으면 상기 실상과 허상의 궤적 정보를 상기 탑승자의 제스처로 인식한다. 또한, 매칭되는 제스처 정보가 저장되어 있지 않으면 탑승자의 신체의 실상과 허상 궤적 정보는 식별 불가능한 정보가 되어 인식되지 않는다.
여기서, 실상과 허상의 상관관계로부터 제스쳐를 인식하는 원리는 다음과 같다.
예를 들어, 손이 반사체(200)에 근접하면, 실상과 허상은 서로 가까워지고, 손이 반사체(200)에서 멀어지면 실상과 허상은 서로 멀어진다. 이 실상과 허상의 거리관계를 바탕으로 Z축 방향의 모션을 추정한다.
상, 하, 좌, 우로의 이동 또는 회전 등의 제스쳐는 허상과 실상간의 거리가 크게 변하지 않고 같은 방향으로 변위가 변한다. 이러한 관계를 이용하여 X, Y 축 방향의 모션을 추정한다.
또한, 상기 전자제어유닛(130)은 상기 입력부(100)의 입력 신호에 따라 제스처 인식 기능을 사용할지 여부를 결정한다. 즉, 상기 전자제어유닛(130)은 제스처 인식 기능을 사용 또는 종료하라는 입력 신호가 있으면, 상기 영상 촬영부(110)를 제어하여 운전자 촬영을 시작 또는 종료한다. 이때, 사용자의 한손이 움직이는 활동 영역을 촬영하도록 할 수도 있다.
또한, 상기 전자제어유닛(130)은 상기 인식된 제스처에 대응하는 차량 기기 조작을 선택한다.
상기 전자제어유닛(130)은 선택된 차량 기기 조작에 따른 제어신호를 생성하여 탑승자가 원하는 조작을 제공한다. 예를 들어, 선택할 수 있는 차량 기기 조작은 운전 중 AVN의 채널, 모드, 볼륨, 휴대폰 받기/끄기, 음악 재생/정지/음소거, 음량 증가/감소, 에어컨 온/오프, 히터 온/오프, 썬바이저 조작 등이다.
출력부(140)는 터치스크린, 스피커 및 상기 차량 기기 조작 대상이 되는 AVN, 휴대폰, 음악기기, 에어컨, 히터, 썬바이저, 컨텐츠 조작등을 포함한다. 또한, 차량 기기 조작 내용을 화면으로 출력한다.
도 2는 본 발명의 실시예에 따른 차량내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법에 대한 순서도이다.
도 2를 참조하면, 탑승자는 입력부(100)를 통하여 제스처 인식 기능을 요청한다(S100).
그리고, 탑승자에 의해 제스처 인식 기능 사용이 요청되면, 전자제어유닛(130)은 영상 촬영부(110)를 통해 탑승자의 인체 또는 손 부분의 촬영을 시작한다(S110).
그리고 나서, 영상 촬영부(110)를 통해 촬영된 영상은 전자제어 유닛(130)으로 출력되고, 영상 저장부(150)에도 누적하여 저장이 된다(S120)
상기 촬영된 영상에서 전자제어유닛(130)은 인체 주변 이미지를 제거한다(S120). 또한, 상기 전자제어유닛(130)은 추출된 이미지를 몸통, 팔, 손으로 구분하여 모델링하고(S130), 손 부분 이미지만을 추적한다. 물론 반사체(200)에 의해 반사된 허상에 대해서도 마찬가지로 손 부분의 허상만 추적한다.
이후, 상기 손 부분 이미지의 실상과 허상을 기초로 실상과 허상의 궤적 정보를 추출한다(S140).
이러한 실상과 허상의 궤적 정보를 추출하는 방법은 다양하게 변형이 가능하다.
예를 들면, 전자제어유닛(130)은 영상 촬영부(110)로부터 입력되는 영상에서 실제 손 영상과 손이 반사체(200)에 반사된 허상을 추출한다. 이렇게 실상과 허상의 추출을 반복 누적함으로써 실상과 허상의 궤적을 생성할 수도 있다.
그리고, 현재 영상 프레임과 영상 저장부(150)에 저장된 이전 영상 프레임을 비교하여 손의 실상과 허상의 궤적정보를 검출할 수도 있다.
이후, 상기 전자제어유닛(130)은 상기 추출된 손 이미지의 실상과 허상의 궤적 정보와 매칭되는 제스처가 정보 데이터베이스(130)에 저장되어 있는지 판단한다(S150).
상기 전자제어유닛(130)은 상기 추출된 손 이미지의 실상과 허상의 궤적 정보와 매칭되는 제스처가 정보 데이터베이스(130)에 저장되어 있으면, 상기 매칭되는 제스처를 상기 탑승자의 제스처로 인식한다(S160).
이후, 상기 전자제어유닛(130)은 상기 인식된 제스처에 대응하는 차량 기기 조작을 선택한다. 상기 전자제어유닛(130)은 선택된 차량 기기 조작에 따른 제어신호를 생성하여 탑승자가 원하는 조작을 제공한다(S170).
이러한 차량 기기 조작에는 차량내 공조 기기, 오디오 시스템과 같은 기기의 조작이 포함되며, 컨텐츠나 미디어와 같은 정보의 전달, 복사, 저장 및 수정 등의 동작에도 응용이 가능하다.
그리고, 조작 결과는 출력부(140)를 통하여 나타나고, 운전자가 제스처 인식 기능 종료를 요청하는지에 따라 제스처 인식을 이용한 사용자 인터페이스는 종료된다(S180).
본 발명의 실시예에서는 2차원 카메라를 이용하여 탑승자의 제스처를 추출할 수 있으므로 비용이 적게 소요된다.
이상으로 본 발명에 관한 바람직한 실시예를 설명하였으나, 본 발명은 상기 실시예에 한정되지 아니하며, 본 발명의 실시예로부터 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의한 용이하게 변경되어 균등하다고 인정되는 범위의 모든 변경을 포함한다.
100: 입력부
110: 영상 촬영부
120: 정보 데이터베이스
130: 전자제어유닛
140: 출력부
150: 영상 저장부
160: 타이머
200: 반사체

Claims (7)

  1. 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법에 있어서,
    탑승자 및 탑승자가 반사체에 반사된 허상을 촬영한 영상을 입력 받는 단계;
    상기 촬영한 영상에서 탑승자의 실상과 허상을 추출하고, 이들의 상관관계를 이용하여 제스처 정보를 인식하는 단계; 및
    상기 인식된 제스처 정보에 대응하는 차량 기기 조작을 선택하는 단계를 포함하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법.
  2. 제1항에 있어서,
    상기 촬영한 영상에서 탑승자의 실상과 허상을 추출하고, 이들의 상관관계를 이용하여 제스처 정보를 인식하는 단계는,
    상기 탑승자를 촬영한 영상으로부터 탑승자의 손 영상의 실상 및 허상을 추출하는 단계;
    상기 탑승자를 촬영한 영상으로부터 탑승자의 손 영상을 추출하는 단계;
    상기 실상과 허상의 궤적정보를 생성하는 단계;
    상기 실상과 허상의 궤적정보로부터 제스처 정보를 인식하는 단계를 포함하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법.
  3. 제2항에 있어서,
    상기 실상과 허상의 궤적정보로부터 제스처 정보를 인식하는 단계는,
    상기 실상과 허상의 궤적 정보와 매칭되는 제스처 정보가 정보 데이터베이스에 저장되어 있는지 판단하는 단계;
    상기 실상과 허상의 궤적 정보와 매칭되는 제스처 정보가 정보 데이터베이스에 저장되어 있으면, 상기 실상과 허상의 궤적정보를 제스처 정보로 인식하는 단계를 포함하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법.
  4. 제1항에 있어서,
    상기 탑승자를 촬영한 영상을 입력 받는 단계 이전에,
    제스처 인식 기능 사용 요청을 판단하는 단계를 더 포함하고,
    제스처 인식 기능 사용 요청이 있으면, 상기 탑승자를 촬영한 영상을 입력 받는 단계를 수행하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법.
  5. 제4항에 있어서,
    상기 제스처 인식 기능 사용 종료 요청을 판단하는 단계;
    상기 제스처 인식 기능 사용 종료 요청이 있으면, 상기 제스처 인식 기능을 사용 종료하는 단계를 더 포함하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 방법.
  6. 반사체가 존재하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템에 있어서,
    탑승자를 촬영하는 영상 촬영부;
    상기 영상 촬영부에 의해 촬영되는 영상을 저장하는 영상 저장부;
    인식 가능한 제스처 정보 및 그에 대응하는 기기조작정보를 저장하고 있는 정보 데이터베이스; 및
    상기 영상 촬영부로부터의 입력 신호 및 상기 영상 저장부에 저장된 누적 영상 정보를 기초로 차량 기기 조작을 제어하는 전자제어유닛을 포함하되,
    상기 전자제어유닛은, 상기 제1항 내지 제5항중 어느 한항의 방법을 수행하기 위한 일련의 명령을 실행하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템.
  7. 제6항에 있어서,
    탑승자로부터 제스처 인식 기능 사용을 위한 요청 신호를 입력받아 상기 전자제어유닛으로 전달하는 입력부; 및
    상기 전자제어유닛의 차량 기기 조작 내용을 표시하는 출력부를 더 포함하는 차량 내 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템.
KR1020120148814A 2012-12-18 2012-12-18 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법 KR101438615B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120148814A KR101438615B1 (ko) 2012-12-18 2012-12-18 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
US14/092,411 US9052750B2 (en) 2012-12-18 2013-11-27 System and method for manipulating user interface by 2D camera
CN201310655463.7A CN103869970B (zh) 2012-12-18 2013-12-05 通过2d相机操作用户界面的系统和方法
DE102013225027.4A DE102013225027A1 (de) 2012-12-18 2013-12-05 System und Verfahren für das Manipulieren einer Benutzerschnittstelle durch eine 2D-Kamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120148814A KR101438615B1 (ko) 2012-12-18 2012-12-18 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20140079160A KR20140079160A (ko) 2014-06-26
KR101438615B1 true KR101438615B1 (ko) 2014-11-03

Family

ID=50821644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120148814A KR101438615B1 (ko) 2012-12-18 2012-12-18 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법

Country Status (4)

Country Link
US (1) US9052750B2 (ko)
KR (1) KR101438615B1 (ko)
CN (1) CN103869970B (ko)
DE (1) DE102013225027A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
CN104216514A (zh) * 2014-07-08 2014-12-17 深圳市华宝电子科技有限公司 一种车载设备控制方法、装置及车辆
CN104182043B (zh) * 2014-08-15 2017-05-03 北京智谷睿拓技术服务有限公司 对象拾取方法、对象拾取装置及用户设备
US9823782B2 (en) * 2015-11-20 2017-11-21 International Business Machines Corporation Pre-touch localization on a reflective surface
US10606468B2 (en) 2015-11-20 2020-03-31 International Business Machines Corporation Dynamic image compensation for pre-touch localization on a reflective surface
CN109814553A (zh) * 2019-01-15 2019-05-28 北京百度网讯科技有限公司 自动驾驶系统的控制方法、装置、系统及可读存储介质
US20210284175A1 (en) * 2020-03-11 2021-09-16 GM Global Technology Operations LLC Non-Intrusive In-Vehicle Data Acquisition System By Sensing Actions Of Vehicle Occupants
CN112061137B (zh) * 2020-08-19 2022-01-14 一汽奔腾轿车有限公司 一种车外的人车互动控制方法
CN112947761B (zh) * 2021-03-26 2023-07-28 芜湖汽车前瞻技术研究院有限公司 Ar-hud系统的虚像位置调整方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2004334590A (ja) 2003-05-08 2004-11-25 Denso Corp 操作入力装置
KR20080065032A (ko) * 2007-01-08 2008-07-11 전자부품연구원 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
KR20110103848A (ko) * 2010-03-15 2011-09-21 오므론 가부시키가이샤 제스처 인식 장치, 제스처 인식 장치의 제어 방법 및 제어 프로그램

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100559365B1 (ko) 2004-01-14 2006-03-10 한국과학기술연구원 컴퓨터 시각 기반의 제스쳐 인식 시스템 및 방법
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
CN101055193A (zh) * 2006-04-12 2007-10-17 株式会社日立制作所 车载装置的非接触输入操作装置
US9311309B2 (en) * 2009-08-05 2016-04-12 Robert Bosch Gmbh Entertainment media visualization and interaction method
CN202025281U (zh) * 2011-04-15 2011-11-02 上海博泰悦臻电子设备制造有限公司 车载人机交互装置及车载系统
CN102520791A (zh) * 2011-11-28 2012-06-27 北京盈胜泰科技术有限公司 一种无线手势识别装置
CN102622083A (zh) * 2012-02-24 2012-08-01 北京盈胜泰科技术有限公司 一种手势识别方法及手势识别装置
KR101490908B1 (ko) * 2012-12-05 2015-02-06 현대자동차 주식회사 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
KR101459441B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법
US9323346B2 (en) * 2012-12-31 2016-04-26 Futurewei Technologies, Inc. Accurate 3D finger tracking with a single camera
US9122351B2 (en) * 2013-03-15 2015-09-01 Verizon Patent And Licensing Inc. Apparatus for detecting proximity of object near a touchscreen
KR101490909B1 (ko) * 2013-05-10 2015-02-06 현대자동차 주식회사 차량용 영상 처리 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2004334590A (ja) 2003-05-08 2004-11-25 Denso Corp 操作入力装置
KR20080065032A (ko) * 2007-01-08 2008-07-11 전자부품연구원 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
KR20110103848A (ko) * 2010-03-15 2011-09-21 오므론 가부시키가이샤 제스처 인식 장치, 제스처 인식 장치의 제어 방법 및 제어 프로그램

Also Published As

Publication number Publication date
CN103869970A (zh) 2014-06-18
KR20140079160A (ko) 2014-06-26
DE102013225027A1 (de) 2014-06-18
CN103869970B (zh) 2018-04-17
US20140168064A1 (en) 2014-06-19
US9052750B2 (en) 2015-06-09

Similar Documents

Publication Publication Date Title
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
KR101459441B1 (ko) 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법
KR101459445B1 (ko) 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
KR101490908B1 (ko) 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
US9738158B2 (en) Motor vehicle control interface with gesture recognition
KR101550604B1 (ko) 차량용 조작 장치
JP5427385B2 (ja) 操作制御装置及び操作表示方法
US20130204457A1 (en) Interacting with vehicle controls through gesture recognition
JP6671288B2 (ja) ジェスチャー装置、その動作方法及びこれを備えた車両
KR20150072074A (ko) 차량 제스처 인식 시스템 및 그 제어 방법
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
JP7077615B2 (ja) 駐車制御方法及び駐車制御装置
WO2018061413A1 (ja) ジェスチャ検出装置
KR20200037725A (ko) 기기 제어 장치
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP5136948B2 (ja) 車両用操作装置
KR101500412B1 (ko) 차량용 제스처 인식 장치
KR20140079025A (ko) 차량 내 다리 제스처 인식을 이용한 사용자 인터페이스 조작 방법
JP2006327526A (ja) 車載機器の操作装置
KR101393573B1 (ko) 광 스캔을 이용한 사용자 인터페이스 시스템 및 방법
KR20140077037A (ko) 제스처 기반의 촉감 자극 제공 시스템 및 그 방법
CN117523015A (zh) 图像生成方法和装置
CN114987364A (zh) 一种多模态人车交互系统
KR20160032453A (ko) 차량 및 그 제어방법과 네비게이션

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180829

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190827

Year of fee payment: 6