KR101983892B1 - Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device - Google Patents
Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device Download PDFInfo
- Publication number
- KR101983892B1 KR101983892B1 KR1020170029343A KR20170029343A KR101983892B1 KR 101983892 B1 KR101983892 B1 KR 101983892B1 KR 1020170029343 A KR1020170029343 A KR 1020170029343A KR 20170029343 A KR20170029343 A KR 20170029343A KR 101983892 B1 KR101983892 B1 KR 101983892B1
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- type
- information
- vehicle
- motion information
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G06K9/00832—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
제스처 인식방법, 제스처 인식장치 및 기록매체가 제공된다. 본 제스처 인식방법에 따르면, 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식할 수 있게 되어, 차량 내부 전체 공간에서 제스처 인식이 가능해지고 인식률을 더욱 향상시킬 수 있게 되며, 운행중인 차량에서도 비교적 정확한 제스처 인식을 할 수 있게 된다. A gesture recognition method, a gesture recognition device, and a recording medium are provided. According to the present gesture recognition method, it is possible to recognize the gesture of the user based on the received motion information within the gesture range set according to the input vehicle state information, thereby enabling the gesture recognition in the entire space inside the vehicle, And the gesture recognition can be performed relatively accurately even when the vehicle is in operation.
Description
본 발명은 제스처 인식기술에 관한 것으로, 더욱 상세하게는 차량 내에서 사용자의 제스처를 인식하기 위한 제스처 인식방법, 장치 및 기록매체에 관한 것이다. The present invention relates to a gesture recognition technology, and more particularly, to a gesture recognition method, apparatus, and recording medium for recognizing a gesture of a user in a vehicle.
기존 차량 내의 사용자 동작을 이용한 제스처 인식은 카메라를 이용하여 사용자의 제스처 영상을 획득한 후 영상처리를 통해 이뤄졌다. 최근에는 카메라 영상에서 사용자의 손과 손가락 모양, 손의 움직임 등을 해석하여 다양한 제스처 인식이 가능해졌다. The recognition of the gesture using the user 's motion in the existing vehicle was achieved through image processing after acquiring the gesture image of the user using the camera. In recent years, it has become possible to recognize various gestures by interpreting the user's hand, finger shape, and hand motion in the camera image.
그러나 카메라를 이용한 영상으로 제스처를 인식하는 방법은 차량 외부에서부터 발생하는 강한 조도 및 빛 번짐 현상 등으로 인한 인식 오류가 발생되는 문제가 있으며, 사용자의 의도치 않은 움직임 및 차량의 운행 상 움직임 의해 잘못된 제스처로 인식될 수도 있으며 이로 인해 차량 내 프로그램의 오작동 가능성도 존재한다. 또한, 지정된 카메라에 의해 촬영되는 제스처 인식영역 안에서의 제스처 동작만이 유효하므로, 제스처 인식 수행 공간의 제약이 발생한다는 단점도 존재한다. However, the method of recognizing the gesture by using the camera image has a problem that recognition error occurs due to strong illuminance and light blurring that occur from the outside of the vehicle, and there is a problem that the user unintentionally moves, And there is a possibility that the program in the vehicle may malfunction. In addition, since only the gesture operation in the gesture recognition area photographed by the designated camera is effective, there is also a disadvantage that the gesture recognition execution space is limited.
이에 따라, 외부 인자(빛, 소리 등)에 영향을 받지 않고 지정 공간의 제약을 받지 않는 차량 내부 제스처 인식 방법 및 그 시스템이 필요하다.Accordingly, there is a need for a vehicle interior gesture recognition method and system that is not affected by external factors (light, sound, etc.) and is not restricted by a designated space.
도 1은 종래의 차량 룸미러 아래쪽에 카메라가 장착돼있어 표시된 영역에서만 제스처 인식을 수행하는 모습을 도시한 도면이다. 또한, 도 2는 종래의 센터페시아 부분에 존재하는 카메라로 지정영역에서만 제스처 인식을 수행하는 것을 도시한 도면이다. FIG. 1 is a view showing a state in which a camera is mounted below a conventional vehicle room mirror and gesture recognition is performed only in a displayed area. 2 is a view showing that gesture recognition is performed only in a designated area by a camera existing in a conventional center fascia portion.
차량 내부에서의 수행 공간 제약 없는 사용자 동작 인식을 위해서, 사용자가 직접 착용한 웨어러블 장치에서 발생하는 움직임 정보가 사용될 수동 있다. 종래의 웨어러블 장치에서 발생하는 제스처 인식 기술을 살펴보면, 차량과 같은 외부로 명령을 내리기 위한 목적은 아니었다. 웨어러블 장치 자체에 포함된 센서(가속도계, 각속도계 등)의 움직임을 이용하여 손목 움직임, 걸음걸이 파악 등의 단순 기능에 국한되어 있다. 따라서 차량과 같이 진동 및 움직임이 잦은 공간에서는 정확한 움직임을 파악하는 것이 매우 어렵다. In order to recognize the user's motion without constraining the execution space within the vehicle, motion information generated in a wearable device worn by the user is manually used. The gesture recognition technology that occurs in a conventional wearable device is not intended to issue commands to the outside such as a vehicle. The present invention is limited to simple functions such as wrist motion and gait detection using movement of sensors (accelerometers, speedometers, etc.) included in the wearable device itself. Therefore, it is very difficult to grasp accurate motion in a space where vibration and movement frequently occur like a vehicle.
도 3은 종래의 손목의 움직임을 파악하여 웨어러블 장치(워치)의 화면 온/오프 기능을 수행하고 외부 디바이스와 연동하는 것을 도시한 도면이다. 웨어러블 장치는 연동을 위해 센서의 움직임 정보를 외부 디바이스(태블릿, 스마트 폰 등)로 전달할 수도 있다. 도 4는 종래의 웨어러블 장치를 이용하여 외부디바이스와 연동되어 제스처를 인식하는 것이 도시된 도면이다. FIG. 3 is a view showing a conventional wrist motion to perform a screen on / off function of a wearable device (watch) and interlocking with an external device. The wearable device may transmit the motion information of the sensor to an external device (tablet, smartphone, etc.) for interlocking. FIG. 4 is a diagram illustrating recognition of a gesture in cooperation with an external device using a conventional wearable device.
하지만, 웨어러블 장치를 이용하여 제스처를 인식하더라도, 차량 내부에서는 다양한 움직임으로 인해 정확도가 떨어지게 된다. 이에 따라, 차량 내부에서 더욱 인식률이 높은 제스처 인식 방법을 제공하기 위한 방안의 모색이 필요하다. However, even if the wearable device is used to recognize the gesture, the accuracy of the gesture deteriorates due to various movements in the vehicle. Accordingly, a method for providing a gesture recognition method having a higher recognition rate in a vehicle is required.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법, 제스처 인식장치 및 기록매체를 제공함에 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a gesture recognition method for recognizing a gesture of a user based on received motion information within a gesture range set according to input vehicle state information , A gesture recognition apparatus, and a recording medium.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 제스처 인식방법은, 차량 상태 정보를 입력받는 단계; 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a gesture recognition method including receiving vehicle state information; Receiving motion information of a user sensed by a sensor; And recognizing the gesture of the user based on the received motion information within the gesture range set according to the input vehicle state information.
그리고, 인식단계는, 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하는 단계; 및 설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 단계;를 포함한다. The recognizing step includes: setting a range of recognizable gesture type based on the input vehicle state information; And determining a gesture of the user corresponding to the inputted motion information within a range of the set gesture type.
또한, 설정 단계는, 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정하고, 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수도 있다. The setting step sets the range of the recognizable gesture type to one of the plurality of steps based on the input vehicle state information and sets the range of the gesture type corresponding to the set step to the input motion information The gesture of the corresponding user may be determined.
그리고, 제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 차량의 디스플레이 화면에 표시하는 단계;를 더 포함할 수도 있다. And displaying a gesture recognition related state on the display screen of the vehicle, the gesture recognition related state including at least one of a gesture recognition preparation state, a gesture recognition preparation completion state, a gesture unrecognizable state and a recognizable gesture type range step setting state You may.
또한, 표시 단계는, 제스처 인식 관련 상태를 차량의 디스플레이 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시할 수도 있다. Further, in the displaying step, the gesture recognition related state is displayed on the periphery of the display screen of the vehicle, and may be displayed in different colors depending on the gesture recognition related state.
그리고, 인식된 제스처에 대응되는 명령을 실행하는 단계;를 더 포함할 수도 있다. And executing a command corresponding to the recognized gesture.
또한, 차량 상태 정보는, 차량속도 정보, 차량 RPM 정보, 차량속도변화량 정보, 차량 RPM 변화량 정보, 차량가속도 정보, 차량가속도 변화량 정보, 차량지자기 정보, 차량지자기 변화량 정보, 차량자이로 정보 및 차량자이로변화량 정보 중 두개 이상을 포함할 수도 있다. The vehicle state information may also include vehicle speed information, vehicle RPM information, vehicle speed change amount information, vehicle RPM change amount information, vehicle acceleration information, vehicle acceleration change amount information, vehicle geomagnetism information, vehicle geomagnetism change amount information, vehicle gyro information, It may contain more than one of the information.
그리고, 제스처 타입은, 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입 중 두개 이상을 포함할 수도 있다. And, the gesture type may include two or more of the up / down / right / left type, the rotation type, the front / back type, and the selection type.
또한, 움직임 정보 입력 단계는, 웨어러블 장치에 포함된 센서에 의해 감지된 사용자의 움직임 정보를 웨어러블 장치로부터 입력을 수도 있다. Also, the step of inputting the motion information may input the motion information of the user detected by the sensor included in the wearable device from the wearable device.
한편, 본 발명의 일 실시예에 따른, 제스처 인식장치는, 차량 상태 정보 및 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 인터페이스; 및 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 입력된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 프로세서;를 포함한다. Meanwhile, the gesture recognition apparatus according to an embodiment of the present invention includes an interface for receiving vehicle state information and motion information of a user sensed by a sensor; And a processor for recognizing the gesture of the user based on the inputted motion information within the gesture range set according to the inputted vehicle state information.
한편, 본 발명의 일 실시예에 따른, 컴퓨터로 읽을 수 있는 기록매체는, 차량 상태 정보를 입력받는 단계; 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함하는 제스처 인식방법을 수행하는 컴퓨터 프로그램이 수록된다. According to another aspect of the present invention, there is provided a computer-readable recording medium including: Receiving motion information of a user sensed by a sensor; And recognizing a gesture of the user based on the received motion information within a gesture range set according to the input vehicle state information.
한편, 본 발명의 일 실시예에 따른, 차량은, 차량 상태 정보 및 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 인터페이스; 및 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행하는 프로세서;를 포함한다. According to an embodiment of the present invention, a vehicle includes an interface for receiving vehicle state information and motion information of a user sensed by a sensor; And a processor for recognizing a user's gesture based on the received motion information within a gesture range set in accordance with the input vehicle state information and executing a command corresponding to the recognized gesture.
본 발명의 다양한 실시예에 따르면, 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법, 제스처 인식장치 및 기록매체를 제공할 수 있게 되어, 차량 내부 전체 공간에서 제스처 인식이 가능해지고 인식률을 더욱 향상시킬 수 있게 되며, 운행중인 차량에서도 비교적 정확한 제스처 인식을 할 수 있게 된다. According to various embodiments of the present invention, it is possible to provide a gesture recognition method, a gesture recognition device, and a recording medium that recognize a gesture of a user based on received motion information within a gesture range set according to input vehicle state information Thus, the recognition of the gesture in the entire space of the vehicle becomes possible, the recognition rate can be further improved, and a relatively accurate gesture recognition can be performed even in a running vehicle.
도 1은 종래의 차량 룸미러 아래쪽에 카메라가 장착돼있어 표시된 영역에서만 제스처 인식을 수행하는 모습을 도시한 도면,
도 2는 종래의 센터페시아 부분에 존재하는 카메라로 지정영역에서만 제스처 인식을 수행하는 것을 도시한 도면,
도 3은 종래의 손목의 움직임을 파악하여 웨어러블 장치(워치)의 화면 온/오프 기능을 수행하고 외부 디바이스와 연동하는 것을 도시한 도면,
도 4는 종래의 웨어러블 장치를 이용하여 외부디바이스와 연동되어 제스처를 인식하는 것이 도시된 도면,
도 5는 본 발명의 일 실시예에 따른, 제스처 인식 과정을 개념적으로 도시한 도면,
도 6은 본 발명의 일 실시예에 따른, 웨어러블 디바이스를 이용한 제스처 인식 과정을 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 제스처 인식 시스템의 구성도의 일 예를 도시한 도면,
도 8은 본 발명의 일 실시예에 따른, 제스처 인식 장치의 구성을 도시한 도면,
도 9는 본 발명의 일 실시예에 따른, 차량상태정보에 따른 단계별 동작 가능 설정된 제스처 범위를 도시한 표,
도 10은 본 발명의 일 실시예에 따른, 제스처 인식 과정을 세부적으로 도시한 도면,
도 11은 본 발명의 일 실시예에 따른, 축값의 증감 관계 특성 계산식(cross-correlation matrix)을 도시한 도면,
도 12는 본 발명의 일 실시예에 따른, 시간에 따른 제스처 인식 단계들을 도시한 도면,
도 13은 본 발명의 일 실시예에 따른, 차량 디스플레이에 표시되는 제스처 인식단계들을 도시한 도면,
도 14는 본 발명의 일 실시예에 따른, 제스처 인식방법을 설명하기 위해 제공되는 흐름도이다. FIG. 1 is a view showing a state where a camera is mounted under a conventional vehicle room mirror to perform gesture recognition only in a displayed area,
FIG. 2 illustrates performing gesture recognition only in a designated area with a camera existing in a conventional center fascia portion; FIG.
FIG. 3 is a view showing a conventional on-screen-on / off function of a wearable device (watch) by grasping the movement of the wrist and interlocking with an external device;
FIG. 4 is a diagram illustrating recognition of a gesture in cooperation with an external device using a conventional wearable device;
5 is a conceptual illustration of a gesture recognition process according to an embodiment of the present invention;
6 is a flowchart illustrating a gesture recognition process using a wearable device according to an embodiment of the present invention.
7 is a block diagram of a gesture recognition system according to an embodiment of the present invention.
8 is a diagram illustrating a configuration of a gesture recognition apparatus according to an embodiment of the present invention.
9 is a table showing gesture ranges settable for each step according to vehicle status information, according to an embodiment of the present invention;
FIG. 10 is a detailed view illustrating a gesture recognition process according to an embodiment of the present invention. FIG.
FIG. 11 is a diagram showing a cross-correlation matrix of an axial value according to an embodiment of the present invention; FIG.
12 illustrates gesture recognition steps over time, in accordance with an embodiment of the present invention;
13 illustrates gesture recognition steps displayed on a vehicle display, in accordance with an embodiment of the present invention;
14 is a flowchart provided to illustrate a gesture recognition method according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.
도 5는 본 발명의 일 실시예에 따른, 제스처 인식 과정을 개념적으로 도시한 도면이다. 5 is a conceptual view illustrating a gesture recognition process according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 제스처 인식장치(Gesture Recognition System)(100)는 차량(30) 내에서 움직임 센서부(10)를 포함하는 웨어러블 장치(시계형, 밴드형 등)를 착용한 사용자의 특정 움직임 정보를 운행중인 차량의 정보와 융합하여 유의미한 제스처로 인식하게 된다. 제스처 인식장치(100)는 제스처를 수행하는 사용자의 차량(30) 내부에서 실행 범위에 대한 지역적인 제약을 받지 않고 차량 외부에서부터 발생하는 빛, 소음등의 외부 요인으로부터 영향을 받지 않고 제스처를 인식할 수 있게 된다. 5, the
제스처 인식장치(100)는 움직임 센서 정보를 제스처로 해석하고, 차량 정보를 수집하여 동작 가능 범위로 설정된 제스처 범위 내인지 여부를 판단하게 된다. The
이와 같이 본 제스처 인식장치(100)는 차량내 환경에서 가속도계와 각속도계 센서를 포함하는 움직임 센서부(10)를 이용하여 제스처를 구분하게 되며, 차량(30)에서 발생하는 정보를 수집하고 분석하여 동작 가능한 유효한 제스처인지 여부를 판단하는데 사용하게 된다. As described above, the
도 6은 본 발명의 일 실시예에 따른, 웨어러블 디바이스를 이용한 제스처 인식 과정을 도시한 도면이다. 6 is a diagram illustrating a gesture recognition process using a wearable device according to an embodiment of the present invention.
사용자는 차량 내에서 착용중인 웨어러블 디바이스를 이용해 제스처 동작을 수행하고, 웨어러블 디바이스는 수행된 동작에 대한 센서 데이터를 통해 사용자의 움직임 정보를 생성한다. 생성된 움직임 정보는 무선통신 방식으로 차량(30) 내 제스처 인식장치(100)에 전달되게 된다. 이때, 제스처 인식장치(100)는 차량정보를 취득하여 현재 입력된 사용자의 움직임 정보가 실제로 제스처 입력을 위한 것인지, 아니면 차량의 외부 상태 (가속중, 방지턱 지남, 고속주행 중)에 의해 잘못 감지된 것인지 여부를 판단하여, 제스처 입력에 대응되는 명령을 실행할지 여부를 결정하게 된다. The user performs a gesture operation using the wearable device worn in the vehicle, and the wearable device generates the user's motion information through the sensor data on the performed operation. The generated motion information is transmitted to the
도 7은 본 발명의 일 실시예에 따른, 제스처 인식 시스템의 구성도의 일 예를 도시한 도면이다. 7 is a block diagram of a gesture recognition system according to an embodiment of the present invention.
웨어러블 디바이스는 주로 사용자의 손목에 착용되는 스마트 워치 등이 해당될 수 있으나 그외에도 다양한 웨어러블 장치가 본 발명에 적용될 수 있다. 웨어러블 디바이스는 움직임 센서부(10)를 포함하며, 움직임 센서부(10)는 다양한 움직임 정보를 감지하기 위한 센서들을 포함하며, 예를 들어 9축센서를 가지며 해당 센서의 지자기, 가속도, 자이로 정보를 획득할 수 있도록 구성될 수 있다. The wearable device may mainly be a smart watch or the like worn on the user's wrist, but various wearable devices may be applied to the present invention. The wearable device includes a
차량상태정보 수집장치는 도 8의 차량상태정보 수집부(20)를 나타내며, 운전자가 제스처 동작 수행시, 운전자의 동작과 관계없이 움직임 정보의 오류가 발생될 수 있는 상황을 파악하기 위해 정보를 수집하는 모듈을 내장한다. 이때, 차량상태정보 수집부(20)는 차량의 속도, 가속도, RPM, 차량의 실제 움직임을 볼 수 있는 차량 센서와 연동되며, 차량속도 정보, 차량 RPM 정보, 차량속도변화량 정보, 차량 RPM 변화량 정보, 차량가속도 정보, 차량가속도 변화량 정보, 차량지자기 정보, 차량지자기 변화량 정보, 차량자이로 정보 및 차량자이로변화량 정보 등을 수집하게 된다. The vehicle state information collecting device represents the vehicle state
AVN(Audio Video Navigation) 장치는 제스처 인식장치(100)가 포함될 수 있다. 하지만, 제스처 인식장치(100)는 이외에도 차량(30)의 다양한 부분에 포함될 수 있음은 물론이다. 제스처 인식장치(100)를 포함하는 AVN 장치는 이러한 차량정보과 웨어러블 디바이스의 움직임 정보를 취합하여, 사용자의 제스처를 인식할 수 있게 된다. The AVN (Audio Video Navigation) apparatus may include the
이하에서는, 제스처 인식장치(100)의 상세한 구조를 설명한다. 도 8은 본 발명의 일 실시예에 따른, 제스처 인식장치(100)의 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 제스처 인식장치(100)는 움직임 센서부(10) 및 차량상태정보 수집부(20)와 유선 또는 무선으로 연결된다. 또한, 제스처 인식장치(100)는 인터페이스(110), 프로세서(120), 디스플레이(130) 및 저장부(140)를 포함한다. Hereinafter, the detailed structure of the
움직임 센서부(10)는 상술한 바와 같이 사용자가 착용하고 있는 웨어러블 장치에 포함되어 있으며, 9축 센서를 포함하여 사용자의 움직임 정보를 계속적으로 생성한다. 움직임 센서부(10)는 생성된 움직임 정보를 유선 또는 무선 네트워크를 통해 제스처 인식장치(100)로 전달한다. The
차량상태정보 수집부(20)는 운행 중인 차량의 속도, 가속도, RPM, 스티어링 휠 각도 및 차량의 실제 움직임을 볼 수 있는 차량 센서와 연동되며, 차량속도 정보, 차량 RPM 정보, 차량속도변화량 정보, 차량 RPM 변화량 정보, 차량가속도 정보, 차량가속도 변화량 정보, 차량지자기 정보, 차량지자기 변화량 정보, 차량자이로 정보 및 차량자이로변화량 정보를 기록한다. 그리고, 차량상태정보 수집부(20)는 기록된 정보를 유선 또는 무선 네트워크를 통해서 제스처 인식장치(100)로 전달한다. The vehicle state
인터페이스(110)는 유선 또는 무선 네트워크의 데이터를 송수신하며, 움직임 센서부(10)의 움직임 정보와 차량상태정보 수집부(20)의 차량상태 정보를 입력받는다. 인터페이스(100)는 이더넷, 블루투스, 와이파이 등의 프로토콜을 이용할 수도 있다. The
프로세서(120)는 제스처 인식장치(100)의 다양한 기능을 수행한다. 구체적으로, 프로세서(120)는 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행한다. 예를 들어, 프로세서(120)는 인식된 제스처에 따라 볼륨 업/다운, 네비게이션 지도 확대/축소, 에어컨 온/오프 등의 명령을 수행할 수도 있다. The
구체적으로, 프로세서(120)는 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하고, 설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정한다. Specifically, the
이 때, 프로세서(120)는 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정하고, 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수도 있다. At this time, the
예를 들어, 프로세서(120)는 차량 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개의 단계로 나눌 수 있으며, 이와 관련하여는 도 9를 참고하여 설명한다. 도 9는 본 발명의 일 실시예에 따른, 차량상태정보에 따른 단계별 동작 가능 설정된 제스처 범위를 도시한 표이다. For example, the
우선, 프로세서(120)는 차량 상태 정보에 해당되는 차량속도 정보, 차량 RPM 정보, 차량속도변화량 정보, 차량 RPM 변화량 정보, 차량가속도 정보, 차량가속도 변화량 정보, 차량지자기 정보, 차량지자기 변화량 정보, 차량자이로 정보 및 차량자이로변화량 정보 중 두개 이상을 이용하여 차량의 상태를 1단계에서 5단계로 구분할 수 있다. 이 때, 1단계에서 5단계로 갈수록 차량의 흔들림이 심해지는 상태를 나타낼 수도 있다. 예를 들어, 차량의 속도가 0이고 RPM도 0이면, 프로세서(120)는 차량의 상태를 1단계로 설정할 수 있다. 그리고, 차량의 속도와 RPM이 일정하면, 프로세서(120)는 차량의 상태를 2단계로 설정할 수 있다. 또한, 차량의 속도와 RPM이 변화하지만 변화량이 제1 임계값보다 작으면, 프로세서(120)는 차량의 상태를 3단계로 설정할 수 있다. 그리고, 차량의 속도와 RPM의 변화량이 제1 임계값과 제2 임계값의 사이값이면, 프로세서(120)는 차량의 상태를 4단계로 설정할 수 있다. 차량의 속도와 RPM의 변화량이 제2 임계값보다 크면, 프로세서(120)는 차량의 상태를 5단계로 설정할 수 있다.First, the
이 상태에서, 프로세서(120)는 도 9와 같이 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정할 수 있게 된다. 이 때, 도 9에 도시된 바와 같이, 제스처 타입은 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입이 있다. In this state, the
도 9에 도시된 바와 같이, 프로세서(120)는 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수 있게 된다. 구체적으로, 설정된 단계가 1단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입의 4가지 모든 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 4가지 타입에서 결정하게 된다. 그리고, 설정된 단계가 2단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입 및 선택타입의 3가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 위의 3가지 타입에서 결정하게 된다. 또한, 설정된 단계가 3단계인 경우, 프로세서(120)는 상하좌우 타입, 앞뒤타입 및 선택타입의 3가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 위의 3가지 타입에서 결정하게 된다. 설정된 단계가 4단계인 경우, 프로세서(120)는 좌우 타입 및 선택타입의 2가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 2가지 타입에서 결정하게 된다. 설정된 단계가 5단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입의 4가지 모든 타입의 제스처를 인식할 수 없게 된다. As shown in FIG. 9, the
이와 같이, 프로세서(120)는 차량 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개의 단계로 나눌 수 있다. 하지만, 프로세서(120)는 차량 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개가 아닌 다른 개수의 단계로도 나눌 수 있음은 물론이다. As such, the
도 10을 이용하여 위와 같은 프로세서(120)의 제스처 인식 동작을 더욱 상세히 설명한다. 도 10은 본 발명의 일 실시예에 따른, 제스처 인식 과정을 세부적으로 도시한 도면이다. The gesture recognition operation of the
프로세서(120)는 입력된 움직임 정보에 대해 무결성 확인 과정을 거친 뒤 데이터 재배열기를 통해 해석 가능한 형태로 재배열된다. 이 때, 프로세서(120)는 무결성 확인시에 입력된 차량정보를 이용해 움직임 정보가 인식 가능한 제스처 타입에 해당되어 유효한지를 먼저 판단한다. 프로세서(120)는 재배열된 움직임 정보를 미리 지정된 제스처 동작의 주요 특성 정보를 기준으로 분류기를 통해 분류한다. 프로세서(120)는 분류된 데이터를 상세 제스처를 결정짓는 결정기로 옮기고, 저장부(140)에 저장된 제스처 동작 데이터 베이스의 특이 정보를 이용해 움직임 정보를 제스처에 매칭한다. 프로세서(120)는 매칭하는 과정에서 차량 정보를 적용하여 다시 한 번 무의미한 값을 필터링 한다. 이를 통해 급격하게 증/감한 움직임 센서부(10)의 센서 값의 완화 효과를 가져온다. 마지막으로, 프로세서(120)는 결정된 제스처를 디스플레이(130)를 통해 표시함으로써, 제스처 인식이 이뤄졌음을 사용자에게 알려주게 된다. The
프로세서(120)의 세부 동작 흐름을 도 10에서 확인할 수 있으며, 프로세서(120)는 재배열기, 분류기, 결정기, 실행기의 기능 블록으로 이뤄져있으며 각각의 역할은 다음과 같다. 먼저, 재배열기 부분은 데이터 무결성을 검사하고 해석 가능한 형태로 재배열된 데이터를 생산한다. 그 후 분류기에서는 저장부(140)의 제스처 데이터 베이스의 정보를 이용해 자체 최고 값, 최저 값, 인접 데이터의 사이 값 등의 특성을 비교해 1차 분류를 진행한다. 결정기는 1차 분류로 분류된 데이터를 각 축 값의 증감 관계 특성(cross-correlation) 파악으로 세부 동작으로 재차 구분된다. 마지막으로, 실행기는 분류된 각 제스처에 대응된 응용 프로그램을 실행하도록 명령을 실행한다. The detailed operation flow of the
도 11은 결정기에서 사용한 축 값의 증감 관계 특성 계산식을 표현하였다. 도 11은 본 발명의 일 실시예에 따른, 축값의 증감 관계 특성 계산식(cross-correlation matrix)을 도시한 도면이다. 각 축 간의 관계를 표시한 것이기 때문에 행렬 형태로 저장되며, 행렬의 각 원소의 계산은 도 11에 나타난 것과 같으며, 결정기는 저장부(140)의 데이터베이스에 저장된 제스처 배열마다의 유의미한 값을 추출하여 발생 움직임 정보와 비교하는 과정을 진행한다. 11 shows a formula for calculating the increasing / decreasing relationship of the axis values used in the determiner. 11 is a diagram showing a cross-correlation matrix of an axial value according to an embodiment of the present invention. 11, and the determiner extracts a significant value for each gesture arrangement stored in the database of the
이하에서는 시간흐름에 따라 프로세서(120)가 사용자의 제스처 인식을 수행하는 상태를 확인할 수 있는 방법을 도 12를 참고하여 설명한다. 도 12는 본 발명의 일 실시예에 따른, 시간에 따른 제스처 인식 단계들을 도시한 도면이다. Hereinafter, a method of confirming the state in which the
도 12는 시간에 따른 프로세서(120)의 제스처 인식 시간의 흐름을 보여주며, 검은색 부분은 실제 제스처 인식이 아닌 시스템 프로세싱(온, 오프, 데이터처리 등)에 소요되는 시간을 보여주며, 녹색은 프로세서(120)에 의해 제스처 인식이 일어나는 시간을 보여준다. 특히, 도 12에는 프로세서(120)가 실제 제스처 데이터의 동기화와 제스처 인식에 소요하는 시간이 개략적으로 표시되어 있다. 12 shows the flow of the gesture recognition time of the
이와 같은 과정을 통해, 프로세서(120)는 제스처 인식을 수행하게 된다. Through this process, the
디스플레이(130)는 AVN 장치의 화면에 해당될 수도 있으며, 차량과 관련된 다양한 정보를 표시하게 된다. The
프로세서(120)는 제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 디스플레이 화면에 표시할 수 있다. 구체적으로, 프로세서(120)는 제스처 인식 관련 상태를 디스플레이(130) 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시할 수도 있다. The
구체적으로, 도 13을 통해 제스처 인식 상태를 디스플레이(130)에 표시하는 방법에 대해 설명한다. Specifically, a method for displaying the gesture recognition status on the
도 13에서 볼 수 있듯이, 프로세서(120)는 제스처 인식 관련 상태를 인지하여, 디스플레이(130) 화면에 제스처 인식 준비상태, 제스처 인식 준비완료 상태, 제스처 인식 불가 상태 등을 차량상태정보를 이용해 결정하여 표시한다. 이를 통해, 사용자는 현재 디스플레이(130)에 표시되는 상태표시를 확인 후 해당 가능한 제스처를 수행하게 된다. As shown in FIG. 13, the
또한, 도 13은 차량 상태에 따라 시간별로 가능한 제스처 인식 상태 단계를 표시하고 있다. 사용자의 제스처가 오른쪽을 나타냈을 때, 인식 후 변화된 UI(User Interface)상태를 확인할 수 있다. Fig. 13 shows gesture recognition status steps that are possible in time according to the vehicle condition. When the gesture of the user indicates the right side, it is possible to check the changed UI state after recognition.
도 13에 도시된 바와 같이, 프로세서(120)는 제스처 인식 관련 상태를 디스플레이(130) 화면 가장자리 둘레에 색깔을 달리하여 표시할 수도 있다. 도 13에서는, 제스처 인식 준비상태는 노란색으로, 제스처 인식 준비완료 상태는 파란색으로, 제스처 인식 불가상태는 빨간색으로 표시된 것을 확인할 수 있다. As shown in FIG. 13, the
하지만, 이외에도, 프로세서(120)는 도 9에 도시된 5단계를 각각 빨강, 주황, 노랑, 초록, 파랑의 5가지 색으로 디스플레이(130) 화면 가장자리 둘레에 색깔을 달리하여 표시할 수도 있으며, 이외에도 다른 색상으로 표시할 수도 있음은 물론이다. In addition, the
저장부(140)는 차량(30)에 관한 다양한 정보들이 저장되며, 제스처에 대응되는 움직임 정보들이 기록된 제스처 동작 데이터 베이스가 저장되어 있다. The
지금까지, 제스처 인식장치(100)의 구성에 대해 설명하였다. The configuration of the
이하에서는, 도 14를 참고하여 제스처 인식장치(100)의 제스처 인식방법에 대해 상세히 설명한다. 도 14는 본 발명의 일 실시예에 따른, 제스처 인식방법을 설명하기 위해 제공되는 흐름도이다. Hereinafter, the gesture recognition method of the
제스처 인식장치(100)는 입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행한다. The
먼저, 제스처 인식장치(100)는 차량상태정보를 입력받는다(S210). First, the
제스처 인식장치(100)는 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하고 디스플레이에 표시한다(S220). The
이 때, 제스처 인식장치(100)는 입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정할 수 있다.At this time, the
또한, 제스처 인식장치(100)는 제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 차량의 디스플레이 화면에 표시할 수 있다. 그리고, 제스처 인식장치(100)는 제스처 인식 관련 상태를 차량의 디스플레이 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시할 수 있으며, 이와 관련하여는 도 13을 참고하여 상술한 바 있다. In addition, the
그리고, 제스처 인식장치(100)는 움직임 정보를 입력받는다(S230). 이 때, 제스처 인식장치(100)는 웨어러블 장치에 포함된 움직임 센서부(10)에 의해 감지된 사용자의 움직임 정보를 웨어러블 장치로부터 입력받을 수도 있다. Then, the
제스처 인식장치(100)는 설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 인식한다(S240). 이 때, 제스처 인식장치(100)는 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수도 있다. The
예를 들어, 프로세서(120)는 차량 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개의 단계로 나눌 수 있으며, 이와 관련하여는 도 9를 참고하여 앞에서 설명하였다. For example, the
그 후에, 제스처 인식장치(100)는 인식된 제스처에 대응되는 차량에 대한 명령을 실행하게 된다(S250). 예를 들어, 제스처 인식장치(100)는 인식된 제스처에 따라 볼륨 업/다운, 네비게이션 지도 확대/축소, 에어컨 온/오프 등의 명령을 수행할 수도 있다. Thereafter, the
이와 같은 과정을 통해, 제스처 인식장치(100)는 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법을 제공할 수 있게 되어, 차량 내부 전체 공간에서 제스처 인식이 가능해지고 인식률을 더욱 향상시킬 수 있게 되며, 운행중인 차량에서도 비교적 정확한 제스처 인식을 할 수 있게 된다. Through the above process, the
한편, 본 실시예에 따른 제스처 인식장치(100) 및 제스처 인식방법은 차량(30)에 포함되어 적용될 수 있음은 물론이다. It should be noted that the
한편, 본 실시예에 따른 제스처 인식장치(100)의 상술한 기능 및 제스처 인식방법을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 프로그래밍 언어 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 플래시 메모리, 솔리드 스테이트 디스크(SSD) 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다. Needless to say, the technical idea of the present invention can also be applied to a computer-readable recording medium storing a computer program for performing the above-described functions and gesture recognition method of the
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.
10 : 움직임 센서부
20 : 차량상태정보 수집부
100 : 제스처 인식장치
110 : 인터페이스
120 : 프로세서
130 : 디스플레이
140 : 저장부10: Motion sensor unit
20: Vehicle condition information collecting unit
100: Gesture recognition device
110: Interface
120: Processor
130: Display
140:
Claims (12)
센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및
입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함하고,
인식단계는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하는 단계; 및
설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 단계;를 포함하며,
설정 단계는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정하고,
결정 단계는,
설정된 단계가 제1단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 앞뒤타입, 및 선택타입의 4가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제2단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제3단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 앞뒤타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제4단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입 및 선택타입의 2가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제5단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 인식할 수 없도록 설정되는 것을 특징으로 하는 제스처 인식방법.
Receiving vehicle status information;
Receiving motion information of a user sensed by a sensor; And
Recognizing a user's gesture based on the received motion information within a set gesture range set according to the input vehicle state information,
In the recognition step,
Setting a range of recognizable gesture type based on the inputted vehicle state information; And
Determining a gesture of the user corresponding to the inputted motion information within a range of the set gesture type,
In the setting step,
The range of the recognizable gesture type is set as one of the five steps based on the input vehicle state information,
In the determination step,
When the set step is the first step, the gesture of the user corresponding to the input motion information is determined as one of the four gesture types of the up / down / right / left type, the rotation type, the front / back type,
When the set step is the second step, the gesture of the user corresponding to the input motion information is determined as one of the three gesture types of the up / down / right / left type, the rotation type,
When the set step is the third step, the gesture of the user corresponding to the inputted motion information is determined as one of the three gesture types of the up / down / left / right type, the front / back type,
If the set step is the fourth step, the gesture of the user corresponding to the inputted motion information is determined as one of the two types of gestures of the up / down / left / right type and the selection type,
And if the set step is the fifth step, the gesture of the user corresponding to the inputted motion information can not be recognized.
제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 어느 하나를 포함하는 제스처 인식 관련 상태를 차량의 디스플레이 화면에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제스처 인식방법.
The method according to claim 1,
Displaying a gesture recognition related state on the display screen of the vehicle, the gesture recognition related state including any one of a gesture recognition preparation state, a gesture recognition preparation completion state, a gesture unrecognizable state, and a step setting state of a recognizable gesture type range A gesture recognition method characterized by:
표시 단계는,
제스처 인식 관련 상태를 차량의 디스플레이 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시하는 것을 특징으로 하는 제스처 인식방법.
The method of claim 4,
In the displaying step,
Wherein the gesture recognition related state is displayed on the periphery of the display screen of the vehicle and the color is displayed in a different color depending on the gesture recognition related state.
인식된 제스처에 대응되는 명령을 실행하는 단계;를 더 포함하는 것을 특징으로 하는 제스처 인식방법.
The method according to claim 1,
And executing a command corresponding to the recognized gesture.
차량 상태 정보는,
차량속도 정보, 차량 RPM 정보, 차량속도변화량 정보, 차량 RPM 변화량 정보, 차량가속도 정보, 차량가속도 변화량 정보, 차량지자기 정보, 차량지자기 변화량 정보, 차량자이로 정보 및 차량자이로변화량 정보 중 두개 이상을 포함하는 것을 특징으로 하는 제스처 인식방법.
The method according to claim 1,
The vehicle status information includes,
Vehicle velocity information, vehicle RPM information, vehicle speed change amount information, vehicle RPM change amount information, vehicle acceleration information, vehicle acceleration change amount information, vehicle geomagnetism information, vehicle geomagnetism change amount information, vehicle gyro information, and vehicle gyro change information The gesture recognition method comprising:
움직임 정보 입력 단계는,
웨어러블 장치에 포함된 센서에 의해 감지된 사용자의 움직임 정보를 웨어러블 장치로부터 입력받는 것을 특징으로 하는 제스처 인식방법.
The method according to claim 1,
In the motion information input step,
Wherein the wearable device receives input of movement information of a user sensed by a sensor included in the wearable device from the wearable device.
입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 입력된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 프로세서;를 포함하고,
프로세서는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정하고,
설정된 단계가 제1단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 앞뒤타입, 및 선택타입의 4가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제2단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제3단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 앞뒤타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제4단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입 및 선택타입의 2가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제5단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 인식할 수 없도록 설정하는 것을 특징으로 하는 제스처 인식장치.
An interface for receiving vehicle state information and motion information of a user sensed by the sensor; And
And a processor for recognizing the gesture of the user based on the inputted motion information within the set gesture range set according to the input vehicle state information,
The processor,
The range of the recognizable gesture type is set as one of the five steps based on the input vehicle state information,
When the set step is the first step, the gesture of the user corresponding to the input motion information is determined as one of the four gesture types of the up / down / right / left type, the rotation type, the front / back type,
When the set step is the second step, the gesture of the user corresponding to the input motion information is determined as one of the three gesture types of the up / down / right / left type, the rotation type,
When the set step is the third step, the gesture of the user corresponding to the inputted motion information is determined as one of the three gesture types of the up / down / left / right type, the front / back type,
If the set step is the fourth step, the gesture of the user corresponding to the inputted motion information is determined as one of the two types of gestures of the up / down / left / right type and the selection type,
Wherein the gesture recognizing unit sets the gesture of the user corresponding to the inputted motion information so that it can not be recognized if the set step is the fifth step.
센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및
입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함하고,
인식단계는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하는 단계; 및
설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 단계;를 포함하며,
설정 단계는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정하고,
결정 단계는,
설정된 단계가 제1단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 앞뒤타입, 및 선택타입의 4가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제2단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제3단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 앞뒤타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제4단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입 및 선택타입의 2가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제5단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 인식할 수 없도록 설정되는 것을 특징으로 하는 제스처 인식방법을 수행하는 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체.
Receiving vehicle status information;
Receiving motion information of a user sensed by a sensor; And
Recognizing a user's gesture based on the received motion information within a set gesture range set according to the input vehicle state information,
In the recognition step,
Setting a range of recognizable gesture type based on the inputted vehicle state information; And
Determining a gesture of the user corresponding to the inputted motion information within a range of the set gesture type,
In the setting step,
The range of the recognizable gesture type is set as one of the five steps based on the input vehicle state information,
In the determination step,
When the set step is the first step, the gesture of the user corresponding to the input motion information is determined as one of the four gesture types of the up / down / right / left type, the rotation type, the front / back type,
When the set step is the second step, the gesture of the user corresponding to the input motion information is determined as one of the three gesture types of the up / down / right / left type, the rotation type,
When the set step is the third step, the gesture of the user corresponding to the inputted motion information is determined as one of the three gesture types of the up / down / left / right type, the front / back type,
If the set step is the fourth step, the gesture of the user corresponding to the inputted motion information is determined as one of the two types of gestures of the up / down / left / right type and the selection type,
And if the set step is the fifth step, the gesture of the user corresponding to the inputted motion information can not be recognized.
입력된 차량 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행하는 프로세서;를 포함하고,
프로세서는,
입력된 차량 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정하고,
설정된 단계가 제1단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 앞뒤타입, 및 선택타입의 4가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제2단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 회전타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제3단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입, 앞뒤타입, 및 선택타입의 3가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제4단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 상하좌우 타입 및 선택타입의 2가지 제스처 타입들 중 어느 하나로 결정하고,
설정된 단계가 제5단계일 경우, 입력된 움직임 정보에 대응되는 사용자의 제스처를 인식할 수 없도록 설정하는 것을 특징으로 하는 차량.
An interface for receiving vehicle state information and motion information of a user sensed by the sensor; And
And a processor for recognizing a user's gesture based on the received motion information and executing a command corresponding to the recognized gesture within a set gesture range set according to inputted vehicle state information,
The processor,
The range of the recognizable gesture type is set as one of the five steps based on the input vehicle state information,
When the set step is the first step, the gesture of the user corresponding to the input motion information is determined as one of the four gesture types of the up / down / right / left type, the rotation type, the front / back type,
When the set step is the second step, the gesture of the user corresponding to the input motion information is determined as one of the three gesture types of the up / down / right / left type, the rotation type,
When the set step is the third step, the gesture of the user corresponding to the inputted motion information is determined as one of the three gesture types of the up / down / left / right type, the front / back type,
If the set step is the fourth step, the gesture of the user corresponding to the inputted motion information is determined as one of the two types of gestures of the up / down / left / right type and the selection type,
And setting the gesture of the user corresponding to the input motion information so that the gesture of the user can not be recognized if the set step is the fifth step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170029343A KR101983892B1 (en) | 2017-03-08 | 2017-03-08 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170029343A KR101983892B1 (en) | 2017-03-08 | 2017-03-08 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180102776A KR20180102776A (en) | 2018-09-18 |
KR101983892B1 true KR101983892B1 (en) | 2019-05-29 |
Family
ID=63718551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170029343A KR101983892B1 (en) | 2017-03-08 | 2017-03-08 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101983892B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816815A (en) * | 2019-02-22 | 2019-05-28 | 金瓜子科技发展(北京)有限公司 | Vehicle condition detection method, apparatus and system |
CN110022427A (en) * | 2019-05-22 | 2019-07-16 | 乐山师范学院 | Automobile uses intelligent assistance system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101603553B1 (en) * | 2014-12-15 | 2016-03-15 | 현대자동차주식회사 | Method for recognizing user gesture using wearable device and vehicle for carrying out the same |
JP2016091182A (en) * | 2014-10-31 | 2016-05-23 | 三菱自動車工業株式会社 | Operation input device |
JP2016091194A (en) * | 2014-10-31 | 2016-05-23 | 三菱自動車工業株式会社 | Operation input device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140075215A (en) * | 2012-12-11 | 2014-06-19 | 현대자동차주식회사 | Handsfree trunk apparatus for vehicle |
-
2017
- 2017-03-08 KR KR1020170029343A patent/KR101983892B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016091182A (en) * | 2014-10-31 | 2016-05-23 | 三菱自動車工業株式会社 | Operation input device |
JP2016091194A (en) * | 2014-10-31 | 2016-05-23 | 三菱自動車工業株式会社 | Operation input device |
KR101603553B1 (en) * | 2014-12-15 | 2016-03-15 | 현대자동차주식회사 | Method for recognizing user gesture using wearable device and vehicle for carrying out the same |
Also Published As
Publication number | Publication date |
---|---|
KR20180102776A (en) | 2018-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9542405B2 (en) | Image processing system and method | |
JP5709227B2 (en) | Information processing apparatus, information processing method, and program | |
US11573641B2 (en) | Gesture recognition system and method of using same | |
US8010911B2 (en) | Command input method using motion recognition device | |
US11119585B2 (en) | Dual-mode augmented reality interfaces for mobile devices | |
US20120105613A1 (en) | Robust video-based handwriting and gesture recognition for in-car applications | |
US20160004321A1 (en) | Information processing device, gesture detection method, and gesture detection program | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
CN103870802A (en) | System and method for manipulating user interface in vehicle using finger valleys | |
KR20120045667A (en) | Apparatus and method for generating screen for transmitting call using collage | |
US10477155B2 (en) | Driving assistance method, driving assistance device, and recording medium recording program using same | |
US9354712B2 (en) | Recognition device, intelligent device and information providing method for human machine interaction | |
KR101983892B1 (en) | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device | |
JP2015122064A (en) | Providing last known browsing location cue using movement-oriented biometric data | |
CN111524339B (en) | Unmanned aerial vehicle frequency alignment method and system, unmanned aerial vehicle and remote controller | |
EP3289435B1 (en) | User interface control using impact gestures | |
CN111670004A (en) | Electronic device and method for measuring heart rate | |
KR20160133305A (en) | Gesture recognition method, a computing device and a control device | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
KR101870542B1 (en) | Method and apparatus of recognizing a motion | |
KR20200058823A (en) | Method and system for wearable band gesture recognition based on motion recognition | |
US20170165587A1 (en) | Electronic device and method for controlling toy using the same | |
US10558270B2 (en) | Method for determining non-contact gesture and device for the same | |
US20230125410A1 (en) | Information processing apparatus, image capturing system, method, and non-transitory computer-readable storage medium | |
KR102346904B1 (en) | Method and apparatus for recognizing gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |