KR20210131174A - Apparatus and method for recognizing gesture - Google Patents
Apparatus and method for recognizing gesture Download PDFInfo
- Publication number
- KR20210131174A KR20210131174A KR1020200049629A KR20200049629A KR20210131174A KR 20210131174 A KR20210131174 A KR 20210131174A KR 1020200049629 A KR1020200049629 A KR 1020200049629A KR 20200049629 A KR20200049629 A KR 20200049629A KR 20210131174 A KR20210131174 A KR 20210131174A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- gesture recognition
- user
- wearable device
- control
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004891 communication Methods 0.000 claims abstract description 64
- 230000033001 locomotion Effects 0.000 claims description 64
- 230000004044 response Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 abstract description 81
- 230000002996 emotional effect Effects 0.000 description 18
- 230000005281 excited state Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60H—ARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
- B60H1/00—Heating, cooling or ventilating [HVAC] devices
- B60H1/00642—Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
- B60H1/00735—Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
- B60H1/00742—Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by detection of the vehicle occupants' presence; by detection of conditions relating to the body of occupants, e.g. using radiant heat detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/48—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Thermal Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 제스처 인식 장치 및 그 방법에 관한 것이다. The present invention relates to a gesture recognition device and a method therefor.
종래 기술에 따르면, 사용자의 제스처를 인식하여 매칭되는 기능을 실행시키는 기술이 개발되고 있다. According to the prior art, a technique for recognizing a user's gesture and executing a matching function has been developed.
종래 기술에 따른 차량 시스템은 차량 내 카메라를 통해 탑승자를 촬영하고, 촬영 영상에 기반하여 제스처를 인식한다. A vehicle system according to the prior art photographs an occupant through an in-vehicle camera, and recognizes a gesture based on the captured image.
그런데, 종래의 차량 시스템은 카메라 시야각 범위 내 협소한 영역에 대해서만 제스처를 인식할 수 있고, 외부 조도(예: 저조도, 강한 조도)에 인해 화질이 저하되는 경우, 제스처 인식의 신뢰성이 떨어지는 문제점이 있다. However, the conventional vehicle system can recognize a gesture only in a narrow area within the camera viewing angle range, and when the image quality is deteriorated due to external illuminance (eg, low illuminance, strong illuminance), the reliability of gesture recognition is lowered. .
또한, 차량 내 탑승자의 위치에 따라 제스처 인식을 선별하고, 인식 결과에 따라 차량 내 기능을 제공하지 못하는 한계점이 있다. In addition, there is a limitation in that the gesture recognition is selected according to the position of the occupant in the vehicle and the in-vehicle function cannot be provided according to the recognition result.
본 발명은 전술한 문제점을 해결하기 위하여 제안된 것으로, 차량 내 기능 제어에 대한 제어권을 설정하고, 차량 탑승자의 위치 및 제스처 인식 결과에 따라 차량 내 기능을 선별하여 제공하는 것이 가능한 제스처 인식 장치 및 방법을 제공하는데 그 목적이 있다. The present invention has been proposed to solve the above problems, and it is possible to set a control right for controlling functions in a vehicle, and to select and provide functions in the vehicle according to the position of the vehicle occupant and the result of gesture recognition. Its purpose is to provide
본 발명에 따른 제스처 인식 장치는 웨어러블 장치와 통신하는 제1 통신 회로와, 차량 내 제어 대상 장치와 통신하는 제2 통신 회로와, 제스처 인식 프로그램이 저장된 메모리 및 프로그램을 실행시키는 프로세서를 포함하고, 프로세서는 제1 통신 회로를 통해 웨어러블 장치를 착용한 사용자의 위치 및 제스처를 인식하고, 사용자의 위치에 따라 설정된 제어 대상 장치에 대한 제어권을 고려하여, 제스처에 따라 제어 대상 장치를 제어하는 것을 특징으로 한다. A gesture recognition device according to the present invention includes a first communication circuit for communicating with a wearable device, a second communication circuit for communicating with an in-vehicle control target device, a memory in which a gesture recognition program is stored, and a processor for executing the program, the processor recognizes the position and gesture of the user wearing the wearable device through the first communication circuit, considers the control right for the control target device set according to the user's location, and controls the control target device according to the gesture .
프로세서는 사용자의 위치가 운전석인 경우, 제어 대상 장치에 대한 제어권을 모두 허용한다. When the user's location is the driver's seat, the processor allows all control rights to the controlled device.
프로세서는 사용자의 위치가 조수석인 경우, 전석(front seat) 및 후석(rear seat)의 인포테인먼트 장치 및 공조기 중 적어도 어느 하나에 대한 제어를 수행하고, 사용자의 위치가 후석(rear seat)인 경우, 후석 인포테인먼트 장치 및 공조기에 대한 제어를 수행한다. The processor controls at least one of an infotainment device and an air conditioner of a front seat and a rear seat when the user's position is a passenger seat, and when the user's position is a rear seat, the rear seat Controls infotainment devices and air conditioners.
프로세서는 웨어러블 장치의 식별 번호 및 이에 대응되어 저장되는 사용자의 연령 정보를 고려하여, 연령 정보에 대응하는 콘텐츠를 재생시킨다. The processor plays the content corresponding to the age information in consideration of the identification number of the wearable device and the age information of the user stored corresponding thereto.
프로세서는 카메라를 이용하여 획득된 웨어러블 장치를 착용하지 않은 탑승자에 대한 정보를 인식하고, 인식 결과에 따라 제어권이 부여된 제어 대상 장치를 제어한다. The processor recognizes the information about the occupant not wearing the wearable device acquired using the camera, and controls the control target device to which the control right is granted according to the recognition result.
제1 통신 회로는 UWB 통신을 통해 웨어러블 장치의 위치를 확인한다. The first communication circuit identifies the location of the wearable device through UWB communication.
본 발명에 따른 제스처 인식 방법은 (a) 웨어러블 장치를 착용한 사용자의 위치를 확인하는 단계와, (b) 사용자의 위치에 따라서 제어 대상 장치에 대한 제어권을 부여하는 단계 및 (c) 웨어러블 장치로부터 획득된 움직임 정보에 기반하여 제스처를 인식하고, 제스처에 응답하여 제어 대상 장치 중 제어권이 부여된 장치에 대한 제어를 수행하는 단계를 포함하는 것을 특징으로 한다. The gesture recognition method according to the present invention includes the steps of (a) confirming the location of a user wearing a wearable device, (b) granting a control right to a control target device according to the user's location, and (c) from the wearable device and recognizing a gesture based on the obtained motion information, and performing control of a device to which control is granted among control target devices in response to the gesture.
(b) 단계는 사용자의 위치가 운전석인 경우, 제어 대상 장치에 대한 제어권을 모두 허용한다. In step (b), when the user's location is the driver's seat, all control rights to the control target device are allowed.
(b) 단계는 사용자의 위치가 조수석인 경우, 전석(front seat) 및 후석(rear seat)의 인포테인먼트 장치 및 공조기 중 적어도 어느 하나에 대한 제어권을 부여하고, 사용자의 위치가 후석(rear seat)인 경우, 후석 인포테인먼트 장치 및 공조기에 대한 제어권을 부여한다. In step (b), when the user's position is the front seat, the control right is given to at least one of the front seat and rear seat infotainment devices and the air conditioner, and the user's position is the rear seat. In this case, it grants control over the rear seat infotainment device and air conditioner.
(c) 단계는 제스처에 기반하여 콘텐츠를 재생하는 경우, 웨어러블 장치의 식별 정보 및 사용자의 연령 정보를 고려하여 콘텐츠를 재생한다. In step (c), when the content is reproduced based on the gesture, the content is reproduced in consideration of the wearable device identification information and the user's age information.
(c) 단계는 촬영 영상에 기반하여 웨어러블 장치를 착용하지 않은 탑승자의 제스처 및 위치를 확인하고, 확인 결과에 따라 제어권이 부여된 제어 대상 장치에 대한 제어를 수행한다. In step (c), the gesture and position of the passenger who is not wearing the wearable device is checked based on the captured image, and the control target device to which the control right is granted is controlled according to the check result.
본 발명에 따르면, 차량 내 기능 제어에 대한 제어권을 설정하고, 차량 탑승자의 위치 및 제스처 인식 결과에 따라 차량 내 기능을 선별하여 제공하는 것이 가능한 효과가 있다. According to the present invention, it is possible to set the right to control the in-vehicle functions, and to select and provide in-vehicle functions according to the position of the vehicle occupant and the result of gesture recognition.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명에 따른 제스처 인식 시스템을 도시한다.
도 2는 본 발명에 따른 웨어러블 장치를 도시한다.
도 3은 본 발명에 따른 제스처 인식 장치를 도시한다.
도 4는 본 발명에 따른 제스처 인식/미인식 영역의 예를 도시한다.
도 5는 본 발명에 따른 제2 영역에서의 제스처 인식을 도시한다.
도 6은 본 발명에 따른 제2 영역에서 다른 기능을 수행하는 예를 도시한다.
도 7은 본 발명에 따른 생체 정보 및 움직임 정보 기반의 차량 제어를 도시한다.
도 8은 본 발명에 따른 제스처 및 시선 추적 기반의 차량 제어를 도시한다.
도 9는 본 발명에 따른 터치 관련 정보 및 움직임 정보 기반의 차량 제어를 도시한다.
도 10 및 도 11은 본 발명에 따른 사용자 위치 별 제어 대상 장치를 도시한다.
도 12는 본 발명에 따른 제스처 인식의 기준 좌표 변환을 도시한다.
도 13a 및 13b는 본 발명에 따른 제스처 인식의 기준 좌표 변환의 다른 예를 도시한다.
도 14, 도 15a 내지 15d는 본 발명에 따른 웨어러블 장치의 위치에 따른 기능 실행을 도시한다.
도 16 내지 도 19는 본 발명에 따른 제스처 인식 방법을 도시한다. 1 shows a gesture recognition system according to the present invention.
2 shows a wearable device according to the present invention.
3 shows a gesture recognition device according to the present invention.
4 shows an example of a gesture recognition/non-recognition area according to the present invention.
5 shows gesture recognition in the second area according to the present invention.
6 shows an example of performing another function in the second area according to the present invention.
7 illustrates vehicle control based on biometric information and motion information according to the present invention.
8 shows a vehicle control based on gesture and eye tracking according to the present invention.
9 illustrates vehicle control based on touch-related information and motion information according to the present invention.
10 and 11 show a control target device for each user location according to the present invention.
12 shows a reference coordinate transformation of gesture recognition according to the present invention.
13A and 13B show another example of reference coordinate transformation of gesture recognition according to the present invention.
14 and 15A to 15D show function execution according to the position of the wearable device according to the present invention.
16 to 19 show a gesture recognition method according to the present invention.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The above and other objects, advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the following examples are provided to those of ordinary skill in the art to which the present invention pertains to the purpose of the invention, It is only provided to easily inform the configuration and effect, and the scope of the present invention is defined by the description of the claims.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.On the other hand, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and/or "comprising" means that a referenced element, step, operation and/or element is the presence of one or more other elements, steps, operations and/or elements. or added.
도 1은 본 발명에 따른 제스처 인식 시스템을 도시한다. 1 shows a gesture recognition system according to the present invention.
본 발명의 실시예에 따른 제스처 인식 시스템은 웨어러블 장치(100) 및 제스처 인식 장치(200)를 포함한다. A gesture recognition system according to an embodiment of the present invention includes a
웨어러블 장치(100)는 예컨대 사용자의 손가락에 착용되는 링 형상으로 구성된다. The
웨어러블 장치(100)는 사용자 손 움직임을 감지하고, 움직임 정보를 제스처 인식 장치(200)로 전송한다. The
또는, 제스처 인식 장치(200)가 웨어러블 장치(100)의 움직임을 감지하여, 웨어러블 장치(100)의 움직임 정보를 획득한다. Alternatively, the
제스처 인식 장치(200)는 차량 시스템에 포함되거나, 차량 시스템과 통신한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)로부터 움직임 정보를 수신하고, 움직임 정보에 기반하여 사용자의 제스처를 인식한다. The
제스처 인식 장치(200)는 사용자의 제스처 인식에 따라 차량 시스템에 대한 제어를 수행한다. The
제스처 인식 장치(200)는 무선 통신 또는 촬영 영상에 기반하여, 웨어러블 장치(100)가 위치한 영역을 인식하고, 인식된 영역에 따라 제스처를 인식할지 여부를 결정한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)가 제1 영역(예: 활성 영역)에 위치하는 경우, 움직임 정보에 기반하여 인식된 제스처에 대응하는 기능을 수행한다. When the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 영역(예: 비활성 영역 또는 준활성 영역)에 위치하는 경우, i) 움직임 정보를 무시하는 동작, ii) 다른 지정된 기능(예: 무선 충전, 차량 시스템의 특정 기능)을 수행하는 동작 및 iii) 움직임 정보의 기준 좌표를 변환하여 제스처를 인식하는 동작 중 적어도 어느 하나의 동작을 수행한다. When the
제1 영역은 제2 영역 이외의 다른 일부 영역 또는 제2 영역 이외의 나머지 영역이다. The first area is a partial area other than the second area or the remaining area other than the second area.
제2 영역은 스티어링 휠(steering wheel), 기어(gear) 봉 및 암레스트(armrest) 중 적어도 어느 하나의 부위로부터 제1 거리 이내의 영역이다. The second area is an area within a first distance from at least one of a steering wheel, a gear rod, and an armrest.
제스처 인식 장치(200)는 제2 영역에서 움직임 정보에 기반하여 스티어링 휠 또는 기어 봉의 파지를 감지한 경우에 전술한 i) 움직임 정보를 무시하는 동작, ii) 다른 지정된 기능(예: 무선 충전, 차량 시스템의 특정 기능)을 수행하는 동작 및 iii) 움직임 정보의 기준 좌표를 변환하여 제스처를 인식하는 동작 중 적어도 어느 하나의 동작을 수행한다. When the
제스처 인식 장치(200)는 제1 영역에서 동일 제스처에 대하여 다른 기능을 수행하는 것이 가능하다. The
예를 들어, 제스처 인식 장치(200)는 웨어러블 장치(100)를 통해 감지된 사용자의 생체 정보에 기반하여 사용자의 감정 상태를 확인하고, 확인된 감정 상태에 따라 동일 제스처에 대하여 다른 기능을 수행한다. For example, the
또한, 제스처 인식 장치(200)는 사용자에 의한 웨어러블 장치(100)의 터치 여부에 따라 동일한 제스처에 대하여 다른 기능을 수행한다. Also, the
또한, 제스처 인식 장치(200)는 웨어러블 장치(100)의 위치에 기반하여 제어 대상 장치를 결정하고, 결정된 제어 대상 장치에 따라 동일한 제스처에 대하여 다른 기능을 수행한다. Also, the
제스처 인식 장치(200)는 카메라를 통해, 웨어러블 장치(100)를 착용한 사용자의 시선을 추적하고, 추적된 시선에 기반하여 제어 대상 장치를 결정하고, 결정된 제어 대상 장치에 대하여 인식된 제스처에 대응되는 기능을 실행시킨다. The
그런데, 웨어러블 장치(100)를 착용한 사용자가 차량의 운전자일 경우, 운전 시야를 확보하는 과정과 제어 대상 장치를 바라보는 과정이 혼재될 수 있다. However, when a user wearing the
본 발명에 따른 제스처 인식 장치(200)는 웨어러블 장치(100)를 통하여 지정된 제스처를 인식한 경우와 같이, 지정된 입력을 확인한 경우에만, 선택적으로 사용자의 시선을 추적하여 제어 대상 장치를 확인한다. The
또는, 제스처 인식 장치(200)는 운전 시야와 중첩되지 않는 제어 대상 장치(예: 공조기)를 바라보는 사용자의 시선에 대한 정보를 획득한 경우에만 선택적으로 제어 대상 장치를 결정한다. Alternatively, the
제스처 인식 장치(200)는 웨어러블 장치(100)를 통해 사용자의 제스처를 인식하고, 통신 회로(예: UWB(ultra-wide band) 통신 기반 측위 기술)를 통해 웨어러블 장치(100)의 위치를 확인한다. The
제스처 인식 장치(200)는 사용자의 위치에 따라 복수의 제어 대상 장치들(예: 차량 제어, 인포테인먼트 장치 및 공조기) 중 일부 제어 대상 장치에 대한 제어권을 부여하거나, 제한한다. The
제스처 인식 장치(200)는 차량 내 카메라를 통해 웨어러블 장치(100)를 착용하지 않는 다른 사용자의 제스처를 인식하고, 인식된 제스처에 대응하는 제어 대상 장치의 기능을 실행한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)에 부여된 식별 번호에 기반하여 웨어러블 장치(100)의 사용자 정보(예: 연령 정보)를 확인하고, 사용자 정보에 따라 각 제어 대상 장치들의 일부 기능을 제한(예: 재생 콘텐츠에 따른 연령 제한)한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)를 통해 제스처를 인식하면, 웨어러블 장치(100)의 위치, 사용자의 위치, 사용자의 시선, 사용자 정보(예: 연령 정보), 제어 대상 장치에 따라 인식된 제스처에 대응하는 기능을 달리 제공하도록 한다. When the
제스처 인식 장치(200)는 사용자에 의해 착용된 웨어러블 장치(100)가 스티어링 휠, 기어봉, 암레스트와 같이 운전을 위한 동작이 수반되는 경우에는 사용자의 제스처를 인식하지 않음으로써, 운전을 위한 사용자 동작을 제스처로 인식하지 않도록 한다. The
도 2는 본 발명에 따른 웨어러블 장치를 도시한다. 2 shows a wearable device according to the present invention.
웨어러블 장치(100)는 모션 센서(110), 터치 센서(120), 생체 감지 센서(130), 통신 회로(140), 전력 수신 회로(150), 배터리(160), 메모리(170) 및 프로세서(180)를 포함한다. The
모션 센서(110)는 자자기 센서, 자이로 센서, 가속도 센서 및 3축 관성 센서 중 적어도 어느 하나의 센서를 포함하고, 사용자의 움직임을 감지한다. The
터치 센서(120)는 웨어러블 장치(100)에 대한 사용자의 터치를 감지한다. The
생체 감지 센서(130)는 맥박 등 사용자의 생체 신호를 감지한다. The
통신 회로(140)는 웨어러블 장치(100)와 다른 장치간의 유/무선 통신 채널 수립, 통신 채널을 통한 통신 수행을 지원한다. The
통신 채널은 예를 들어, UWB, BT, WiFi, Wibro, 3G 또는 4G과 같은 통신 방식의 채널이다. The communication channel is, for example, a channel of a communication method such as UWB, BT, WiFi, Wibro, 3G, or 4G.
전력 수신 회로(150)는 외부 전자 장치로부터 전력을 수신하여 배터리(160)를 충전한다. The
메모리(170)는 사용자 동작 인식 프로그램을 저장하고, 프로세서(180)는 사용자 동작 인식 프로그램을 실행함에 따라 데이터 처리를 수행한다. The
프로세서(180)는 통신 회로(140)를 통해 제스처 인식 장치(200)와 통신 채널을 형성하고, 형성된 통신 채널을 통해 제스처 인식 장치(200)와 데이터를 송수신한다. The
프로세서(180)는 형성된 통신 채널을 통해 제스처 인식 장치(200)로 웨어러블 장치(100)의 움직임 정보, 터치 관련 정보 및 생체 정보를 송신하고, 무선 전력을 수신한다. The
프로세서(180)는 모션 센서(110)를 통해 웨어러블 장치(100)의 움직임을 감지하여 움직임 정보를 생성하고, 움직임 정보를 통신 회로(140)를 통해 제스처 인식 장치(200)로 송신한다. The
웨어러블 장치(100)는 사용자의 특정 신체 부위(예: 손가락)에 착용되므로, 움직임 정보는 특정 신체 부위의 움직임과 관련된다. Since the
당업자의 이해를 돕기 위하여, 웨어러블 장치(100)가 사용자의 손가락에 끼워지는 링 형상의 장치이고, 움직임 정보는 손가락의 움직임과 관련된 경우를 예로 들어 설명한다. For better understanding of those skilled in the art, a case in which the
프로세서(180)는 터치 센서(120)를 통해 사용자의 웨어러블 장치(100)에 대한 터치를 감지하여 터치 관련 정보를 생성하고, 터치 관련 정보를 통신 회로(140)를 통해 제스처 인식 장치(200)로 송신한다. The
프로세서(180)는 생체 감지 센서(130)를 통해 사용자의 생체 신호(예: 맥박)를 감지하여 생체 정보를 생성하고, 생체 정보를 통신 회로(140)를 통해 제스처 인식 장치(200)로 송신한다. The
프로세서(180)는 전력 수신 회로(150)를 통해 제스처 인식 장치(200)로부터 무선으로 전력을 수신하고, 수신된 전력을 이용하여 배터리(160)를 충전한다. The
웨어러블 장치(100)는 사용자의 손가락의 움직임 정보를 생성하여 제스처 인식 장치(200)로 송신함에 따라 제스처 기반의 사용자 인터페이스를 지원한다. The
도 3은 본 발명에 따른 제스처 인식 장치를 도시한다. 3 shows a gesture recognition device according to the present invention.
제스처 인식 장치(200)는 제1 통신 회로(210), 제2 통신 회로(220), 카메라(230), 디스플레이(250), 전력 송신 회로(240), 메모리(260) 및 프로세서(270)를 포함한다. The
제스처 인식 장치(200)는 차량 시스템의 제어 모듈에 포함된다. The
제1 통신 회로(210)는 제스처 인식 장치(200)와 다른 장치 간의 유/무선 통신 채널을 수립하고, 통신 채널을 통한 통신 수행을 지원한다. The
통신 채널은 예를 들어, UWB, BT, WiFi, Wibro, 3G 또는 4G과 같은 통신 방식의 채널이다. The communication channel is, for example, a channel of a communication method such as UWB, BT, WiFi, Wibro, 3G, or 4G.
제1 통신 회로(210)는 복수의 차량 영역들에 각 장착된 복수의 통신 회로들을 포함한다. The
제2 통신 회로(220)는 제스처 인식 장치(200)와 차량 시스템(예: 차제 제어 모듈, 공조기, 인포테인먼트 장치) 간의 통신 채널을 수립하고, 수립된 통신 채널을 통한 통신 수행을 지원한다. The
통신 채널은 예를 들어, CAN(controller area network) 및 MOST(media oriented system transport)와 같은 통신 방식의 채널이다. The communication channel is, for example, a channel of a communication method such as a controller area network (CAN) and a media oriented system transport (MOST).
카메라(230)는 운전자의 시선을 촬영하며, 운전자 외 동승자의 제스처를 촬영한다. The
디스플레이(250)는 프로세서(270)의 제어에 따라 컨텐츠(예: 아이콘, 텍스트, 영상)를 출력하며, HUD(head up display), 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 또는 유기 발광 다이오드(OLED) 디스플레이를 포함한다. The
메모리(260)는 제스처 인식 프로그램을 저장하고, 프로세서(270)은 제스처 인식 프로그램을 실행한다. The
프로세서(270)는 제1 통신 회로(210)를 통해 웨어러블 장치(100)와 통신 채널을 형성하고, 형성된 통신 채널을 통해 웨어러블 장치(100)와 데이터를 송수신한다. The
프로세서(270)는 웨어러블 장치(100)로부터 제1 통신 회로(210)를 통해 움직임 정보, 터치 관련 정보 및 생체 정보를 수신한다. The
프로세서(270)는 웨어러블 장치(100)로부터 움직임 정보를 수신하면, 움직임 정보에 기반하여 웨어러블 장치(100)의 사용자의 제스처를 인식한다. When the
프로세서(270)는 사용자의 제스처를 인식하면, 제2 통신 회로(220)를 통해 차량 시스템 내 적어도 하나의 제어 대상 장치에 인식된 제스처에 대응하는 기능 실행을 요청한다. When the
프로세서(270)는 카메라(230)에 의한 촬영 영상에 기반하여 차량 탑승자의 제스처를 인식한다. The
프로세서(270)는 웨어러블 장치(100)가 위치한 영역에 따라 움직임 정보에 기반하여 제스처에 대한 인식, 미인식 또는 변환 인식을 결정한다. The
프로세서(270)는 웨어러블 장치(100)가 제1 영역(예: 활성 영역)에 위치한 것을 확인하면, 움직임 정보에 기반하여 인식된 제스처에 대응하는 기능을 실행하도록 명령을 전송한다. When it is confirmed that the
프로세서(270)는 웨어러블 장치(100)가 제2 영역(예: 비활성 영역 또는 준활성 영역)에 위치한 것을 확인하면, i) 움직임 정보를 무시하는 동작, ii) 다른 지정된 기능(예: 무선 충전, 차량 시스템의 특정 기능)을 수행하는 동작 및 iii) 움직임 정보의 좌표를 변환하여 제스처를 인식하는 동작 중 적어도 어느 하나의 동작을 수행하도록 명령을 전송한다. When the
전술한 바와 같이, 제2 영역은 스티어링 휠(steering wheel), 기어(gear) 봉 및 암레스트(armrest)를 기준으로 기설정된 영역이 된다. As described above, the second area is a predetermined area based on a steering wheel, a gear rod, and an armrest.
프로세서(270)는 웨어러블 장치(100)가 스티어링 휠 또는 기어 봉에 근접하는 것을 확인하면, 움직임 정보에 기반하여 사용자가 스티어링 휠 또는 기어 봉의 파지하는지를 확인하고, 전술한 i) 내지 iii) 중 적어도 어느 하나의 동작을 수행하도록 명령을 전송한다. When it is confirmed that the
프로세서(270)는 전력 송신 회로(240)를 통해 웨어러블 장치(100)를 무선 충전한다. The
전력 송신 회로(240)는 스티어링 휠, 기어 봉 중 적어도 어느 하나의 영역에 배치된다. The
프로세서(270)는 웨어러블 장치(100)의 위치에 따라, 전력 송신 회로(240)로부터 웨어러블 장치(100)의 전력 수신 회로(150)로 전력을 무선 송신하도록 제어하여, 웨어러블 장치(100)의 배터리(160)를 충전시킨다. The
프로세서(270)는 웨어러블 장치(100)를 통해 인식된 동일 제스처에 대하여 다른 기능을 수행한다. The
프로세서(270)는 웨어러블 장치(100)를 통해 감지된 사용자의 생체 정보에 기반하여 사용자의 감정 상태를 확인하고, 확인된 감정 상태에 따라 동일 제스처에 대하여 다른 기능을 수행한다. The
프로세서(270)는 사용자에 의한 웨어러블 장치(100)의 터치 여부에 따라 동일한 제스처에 대하여 다른 기능을 수행한다. The
프로세서(270)는 웨어러블 장치(100)의 위치에 기반하여 차량 시스템 중 제어 대상 장치를 확인하고, 확인된 제어 대상 장치에 따라 동일한 제스처에 대하여 다른 기능을 수행한다. The
프로세서(270)는 카메라(230)를 통해 사용자의 시선을 추적하고, 추적된 시선에 기반하여 차량 시스템의 제어 대상 장치를 결정한다. The
프로세서(270)는 결정된 제어 대상 장치에 대하여 인식된 제스처에 대응하는 기능을 수행하도록 제어한다. The
사용자가 차량의 운전자일 경우에는 운전 시야를 확보하는 과정과 제어 대상 장치를 선택하는 과정이 혼재될 수 있다. When the user is a driver of a vehicle, a process of securing a driving view and a process of selecting a control target device may be mixed.
프로세서(270)는 웨어러블 장치(100)를 통하여 지정된 제스처를 인식한 경우와 같이 지정된 입력을 확인한 경우에만, 선택적으로 사용자의 시선에 기반하여 제어 대상 장치를 확인한다. The
또는, 프로세서(270)는 운전 시야와 중첩되지 않는 제어 대상 장치(예: 공조기)를 바라보는 사용자의 시선을 확인한 경우에만, 선택적으로 사용자의 시선에 기반하여 제어 대상 장치를 결정한다. Alternatively, the
프로세서(270)는 웨어러블 장치(100)에 기반하여 사용자의 제스처를 인식하면, 제1 통신 회로(210) 또는 카메라(230)를 통해 사용자의 위치를 확인한다. When the
프로세서(270)는 제1 통신 회로(210)을 통해 웨어러블 장치(100)의 위치를 측위하거나, 카메라(230)를 통해 촬영된 영상 분석을 통해 웨어러블 장치(100) 또는 사용자의 위치를 확인할 수 있다. The
프로세서(270)는 웨어러블 장치(100) 또는 사용자의 위치를 확인하면, 확인된 위치에 따라 복수의 제어 대상 장치들(예: 차량 제어, 인포테인먼트 장치 및 공조기) 중 일부 제어 대상 장치에 대한 제어권을 부여하거나 제한한다. When the
프로세서(270)는 웨어러블 장치(100)를 착용하지 않는 동승자에 대하여 카메라(230)를 통해 제스처를 인식하고, 인식된 제스처에 대응하는 제어 대상 장치의 기능을 실행하도록 제어한다. The
프로세서(270)는 웨어러블 장치(100)에 부여된 식별 번호에 기반하여 웨어러블 장치(100)의 사용자 정보(예: 연령 정보)를 확인하고, 사용자 정보에 따라 각 제어 대상 장치들의 일부 기능을 제한(예: 재생 콘텐츠에 따른 연령 제한)한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)를 통해 제스처를 인식하면, 웨어러블 장치(100)의 위치, 사용자의 위치, 사용자의 시선, 사용자 정보(예: 연령 정보) 또는 제어 대상 장치에 따라 인식된 제스처에 대응하는 기능을 달리 제공한다. When the
제스처 인식 장치(200)는 사용자에 의해 착용된 웨어러블 장치(100)가 스티어링 휠, 기어봉, 암레스트와 같이 운전을 위한 동작이 수반되는 경우에는 제스처를 인식하지 않음으로써, 운전을 수행하기 위한 동작을 기능 실행을 위한 제스처 입력으로 오인식하지 않도록 한다. The
도 4는 본 발명에 따른 제스처 인식/미인식 영역의 예를 도시한다. 4 shows an example of a gesture recognition/non-recognition area according to the present invention.
제스처 인식 장치(200)는 웨어러블 장치(100)의 위치가 제1 영역(예: 활성 영역)인지 또는 제2 영역(예: 비활성 영역 또는 준활성 영역)인지 여부를 확인하고, 인식된 웨어러블 장치(100)가 위치한 영역(제1 영역 또는 제2 영역)에 따라 움직임 정보에 기반하여 제스처를 인식하거나 또는 인식하지 않는다. The
제2 영역은 스티어링 휠(steering wheel), 기어(gear) 봉 및 암레스트(armrest) 영역을 포함하며, 제1 영역은 제2 영역 이외의 영역으로 정의된다. The second region includes a steering wheel, a gear rod, and an armrest region, and the first region is defined as a region other than the second region.
제스처 인식 장치(200)는 제1 통신 회로(210)를 통해 웨어러블 장치(100)와 통신 채널을 형성하면, 주기적으로 또는 웨어러블 장치(100)로부터 데이터를 수신함에 따라 웨어러블 장치(100)의 위치를 식별한다. When the
제스처 인식 장치(200)는 서로 이격되어 복수의 차량 영역에 각기 구비된 복수의 통신 회로들을 통해, 웨어러블 장치(100)와의 거리를 식별함에 따라 웨어러블 장치(100)의 위치를 식별한다. The
복수의 차량 영역은 예를 들면, 차량의 내부 모서리, 스티어링휠, 기어 봉 및 암레스트 영역을 포함한다. The plurality of vehicle areas includes, for example, an interior edge of the vehicle, a steering wheel, a gear rod and an armrest area.
제스처 인식 장치(200)는 웨어러블 장치(100)가 제1 영역에 있는 것을 확인하면, 웨어러블 장치(100)로부터 수신된 움직임 정보에 기반하여 사용자의 제스처를 인식한다. When the
제스처 인식 장치(200)는 제스처를 인식하면, 인식된 제스처에 대응하는 기능을 결정하고, 결정된 기능을 직접 수행하거나, 차량 시스템 내 제어 대상 장치에 결정된 기능 수행을 요청한다. When the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 영역에 있는 것을 확인하면, 웨어러블 장치(100)로부터 수신된 움직임 정보를 무시하여 움직임 정보에 기반한 제스처 인식을 수행하지 않는다. When the
도 5는 본 발명에 따른 제2 영역에서의 제스처 인식을 도시한다. 5 shows gesture recognition in the second area according to the present invention.
도 5를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 영역에 해당하는 스티어링 휠 영역에 있는 것을 확인하면, 웨어러블 장치(100)로부터 움직임 정보를 수신하고 움직임 정보에 기반하여 지정된 제스처만을 선택적으로 인식한다. Referring to FIG. 5 , when the
제스처 인식 장치(200)는 웨어러블 장치(100)로부터 수신된 움직임 정보 및 터치 관련 정보 중 적어도 하나의 정보에 기반하여 웨어러블 장치(100)가 착용된 사용자의 손가락(예: 검지 손가락)이 스티어링 휠을 파지 또는 터치한 것을 감지한다. The
제스처 인식 장치(200)는 사용자의 손가락이 스티어링 휠을 파지 또는 터치한 것을 감지한 후 지정된 제스처를 감지하면, 지정된 제스처에 대응하는 지정된 기능을 수행하도록 제어한다. When the
제스처 인식 장치(200)는 지정된 시간 내에 스티어링 휠을 파지 또는 터치하는 웨어러블 장치(100)로부터의 움직임 정보에 기반하여 사용자의 손가락이 펼쳐 져서 좌우 방향으로 흔들린 후 다시 접히는 지정된 제스처를 인식하고, 이에 따라 차량의 와이퍼를 동작시킨다. The
도 6은 본 발명에 따른 제2 영역에서 다른 기능을 수행하는 예를 도시한다. 6 shows an example of performing another function in the second area according to the present invention.
도 6을 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 영역(스티어링 휠, 기어 봉 또는 암레스트 영역)에 위치하는 것을 확인하면, 전력을 웨어러블 장치(100)로 송싱하여 웨어러블 장치(100)에 대한 충전을 수행한다. Referring to FIG. 6 , the
도 7은 본 발명에 따른 생체 정보 및 움직임 정보 기반의 차량 제어를 도시한다. 7 illustrates vehicle control based on biometric information and motion information according to the present invention.
제스처 인식 장치(200)는 웨어러블 장치(100)로부터 생체 정보를 수신하고, 생체 정보에 기반하여 사용자의 감정 상태를 확인한다. The
제스처 인식 장치(200)는 생체 정보로서 맥박 정보를 수신하고 맥박 정보에 기반하여 사용자의 감정이 화남/흥분 상태 및 정상 상태 중 어느 상태에 해당하는지를 확인한다. The
제스처 인식 장치(200)는 맥박이 임계치 보다 빨라 지면 화남/흥분 상태인 것으로 결정하고, 맥박이 임계치 이하이면, 정상 상태인 것으로 결정한다. When the pulse rate is faster than the threshold value, the
제스처 인식 장치(200)는 확인된 감정 상태에 따라 동일 제스처에 대하여 다른 기능을 수행하도록 제어한다. The
제1 제스처는 제1 감정 상태(예: 화남/흥분 상태)에 관련된 제1 기능(예: 제스처 기반 차량 운행 관련 제어 제한 및 인포테인먼트 기능 허용) 및 제2 감정 상태(예: 정상 상태)에 관련된 제2 기능(예: 차량 운행 관련 제어 허용)과 맵핑된다. The first gesture includes a first function related to a first emotional state (eg, angry/excited state) (eg, limiting gesture-based vehicle driving-related control and allowing infotainment functions) and a second emotional state (eg, normal state) related to the first gesture. It is mapped with 2 functions (eg allowing control related to vehicle operation).
제스처 인식 장치(200)는 움직임 정보에 기반하여 다음 노래 재생 기능 및 차량 운행 관련 제어 기능에 맵핑된 제1 제스처를 인식하면, 생체 정보에 기반하여 사용자의 감정 상태가 화남/흥분 상태인지 아니면, 정상 상태인지를 확인한다. When the
제스처 인식 장치(200)는 제1 제스처를 인식할 때에 사용자의 감정 상태가 화남/흥분 상태인 것으로 확인하면, 제1 제스처에 대응하는 차량 운행 관련 제어를 제한한다. When the
제스처 인식 장치(200)는 사용자의 감정 상태가 정상 상태인 것으로 확인하면, 제1 제스처에 대응하는 차량 운행 관련 제어를 수행한다. When it is confirmed that the user's emotional state is in a normal state, the
제스처 인식 장치(200)는 다음 노래 재생 기능과 맵핑된 제1 제스처에 응답하여 사용자의 감정 상태가 화남/흥분 상태인지 아니면, 정상 상태인지를 확인할 수 있다. The
제스처 인식 장치(200)는 제1 제스처를 인식할 때에 사용자의 감정 상태가 화남/흥분 상태인 것으로 확인하면, 설정에 따라 다음 노래로서 기분 전환용 음악을 재생하거나, 현재 재생되고 있는 노래의 다음 노래를 재생한다. If the
제스처 인식 장치(200)는 모드 램프 점등 기능에 맵핑된 제1 제스처에 응답하여, 사용자의 감정 상태에 따라 차량 무드 램프의 색상을 변화시킨다. The
제스처 인식 장치(200)는 카메라(230)를 통해 사용자의 얼굴을 촬영하고 촬영 영상에서 사용자의 표정을 분석함에 따라 사용자의 감정 상태를 확인한다. The
제스처 인식 장치(200)는 확인된 감정 상태에 기반하여 차량 시스템 내 제어 대상 장치를 제어한다. The
제스처 인식 장치(200)는 음악 재생 중에 촬영 영상에서 사용자의 기분 좋은 표정, 얼굴 움직임 또는 손동작 중 적어도 하나를 확인하면, 사용자의 감정 상태가 기분 좋은 상태인 것으로 결정한다.The
제스처 인식 장치(200)는 음악 재생 중 사용자의 감정 상태가 기분 좋은 상태인 것으로 결정하면, 차량 무드 조명을 이용한 이퀄라이징 효과를 제공한다. When the
도 8은 본 발명에 따른 제스처 및 시선 추적 기반의 차량 제어를 도시한다. 8 shows a vehicle control based on gesture and eye tracking according to the present invention.
제스처 인식 장치(200)는 카메라(230)를 통해 제스처 인식의 대상에 해당하는 사용자의 시선을 추적하고, 추적된 시선에 기반하여 차량 시스템의 제어 대상 장치를 결정한다. The
제스처 인식 장치(200)는 카메라(230)를 통해 공조기를 바라보는 사용자의 시선 및 웨어러블 장치(100)를 통해 제2 제스처를 인식한다. The
제스처 인식 장치(200)는 복수의 기능들(공조기 특정 기능 제어 및 다른 장치 제어)에 맵핑된 제2 제스처의 제어 대상 장치가 공조기인 것으로 결정한다. The
제2 제스처의 제어 대상 장치가 공조기인 것으로 결정하면, 제스처 인식 장치(200)는 공조기에 대하여 제2 제스처에 대응하는 기능(예: 온/오프)을 수행한다. When it is determined that the device to be controlled by the second gesture is the air conditioner, the
도 9는 본 발명에 따른 터치 관련 정보 및 움직임 정보 기반의 차량 제어를 도시한다. 9 illustrates vehicle control based on touch-related information and motion information according to the present invention.
제스처 인식 장치(200)는 사용자에 의한 웨어러블 장치(100)의 터치 여부에 따라 동일한 제스처에 대하여 다른 기능을 수행한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)로부터의 움직임 정보로부터 제3 제스처를 인식하고, 웨어러블 장치(100)로부터의 터치 관련 정보로부터 사용자의 손가락이 웨어러블 장치(100)에 터치되었는지 여부를 확인한다. The
제스처 인식 장치(200)는 사용자의 손가락이 웨어러블 장치(100)에 터치되지 않은 상태에서 제3 제스처(예: 제1 방향의 드래그 제스처)를 인식하면, 제3 제스처에 맵핑된 복수의 기능들 중 제1 기능 예컨대, 디스플레이(250)에 표시된 컨텐츠의 위치 이동 기능(915)을 수행한다. When the
제스처 인식 장치(200)는 사용자의 손가락이 웨어러블 장치(100)에 터치된 상태에서 제3 제스처(예: 제1 방향의 드래그 제스처)를 인식하면, 제3 제스처에 맵핑된 복수의 기능들 중 제2 기능 예컨대, 디스플레이(250)에 표시된 쓰레기통 활성화 기능(925) 또는 아이콘 삭제 기능을 수행한다. When the
도 10 및 도 11은 본 발명에 따른 사용자 위치 별 제어 대상 장치를 도시한다. 10 and 11 show a control target device for each user location according to the present invention.
제스처 인식 장치(200)는 웨어러블 장치(100)의 착용 여부 및 차량 탑승자의 위치에 따라 제스처 기반의 차량 시스템 제어를 수행한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)를 착용한 운전석 탑승자에 대해서는 제스처 기반의 모든 차량 시스템에 대한 제어권을 부여한다. The
예를 들어, 차량 운행 관련 제어권(예: ASCC- 차간 간격, 드라이브 모드, ADAS 설정 가능), 전체 좌석의 인포테인먼트 관련 제어권(예: 볼륨) 및 전체 좌석의 공조기 제어권을 부여한다. For example, it grants vehicle operation-related control rights (eg, ASCC-interval distance, drive mode, ADAS setting possible), infotainment-related control rights for all seats (eg volume), and air conditioner control rights for all seats.
제스처 인식 장치(200)는 웨어러블 장치(100)는 착용한 보조석 탑승자에 대하여 전석 인포테인먼트 장치 관련 제어권(예: 볼륨) 및 전석(front seat) 공조기 제어권을 부여한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)는 착용한 후석 탑승자에 대하여 후석 인포테인먼트 관련 제어권(예: 볼륨) 및 후석 공조기 제어권을 제공한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)를 미착용한 탑승자에 대해서는 해당 탑승자가 전석인지 후석인지 따라서 전석 또는 후석 인포테인먼트 관련 제어권(예: 볼륨)을 제공한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)로부터 웨어러블 장치(100)의 식별 번호를 수신하고, 대응 관계 정보에 기반하여 수신된 식별 번호에 대응하는 웨어러블 장치(100)의 사용자 연령 정보(예: 나이)를 확인한다. The
제스처 인식 장치(200)는 사용자 연령 정보에 기반하여 차량 시스템에 대한 제어권 예컨대, 인포테인먼트 장치에 의해 재생 가능한 컨텐츠를 제한한다. The
제스처 인식 장치(200)는 사용자가 아동/유아이면, 아동/유아에 대응하는 컨텐츠 재생만을 허용하고, 청소년 또는 성인 컨텐츠의 재생을 제한한다. If the user is a child/infant, the
제스처 인식 장치(200)는 웨어러블 장치(100)를 착용한 탑승자의 위치를 제1 통신 회로(210)를 통해 확인한다. The
제1 통신 회로(210)는 UWB 통신을 수행하는 회로를 포함하고, 제스처 인식 장치(200)는 복수의 회로와 웨어러블 장치(100) 간의 거리에 기반하여 웨어러블 장치(100)를 착용한 탑승자의 위치를 확인한다. The
제스처 인식 장치(200)는 카메라(230)의 촬영 영상을 더 이용하여 웨어러블 장치(100)를 착용한 탑승자의 위치를 확인한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)를 착용하지 않은 탑승자의 위치를 카메라(230)를 통해 차량 내 탑승자의 위치를 확인한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)로부터의 움직임 정보 및 카메라(230)의 촬영 영상 중 적어도 하나에 기반하여 탑승자의 제스처를 인식한다. The
제스처 인식 장치(200)는 웨어러블 장치(100) 또는 카메라(230)를 통해 제스처를 인식하면, 제어권이 허용된 제어 대상 장치에 대해서는 인식된 제스처에 대응하는 제어를 수행할 수 있다. When the
제스처 인식 장치(200)는 인식된 제스처를 수행한 차량 탑승자가 웨어러블 장치(100)의 사용자(또는, 착용자)인지 여부에 따라서 제어 대상 장치의 제어권을 달리 제공한다. The
제스처 인식 장치(200)는 웨어러블 장치(100)의 사용자에 대해서는 미착용 사용자보다 더 많은 종류의 제어 대상 장치에 대한 제어권을 제공하거나, 모든 차량 운행 관련 제어권을 제공한다. The
제스처 인식 장치(200)는 제스처를 수행한 탑승자의 위치가 운전석인 경우, 탑승자가 웨어러블 장치(100)의 사용자인지 확인한다. When the position of the passenger who performed the gesture is the driver's seat, the
제스처 인식 장치(200)는 확인된 탑승자가 웨어러블 장치(100)의 사용자이면, 차량 시스템 내 복수의 제어 대상 장치들에 대한 제어권을 모두 허용한다. If the identified occupant is a user of the
제스처 인식 장치(200)는 확인된 탑승자가 웨어러블 장치(100)의 사용자가 아니면, 차량 시스템 내 일부 제어 대상 장치에 대한 제어권만을 부여한다. If the identified occupant is not a user of the
제스처 인식 장치(200)는 인식된 제스처가 허용되지 않은 제어 대상 장치에 대한 것이면, 인식된 제스처를 무시하고, 경고 알림을 제공한다. If the recognized gesture is for a control target device that is not permitted, the
제스처 인식 장치(200)는 인식된 제스처에 응답하여, 스피커 또는 디스플레이(250)를 통해 제스처에 대응하는 제어 대상 장치에 대한 제어가 허용되지 않음을 안내한다. In response to the recognized gesture, the
도 12는 본 발명에 따른 제스처 인식의 기준 좌표 변환을 도시한다. 12 shows a reference coordinate transformation of gesture recognition according to the present invention.
제스처 인식 장치(200)는 웨어러블 장치(100)가 차량 내 허공에 위치하는지 아니면, 차량 내 지정된 면에 위치하는지 여부를 확인한다. The
지정된 면은 암레스트 및 차량 테이블을 포함한다. The designated faces include armrests and vehicle tables.
제스처 인식 장치(200)는 웨어러블 장치(100)가 지정된 면의 상단으로부터 지정된 거리 이내에 위치하면, 웨어러블 장치(100)가 지정된 면에 위치한 것으로 확인한다. When the
제스처 인식 장치(200)는 웨어러블 장치(100)로부터의 움직임 정보에 기반하여 제스처를 인식할 때, 웨어러블 장치(100)가 허공에 위치하는 경우와 지정된 면에 위치하는 경우에 움직임 정보에 따른 제스처 방향을 상이하게 인식한다. When the
예를 들어, 제스처 인식 장치(200)는 웨어러블 장치(100)가 허공에 위치한 경우에는 차량의 좌우 방향, 상하 방향 및 전후 방향을 각기 x축, y축 및 z축으로 하여 움직임 정보의 (x, y, z) 좌표 값을 확인할 수 있다. For example, when the
반면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 지정된 면에 위치한 경우에는 x축, y축 및 z축 중 적어도 두 개의 축을 교환하여 상기 움직임 정보의 (x, y, z) 좌표 값을 확인한다. On the other hand, the
제스처 인식 장치(200)는 예를 들면, 웨어러블 장치(100)가 지정된 면에 위치하는 경우에는 차량의 좌우 방향, 전후 방향 및 상하 방향을 x, y, z축으로 하여 움직임 정보의 (x, y, z) 좌표 값을 확인한다. For example, when the
도 12의 (a)를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 암레스트에서 제1 지정된 거리 이상 이격하여 허공에 위치한 제1 상태로 유지되며, 움직이는 제스처를 인식한다. Referring to FIG. 12A , the
제스처 인식 장치(200)는 제1 좌표 평면(1250)(예: XY 평면)을 차량의 좌우상하 방향 제스처(회색 화살표 참조)의 기준 좌표 평면으로 결정하고, 제2 좌표 평면(1260)(예: XZ 평면)을 차량의 전후 방향(파란색 화살표 참조)의 기준 좌표 평면으로 결정할 수 있다. The
제스처 인식 장치(200)는 제1 상태에서 차량의 좌우 방향 또는 상하 방향의 제스처를 인식한 경우에 인식된 좌우 또는 상하 방향의 제스처에 대응하는 제1 기능, 예컨대, 디스플레이(250)에 표시된 컨텐츠를 제스처 방향으로 드래그하는 기능을 수행한다. The
제스처 인식 장치(200)는 제1 상태에서 전후 방향의 제스처를 인식하면, 전후 방향의 제스처에 대응하는 제2 기능, 예컨대, 디스플레이(250)에 표시된 컨텐츠 중 커서가 올려진 컨텐츠를 선택 또는 실행하는 기능을 수행한다. When the
도 12의 (b)를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 암레스트로부터 제1 지정된 거리 내에 위치한 제2 상태로 유지되며, 이동하는 제스처를 인식한다. Referring to FIG. 12B , the
제스처 인식 장치(200)는 제2 좌표 평면(1260)을 차량의 좌우 방향 및 차량의 전후 방향 제스처(회색 화살표 참조)의 기준 좌표 평면으로 결정하고, 제1 좌표 평면(1250)을 디스플레이(250)에 대하여 상하 방향(파란색 화살표 참조)의 기준 좌표 평면으로 결정한다. The
제스처 인식 장치(200)는 제2 상태에서 차량의 좌우 방향 또는 차량의 전후 방향의 제스처를 인식한 경우에 차량의 좌우 또는 전후 방향의 제스처에 대응하는 제1 기능, 예컨대, 디스플레이(250)에 표시된 컨텐츠를 좌우 방향 또는 상하 방향으로 드래그하는 기능을 수행한다. When the
제스처 인식 장치(200)는 제2 상태에서 상하 방향의 제스처를 인식하면, 상/하 방향의 제스처에 대응하는 제2 기능, 예컨대, 디스플레이(250)에 표시된 컨텐츠 중 커서가 올려진 컨텐츠를 선택 또는 실행하는 기능을 수행한다. When the
도 13a 및 13b는 본 발명에 따른 제스처 인식의 기준 좌표 변환의 다른 예를 도시한다. 13A and 13B show another example of reference coordinate transformation of gesture recognition according to the present invention.
도 13a를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 차량 내 다른 평평한 영역에 해당하는 차량 내 테이블에 위치한 경우에도 도 12와 같이 기준 좌표를 변환하여 제스처를 인식한다. Referring to FIG. 13A , even when the
도 13b를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 도어 암레스트에 위치한 경우에도 도 12와 같이 기준 좌표를 변환하여 제스처를 인식한다. Referring to FIG. 13B , even when the
제스처 인식 장치(200)는 웨어러블 장치(100)를 착용한 사용자 손가락의 위치에 따라 기준 좌표 평면을 변환하여 제스처를 인식함에 따라 사용자 손가락의 위치에 따라 차량 시스템을 용이하게 제어하도록 지원한다. The
도 14, 도 15a 내지 15d는 본 발명에 따른 웨어러블 장치의 위치에 따른 기능 실행을 도시한다. 14 and 15A to 15D show function execution according to the position of the wearable device according to the present invention.
도 14를 참조하면, 제스처 인식 장치(200)는 웨어러블 장치(100)가 차량 내부의 어느 부분에서 위치하는지에 따라서 동일 제스처를 인식하더라도 다른 기능을 수행한다. Referring to FIG. 14 , the
차량 내부 영역은 스티어링 휠의 상단에 위치하는 HUD(디스플레이(250))로부터 제2 지정된 거리(예: 10cm) 이내에 있는 제1 부분(1410), 스티어링 휠로부터 제3 지정된 거리(예: 3cm) 내에 있는 제2 부분(1420), SVM(Surround View Monitor)으로부터 제4 지정된 거리(예: 3cm) 내에 있는 제3 부분(1430) 및 공조기로부터 제5 지정된 거리(예: 3cm) 내에 있는 제4 부분(1440)을 포함한다. The vehicle interior region includes a
제1 부분(1410)은 제2 부분(1420), 제3 부분(1430) 및 제4 부분(1440)을 제외한 나머지 부분(도는, 차량 전석 부분)을 포함한다. The
제1 내지 제4 부분들(1410, 1420, 1430, 1440)은 모두 전술한 제1 영역에 해당할 수 있고, 또는 제1 영역 및 제2 영역 중 일부 영역을 포함한다.All of the first to
메모리(260)는 하나의 제스처에 대응하는 제1 내지 제4 부분들(1410, 1420, 1430, 1440) 중 어느 하나의 부분 및 제어 대상 장치에 각기 매핑된 복수의 기능들을 저장한다. The
도 14에서, 제스처 인식 장치(200)는 웨어러블 장치(100)가 제1 부분에 위치한 것을 확인하면, 제1 제스처에 응답하여, 디스플레이(250)에 표시된 요소의 확대, 축소 및 선택 중 적어도 어느 하나를 수행한다. In FIG. 14 , when the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제1 부분(1410)에 위치한 상태에서 핀치 아웃(pinch out) 제스처를 인식하면, 핀치 아웃 제스처에 응답하여, 도 15a와 같이 디스플레이(250)에 표시된 주행 정보 요소(예: 현재/제한 속도)를 확대한다.When the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 부분에 위치한 것을 확인하면, 제1 제스처에 응답하여 차량 운행 관련 제어를 수행한다.When it is confirmed that the
예를 들어, 제스처 인식 장치(200)는 웨어러블 장치(100)가 제2 부분(1420)에 위치한 상태에서 핀치 아웃(pinch out) 제스처를 인식하면, 핀치 아웃 제스처에 응답하여, 도 15b와 같이 크루스(cruise) 컨트롤 속도의 조절을 수행한다. For example, when the
이후, 제스처 인식 장치(200)는 차량 운행 관련 제어의 결과 예컨대, 조절된 속도를 디스플레이(250)에 표시한다. Thereafter, the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제3 부분에 위치한 것을 확인하면, 제1 제스처에 응답하여, 적어도 하나의 객체의 표시 형태 조절 및 기능 선택 중 적어도 어느 하나를 수행한다. When it is confirmed that the
예를 들어, 제스처 인식 장치(200)는 웨어러블 장치(100)가 제3 부분(1430)에 위치한 상태에서 핀치 아웃(pinch out) 제스처를 인식하면, 핀치 아웃 제스처에 응답하여, 도 15c와 같이 디스플레이(250)에 표시된 주변 환경 영상에서 위험 요소가 포함된 영역을 확대하거나, 내비게이션에서 현재 위치의 지도를 확대한다. For example, if the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제4 부분에 위치한 것을 확인하면, 제1 제스처에 응답하여, 공조기에 관련된 제어를 수행한다. When it is confirmed that the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제4 부분(1440)에 위치한 상태에서 핀치 아웃(pinch out) 제스처를 인식하면, 핀치 아웃 제스처에 응답하여, 도 15d와 같이 공조기의 풍속을 조절하고, 디스플레이(250)에 표시된 풍속 정보를 변화시킬 수 있다. When the
제스처 인식 장치(200)는 웨어러블 장치(100)로부터 수신된 움직임 정보에 기반하여 제1 제스처를 인식하면, 차량 시스템 내 복수의 제어 대상 장치들 중 웨어러블 장치가 상대적으로 더 근접한 장치를 확인하고, 해당 장치에 대응하는 기능을 수행하도록 제어한다. When the
제어 대상 장치들은 예를 들면, HUD, 스티어링 휠, 서라운드 뷰 모니터, 공조기 및 내비게이션 중 적어도 하나의 장치를 포함한다. The devices to be controlled include, for example, at least one of a HUD, a steering wheel, a surround view monitor, an air conditioner, and a navigation device.
제스처 인식 장치(200)는 웨어러블 장치(100)이 위치한 부분(또는, 웨어러블 장치(100)를 착용한 사용자 손가락의 위치)에 따라 차량 시스템 내 다양한 기능을 수행한다. The
제스처 인식 장치(200)는 단순한 제스처에 기반하여 차량 시스템의 다양한 기능을 제어하도록 지원한다. The
도 16 내지 도 19는 본 발명에 따른 제스처 인식 방법을 도시한다. 16 to 19 show a gesture recognition method according to the present invention.
S1610 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)로부터 움직임 정보를 수신한다. In step S1610 , the
S1620 단계에서, 제스처 인식 장치(200)는 차량 내 웨어러블 장치의 위치를 확인한다. In step S1620, the
S1630 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)의 위치에 따라 움직임 정보에 기반한 제스처 인식을 수행 또는 미수행한다. In step S1630 , the
제스처 인식 장치(200)는 웨어러블 장치(100)가 제1 영역에 위치하면, 제스처 인식을 수행하고 웨어러블 장치(100)가 제2 영역에 위치하면, 제스처 인식을 수행하지 않는다. The
S1640 단계에서, 제스처 인식 장치(200)는 제스처를 인식한 경우에 인식된 제스처에 대응하는 기능을 수행한다. In step S1640 , the
S1710 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)를 착용한 사용자의 위치를 확인한다. In step S1710 , the
S1720 단계에서, 제스처 인식 장치(200)는 확인된 사용자의 위치에 따라서 차량 시스템 내 복수의 제어 대상 장치들 중 적어도 일부 제어 대상 장치들에 대한 제어권을 허용 또는 제한한다.In operation S1720 , the
예를 들어, 제스처 인식 장치(200)는 사용자가 운전석에 위치한 경우에는 제스처 기반의 모든 차량 시스템 제어권 예컨대, 차량 운행 관련 제어권(예: ASCC- 차간 간격, 드라이브 모드, ADAS 설정 가능), 전체 좌석의 인포테인먼트 관련 제어권(예: 볼륨) 및 전체 좌석의 공조기 제어권을 허용한다. For example, when the user is located in the driver's seat, the
사용자가 보조석 또는 후석에 위치하는 경우에는 차량 시스템 내 제어 대상 장치들 중 일부 제어 대상 장치들(예: 차량 운행 관련 제어권)에 대한 제어권만을 부여한다. When the user is located in the passenger seat or the rear seat, only the control right for some control target devices (eg, vehicle operation related control right) among the control target devices in the vehicle system is granted.
S1730 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)로부터의 움직임 정보에 기반하여 사용자의 제스처를 인식하면, 인식된 제스처에 응답하여 복수의 제어 대상 장치들 중 허용된 제어 대상 장치들을 통해 인식된 제스처에 대응하는 기능을 수행할 수 있다.In step S1730 , when the
도 18을 참조하면, S1810 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)로부터 움직임 정보를 획득한다. Referring to FIG. 18 , in step S1810 , the
S1820 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)의 위치가 차량 내 허공인지 아니면, 차량 내 지정된 면인지를 여부를 확인한다. In step S1820 , the
S1820 단계에서, 제스처 인식 장치(200)는 움직임 정보에 기반하여 제스처를 인식하되, 웨어러블 장치(100)의 위치가 허공인 경우와 지정된 면인 경우에 제스처 방향을 달리 인식한다.In step S1820, the
예를 들어, 제스처 인식 장치(200)는 웨어러블 장치(100)가 허공에 위치한 경우에는 차량의 좌우 방향, 상하 방향 및 전후 방향을 각기 x축, y축 및 z축으로 하여 움직임 정보의 (x, y, z) 좌표 값을 확인한다. For example, when the
웨어러블 장치(100)가 지정된 면에 위치하는 경우에는 제스처 인식 장치(200)는 차량의 좌우 방향, 전후 방향 및 상하 방향을 x, y, z축으로 하여 움직임 정보의 (x, y, z) 좌표 값을 확인한다. When the
도 19를 참조하면, S1910 단계에서, 제스처 인식 장치(200)는 메모리(260)에 차량 내 복수의 부분들에 각기 맵핑된 제1 제스처에 대응하는 복수의 기능들을 저장한다. Referring to FIG. 19 , in step S1910 , the
메모리(260)에 저장된 복수의 부분들에 각기 맵핑된 제1 제스처에 대응하는 복수의 기능들이 있는 경우에 S1910 단계는 생략된다. When there are a plurality of functions corresponding to the first gesture mapped to the plurality of portions stored in the
복수의 부분은 스티어링 휠의 상단에 위치하는 HUD(디스플레이(250))로부터 제2 지정된 거리(예: 10cm) 이내에 있는 제1 부분(1410), 스티어링 휠로부터 제3 지정된 거리(예: 3cm) 내에 있는 제2 부분(1420), SVM(Surround View Monitor)으로부터 제4 지정된 거리(예: 3cm) 내에 있는 제3 부분(1430) 및 공조기로부터 제5 지정된 거리(예: 3cm) 내에 있는 제4 부분(1440)을 포함한다.The plurality of parts are located within a
S1920 단계에서, 제스처 인식 장치(200)는 웨어러블 장치(100)로부터의 움직임 정보에 기반하여 제1 제스처를 인식하면, 웨어러블 장치(100)가 차량 내 어느 부분에 위치하는지를 확인한다. In operation S1920 , when the
S1930 단계에서, 제스처 인식 장치(200)는 복수의 기능들 중 웨어러블 장치(100)가 위치한 부분에 대응하는 기능을 수행한다. In step S1930 , the
제스처 인식 장치(200)는 웨어러블 장치(100)를 통해 제스처를 인식하면, 웨어러블 장치(100)의 위치, 사용자의 위치, 사용자의 시선, 사용자 정보(예: 연령 정보) 또는 제어 대상 장치에 따라 인식된 제스처에 대응하는 기능을 달리 제공한다. When the
한편, 본 발명의 실시예에 따른 제스처 인식 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.Meanwhile, the gesture recognition method according to an embodiment of the present invention may be implemented in a computer system or recorded in a recording medium. The computer system may include at least one processor, a memory, a user input device, a data communication bus, a user output device, and storage. Each of the above-described components performs data communication through a data communication bus.
컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.
메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or non-volatile storage media. For example, memory may include ROM and RAM.
따라서, 본 발명의 실시예에 따른 제스처 인식 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 제스처 인식 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 제스처 인식 방법을 수행할 수 있다.Accordingly, the gesture recognition method according to an embodiment of the present invention may be implemented as a computer-executable method. When the gesture recognition method according to an embodiment of the present invention is performed in a computer device, computer readable instructions may perform the gesture recognition method according to the present invention.
한편, 상술한 본 발명에 따른 제스처 인식 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the above-described gesture recognition method according to the present invention may be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes any type of recording medium in which data that can be read by a computer system is stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like. In addition, the computer-readable recording medium may be stored and executed as code readable in a distributed manner by being distributed in a computer system connected through a computer communication network.
Claims (11)
차량 내 제어 대상 장치와 통신하는 제2 통신 회로;
제스처 인식 프로그램이 저장된 메모리; 및
상기 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 제1 통신 회로를 통해 상기 웨어러블 장치를 착용한 사용자의 위치 및 제스처를 인식하고, 상기 사용자의 위치에 따라 설정된 상기 제어 대상 장치에 대한 제어권을 고려하여, 상기 제스처에 따라 상기 제어 대상 장치를 제어하는 것
인 제스처 인식 장치.
a first communication circuit in communication with the wearable device;
a second communication circuit communicating with the in-vehicle control target device;
a memory storing a gesture recognition program; and
A processor for executing the program,
The processor recognizes a position and a gesture of a user wearing the wearable device through a first communication circuit, considers a control right for the control target device set according to the user's location, and according to the gesture, the control target device to control
A gesture recognition device.
상기 프로세서는 상기 사용자의 위치가 운전석인 경우, 상기 제어 대상 장치에 대한 제어권을 모두 허용하는 것
인 제스처 인식 장치.
According to claim 1,
The processor allows all control rights to the control target device when the user's location is the driver's seat
A gesture recognition device.
상기 프로세서는 상기 사용자의 위치가 조수석인 경우, 전석(front seat) 및 후석(rear seat)의 인포테인먼트 장치 및 공조기 중 적어도 어느 하나에 대한 제어를 수행하고, 상기 사용자의 위치가 후석(rear seat)인 경우, 후석 인포테인먼트 장치 및 공조기에 대한 제어를 수행하는 것
인 제스처 인식 장치.
According to claim 1,
The processor controls at least one of an infotainment device and an air conditioner of a front seat and a rear seat when the user's position is a passenger seat, and the user's position is a rear seat. In this case, to control the rear seat infotainment device and air conditioner
A gesture recognition device.
상기 프로세서는 상기 웨어러블 장치의 식별 번호 및 이에 대응되어 저장되는 사용자의 연령 정보를 고려하여, 상기 연령 정보에 대응하는 콘텐츠를 재생시키는 것
인 제스처 인식 장치.
According to claim 1,
The processor plays the content corresponding to the age information in consideration of the identification number of the wearable device and the age information of the user stored corresponding thereto
A gesture recognition device.
상기 프로세서는 카메라를 이용하여 획득된 상기 웨어러블 장치를 착용하지 않은 탑승자에 대한 정보를 인식하고, 인식 결과에 따라 제어권이 부여된 상기 제어 대상 장치를 제어하는 것
인 제스처 인식 장치.
According to claim 1,
The processor recognizes the information about the occupant who does not wear the wearable device obtained using the camera, and controls the control target device to which the control right is granted according to the recognition result
A gesture recognition device.
상기 제1 통신 회로는 UWB 통신을 통해 상기 웨어러블 장치의 위치를 확인하는 것
인 제스처 인식 장치.
According to claim 1,
The first communication circuit is to determine the location of the wearable device through UWB communication
A gesture recognition device.
(b) 상기 사용자의 위치에 따라서 제어 대상 장치에 대한 제어권을 부여하는 단계; 및
(c) 상기 웨어러블 장치로부터 획득된 움직임 정보에 기반하여 제스처를 인식하고, 상기 제스처에 응답하여 상기 제어 대상 장치 중 제어권이 부여된 장치에 대한 제어를 수행하는 단계
를 포함하는 제스처 인식 방법.
(a) confirming the location of the user wearing the wearable device;
(b) granting a control right to a control target device according to the location of the user; and
(c) recognizing a gesture based on motion information obtained from the wearable device, and performing control of a device to which control is granted among the control target devices in response to the gesture
A gesture recognition method comprising a.
상기 (b) 단계는 상기 사용자의 위치가 운전석인 경우, 상기 제어 대상 장치에 대한 제어권을 모두 허용하는 것
인 제스처 인식 방법.
8. The method of claim 7,
The step (b) is to allow all control rights to the control target device when the user's location is the driver's seat
In gesture recognition method.
상기 (b) 단계는 상기 사용자의 위치가 조수석인 경우, 전석(front seat) 및 후석(rear seat)의 인포테인먼트 장치 및 공조기 중 적어도 어느 하나에 대한 제어권을 부여하고, 상기 사용자의 위치가 후석(rear seat)인 경우, 후석 인포테인먼트 장치 및 공조기에 대한 제어권을 부여하는 것
인 제스처 인식 방법.
8. The method of claim 7,
In the step (b), when the user's position is the passenger seat, the control right is given to at least one of the front seat and rear seat infotainment devices and the air conditioner, and the user's position is the rear seat. seat), granting control over the rear seat infotainment device and air conditioner
In gesture recognition method.
상기 (c) 단계는 상기 제스처에 기반하여 콘텐츠를 재생하는 경우, 상기 웨어러블 장치의 식별 정보 및 사용자의 연령 정보를 고려하여 상기 콘텐츠를 재생하는 것
인 제스처 인식 방법.
8. The method of claim 7,
In the step (c), when the content is reproduced based on the gesture, the content is reproduced in consideration of identification information of the wearable device and age information of the user.
In gesture recognition method.
상기 (c) 단계는 촬영 영상에 기반하여 상기 웨어러블 장치를 착용하지 않은 탑승자의 제스처 및 위치를 확인하고, 확인 결과에 따라 제어권이 부여된 상기 제어 대상 장치에 대한 제어를 수행하는 것
인 제스처 인식 방법. 8. The method of claim 7,
The step (c) is to check the gesture and position of the passenger who is not wearing the wearable device based on the captured image, and control the control target device to which the control right is granted according to the check result
In gesture recognition method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049629A KR20210131174A (en) | 2020-04-23 | 2020-04-23 | Apparatus and method for recognizing gesture |
US17/236,378 US11573644B2 (en) | 2020-04-21 | 2021-04-21 | Apparatus and method for recognizing gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049629A KR20210131174A (en) | 2020-04-23 | 2020-04-23 | Apparatus and method for recognizing gesture |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210131174A true KR20210131174A (en) | 2021-11-02 |
Family
ID=78476270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200049629A KR20210131174A (en) | 2020-04-21 | 2020-04-23 | Apparatus and method for recognizing gesture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210131174A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114489341A (en) * | 2022-01-28 | 2022-05-13 | 北京地平线机器人技术研发有限公司 | Gesture determination method and apparatus, electronic device and storage medium |
-
2020
- 2020-04-23 KR KR1020200049629A patent/KR20210131174A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114489341A (en) * | 2022-01-28 | 2022-05-13 | 北京地平线机器人技术研发有限公司 | Gesture determination method and apparatus, electronic device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2933130B1 (en) | Vehicle control apparatus and method thereof | |
US10007264B2 (en) | Autonomous vehicle human driver takeover mechanism using electrodes | |
EP2826689B1 (en) | Mobile terminal | |
US20120287050A1 (en) | System and method for human interface in a vehicle | |
US10209832B2 (en) | Detecting user interactions with a computing system of a vehicle | |
KR102029842B1 (en) | System and control method for gesture recognition of vehicle | |
US20180232195A1 (en) | Electronic device and method for sharing images | |
US20220244789A1 (en) | Method for operating a mobile terminal using a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head | |
KR101575650B1 (en) | Terminal, vehicle having the same and method for controlling the same | |
KR20170141484A (en) | Control device for a vehhicle and control metohd thereof | |
US11595878B2 (en) | Systems, devices, and methods for controlling operation of wearable displays during vehicle operation | |
KR101879334B1 (en) | Apparatus for indentifying a proximity object and method for controlling the same | |
CN111231860B (en) | Operation module, operation method, operation system, and storage medium for vehicle | |
US20210072831A1 (en) | Systems and methods for gaze to confirm gesture commands in a vehicle | |
KR101806172B1 (en) | Vehicle terminal control system and method | |
KR20150137827A (en) | Vehicle control apparatus using steering wheel and method for controlling the same | |
KR20180053290A (en) | Control device for a vehhicle and control metohd thereof | |
KR20210131174A (en) | Apparatus and method for recognizing gesture | |
CN111638786B (en) | Display control method, device, equipment and storage medium of vehicle-mounted rear projection display system | |
JP6033465B2 (en) | Display control device | |
KR20210130055A (en) | Apparatus and method for recognizing gesture | |
KR20210130054A (en) | Apparatus and method for recognizing gesture | |
KR20210130056A (en) | Apparatus and method for recognizing gesture | |
US9536414B2 (en) | Vehicle with tactile information delivery system | |
US11573644B2 (en) | Apparatus and method for recognizing gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |