KR20210097291A - System and method for recognizing gestures - Google Patents
System and method for recognizing gestures Download PDFInfo
- Publication number
- KR20210097291A KR20210097291A KR1020200010784A KR20200010784A KR20210097291A KR 20210097291 A KR20210097291 A KR 20210097291A KR 1020200010784 A KR1020200010784 A KR 1020200010784A KR 20200010784 A KR20200010784 A KR 20200010784A KR 20210097291 A KR20210097291 A KR 20210097291A
- Authority
- KR
- South Korea
- Prior art keywords
- points
- control unit
- tailgate
- ransac
- recognition
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000004891 communication Methods 0.000 claims abstract description 10
- 238000013500 data storage Methods 0.000 claims abstract description 8
- 239000000284 extract Substances 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 241000270730 Alligator mississippiensis Species 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/20—Means to switch the anti-theft system on or off
- B60R25/25—Means to switch the anti-theft system on or off using biometry
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/30—Detection related to theft or to other events relevant to anti-theft systems
- B60R25/305—Detection related to theft or to other events relevant to anti-theft systems using a camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/30—Detection related to theft or to other events relevant to anti-theft systems
- B60R25/34—Detection related to theft or to other events relevant to anti-theft systems of conditions of vehicle components, e.g. of windows, door locks or gear selectors
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 제스처 인식 시스템 및 방법에 관한 발명으로서, 더욱 상세하게는 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔 인식 기술을 이용한 제스처 인식 시스템 및 방법에 관한 것이다.The present invention relates to a gesture recognition system and method, and more particularly, a gesture recognition system and method using RANSAC-based box recognition, person recognition, and height estimation of a recognized person and human arm recognition technology. is about
일반적으로 자동차의 후면부를 이루는 트렁크에는 일반 소화물 및 비상용 작업공구, 스페어 타이어 등이 보관되어 있다.In general, in the trunk constituting the rear part of the vehicle, general luggage, emergency work tools, spare tires, and the like are stored.
또한 사고 발생시를 대비하여 구급상자 등이 보관되어 있으며, 이러한 트렁크 룸을 덮고 있는 것을 트렁크 리드라고 부른다.In addition, in case of an accident, a first aid kit is stored, and the thing covering the trunk room is called a trunk lid.
트렁크 리드는 트렁크 락장치에 의하여 단속되는데, 이러한 락장치를 해제하기만 하면 적은 힘으로도 쉽게 트렁크 리드가 올라가도록 힌지장치가 구비되어 있다.The trunk lid is controlled by the trunk lock device, and a hinge device is provided so that the trunk lid can be easily raised with little force as long as the lock device is released.
최근에는 트렁크 리드가 운전석에서 간단한 스위치 조작만 하면 자동으로 열리거나 닫히게 할 수 있는 파워 트렁크/파워 테일게이트 자동개폐장치가 개발되어 있다.Recently, a power trunk/power tailgate automatic opening/closing device that can automatically open or close the trunk lid by simply operating a switch from the driver's seat has been developed.
일반적인 파워 테일게이트 제어 시스템에서 외부에 위치한 테일게이트 버튼이나 무선 도어 잠금 장치(Remote Keyless Entry, RKE)의 원격제어를 통해 자동으로 파워 테일게이트를 개방하거나 닫는 동작을 수행한다. In a general power tailgate control system, it automatically opens or closes the power tailgate through a tailgate button located outside or remote control of a wireless door lock (Remote Keyless Entry, RKE).
또한, 종래의 파워 테일게이트 제어 시스템은 파워 테일게이트의 잠금 및 잠금해제 기능도 수행할 수 있다.In addition, the conventional power tailgate control system may also perform locking and unlocking functions of the power tailgate.
그러나, 종래 기술에 따른 파워 테일게이트 제어 시스템은 사용자가 물건을 들고 있다거나, 양손이 자유롭지 못한 경우 물건을 내려놓고, 버튼을 눌러 트렁크/테일게이트를 개방시켜야 하므로 사용자의 입장에서 이러한 과정은 편의성을 저하시키는 문제점이 있다.However, in the power tailgate control system according to the prior art, when the user is holding an object or both hands are not free, the user must put down the object and press a button to open the trunk/tailgate, so this process is convenient from the user's point of view. There is a problem of lowering.
이러한 문제점을 해결하기 위하여, 본 발명은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔 인식 기술을 이용한 제스처 인식 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, an object of the present invention is to provide a gesture recognition system and method using RANSAC-based box recognition, person recognition, and height estimation of a recognized person and human arm recognition technology. .
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 제스처 인식 시스템 으로서, ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부; 상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력하는 제어부; 상기 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 데이터 저장부; 및 상기 테일 게이트의 동작 신호를 차량 제어부로 전송하는 통신부;를 포함한다.In order to achieve the above object, an embodiment of the present invention provides a gesture recognition system, comprising: a camera unit for outputting a photographed image around a vehicle including distance information to an object in a Time of Flight (ToF) method; Generates 3D point cloud data based on the location of 3D points using accumulated data of past captured images through data sampling of the captured images, extracts basic features based on RANSAC (Random Sample Consensus), and the RANSAC based on the recognition of a box possessed by a person, recognition of a person, estimation of a recognized height of a person, and a human arm from the photographed image to determine an open gesture according to the angle of the arm, and control the operation of the tailgate according to the determination result a control unit outputting a signal; a data storage unit for storing the generated 3D point cloud data and RANSAC-based operation information; and a communication unit configured to transmit an operation signal of the tailgate to a vehicle control unit.
또한, 상기 실시 예에 따른 기본 특징은 제어부가 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립하고, 상기 수립된 모델과 근접한 데이터들의 개수가 많은 모델을 저장하며, 일정 회수 반복한 후 지지하는 데이터수가 가장 많은 모델을 최종 결과로 반환하는 것을 특징으로 한다.In addition, the basic feature according to the embodiment is that the controller establishes a model satisfying randomly extracted sample data based on RANSAC, stores a model with a large number of data close to the established model, and repeats a certain number of times. It is characterized by returning the model with the largest number of supported data as the final result.
또한, 상기 실시 예에 따른 박스 인식은 제어부가 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하며, 상기 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심의 일치 여부를 이용하여 박스로 인식하는 것을 특징으로 한다.In addition, in box recognition according to the embodiment, the control unit randomly extracts three points in space based on RANSAC, and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, It is characterized in that the center of gravity of the box is calculated through the three extracted points, and the box is recognized by using whether the centers match.
또한, 상기 실시 예에 따른 사람 인식은 제어부가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하여 거리가 가까울 수록 사람으로 인식하는 것을 특징으로 한다.In addition, in the human recognition according to the embodiment, the control unit detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, calculates the distance between the vertically projected point and the center point, and the distance is The closer it is, the more it is recognized as a human being.
또한, 상기 실시 예에 따른 제어부는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식하는 것을 특징으로 한다.In addition, the control unit according to the embodiment determines the highest point of the point extracted by RANSAC as the height of a person, measures the head width and the shoulder width based on the width from the highest point to a predetermined distance below, and the measured head width and If the shoulder width is within a certain range, it is characterized in that it is recognized as a person.
또한, 상기 실시 예에 따른 사람의 팔 인식은 제어부가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 거리가 가까울수록 팔로 인식하는 것을 특징으로 한다.In addition, the human arm recognition according to the embodiment is performed by the controller randomly extracting two points in space based on RANSAC, and calculating the distance between the reference straight line calculated based on the two extracted points and arbitrary points. It is characterized in that it is recognized as an arm as the distance increases.
또한, 상기 실시 예에 따른 제어부는 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 한다.In addition, the control unit according to the embodiment calculates an angle with the Y-axis by calculating the direction vector of the straight line with the vertical Z-axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, calculated in the past It is characterized in that the number of straight lines in the range of -45° to 0° is counted and if the relative angle is greater than a certain value, it is determined as an open gesture.
또한, 상기 실시 예에 따른 제어부는 테일 게이트가 열리는 중에 미리 설정된 각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 추가 출력하는 것을 특징으로 한다.In addition, the control unit according to the embodiment is characterized in that, when a predetermined number or more of points located below a preset angle are detected while the tailgate is being opened, it is determined as an obstacle and additionally outputs an operation stop signal of the tailgate.
또한, 본 발명의 일 실시 예에 따른 제스처 인식 방법은 a) 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110)를 통해 입력되는 촬영 이미지의 데이터를 분석하여 테일 게이트의 열림 제스처 신호를 감지하는 단계; 및 b) 상기 제어부가 테일 게이트의 개폐 상태를 감지하여 열리는 중이면 장애물 인식 단계;를 수행하고, 닫힌 상태면 제스처 및 박스 인식 단계;를 수행한다.In addition, in the gesture recognition method according to an embodiment of the present invention, a) a control unit is input through the
또한, 상기 실시 예에 따른 장애물 인식 단계는 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계; 상기 제어부가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계; 상기 제어부가 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정하고, 상기 ROI내에서 장애물을 검출하는 단계; 장애물이 검출되면, 상기 제어부가 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산하여 미리 설정된 기준값과 비교하는 단계; 및 상기 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부가 테일 게이터의 동작 정지 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of recognizing the obstacle according to the embodiment may include: receiving, by the controller, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method; generating, by the controller, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images; setting, by the controller, an upper region of the tail gate as a region of interest (ROI) and detecting an obstacle within the ROI; when an obstacle is detected, calculating, by the controller, an angle between the detected obstacle and the lower end of the tailgate and comparing it with a preset reference value; and outputting, by the controller, an operation stop signal of the tail gator when the calculated angle is less than or equal to a preset reference value.
또한, 상기 실시 예에 따른 제스처 및 박스 인식 단계는 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계; 상기 제어부가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계; 상기 제어부가 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색하는 단계; 및 상기 검색을 통해 박스가 인식되고 정지 상태로 판단되면, 상기 제어부가 테일 게이트의 개방 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of recognizing the gesture and the box according to the embodiment may include: receiving, by the controller, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method; generating, by the controller, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images; The control unit randomly extracts a basic feature and three points in space based on RANSAC (Random Sample Consensus), and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, searching for a box by using the center point of the box calculated through the extracted three points and whether the center point coincides with the center point; and outputting, by the controller, an open operation signal of the tailgate when the box is recognized through the search and determined to be in a stopped state.
또한, 상기 실시 예는 검색을 통해 박스가 미인식되거나 또는 정지상태가 아니면, 제어부가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색하는 단계; 상기 검색을 통해 사람이 검색되면, 제어부가 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산하는 단계; 상기 제어부가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색하는 단계; 및 상기 검색 결과 팔이 검색되면, 팔의 기울기 변화를 추적하여 열림 제스처를 인식하고, 인식 결과에 따라 상기 제어부가 테일 게이트의 개폐 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, in the above embodiment, if the box is not recognized or is not in a stationary state through the search, the control unit detects a circle having an arbitrary extraction point as the center point on the two-dimensional surface based on RANSAC, and the vertically projected point and searching for a person using points having a close distance between the center points; when a person is found through the search, calculating, by the controller, the highest point of the points extracted by RANSAC as the height of the person; The control unit randomly extracts two points in space based on RANSAC, calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, and searches for the arm based on the detected straight line. ; and when an arm is found as a result of the search, tracking a change in inclination of the arm to recognize an open gesture, and outputting, by the controller, an opening/closing operation signal of the tailgate according to the recognition result.
또한, 상기 실시 예에 따른 제어부는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 한다.In addition, the control unit according to the embodiment calculates an angle with the Y-axis by calculating the direction vector of the detected straight line with the vertical Z-axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, It is characterized in that the calculated relative angle counts the number of straight lines in the range of -45° to 0°, and determines as an open gesture if it is greater than or equal to a certain value.
본 발명은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있는 장점이 있다.The present invention has the advantage of recognizing a human gesture by recognizing a box possessed by a user, recognizing a person, estimating a recognized person's height, and recognizing a human arm based on RANSAC.
또한, 본 발명은 사용자의 제스처 인식과 장애물 인식을 통해 차량의 테일 게이트 개폐를 제어할 수 있는 장점이 있다.In addition, the present invention has the advantage of controlling the opening and closing of the tailgate of the vehicle through the user's gesture recognition and obstacle recognition.
도 1은 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 나타낸 블록도.
도 2는 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식 과정을 나타낸 흐름도.
도 3은 도 2의 실시 예에 따른 제스처 인식 과정에서 장애물 인식 과정을 나타낸 흐름도.
도 4는 도 2의 실시 예에 따른 제스처 인식 과정에서 박스 인식 과정을 나타낸 흐름도.
도 5는 도 2의 실시 예에 따른 제스처 인식 과정에서 사람 인식 과정을 나타낸 흐름도.
도 6 은 도 3 및 도 4의 실시 예에 따른 인식 과정에서 데이터 전처리 과정을 나타낸 예시도.
도 7은 도 4의 실시 예에서 박스 인식 과정을 설명하기 위하여 나타낸 예시도.
도 8은 도 5의 실시 예에서 사람 인식 과정을 설명하기 위하여 나타낸 예시도.
도 9는 도 5의 실시 예에서 팔 인식 과정을 설명하기 위하여 나타낸 예시도.1 is a block diagram illustrating a gesture recognition system according to an embodiment of the present invention.
2 is a flowchart illustrating a recognition process using a gesture recognition system according to an embodiment of the present invention.
3 is a flowchart illustrating an obstacle recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
4 is a flowchart illustrating a box recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
5 is a flowchart illustrating a human recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
6 is an exemplary diagram illustrating a data pre-processing process in the recognition process according to the embodiments of FIGS. 3 and 4 .
7 is an exemplary diagram illustrating a box recognition process in the embodiment of FIG. 4 .
FIG. 8 is an exemplary diagram illustrating a human recognition process in the embodiment of FIG. 5 .
9 is an exemplary view illustrating an arm recognition process in the embodiment of FIG. 5 .
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and the accompanying drawings.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing the specific contents for carrying out the present invention, it should be noted that components not directly related to the technical gist of the present invention are omitted within the scope of not disturbing the technical gist of the present invention.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in the present specification and claims have meanings and concepts consistent with the technical idea of the invention based on the principle that the inventor can define the concept of an appropriate term to best describe his invention. should be interpreted as
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In the present specification, the expression that a part "includes" a certain element does not exclude other elements, but means that other elements may be further included.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.Also, terms such as “… unit”, “… group”, and “… module” mean a unit that processes at least one function or operation, which may be divided into hardware, software, or a combination of the two.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. In addition, the term "at least one" is defined as a term including the singular and the plural, and even if the term "at least one" does not exist, each element may exist in the singular or plural, and may mean the singular or plural. will be self-evident.
또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, that each component is provided in singular or plural may be changed according to an embodiment.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 제스처 인식 시스템 및 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of a gesture recognition system and method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 제스처 인식 시스템(100)을 나타낸 블록도로서, 도 1에 나타낸 바와 같이 제스처 인식 시스템(100)은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있도록 카메라부(110)와, 제어부(120)와, 데이터 저장부(130)와, 통신부(140)와 전원부(150)를 포함하여 구성된다.1 is a block diagram showing a
상기 카메라부(110)는 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 구성으로서, 레이저나 적외선을 객체나 대상 영역에 비추어 되돌아오는 광선을 받아 시간 차이를 계산하는 TOF 방식으로 거리 정보를 계산한다. The
또한, 상기 카메라부(110)는 CCD 카메라 영상 화소 단위로 깊이 정보를 획득할 수 있고, 바람직하게는 깊이 카메라로 구성될 수 있다.Also, the
상기 제어부(120)는 카메라부(110)에서 출력되는 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력한다.The
상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 전처리 과정을 통해, 예를 들면, 320×240 해상도를 160×120 해상도로 16 bit 깊이 데이터로 샘플링하여 보관하고, 이전 이미지 프레임의 데이터를 누적하여 데이터 저장부(130)에 저장되도록 한다.Through a pre-processing process of generating 3D point cloud data based on the position of 3D points using accumulated data of past captured images through data sampling of the captured images, for example, 320 × 240 resolution to 160 × 120 resolution As 16-bit depth data is sampled and stored, and data of the previous image frame is accumulated and stored in the
또한, 상기 제어부(120)는 16bit 깊이 데이터가 유효 범위 안에 있는 경우, 해당 픽셀 위치의 빛 줄기 단위 벡터에 곱하여 3차원 위치를 계산하고, 최종적으로 도 6과 같은 3차원 포인트 클라우드 데이터를 생성한다.In addition, when the 16-bit depth data is within the effective range, the
또한, 상기 제어부(120)는 차량의 후측 범퍼 말단(끝)을 좌표계(오른손 좌표계)의 원점으로 하고, +X는 차량의 우측방향, +Y는 차량의 전측방향, +Z는 차량의 높이 방향으로 한다.In addition, the
또한, 상기 제어부(120)는 기본 특징을 추출하기 위해 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립한다.In addition, the
또한, 상기 제어부(120)는 수립된 모델과 근접한 데이터들의 개수가 이전 모델보다 많으면, 개수가 많은 생성 모델을 데이터 저장부(130)에 저장한다.In addition, if the number of data adjacent to the established model is greater than that of the previous model, the
또한, 상기 제어부(120)는 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델 수립을 일정 회수 반복한 후 지지하는 데이터수가 가장 많거나 또는 많았던 모델을 최종 결과로 반환한다.In addition, the
또한, 상기 제어부(120)는 박스 인식을 수행하기 위해 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출한다.In addition, the
또한, 상기 제어부(120)는 추출된 3개의 점을 이용하여 임의의 평면 방정식을 산출하고, 상기 평면 방정식을 통해 산출한 평면을 기준 평면으로 하여 모든 점들과 평면과의 거리를 계산한다.In addition, the
또한, 상기 제어부(120)는 도 7(a)에 나타낸 바와 같이 기준 평면과의 거리가 In Area 이하면 +1을 카운트하고, 기준 평면과의 거리가 Out Area 이하면 -2를 카운트한다.In addition, as shown in FIG. 7A , the
또한, 상기 제어부(120)는 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심점의 일치 여부를 이용하여 박스로 인식한다.In addition, the
즉, 상기 제어부(120)는 무게 중심과 X, Y, Z 방향 별 최소/최대 좌표의 중심을 계산하여 중심이 거의 일치하는 경우 도 7(b)에 적색으로 표시된 바와 같이 박스로 인식할 수 있다.That is, the
또한, 상기 제어부(120)는 박스로 판단된 경우, 사람의 인식 정확도가 증가될 수 있도록 상기 박스로 판단된 포인들을 리스트에서 제거할 수도 있다.Also, when it is determined that the box is a box, the
또한, 상기 제어부(120)는 사람 인식을 수행하기 위해 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하며, 거리가 가까울 수록 사람으로 인식할 수 있다.In addition, the
즉, 모든 포인트의 Z 좌표를 '0'으로 가정하고, 임의의 추출된 점을 중심으로 하는 원을 모델로 하여 XY 평면에 투영된 모든 점에 대하여 중심점과의 거리를 산출하고, 도 8(a)와 같이 중심점과의 거리가 IN 이하면 +1을 카운트하며, 중심점과의 거리기 OUT 이하면 -2를 카운트하여 산출된 값을 통해 도 8(b)와 같이 적색영역은 박스, 황색영역은 사람으로 판단할 수 있다.That is, assuming that the Z coordinates of all points are '0', using a circle centered on an arbitrary extracted point as a model, calculate the distance from the center point for all points projected on the XY plane, and Fig. 8(a) ), if the distance from the center point is IN or less, +1 is counted, and if the distance from the center point is OUT or less, -2 is counted. can be judged as
또한, 상기 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식할 수 있다.In addition, the
또한, 상기 제어부(120)는 사람 인식시에 사용하는 원의 반경이 큰 경우, 팔 부분까지 몸통으로 처리되어 제거될 수 있으므로 클러스터링에서 사용된 반경보다 좁은 범위만 몸통으로 인정하여 제거할 수도 있다.In addition, when the radius of the circle used for recognizing a person is large, the
또한, 상기 제어부(120)는 사람의 팔 인식을 수행하기 위해 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출한다.In addition, the
또한, 상기 제어부(120)는 추출된 2개의 점을 기반으로 직선 방정식을 도출하여 산출한 기준 직선과, 모든 점들과의 거리를 계산한다.In addition, the
즉, 상기 제어부(120)는 도 9(a)와 같이, 직선과의 거리가 IN 이하면 +1을 카운트하고, 직선과의 거리가 OUT 이하면 -2를 카운트하여 도 9(b)와 같이 녹색 영역의 팔을 인식한다.That is, the
또한, 상기 제어부(120)는 직선의 방향 벡터가 -Y방향을 포함하는 경우, 방향을 반전시켜 +Y방향으로 통일하고, 양팔의 인식을 위해 팔 영역의 포인트를 제거하여 다시 한 번 팔 인식을 수행할 수 있다.In addition, when the direction vector of the straight line includes the -Y direction, the
또한, 상기 제어부(120)는 제스처를 인식하기 위해, 과거 일정 개수의 이미지 프레임에 대하여 팔의 직선의 방향 벡터를 수직방향 Z축과 dot연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이면, 과거에 계산된 프레임 중에서 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하며, 상기 카운트된 값이 일정 값 이상이면 열림 제스처로 판단한다.In addition, in order to recognize the gesture, the
또한, 상기 제어부(120)는 테일 게이트가 열리는 중에 미리 설정된 각도, 예를 들면, 좌/우측으로 0.9m 범위이고, 후측으로 테일 게이트 길이×Cos 50°범위에서, 상기 50°각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 출력할 수 있다.In addition, the
상기 데이터 저장부(130)는 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 구성으로서, 메모리 등의 저장수단으로 구성될 수 있다.The
상기 통신부(140)는 제어부(120)로부터 출력되는 테일 게이트의 동작 신호를 차량 제어부(미도시)로 전송하는 구성으로서, CAN-Bus, 이더넷 등의 차량 통신 프로토롤을 이용할 수 있다.The
상기 전원부(150)는 제스처 인식 시스템(100)으로 동작용 전원을 공급한다.The
다음은 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식방법을 설명한다.The following describes a recognition method using a gesture recognition system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식 과정을 나타낸 흐름도이며, 도 3은 도 2의 실시 예에 따른 제스처 인식 과정에서 장애물 인식 과정을 나타낸 흐름도이고, 도 4는 도 2의 실시 예에 따른 제스처 인식 과정에서 박스 인식 과정을 나타낸 흐름도이며, 도 5는 도 2의 실시 예에 따른 제스처 인식 과정에서 사람 인식 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a recognition process using a gesture recognition system according to an embodiment of the present invention, FIG. 3 is a flowchart illustrating an obstacle recognition process in the gesture recognition process according to the embodiment of FIG. 2 , and FIG. 4 is FIG. is a flowchart illustrating a box recognition process in a gesture recognition process according to an embodiment, and FIG. 5 is a flowchart illustrating a human recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
도 1 내지 도 5에 나타낸 바와 같이, 제어부(120)는 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110)를 통해 입력되는 촬영 이미지의 데이터를 분석하여 테일 게이트의 열림 제스처 신호를 감지(S100)한다.1 to 5 , the
상기 S100 단계에서 제어부(120)가 테일 게이트의 개폐 상태를 감지(S200)하여 상기 테일 게이트가 열리는 중인지 판단(S300)한다.In step S100, the
상기 S300 단계에서 테일 게이트가 열리는 중이면 상기 제어부(120)는 장애물 인식 단계(S400)를 수행하고, 상기 테일 게이트가 닫힌 상태이면 제스처 및 박스 인식 단계(S500)를 수행한다.If the tailgate is being opened in step S300, the
상기 S400 단계는 제어부(120)가 ToF(Time of Flight) 방식의 카메라부(110)로부터 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신(S410)한다.In step S400, the
또한, 상기 제어부(120)는 S410 단계에서 수신된 촬영 이미지의 데이터 샘플링하는 데이터 전처리 과정(S420)을 수행하고, 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 3차원 재구축 단계(S430)를 수행한다.In addition, the
계속해서, 상기 제어부(120)는 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정(S440)하고, 상기 ROI내에서 장애물을 검출(S450)한다.Subsequently, the
상기 S450 단계에서 장애물이 검출되면, 상기 제어부(120)는 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산(S460)하고, 상기 계산된 각도를 미리 설정된 기준값과 비교(S470)한다.When an obstacle is detected in step S450, the
상기 S470 단계의 비교 결과, 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부(120)는 통신부(140)를 통해 차량 제어부로 테일 게이터의 동작 정지 신호를 출력(S480)한다.As a result of the comparison in step S470 , if the calculated angle is less than or equal to a preset reference value, the
상기 S500 단계는 제어부(120)가 ToF(Time of Flight) 방식의 카메라부(110)로부터 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신(S510)한다.In step S500, the
또한, 상기 제어부(120)는 S510 단계에서 수신된 촬영 이미지의 데이터 샘플링하는 데이터 전처리 과정(S520)을 수행하고, 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 3차원 재구축 단계(S530)를 수행한다.In addition, the
계속해서, 상기 제어부(120)는 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색(S540)한다.Subsequently, the
상기 S540 단계의 검색을 통해 박스 인식을 성공(S550)하면, 상기 제어부(120)는 정지 상태인지 판단(S560)한다.If box recognition is successful through the search in step S540 (S550), the
상기 S560 단계의 판단 결가, 정지 상태이면, 상기 제어부(120)는 통신부(140)를 통해 테일 게이트의 개방 동작 신호를 출력(S570)한다.If the determination result of step S560 is a stop state, the
한편, 상기 S540 단계의 검색을 통해 박스가 미인식되거나 또는 S560 단계에서 정지상태가 아니면, 제어부(120)는 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색(S510')한다.On the other hand, if the box is not recognized through the search in step S540 or is not in a stationary state in step S560, the
상기 S510' 단계의 검색을 통해 사람 인식을 성공(S520')하면, 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산(S530')한다.If the human recognition is successful through the search in step S510' (S520'), the
또한, 상기 제어부(120)는 사람 인식시에 몸통영역을 제거(S540')할 수도 있다.In addition, the
계속해서, 상기 제어부(120)는 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색(S550')한다.Subsequently, the
상기 S550' 단계의 검색 결과 팔 인식에 성공했는지 판단(S560')하고, 팔 인식에 성공하면, 팔 영역을 제거(S561')하고, 상기 S550' 단계를 일정 회수 반복 수행한다.As a result of the search in step S550', it is determined whether arm recognition is successful (S560'), and if the arm recognition is successful, the arm area is removed (S561'), and the step S550' is repeated a predetermined number of times.
또한, 상기 S560' 단계에서 팔이 인식되지 않으면, 상기 제어부(120)는 팔의 기울기 변화를 추적(S570')하여 열림 제스처를 인식을 수행하고, 제스처 인식이 성공하였는지 판단(S580')한다.In addition, if the arm is not recognized in step S560', the
상기 열림 제스처는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 예를 들면, 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단한다.The open gesture calculates an angle with the Y axis by calculating the direction vector of the detected straight line with the vertical Z axis, and the most recent angle of the calculated angle is, for example, in the range of 0° to 60°, If the calculated relative angle counts the number of straight lines in the range of -45° to 0° and exceeds a certain value, it is determined as an open gesture.
상기 S580' 단계의 인식 결과, 제스처 인식에 성공하면 상기 제어부(120)가 통신부(140)를 통해 차량 제어부(미도시)로 테일 게이트의 개폐 동작 신호를 출력(S590')하여 테일 게이트가 개방되도록 한다.As a result of the recognition in step S580', if the gesture recognition is successful, the
따라서, RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있고, 사용자의 제스처 인식과 장애물 인식을 통해 차량의 테일 게이트 개폐를 제어할 수 있게 된다.Therefore, based on RANSAC, it is possible to recognize a human gesture by recognizing a box possessed by the user, recognizing a person, estimating the height of a recognized person, and recognizing a human arm. It becomes possible to control the opening and closing of the gate.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In addition, the reference numbers described in the claims of the present invention are only described for clarity and convenience of description, and are not limited thereto, and in the process of describing the embodiment, the thickness of the lines shown in the drawings or the size of components, etc. may be exaggerated for clarity and convenience of explanation.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the above-mentioned terms are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of the user or operator, so the interpretation of these terms should be made based on the content throughout this specification. .
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. In addition, even if it is not explicitly shown or described, a person of ordinary skill in the art to which the present invention pertains can make various modifications including the technical idea according to the present invention from the description of the present invention. Obviously, this still falls within the scope of the present invention.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.In addition, the above embodiments described with reference to the accompanying drawings have been described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.
100 : 제스처 인식 시스템.
110 : 카메라부
120 : 제어부
130 : 데이터 저장부
140 : 통신부
150 : 전원부100: Gesture recognition system.
110: camera unit
120: control unit
130: data storage unit
140: communication department
150: power unit
Claims (13)
상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력하는 제어부(120);
상기 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 데이터 저장부(130); 및
상기 테일 게이트의 동작 신호를 차량 제어부로 전송하는 통신부(140);를 포함하는 제스처 인식 시스템.a camera unit 110 for outputting a photographed image around a vehicle including distance information to an object in a Time of Flight (ToF) method;
Generates 3D point cloud data based on the location of 3D points using accumulated data of past captured images through data sampling of the captured images, extracts basic features based on RANSAC (Random Sample Consensus), and the RANSAC based on the recognition of a box possessed by a person, recognition of a person, estimation of a recognized height of a person, and a human arm from the photographed image to determine an open gesture according to the angle of the arm, and control the operation of the tailgate according to the determination result a control unit 120 for outputting a signal;
a data storage unit 130 for storing the generated three-dimensional point cloud data and RANSAC-based operation information; and
and a communication unit 140 that transmits an operation signal of the tailgate to a vehicle control unit.
상기 기본 특징은 제어부(120)가 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립하고, 상기 수립된 모델과 근접한 데이터들의 개수가 많은 모델을 저장하며, 일정 회수 반복한 후 지지하는 데이터수가 가장 많은 모델을 최종 결과로 반환하는 것을 특징으로 하는 제스처 인식 시스템.The method of claim 1,
The basic feature is that the controller 120 establishes a model satisfying randomly extracted sample data based on RANSAC, stores a model with a large number of data close to the established model, and repeats a predetermined number of times and then supports data A gesture recognition system, characterized in that the model with the largest number is returned as the final result.
상기 박스 인식은 제어부(120)가 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하며, 상기 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심의 일치 여부를 이용하여 박스로 인식하는 것을 특징으로 하는 제스처 인식 시스템.3. The method of claim 2,
In the box recognition, the control unit 120 randomly extracts three points in space based on RANSAC, calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, and the extracted A gesture recognition system, characterized in that by calculating the center of gravity of the box through three points, and recognizing it as a box using whether the centers match.
상기 사람 인식은 제어부(120)가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하여 상기 거리가 가까울수록 사람으로 인식하는 것을 특징으로 하는 제스처 인식 시스템.4. The method of claim 3,
In the recognition of the person, the control unit 120 detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, and calculates the distance between the vertically projected point and the center point. A gesture recognition system, characterized in that it recognizes a person.
상기 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식하는 것을 특징으로 하는 제스처 인식 시스템.5. The method of claim 4,
The control unit 120 determines the highest point of the point extracted by RANSAC as the height of the person, measures the head width and shoulder width based on the width from the highest point to a certain distance below, and the measured head width and shoulder width are Gesture recognition system, characterized in that the recognition as a human within a certain range.
상기 사람의 팔 인식은 제어부(120)가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 거리가 가까울수록 팔로 인식하는 것을 특징으로 하는 제스처 인식 시스템.6. The method of claim 5,
In the recognition of the human arm, the controller 120 randomly extracts two points in space based on RANSAC, and calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, so that the distance is close. Gesture recognition system, characterized in that it recognizes the recorded arm.
상기 제어부(120)는 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 하는 제스처 인식 시스템.7. The method of claim 6,
The control unit 120 calculates the angle with the Y axis by calculating the direction vector of the straight line with the Z axis in the vertical direction, and the most recent angle of the calculated angle is in the range of 0° to 60°, and the relative angle calculated in the past A gesture recognition system, characterized in that by counting the number of straight lines in the range of -45° to 0°, and determining it as an open gesture if it exceeds a certain value.
상기 제어부(120)는 테일 게이트가 열리는 중에 미리 설정된 각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 추가 출력하는 것을 특징으로 하는 제스처 인식 시스템.8. The method of claim 7,
The control unit 120 determines that an obstacle is an obstacle and additionally outputs an operation stop signal of the tailgate when a predetermined number of points located below a preset angle are detected while the tailgate is being opened.
b) 상기 제어부(120)가 테일 게이트의 개폐 상태를 감지하여 열리는 중이면 장애물 인식 단계;를 수행하고, 닫힌 상태면 제스처 및 박스 인식 단계;를 수행하는 제스처 인식 방법.a) The control unit 120 analyzes data of a captured image input through the camera unit 110 that outputs a captured image around the vehicle including distance information to an object in a Time of Flight (ToF) method to open the tailgate detecting a gesture signal; and
b) the control unit 120 detects the open/closed state of the tailgate and performs an obstacle recognition step if the tailgate is being opened, and a gesture and box recognition step if the tailgate is closed.
상기 장애물 인식 단계는 제어부(120)가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계;
상기 제어부(120)가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계;
상기 제어부(120)가 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정하고, 상기 ROI내에서 장애물을 검출하는 단계;
장애물이 검출되면, 상기 제어부(120)가 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산하여 미리 설정된 기준값과 비교하는 단계; 및
상기 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부(120)가 테일 게이터의 동작 정지 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.10. The method of claim 9,
The step of recognizing the obstacle may include: receiving, by the controller 120, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method;
generating, by the controller 120, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images;
setting, by the controller 120, an upper region of the tailgate as a region of interest (ROI), and detecting an obstacle within the ROI;
when an obstacle is detected, the controller 120 calculating an angle between the detected obstacle and the lower end of the tailgate and comparing it with a preset reference value; and
and outputting, by the controller 120, an operation stop signal of the tail gator when the calculated angle is less than or equal to a preset reference value.
상기 제스처 및 박스 인식 단계는 제어부(120)가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계;
상기 제어부(120)가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계;
상기 제어부(120)가 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색하는 단계; 및
상기 검색을 통해 박스가 인식되고 정지 상태로 판단되면, 상기 제어부(120)가 테일 게이트의 개방 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.10. The method of claim 9,
The gesture and box recognition step may include: receiving, by the controller 120, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method;
generating, by the controller 120, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images;
The control unit 120 randomly extracts three points in space and a basic feature based on RANSAC (Random Sample Consensus), and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points. retrieving a box using the center of gravity of the box calculated through the three extracted points and whether the center point coincides with each other; and
and outputting, by the control unit 120, a tailgate opening operation signal when the box is recognized through the search and determined to be in a stationary state.
상기 검색을 통해 박스가 미인식되거나 또는 정지상태가 아니면, 제어부(120)가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색하는 단계;
상기 검색을 통해 사람이 검색되면, 제어부(120)가 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산하는 단계;
상기 제어부(120)가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색하는 단계; 및
상기 검색 결과 팔이 검색되면, 팔의 기울기 변화를 추적하여 열림 제스처를 인식하고, 인식 결과에 따라 상기 제어부(120)가 테일 게이트의 개폐 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.12. The method of claim 11,
If the box is not recognized or is not in a stationary state through the search, the controller 120 detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, and the vertically projected point and the center point searching for a person using points having a close distance therebetween;
when a person is found through the search, calculating, by the controller 120, the highest point of the points extracted by RANSAC as the height of the person;
The control unit 120 randomly extracts two points in space based on RANSAC, calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, and moves the arm based on the detected straight line. searching; and
and, if the arm is found as a result of the search, tracking a change in inclination of the arm to recognize an opening gesture, and outputting, by the controller 120, a tailgate opening/closing operation signal according to the recognition result; Recognition method.
상기 제어부(120)는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 하는 제스처 인식 방법.13. The method of claim 12,
The control unit 120 calculates an angle with the Y axis by calculating the direction vector of the detected straight line with the vertical Z axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, A gesture recognition method, characterized in that by counting the number of straight lines with a relative angle in the range of -45° to 0°, and determining as an open gesture if it is greater than a certain value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200010784A KR20210097291A (en) | 2020-01-30 | 2020-01-30 | System and method for recognizing gestures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200010784A KR20210097291A (en) | 2020-01-30 | 2020-01-30 | System and method for recognizing gestures |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210097291A true KR20210097291A (en) | 2021-08-09 |
Family
ID=77313252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200010784A KR20210097291A (en) | 2020-01-30 | 2020-01-30 | System and method for recognizing gestures |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210097291A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150007407A (en) | 2013-07-10 | 2015-01-21 | (주) 모토텍 | System for controlling power trunk or power tailgate |
-
2020
- 2020-01-30 KR KR1020200010784A patent/KR20210097291A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150007407A (en) | 2013-07-10 | 2015-01-21 | (주) 모토텍 | System for controlling power trunk or power tailgate |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7308112B2 (en) | Sign based human-machine interaction | |
JP4546956B2 (en) | Target orientation estimation using depth detection | |
US7340100B2 (en) | Posture recognition apparatus and autonomous robot | |
GB2579539A (en) | Vehicle controller | |
JP6207089B2 (en) | Vehicle door control device | |
US20050134117A1 (en) | Interface for car-mounted devices | |
CN109389766A (en) | User's identifying system and method for autonomous vehicle | |
US20040190754A1 (en) | Image transmission system for a mobile robot | |
KR101464446B1 (en) | Method for user vertification using face recognition and head pose estimation and apparatus thereof | |
JP5001930B2 (en) | Motion recognition apparatus and method | |
US20210248400A1 (en) | Operator Behavior Recognition System | |
KR100554129B1 (en) | System and method for authenticating person using human body's heat | |
JP7147259B2 (en) | In-vehicle device, control method for in-vehicle device, and preliminary motion estimation system | |
CN109594880A (en) | Control method and apparatus, storage medium and the vehicle of vehicle trunk | |
JP2021110199A (en) | Vehicle control system and method of operating opening/closing body | |
CN111216122A (en) | Gripping robot and control program for gripping robot | |
KR20210097291A (en) | System and method for recognizing gestures | |
WO2024032026A1 (en) | Method and system for automatically opening trunk, storage medium, and electronic device | |
CN111038447B (en) | Device and method for controlling a vehicle | |
KR20140111138A (en) | System and method for operating tail gate | |
KR20200076972A (en) | Apparatus, method and computer program for opening and closing door of vehicle | |
JP2015014119A (en) | Vehicle door operation apparatus | |
Huang et al. | Driver head pose and view estimation with single omnidirectional video stream | |
CN111507225A (en) | Intelligent following system and method | |
US20210286973A1 (en) | Facial recognition system for a vehicle technical field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |