KR20210097291A - System and method for recognizing gestures - Google Patents

System and method for recognizing gestures Download PDF

Info

Publication number
KR20210097291A
KR20210097291A KR1020200010784A KR20200010784A KR20210097291A KR 20210097291 A KR20210097291 A KR 20210097291A KR 1020200010784 A KR1020200010784 A KR 1020200010784A KR 20200010784 A KR20200010784 A KR 20200010784A KR 20210097291 A KR20210097291 A KR 20210097291A
Authority
KR
South Korea
Prior art keywords
points
control unit
tailgate
ransac
recognition
Prior art date
Application number
KR1020200010784A
Other languages
Korean (ko)
Inventor
강세진
박재홍
Original Assignee
주식회사 와이즈오토모티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이즈오토모티브 filed Critical 주식회사 와이즈오토모티브
Priority to KR1020200010784A priority Critical patent/KR20210097291A/en
Publication of KR20210097291A publication Critical patent/KR20210097291A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/305Detection related to theft or to other events relevant to anti-theft systems using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/34Detection related to theft or to other events relevant to anti-theft systems of conditions of vehicle components, e.g. of windows, door locks or gear selectors
    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a gesture recognition system and a method thereof. According to the present invention, based on RANSAC, human gestures can be recognized using box recognition, person recognition, estimation of a height of a recognized person, and a human arm recognition technology. The gesture recognition system of the present invention comprises: a camera unit (110); a control unit (120); a data storage unit (130); and a communication unit (140).

Description

제스처 인식 시스템 및 방법{SYSTEM AND METHOD FOR RECOGNIZING GESTURES}Gesture recognition system and method

본 발명은 제스처 인식 시스템 및 방법에 관한 발명으로서, 더욱 상세하게는 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔 인식 기술을 이용한 제스처 인식 시스템 및 방법에 관한 것이다.The present invention relates to a gesture recognition system and method, and more particularly, a gesture recognition system and method using RANSAC-based box recognition, person recognition, and height estimation of a recognized person and human arm recognition technology. is about

일반적으로 자동차의 후면부를 이루는 트렁크에는 일반 소화물 및 비상용 작업공구, 스페어 타이어 등이 보관되어 있다.In general, in the trunk constituting the rear part of the vehicle, general luggage, emergency work tools, spare tires, and the like are stored.

또한 사고 발생시를 대비하여 구급상자 등이 보관되어 있으며, 이러한 트렁크 룸을 덮고 있는 것을 트렁크 리드라고 부른다.In addition, in case of an accident, a first aid kit is stored, and the thing covering the trunk room is called a trunk lid.

트렁크 리드는 트렁크 락장치에 의하여 단속되는데, 이러한 락장치를 해제하기만 하면 적은 힘으로도 쉽게 트렁크 리드가 올라가도록 힌지장치가 구비되어 있다.The trunk lid is controlled by the trunk lock device, and a hinge device is provided so that the trunk lid can be easily raised with little force as long as the lock device is released.

최근에는 트렁크 리드가 운전석에서 간단한 스위치 조작만 하면 자동으로 열리거나 닫히게 할 수 있는 파워 트렁크/파워 테일게이트 자동개폐장치가 개발되어 있다.Recently, a power trunk/power tailgate automatic opening/closing device that can automatically open or close the trunk lid by simply operating a switch from the driver's seat has been developed.

일반적인 파워 테일게이트 제어 시스템에서 외부에 위치한 테일게이트 버튼이나 무선 도어 잠금 장치(Remote Keyless Entry, RKE)의 원격제어를 통해 자동으로 파워 테일게이트를 개방하거나 닫는 동작을 수행한다. In a general power tailgate control system, it automatically opens or closes the power tailgate through a tailgate button located outside or remote control of a wireless door lock (Remote Keyless Entry, RKE).

또한, 종래의 파워 테일게이트 제어 시스템은 파워 테일게이트의 잠금 및 잠금해제 기능도 수행할 수 있다.In addition, the conventional power tailgate control system may also perform locking and unlocking functions of the power tailgate.

그러나, 종래 기술에 따른 파워 테일게이트 제어 시스템은 사용자가 물건을 들고 있다거나, 양손이 자유롭지 못한 경우 물건을 내려놓고, 버튼을 눌러 트렁크/테일게이트를 개방시켜야 하므로 사용자의 입장에서 이러한 과정은 편의성을 저하시키는 문제점이 있다.However, in the power tailgate control system according to the prior art, when the user is holding an object or both hands are not free, the user must put down the object and press a button to open the trunk/tailgate, so this process is convenient from the user's point of view. There is a problem of lowering.

한국 공개특허공보 공개번호 제10-2015-0007407호(발명의 명칭: 파워 트렁크 또는 파워 테일게이트 제어 시스템)Korean Patent Laid-Open Publication No. 10-2015-0007407 (Title of the Invention: Power Trunk or Power Tailgate Control System)

이러한 문제점을 해결하기 위하여, 본 발명은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔 인식 기술을 이용한 제스처 인식 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, an object of the present invention is to provide a gesture recognition system and method using RANSAC-based box recognition, person recognition, and height estimation of a recognized person and human arm recognition technology. .

상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 제스처 인식 시스템 으로서, ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부; 상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력하는 제어부; 상기 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 데이터 저장부; 및 상기 테일 게이트의 동작 신호를 차량 제어부로 전송하는 통신부;를 포함한다.In order to achieve the above object, an embodiment of the present invention provides a gesture recognition system, comprising: a camera unit for outputting a photographed image around a vehicle including distance information to an object in a Time of Flight (ToF) method; Generates 3D point cloud data based on the location of 3D points using accumulated data of past captured images through data sampling of the captured images, extracts basic features based on RANSAC (Random Sample Consensus), and the RANSAC based on the recognition of a box possessed by a person, recognition of a person, estimation of a recognized height of a person, and a human arm from the photographed image to determine an open gesture according to the angle of the arm, and control the operation of the tailgate according to the determination result a control unit outputting a signal; a data storage unit for storing the generated 3D point cloud data and RANSAC-based operation information; and a communication unit configured to transmit an operation signal of the tailgate to a vehicle control unit.

또한, 상기 실시 예에 따른 기본 특징은 제어부가 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립하고, 상기 수립된 모델과 근접한 데이터들의 개수가 많은 모델을 저장하며, 일정 회수 반복한 후 지지하는 데이터수가 가장 많은 모델을 최종 결과로 반환하는 것을 특징으로 한다.In addition, the basic feature according to the embodiment is that the controller establishes a model satisfying randomly extracted sample data based on RANSAC, stores a model with a large number of data close to the established model, and repeats a certain number of times. It is characterized by returning the model with the largest number of supported data as the final result.

또한, 상기 실시 예에 따른 박스 인식은 제어부가 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하며, 상기 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심의 일치 여부를 이용하여 박스로 인식하는 것을 특징으로 한다.In addition, in box recognition according to the embodiment, the control unit randomly extracts three points in space based on RANSAC, and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, It is characterized in that the center of gravity of the box is calculated through the three extracted points, and the box is recognized by using whether the centers match.

또한, 상기 실시 예에 따른 사람 인식은 제어부가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하여 거리가 가까울 수록 사람으로 인식하는 것을 특징으로 한다.In addition, in the human recognition according to the embodiment, the control unit detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, calculates the distance between the vertically projected point and the center point, and the distance is The closer it is, the more it is recognized as a human being.

또한, 상기 실시 예에 따른 제어부는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식하는 것을 특징으로 한다.In addition, the control unit according to the embodiment determines the highest point of the point extracted by RANSAC as the height of a person, measures the head width and the shoulder width based on the width from the highest point to a predetermined distance below, and the measured head width and If the shoulder width is within a certain range, it is characterized in that it is recognized as a person.

또한, 상기 실시 예에 따른 사람의 팔 인식은 제어부가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 거리가 가까울수록 팔로 인식하는 것을 특징으로 한다.In addition, the human arm recognition according to the embodiment is performed by the controller randomly extracting two points in space based on RANSAC, and calculating the distance between the reference straight line calculated based on the two extracted points and arbitrary points. It is characterized in that it is recognized as an arm as the distance increases.

또한, 상기 실시 예에 따른 제어부는 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 한다.In addition, the control unit according to the embodiment calculates an angle with the Y-axis by calculating the direction vector of the straight line with the vertical Z-axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, calculated in the past It is characterized in that the number of straight lines in the range of -45° to 0° is counted and if the relative angle is greater than a certain value, it is determined as an open gesture.

또한, 상기 실시 예에 따른 제어부는 테일 게이트가 열리는 중에 미리 설정된 각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 추가 출력하는 것을 특징으로 한다.In addition, the control unit according to the embodiment is characterized in that, when a predetermined number or more of points located below a preset angle are detected while the tailgate is being opened, it is determined as an obstacle and additionally outputs an operation stop signal of the tailgate.

또한, 본 발명의 일 실시 예에 따른 제스처 인식 방법은 a) 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110)를 통해 입력되는 촬영 이미지의 데이터를 분석하여 테일 게이트의 열림 제스처 신호를 감지하는 단계; 및 b) 상기 제어부가 테일 게이트의 개폐 상태를 감지하여 열리는 중이면 장애물 인식 단계;를 수행하고, 닫힌 상태면 제스처 및 박스 인식 단계;를 수행한다.In addition, in the gesture recognition method according to an embodiment of the present invention, a) a control unit is input through the camera unit 110 that outputs a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method. detecting a tailgate opening gesture signal by analyzing data of the captured image; and b) the control unit detects the open/closed state of the tailgate, and performs an obstacle recognition step if the tailgate is being opened, and performs a gesture and box recognition step if the tailgate is in a closed state.

또한, 상기 실시 예에 따른 장애물 인식 단계는 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계; 상기 제어부가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계; 상기 제어부가 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정하고, 상기 ROI내에서 장애물을 검출하는 단계; 장애물이 검출되면, 상기 제어부가 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산하여 미리 설정된 기준값과 비교하는 단계; 및 상기 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부가 테일 게이터의 동작 정지 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of recognizing the obstacle according to the embodiment may include: receiving, by the controller, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method; generating, by the controller, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images; setting, by the controller, an upper region of the tail gate as a region of interest (ROI) and detecting an obstacle within the ROI; when an obstacle is detected, calculating, by the controller, an angle between the detected obstacle and the lower end of the tailgate and comparing it with a preset reference value; and outputting, by the controller, an operation stop signal of the tail gator when the calculated angle is less than or equal to a preset reference value.

또한, 상기 실시 예에 따른 제스처 및 박스 인식 단계는 제어부가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계; 상기 제어부가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계; 상기 제어부가 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색하는 단계; 및 상기 검색을 통해 박스가 인식되고 정지 상태로 판단되면, 상기 제어부가 테일 게이트의 개방 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of recognizing the gesture and the box according to the embodiment may include: receiving, by the controller, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method; generating, by the controller, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images; The control unit randomly extracts a basic feature and three points in space based on RANSAC (Random Sample Consensus), and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, searching for a box by using the center point of the box calculated through the extracted three points and whether the center point coincides with the center point; and outputting, by the controller, an open operation signal of the tailgate when the box is recognized through the search and determined to be in a stopped state.

또한, 상기 실시 예는 검색을 통해 박스가 미인식되거나 또는 정지상태가 아니면, 제어부가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색하는 단계; 상기 검색을 통해 사람이 검색되면, 제어부가 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산하는 단계; 상기 제어부가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색하는 단계; 및 상기 검색 결과 팔이 검색되면, 팔의 기울기 변화를 추적하여 열림 제스처를 인식하고, 인식 결과에 따라 상기 제어부가 테일 게이트의 개폐 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 한다.In addition, in the above embodiment, if the box is not recognized or is not in a stationary state through the search, the control unit detects a circle having an arbitrary extraction point as the center point on the two-dimensional surface based on RANSAC, and the vertically projected point and searching for a person using points having a close distance between the center points; when a person is found through the search, calculating, by the controller, the highest point of the points extracted by RANSAC as the height of the person; The control unit randomly extracts two points in space based on RANSAC, calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, and searches for the arm based on the detected straight line. ; and when an arm is found as a result of the search, tracking a change in inclination of the arm to recognize an open gesture, and outputting, by the controller, an opening/closing operation signal of the tailgate according to the recognition result.

또한, 상기 실시 예에 따른 제어부는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 한다.In addition, the control unit according to the embodiment calculates an angle with the Y-axis by calculating the direction vector of the detected straight line with the vertical Z-axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, It is characterized in that the calculated relative angle counts the number of straight lines in the range of -45° to 0°, and determines as an open gesture if it is greater than or equal to a certain value.

본 발명은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있는 장점이 있다.The present invention has the advantage of recognizing a human gesture by recognizing a box possessed by a user, recognizing a person, estimating a recognized person's height, and recognizing a human arm based on RANSAC.

또한, 본 발명은 사용자의 제스처 인식과 장애물 인식을 통해 차량의 테일 게이트 개폐를 제어할 수 있는 장점이 있다.In addition, the present invention has the advantage of controlling the opening and closing of the tailgate of the vehicle through the user's gesture recognition and obstacle recognition.

도 1은 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 나타낸 블록도.
도 2는 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식 과정을 나타낸 흐름도.
도 3은 도 2의 실시 예에 따른 제스처 인식 과정에서 장애물 인식 과정을 나타낸 흐름도.
도 4는 도 2의 실시 예에 따른 제스처 인식 과정에서 박스 인식 과정을 나타낸 흐름도.
도 5는 도 2의 실시 예에 따른 제스처 인식 과정에서 사람 인식 과정을 나타낸 흐름도.
도 6 은 도 3 및 도 4의 실시 예에 따른 인식 과정에서 데이터 전처리 과정을 나타낸 예시도.
도 7은 도 4의 실시 예에서 박스 인식 과정을 설명하기 위하여 나타낸 예시도.
도 8은 도 5의 실시 예에서 사람 인식 과정을 설명하기 위하여 나타낸 예시도.
도 9는 도 5의 실시 예에서 팔 인식 과정을 설명하기 위하여 나타낸 예시도.
1 is a block diagram illustrating a gesture recognition system according to an embodiment of the present invention.
2 is a flowchart illustrating a recognition process using a gesture recognition system according to an embodiment of the present invention.
3 is a flowchart illustrating an obstacle recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
4 is a flowchart illustrating a box recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
5 is a flowchart illustrating a human recognition process in the gesture recognition process according to the embodiment of FIG. 2 .
6 is an exemplary diagram illustrating a data pre-processing process in the recognition process according to the embodiments of FIGS. 3 and 4 .
7 is an exemplary diagram illustrating a box recognition process in the embodiment of FIG. 4 .
FIG. 8 is an exemplary diagram illustrating a human recognition process in the embodiment of FIG. 5 .
9 is an exemplary view illustrating an arm recognition process in the embodiment of FIG. 5 .

이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and the accompanying drawings.

본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing the specific contents for carrying out the present invention, it should be noted that components not directly related to the technical gist of the present invention are omitted within the scope of not disturbing the technical gist of the present invention.

또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in the present specification and claims have meanings and concepts consistent with the technical idea of the invention based on the principle that the inventor can define the concept of an appropriate term to best describe his invention. should be interpreted as

본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In the present specification, the expression that a part "includes" a certain element does not exclude other elements, but means that other elements may be further included.

또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.Also, terms such as “… unit”, “… group”, and “… module” mean a unit that processes at least one function or operation, which may be divided into hardware, software, or a combination of the two.

또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. In addition, the term "at least one" is defined as a term including the singular and the plural, and even if the term "at least one" does not exist, each element may exist in the singular or plural, and may mean the singular or plural. will be self-evident.

또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, that each component is provided in singular or plural may be changed according to an embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 제스처 인식 시스템 및 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of a gesture recognition system and method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 제스처 인식 시스템(100)을 나타낸 블록도로서, 도 1에 나타낸 바와 같이 제스처 인식 시스템(100)은 RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있도록 카메라부(110)와, 제어부(120)와, 데이터 저장부(130)와, 통신부(140)와 전원부(150)를 포함하여 구성된다.1 is a block diagram showing a gesture recognition system 100 according to an embodiment of the present invention. As shown in FIG. 1 , the gesture recognition system 100 recognizes a box possessed by a user based on RANSAC, recognizes a person, A camera unit 110 , a control unit 120 , a data storage unit 130 , a communication unit 140 , and a power supply unit 150 to recognize a human gesture by estimating the recognized height of a person and recognizing a human arm ) is included.

상기 카메라부(110)는 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 구성으로서, 레이저나 적외선을 객체나 대상 영역에 비추어 되돌아오는 광선을 받아 시간 차이를 계산하는 TOF 방식으로 거리 정보를 계산한다. The camera unit 110 is configured to output a photographed image around the vehicle including distance information to the object in a Time of Flight (ToF) method. The distance information is calculated by the TOF method for calculating .

또한, 상기 카메라부(110)는 CCD 카메라 영상 화소 단위로 깊이 정보를 획득할 수 있고, 바람직하게는 깊이 카메라로 구성될 수 있다.Also, the camera unit 110 may acquire depth information in units of pixels of a CCD camera image, and may preferably be configured as a depth camera.

상기 제어부(120)는 카메라부(110)에서 출력되는 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력한다.The control unit 120 generates 3D point cloud data based on the location of 3D points using accumulated data of past captured images through data sampling of captured images output from the camera unit 110, and RANSAC (Random Sample) Consensus) and extracts basic features based on the RANSAC, and recognizes a box possessed by a person from the photographed image, recognizes a person, estimates the height of a recognized person, recognizes a person's arm , and outputs an operation control signal of the tailgate according to the determination result.

상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 전처리 과정을 통해, 예를 들면, 320×240 해상도를 160×120 해상도로 16 bit 깊이 데이터로 샘플링하여 보관하고, 이전 이미지 프레임의 데이터를 누적하여 데이터 저장부(130)에 저장되도록 한다.Through a pre-processing process of generating 3D point cloud data based on the position of 3D points using accumulated data of past captured images through data sampling of the captured images, for example, 320 × 240 resolution to 160 × 120 resolution As 16-bit depth data is sampled and stored, and data of the previous image frame is accumulated and stored in the data storage unit 130 .

또한, 상기 제어부(120)는 16bit 깊이 데이터가 유효 범위 안에 있는 경우, 해당 픽셀 위치의 빛 줄기 단위 벡터에 곱하여 3차원 위치를 계산하고, 최종적으로 도 6과 같은 3차원 포인트 클라우드 데이터를 생성한다.In addition, when the 16-bit depth data is within the effective range, the controller 120 calculates the 3D position by multiplying the light stem unit vector of the pixel position, and finally generates 3D point cloud data as shown in FIG. 6 .

또한, 상기 제어부(120)는 차량의 후측 범퍼 말단(끝)을 좌표계(오른손 좌표계)의 원점으로 하고, +X는 차량의 우측방향, +Y는 차량의 전측방향, +Z는 차량의 높이 방향으로 한다.In addition, the control unit 120 takes the end (end) of the rear bumper of the vehicle as the origin of the coordinate system (right-hand coordinate system), +X is the right direction of the vehicle, +Y is the front direction of the vehicle, +Z is the height direction of the vehicle do it with

또한, 상기 제어부(120)는 기본 특징을 추출하기 위해 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립한다.In addition, the controller 120 establishes a model that satisfies randomly extracted sample data based on RANSAC in order to extract basic features.

또한, 상기 제어부(120)는 수립된 모델과 근접한 데이터들의 개수가 이전 모델보다 많으면, 개수가 많은 생성 모델을 데이터 저장부(130)에 저장한다.In addition, if the number of data adjacent to the established model is greater than that of the previous model, the controller 120 stores a large number of generated models in the data storage unit 130 .

또한, 상기 제어부(120)는 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델 수립을 일정 회수 반복한 후 지지하는 데이터수가 가장 많거나 또는 많았던 모델을 최종 결과로 반환한다.In addition, the control unit 120 repeats the establishment of a model satisfying the randomly extracted sample data based on the RANSAC a predetermined number of times, and then returns the model with the largest number or the largest number of supported data as a final result.

또한, 상기 제어부(120)는 박스 인식을 수행하기 위해 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출한다.In addition, the control unit 120 randomly extracts three points in space based on RANSAC to perform box recognition.

또한, 상기 제어부(120)는 추출된 3개의 점을 이용하여 임의의 평면 방정식을 산출하고, 상기 평면 방정식을 통해 산출한 평면을 기준 평면으로 하여 모든 점들과 평면과의 거리를 계산한다.In addition, the control unit 120 calculates an arbitrary plane equation using the extracted three points, and calculates the distance between all points and the plane by using the plane calculated through the plane equation as a reference plane.

또한, 상기 제어부(120)는 도 7(a)에 나타낸 바와 같이 기준 평면과의 거리가 In Area 이하면 +1을 카운트하고, 기준 평면과의 거리가 Out Area 이하면 -2를 카운트한다.In addition, as shown in FIG. 7A , the controller 120 counts +1 when the distance to the reference plane is less than or equal to the In Area, and counts -2 when the distance to the reference plane is less than or equal to the Out Area.

또한, 상기 제어부(120)는 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심점의 일치 여부를 이용하여 박스로 인식한다.In addition, the control unit 120 calculates the center of gravity of the box through the extracted three points, and recognizes the box as a box by using whether the center points match.

즉, 상기 제어부(120)는 무게 중심과 X, Y, Z 방향 별 최소/최대 좌표의 중심을 계산하여 중심이 거의 일치하는 경우 도 7(b)에 적색으로 표시된 바와 같이 박스로 인식할 수 있다.That is, the control unit 120 calculates the center of gravity and the center of the minimum/maximum coordinates for each X, Y, and Z direction, and when the centers are almost identical, it can be recognized as a box as indicated in red in FIG. 7(b). .

또한, 상기 제어부(120)는 박스로 판단된 경우, 사람의 인식 정확도가 증가될 수 있도록 상기 박스로 판단된 포인들을 리스트에서 제거할 수도 있다.Also, when it is determined that the box is a box, the controller 120 may remove the points determined as the box from the list so that the recognition accuracy of a person can be increased.

또한, 상기 제어부(120)는 사람 인식을 수행하기 위해 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하며, 거리가 가까울 수록 사람으로 인식할 수 있다.In addition, the control unit 120 detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC to perform human recognition, and calculates a distance between a vertically projected point and the center point, , the closer the distance, the more recognizable as a person.

즉, 모든 포인트의 Z 좌표를 '0'으로 가정하고, 임의의 추출된 점을 중심으로 하는 원을 모델로 하여 XY 평면에 투영된 모든 점에 대하여 중심점과의 거리를 산출하고, 도 8(a)와 같이 중심점과의 거리가 IN 이하면 +1을 카운트하며, 중심점과의 거리기 OUT 이하면 -2를 카운트하여 산출된 값을 통해 도 8(b)와 같이 적색영역은 박스, 황색영역은 사람으로 판단할 수 있다.That is, assuming that the Z coordinates of all points are '0', using a circle centered on an arbitrary extracted point as a model, calculate the distance from the center point for all points projected on the XY plane, and Fig. 8(a) ), if the distance from the center point is IN or less, +1 is counted, and if the distance from the center point is OUT or less, -2 is counted. can be judged as

또한, 상기 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식할 수 있다.In addition, the control unit 120 determines the highest point of the point extracted by RANSAC as the height of the person, measures the head width and shoulder width based on the width from the highest point to a predetermined distance below, and the measured head width and shoulder width If the width is within a certain range, it can be recognized as a human being.

또한, 상기 제어부(120)는 사람 인식시에 사용하는 원의 반경이 큰 경우, 팔 부분까지 몸통으로 처리되어 제거될 수 있으므로 클러스터링에서 사용된 반경보다 좁은 범위만 몸통으로 인정하여 제거할 수도 있다.In addition, when the radius of the circle used for recognizing a person is large, the control unit 120 may remove the arm by processing it as a body, so that only a range narrower than the radius used in clustering may be recognized as a body and removed.

또한, 상기 제어부(120)는 사람의 팔 인식을 수행하기 위해 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출한다.In addition, the controller 120 randomly extracts two points in space based on RANSAC to perform human arm recognition.

또한, 상기 제어부(120)는 추출된 2개의 점을 기반으로 직선 방정식을 도출하여 산출한 기준 직선과, 모든 점들과의 거리를 계산한다.In addition, the control unit 120 calculates the distance between the reference straight line calculated by deriving a straight line equation based on the two extracted points and all points.

즉, 상기 제어부(120)는 도 9(a)와 같이, 직선과의 거리가 IN 이하면 +1을 카운트하고, 직선과의 거리가 OUT 이하면 -2를 카운트하여 도 9(b)와 같이 녹색 영역의 팔을 인식한다.That is, the control unit 120 counts +1 when the distance to the straight line is less than IN, and counts -2 when the distance to the straight line is less than or equal to OUT, as shown in FIG. Recognize the arm in the green area.

또한, 상기 제어부(120)는 직선의 방향 벡터가 -Y방향을 포함하는 경우, 방향을 반전시켜 +Y방향으로 통일하고, 양팔의 인식을 위해 팔 영역의 포인트를 제거하여 다시 한 번 팔 인식을 수행할 수 있다.In addition, when the direction vector of the straight line includes the -Y direction, the control unit 120 reverses the direction to unify it in the +Y direction, and removes the points in the arm area for recognition of both arms to perform arm recognition once again. can be done

또한, 상기 제어부(120)는 제스처를 인식하기 위해, 과거 일정 개수의 이미지 프레임에 대하여 팔의 직선의 방향 벡터를 수직방향 Z축과 dot연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이면, 과거에 계산된 프레임 중에서 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하며, 상기 카운트된 값이 일정 값 이상이면 열림 제스처로 판단한다.In addition, in order to recognize the gesture, the controller 120 calculates an angle with the Y axis by performing a dot operation on the direction vector of a straight line of the arm with respect to a predetermined number of image frames in the past with the Z axis in the vertical direction, and the calculated angle If the most recent angle of is in the range of 0° to 60°, the number of straight lines with a relative angle in the range of -45° to 0° among the frames calculated in the past is counted. do.

또한, 상기 제어부(120)는 테일 게이트가 열리는 중에 미리 설정된 각도, 예를 들면, 좌/우측으로 0.9m 범위이고, 후측으로 테일 게이트 길이×Cos 50°범위에서, 상기 50°각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 출력할 수 있다.In addition, the control unit 120 controls a preset angle while the tailgate is being opened, for example, in a range of 0.9 m to the left and right, and a point located below the angle of 50° in the range of tailgate length×Cos 50° to the rear side. When a predetermined number or more is detected, it is determined as an obstacle and an operation stop signal of the tailgate may be output.

상기 데이터 저장부(130)는 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 구성으로서, 메모리 등의 저장수단으로 구성될 수 있다.The data storage unit 130 is configured to store the generated 3D point cloud data and RANSAC-based operation information, and may be configured as a storage means such as a memory.

상기 통신부(140)는 제어부(120)로부터 출력되는 테일 게이트의 동작 신호를 차량 제어부(미도시)로 전송하는 구성으로서, CAN-Bus, 이더넷 등의 차량 통신 프로토롤을 이용할 수 있다.The communication unit 140 transmits the tailgate operation signal output from the control unit 120 to the vehicle control unit (not shown), and may use a vehicle communication protocol such as CAN-Bus or Ethernet.

상기 전원부(150)는 제스처 인식 시스템(100)으로 동작용 전원을 공급한다.The power supply unit 150 supplies power for operation to the gesture recognition system 100 .

다음은 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식방법을 설명한다.The following describes a recognition method using a gesture recognition system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시 예에 따른 제스처 인식 시스템을 이용한 인식 과정을 나타낸 흐름도이며, 도 3은 도 2의 실시 예에 따른 제스처 인식 과정에서 장애물 인식 과정을 나타낸 흐름도이고, 도 4는 도 2의 실시 예에 따른 제스처 인식 과정에서 박스 인식 과정을 나타낸 흐름도이며, 도 5는 도 2의 실시 예에 따른 제스처 인식 과정에서 사람 인식 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a recognition process using a gesture recognition system according to an embodiment of the present invention, FIG. 3 is a flowchart illustrating an obstacle recognition process in the gesture recognition process according to the embodiment of FIG. 2 , and FIG. 4 is FIG. is a flowchart illustrating a box recognition process in a gesture recognition process according to an embodiment, and FIG. 5 is a flowchart illustrating a human recognition process in the gesture recognition process according to the embodiment of FIG. 2 .

도 1 내지 도 5에 나타낸 바와 같이, 제어부(120)는 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110)를 통해 입력되는 촬영 이미지의 데이터를 분석하여 테일 게이트의 열림 제스처 신호를 감지(S100)한다.1 to 5 , the control unit 120 controls a photographed image input through the camera unit 110 that outputs a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method. By analyzing the data, a tailgate opening gesture signal is detected ( S100 ).

상기 S100 단계에서 제어부(120)가 테일 게이트의 개폐 상태를 감지(S200)하여 상기 테일 게이트가 열리는 중인지 판단(S300)한다.In step S100, the control unit 120 detects the open/closed state of the tailgate (S200) and determines whether the tailgate is being opened (S300).

상기 S300 단계에서 테일 게이트가 열리는 중이면 상기 제어부(120)는 장애물 인식 단계(S400)를 수행하고, 상기 테일 게이트가 닫힌 상태이면 제스처 및 박스 인식 단계(S500)를 수행한다.If the tailgate is being opened in step S300, the control unit 120 performs an obstacle recognizing step (S400), and when the tailgate is closed, performs a gesture and box recognizing step (S500).

상기 S400 단계는 제어부(120)가 ToF(Time of Flight) 방식의 카메라부(110)로부터 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신(S410)한다.In step S400, the control unit 120 receives (S410) a photographed image around the vehicle including distance information from the camera unit 110 of the Time of Flight (ToF) method to the object.

또한, 상기 제어부(120)는 S410 단계에서 수신된 촬영 이미지의 데이터 샘플링하는 데이터 전처리 과정(S420)을 수행하고, 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 3차원 재구축 단계(S430)를 수행한다.In addition, the control unit 120 performs a data pre-processing process (S420) of sampling the data of the captured image received in step S410, and uses the accumulated data of the past captured images to obtain 3D point cloud data based on the position of the 3D point. Performs a three-dimensional reconstruction step (S430) to generate a.

계속해서, 상기 제어부(120)는 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정(S440)하고, 상기 ROI내에서 장애물을 검출(S450)한다.Subsequently, the controller 120 sets the upper region of the tailgate as a region of interest (ROI) (S440), and detects an obstacle within the ROI (S450).

상기 S450 단계에서 장애물이 검출되면, 상기 제어부(120)는 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산(S460)하고, 상기 계산된 각도를 미리 설정된 기준값과 비교(S470)한다.When an obstacle is detected in step S450, the controller 120 calculates an angle between the detected obstacle and the lower end of the tailgate (S460), and compares the calculated angle with a preset reference value (S470).

상기 S470 단계의 비교 결과, 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부(120)는 통신부(140)를 통해 차량 제어부로 테일 게이터의 동작 정지 신호를 출력(S480)한다.As a result of the comparison in step S470 , if the calculated angle is less than or equal to a preset reference value, the control unit 120 outputs a stop signal of the tail gator to the vehicle control unit through the communication unit 140 ( S480 ).

상기 S500 단계는 제어부(120)가 ToF(Time of Flight) 방식의 카메라부(110)로부터 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신(S510)한다.In step S500, the control unit 120 receives (S510) a photographed image around the vehicle including distance information from the camera unit 110 of the Time of Flight (ToF) method to the object.

또한, 상기 제어부(120)는 S510 단계에서 수신된 촬영 이미지의 데이터 샘플링하는 데이터 전처리 과정(S520)을 수행하고, 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 3차원 재구축 단계(S530)를 수행한다.In addition, the control unit 120 performs a data preprocessing process (S520) of sampling data of the captured image received in step S510, and 3D point cloud data based on the position of a 3D point using accumulated data of past captured images. Performs a three-dimensional reconstruction step (S530) to generate.

계속해서, 상기 제어부(120)는 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색(S540)한다.Subsequently, the control unit 120 randomly extracts a basic feature and three points in space based on RANSAC (Random Sample Consensus), a reference plane calculated based on the extracted three points, and random points A box is searched using whether the center of gravity of the box calculated through the three extracted points by calculating the distance of and the center point coincides with each other (S540).

상기 S540 단계의 검색을 통해 박스 인식을 성공(S550)하면, 상기 제어부(120)는 정지 상태인지 판단(S560)한다.If box recognition is successful through the search in step S540 (S550), the control unit 120 determines whether it is in a stopped state (S560).

상기 S560 단계의 판단 결가, 정지 상태이면, 상기 제어부(120)는 통신부(140)를 통해 테일 게이트의 개방 동작 신호를 출력(S570)한다.If the determination result of step S560 is a stop state, the control unit 120 outputs a tailgate opening operation signal through the communication unit 140 ( S570 ).

한편, 상기 S540 단계의 검색을 통해 박스가 미인식되거나 또는 S560 단계에서 정지상태가 아니면, 제어부(120)는 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색(S510')한다.On the other hand, if the box is not recognized through the search in step S540 or is not in a stationary state in step S560, the control unit 120 detects a circle having an arbitrary extraction point as the center point on the two-dimensional surface based on the RANSAC, and vertical A person is searched for ( S510 ′) by using points that are close in distance between the projected point in the direction and the central point.

상기 S510' 단계의 검색을 통해 사람 인식을 성공(S520')하면, 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산(S530')한다.If the human recognition is successful through the search in step S510' (S520'), the controller 120 calculates the highest point of the points extracted by the RANSAC as the height of the person (S530').

또한, 상기 제어부(120)는 사람 인식시에 몸통영역을 제거(S540')할 수도 있다.In addition, the controller 120 may remove the body region when recognizing a person ( S540 ′).

계속해서, 상기 제어부(120)는 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색(S550')한다.Subsequently, the control unit 120 randomly extracts two points in space based on RANSAC, calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, and based on the detected straight line to search for the arm (S550').

상기 S550' 단계의 검색 결과 팔 인식에 성공했는지 판단(S560')하고, 팔 인식에 성공하면, 팔 영역을 제거(S561')하고, 상기 S550' 단계를 일정 회수 반복 수행한다.As a result of the search in step S550', it is determined whether arm recognition is successful (S560'), and if the arm recognition is successful, the arm area is removed (S561'), and the step S550' is repeated a predetermined number of times.

또한, 상기 S560' 단계에서 팔이 인식되지 않으면, 상기 제어부(120)는 팔의 기울기 변화를 추적(S570')하여 열림 제스처를 인식을 수행하고, 제스처 인식이 성공하였는지 판단(S580')한다.In addition, if the arm is not recognized in step S560', the controller 120 recognizes the open gesture by tracking the change in inclination of the arm (S570'), and determines whether the gesture recognition is successful (S580').

상기 열림 제스처는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 예를 들면, 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단한다.The open gesture calculates an angle with the Y axis by calculating the direction vector of the detected straight line with the vertical Z axis, and the most recent angle of the calculated angle is, for example, in the range of 0° to 60°, If the calculated relative angle counts the number of straight lines in the range of -45° to 0° and exceeds a certain value, it is determined as an open gesture.

상기 S580' 단계의 인식 결과, 제스처 인식에 성공하면 상기 제어부(120)가 통신부(140)를 통해 차량 제어부(미도시)로 테일 게이트의 개폐 동작 신호를 출력(S590')하여 테일 게이트가 개방되도록 한다.As a result of the recognition in step S580', if the gesture recognition is successful, the control unit 120 outputs a tailgate opening/closing operation signal to the vehicle control unit (not shown) through the communication unit 140 (S590') so that the tailgate is opened. do.

따라서, RANSAC을 기반으로 사용자가 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정과 사람의 팔을 인식하여 사람의 제스처를 인식할 수 있고, 사용자의 제스처 인식과 장애물 인식을 통해 차량의 테일 게이트 개폐를 제어할 수 있게 된다.Therefore, based on RANSAC, it is possible to recognize a human gesture by recognizing a box possessed by the user, recognizing a person, estimating the height of a recognized person, and recognizing a human arm. It becomes possible to control the opening and closing of the gate.

상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In addition, the reference numbers described in the claims of the present invention are only described for clarity and convenience of description, and are not limited thereto, and in the process of describing the embodiment, the thickness of the lines shown in the drawings or the size of components, etc. may be exaggerated for clarity and convenience of explanation.

또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the above-mentioned terms are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of the user or operator, so the interpretation of these terms should be made based on the content throughout this specification. .

또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. In addition, even if it is not explicitly shown or described, a person of ordinary skill in the art to which the present invention pertains can make various modifications including the technical idea according to the present invention from the description of the present invention. Obviously, this still falls within the scope of the present invention.

또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.In addition, the above embodiments described with reference to the accompanying drawings have been described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.

100 : 제스처 인식 시스템.
110 : 카메라부
120 : 제어부
130 : 데이터 저장부
140 : 통신부
150 : 전원부
100: Gesture recognition system.
110: camera unit
120: control unit
130: data storage unit
140: communication department
150: power unit

Claims (13)

ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110);
상기 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하고, RANSAC(Random Sample Consensus)를 기반으로 기본 특징을 추출하며, 상기 RANSAC를 기반으로 상기 촬영 이미지로부터 사람이 소지한 박스 인식, 사람 인식, 인식된 사람의 신장 추정, 사람의 팔을 인식하여 팔의 각도에 따라 열림 제스처를 판단하고, 판단 결과에 따라 테일 게이트의 동작 제어 신호를 출력하는 제어부(120);
상기 생성된 3차원 포인트 클라우드 데이터와 RANSAC 기반의 동작 정보를 저장하는 데이터 저장부(130); 및
상기 테일 게이트의 동작 신호를 차량 제어부로 전송하는 통신부(140);를 포함하는 제스처 인식 시스템.
a camera unit 110 for outputting a photographed image around a vehicle including distance information to an object in a Time of Flight (ToF) method;
Generates 3D point cloud data based on the location of 3D points using accumulated data of past captured images through data sampling of the captured images, extracts basic features based on RANSAC (Random Sample Consensus), and the RANSAC based on the recognition of a box possessed by a person, recognition of a person, estimation of a recognized height of a person, and a human arm from the photographed image to determine an open gesture according to the angle of the arm, and control the operation of the tailgate according to the determination result a control unit 120 for outputting a signal;
a data storage unit 130 for storing the generated three-dimensional point cloud data and RANSAC-based operation information; and
and a communication unit 140 that transmits an operation signal of the tailgate to a vehicle control unit.
제 1 항에 있어서,
상기 기본 특징은 제어부(120)가 RANSAC를 기반으로 무작위로 추출한 샘플 데이터를 만족하는 모델을 수립하고, 상기 수립된 모델과 근접한 데이터들의 개수가 많은 모델을 저장하며, 일정 회수 반복한 후 지지하는 데이터수가 가장 많은 모델을 최종 결과로 반환하는 것을 특징으로 하는 제스처 인식 시스템.
The method of claim 1,
The basic feature is that the controller 120 establishes a model satisfying randomly extracted sample data based on RANSAC, stores a model with a large number of data close to the established model, and repeats a predetermined number of times and then supports data A gesture recognition system, characterized in that the model with the largest number is returned as the final result.
제 2 항에 있어서,
상기 박스 인식은 제어부(120)가 RANSAC를 기반으로 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하며, 상기 추출된 3개의 점을 통해 박스의 무게 중심점을 산출하고, 중심의 일치 여부를 이용하여 박스로 인식하는 것을 특징으로 하는 제스처 인식 시스템.
3. The method of claim 2,
In the box recognition, the control unit 120 randomly extracts three points in space based on RANSAC, calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points, and the extracted A gesture recognition system, characterized in that by calculating the center of gravity of the box through three points, and recognizing it as a box using whether the centers match.
제 3 항에 있어서,
상기 사람 인식은 제어부(120)가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리를 산출하여 상기 거리가 가까울수록 사람으로 인식하는 것을 특징으로 하는 제스처 인식 시스템.
4. The method of claim 3,
In the recognition of the person, the control unit 120 detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, and calculates the distance between the vertically projected point and the center point. A gesture recognition system, characterized in that it recognizes a person.
제 4 항에 있어서,
상기 제어부(120)는 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 판단하고, 상기 최고점으로부터 일정 거리 아래까지의 폭에 기반하여 머리 폭과 어깨 폭을 측정하며, 상기 측정된 머리 폭과 어깨 폭이 일정 범위 이내이면 사람으로 인식하는 것을 특징으로 하는 제스처 인식 시스템.
5. The method of claim 4,
The control unit 120 determines the highest point of the point extracted by RANSAC as the height of the person, measures the head width and shoulder width based on the width from the highest point to a certain distance below, and the measured head width and shoulder width are Gesture recognition system, characterized in that the recognition as a human within a certain range.
제 5 항에 있어서,
상기 사람의 팔 인식은 제어부(120)가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 거리가 가까울수록 팔로 인식하는 것을 특징으로 하는 제스처 인식 시스템.
6. The method of claim 5,
In the recognition of the human arm, the controller 120 randomly extracts two points in space based on RANSAC, and calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, so that the distance is close. Gesture recognition system, characterized in that it recognizes the recorded arm.
제 6 항에 있어서,
상기 제어부(120)는 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 하는 제스처 인식 시스템.
7. The method of claim 6,
The control unit 120 calculates the angle with the Y axis by calculating the direction vector of the straight line with the Z axis in the vertical direction, and the most recent angle of the calculated angle is in the range of 0° to 60°, and the relative angle calculated in the past A gesture recognition system, characterized in that by counting the number of straight lines in the range of -45° to 0°, and determining it as an open gesture if it exceeds a certain value.
제 7 항에 있어서,
상기 제어부(120)는 테일 게이트가 열리는 중에 미리 설정된 각도 이하에 위치한 점이 일정 개수 이상 검출되면, 장애물로 판단하여 테일 게이트의 동작 정지 신호를 추가 출력하는 것을 특징으로 하는 제스처 인식 시스템.
8. The method of claim 7,
The control unit 120 determines that an obstacle is an obstacle and additionally outputs an operation stop signal of the tailgate when a predetermined number of points located below a preset angle are detected while the tailgate is being opened.
a) 제어부(120)가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 출력하는 카메라부(110)를 통해 입력되는 촬영 이미지의 데이터를 분석하여 테일 게이트의 열림 제스처 신호를 감지하는 단계; 및
b) 상기 제어부(120)가 테일 게이트의 개폐 상태를 감지하여 열리는 중이면 장애물 인식 단계;를 수행하고, 닫힌 상태면 제스처 및 박스 인식 단계;를 수행하는 제스처 인식 방법.
a) The control unit 120 analyzes data of a captured image input through the camera unit 110 that outputs a captured image around the vehicle including distance information to an object in a Time of Flight (ToF) method to open the tailgate detecting a gesture signal; and
b) the control unit 120 detects the open/closed state of the tailgate and performs an obstacle recognition step if the tailgate is being opened, and a gesture and box recognition step if the tailgate is closed.
제 9 항에 있어서,
상기 장애물 인식 단계는 제어부(120)가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계;
상기 제어부(120)가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계;
상기 제어부(120)가 테일 게이트 상단 영역을 ROI(Region Of Interest)로 설정하고, 상기 ROI내에서 장애물을 검출하는 단계;
장애물이 검출되면, 상기 제어부(120)가 검출된 장애물과 테일 게이트 하단 사이의 각도를 계산하여 미리 설정된 기준값과 비교하는 단계; 및
상기 계산된 각도가 미리 설정된 기준값 이하면, 상기 제어부(120)가 테일 게이터의 동작 정지 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.
10. The method of claim 9,
The step of recognizing the obstacle may include: receiving, by the controller 120, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method;
generating, by the controller 120, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images;
setting, by the controller 120, an upper region of the tailgate as a region of interest (ROI), and detecting an obstacle within the ROI;
when an obstacle is detected, the controller 120 calculating an angle between the detected obstacle and the lower end of the tailgate and comparing it with a preset reference value; and
and outputting, by the controller 120, an operation stop signal of the tail gator when the calculated angle is less than or equal to a preset reference value.
제 9 항에 있어서,
상기 제스처 및 박스 인식 단계는 제어부(120)가 ToF(Time of Flight) 방식으로 객체까지의 거리 정보를 포함한 차량 주변의 촬영 이미지를 수신하는 단계;
상기 제어부(120)가 촬영 이미지의 데이터 샘플링을 통해 과거 촬영 이미지들의 누적 데이터를 이용하여 3차원 포인트의 위치에 기반한 3차원 포인트 클라우드 데이터를 생성하는 단계;
상기 제어부(120)가 RANSAC(Random Sample Consensus)를 기반으로 기본 특징과, 공간 상의 3개의 점을 무작위로 추출하고, 추출된 3개의 점을 기반으로 산출한 기준 평면과 임의의 점들과의 거리를 계산하여 상기 추출된 3개의 점을 통해 산출하는 박스의 무게 중심점과 상기 중심점과의 일치 여부를 이용하여 박스를 검색하는 단계; 및
상기 검색을 통해 박스가 인식되고 정지 상태로 판단되면, 상기 제어부(120)가 테일 게이트의 개방 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.
10. The method of claim 9,
The gesture and box recognition step may include: receiving, by the controller 120, a photographed image around the vehicle including distance information to an object in a Time of Flight (ToF) method;
generating, by the controller 120, 3D point cloud data based on the location of a 3D point using accumulated data of past captured images through data sampling of captured images;
The control unit 120 randomly extracts three points in space and a basic feature based on RANSAC (Random Sample Consensus), and calculates the distance between the reference plane and arbitrary points calculated based on the extracted three points. retrieving a box using the center of gravity of the box calculated through the three extracted points and whether the center point coincides with each other; and
and outputting, by the control unit 120, a tailgate opening operation signal when the box is recognized through the search and determined to be in a stationary state.
제 11 항에 있어서,
상기 검색을 통해 박스가 미인식되거나 또는 정지상태가 아니면, 제어부(120)가 RANSAC를 기반으로 2차원 상에 임의의 추출점을 중심점으로 하는 원을 검출하고, 수직방향으로 투영된 점과 상기 중심점 사이의 거리가 가까운 점들을 이용하여 사람을 검색하는 단계;
상기 검색을 통해 사람이 검색되면, 제어부(120)가 RANSAC로 추출한 포인트의 최고점을 사람의 신장으로 계산하는 단계;
상기 제어부(120)가 RANSAC를 기반으로 공간 상에서 2개의 점을 무작위 추출하고, 추출된 2개의 점을 기반으로 산출한 기준 직선과 임의의 점들과의 거리를 계산하여 검출되는 직선에 기초하여 팔을 검색하는 단계; 및
상기 검색 결과 팔이 검색되면, 팔의 기울기 변화를 추적하여 열림 제스처를 인식하고, 인식 결과에 따라 상기 제어부(120)가 테일 게이트의 개폐 동작 신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식 방법.
12. The method of claim 11,
If the box is not recognized or is not in a stationary state through the search, the controller 120 detects a circle having an arbitrary extraction point as a center point in two dimensions based on RANSAC, and the vertically projected point and the center point searching for a person using points having a close distance therebetween;
when a person is found through the search, calculating, by the controller 120, the highest point of the points extracted by RANSAC as the height of the person;
The control unit 120 randomly extracts two points in space based on RANSAC, calculates the distance between the reference straight line calculated based on the two extracted points and arbitrary points, and moves the arm based on the detected straight line. searching; and
and, if the arm is found as a result of the search, tracking a change in inclination of the arm to recognize an opening gesture, and outputting, by the controller 120, a tailgate opening/closing operation signal according to the recognition result; Recognition method.
제 12 항에 있어서,
상기 제어부(120)는 검출된 직선의 방향 벡터를 수직방향 Z축과 연산하여 Y축과의 각도를 계산하고, 상기 계산된 각도의 가장 최근 각도가 0°~ 60°범위이며, 과거에 계산된 상대 각도가 -45°~ 0° 범위인 직선의 수를 카운트하여 일정 값 이상이면 열림 제스처로 판단하는 것을 특징으로 하는 제스처 인식 방법.
13. The method of claim 12,
The control unit 120 calculates an angle with the Y axis by calculating the direction vector of the detected straight line with the vertical Z axis, and the most recent angle of the calculated angle is in the range of 0° to 60°, A gesture recognition method, characterized in that by counting the number of straight lines with a relative angle in the range of -45° to 0°, and determining as an open gesture if it is greater than a certain value.
KR1020200010784A 2020-01-30 2020-01-30 System and method for recognizing gestures KR20210097291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200010784A KR20210097291A (en) 2020-01-30 2020-01-30 System and method for recognizing gestures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200010784A KR20210097291A (en) 2020-01-30 2020-01-30 System and method for recognizing gestures

Publications (1)

Publication Number Publication Date
KR20210097291A true KR20210097291A (en) 2021-08-09

Family

ID=77313252

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200010784A KR20210097291A (en) 2020-01-30 2020-01-30 System and method for recognizing gestures

Country Status (1)

Country Link
KR (1) KR20210097291A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007407A (en) 2013-07-10 2015-01-21 (주) 모토텍 System for controlling power trunk or power tailgate

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007407A (en) 2013-07-10 2015-01-21 (주) 모토텍 System for controlling power trunk or power tailgate

Similar Documents

Publication Publication Date Title
US7308112B2 (en) Sign based human-machine interaction
JP4546956B2 (en) Target orientation estimation using depth detection
US7340100B2 (en) Posture recognition apparatus and autonomous robot
GB2579539A (en) Vehicle controller
JP6207089B2 (en) Vehicle door control device
US20050134117A1 (en) Interface for car-mounted devices
CN109389766A (en) User's identifying system and method for autonomous vehicle
US20040190754A1 (en) Image transmission system for a mobile robot
KR101464446B1 (en) Method for user vertification using face recognition and head pose estimation and apparatus thereof
JP5001930B2 (en) Motion recognition apparatus and method
US20210248400A1 (en) Operator Behavior Recognition System
KR100554129B1 (en) System and method for authenticating person using human body's heat
JP7147259B2 (en) In-vehicle device, control method for in-vehicle device, and preliminary motion estimation system
CN109594880A (en) Control method and apparatus, storage medium and the vehicle of vehicle trunk
JP2021110199A (en) Vehicle control system and method of operating opening/closing body
CN111216122A (en) Gripping robot and control program for gripping robot
KR20210097291A (en) System and method for recognizing gestures
WO2024032026A1 (en) Method and system for automatically opening trunk, storage medium, and electronic device
CN111038447B (en) Device and method for controlling a vehicle
KR20140111138A (en) System and method for operating tail gate
KR20200076972A (en) Apparatus, method and computer program for opening and closing door of vehicle
JP2015014119A (en) Vehicle door operation apparatus
Huang et al. Driver head pose and view estimation with single omnidirectional video stream
CN111507225A (en) Intelligent following system and method
US20210286973A1 (en) Facial recognition system for a vehicle technical field

Legal Events

Date Code Title Description
E902 Notification of reason for refusal