KR101848864B1 - Apparatus and method for tracking trajectory of target using image sensor and radar sensor - Google Patents

Apparatus and method for tracking trajectory of target using image sensor and radar sensor Download PDF

Info

Publication number
KR101848864B1
KR101848864B1 KR1020160039803A KR20160039803A KR101848864B1 KR 101848864 B1 KR101848864 B1 KR 101848864B1 KR 1020160039803 A KR1020160039803 A KR 1020160039803A KR 20160039803 A KR20160039803 A KR 20160039803A KR 101848864 B1 KR101848864 B1 KR 101848864B1
Authority
KR
South Korea
Prior art keywords
target
velocity
speed
detecting
image
Prior art date
Application number
KR1020160039803A
Other languages
Korean (ko)
Other versions
KR20170114045A (en
Inventor
최두헌
강세진
Original Assignee
주식회사 아이유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이유플러스 filed Critical 주식회사 아이유플러스
Priority to KR1020160039803A priority Critical patent/KR101848864B1/en
Publication of KR20170114045A publication Critical patent/KR20170114045A/en
Application granted granted Critical
Publication of KR101848864B1 publication Critical patent/KR101848864B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • G01P3/685Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light for projectile velocity measurements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3658Means associated with the ball for indicating or measuring, e.g. speed, direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • H04N13/0022
    • H04N13/025
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/30Speed
    • A63B2220/31Relative speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/805Optical or opto-electronic sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/89Field sensors, e.g. radar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

일 개시에 의하여 이미지 센서 및 레이더 센서를 이용하여 타겟(target)의 궤적을 추적하는 방법을 제공하며, 본 방법은, 이미지 센서를 통해, 적어도 하나 이상의 객체들의 이동상태가 포함된 영상을 획득하는 단계, 적어도 하나 이상의 객체들로부터 타겟을 결정하는 단계, 획득한 영상으로부터 타겟의 제 1속도를 검출하는 단계, 레이더 센서를 통해 타겟의 제 2속도를 검출하는 단계, 타겟의 제 1속도를 검출한 시간과 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 제 2속도를 이용하여 제 1속도를 보정하는 단계, 및 보정된 타겟의 제 1속도를 이용하여 타겟의 궤적을 추적하는 단계를 포함할 수 있다.There is provided a method of tracking a trajectory of a target using an image sensor and a radar sensor by means of an operation, the method comprising the steps of acquiring, via an image sensor, an image including a moving state of at least one object Detecting a first velocity of the target from the acquired image, detecting a second velocity of the target through the radar sensor, detecting a first velocity of the target Correcting the first velocity using the second velocity by mapping the time of detecting the second velocity of the target with the time of detecting the second velocity of the target and tracking the trajectory of the target using the first velocity of the corrected target have.

Description

이미지 센서 및 레이더 센서를 이용하여 타겟의 궤적을 추적하는 장치 및 방법{APPARATUS AND METHOD FOR TRACKING TRAJECTORY OF TARGET USING IMAGE SENSOR AND RADAR SENSOR}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for tracking a trajectory of a target using an image sensor and a radar sensor,

일 개시에 의하여, 움직이는 타겟의 움직임을 분석하여 궤적을 추적하는 장치 및 방법을 제공하는 것이다. 보다 구체적으로, 이미지 센서 및 레이더 센서를 이용하여 타겟의 움직임을 분석하여 궤도를 추적하는 장치 및 발명에 관한 것이다.It is an object of the present invention to provide an apparatus and a method for tracing a trajectory by analyzing a motion of a moving target. More particularly, the present invention relates to an apparatus and an invention for tracing an orbit by analyzing a motion of a target using an image sensor and a radar sensor.

1990년대 초 미국, 독일, 일본 등에서 시뮬레이션 기술을 골프에 적용하여 개발된 골프 시뮬레이션 시스템들은 골프 클럽 제조사 등에서 자사 제품을 사용했을 때, 비 거리 및 탄도를 분석하기 위한 연구용으로 사용되었다. 그 이후 국내에서는 2000년대초 골프인구가 급격히 증가하면서 스크린 골프시장이 급격히 성장하면서 국내에서도 다양한 센서들을 이용하여 골프 시뮬레이터 기술과 제품이 개발되고 발전되어 왔다. In the early 1990s, golf simulation systems developed by applying simulation technology to golf in the US, Germany, and Japan were used for research for analyzing distance and ballistics when golf club manufacturers used their products. Since then, the golf game market has been growing rapidly in Korea in the early 2000s, and golf simulator technology and products have been developed and developed using various sensors in Korea.

골프공의 움직임을 촬영한 영상을 이미지 영상처리 기술로 처리하여 기본적인 궤적 추적이 가능하다. 하지만 카메라의 원리상 이동하는 물체의 초점을 다시 설정해야하는 문제로 인해, 초점에서 벗어난 타겟의 영상의 경우 번짐 현상이 발생한다. 이런 문제로 움직이는 타겟의 방향을 확인하는 것은 어려움이 없으나 정확한 순간 속도를 측정하는데 오차가 발생할 수 있다.It is possible to trace basic trajectory by processing image of motion of golf ball with image processing technology. However, due to the problem of resetting the focus of an object moving on the principle of the camera, blurring occurs in the case of an image out of focus. It is not difficult to confirm the direction of the moving target due to such a problem, but it may cause an error in measuring the accurate instantaneous speed.

일 실시예에 의하여, 카메라를 통한 영상 처리에 있어서 레이더 센서를 이용하여 측정한 타겟의 속도 정보를 이용하여 보정함으로써, 움직이는 타겟의 정확한 궤적 정보를 측정할 수 있는 방법 및 장치를 제공함에 있다.According to an embodiment of the present invention, there is provided a method and apparatus for measuring accurate trajectory information of a moving target by correcting the velocity information of a target using a radar sensor in image processing through a camera.

일 개시에 의하여 이미지 센서 및 레이더 센서를 이용하여 타겟(target)의 궤적을 추적하는 방법을 제공하며, 본 방법은, 이미지 센서를 통해, 적어도 하나 이상의 객체들의 이동상태가 포함된 영상을 획득하는 단계, 적어도 하나 이상의 객체들로부터 타겟을 결정하는 단계, 획득한 영상으로부터 타겟의 제 1속도를 검출하는 단계, 레이더 센서를 통해 타겟의 제 2속도를 검출하는 단계, 타겟의 제 1속도를 검출한 시간과 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 제 2속도를 이용하여 제 1속도를 보정하는 단계, 및 보정된 타겟의 제 1속도를 이용하여 타겟의 궤적을 추적하는 단계를 포함할 수 있다.There is provided a method of tracking a trajectory of a target using an image sensor and a radar sensor by means of an operation, the method comprising the steps of acquiring, via an image sensor, an image including a moving state of at least one object Detecting a first velocity of the target from the acquired image, detecting a second velocity of the target through the radar sensor, detecting a first velocity of the target Correcting the first velocity using the second velocity by mapping the time of detecting the second velocity of the target with the time of detecting the second velocity of the target and tracking the trajectory of the target using the first velocity of the corrected target have.

여기서, 타겟을 결정하는 단계는, 수신한 3차원 영상에서 미리 결정된 발사점에서부터 공중으로 이동하는 적어도 하나 이상의 객체를 인식하는 단계 및 적어도 하나 이상의 객체에서, 발사점에서 정지 상태로 인식된 객체가 공중으로 이동하는 객체를 타겟으로 설정하는 단계를 포함할 수 있다.Wherein the step of determining a target comprises the steps of: recognizing at least one object moving in the air from a predetermined firing point in a received three-dimensional image; and determining, in at least one or more objects, And setting an object moving to the target as a target.

또한, 제 1속도를 검출하는 단계는 적어도 하나 이상의 객체의 속도 정보 중 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거하는 단계, 타겟의 속도를 구간별로 측정하는 단계 및 구간별로 측정된 타겟의 속도를 제 1속도로 결정하는 단계를 포함하고, 타겟의 제 2속도를 검출하는 단계는, 레이더를 통해 수신한 신호에서 적어도 하나 이상의 객체의 움직임을 감지하는 단계를 포함할 수 있다.The step of detecting the first speed may include the steps of removing speed information of the remaining objects excluding the speed information of the target among the speed information of at least one object, measuring the speed of the target by intervals, Determining a velocity as a first velocity, and detecting a second velocity of the target may include sensing movement of at least one or more objects in the signal received via the radar.

또한, 적어도 하나 이상의 객체에서, 발사점에서 정지 상태로 감지된 객체가 공중으로 이동하는 객체를 타겟으로 설정하는 단계, 적어도 하나 이상의 객체의 속도 정보 중 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거하는 단계, 타겟의 속도를 구간별로 측정하는 단계, 및 구간별로 측정된 타겟의 속도를 제 2속도로 결정하는 단계를 포함할 수 있다.Setting at least one object, which is sensed as a stationary state at a launching point, as an object moving in the air as a target; setting velocity information of the remaining objects excluding velocity information of the target among at least one velocity information of the at least one object; Determining a velocity of the target by interval, and determining the velocity of the target measured at intervals to a second velocity.

또한, 타겟의 제 1속도를 검출하는 단계는, 타겟의 위치를 미리 결정된 시간 간격으로 촬영한 영상의 픽셀수 데이터를 이용하여 타겟의 제 1속도를 검출하고, 타겟의 제 2속도를 검출하는 단계는, 레이더로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득하는 단계, 획득한 정보를 기초로 레이더로부터 타겟이 이격된 거리 정보를 산출하는 단계, 및 거리 정보로부터 제 2속도를 검출하는 단계를 포함할 수 있다. The step of detecting the first speed of the target may further include detecting the first speed of the target using the number-of-pixels data of the image photographed at a predetermined time interval, and detecting the second speed of the target Acquiring information on the time of emission of the radiation wave emitted from the radar and the information on the reception time of the reflected wave; calculating distance information of the target from the radar based on the acquired information; .

또한, 검출된 제 1속도 및 제 2속도를 비교하는 단계, 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는 지 미리 결정된 시간 구간 별로 판단하는 단계, 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 오차 범위를 벗어난 시간 구간에 대하여 제 1속도를 제 2속도로 대체하는 단계, 제 2속도로 대체된 제 1속도에 기초하여 타겟의 평균 속도를 산출하는 단계, 및 산출된 타겟의 평균 속도에 기초하여, 타겟의 궤적을 출력하는 단계를 포함할 수 있다.Comparing the detected first speed and the second speed, determining for each predetermined time interval whether a difference between the first speed and the second speed corresponds to a predetermined error range, determining a first speed and a second speed Replacing the first velocity with a second velocity for a time interval out of the error range if the difference between the first velocity and the second velocity is outside a predetermined error range, calculating an average velocity of the target based on the first velocity replaced by the second velocity And outputting the locus of the target based on the calculated average speed of the target.

또한, 제 2속도를 검출하는 단계는, 레이더 센서로부터 타겟에 대한 레이더 센싱 신호를 수신하는 단계, 레이더 센싱 신호를 신호 처리하여, 비트 신호에 대한 주파수 스펙트럼을 생성하는 단계, 레이더 센서의 이동 속도에 해당하는 주파수 대역의 피크값이 임계값을 비교하여, 타겟의 상태를 판단하는 단계 및 비트 신호에 대한 주파수 스펙트럼을 기반으로 타겟의 제 2속도를 검출하는 단계를 포함할 수 있다The step of detecting the second velocity may further include the steps of receiving a radar sensing signal for the target from the radar sensor, signal processing the radar sensing signal to generate a frequency spectrum for the bit signal, Comparing the peak value of the corresponding frequency band to the threshold value, determining the state of the target, and detecting the second speed of the target based on the frequency spectrum for the bit signal

또한, 이미지 센서는 타켓에 대한 퍼팅이 이루어지는 발사점에 대한 깊이 영상을 획득하는 깊이(depth) 카메라 모듈을 포함하고, 깊이 카메라 모듈로부터 배경 영상 및 타켓이 발사점에 위치하는 시점부터 퍼팅이 종료되는 시점까지의 깊이 영상을 획득하는 단계, 깊이 영상의 화면을 배경 영상에서의 깊이 값과 비교하여 타겟을 검출하고, 타겟에서 포인터를 추출하는 단계, 추출된 포인터 위치의 깊이 값을 기준으로 영상에서 공간 좌표를 계산하는 단계, 미리 결정된 시간 구간에 따라, 포인터의 3차원 좌표 값을 획득하고, 3차원 좌표값의 분석을 통해 포인터의 속도를 검출하는 단계 및 포인터의 속도로부터 타겟의 초기 속도를 구하고, 실제 측정된 거리와 보정계수를 이용하여 제 1속도를 보정하는 단계 및 제 2속도를 이용하여 타겟의 제 1속도를 보정하는 단계를 포함할 수 있다.In addition, the image sensor includes a depth camera module for acquiring a depth image of a launch point at which a putt is performed with respect to a target, and the background image from the depth camera module and the end of putting from a point at which the target is positioned at the launch point A step of detecting a target by comparing a screen of the depth image with a depth value of the background image, and extracting a pointer from the target, extracting a pointer from the target based on the depth value of the extracted pointer position, Acquiring a three-dimensional coordinate value of the pointer according to a predetermined time interval, detecting the velocity of the pointer through analysis of the three-dimensional coordinate value, and obtaining an initial velocity of the target from the velocity of the pointer, Correcting the first velocity using the actually measured distance and the correction factor and correcting the first velocity of the target using the second velocity It may include the step.

또한, 이하 수식에 의하여, 특정 시점에서의 타겟의 위치와 최종적으로 타겟이 도착하는 위치를 계산할 수 있다.

Figure 112016031390120-pat00001
(여기에서, v0 는 포인터의 초기 속도, t는 타겟이 퍼팅된 이후 경과한 시간, a는 가속도를 의미함)Further, the position of the target at a specific time point and the position at which the target finally arrives can be calculated by the following equation.
Figure 112016031390120-pat00001
(Where v 0 is the initial velocity of the pointer, t is the time elapsed since the target was put, and a is the acceleration)

또한, 타겟의 궤적을 출력하는 단계는, 사용자에 의하여 경사도, 퍼팅 잔디의 빠르기를 포함하는 환경설정 정보를 입력받는 단계, 환경설정 정보에 따라 타겟의 방향, 각도, 거리가 포함된 궤적을 화면에 출력하는 단계, 타겟을 화면에 표시할 때, 타겟의 궤적을 서로 다른 속도 모드로 재생하는 단계를 포함할 수 있다.The step of outputting the trajectory of the target may further include the steps of: receiving environment setting information including the inclination degree and the speed of the putting grass by the user; locating the locus including the direction, angle and distance of the target in accordance with the environment setting information; And reproducing the trajectory of the target in a different velocity mode when displaying the target on the screen.

일 실시예에 의하여, 타겟(target)의 궤적을 추적하는 장치를 제공하며, 본 장치는, 적어도 하나 이상의 객체들이 이동하는 영상이 포함된 영상을 획득하는 이미지 센서, 적어도 하나 이상의 객체들로부터 타겟을 결정하고, 타겟의 제 1속도를 검출하는 제 1속도 검출부, 레이더 센서를 이용하여 타겟의 속도를 제 2속도를 검출하는 제 2속도 검출부, 타겟의 제 1속도를 검출한 시간과 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 제 2속도를 이용하여 제 1속도를 보정하고, 보정된 타겟의 제 1속도를 이용하여 보정된 타겟의 궤적을 추적하는 제어부 및 타겟의 궤적을 출력하는 디스플레이 부를 포함할 수 있다.According to one embodiment, there is provided an apparatus for tracking a trajectory of a target, the apparatus comprising: an image sensor for acquiring an image including an image in which at least one or more objects are moving; A second velocity detector for detecting a velocity of the target by using a radar sensor, a second velocity detector for detecting a velocity of the target by using a radar sensor, A control unit that corrects the first velocity using the second velocity and maps the corrected target locus using the first velocity of the corrected target by mapping the velocity detected time, and a display unit that outputs the locus of the target .

또한, 제 1속도 검출부는 타겟의 위치를 미리 결정된 시간 간격으로 촬영한 영상의 픽셀수 데이터를 이용하여 타겟의 제 1속도를 검출하고, 제 2속도 검출부는 레이더 센서로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득하고, 획득한 정보를 기초로 레이더로부터 타겟이 이격된 거리 정보를 산출하고, 거리 정보로부터 제 2속도를 검출할 수 있다.The first speed detector detects the first speed of the target using the pixel number data of the image photographed at a predetermined time interval, and the second speed detector detects the output speed of the radiation wave emitted from the radar sensor And receiving the received time information of the reflected wave, calculating distance information of the target from the radar based on the obtained information, and detecting the second velocity from the distance information.

여기서, 레이더 센서는 CW(continuous wave) 레이더 또는 FMCW 레이더일 수 있으며, 제 2속도 검출부는, 레이더 센서로부터 타겟에 대한 레이더 센싱 신호를 수신하고, 레이더 센싱 신호를 신호 처리하여, 비트 신호에 대한 주파수 스펙트럼을 생성하고, 레이더 센서의 이동 속도에 해당하는 주파수 대역의 피크값이 임계값을 비교하여, 타겟의 상태를 판단하고, 비트 신호에 대한 주파수 스펙트럼을 기반으로 타겟의 제 2속도를 검출할 수 있다.Here, the radar sensor may be a continuous wave (CW) radar or an FMCW radar. The second speed detector receives a radar sensing signal for the target from the radar sensor, processes the radar sensing signal, The peak value of the frequency band corresponding to the moving speed of the radar sensor is compared with the threshold value to determine the state of the target and to detect the second speed of the target based on the frequency spectrum for the bit signal have.

일 실시예에 의하여, 본 발명의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.According to one embodiment, a computer-readable recording medium having recorded thereon a program for executing the method of the present invention can be provided.

일 실시예에 의하여, 영상 센서만을 이용하여 궤적을 추적하였을 때 발생하는 환경에 따른 번짐 현상과 먼지, 렌즈의 오염 등으로 인한 번짐현상으로 인해 발생하는 속도 측정의 오차를 개선할 수 있다.According to an embodiment, it is possible to improve the error in the speed measurement caused by the blurring due to the environment occurring when the trajectory is traced using only the image sensor, and the blurring due to the dirt and lens contamination.

또한, 하나의 레이더를 사용함으로써, 저가의 장치로 타겟의 속도 측정을 보완해줄 수 있다.In addition, by using one radar, it is possible to supplement the speed measurement of the target with a low-cost device.

도 1 및 도 2는 일 실시예에 의한, 이미지 센서와 레이더 센서를 이용하여 타겟의 궤도를 측정하는 장치의 구성을 기능적으로 나타낸 도면이다.
도 3은 일 실시예에 의한, 이미지 센서와 레이더 센서를 이용하여 타겟의 궤도를 측정하는 방법의 흐름도이다.
도 4는 일 실시예에 의하여, 타겟의 궤도를 측정하는 일 실시예를 설명하기 위한 도면이다.
도 5는 일 실시예에 의하여, 레이더를 이용하여 객체를 검출하는 것을 설명하기 위한 예시도면이다.
도 6은 일 실시예에 의하여, 타겟의 움직임을 추적하여 중심점을 저장하는 방법을 나타낸 도면이다.
도 7은 일 실시예에 의하여, 미리 결정된 구간에 따라 타겟의 방향각도를 구하는 실시예를 설명하기 위한 도면이다.
FIG. 1 and FIG. 2 are functional diagrams showing a configuration of an apparatus for measuring a trajectory of a target using an image sensor and a radar sensor according to an embodiment.
3 is a flow chart of a method for measuring the trajectory of a target using an image sensor and a radar sensor according to an embodiment.
4 is a diagram for explaining an embodiment for measuring the trajectory of a target according to an embodiment.
5 is an exemplary diagram for explaining detection of an object using a radar, according to an embodiment.
6 is a diagram illustrating a method of tracking a movement of a target and storing a center point according to an embodiment.
7 is a view for explaining an embodiment in which the directional angle of the target is obtained according to a predetermined section according to an embodiment.

일 개시에 의한 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Embodiments of the disclosure are capable of various modifications and may have various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that it is not intended to limit the scope of the specific embodiments but includes all transformations, equivalents, and alternatives falling within the spirit and scope of the disclosure disclosed. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the embodiments of the present invention,

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the claims. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding elements are denoted by the same reference numerals, and a duplicate description thereof will be omitted.

일 실시예에 의하여, 본 명세서에서 "타겟"은 사용자의 클럽에 의하여 타격된 골프공 또는 골프공과 클럽 헤드를 함께 의미할 수 있다.According to one embodiment, "target" herein may refer to a golf ball or golf ball and club head struck by the user's club.

일 실시예에 의하여, 본 명세서의 "사용자"는 골프클럽을 이용하여 골프공을 타격하는 자, 관리자, 기계 설치자 등을 의미할 수 있으며, 이에 한정되지 않는다. According to one embodiment, the term "user" in the present specification may mean a person who hits a golf ball using a golf club, an administrator, a machine installer, and the like, but is not limited thereto.

도 1 및 도 2는 일 실시예에 의한, 이미지 센서와 레이더 센서를 이용하여 타겟의 궤도를 측정하는 궤도 추적 장치의 구성을 기능적으로 나타낸 도면이다.FIG. 1 and FIG. 2 are functional diagrams illustrating a configuration of a trajectory tracking device for measuring a trajectory of a target using an image sensor and a radar sensor according to an embodiment.

도 1에 도시된 바와 같이, 일 실시예에 따른 궤적 추적 장치(100)는 이미지 센서(200), 제 1속도 검출부(210), 레이더 센서(220), 제 2속도 검출부(230), 제어부(300) 및 디스플레이부(400)를 포함할 수 있다. 그러나, 도 1에 도시된 구성 요소 모두가 궤적 추적 장치(100)의 필수 구성 요소인 것은 아니다. 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 궤적 추적 장치(100)가 구현될 수도 있고, 도 1에 도시된 구성 요소보다 적은 구성 요소에 의해 궤적 추적 장치(100)가 구현될 수도 있다.1, the trajectory tracking apparatus 100 according to an embodiment includes an image sensor 200, a first velocity detector 210, a radar sensor 220, a second velocity detector 230, a controller (not shown) 300, and a display unit 400. [ However, not all of the components shown in Fig. 1 are essential components of the trajectory tracking device 100. [ The trajectory tracking device 100 may be implemented by more components than the components shown in FIG. 1, or the trajectory tracking device 100 may be implemented by fewer components than the components shown in FIG.

이미지 센서(200)는 타겟 및 사용자의 영상을 획득할 수 있다. 이미지 센서(200)는 타겟의 이동궤적을 촬영할 수 있다. 이미지 센서(200)는 적어도 하나의 카메라를 포함할 수 있다. 이미지 센서(200)는 복수의 타겟을 촬영하기 위하여 사용될 수 있다. 이미지 센서(200)는 360도의 촬영각도를 가지는 촬영을 진행할 수 있다. The image sensor 200 can acquire images of the target and the user. The image sensor 200 can capture the movement trajectory of the target. The image sensor 200 may include at least one camera. The image sensor 200 may be used to photograph a plurality of targets. The image sensor 200 can proceed shooting with a shooting angle of 360 degrees.

이미지 센서(200)는 레이더 센서(200)와 같은 위치에 설치될 수 있다. 또한, 이미지 센서(200)는 사용자의 머리가 향하는 방향에 설치될 수 있다. 이미지 센서(200)는 바닥면과 대응되는 천장면에 설치됨으로써, 움직이는 타겟의 궤도를 넓게 촬영할 수 있다. The image sensor 200 may be installed at the same position as the radar sensor 200. In addition, the image sensor 200 may be installed in a direction in which the user's head is directed. The image sensor 200 is installed in a ceiling scene corresponding to the bottom surface, so that the trajectory of the moving target can be photographed widely.

제 1속도 검출부(210)는 이미지 센서(200)로부터 적어도 하나 이상의 객체들의 이동 영상이 포함된 영상을 수신할 수 있다. 제 1속도 검출부(210)는 적어도 하나 이상의 객체들로부터 타겟을 결정하고, 타겟의 제 1속도를 검출할 수 있다. 이 경우, 결정되는 타겟은 복수 개일 수 있다. 예를 들어, 골프 스윙 영상에 포함된 객체는 골프 스윙을 하는 사람과 골프채의 헤드, 그리고 골프공 등이 있을 수 있으며, 이 중에서 골프공을 단독 타겟으로 설정하여 골프공의 이동 속도만을 측정하거나 또는 골프공과 함께 골프채의 헤드를 타겟으로 각각 설정하여 골프공의 이동 속도의 보정시에 골프채의 헤드의 이동 속도를 반영할 수도 있다.The first speed detection unit 210 may receive an image including a moving image of at least one or more objects from the image sensor 200. The first velocity detector 210 may determine a target from at least one or more objects and detect a first velocity of the target. In this case, a plurality of targets may be determined. For example, the object included in the golf swing image may be a person swinging a golf swing, a head of a golf club, and a golf ball. Of these, a golf ball may be set as a sole target, The head of the golf club may be set as a target together with the golf ball so as to reflect the moving speed of the head of the golf club at the time of correcting the moving speed of the golf ball.

제 1속도는 이미지 센서(200)를 통해 측정된 타겟의 이동 속도를 의미할 수 있다.The first speed may mean the moving speed of the target measured through the image sensor 200.

제 1속도 검출부(210)는 수신한 3차원 영상에서 미리 결정된 발사점에서부터 공중으로 이동하는 적어도 하나 이상의 객체를 인식하고 발사점에서 정지 상태로 인식된 객체가 공중으로 이동하는 객체를 타겟으로 설정할 수 있다.The first velocity detection unit 210 recognizes at least one object moving from the predetermined launch point to the air in the received three-dimensional image and sets the object recognized as a stationary state at the launch point as an object moving in the air have.

제 1속도 검출부(210)는 타겟의 위치를 미리 결정된 시간 간격으로 촬영한 영상의 픽셀수 데이터를 이용하여 타겟의 제 1속도를 검출할 수 있다.The first speed detector 210 can detect the first speed of the target using the pixel count data of the image taken at a predetermined time interval with respect to the target position.

제 1속도 검출부(210)는 적어도 하나 이상의 객체의 속도 정보 중 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거할 수 있다. 제 1속도 검출부(210)는 사용자의 퍼팅 동작을 촬영한 영상으로부터 골프공을 타겟으로 설정하여, 타겟의 제 1속도를 검출할 수 있다.The first speed detector 210 may remove the speed information of the remaining objects excluding the speed information of the target among the speed information of at least one object. The first speed detecting unit 210 can detect the first speed of the target by setting the golf ball as a target from the image of the user's putting operation.

제 1속도 검출부(210)는 클럽 헤드 및 골프공이 이동하는 영상으로부터, 클럽 헤드 및 골프공을 인식할 수 있다. 제 1속도 검출부(210)는 클럽헤드의 이동 후, 미리 설정된 발사점에서 이동되는 골프공을 타겟으로 설정할 수 있다. 제 1속도 검출부(210)는 타겟으로 설정된 골프공을 제외한, 나머지 객체(예를 들어, 클럽헤드)의 속도 정보를 제거할 수 있다. 즉, 불필요한 속도 정보를 제거함으로써, 타겟으로 설정된 골프공만의 속도를 제 1속도로 검출할 수 있다. 경우에 따라서 골프공 및 클럽 헤드를 타겟으로 설정한 경우에는 골프공 및 클럽 헤드에 대한 각각의 제1 속도를 검출하도록 할 수 있다. 이 경우, 각각의 타겟에 대해 이하의 프로세스가 진행되며 이후의 궤적 예측 및 속도 예측 과정에서 클럽 헤드에 대해 계산된 값을 이용하여 골프공의 속도를 보정할 수 있다.The first speed detecting unit 210 can recognize the club head and the golf ball from the images that the club head and the golf ball move. The first speed detecting unit 210 may set a golf ball that is moved at a preset firing point as a target after the movement of the club head. The first speed detector 210 may remove the speed information of the remaining object (for example, the club head) except for the golf ball set as the target. That is, by removing the unnecessary speed information, the speed of only the golf ball set as the target can be detected at the first speed. In some cases, if the golf ball and the club head are set as targets, the respective first speeds for the golf ball and the club head can be detected. In this case, the following process is performed for each target, and the velocity of the golf ball can be corrected using the values calculated for the club head in the subsequent trajectory prediction and velocity prediction processes.

제 1속도 검출부(210)는 타겟의 속도를 구간별로 측정하고, 구간별로 측정된 타겟의 속도를 제 1속도로 결정할 수 있다.The first speed detector 210 may measure the speed of the target by interval and may determine the speed of the target measured in each interval as the first speed.

제 1속도 검출부(210)는 타겟이 타격되는 순간의 및 배경의 깊이 정보를 이용하여 제 1속도를 검출할 수 있다. 이하에서 자세히 설명하도록 한다.The first velocity detector 210 can detect the first velocity using the depth information of the moment when the target is hit and the background. This will be described in detail below.

레이더 센서(220)는 타겟의 제 2속도를 측정할 수 있다.The radar sensor 220 may measure the second speed of the target.

레이더 센서(220)를 통한 타겟의 속도 측정은 주파수 분석을 통해 분석할 수 있다.The velocity measurement of the target through the radar sensor 220 can be analyzed through frequency analysis.

예를 들어, 도 5를 참고하면 레이더와 거리 R만큼 떨어진 물체가 정지해있다고 가정한 경우, 시간에 따른 주파수 파형을 나타낸다. 먼저 제1 파형과 같이 리니어(linear)하게 주파수 변조된 신호를 송신하면 거리 R의 물체에 반사되어

Figure 112016031390120-pat00002
의 시간 딜레이 이후 레이더에 수신된다. 여기서 R은 타겟과의 거리이고 c는 빛의 속도(
Figure 112016031390120-pat00003
)이다. 이때 송신한 신호와 수신된 신호를 서로 믹싱하면 그 차이 주파수를 얻어낼 수 있는데 그 주파수는 아래의 수학식 1과 같다.For example, referring to FIG. 5, when an object remote from the radar by a distance R is assumed to be stationary, a frequency waveform according to time is shown. First, when a linearly frequency-modulated signal is transmitted as in the first waveform, it is reflected on an object at a distance R
Figure 112016031390120-pat00002
Lt; RTI ID = 0.0 > delay < / RTI > Where R is the distance from the target and c is the speed of light
Figure 112016031390120-pat00003
)to be. At this time, if the transmitted signal and the received signal are mixed with each other, the difference frequency can be obtained. The frequency is expressed by Equation 1 below.

Figure 112016031390120-pat00004
Figure 112016031390120-pat00004

수학식 1에서 산출된 차이 주파수 정보를 기반으로 아래의 수학식 2에 대입하여 거리 R을 결정할 수 있다. Based on the difference frequency information calculated in Equation (1), the distance R can be determined by substituting into Equation (2) below.

Figure 112016031390120-pat00005
Figure 112016031390120-pat00005

또한, 레이더 센서(220)는 CW(continuous wave) 레이더 또는 FM-CW 레이더일 수 있다. 레이더 센서(200)는 움직이는 타겟의 속도를 측정하기 위해 고정된 전송 주파수를 사용할 수 있다. 레이더 센서(200)는 도플러 주파수 이동을 기반으로 움직이는 타겟의 속도를 측정할 수 있다. 만약, 레이더 센서(200)가 전송한 주파수

Figure 112016031390120-pat00006
의 신호와 움직이는 타겟의 상대 속도
Figure 112016031390120-pat00007
가 0이 아니라면, 수신된 신호는 딜레이된 주파수
Figure 112016031390120-pat00008
에 도플러 주파수
Figure 112016031390120-pat00009
가 쉬프트된 주파수
Figure 112016031390120-pat00010
또는
Figure 112016031390120-pat00011
를 가질 수 있다. Further, the radar sensor 220 may be a continuous wave (CW) radar or an FM-CW radar. The radar sensor 200 may use a fixed transmission frequency to measure the speed of the moving target. The radar sensor 200 can measure the velocity of a moving target based on the Doppler frequency shift. If the frequency transmitted by the radar sensor 200
Figure 112016031390120-pat00006
Of the target and the relative speed of the moving target
Figure 112016031390120-pat00007
Is not zero, the received signal is a delayed frequency
Figure 112016031390120-pat00008
Doppler frequency
Figure 112016031390120-pat00009
Shifted frequency
Figure 112016031390120-pat00010
or
Figure 112016031390120-pat00011
Lt; / RTI >

여기서,

Figure 112016031390120-pat00012
는 도플러 주파수 쉬프트로써 아래의 수학식 3과 같이 결정될 수 있다. here,
Figure 112016031390120-pat00012
Is a Doppler frequency shift and can be determined as shown in Equation (3) below.

Figure 112016031390120-pat00013
Figure 112016031390120-pat00013

여기서, c는 빛의 속도이고 타겟의 상대 속도

Figure 112016031390120-pat00014
는 레이더의 LOS(line of sight)에 따른 속도 요소로 결정될 수 있다. 아래의 수학식 4는 타겟의 상대 속도를 나타내는 수학식이다. Where c is the speed of light and the relative speed of the target
Figure 112016031390120-pat00014
Can be determined as a speed factor according to the line of sight (LOS) of the radar. Equation (4) below is a mathematical expression representing the relative speed of the target.

Figure 112016031390120-pat00015
Figure 112016031390120-pat00015

여기서

Figure 112016031390120-pat00016
는 타겟의 실제 속도이고,
Figure 112016031390120-pat00017
는 타겟 궤적과 LOS 사이의 각도를 나타낼 수 있다.here
Figure 112016031390120-pat00016
Is the actual speed of the target,
Figure 112016031390120-pat00017
Can represent the angle between the target trajectory and the LOS.

즉, 레이더 센서(200)를 기반으로 속도를 측정하는 방법은 움직이는 물체에 레이더를 발사할 때 생기는 도플러 주파수의 변조 주파수를 이용하는 것이다. 예를 들어, 센싱 신호의 발신자가 정지하고 있는 상태에서 1024GHz의 연속파를 물체를 향해서 발사하면 발진 주파수와 조금 다른 주파수의 반사파가 돌아오는데, 그 주파수 차이(Doppler Frequency)는 물체의 속도에 비례한다. 따라서 그 주파수의 차이를 알면 물체의 속도를 산출할 수 있다. 따라서, 레이더 센서(200)는 타겟의 속도를 정확하게 측정하는데 유용하게 사용될 수 있다.That is, the method of measuring the velocity based on the radar sensor 200 uses a modulation frequency of the Doppler frequency generated when the radar is fired on a moving object. For example, if a 1024 GHz continuous wave is launched toward an object while the sender of the sensing signal is stationary, a reflected wave with a frequency slightly different from the oscillation frequency returns. The frequency difference (Doppler Frequency) is proportional to the speed of the object. Therefore, knowing the difference of the frequency, the speed of the object can be calculated. Therefore, the radar sensor 200 can be usefully used to accurately measure the speed of the target.

제 2속도 검출부(230)는, 레이더 센서(200)로부터 타겟에 대한 레이더 센싱 신호를 수신하고, 레이더 센싱 신호를 신호 처리하여, 비트 신호에 대한 주파수 스펙트럼을 생성하고, 레이더의 이동 속도에 해당하는 주파수 대역의 피크값이 임계값을 비교하여, 타겟의 상태를 판단하고, 비트 신호에 대한 주파수 스펙트럼을 기반으로 타겟의 제 2속도를 검출할 수 있다.The second speed detector 230 receives a radar sensing signal for the target from the radar sensor 200 and performs signal processing on the radar sensing signal to generate a frequency spectrum for the bit signal, The peak value of the frequency band may be compared to determine the state of the target, and the second speed of the target may be detected based on the frequency spectrum for the bit signal.

제 2속도 검출부(230)는 레이더 센서(220)를 통해 수신한 신호에서 적어도 하나 이상의 객체의 움직임을 감지하고, 적어도 하나 이상의 객체에서, 발사점에서 정지 상태로 감지된 객체가 공중으로 이동하는 객체를 타겟으로 설정할 수 있다. The second speed detector 230 senses the movement of at least one object in the signal received through the radar sensor 220 and detects the movement of the at least one object, Can be set as a target.

제 2속도 검출부(230)는 적어도 하나 이상의 객체의 속도 정보 중 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거할 수 있다. 나머지 객체의 속도 정보를 제거하는 것은 노이즈 제거 필터를 통해 수행할 수 있다.The second speed detector 230 may remove the speed information of the remaining objects excluding the speed information of the target among the speed information of at least one object. Removing the speed information of the remaining objects can be performed through a noise elimination filter.

제 2속도 검출부(230)는 타겟의 속도를 구간별로 측정하는 단계, 및 구간별로 측정된 타겟의 속도를 제 2속도로 결정할 수 있다. 제 2속도 검출부(230)는 레이더로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득하는 단계, 획득한 정보를 기초로 레이더로부터 타겟이 이격된 거리 정보를 산출하는 단계, 및 거리 정보로부터 제 2속도를 검출할 수 있다.The second speed detector 230 may measure the speed of the target for each section and determine the speed of the target measured for each section at a second speed. The second speed detection unit 230 includes a step of obtaining the emission time point of the radiation wave radiated from the radar and the reception time information of the reflected wave, the step of calculating the distance information of the target from the radar based on the acquired information, The second speed can be detected.

제어부(300)는, 타겟의 제 1속도를 검출한 시간과 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 제 2속도를 이용하여 제 1속도를 보정하고, 보정된 타겟의 제 1속도를 이용하여 보정된 타겟의 궤적을 추적할 수 있다.The control unit 300 corrects the first velocity using the second velocity by mapping the time of detecting the first velocity of the target to the time of detecting the second velocity of the target, Can be used to track the trajectory of the corrected target.

제어부(300)는 제 1속도 검출부(210)로부터 수신한 타겟의 제 1속도를 검출한 시간과 제 2속도 검출보(230)로부터 수신한 타겟의 제 2속도를 검출한 시간이 대응되도록 시간 정보들을 매핑할 수 있다. The control unit 300 controls the first speed detecting unit 230 and the second speed detecting unit 230 so that the time of detecting the first speed of the target received from the first speed detecting unit 210 matches the time of detecting the second speed of the target received from the second speed detecting beam 230, Can be mapped.

제어부(300)는 검출된 제 1속도 및 제 2속도를 비교할 수 있다. 제어부(300)는 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는 지 미리 결정된 시간 구간 별로 판단할 수 있다.The control unit 300 may compare the detected first speed and the second speed. The controller 300 may determine whether the difference between the first speed and the second speed corresponds to a predetermined error range according to a predetermined time interval.

제어부(300)는 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 오차 범위를 벗어난 시간 구간에 대하여 제 1속도를 제 2속도로 대체할 수 있다. 즉, 여기서 제 1속도는 이미지 센서(200)의 초점, 성능, 화질 등에 따라서 속도의 정확도가 떨어질 수 있다. 제어부(300)는 제 2속도를 이용하여 제 1속도를 보정할 수 있다.If the difference between the first speed and the second speed deviates from the predetermined error range, the controller 300 may replace the first speed with the second speed for a time interval out of the error range. That is, the first speed may be lowered in speed accuracy depending on the focus, performance, image quality, etc. of the image sensor 200. The controller 300 may correct the first speed using the second speed.

제어부(300)는 매핑된 시간에서의 제 1속도 및 제 2속도를 비교하고, 상기 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는 지 미리 결정된 시간 구간 별로 판단할 수 있다. 제어부(300)는 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 오차 범위를 벗어난 시간 구간에 대하여 제 1속도를 상기 제 2속도로 대체할 수 있다.The controller 300 compares the first speed and the second speed at the mapped time and determines the difference between the first speed and the second speed according to a predetermined time interval that corresponds to a predetermined error range. If the difference between the first speed and the second speed is out of the predetermined error range, the controller 300 may replace the first speed with the second speed for a time interval out of the error range.

또한, 제어부(300)는 제 2속도로 대체된 제 1속도에 기초하여 타겟의 평균 속도를 산출할 수 있고, 제어부(300)는 산출된 타겟의 평균 속도에 기초하여, 타겟의 궤적을 추적할 수 있다.Further, the control unit 300 can calculate the average speed of the target based on the first speed replaced at the second speed, and the control unit 300 can track the target's trajectory based on the calculated average speed of the target .

디스플레이 부(400)는 타겟의 궤적을 출력할 수 있다. 디스플레이 부(400)는 사용자 정보, 사용자의 타격 영상, 타겟의 궤적, 환경설정 정보등을 표시할 수 있다.The display unit 400 can output the trajectory of the target. The display unit 400 may display user information, a batting image of a user, a trajectory of a target, environment setting information, and the like.

일 실시예에 의하여, 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 궤적 추적 장치(100)의 구현 형태에 따라 궤적 추적 장치(100)는 디스플레이부(400)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(400)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. According to one embodiment, the display unit 1210 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display ), A three-dimensional display (3D display), and an electrophoretic display (electrophoretic display). According to the implementation of the trajectory tracking device 100, the trajectory tracking device 100 may include two or more display portions 400. At this time, the two or more display units 400 may be arranged to face each other using a hinge.

다른 실시예에 의하여, 도 2에 도시된 바와 같이, 일부 실시예에 따른 궤적 추적 장치(1000)는, 사용자 입력부(1100), 출력부(1200), 제어부(1300), 및 통신부(1500) 이외에 센싱부(1400), A/V 입력부(1600), 및 메모리(1700)를 더 포함할 수도 있다. 2, the trajectory tracking apparatus 1000 according to some embodiments includes, in addition to the user input unit 1100, the output unit 1200, the control unit 1300, and the communication unit 1500, A sensing unit 1400, an A / V input unit 1600, and a memory 1700. [

사용자 입력부(1100)는, 사용자가 궤적 추적 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 1100 means means for the user to input data for controlling the trajectory tracking device 1000. For example, the user input unit 1100 may include a key pad, a dome switch, a touch pad (contact type capacitance type, pressure type resistive type, infrared ray detection type, surface ultrasonic wave conduction type, A tension measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

사용자 입력부(1100)는, 궤적 추적 장치(1000)의 환경 설정을 위한 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(1100)는 다시보기, 빨리 보기, 궤적의 추적 등의 궤적 보기 메뉴를 입력하는 사용자 입력을 수신할 수 있다.The user input unit 1100 can receive a user input for environment setting of the trajectory tracking device 1000. [ Also, the user input unit 1100 may receive a user input for inputting a trajectory view menu such as viewing, fast viewing, and tracing a trajectory.

출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.The output unit 1200 may output an audio signal or a video signal or a vibration signal and the output unit 1200 may include a display unit 1210, an acoustic output unit 1220, and a vibration motor 1230 have.

디스플레이부(1210)는 궤적 추적 장치(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(1210)는, 제 1속도 및 제 2속도에 의하여 보정된 타겟의 속도를 디스플레이 할 수 있다. 또한, 디스플레이부(1210) 보정된 타겟의 속도를 이용하여 추적된 타겟의 궤적을 디스플레이 할 수 있다. The display unit 1210 displays and outputs the information processed by the trajectory tracking apparatus 1000. For example, the display portion 1210 can display the speed of the target corrected by the first speed and the second speed. In addition, the display unit 1210 can display the traced target trajectory using the corrected target speed.

음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 궤적 추적 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit 1220 outputs audio data received from the communication unit 1500 or stored in the memory 1700. The sound output unit 1220 outputs sound signals related to the functions performed by the trajectory tracking apparatus 1000 (for example, a call signal reception tone, a message reception tone, a notification sound). The sound output unit 1220 may include a speaker, a buzzer, and the like.

진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 1230 can output a vibration signal. For example, the vibration motor 1230 may output a vibration signal corresponding to an output of audio data or video data (e.g., a call signal reception tone, a message reception tone, etc.). In addition, the vibration motor 1230 may output a vibration signal when a touch is input to the touch screen.

제어부(1300)는, 통상적으로 궤적 추적 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. The control unit 1300 typically controls the overall operation of the trajectory tracking device 1000. For example, the control unit 1300 may include a user input unit 1100, an output unit 1200, a sensing unit 1400, a communication unit 1500, an A / V input unit 1600 ) Can be generally controlled.

센싱부(1400)는, 궤적 추적 장치(1000)의 상태 또는 궤적 추적 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다. The sensing unit 1400 may sense the state of the trajectory tracking device 1000 or the state around the trajectory tracking device 1000 and may transmit the sensed information to the control unit 1300. [

센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1400 includes a magnetism sensor 1410, an acceleration sensor 1420, an on / humidity sensor 1430, an infrared sensor 1440, a gyroscope sensor 1450, (GPS) 1460, an air pressure sensor 1470, a proximity sensor 1480, and an RGB sensor (illuminance sensor) 1490, for example. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

통신부(1500)는, 궤적 추적 장치(1000)와 사용자 단말, 다른 서버 등 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. The communication unit 1500 may include one or more components that enable communication between the trajectory tracking device 1000 and a user terminal, another server, or the like. For example, the communication unit 1500 may include a local communication unit 1510, a mobile communication unit 1520, and a broadcast receiving unit 1530.

근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 151 includes a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a Near Field Communication unit, a WLAN communication unit, a Zigbee communication unit, IrDA, an infrared data association) communication unit, a WFD (Wi-Fi Direct) communication unit, an UWB (ultra wideband) communication unit, an Ant + communication unit, and the like.

이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 1520 transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 궤적 추적 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.The broadcast receiving unit 1530 receives broadcast signals and / or broadcast-related information from outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The locus tracking apparatus 1000 may not include the broadcast receiving unit 1530 according to the embodiment.

A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A / V (Audio / Video) input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610, a microphone 1620, and the like. The camera 1610 can obtain image frames such as still images or moving images through the image sensor in the video communication mode or the photographing mode. The image captured through the image sensor can be processed through the control unit 1300 or a separate image processing unit (not shown).

카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 1610 may be stored in the memory 1700 or may be transmitted to the outside via the communication unit 1500. More than one camera 1610 may be provided according to the configuration of the terminal.

마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 1620 receives an external acoustic signal and processes it as electrical voice data. For example, the microphone 1620 may receive acoustic signals from an external device or speaker. The microphone 1620 may use various noise reduction algorithms to remove noise generated in receiving an external sound signal.

메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 궤적 추적 장치(1000)로 입력되거나 궤적 추적 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. The memory 1700 may store a program for processing and control of the control unit 1300 and may store data input to or output from the trajectory tracking apparatus 1000. [

메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 1700 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like.

메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the memory 1700 can be classified into a plurality of modules according to their functions, for example, a UI module 1710, a touch screen module 1720, a notification module 1730, .

UI 모듈(1710)은, 애플리케이션 별로 궤적 추적 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1710 can provide a specialized UI, a GUI, and the like that are interlocked with the trajectory tracking device 1000 for each application. The touch screen module 1720 senses a touch gesture on the user's touch screen and can transmit information on the touch gesture to the control unit 1300. [ The touch screen module 1720 according to some embodiments may recognize and analyze the touch code. The touch screen module 1720 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided in or near the touch screen to sense the touch or near touch of the touch screen. An example of a sensor for sensing the touch of the touch screen is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object with a degree or more that a person feels. The tactile sensor can detect various information such as the roughness of the contact surface, the rigidity of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, a proximity sensor is an example of a sensor for sensing the touch of the touch screen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. The user's touch gestures can include tap, touch & hold, double tap, drag, panning, flick, drag and drop, swipe, and the like.

알림 모듈(1730)은 궤적 추적 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 궤적 추적 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module 1730 may generate a signal for notifying the occurrence of an event of the trajectory tracking device 1000. [ Examples of events generated in the trajectory tracking apparatus 1000 include call signal reception, message reception, key signal input, schedule notification, and the like. The notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210 or may output a notification signal in the form of an audio signal through the sound output unit 1220, It is possible to output a notification signal in the form of a vibration signal.

도 3은 일 실시예에 의하여, 이미지 센서 및 레이더 센서를 이용하여 타겟의 궤적을 추적하는 방법의 흐름도를 나타낸 것이다.3 shows a flow chart of a method for tracking a target trajectory using an image sensor and a radar sensor, according to an embodiment.

단계 S310에서, 궤적 추적 장치(100)는 이미지 센서를 통해, 적어도 하나 이상의 객체들의 이동 상태가 포함된 영상을 획득할 수 있다. 궤적 추적 장치(100)는, 타겟을 촬영하기 위하여 타겟의 주위에 설치된 이미지 센서를 통해 타겟의 이동 상태가 포함된 영상을 획득할 수 있다. 보다 구체적으로, 궤적 추적 장치(100)는 사용자의 클럽 헤드에 의하여 골프공이 타격되는 경우, 정지된 골프공이 공중으로 이동하는 영상을 획득할 수 있다. 또한, 영상에는 클럽 헤드가 이동되는 장면이 포함될 수 있다.In step S310, the trajectory tracking device 100 can acquire an image including the moving state of at least one or more objects through the image sensor. The trajectory tracking device 100 can acquire an image including the moving state of the target through an image sensor installed around the target to photograph the target. More specifically, the trajectory tracking device 100 can acquire an image in which the stopped golf ball moves to the air when the golf ball is struck by the user's club head. Also, the image may include a scene in which the club head is moved.

단계 S320에서, 궤적 추적 장치(100)는 적어도 하나 이상의 객체들로부터 타겟을 결정할 수 있다. In step S320, the trajectory tracking device 100 may determine a target from at least one or more objects.

즉, 궤적 추적 장치(100)는 사용자에 의하여 움직이는 클럽 헤드 및 골프공을 객체로서 인식할 수 있다. 궤적 추적 장치(100)는 골프공을 타겟으로서 결정할 수 있다.That is, the trajectory tracking device 100 can recognize a club head and a golf ball moved by a user as objects. The trajectory tracking device 100 can determine a golf ball as a target.

보다 구체적으로, 궤적 추적 장치(100)는 이미지 센서로부터 획득한 영상에서 미리 결정된 발사점에서부터 공중으로 이동하는 적어도 하나 이상의 객체를 인식할 수 있다. 궤적 추적 장치(100)는 미리 결정된 발사점에서 정지 상태로 인식된 객체가 공중으로 이동하는 객체를 타겟으로 설정할 수 있다. la리 결정된 발사점은, 골프공을 타격하기 위하여 골프공을 놓아두는 바닥면을 의미할 수 있다. More specifically, the trajectory tracking device 100 can recognize at least one object moving from the predetermined firing point to the air in the image acquired from the image sensor. The trajectory tracking device 100 can target an object that is recognized as a stationary state at a predetermined launch point to the air. The la-la determined launch point, can mean the bottom side, which leaves the golf ball to strike the golf ball.

단계 S330에서, 궤적 추적 장치(100)는 획득한 영상으로부터 타겟의 제 1속도를 검출할 수 있다. 타겟의 속도는 영상을 촬영한 시간 및 영상에서 타겟이 이동하는 거리를 분석함으로서 검출될 수 있다.In step S330, the trajectory tracking device 100 can detect the first speed of the target from the acquired image. The speed of the target can be detected by analyzing the time at which the image was taken and the distance the target moves in the image.

단계 S340에서, 궤적 추적 장치(100)는 레이더 센서를 통해 타겟의 제 2속도를 검출할 수 있다. 궤적 추적 장치(100)는 레이더 센서로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득할 수 있다.In step S340, the trajectory tracking device 100 can detect the second speed of the target via the radar sensor. The trajectory tracking apparatus 100 can acquire the emission time point of the radiation wave radiated from the radar sensor and the reception time point information of the reflected wave.

궤적 추적 장치(100)는 획득한 정보를 기초로 레이더로부터 타겟이 이격된 거리 정보를 산출할 수 있다. 궤적 추적 장치(100)는 산출된 거리 정보로부터 제 2속도를 검출하는 단계를 포함할 수 있다.The trajectory tracking device 100 can calculate the distance information of the target from the radar based on the acquired information. The trajectory tracking device 100 may include detecting a second velocity from the calculated distance information.

단계 S350에서, 궤적 추적 장치(100)는 타겟의 제 1속도를 검출한 시간과, 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 제 2속도를 이용하여 제 1속도를 보정할 수 있다.In step S350, the trajectory tracking device 100 can correct the first velocity using the second velocity by mapping the time of detecting the first velocity of the target to the time of detecting the second velocity of the target.

단계 S360에서, 궤적 추적 장치(100)는 보정된 타겟의 제 1속도를 이용하여 타겟의 궤적을 추적할 수 있다. 즉, 궤적 추적 장치(100)는 이미지 센서로부터 얻어진 속도가 명백하지 않은 경우, 레이더 센서를 이용하여 측정한 속도를 이용하여 타겟의 속도를 보정하여 궤적을 추적할 수 있다.In step S360, the trajectory tracking device 100 can track the trajectory of the target using the first speed of the corrected target. That is, when the velocity obtained from the image sensor is not clear, the trajectory tracking apparatus 100 can track the trajectory by correcting the velocity of the target using the velocity measured using the radar sensor.

보다 자세하게 살피면, 궤적 추적 장치(100)는 검출된 제 1속도 및 제 2속도를 비교할 수 있다. 궤적 추적 장치(100)는 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는 지 미리 결정된 시간 구간 별로 판단할 수 있다. 궤적 추적 장치(100)는 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 오차 범위를 벗어난 시간 구간에 대하여 제 1속도를 제 2속도로 대체할 수 있다.In more detail, the trajectory tracking device 100 can compare the detected first speed and second speed. The trajectory tracking device 100 can determine whether the difference between the first speed and the second speed corresponds to a predetermined error range by a predetermined time interval. The trajectory tracking apparatus 100 may replace the first speed with the second speed for a time interval out of the error range when the difference between the first speed and the second speed deviates from a predetermined error range.

또한, 궤적 추적 장치(100)는 제 2속도로 대체된 제 1속도에 기초하여 타겟의 평균 속도를 산출할 수 있으며, 궤적 추적 장치(100)는 산출된 타겟의 평균 속도에 기초하여, 타겟의 궤적을 추적할 수 있다.Further, the trajectory tracking device 100 can calculate the average speed of the target based on the first speed replaced at the second speed, and the trajectory tracking device 100 can calculate the average speed of the target Trajectory can be tracked.

도 4는 일 실시예에 의하여, 타겟의 궤도를 측정하는 일 실시예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment for measuring the trajectory of a target according to an embodiment.

궤적 추적 장치(100)는 타겟(6)이 사용자의 타격에 의하여 발사점에서부터 공중으로 이동하는 경우, 타겟(6)의 궤적을 이미지 센서(200) 및 레이더 센서(220)를 이용하여 추적할 수 있다.The trajectory tracking device 100 can track the trajectory of the target 6 using the image sensor 200 and the radar sensor 220 when the target 6 moves from the firing point to the air due to the impact of the user have.

궤적 추적 장치(100)는 골프공이 사용자에 의하여 타격되는 경우, 클럽 헤드(4) 및 골프공(6)이 이동되는 영상을 획득할 수 있다. The trajectory tracking device 100 can acquire images in which the club head 4 and the golf ball 6 are moved when the golf ball is hit by the user.

도 4를 참조하면, 클럽 헤드(4)가 발사점에 근접하도록 이동 한 후, 골프공(6)의 이동과 함께 이동됨을 알 수 있다. 클럽 헤드(4)는 사용자에 의하여 고정되어 있는 바, 골프공(6)을 타격한 후의 힘에 의하여 사용자의 이동반경 내에서 이동할 수 있다. 도 4에서 클럽 헤드(4)는 진행방향 10→12→14와 같이 이동함을 확인할 수 있다.Referring to FIG. 4, it can be seen that the club head 4 is moved close to the launch point and then moved together with the movement of the golf ball 6. The club head 4 is fixed by the user and can move within the movement radius of the user by the force after striking the golf ball 6. In FIG. 4, it can be confirmed that the club head 4 moves in the proceeding direction 10 → 12 → 14.

골프공(6)은 발사점에 정지상태로 위치하여 있다가, 클럽 헤드(4)에 의하여 타격된 후 16→18→20과 같이 이동함을 확인할 수 있다. 궤적 추적 장치(100)는 골프공(6) 및 클럽 헤드(4)의 움직임을 확인하고, 발사점에서 정지상태로 있다가 공중으로 이동한 골프공(6)을 타겟으로 설정할 수 있다. 궤적 추적 장치(100)는 발사점에서의 골프공(6) 발사 전 후의 영상의 시퀀스 분석을 통해, 골프공(6)의 수직 및 수평 각을 결정할 수 있다. 즉, 궤적 추적 장치(100)는 타겟으로 설정된 골프공(6)의 이동 영상의 분석을 통해 제 1속도를 검출할 수 있다. It can be confirmed that the golf ball 6 is positioned in a stationary state at the firing point and is moved by 16 → 18 → 20 after being hit by the club head 4. [ The trajectory tracking device 100 can confirm the movement of the golf ball 6 and the club head 4 and can target the golf ball 6 that has been stationary at the firing point and moved to the air. The trajectory tracking device 100 can determine the vertical and horizontal angles of the golf ball 6 through sequence analysis of the images before and after launching the golf ball 6 at the launch point. That is, the trajectory tracking device 100 can detect the first speed through analysis of the moving image of the golf ball 6 set as the target.

또한, 궤적 추적 장치(100)는 레이더 센서(220)를 통해 골프공(6)의 제 2속도를 검출할 수 있다. 궤적 추적 장치(100)는 CW 레이더를 이용하여, 타겟의 속도 성분에 해당하는 도플러 주파수를 추출할 수 있다. 궤적 추적 장치(100)는 타겟에 대한 전송 신호 및 반사신호를 분석함으로써, 구간별로 타겟의 제 2속도를 검출할 수 있다.In addition, the trajectory tracking device 100 can detect the second speed of the golf ball 6 via the radar sensor 220. The trajectory tracking device 100 can extract the Doppler frequency corresponding to the velocity component of the target using the CW radar. The trajectory tracking device 100 can detect the second speed of the target by analyzing the transmission signal and the reflection signal for the target.

궤적 추적 장치(100)는 제 1속도와 제 2속도를 동일 시간에 매핑시킴으로써, 속도의 오차를 찾아낼 수 있다. 궤적 추적 장치(100)는 속도의 오차가 발생하는 시간 구간에 대하여, 제 2속도를 이용하여 제 1속도 정보를 보정할 수 있다. 즉, 궤적 추적 장치(100)는 이미지 센서(200)의 오류로 인한 제 1속도의 오류를 레이더 센서(220)를 통해 측정한 제 2속도로 보완할 수 있다. 이로 인하여, 궤적 추적 장치(100)는 정확도가 향상된 골프공(6)의 정확한 궤적을 추적할 수 있다.The trajectory tracking device 100 can find the error of the velocity by mapping the first velocity and the second velocity at the same time. The locus tracking apparatus 100 can correct the first speed information using the second speed with respect to the time period in which the speed error occurs. That is, the trajectory tracking device 100 can compensate for the error of the first speed due to the error of the image sensor 200 to the second speed measured through the radar sensor 220. Thus, the trajectory tracking device 100 can track the accurate trajectory of the golf ball 6 with improved accuracy.

다른 실시예에 의하여, 궤적 추적 장치(100)는 영상의 깊이 정보를 통해 타겟의 궤적을 검출할 수 있다. 궤적 추적 장치(100)는 영상의 깊이 정보를 이용하여 헤드의 이동 궤적으로부터 헤드가 바깥쪽에서 안쪽으로 타점위치를 지나가는지, 안쪽에서 바깥쪽으로 지나가는지 등을 판단하고, 퍼팅 방향 및 각도, 헤드의 속도와 공을 타점하는 위치로부터 공이 굴러간 거리를 판단할 수 있다.According to another embodiment, the trajectory tracking apparatus 100 can detect the trajectory of the target through the depth information of the image. The trajectory tracking apparatus 100 judges from the moving trajectory of the head whether the head passes from the outside to the inside and passes from the inside to the outside, using the depth information of the image, and determines the putting direction and angle, And the distance the ball is rolled from the position where the ball is hit.

일 실시예에 의하여, 이미지 센서는 영상의 깊이 정보를 획득할 수 있는 깊이 카메라 모듈을 포함할 수 있다.According to one embodiment, the image sensor may include a depth camera module capable of acquiring depth information of the image.

궤적 추적 장치(100)는 깊이 카메라 모듈로부터 배경 영상 및 타켓이 발사점에 위치하는 시점부터 퍼팅이 종료되는 시점까지의 깊이 영상을 획득할 수 있다. 궤적 추적 장치(100)는 퍼터를 공 뒤에 위치하는 시점부터 퍼팅을 마치는 시점까지의 깊이 영상을 획득할 수 있다.The trajectory tracking apparatus 100 can acquire a background image from the depth camera module and a depth image from a point at which the target is positioned at the launch point to a point at which the putting ends. The trajectory tracking device 100 can acquire a depth image from the time when the putter is positioned behind the ball to the time when the putting is finished.

궤적 추적 장치(100)는 깊이 영상의 화면을 배경 영상에서의 깊이 값과 비교하여 타겟을 검출할 수 있다. 여기서, 타겟은 타격된 골프공을 의미할 수 있다.The trajectory tracking apparatus 100 can detect a target by comparing the screen of the depth image with the depth value in the background image. Here, the target may mean a hit golf ball.

궤적 추적 장치(100)는 타겟에서 포인터를 추출할 수 있다. 궤적 추적 장치(100)는 타겟의 중심점을 포인터로서 추출할 수 있다.The trajectory tracking device 100 can extract a pointer from the target. The trajectory tracking device 100 can extract the center point of the target as a pointer.

도 6은 일 실시예에 의하여, 타겟의 움직임을 추적하여 중심점을 저장하는 방법을 나타낸 도면이다.6 is a diagram illustrating a method of tracking a movement of a target and storing a center point according to an embodiment.

도 6에서와 같이, 클럽 헤드(4)가 골프공(6)하고 충돌하게 된다면 두 개의 객체가 서로 충돌하게 된다. 궤적 추적 장치(100)는 충돌시점부터 골프공(6)의 움직임을 추적하여 중심점을 저장할 수 있다. 궤적 추적 장치(100)는 공의 중심점을 계속 저정하고, 분석함으로써 초기 속도를 알 수 있다. 또한, 궤적 추적 장치(100)는 골프장과 퍼팅 장소의 마찰력이 다를 수 있기 때문에 실제 측정된 거리(S)와 보정되는 계산치를 보정해줄 수 있다.As shown in FIG. 6, if the club head 4 collides with the golf ball 6, two objects collide with each other. The trajectory tracking device 100 can track the movement of the golf ball 6 from the point of collision and store the center point. The trajectory tracking device 100 can know the initial velocity by continuously keeping the ball center point and analyzing it. In addition, since the trajectory tracking device 100 may have different frictional forces between the golf course and the putting place, the trajectory tracking device 100 may correct the actually measured distance S and the calculated correction value.

또한, 수학식 5를 참조하면, 초기 속도를 보정한 값을 v0라 하고, 골프공(6)을 퍼팅한 후 지난 시간을 t라 하고 그린에서의 마찰계수를 고려한 가속도를 a이라 하면 시간 t일 때의 공의 위치를 계산할 수 있다. Referring to Equation (5), let v 0 be a value obtained by correcting the initial velocity, let t be the time after putting the golf ball (6), and let the acceleration taking the friction coefficient into consideration into a be a It is possible to calculate the position of the ball.

Figure 112016031390120-pat00018
Figure 112016031390120-pat00018

궤적 추적 장치(100)는 수학식 5를 이용하여 특정 시점에서의 공의 위치와 최종적으로 공이 도착하는 위치를 계산할 수 있다. 또한, 궤적 추적 장치(100)는 계산된 위치와 측정 시간을 통해 골프공(6)의 속도를 계산할 수 있다.The trajectory tracking apparatus 100 can calculate the position of the ball at a specific time point and the position at which the ball finally arrives by using Equation (5). The trajectory tracking device 100 can also calculate the velocity of the golf ball 6 based on the calculated position and the measured time.

궤적 추적 장치(100)는 추출된 포인터 위치의 깊이 값을 기준으로 영상에서 공간 좌표를 계산할 수 있다. 또한, 궤적 추적 장치(100)는 미리 결정된 시간 구간에 따라, 포인터의 3차원 좌표 값을 획득하고, 3차원 좌표값의 분석을 통해 포인터의 속도를 검출할 수 있다.The trajectory tracking apparatus 100 can calculate the spatial coordinates in the image based on the depth value of the extracted pointer position. In addition, the trajectory tracking apparatus 100 can obtain the three-dimensional coordinate value of the pointer according to a predetermined time period, and can detect the speed of the pointer through analysis of the three-dimensional coordinate value.

도 7은 일 실시예에 의하여, 미리 결정된 구간에 따라 타겟의 방향각도를 구하는 실시예를 설명하기 위한 도면이다.7 is a view for explaining an embodiment in which the directional angle of the target is obtained according to a predetermined section according to an embodiment.

도 7에서와 같이, 궤적 추적 장치(100)는 구해진 공의 거리 S와 매 프레임마다 측정된 K값을 바탕으로 중앙에서 오른쪽 또는 왼쪽으로 방향 각도 θ를 구할 수 있다. 궤적 추적 장치(100)는 최종적으로 공이 굴러간 거리 S, 방향 각도 θ, 중앙선을 기준으로 오른쪽 또는 왼쪽으로 벌어진 거리 K를 계산할 수 있다. 궤적 추적 장치(100)는 거리와 방향을 결정하여 타겟의 궤적을 추적할 수 있다. 궤적 추적 장치(100)는 타겟의 궤적을 3차원 좌표로부터 분석할 수 있다.As shown in FIG. 7, the trajectory tracking apparatus 100 can obtain the direction angle? From the center to the right or left based on the calculated distance S of the ball and the K value measured every frame. The trajectory tracking device 100 can finally calculate the distance K, which is the distance S between the ball and the direction angle?, And the distance K to the right or left with respect to the center line. The trajectory tracking device 100 can track the trajectory of the target by determining the distance and direction. The trajectory tracking device 100 can analyze the trajectory of the target from three-dimensional coordinates.

궤적 추적 장치(100)는 포인터의 속도로부터 타겟의 초기 속도를 구하고, 실제 측정된 거리와 보정계수를 이용하여 제 1속도를 보정할 수 있다. The trajectory tracking device 100 can obtain the initial velocity of the target from the velocity of the pointer and correct the first velocity using the actually measured distance and the correction coefficient.

다른 실시예에 의하여, 궤적 추적 장치(100)는 사용자가 퍼팅 잔디의 빠르기, 경사도 등을 설정하면 설정 환경에 맞게 퍼팅공의 방향, 각도, 거리 등을 표시할 수 있다. 또한, 궤적 추적 장치(100)는 카메라뷰 관점에서 퍼팅 스윙하는 동영상을 다양한 속도 모드로 재생해줄 수 있다. 또한, 모든 화면을 합쳐서 겹친 모드로 보여줄 수 있다. 궤적 추적 장치(100)는 골프공이 굴러가는 또는 굴러오는 방향뷰 관점에서 퍼팅 스윙하는 동영상을 다양한 속도 모드로 재생해줄 수 있다. According to another embodiment, the trajectory tracking device 100 can display the direction, angle, distance, etc. of the putting ball according to the setting environment when the user sets the speed, inclination, etc. of the putting grass. In addition, the trajectory tracking device 100 can reproduce a moving image of a putting swing in various speed modes from the viewpoint of a camera view. In addition, all screens can be combined and displayed in overlapping mode. The trajectory tracking device 100 can reproduce a moving image of a putting swing in a variety of speed modes from the viewpoint of a direction in which the golf ball rolls or rolls.

도면들에 도시된 다양한 요소들의 기능들은 적절한 소프트웨어와 관련되어 소프트웨어를 실행할 수 있는 하드웨어뿐만 아니라 전용 하드웨어의 이용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 이런 기능은 단일 전용 프로세서, 단일 공유 프로세서, 또는 일부가 공유될 수 있는 복수의 개별 프로세서에 의해 제공될 수 있다. 또한, 용어 "제어부" 또는 "...부"의 명시적 이용은 소프트웨어를 실행할 수 있는 하드웨어를 배타적으로 지칭하는 것으로 해석되지 말아야 하며, 제한 없이, 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 및 비휘발성 저장장치를 묵시적으로 포함할 수 있다.The functions of the various elements shown in the figures may be provided through use of dedicated hardware as well as hardware capable of executing the software in association with the appropriate software. When provided by a processor, such functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared. Also, the explicit use of the term " control portion "or" portion "should not be construed to refer exclusively to hardware capable of executing software and includes, without limitation, digital signal processor (DSP) hardware, (ROM), a random access memory (RAM), and a non-volatile storage device.

본 명세서의 청구항들에서, 특정 기능을 수행하기 위한 수단으로서 표현된 요소는 특정 기능을 수행하는 임의의 방식을 포괄하고, 이러한 요소는 특정 기능을 수행하는 회로 요소들의 조합, 또는 특정 기능을 수행하기 위한 소프트웨어를 수행하기 위해 적합한 회로와 결합된, 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함할 수 있다. In the claims hereof, the elements depicted as means for performing a particular function encompass any way of performing a particular function, such elements being intended to encompass a combination of circuit elements that perform a particular function, Or any form of software, including firmware, microcode, etc., in combination with circuitry suitable for carrying out the software for the processor.

본 명세서에서 일 실시 예와 이런 표현의 다양한 변형들의 지칭은 이 실시 예와 관련되어 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시 예에 포함된다는 것을 의미한다. 따라서, 표현 "일 실시 예에서"와, 본 명세서 전체를 통해 개시된 임의의 다른 변형 예시들은 반드시 모두 동일한 실시 예를 지칭하는 것은 아니다.Reference throughout this specification to one embodiment and various modifications of the phrase, means that a particular feature, structure, characteristic, etc., is included in at least one embodiment of the principles of the invention in connection with the embodiment. Thus, the appearances of the phrase "in one embodiment" and any other variation disclosed throughout this specification are not necessarily all referring to the same embodiment.

본 명세서에서, 'A와 B 중 적어도 하나'의 경우에서 '~중 적어도 하나'의 표현은, 첫 번째 옵션 (A)의 선택만, 또는 두 번째 열거된 옵션 (B)의 선택만, 또는 양쪽 옵션들 (A와 B)의 선택을 포괄하기 위해 사용된다. 추가적인 예로 'A, B, 및 C 중 적어도 하나'의 경우는, 첫 번째 열거된 옵션 (A)의 선택만, 또는 두 번째 열거된 옵션 (B)의 선택만, 또는 세 번째 열거된 옵션 (C)의 선택만, 또는 첫 번째와 두 번째 열거된 옵션들 (A와 B)의 선택만, 또는 두 번째와 세 번째 열거된 옵션 (B와 C)의 선택만, 또는 모든 3개의 옵션들의 선택(A와 B와 C)이 포괄할 수 있다. 더 많은 항목들이 열거되는 경우에도 당업자에게 명백하게 확장 해석될 수 있다.In this specification, the expression 'at least one of' in the case of 'at least one of A and B' means that only the selection of the first option (A) or only the selection of the second listed option (B) It is used to encompass the selection of options (A and B). As an additional example, in the case of 'at least one of A, B and C', only the selection of the first enumerated option (A) or only the selection of the second enumerated option (B) Only the selection of the first and second listed options A and B or only the selection of the second and third listed options B and C or the selection of all three options A, B, and C). Even if more items are listed, they can be clearly extended to those skilled in the art.

본 발명에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An apparatus according to the present invention may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, Devices, and the like. Methods implemented with software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.

본 명세서를 통해 개시된 모든 실시 예들과 조건부 예시들은, 본 실시 예의 기술 분야에서 통상의 지식을 가진 당업자가 실시 예의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 실시 예의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시 예의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 실시 예에 포함된 것으로 해석되어야 할 것이다.It is to be understood that all embodiments and conditional statements disclosed herein are intended to assist those of ordinary skill in the art in understanding the principles and concepts of the embodiments disclosed herein without departing from the essential characteristics of the embodiments It is to be understood that the invention may be embodied in various other forms without departing from the spirit or scope of the invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the embodiments is set forth in the appended claims rather than the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the embodiments.

Claims (13)

이미지 센서 및 레이더 센서를 이용하여 타겟(target)의 궤적을 추적하는 방법에 있어서,
상기 이미지 센서를 통해, 적어도 하나 이상의 객체들의 이동상태가 포함된 영상을 획득하는 단계;
상기 적어도 하나 이상의 객체들로부터 상기 타겟을 결정하는 단계;
상기 획득한 영상으로부터 상기 타겟의 제 1속도를 검출하는 단계;
상기 레이더 센서를 통해 상기 타겟의 제 2속도를 검출하는 단계;
상기 타겟의 제 1속도를 검출한 시간과 상기 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 상기 제 2속도를 이용하여 상기 제 1속도를 보정하는 단계;및
상기 보정된 타겟의 제 1속도를 이용하여 상기 타겟의 궤적을 추적하는 단계;를 포함하고,
상기 타겟을 결정하는 단계는,
상기 획득한 영상에서 미리 결정된 발사점에서부터 공중으로 이동하는 적어도 하나 이상의 객체를 인식하는 단계;및
상기 적어도 하나 이상의 객체에서, 상기 발사점에서 정지 상태로 인식된 객체가 상기 공중으로 이동하는 객체를 타겟으로 설정하는 단계;를 포함하고,
상기 제 1속도를 검출하는 단계는,
상기 적어도 하나 이상의 객체의 속도 정보 중 상기 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거하는 단계;
상기 타겟의 속도를 구간별로 측정하는 단계;및
상기 구간별로 측정된 타겟의 속도를 제 1속도로 결정하는 단계;를 포함하고,
상기 타겟의 제 2속도를 검출하는 단계는,
상기 레이더를 통해 수신한 신호에서 적어도 하나 이상의 객체의 움직임을 감지하는 단계;
상기 적어도 하나 이상의 객체에서, 상기 발사점에서 정지 상태로 감지된 객체가 상기 공중으로 이동하는 객체를 타겟으로 설정하는 단계;
상기 적어도 하나 이상의 객체의 속도 정보 중 상기 타겟의 속도 정보를 제외한 나머지 객체의 속도 정보를 제거하는 단계;
상기 타겟의 속도를 구간별로 측정하는 단계;및
상기 구간별로 측정된 타겟의 속도를 제 2속도로 결정하는 단계;를 포함하는, 방법.
A method of tracking a trajectory of a target using an image sensor and a radar sensor,
Obtaining an image including a moving state of at least one object through the image sensor;
Determining the target from the at least one or more objects;
Detecting a first velocity of the target from the acquired image;
Detecting a second velocity of the target via the radar sensor;
Correcting the first velocity using the second velocity by mapping a time of detecting the first velocity of the target to a time of detecting the second velocity of the target;
Tracking the trajectory of the target using the first speed of the corrected target,
Wherein the determining the target comprises:
Recognizing at least one object moving in the air from a predetermined firing point in the acquired image;
Setting an object recognized as a stationary state at the launch point as a target to be moved to the air in the at least one object,
Wherein detecting the first velocity comprises:
Removing velocity information of a remaining object excluding velocity information of the target among velocity information of the at least one object;
Measuring the velocity of the target by interval; and
Determining a velocity of the target measured at each of the intervals as a first velocity,
Wherein detecting the second speed of the target comprises:
Detecting movement of at least one object in the signal received through the radar;
Setting, in the at least one object, an object detected as a stationary state at the launch point as an object moving to the air;
Removing velocity information of a remaining object excluding velocity information of the target among velocity information of the at least one object;
Measuring the velocity of the target by interval; and
And determining a velocity of the target measured for each of the intervals as a second velocity.
삭제delete 이미지 센서 및 레이더 센서를 이용하여 타겟(target)의 궤적을 추적하는 방법에 있어서,
상기 이미지 센서를 통해, 적어도 하나 이상의 객체들의 이동상태가 포함된 영상을 획득하는 단계;
상기 적어도 하나 이상의 객체들로부터 상기 타겟을 결정하는 단계;
상기 획득한 영상으로부터 상기 타겟의 제 1속도를 검출하는 단계;
상기 레이더 센서를 통해 상기 타겟의 제 2속도를 검출하는 단계;
상기 타겟의 제 1속도를 검출한 시간과 상기 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 상기 제 2속도를 이용하여 상기 제 1속도를 보정하는 단계;및
상기 보정된 타겟의 제 1속도를 이용하여 상기 타겟의 궤적을 추적하는 단계;를 포함하고,
상기 타겟의 제 1속도를 검출하는 단계는,
상기 타겟의 위치를 미리 결정된 시간 간격으로 촬영한 상기 영상의 픽셀수 데이터를 이용하여 상기 타겟의 제 1속도를 검출하고,
상기 타겟의 제 2속도를 검출하는 단계는,
상기 레이더로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득하는 단계;
상기 획득한 정보를 기초로 상기 레이더로부터 상기 타겟이 이격된 거리 정보를 산출하는 단계;및
상기 거리 정보로부터 상기 제 2속도를 검출하는 단계;를 포함하며,
상기 제 2속도를 이용하여 상기 제 1속도를 보정하는 단계는,
상기 매핑된 시간에서의 제 1속도 및 제 2속도를 비교하는 단계;
상기 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는지 미리 결정된 시간 구간 별로 판단하는 단계; 및
상기 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 상기 오차 범위를 벗어난 시간 구간에 대하여 상기 제 1속도를 상기 제 2속도로 대체하는 단계;를 포함하는, 방법.
A method of tracking a trajectory of a target using an image sensor and a radar sensor,
Obtaining an image including a moving state of at least one object through the image sensor;
Determining the target from the at least one or more objects;
Detecting a first velocity of the target from the acquired image;
Detecting a second velocity of the target via the radar sensor;
Correcting the first velocity using the second velocity by mapping a time of detecting the first velocity of the target to a time of detecting the second velocity of the target;
Tracking the trajectory of the target using the first speed of the corrected target,
Wherein detecting the first velocity of the target comprises:
Detecting a first speed of the target using pixel count data of the image captured at a predetermined time interval of the position of the target,
Wherein detecting the second speed of the target comprises:
Obtaining information on the time of emission of the radiated wave from the radar and the time of receiving the reflected wave;
Calculating distance information of the target from the radar based on the obtained information;
And detecting the second velocity from the distance information,
Wherein the step of calibrating the first velocity using the second velocity comprises:
Comparing the first rate and the second rate at the mapped time;
Determining whether a difference between the first speed and the second speed corresponds to a predetermined error range for each predetermined time interval; And
And replacing the first velocity with the second velocity for a time interval outside the error range if the difference between the first velocity and the second velocity is outside a predetermined error range.
삭제delete 제 1항에 있어서,
상기 제 2속도를 검출하는 단계는,
상기 레이더 센서로부터 상기 타겟에 대한 레이더 센싱 신호를 수신하는 단계;
상기 레이더 센싱 신호를 신호 처리하여, 비트 신호에 대한 주파수 스펙트럼을 생성하는 단계;
상기 레이더 센서의 이동 속도에 해당하는 주파수 대역의 피크값이 임계값을 비교하여, 상기 타겟의 상태를 판단하는 단계;및
상기 비트 신호에 대한 주파수 스펙트럼을 기반으로 상기 타겟의 제 2속도를 검출하는 단계;를 포함하는, 방법.
The method according to claim 1,
Wherein the step of detecting the second velocity comprises:
Receiving a radar sensing signal for the target from the radar sensor;
Signal processing the radar sensing signal to generate a frequency spectrum for the bit signal;
Comparing a peak value of a frequency band corresponding to a moving speed of the radar sensor with a threshold value to determine a state of the target;
And detecting a second rate of the target based on the frequency spectrum for the bit signal.
제 1항에 있어서,
상기 이미지 센서는 상기 타켓에 대한 퍼팅이 이루어지는 발사점에 대한 깊이 영상을 획득하는 깊이(depth) 카메라 모듈을 포함하고,
상기 깊이 카메라 모듈로부터 배경 영상 및 상기 타켓이 상기 발사점에 위치하는 시점부터 상기 퍼팅이 종료되는 시점까지의 깊이 영상을 획득하는 단계;
상기 깊이 영상의 화면을 상기 배경 영상에서의 깊이 값과 비교하여 상기 타겟을 검출하고, 상기 타겟에서 포인터를 추출하는 단계;
상기 추출된 포인터 위치의 깊이 값을 기준으로 상기 영상에서 공간 좌표를 계산하는 단계;
미리 결정된 시간 구간에 따라, 상기 포인터의 3차원 좌표 값을 획득하고, 상기 3차원 좌표값의 분석을 통해 상기 포인터의 속도를 검출하는 단계;및
상기 포인터의 속도로부터 상기 타겟의 초기 속도를 구하고, 실제 측정된 거리와 보정계수를 이용하여 상기 제 1속도를 보정하는 단계;및
상기 제 2속도를 이용하여 상기 타겟의 제 1속도를 보정하는 단계;를 포함하는, 방법.
The method according to claim 1,
Wherein the image sensor includes a depth camera module for acquiring a depth image of a launch point at which the putting is performed on the target,
Acquiring a background image from the depth camera module and a depth image from a time point at which the target is located at the launch point to a time point at which the putting ends;
Comparing the screen of the depth image with a depth value of the background image to detect the target, and extracting a pointer from the target;
Calculating spatial coordinates in the image based on a depth value of the extracted pointer position;
Acquiring a three-dimensional coordinate value of the pointer according to a predetermined time interval, and detecting the velocity of the pointer through analysis of the three-dimensional coordinate value;
Obtaining an initial velocity of the target from the velocity of the pointer and correcting the first velocity using an actually measured distance and a correction factor;
And correcting the first velocity of the target using the second velocity.
제 6항에 있어서,
이하 수식에 의하여, 특정 시점에서의 상기 타겟의 위치와 최종적으로 타겟이 도착하는 위치를 계산하는,
Figure 112016031390120-pat00019
(여기에서, v0 는 포인터의 초기 속도, t는 타겟이 퍼팅된 이후 경과한 시간, a는 가속도를 의미함), 방법.
The method according to claim 6,
Calculating a position of the target at a specific point in time and a position at which the target finally arrives,
Figure 112016031390120-pat00019
(Where v 0 is the initial velocity of the pointer, t is the time elapsed since the target was put, and a is the acceleration).
제 1항에 있어서,
상기 타겟의 궤적을 출력하는 단계는,
사용자에 의하여 경사도, 퍼팅 잔디의 빠르기를 포함하는 환경설정 정보를 입력받는 단계;
상기 환경설정 정보에 따라 상기 타겟의 방향, 각도, 거리가 포함된 상기 궤적을 화면에 출력하는 단계;및
상기 타겟을 화면에 표시할 때, 상기 타겟의 궤적을 서로 다른 속도 모드로 재생하는 단계;를 포함하는, 방법.
The method according to claim 1,
The step of outputting the locus of the target may include:
Receiving environment setting information including a slope and a speed of a putting grass by a user;
Outputting the locus including the direction, angle and distance of the target on the screen according to the environment setting information;
And reproducing the trajectory of the target in a different velocity mode when displaying the target on the screen.
타겟(target)의 궤적을 추적하는 장치에 있어서,
적어도 하나 이상의 객체들이 이동하는 영상이 포함된 영상을 획득하는 이미지 센서;
상기 적어도 하나 이상의 객체들로부터 상기 타겟을 결정하고, 상기 타겟의 제 1속도를 검출하는 제 1속도 검출부;
레이더 센서를 이용하여 상기 타겟의 속도를 제 2속도를 검출하는 제 2속도 검출부;
상기 타겟의 제 1속도를 검출한 시간과 상기 타겟의 제 2속도를 검출한 시간을 매핑함으로써, 상기 제 2속도를 이용하여 상기 제 1속도를 보정하고, 상기 보정된 타겟의 제 1속도를 이용하여 보정된 상기 타겟의 궤적을 추적하는 제어부; 및
상기 타겟의 궤적을 출력하는 디스플레이부;를 포함하고,
상기 제 1속도 검출부는 상기 타겟의 위치를 미리 결정된 시간 간격으로 촬영한 상기 영상의 픽셀수 데이터를 이용하여 상기 타겟의 제 1속도를 검출하고,
상기 제 2속도 검출부는 상기 레이더 센서로부터 출사되는 방사파의 출사시점과 반사파의 수신시점 정보를 획득하고, 상기 획득한 정보를 기초로 상기 레이더로부터 상기 타겟이 이격된 거리 정보를 산출하고, 상기 거리 정보로부터 상기 제 2속도를 검출하고,
상기 제어부는 매핑된 시간에서의 제 1속도 및 제 2속도를 비교하고, 상기 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위에 해당하는 지 미리 결정된 시간 구간 별로 판단하고, 상기 제 1속도 및 제 2속도의 차이가 미리 결정된 오차 범위를 벗어나는 경우, 상기 오차 범위를 벗어난 시간 구간에 대하여 상기 제 1속도를 상기 제 2속도로 대체하고, 상기 제 2속도로 대체된 제 1속도에 기초하여 상기 타겟의 평균 속도를 산출하는, 장치.
An apparatus for tracking a trajectory of a target,
An image sensor for acquiring an image including an image in which at least one object moves;
A first velocity detector for determining the target from the at least one or more objects and detecting a first velocity of the target;
A second velocity detector for detecting a velocity of the target using a radar sensor;
Correcting the first velocity using the second velocity by mapping the time of detecting the first velocity of the target to the time of detecting the second velocity of the target and using the first velocity of the corrected target A control unit for tracking the corrected target trajectory; And
And a display unit for outputting a locus of the target,
Wherein the first speed detecting unit detects the first speed of the target using the pixel number data of the image taken at a predetermined time interval of the position of the target,
Wherein the second velocity detection unit obtains the emission time of the radiation wave emitted from the radar sensor and the reception time information of the reflected wave and calculates distance information of the target from the radar based on the obtained information, Detecting the second velocity from the information,
Wherein the controller compares the first speed and the second speed at a mapped time and determines for each predetermined time interval whether a difference between the first speed and the second speed corresponds to a predetermined error range, And if the difference in the second velocity deviates from a predetermined error range, replacing the first velocity with the second velocity for a time interval out of the error range, and based on the first velocity replaced with the second velocity And calculates an average velocity of the target.
삭제delete 삭제delete 제 9항에 있어서,
상기 레이더 센서는 CW(continuous wave) 레이더이며,
상기 제 2속도 검출부는,
상기 CW 레이더로부터 상기 타겟에 대한 레이더 센싱 신호를 수신하고, 상기 레이더 센싱 신호를 신호 처리하여, 비트 신호에 대한 주파수 스펙트럼을 생성하고,
상기 CW 레이더의 이동 속도에 해당하는 주파수 대역의 피크값이 임계값을 비교하여, 상기 타겟의 상태를 판단하고, 상기 비트 신호에 대한 주파수 스펙트럼을 기반으로 상기 타겟의 제 2속도를 검출하는, 장치.
10. The method of claim 9,
The radar sensor is a continuous wave (CW) radar,
Wherein the second speed detecting unit comprises:
Receiving a radar sensing signal for the target from the CW radar and signal processing the radar sensing signal to generate a frequency spectrum for the bit signal,
And comparing the peak value of the frequency band corresponding to the movement speed of the CW radar with a threshold value to determine a state of the target and to detect a second speed of the target based on a frequency spectrum of the bit signal .
삭제delete
KR1020160039803A 2016-03-31 2016-03-31 Apparatus and method for tracking trajectory of target using image sensor and radar sensor KR101848864B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160039803A KR101848864B1 (en) 2016-03-31 2016-03-31 Apparatus and method for tracking trajectory of target using image sensor and radar sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160039803A KR101848864B1 (en) 2016-03-31 2016-03-31 Apparatus and method for tracking trajectory of target using image sensor and radar sensor

Publications (2)

Publication Number Publication Date
KR20170114045A KR20170114045A (en) 2017-10-13
KR101848864B1 true KR101848864B1 (en) 2018-04-16

Family

ID=60139715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160039803A KR101848864B1 (en) 2016-03-31 2016-03-31 Apparatus and method for tracking trajectory of target using image sensor and radar sensor

Country Status (1)

Country Link
KR (1) KR101848864B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200132137A (en) 2019-05-15 2020-11-25 에이치에스앤티 주식회사 Device For Computing Position of Detected Object Using Motion Detect and Radar Sensor

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102391205B1 (en) * 2018-03-20 2022-04-27 주식회사 에이치엘클레무브 Apparatus for estimating distance based object detection
KR101926671B1 (en) * 2018-04-12 2018-12-07 김훈민 Smart golf club with gps module and lidar module
KR102165730B1 (en) * 2018-10-29 2020-10-15 주식회사 아이유플러스 System for Providing Intelligent Traffic Safety
KR102162019B1 (en) * 2019-07-29 2020-10-06 한국과학기술원 Three dimensional image generating method and apparatus
JP7252633B2 (en) * 2020-02-18 2023-04-05 株式会社テクノクラフト ball trajectory tracking system
KR102340281B1 (en) * 2020-02-19 2021-12-17 주식회사 픽셀스코프 Method ahd device for motion recognizing with lider sensor
CN113759366B (en) * 2020-06-02 2024-06-04 杭州海康威视数字技术股份有限公司 Target detection method and device
CN112883809B (en) * 2021-01-25 2024-02-23 浙江大华技术股份有限公司 Target detection method, device, equipment and medium
KR102356651B1 (en) * 2021-06-30 2022-02-09 (주)그린아이티코리아 Method for Providing Intelligent Control by Using Radar Security Camera
CN113465608B (en) * 2021-07-22 2024-05-03 清华大学苏州汽车研究院(吴江) Road side sensor calibration method and system
KR102658518B1 (en) * 2022-01-05 2024-04-18 국립한국해양대학교산학협력단 Automatic learning data collection device for object behavior recognition using deep neural network-based radar

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015135274A (en) * 2014-01-17 2015-07-27 日本電気株式会社 Mobile object tracking apparatus, and mobile object tracking method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015135274A (en) * 2014-01-17 2015-07-27 日本電気株式会社 Mobile object tracking apparatus, and mobile object tracking method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200132137A (en) 2019-05-15 2020-11-25 에이치에스앤티 주식회사 Device For Computing Position of Detected Object Using Motion Detect and Radar Sensor

Also Published As

Publication number Publication date
KR20170114045A (en) 2017-10-13

Similar Documents

Publication Publication Date Title
KR101848864B1 (en) Apparatus and method for tracking trajectory of target using image sensor and radar sensor
US11697046B2 (en) System and method for three dimensional object tracking using combination of radar and image data
US11747461B2 (en) Radar and camera-based data fusion
EP3191888B1 (en) Scanning laser planarity detection
US20190199935A1 (en) Contextual display
TWI485365B (en) Method and system for estimating a real-world distance , and computer -readable medium
US20160306036A1 (en) Systems and methods to track a golf ball to and on a putting green
US20120026088A1 (en) Handheld device with projected user interface and interactive image
EP4094095A1 (en) Three dimensional object tracking using combination of radar speed data and two dimensional image data
KR20160122709A (en) Methods and systems for determining elstimation of motion of a device
US9990547B2 (en) Odometry feature matching
EP1688760A1 (en) Flash event detection with acoustic verification
KR101871937B1 (en) Device and Method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program the same
JP2017129904A (en) Information processor, information processing method, and record medium
WO2016183954A1 (en) Calculation method and apparatus for movement locus, and terminal
KR20220130700A (en) Trajectory extrapolation and origin determination for tracked objects in flight
US10478700B2 (en) Golf swing analysis from pre-strike sound
KR20100033634A (en) Distance estimation apparatus and method
TWI594643B (en) Wireless transmitting/receiving system, wireless receiving device and wireless transmitting/receiving method
US20230065922A1 (en) Self-organized learning of three-dimensional motion data
CN115856861A (en) Notification based on object detection
KR102106274B1 (en) Method for measuring behavior of moving body and behavior measuring device
KR102018045B1 (en) Mobile device for providing golf putting line information using lidar
JP2001218982A (en) Game apparatus
CN109947236B (en) Method and device for controlling content on a display of an electronic device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant