KR101019798B1 - Apparatus and method for sensing moving object and virtual golf simulation device using the same - Google Patents

Apparatus and method for sensing moving object and virtual golf simulation device using the same Download PDF

Info

Publication number
KR101019798B1
KR101019798B1 KR1020100062203A KR20100062203A KR101019798B1 KR 101019798 B1 KR101019798 B1 KR 101019798B1 KR 1020100062203 A KR1020100062203 A KR 1020100062203A KR 20100062203 A KR20100062203 A KR 20100062203A KR 101019798 B1 KR101019798 B1 KR 101019798B1
Authority
KR
South Korea
Prior art keywords
image
ball
line
motion
extracting
Prior art date
Application number
KR1020100062203A
Other languages
Korean (ko)
Inventor
김원일
김영찬
우창헌
한민수
이태화
최명선
정재욱
강신
이승우
박한빛
김명우
김용우
허성국
Original Assignee
(주) 골프존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 골프존 filed Critical (주) 골프존
Priority to KR1020100062203A priority Critical patent/KR101019798B1/en
Application granted granted Critical
Publication of KR101019798B1 publication Critical patent/KR101019798B1/en
Priority to CN201180041839.4A priority patent/CN103079652B/en
Priority to PCT/KR2011/004762 priority patent/WO2012002734A2/en
Priority to JP2013518251A priority patent/JP5572853B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/04Games or sports accessories not covered in groups A63B1/00 - A63B69/00 for small-room or indoor sporting games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement

Abstract

PURPOSE: An apparatus and a method for sensing a moving object and a virtual golf simulation device using the same are provided to embody high sensing process capability at a low cost. CONSTITUTION: An apparatus for sensing a moving object comprises a sensor unit and a sensing process unit(220). The sensor unit acquires a multiple exposure image of plural frames about a moving object. The sensing process unit is composed of a first movement direction measuring unit(230), a second movement direction measuring unit(240), and an analyzing unit. The first movement direction measuring unit presumes the movement direction of an object through the location information of an initial object. The second movement direction measuring unit presumes the movement direction of an object through the pixel value of each image area on the multiple exposure image.

Description

오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치{APPARATUS AND METHOD FOR SENSING MOVING OBJECT AND VIRTUAL GOLF SIMULATION DEVICE USING THE SAME}Object motion sensing device and sensing method, and virtual golf simulation device using the same {APPARATUS AND METHOD FOR SENSING MOVING OBJECT AND VIRTUAL GOLF SIMULATION DEVICE USING THE SAME}

본 발명은 오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치에 관한 것으로 더욱 상세하게는 골프공 등과 같은 운동하는 오브젝트의 이미지를 취득하여 이를 분석함으로써 그 물리적 정보를 산출할 수 있도록 하는 오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치에 관한 것이다.The present invention relates to an object motion sensing device and a sensing method, and a virtual golf simulation device using the same. More specifically, an object for calculating physical information by obtaining an image of a moving object such as a golf ball and analyzing the same. It relates to a motion sensing device and a sensing method, and a virtual golf simulation device using the same.

최근 야구, 축구, 농구, 그리고 골프 등과 같은 인기 스포츠 경기를 실내나 특정 장소에서 시뮬레이션을 통해 인터액티브 스포츠 게임(Interactive Sports Game)의 형태로 즐길 수 있도록 하는 여러 가지 다양한 장치들에 대한 개발이 활발하게 이루어지고 있다.Recently, various developments have been actively developed to enable popular sports games such as baseball, soccer, basketball, and golf to be enjoyed in the form of interactive sports games through simulation indoors or in specific places. It is done.

이와 같은 인터액티브 스포츠 게임에서 야구공, 축구공, 농구공 및 골프공 등의 볼을 이용하는 스포츠에 대한 시뮬레이션이 이루어지도록 하기 위해 운동하는 오브젝트, 즉 볼의 움직임에 대한 물리적 정보를 정확하게 센싱하기 위한 각종 센싱시스템에 대한 연구 개발이 매우 활발하게 진행되고 있는 실정이다.In such an interactive sports game, various kinds of objects for accurately sensing physical information about the movement of an object, that is, a ball, are used to simulate a sport using a ball such as a baseball ball, a soccer ball, a basketball ball, and a golf ball. The research and development of the sensing system is very active.

예컨대 적외선 센서를 이용한 센싱시스템, 레이저 센서를 이용한 센싱시스템, 음향 센서를 이용한 센싱시스템, 그리고 카메라 센서를 이용한 센싱시스템 등 다양한 센싱시스템이 등장하고 있다.For example, various sensing systems such as a sensing system using an infrared sensor, a sensing system using a laser sensor, a sensing system using an acoustic sensor, and a sensing system using a camera sensor are emerging.

본 발명은 운동하는 오브젝트에 대한 다중 노출 이미지를 낮은 해상도의 저속 카메라 장치와 스트로보 장치에 의해 취득함에도 불구하고 그 취득된 이미지상의 오브젝트의 이미지를 정확하게 추출하고, 특히 저속으로 운동하는 오브젝트에 대한 다중 노출 이미지를 취득함에 따라 여러 개의 오브젝트 이미지가 중첩되어 나타나는 경우에도 정확하게 중첩된 오브젝트의 이미지를 추출하여 중심점 좌표가 추출되도록 함으로써 저렴한 비용으로 높은 센싱 처리 능력 및 센싱의 정확성을 구현할 수 있도록 하는 오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치를 제공하기 위한 것이다.The present invention accurately extracts an image of an object on the acquired image even though a multi-exposure image of a moving object is obtained by a low-resolution low-speed camera device and a stroboscopic device, and in particular, a multi-exposure of an object moving at low speed. The object motion sensing device that can realize high sensing processing power and sensing accuracy at low cost by extracting the center point coordinates by extracting the image of the precisely overlapped object even when several object images are overlapped as the image is acquired. And a sensing method and a virtual golf simulation apparatus using the same.

본 발명의 일 실시예에 따른 오브젝트 운동 센싱장치는, 운동하는 오브젝트에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및 초기 오브젝트의 위치 정보를 통해 오브젝트의 운동방향을 추정하는 제1 운동방향 추정수단과, 상기 다중 노출 이미지상의 각 이미지 영역의 픽셀값으로부터 오브젝트의 운동방향을 추정하는 제2 운동방향 추정수단과, 상기 제1 운동방향 추정수단 및 제2 운동방향 추정수단 중 적어도 하나에 의해 추정된 운동방향 상의 이미지 영역 중 오브젝트에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부를 포함한다.Object motion sensing apparatus according to an embodiment of the present invention, the sensor unit for obtaining a multi-exposure image of a plurality of frames for a moving object; First motion direction estimating means for estimating the motion direction of the object based on the positional information of the initial object, second motion direction estimating means for estimating the motion direction of the object from pixel values of each image area on the multiple exposure image; And a sensing processor including analysis means for extracting and analyzing an image of an object from an image area on the motion direction estimated by at least one of the first and second motion direction estimating means.

또한 바람직하게는, 상기 제1 운동방향 추정수단은, 상기 다중 노출 이미지상의 각 이미지 영역의 적어도 두 개의 포인트를 선정하여 서로 연결하는 라인을 생성하는 라인생성수단과, 상기 생성된 라인 중 초기 오브젝트의 위치와의 거리가 가장 짧은 라인을 오브젝트의 운동방향 축으로서 추출하는 라인추출수단을 포함하는 것을 특징으로 한다.Also preferably, the first movement direction estimating means may include line generating means for selecting at least two points of each image area on the multiple exposure image and generating a line connecting each other, and an initial object of the generated lines. And a line extracting means for extracting the line having the shortest distance from the position as the axis of motion of the object.

또한 바람직하게는, 상기 제2 운동방향 추정수단은, 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 이미지 취합수단과, 초기 오브젝트의 위치를 중심으로 소정 각도 라인스캔하여 각 스캔 라인상의 이미지 영역의 픽셀값을 체크하는 라인스캔수단과, 상기 라인스캔수단에 의한 스캔 라인 중 가장 큰 픽셀값을 갖는 경우의 해당 스캔 라인을 오브젝트의 운동방향 축으로서 추출하는 축 추출수단을 포함하는 것을 특징으로 한다.Also preferably, the second movement direction estimating means may include image collecting means for collecting the multiple exposure images of the at least two frames into one, and an image area on each scan line by scanning a predetermined angle line around the position of the initial object. And line extracting means for checking a pixel value of the scanning unit, and axis extracting means for extracting the corresponding scan line in the case of having the largest pixel value among the scan lines by the line scanning means as the direction of motion of the object. .

또한 바람직하게는, 상기 제2 운동방향 추정수단은 상기 라인추출수단에 의해 운동방향 축으로서 추출된 라인과 초기 오브젝트의 위치와의 거리가 설정값 보다 큰 경우에 실행되도록 구성되는 것을 특징으로 한다.Also preferably, the second movement direction estimating means is configured to be executed when the distance between the line extracted as the movement direction axis by the line extracting means and the position of the initial object is larger than a set value.

한편, 본 발명의 다른 일 실시예에 따른 오브젝트 운동 센싱장치는, 운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및 상기 다중 노출 이미지상의 각 이미지 영역을 관통하는 라인을 생성하여 초기 볼 위치에 가장 근접한 라인을 볼의 운동방향으로서 추정하는 운동방향 추정수단과, 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부를 포함한다.On the other hand, the object motion sensing device according to another embodiment of the present invention, the sensor unit for obtaining a multi-exposure image of a plurality of frames for the ball moving; And motion direction estimating means for generating a line passing through each image area on the multiple-exposure image and estimating the line closest to the initial ball position as the direction of motion of the ball, and an image about the ball among the image areas on the estimated motion direction. It includes a sensing processing unit including an analysis means for extracting and analyzing.

또한 바람직하게는, 상기 센싱처리부는, 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하여 초기 볼 위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 함수값을 산출하여 최대값을 갖는 스캔라인을 볼의 운동방향 축으로서 추출하는 운동방향 추출수단을 더 포함하는 것을 특징으로 한다.Also preferably, the sensing processing unit may collect multiple exposure images of the at least two frames into one, and scan a predetermined angle line around the initial ball position to calculate a function value based on pixel values of each image area to obtain a maximum value. It is characterized in that it further comprises a movement direction extraction means for extracting a scan line having as a movement direction axis of the ball.

또한 바람직하게는, 상기 운동방향 추출수단은 상기 운동방향 추정수단에 의해 운동방향 축으로서 추정된 라인과 초기 볼 위치와의 거리가 설정값 보다 큰 경우에 실행되도록 구성되는 것을 특징으로 한다.Also preferably, the motion direction extracting means is configured to be executed when the distance between the line estimated as the motion direction axis by the motion direction estimating means and the initial ball position is larger than a set value.

한편, 본 발명의 또 다른 일 실시예에 따른 오브젝트 운동 센싱장치는, 운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하여 초기 볼 위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 함수값을 산출하여 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 운동방향 추출수단과, 추출된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부를 포함한다.On the other hand, the object motion sensing apparatus according to another embodiment of the present invention, the sensor unit for obtaining a multiple exposure image of a plurality of frames for the ball moving; And combining the multiple exposure images of the at least two frames into one, and scanning a predetermined angle line around the initial ball position to calculate a function value based on the pixel value of each image area, thereby determining a scan line having a maximum value as the direction of motion of the ball. And a sensing processing unit including an extraction means for extracting a motion direction and an analysis means for extracting and analyzing an image of a ball from each image region on the extracted motion direction.

한편, 본 발명의 일 실시예에 따른 오브젝트 운동 센싱방법은, 운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 단계; 상기 다중 노출 이미지상의 볼의 초기위치를 인식하는 단계; 상기 다중 노출 이미지상의 각 이미지 영역을 관통하는 라인을 각각 생성하는 단계; 상기 생성된 라인 중 상기 초기위치에 가장 가까운 거리의 라인을 볼의 운동방향으로서 추정하는 단계; 및 상기 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 단계를 포함한다.On the other hand, the object motion sensing method according to an embodiment of the present invention, the method comprising the steps of acquiring a multiple exposure image of a plurality of frames for the ball moving; Recognizing an initial position of a ball on the multiple exposure image; Generating a line passing through each image area on the multiple exposure image, respectively; Estimating the line of the distance closest to the initial position among the generated lines as the direction of movement of the ball; And extracting and analyzing an image of a ball from each image area on the estimated movement direction.

또한 바람직하게는, 상기 볼의 운동방향으로서 추정된 라인과 볼의 초기위치의 거리를 설정값과 비교하는 단계를 더 포함하며, 상기 거리가 상기 설정값 보다 작은 경우, 해당 라인을 운동방향 축으로 설정하여 상기 분석하는 단계가 수행되도록 하는 것을 특징으로 한다.Also preferably, the method further comprises the step of comparing the distance between the line estimated as the direction of movement of the ball and the initial position of the ball with a setting value. And setting the analysis to be performed.

또한 바람직하게는, 상기 볼의 운동방향으로서 추정된 라인과 볼의 초기위치의 거리를 설정값과 비교하는 단계를 더 포함하며, 상기 거리가 상기 설정값 보다 큰 경우, 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 단계와, 상기 취합된 이미지에서 상기 초기위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 소정의 함수값을 산출하는 단계와, 상기 산출된 함수값 중 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 단계를 더 포함하는 것을 특징으로 한다.Also preferably, the method may further include comparing a distance between the line estimated as the direction of movement of the ball and the initial position of the ball with a setting value, when the distance is larger than the setting value, Combining the exposed images into one, calculating a predetermined function value based on pixel values of each image area by scanning a predetermined angle line around the initial position in the collected image, and a maximum of the calculated function values And extracting a scanline having a value as a direction of movement of the ball.

한편, 본 발명의 다른 일 실시예에 따른 오브젝트 운동 센싱방법은, 운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 단계; 상기 다중 노출 이미지상의 볼의 초기위치를 인식하는 단계; 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 단계; 상기 취합된 이미지에서 상기 초기위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 소정의 함수값을 산출하는 단계; 상기 산출된 함수값 중 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 단계; 및 상기 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지 영역을 추출하여 분석하는 단계를 포함한다.On the other hand, the object motion sensing method according to another embodiment of the present invention, the method comprising the steps of acquiring multiple exposure images of a plurality of frames for the ball moving; Recognizing an initial position of a ball on the multiple exposure image; Combining the multiple exposure images of the at least two frames into one; Calculating a predetermined function value based on pixel values of each image area by scanning a predetermined angle line around the initial position in the collected image; Extracting a scan line having a maximum value among the calculated function values as a direction of movement of a ball; And extracting and analyzing an image region of the ball from each of the image regions on the estimated movement direction.

또한 바람직하게는, 상기 함수값을 산출하는 단계는, 각 이미지 영역에 대해 스캔라인을 따라 픽셀값의 합에 관한 제1값이 계산되는 단계와, 상기 볼의 반지름으로서 미리 설정된 값을 간격으로 상기 스캔라인의 일측에 생성되는 일측 라인을 따라 해당 이미지 영역의 픽셀값의 합에 관한 제2값이 계산되는 단계와, 상기 스캔라인의 타측에 상기 반지름을 간격으로 생성되는 타측 라인을 따라 해당 이미지 영역의 픽셀값의 합에 관한 제3값이 계산되는 단계와, 상기 제1값에서 상기 제2값 및 제3값을 뺀 값을 계산하는 단계를 포함하는 것을 특징으로 한다.Also preferably, the calculating of the function value may include calculating a first value with respect to the sum of pixel values along the scan line for each image area, and at intervals of a predetermined value as a radius of the ball. Calculating a second value regarding the sum of pixel values of the corresponding image area along one side line generated on one side of the scan line, and the corresponding image area along the other line generated at intervals of the radius on the other side of the scan line. And calculating a third value for the sum of pixel values of and calculating a value obtained by subtracting the second value and the third value from the first value.

한편, 본 발명의 일 실시예에 따른 가상 골프 시뮬레이션 장치는, 골퍼에 의해 타격되어 운동하는 골프공에 대한 다중 노출 이미지를 취득하는 카메라 장치 및 스트로보 장치를 포함하는 센서부; 상기 다중 노출 이미지에서 다중 노출에 의해 운동하는 오브젝트의 이미지가 서로 중첩되어 나타나는 오브젝트 이미지 영역을 추출하는 제1 처리수단과, 상기 추출된 오브젝트 영역 이미지에 대한 적어도 두 개의 중심점 후보를 생성하여 보정함으로써 상기 오브젝트 영역 이미지에 대한 적어도 두 개의 중심점을 추출하는 제2 처리수단을 포함하는 센싱처리부; 상기 센싱처리부에서 추출된 중심점의 좌표를 3차원 좌표로 변환시키는 컨버팅부; 및 상기 3차원 좌표를 기초로 운동하는 골프공에 관한 물리 정보를 계산함으로써 골프공의 궤적을 시뮬레이션하는 시뮬레이터를 포함한다.On the other hand, the virtual golf simulation device according to an embodiment of the present invention, the sensor unit including a camera device and a strobe device for obtaining a multiple exposure image of the golf ball hit by the golfer and moving; First processing means for extracting an object image region in which the images of the object moving by the multiple exposures overlap each other in the multiple exposure image, and generating and correcting at least two center point candidates for the extracted object region image; A sensing processor including second processing means for extracting at least two center points of the object region image; A converting unit converting the coordinates of the center point extracted by the sensing processing unit into three-dimensional coordinates; And a simulator for simulating the trajectory of the golf ball by calculating physical information about the golf ball moving based on the three-dimensional coordinates.

본 발명에 따른 오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치는 운동하는 오브젝트에 대한 다중 노출 이미지를 낮은 해상도의 저속 카메라 장치와 스트로보 장치에 의해 취득함에도 불구하고 그 취득된 이미지상의 오브젝트의 이미지를 정확하게 추출하고, 특히 저속으로 운동하는 오브젝트에 대한 다중 노출 이미지를 취득함에 따라 여러 개의 오브젝트 이미지가 중첩되어 나타나는 경우에도 정확하게 중첩된 오브젝트의 이미지를 추출하여 중심점 좌표가 추출되도록 함으로써 저렴한 비용으로 높은 센싱 처리 능력 및 센싱의 정확성을 구현할 수 있도록 하는 효과가 있다.The object motion sensing device and the sensing method according to the present invention, and the virtual golf simulation device using the same, even though the multiple exposure image of the moving object is acquired by the low-resolution low-speed camera device and the stroboscopic device, the object on the acquired image By accurately extracting the image of, and obtaining multiple exposure images of slow moving objects, even if multiple object images overlap, the image of the overlapped object is extracted and the center point coordinates are extracted. It is effective to realize high sensing processing power and sensing accuracy.

도 1은 본 발명의 일 실시예에 따른 센싱장치 또는 가상 골프 시뮬레이션 장치에 관하여 나타낸 블록도이다.
도 2는 도 1에 도시된 센싱장치 또는 가상 골프 시뮬레이션 장치가 적용된 스크린 골프 시스템의 일 예에 관하여 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 센싱장치의 카메라 장치 및 스트로보 장치의 작동 신호 체계에 관하여 나타낸 도면이다.
도 4의 (a) 및 (b)는 도 2에 도시된 시스템에 따라 취득한 오브젝트의 이미지 패턴을 각각 나타낸 도면이다.
도 5의 (a)는 도 4의 (b)에 도시된 패턴의 이미지의 실제 취득된 이미지의 일 예를 나타낸 도면이며, 도 5의 (b)는 (a)에 도시된 이미지에 대한 전처리 된 이미지를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 센싱장치 및 센싱방법에 의한 오브젝트의 운동방향 추정 과정의 일 예를 나타낸 것이고, 도 7은 도 6의 A 영역을 확대하여 나타낸 도면이다.
도 8 내지 도 10은 본 발명의 다른 일 실시예에 따른 센싱장치 및 센싱방법에 의한 오브젝트 운동방향 추정 과정의 일 예를 나타낸 도면이다.
도 11의 (a)는 피팅된 오브젝트 이미지 영역에 대해 생성된 중심점 후보의 위치를 조정하는 과정을 나타낸 도면이며, 도 11의 (b)는 (a)에 도시된 과정에 의해 중심점이 추출된 것을 나타낸 도면이다.
도 12의 (a) 및 (b)는 추정된 오브젝트의 운동방향 축의 위치를 피팅된 오브젝트 이미지 영역의 중심을 관통하도록 조정하는 과정을 설명하기 위한 도면이다.
도 13은 본 발명에 따른 센싱방법의 일 실시예를 나타내는 플로우 차트이다.
1 is a block diagram showing a sensing device or a virtual golf simulation device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a screen golf system to which the sensing device or the virtual golf simulation device shown in FIG. 1 is applied.
3 is a diagram illustrating an operation signal system of a camera device and a strobe device of a sensing device according to an embodiment of the present invention.
4A and 4B are diagrams each showing an image pattern of an object acquired according to the system shown in FIG. 2.
FIG. 5A is a view showing an example of an actual acquired image of the image of the pattern shown in FIG. 4B, and FIG. 5B is preprocessed for the image shown in FIG. A diagram showing an image.
6 is a view illustrating an example of a process of estimating a moving direction of an object by a sensing device and a sensing method according to an embodiment of the present invention, and FIG. 7 is an enlarged view of region A of FIG. 6.
8 to 10 are diagrams illustrating an example of an object movement direction estimation process by a sensing device and a sensing method according to another embodiment of the present invention.
FIG. 11A illustrates a process of adjusting the position of the center point candidate generated for the fitted object image region, and FIG. 11B illustrates that the center point is extracted by the process illustrated in FIG. The figure shown.
12 (a) and 12 (b) are diagrams for explaining a process of adjusting the position of the estimated motion axis of the object to penetrate the center of the fitted object image region.
13 is a flowchart illustrating an embodiment of a sensing method according to the present invention.

본 발명에 따른 오브젝트 운동 센싱장치 및 센싱방법과, 이를 이용한 가상 골프 시뮬레이션 장치에 관한 실시예를 도면을 참조하여 좀 더 구체적으로 설명한다.An embodiment of an object motion sensing apparatus and a sensing method and a virtual golf simulation apparatus using the same according to the present invention will be described in more detail with reference to the accompanying drawings.

본 발명에 따른 오브젝트 운동 센싱장치는 골프와 같은 볼을 이용하는 스포츠 등에서 운동하는 볼, 즉 오브젝트의 운동상태에 관한 이미지를 취득하여 이를 분석함으로써 센싱이 이루어지는 모든 시스템에 적용 가능하며, 그 일 예로서 가상 골프 시뮬레이션 장치가 적용되는 소위 스크린 골프 시스템 등에 적용이 가능하다.The object motion sensing apparatus according to the present invention is applicable to all systems in which sensing is performed by acquiring and analyzing an image of a ball, ie, an object's motion state, that is exercised in a sport using a ball such as golf, and the like as an example. It can be applied to a so-called screen golf system to which a golf simulation device is applied.

도 1 및 도 2에서는 이와 같은 본 발명에 따른 오브젝트 운동 센싱장치 및 이를 이용한 가상 골프 시뮬레이션 장치의 개략적인 구성에 관하여 나타내고 있다.1 and 2 illustrate a schematic configuration of the object motion sensing apparatus and the virtual golf simulation apparatus using the same according to the present invention.

먼저 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 오브젝트 운동 센싱장치 및 이를 이용하는 가상 골프 시뮬레이션 장치에 관하여 설명한다.First, an object motion sensing apparatus and a virtual golf simulation apparatus using the same will be described with reference to FIGS. 1 and 2.

도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 오브젝트 운동 센싱장치는, 카메라 장치(310, 320), 스트로보 장치(330), 신호발생부(210) 등을 포함하는 센서부와, 상기 센서부에서 취득된 이미지를 처리함으로써 운동하는 오브젝트에 대한 이미지를 처리하여 중심점 좌표를 추출하는 센싱처리부(220)를 포함하여 구성된다.As shown in FIG. 1, an object motion sensing apparatus according to an exemplary embodiment includes a sensor unit including a camera device 310 and 320, a strobe device 330, a signal generator 210, and the like. And a sensing processing unit 220 for processing the image of the moving object by extracting the center point coordinates by processing the image acquired by the sensor unit.

도 1에서는 상기 카메라 장치(310, 320)가 두 대 구비되는 경우에 관하여 나타내고 있으나 이에 한정되지 않고 한대 또는 그 이상의 카메라 장치가 구비되는 모든 경우를 포함할 수 있다.Although FIG. 1 illustrates a case in which two camera apparatuses 310 and 320 are provided, the present invention is not limited thereto and may include all cases in which one or more camera apparatuses are provided.

상기 카메라 장치(310, 320)는 오브젝트의 초기 위치에서부터 오브젝트가 운동 방향을 따라 운동하는 상태에 관하여 복수개의 프레임의 이미지를 취득하도록 구비된다.The camera apparatuses 310 and 320 are provided to acquire images of a plurality of frames with respect to a state in which the object moves along the movement direction from an initial position of the object.

상기 스트로보 장치(330)는 LED 등을 이용한 조명장치로서 상기 카메라 장치의 촬영용 광원으로 이용되며, 소정의 시간 간격으로 스트로보 조명(소정의 시간 간격으로 복수회의 조명 플래시가 작동되는 방식임)이 발생하여 상기 카메라 장치(310, 320)에 의해 다중 노출 이미지가 취득되도록 한다.The strobe device 330 is used as a light source for photographing the camera device as an illumination device using an LED light, and the strobe light is generated at predetermined time intervals (that is, a plurality of illumination flashes are operated at predetermined time intervals). The multiple exposure image is acquired by the camera apparatuses 310 and 320.

즉 카메라 장치에 의해 촬영되는 하나의 프레임의 이미지에 상기 스트로보 장치(330)에 의한 플래시 횟수만큼 오브젝트가 촬영되어 나타나는 다중 노출 이미지를 취득하게 된다.That is, a multiple exposure image, in which an object is photographed by the number of flashes by the strobe apparatus 330, is acquired in an image of one frame photographed by a camera apparatus.

카메라 장치(310, 320)와 스트로보 장치(330)의 작동에 관한 구체적인 사항에 대해서는 후술하기로 한다.Details of operations of the camera apparatuses 310 and 320 and the strobe apparatus 330 will be described later.

한편, 상기 카메라 장치(310, 320) 및 스트로보 장치(330)의 작동을 위한 트리거(trigger) 신호는 신호발생부(210)에 의해 발생하며, 상기 카메라 장치(310, 320)와 스트로보 장치(330)에 의한 다중 노출 이미지는 센싱처리부(220)에서 처리가 되어 시뮬레이터(100)로 전달된다.Meanwhile, a trigger signal for operating the camera devices 310 and 320 and the strobe device 330 is generated by the signal generator 210 and the camera devices 310 and 320 and the strobe device 330. The multiple exposure image is processed by the sensing processor 220 and transmitted to the simulator 100.

상기 센싱처리부(220)는 초기 오브젝트의 위치 정보를 통해 오브젝트의 운동방향을 추정하는 제1 운동방향 추정수단(230)과, 상기 다중 노출 이미지상의 각 이미지 영역의 픽셀값으로부터 오브젝트의 운동방향을 추정하는 제2 운동방향 추정수단(240)을 포함하여 구성됨이 바람직하다.The sensing processor 220 estimates the movement direction of the object from the first movement direction estimating means 230 for estimating the movement direction of the object based on the positional information of the initial object, and the pixel values of each image area on the multiple exposure image. It is preferably configured to include a second direction of motion estimation means 240 to.

여기서 상기 센싱처리부(220)는 제1 운동방향 추정수단(230)과 제2 운동방향 추정수단(240) 중 어느 하나만 구비할 수도 있고 둘 다 구비할 수도 있으며, 상기 제1 운동방향 추정수단(230)과 제2 운동방향 추정수단(240) 둘을 모두 구비하는 경우에는 먼저 제1 운동방향 추정수단(230)이 적용되어 오브젝트의 운동방향을 추정하고 만약 상기 제1 운동방향 추정수단(230)에 의해 추정된 운동방향이 소정 범위를 벗어나는 경우에 제2 운동방향 추정수단(240)이 적용되어 운동방향이 추정되도록 함이 바람직하다.Here, the sensing processor 220 may include only one of the first motion direction estimating means 230 and the second motion direction estimating means 240, or both of them, and the first motion direction estimating means 230. ) And the second motion direction estimating means 240, firstly, the first motion direction estimating means 230 is applied to estimate the motion direction of the object. When the estimated movement direction is out of a predetermined range, it is preferable that the second movement direction estimating means 240 is applied to estimate the movement direction.

상기한 바와 같이 운동방향이 추정되면 센싱처리부(220)의 분석수단(250)은 그 추정된 운동방향 상의 이미지 영역 중 오브젝트에 관한 이미지 영역을 추출하여 이를 분석함으로써 오브젝트 이미지의 중심점을 추출한다.As described above, when the movement direction is estimated, the analyzing means 250 of the sensing processor 220 extracts a center point of the object image by extracting an image region of the object from among the image regions on the estimated movement direction.

상기 제1 운동방향 추정수단(230) 및 제2 운동방향 추정수단(240)에 관한 좀 더 구체적인 사항에 관하여는 후술하기로 한다.More specific details regarding the first motion direction estimating means 230 and the second motion direction estimating means 240 will be described later.

한편, 상기 시뮬레이터(100)는 제어부(M), 데이터베이스(110), 영상처리부(120) 및 영상출력부(130) 등을 포함하여 구성됨이 바람직하다.On the other hand, the simulator 100 is preferably configured to include a controller (M), the database 110, the image processing unit 120 and the image output unit 130, and the like.

상기 제어부(M)는 상기 센싱처리부(220)에서 이미지 처리되어 획득된 오브젝트의 좌표 정보를 전달받아 이를 3차원 좌표 정보로 변환하여 오브젝트의 운동 궤적 시뮬레이션을 위한 소정의 물리적 정보를 산출하여 영상처리부(120)로 전달한다.The controller M receives the coordinate information of the object obtained by the image processing by the sensing processor 220, converts the coordinate information of the object into 3D coordinate information, and calculates predetermined physical information for simulating the motion trajectory of the object. 120).

이때 오브젝트의 운동 궤적의 시뮬레이션을 위한 소정의 데이터는 데이터베이스(110)로부터 추출하여 이용하고 상기 영상처리부(120)에서 오브젝트의 운동 궤적에 관한 시뮬레이션 영상 처리는 상기 데이터베이스(110)에 저장된 영상데이터가 추출됨으로써 이루어질 수 있다.At this time, the predetermined data for the simulation of the motion trajectory of the object is extracted from the database 110 and the image processing unit 120 extracts the image data stored in the database 110 in the simulation image processing of the motion trajectory of the object. This can be done by.

여기서 상기 센싱처리부(220)로부터 전달받은 오브젝트의 좌표 정보를 3차원 좌표 정보로 변환하는 컨버팅수단이 상기 제어부(M)와는 별도로 구비되도록 하는 것도 가능하다.Here, the converting means for converting the coordinate information of the object received from the sensing processing unit 220 into the three-dimensional coordinate information may be provided separately from the control unit (M).

상기한 바와 같은 장치 구성을 갖는 센싱장치 또는 가상 골프 시뮬레이션 장치가 적용된 스크린 골프 시스템의 일 예에 관하여 도 2에서 도시하고 있다.An example of a screen golf system to which a sensing device or a virtual golf simulation device having the device configuration as described above is applied is shown in FIG. 2.

도 2에 도시된 바와 같이 골프 부스(B)의 일측에 골프공(10)이 놓이는 골프티와 그라운드(페어웨이 매트, 러프 매트 및 벙커 매트 중 적어도 하나를 포함하도록 함이 바람직하다)가 구비되는 타격 매트(30)와 골퍼가 골프 스윙을 하도록 구비되는 스윙플레이트(20)가 구비된다.As shown in FIG. 2, a golf tee and a ground (preferably including at least one of a fairway mat, a rough mat and a bunker mat) on which the golf ball 10 is placed on one side of the golf booth B are provided. The mat 30 and the golfer is provided with a swing plate 20 provided to make a golf swing.

골프 부스(B)의 전방에는 영상출력부(130)에 의해 구현되는 가상 골프 시뮬레이션 영상이 표시되는 스크린(40)이 구비되며, 천장에는 카메라 장치(310, 320)와 스트로보 장치(330)가 각각 구비된다.In front of the golf booth (B) is provided with a screen 40 for displaying a virtual golf simulation image implemented by the image output unit 130, the camera device (310, 320) and the strobe device 330 on the ceiling, respectively It is provided.

도 2에서는 상기 카메라 장치(310, 320)가 각각 천장과 벽 쪽에 구비되는 경우에 관하여 나타내고 있으나 이에 한정되지 않고 골프공(10)의 운동 상태에 관한 이미지를 효과적으로 취득할 수 있으면서 골퍼에 의한 스윙에 방해되지 않고 골퍼에 의해 타격된 골프공에 의해 충돌할 염려가 없는 미리 설정된 위치이면 어느 위치이든 설치가 가능하다.In FIG. 2, the camera devices 310 and 320 are provided on the ceiling and the wall, respectively, but the present invention is not limited thereto. Any position can be installed as long as it is a predetermined position that is not obstructed and that there is no fear of collision by the golf ball hit by the golfer.

그리고 도 2에서 스트로보 장치(330)가 천장에 설치되어 타격 지점에 실질적으로 수직 방향으로 스트로보 조명을 제공하도록 설치되어 있는 경우에 관하여 나타내고 있는데, 이에 한정되지 않고 효과적인 스트로보 조명을 제공할 수 있는 위치이면 어느 위치이든 가능하다.2 shows a case in which the strobe device 330 is installed on the ceiling and installed to provide strobe light in a direction substantially perpendicular to the point of impact, but is not limited thereto. Any location is possible.

상기한 바와 같은 시스템에서 골퍼가 스윙플레이트(20)에서 타격매트(30) 상의 골프공(10)을 스크린(40)을 향하여 타격하면, 도 2에 도시된 바와 같이 타격이 이루어지는 소정 영역을 촬영하고 있는 카메라 장치(310, 320)가 각각 복수 프레임의 이미지를 취득하고 이때 스트로보 장치(330)는 하나의 프레임당 복수회의 플래시를 터뜨려 운동하는 골프공에 대한 다중 노출 이미지를 취득하게 된다.In the system as described above, when the golfer hits the golf ball 10 on the hitting mat 30 toward the screen 40 in the swing plate 20, the predetermined area where the hit is made as shown in FIG. The camera apparatuses 310 and 320 acquire images of a plurality of frames, respectively, and the strobe apparatus 330 acquires a multiple exposure image of a golf ball that fires a plurality of flashes per frame.

도 3에서는 신호발생부(210, 도 1 참조)에 의한 카메라 장치와 스트로보 장치의 트리거 신호 발생 체계에 관하여 나타내고 있다.In FIG. 3, a trigger signal generation system of the camera apparatus and the strobe apparatus by the signal generator 210 (see FIG. 1) is illustrated.

도 3에 도시된 바와 같이 카메라 장치에 대한 트리거 신호는 tc 시간 간격으로 이루어진다. 즉 한 프레임당 tc 시간 간격으로 트리거 신호가 발생한다. 이때 한 프레임당 노출되는 시간은 te 시간이며(이때 tc > te 가 되도록 함이 바람직하다) tc - te 시간 동안 취득된 이미지에 대한 데이터가 센싱처리부(220, 도 1 참조)로 전송이 이루어지도록 함이 바람직하다.As shown in FIG. 3, the trigger signal for the camera device is made at tc time intervals. That is, the trigger signal is generated at tc time intervals per frame. At this time, the exposure time per frame is te time (where tc> te is preferable), and the data about the image acquired during the tc-te time is transmitted to the sensing processor 220 (see FIG. 1). This is preferred.

즉 도 3에 도시된 바와 같이 카메라 장치의 한 프레임당 트리거 신호 발생 시간 간격 동안 카메라 장치의 노출이 이루어지고 취득된 다중 노출 이미지에 대한 데이터가 센싱처리부로 전송이 된다.That is, as shown in FIG. 3, the camera apparatus is exposed during the trigger signal generation time interval of the camera apparatus, and data about the obtained multiple exposure image is transmitted to the sensing processor.

그리고 카메라 장치의 노출 시간(te 시간) 동안 스트로보 장치에 의한 스트로보 조명은 복수회 발생되는데, 도 3에서는 스트로보 조명의 트리거 신호가 ts1의 시간 간격으로 3회 발생하는 경우에 관하여 나타내고 있다.The strobe illumination by the strobe apparatus is generated a plurality of times during the exposure time (te time) of the camera apparatus. In FIG. 3, the trigger signal of the strobe illumination is generated three times at a time interval of ts1.

즉 카메라 장치의 노출 시간(te 시간) 동안 스트로보 조명은 동일한 시간 간격인 ts1 시간 간격으로 3회 발생하는 것이다. 이때 신호발생부(210, 도 1 참조)에 의해 카메라 장치와 스트로보 장치는 맨 첫 번째 트리거 신호가 동시에 발생되도록 동기화되도록 함이 바람직하다.That is, during the exposure time (te time) of the camera device, strobe illumination occurs three times at the same time interval ts1 time interval. At this time, the camera device and the strobe device are preferably synchronized by the signal generator 210 (see FIG. 1) so that the first trigger signal is simultaneously generated.

그리고 도 3에 도시된 바와 같이 3회의 스트로보 조명 중 마지막 스트로보 조명의 트리거 신호로부터 다음 프레임의 첫 번째 스트로보 조명의 트리거 신호까지의 시간은 ts2 시간 간격이 되도록 함이 바람직하며, 상기 ts1과 ts2 시간 간격이 서로 동일하게 되도록 설정될 수도 있으나 도 3에 도시된 바와 같이 ts1 시간과 ts2 시간이 서로 다르게 되도록 설정됨이 바람직하며, 좀 더 바람직하게는 ts2 시간이 ts1 시간 보다 더 길게 되도록 설정됨이 바람직하다.As shown in FIG. 3, the time from the trigger signal of the last strobe light to the trigger signal of the first strobe light of the next frame among the three strobe lights is preferably ts2 time interval, and the time interval between ts1 and ts2 times. 3 may be set to be the same, but it is preferable that the ts1 time and the ts2 time are set to be different from each other, more preferably, the ts2 time is set to be longer than the ts1 time. .

상기한 바와 같이 카메라 장치와 스트로보 장치 각각의 트리거 신호 간격이 일정하게 되도록 고정되어 있음으로 말미암아 취득되는 다중 노출 이미지상의 오브젝트 이미지의 간격도 일정하게 나타날 수밖에 없다. As described above, the distance between the trigger signal of each of the camera device and the strobe device is fixed so that the distance between the object images on the multiple exposure image acquired is constant.

따라서 센싱처리부에서 다중 노출 이미지를 처리함에 있어서 상기 다중 노출 이미지상에 존재하는 오브젝트 이미지와 여러 가지 노이즈로부터 정확한 오브젝트 이미지를 상기한 트리거 신호의 일정하게 고정된 간격에 관한 특징으로부터 효과적으로 분리할 수 있다.Therefore, in processing the multiple exposure image, the sensing processor can effectively separate the correct object image from the object image existing on the multiple exposure image and various noises from the feature regarding the fixed fixed interval of the trigger signal.

또한, 카메라 장치의 각 프레임당 스트로보 조명의 간격이 일정하게 고정되어 있기 때문에 다중 노출 이미지에서 오브젝트의 운동 속도에 따라 여러 가지 패턴의 이미지가 발생할 수 있다.In addition, since the interval of strobe illumination per frame of the camera device is fixed at a constant, various patterns of images may be generated according to the movement speed of the object in the multiple exposure image.

이하에서는 운동하는 오브젝트를 골프클럽에 의해 타격되어 운동하는 볼(골프공)을 예로서 설명하기로 한다.Hereinafter, a ball (golf ball) that is hit by a golf club and moves by the golf object will be described as an example.

도 4에서는 도 3에 도시된 신호 발생 체계에 따른 카메라 장치와 스트로보 장치에 의해 취득되는 다중 노출 이미지의 두 가지 패턴을 (a) 및 (b)에서 각각 도시하고 있다.In FIG. 4, two patterns of the multiple exposure image acquired by the camera apparatus and the strobe apparatus according to the signal generation system illustrated in FIG. 3 are illustrated in (a) and (b), respectively.

즉 도 4에서는 볼이 골프클럽에 의해 타격됨에 따라 운동하는 상태에 관하여 도 3에 도시된 트리거 신호 체계에 따라 취득된 두 가지 패턴의 이미지에 관하여 나타내고 있다(I1 및 I2).That is, FIG. 4 shows two patterns of images acquired according to the trigger signal system shown in FIG. 3 regarding the state in which the ball is hit by the golf club (I1 and I2).

도 4의 (a)에 도시된 이미지(I1)에서는 골프클럽 이미지(C1, C2, C3)와 볼 이미지(11a, 11b, 11c)가 다중 노출에 의해 취득된 경우로서, 볼 이미지(11a, 11b, 11c)가 서로 소정 간격 분리되어 나타난 경우이다.In the image I1 shown in FIG. 4A, the golf club images C1, C2, C3 and the ball images 11a, 11b, and 11c are obtained by multiple exposure, and the ball images 11a and 11b are obtained. , 11c) appear to be separated from each other by a predetermined interval.

그리고 도 4의 (b)에 도시된 이미지(I2)는 볼이 서로 중첩되어 소정 크기의 이미지 영역(12)으로서 나타나는 경우에 관하여 나타내고 있다.The image I2 shown in FIG. 4B shows a case where the balls overlap each other and appear as an image area 12 of a predetermined size.

즉 도 4의 (a)에 도시된 이미지는 볼이 고속으로 운동하기 때문에 각각의 스트로보 조명이 트리거 될 때 소정 거리 떨어진 상태로 이미지가 형성된 경우이고, 도 4의 (b)에 도시된 이미지는 볼이 저속으로 운동하기 때문에 볼이 멀리 진행하기 전에 스트로보 조명이 각각 트리거 되어 서로 중첩되어 나타나는 경우이다.That is, the image shown in (a) of FIG. 4 is a case where the image is formed at a predetermined distance when each strobe light is triggered because the ball moves at high speed, and the image shown in (b) of FIG. Because of this slow motion, the strobe lights are triggered before the ball travels farther and appear superimposed on each other.

본 발명에 따른 오브젝트 운동 센싱장치 및 센싱방법은 도 4의 (a)에 도시된 바와 같이 볼이 스트로보 조명의 고정된 주기에 따른 소정 속도 이상으로 고속으로 운동함으로써 다중 노출 이미지상에 볼이 서로 분리된 상태로 나타나는 경우뿐만 아니라, 도 4의 (b)에 도시된 바와 같이 볼이 스트로보 조명의 고정된 주기에 따른 소정 속도 이하의 저속으로 운동함으로써 다중 노출 이미지상에 볼이 서로 중첩된 상태로 나타나는 경우에 볼의 운동방향을 정확하게 추정하여 운동방향 상에 있는 이미지들 중 볼 이미지를 추출함으로써 볼의 중심점이 추출되도록 하기 위한 것이다.In the object motion sensing apparatus and the sensing method according to the present invention, as shown in (a) of FIG. 4, the balls are separated from each other on the multiple-exposure image by moving the balls at a high speed or more at a predetermined speed according to a fixed period of the strobe light. As shown in FIG. 4 (b), the balls appear to overlap each other on the multiple exposure image by moving at a low speed below a predetermined speed according to a fixed period of the strobe illumination. In this case, the center of the ball is extracted by accurately estimating the direction of motion of the ball and extracting the ball image from the images on the direction of motion.

이와 같은 본 발명에 따른 오브젝트 운동 센싱장치 및 센싱방법은 도 4의 (b)에 도시된 중첩된 볼 이미지의 경우에 특히 유용하게 이용될 수 있는바, 이하에서는 도 5 내지 도 11을 참조하여 본 발명에 따른 오브젝트 운동 센싱장치에 의한 상기 도 4의 (b)에 도시된 바와 같은 서로 중첩된 볼 이미지의 처리에 관하여 설명한다.The object motion sensing apparatus and the sensing method according to the present invention can be particularly useful in the case of the superimposed ball image shown in (b) of FIG. 4, as described below with reference to FIGS. 5 to 11. The processing of the ball images superimposed on each other as shown in FIG. 4B by the object motion sensing apparatus according to the present invention will be described.

도 5의 (a)는 서로 중첩된 볼에 관한 이미지를 포함하는 다중 노출 이미지 원본을 나타내고 있는데, 320 X 240의 낮은 해상도의 75 fps의 저속으로 동작하는 카메라 장치와 330Hz의 스트로보 장치를 이용하여 취득한 이미지이다.Fig. 5 (a) shows an original multiple exposure image including images of balls superimposed on each other, which is obtained by using a low speed camera device of 320 x 240 at 75 fps and a stroboscopic device of 330 Hz. Image.

도 5의 (a)에 나타낸 바와 같은 원본 이미지에 대해 차연산(Subtraction) 등을 통해 정지되어 있는 이미지, 즉 배경 이미지 등을 제거하고 가우시안 블러(Gausian Blur) 등의 소정의 전처리 과정을 거친 이미지에 대해 도 5의 (b)에서 나타내고 있다.On the image which has been fixed with subtraction or the like for the original image as shown in (a) of FIG. 5, the background image is removed and subjected to a predetermined preprocessing process such as Gaussian Blur. It is shown in FIG.5 (b).

그러나 볼이 서로 중첩되어 있고 카메라 장치의 해상도가 낮기 때문에, 즉 볼이 서로 중첩되어 있음을 명확하게 구분할 수 있을 정도의 해상도를 갖는 이미지가 아니기 때문에 중첩된 볼에 관한 이미지는 소정 크기의 이미지 영역의 형태로 나타나고 이는 골퍼의 몸의 일부에 대한 소정 크기의 이미지 영역이나 골프클럽에 관한 소정 크기의 이미지 영역 등 여러 가지 노이즈와 혼동되어 나타나기 때문에 그와 같은 여러 가지 노이즈가 존재하는 상태에서 중첩된 볼에 관한 이미지 영역만을 추출해 내는 것이 매우 어렵다.However, because the balls are superimposed on each other and the resolution of the camera device is low, i.e. it is not an image with a resolution that makes it clear that the balls are superimposed on each other, the image of the superimposed balls may be It appears in the form of a confusion with various noises, such as a certain sized image area of a golfer's body or a predetermined sized image area of a golf club. It is very difficult to extract only the relevant image area.

이와 같이 중첩된 볼 이미지를 추출하기 위하여 볼이 운동하는 방향을 추정하여 볼의 운동방향 상에 존재하는 이미지들을 1차적으로 추출하고 그 추출된 이미지들 중에서 볼에 관한 이미지를 다시 추출함으로써 최종적으로 볼에 관한 이미지만을 추출할 수 있게 된다.In order to extract the overlapped ball image as described above, the ball movement direction is first estimated, and the images existing in the ball movement direction are first extracted, and the image of the ball is finally extracted from the extracted images. You can only extract images about.

도 6 내지 도 10은 본 발명의 일 실시예에 따른 오브젝트 운동 센싱장치 및 센싱방법에 따른 볼의 운동방향 추정 과정을 각각 나타낸 도면으로서, 먼저 도 6 및 도 7을 참조하여 제1 운동방향 추정수단에 의한 볼의 운동방향 추정 과정을 설명한다.6 to 10 are views illustrating a motion direction estimation process of a ball according to an object motion sensing device and a sensing method, respectively, according to an embodiment of the present invention. First, the first motion direction estimation unit will be described with reference to FIGS. 6 and 7. The process of estimating the direction of motion of the ball is explained.

먼저 최초 취득된 모든 프레임의 다중 노출 이미지에서 배경 및 노이즈를 적절히 제거한 상태의 이미지에 존재하는 모든 이미지 영역(R)을 관통하는 라인(L)을 생성한다.First, a line L that penetrates all image regions R present in the image in which the background and noise are properly removed from the multiple-exposure image of all frames obtained initially is generated.

즉 모든 이미지 영역(R)의 적어도 두 개의 포인트를 선정하여 이를 서로 연결하는 라인을 도 6에 도시된 바와 같이 생성한다.That is, at least two points of all the image areas R are selected and a line connecting them to each other is generated as shown in FIG. 6.

이때 볼의 초기 위치(B1)에 관한 정보는 미리 설정되어 있어야 한다. 즉 카메라 장치는 볼이 운동하기 전에 볼의 초기 위치를 감지하여 이에 대한 정보로부터 다중 노출 이미지상에 볼의 초기 위치(B1)를 설정한다.At this time, the information about the initial position (B1) of the ball should be set in advance. That is, the camera device detects the initial position of the ball before the ball moves and sets the initial position B1 of the ball on the multiple exposure image from the information about the ball.

상기한 바와 같이 생성된 모든 라인(L)에 대해 볼의 초기 위치(B1)와의 거리를 측정한다.The distance from the initial position B1 of the ball is measured for all lines L generated as described above.

즉 도 6의 A 영역을 확대하여 나타낸 도 7을 참조하면, R1 영역을 지나는 여러 개의 라인과 R2 영역을 지나는 여러 개의 라인 모두에 대해 볼의 초기 위치(B1)에 대한 직선 거리를 측정한다.That is, referring to FIG. 7 in which the area A of FIG. 6 is enlarged, the linear distance to the initial position B1 of the ball is measured for both the lines passing through the R1 area and the several lines passing through the R2 area.

도 7에서는 R1 영역을 지나는 L1 라인과 R1 영역 및 R2 영역을 지나는 L2 라인이 볼의 초기 위치(B1)에 가장 가까운데, 두 라인 중 L1 라인이 볼의 초기 위치(B1)에 가장 가까우므로 L1 라인을 볼의 운동방향 축으로서 일단 추정한다.In FIG. 7, the L1 line passing through the R1 region and the L2 line passing through the R1 region and the R2 region are closest to the initial position B1 of the ball, and the L1 line of the two lines is closest to the initial position B1 of the ball. Is estimated as the axis of motion of the ball.

여기서 볼의 초기 위치(B1)와 L1 라인의 직선 거리를 DL이라고 할 때 상기 DL이 소정의 설정 범위를 벗어날 정도로 긴 거리이면 상기한 방법에 의해 추정된 운동방향은 잘못 추정된 운동방향일 가능성이 높기 때문에 제2 운동방향 추정수단에 의해 다시 운동방향이 추정됨이 바람직하다.Wherein when said initial position the linear distance (B1) and the L1 line D L of the ball the D L two days the direction of motion is incorrectly estimated motion direction is estimated by the above method is a long distance, so outside the predetermined set range Since the possibility is high, it is preferable that the direction of motion be estimated again by the second direction of motion estimation means.

도 8 내지 도 10에서는 제2 운동방향 추정수단에 의한 운동방향 추정 과정을 나타내고 있다.8 to 10 show a motion direction estimation process by the second motion direction estimation means.

먼저 도 8에 도시된 바와 같이 여러 프레임의 이미지를 하나로 취합하여 하나의 이미지에 볼 이미지 영역이 진행 시간에 따라 나타나도록 한다. First, as shown in FIG. 8, images of several frames are collected into one so that an image area to be seen in one image is displayed according to a progress time.

도 8에서는 각 프레임별 볼 이미지 영역(12-1, 12-2, 12-3)이 한 장의 이미지에 모두 나타나도록 한 경우를 나타내고 있다.FIG. 8 illustrates a case where the ball image areas 12-1, 12-2, and 12-3 for each frame are all displayed in one image.

도 8에 도시된 바와 같이 하나로 취합된 이미지에서 볼의 초기 위치(B1)를 기준으로 소정 각도의 스캔 영역(SR)를 지정하여 해당 스캔 영역(SR)에서 볼의 초기 위치(B1)를 기준으로 각각의 스캔 라인(X1, X2, X3, ...Xi...Xn) 상의 이미지들에 대한 픽셀값을 체크한다.As shown in FIG. 8, the scan area SR is designated at a predetermined angle with respect to the initial position B1 of the ball in the combined image, and thus, based on the initial position B1 of the ball in the scan area SR. The pixel values for the images on each scan line X1, X2, X3, ... Xi ... Xn are checked.

이때 스캔 영역(SR)을 형성하는 스캔 영역 라인(s1 및 s2)은 미리 설정된 각도를 이루도록 형성됨이 바람직한데, 360°가 되도록 설정될 수도 있지만 도 9에 도시된 바와 같이 전방 120° 정도로 설정되도록 함이 바람직하다.In this case, the scan area lines s1 and s2 forming the scan area SR are preferably formed to have a preset angle, but may be set to 360 °, but set to about 120 ° forward as shown in FIG. 9. This is preferred.

상기 각 스캔 라인(X1, X2, X3, ...Xi...Xn) 상의 이미지들에 대한 픽셀값의 체크에 대해서는 도 10에 도시된 바와 같이 이루어질 수 있다.The check of pixel values for the images on the scan lines X1, X2, X3, ... Xi ... Xn may be performed as shown in FIG.

도 10에 도시된 바와 같이 볼의 반지름값(Rs)으로서 미리 설정된 값(볼의 반지름을 미리 알고 설정해 놓은 경우 및 볼의 이미지로부터 반지름을 미리 측정하여 설정해 놓은 경우 등을 모두 포함한다)에 따라 스캔 라인(Xi)을 중심으로 일측과 타측으로 각각 제1 서브 스캔 라인(UL)과 제2 서브 스캔 라인(LL)을 생성시키고, 스캔 라인(Xi) 상의 이미지의 픽셀값의 합(Sum 1), 제1 서브 스캔 라인(UL) 상의 이미지의 픽셀값의 합(Sum 2), 그리고 제2 서브 스캔 라인(LL) 상의 이미지의 픽셀값의 합(Sum 3)을 각각 계산한다.As shown in FIG. 10, the scan is performed according to a predetermined value (including both the case where the radius of the ball is known and set in advance and the case where the radius is measured and set from the image of the ball in advance). The first sub scan line UL and the second sub scan line LL are generated on one side and the other side with respect to the line Xi, respectively, and the sum of pixel values of the image on the scan line Xi is Sum 1, The sum Sum 2 of pixel values of the image on the first sub scan line UL and the sum Sum 3 of pixel values of the image on the second sub scan line LL are calculated.

그리고 다음과 같은 cost function 함수값을 산출한다.
And the cost function function value is calculated as follows.

v = Sum 1 - Sum 2 - Sum 3
v = Sum 1-Sum 2-Sum 3

상기한 바와 같은 함수값을 각 스캔 라인에 대해 모두 구하여 최대값을 이루는 스캔 라인을 볼의 운동방향 축으로서 추정하는 것이다.The function values as described above are obtained for each scan line, and the maximum scan line is estimated as the axis of motion of the ball.

이와 같이 각 스캔 라인과 해당 스캔 라인에 대한 볼의 지름값에 따른 서브 스캔 라인과의 cost function 함수값을 산출함으로써 볼의 이미지 영역으로서 너무 작거나 너무 큰 이미지 영역들을 효과적으로 제외시킬 수 있고 볼 이미지 영역을 정확하게 포함시킬 수 있어 볼 이미지 영역을 관통하는 운동방향 축을 정확하게 추출하는 것이 가능하게 된다.Thus, by calculating the cost function function value of each scan line and the sub scan line according to the diameter of the ball for the corresponding scan line, it is possible to effectively exclude image areas that are too small or too large as the image area of the ball and the ball image area It can be accurately included so that it is possible to accurately extract the axis of motion through the ball image area.

따라서 도 9에서는 Xi 스캔 라인이 운동방향 축으로서 추정될 수 있다.Therefore, in FIG. 9, the Xi scan line can be estimated as the direction of motion axis.

한편, 상기한 바와 같은 방법에 의해 볼의 운동방향 축이 추출되면, 그 추출된 운동방향 축이 관통하는 모든 이미지에 대해 도 11에 도시된 바와 같이 픽셀값을 체크함으로써 노이즈를 효과적으로 제거하고 볼 이미지 영역만을 추출할 수 있게 된다.On the other hand, if the movement direction axis of the ball is extracted by the method as described above, the noise is effectively removed and the ball image is checked by checking the pixel value as shown in FIG. Only the area can be extracted.

도 11의 (a) 및 (b)에서는 운동방향 축 상에 존재하는 이미지로부터 볼 이미지만을 효과적으로 추출하는 방법의 일 예에 관하여 나타내고 있다.11A and 11B illustrate an example of a method of effectively extracting only a ball image from an image existing on a motion direction axis.

도 11의 (a)는 운동방향 축 상에 존재할 수 있는 특정 패턴의 이미지에 관하여 나타낸 것이고, 도 11의 (b)는 도 11의 (a)에 도시된 이미지에 대한 운동방향 축(13)을 따라 체크된 픽셀값의 분포에 관하여 나타낸 도면이다.FIG. 11A illustrates a specific pattern of images that may exist on the axis of motion, and FIG. 11B illustrates an axis of motion 13 for the image shown in FIG. 11A. The figure shows the distribution of the pixel value checked accordingly.

도 11의 (a)에 도시된 바와 같이 운동방향 축(13)이 중첩된 볼에 관한 이미지 영역(12)과 그 주변의 노이즈(N1)를 관통하는데, 운동방향 축(13)을 따라 이미지의 픽셀값의 분포를 살펴보면 도 11의 (b)와 같은 패턴이 나타난다.As shown in (a) of FIG. 11, the direction of motion 13 passes through the image region 12 with respect to the overlapping ball and the noise N1 around it. Looking at the distribution of pixel values, a pattern as shown in FIG. 11B appears.

중첩된 볼의 이미지 영역은 소정의 임계값 이상으로 픽셀값이 유지되는 구간이 적어도 두 개 볼의 지름을 합친 구간은 되어야 할 것이며, 도 11의 (b)에 도시된 바와 같이 픽셀값의 분포에서 소정의 임계값 이상으로 유지되는 구간에 대해 a1 ~ a2 구간과 a3 ~ a4 구간으로 나뉘어진다.The image area of the overlapped balls should be a section in which the pixel values are maintained above a predetermined threshold, the sum of the diameters of at least two balls, and in the distribution of pixel values as shown in FIG. The sections maintained above the predetermined threshold are divided into a1 to a2 sections and a3 to a4 sections.

여기서 픽셀값이 임계값 이상으로 유지되는 구간이 a3 ~ a4 구간을 나타내는 이미지, 즉 도 11의 (a)에서 12로 지칭되는 이미지의 경우 볼이 중첩된 이미지 영역으로서 추정할 수 있고 a1 ~ a2 구간을 나타내는 이미지, 즉 도 11의 (a)에서 N1으로 지칭되는 이미지의 경우 노이즈(골프클럽에 관한 이미지 등)로 추정할 수 있다.Here, in the case where the interval in which the pixel value is maintained above the threshold is an image representing the interval a3 to a4, that is, the image referred to as 12 in FIG. 11A, it can be estimated as an image region in which balls overlap, and the interval a1 to a2 In the case of an image representing ie, an image referred to as N1 in FIG. 11A, it may be estimated as noise (image related to a golf club).

따라서 N1 이미지는 제외시키고 12 이미지를 중첩된 볼의 이미지로서 추출할 수 있다.Therefore, the N1 image can be excluded and 12 images can be extracted as the image of the overlapping balls.

한편, 상기한 바와 같이 운동방향 축 상에 존재하는 이미지들 중 중첩된 볼에 관한 이미지 영역을 추출한 후에는, 추출된 이미지 영역에 대해 적절한 피팅을 하여 중심점을 추출할 필요가 있다. 이에 대해서는 도 12의 (a) 및 (b)에서 도시하고 있다.On the other hand, after extracting the image area of the overlapping ball among the images existing on the axis of motion as described above, it is necessary to extract the center point by appropriate fitting to the extracted image area. This is illustrated in FIGS. 12A and 12B.

중첩된 볼 이미지 영역(12)에 대한 피팅은 여러 가지 방식에 의해 이루어질 수 있으나 도 12의 (a)에서는 볼 이미지 영역(12)의 양쪽 가장자리 부분에 각각 반원 형상으로 피팅(Fitting)된 경우를 나타내고 있다.Fitting to the overlapped ball image region 12 may be performed by various methods, but FIG. 12 (a) shows a case in which each of the edge portions of the ball image region 12 is fitted in a semicircular shape. have.

도 12의 (a)에 도시된 바와 같이 볼 이미지 영역에 대한 피팅이 되면 볼 이미지 영역의 일측 끝부분 볼에 대한 중심점과 볼 이미지 영역의 타측 끝부분 볼에 대한 중심점을 각각 추출하도록 한다.As shown in FIG. 12A, when the fitting is performed on the ball image region, the center point of one end of the ball image region and the center point of the other end of the ball image region are extracted.

볼 이미지 영역에 대한 중심점 추출을 위해, 먼저 운동방향 축 상의 임의의 두 점(양쪽 끝부분의 두 볼에 대한 중심점으로서 추정되는 임의의 중심점) 또는 운동방향 축(13)을 따라 체크된 픽셀값의 변화에 따라 픽셀값이 변화하기 시작하는 위치에 각각 두 점을 중심점 후보(EP1, EP2)로서 추출한다.For extracting the center point for the ball image region, first of all, the point of the pixel value checked along the axis of motion 13 or any two points on the axis of motion (an estimated center point for the two balls at either end) Two points are extracted as center point candidates EP1 and EP2 at positions where the pixel value starts to change with the change.

이와 같이 생성된 중심점 후보(EP1, EP2)는 정확한 중심점은 아니므로 이를 적절하게 조정할 필요가 있다.Since the center point candidates EP1 and EP2 generated as described above are not accurate center points, it is necessary to adjust them appropriately.

도 12의 (a)에 도시된 바와 같이 피팅된 피팅커브(HC1, HC2)가 반원 형상이므로 이에 대한 기하 조건에 근거하여 각각의 중심점 후보(EP1, EP2)에 대하여 정확한 중심점으로 조정하는 것이 가능하다.As shown in (a) of FIG. 12, since the fitting curves HC1 and HC2 are semi-circular, it is possible to adjust the center points candidates EP1 and EP2 to the correct center points based on the geometric conditions thereof. .

즉 제1 중심점 후보(EP1)에 대해 3방향 라인(r1, r2, r3)의 길이가 서로 동일하도록 하고, 제2 중심점 후보(EP2)에 대해 3방향 라인(r4, r5, r6)의 길이가 서로 동일하도록 함으로써 중심점 후보(EP1, EP2)의 위치를 각각 정확한 위치에 형성되도록 조정하는 것이다.That is, the lengths of the three-way lines r1, r2, and r3 are the same with respect to the first center point candidate EP1, and the lengths of the three-way lines r4, r5, and r6 are the same with respect to the second center point candidate EP2. By making them equal to each other, the positions of the center point candidates EP1 and EP2 are adjusted to be formed at the correct positions, respectively.

이때 3방향 라인(r1, r2, r3 또는 r4, r5, r6)의 길이는 볼의 지름으로서 미리 설정된 값에 매칭될 수도 있고 볼 이미지를 통해 측정된 지름에 매칭될 수도 있다.At this time, the length of the three-way line (r1, r2, r3 or r4, r5, r6) may be matched to a preset value as the diameter of the ball, or may match the diameter measured through the ball image.

상기한 바와 같은 방식에 의해 도 12의 (b)에 도시된 바와 같이 볼 이미지 영역(12)의 두 중심점 좌표(CP1, CP2)가 각각 추출된다.In this manner, as shown in FIG. 12B, two center point coordinates CP1 and CP2 of the ball image area 12 are extracted.

한편, 운동방향 축은 볼 이미지 영역의 중심부를 지나는 것이 바람직한데, 상기한 도 6 내지 도 10에 도시된 방법에 의해 추정된 운동방향의 축은 볼 이미지 영역의 중심부를 정확하게 관통하지 않는 경우가 있다.On the other hand, it is preferable that the axis of the movement direction passes through the center of the ball image region, and the axis of the movement direction estimated by the method shown in FIGS. 6 to 10 does not exactly penetrate the center of the ball image region.

이와 같은 경우에는 추정된 운동방향 축이 볼 이미지 영역의 중심부를 정확하게 관통할 수 있도록 운동방향 축의 위치가 조정되도록 함이 바람직하다.In such a case, it is preferable to adjust the position of the movement direction axis so that the estimated movement direction axis can accurately penetrate the center of the ball image area.

도 13의 (a)에 도시된 바와 같이 운동방향 축(13)이 볼 이미지 영역(12)을 관통하는 상하 두께는 서로 실질적으로 동일해야 하므로, 도 13의 (a)에 도시된 운동방향 축(13)의 아래쪽 두께 t1과 위쪽 두께 t2의 차이에 해당하는 만큼 운동방향 축(13)의 위치를 이동(Shift)시킴이 바람직하다.As shown in (a) of FIG. 13, the vertical thicknesses through which the moving direction axis 13 penetrates the ball image area 12 should be substantially the same, so that the moving direction axis shown in FIG. It is preferable to shift (Shift) the position of the movement direction axis 13 by the difference between the lower thickness t1 and the upper thickness t2 of 13).

상기한 바와 같은 방식에 의해 운동방향 축이 볼 이미지 영역(12)의 중심을 지나는 중심선(CL)으로 이동된 상태를 도 13의 (b)에서 나타내고 있다.13B shows a state in which the movement direction axis is moved to the center line CL passing through the center of the ball image area 12 in the manner described above.

한편, 도 14를 참조하여 본 발명에 따른 오브젝트 운동 센싱방법의 일 실시예에 관한 플로우 차트에 관하여 설명한다.On the other hand, with reference to Figure 14 will be described in the flow chart of an embodiment of the object motion sensing method according to the present invention.

도 14에 도시된 바와 같이 먼저 신호발생부에 의해 트리거 신호가 인가되어 카메라 장치와 스트로보 장치가 각각 소정의 주기로 오브젝트의 운동상태에 관하여 다중 노출 이미지를 취득한다(S10).As shown in FIG. 14, a trigger signal is first applied by the signal generator so that the camera apparatus and the strobe apparatus acquire the multiple exposure image with respect to the motion state of the object at predetermined cycles, respectively (S10).

이때 볼의 초기 위치를 감지하여 인식한다(S20). 그리고 취득된 다중 노출 이미지에 대해 배경이미지 및 각종 노이즈를 제거하기 위한 여러 가지 이미지 전처리 단계가 진행된다(S30).At this time, by detecting the initial position of the ball to recognize (S20). In operation S30, various image preprocessing steps are performed to remove a background image and various noises of the acquired multiple exposure image.

상기한 바와 같이 전처리 된 이미지 상의 각 이미지 영역을 관통하는 복수개의 라인을 생성하고(S40), 볼의 초기 위치에서 각 생성된 라인까지의 직선 거리가 가장 짧은 라인을 추출함으로써(S50), 볼의 운동방향 축을 추정한다.By generating a plurality of lines penetrating each image area on the preprocessed image as described above (S40), and extracting the line with the shortest linear distance from the initial position of the ball to each generated line (S50), Estimate the axis of motion.

이때 볼의 초기 위치에서 가장 짧은 거리를 이루는 라인까지의 거리가 설정 거리 보다 작은 경우에는 해당 라인을 운동방향 축으로서 추출한다(S61)At this time, when the distance from the initial position of the ball to the line forming the shortest distance is smaller than the set distance, the corresponding line is extracted as the axis of movement direction (S61).

만약 볼의 초기 위치에서 가장 짧은 거리를 이루는 라인까지의 거리가 설정 거리 보다 큰 경우, 상기 S40 및 S50 단계에 의해 추정된 운동방향 축은 잘못 추정된 것으로 보고 제2 운동방향 추정에 관한 프로세스가 진행된다.If the distance from the initial position of the ball to the line forming the shortest distance is larger than the set distance, the axis of motion estimated by the steps S40 and S50 is assumed to be incorrectly estimated, and the process for estimating the second direction of motion proceeds. .

즉 상기 전처리 된 이미지 중 둘 이상의 프레임에 대한 이미지를 취합하여(S62), 볼의 초기 위치를 중심으로 소정 각도 라인스캔을 한다(S63).That is, by collecting the images for two or more frames of the pre-processed image (S62), a predetermined angle line scan around the initial position of the ball (S63).

이때 각 스캔 라인 상의 각 이미지 영역의 픽셀값에 대한 cost function(도 10 참조)을 산출하고(S64), 산출된 cost function 중 최대값을 갖는 스캔라인을 운동방향 축으로서 추출한다(S65).In this case, a cost function (see FIG. 10) for pixel values of each image area on each scan line is calculated (S64), and a scanline having a maximum value among the calculated cost functions is extracted as an axis of movement direction (S65).

상기한 바와 같이 추출된 운동방향 축상의 이미지 영역 중 볼에 관한 이미지를 추출하여 분석함으로써(S70) 최종적으로 볼의 중심점 좌표를 획득할 수 있다(S80).As described above, by extracting and analyzing an image of a ball among the extracted image areas on the axis of motion (S70), the coordinates of the center point of the ball may be finally obtained (S80).

10:골프공, 12, 12-1, 12-2, 12-3:중첩된 볼 이미지 영역
20:스윙플레이트, 30:타격매트, 40:스크린
100:시뮬레이터, 110:데이터베이스
120:영상처리부, 130:영상출력부
210:신호발생부, 220:센싱처리부
310, 320:카메라 장치, 330:스트로보 장치
10: Golf ball, 12, 12-1, 12-2, 12-3: Nested ball image area
20: swing plate, 30: strike mat, 40: screen
100: simulator, 110: database
120: image processing unit, 130: image output unit
210: signal generator, 220: sensing processor
310, 320: camera unit, 330: strobe unit

Claims (14)

운동하는 오브젝트에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및
초기 오브젝트의 위치 정보를 통해 오브젝트의 운동방향을 추정하는 제1 운동방향 추정수단과, 상기 다중 노출 이미지상의 각 이미지 영역의 픽셀값으로부터 오브젝트의 운동방향을 추정하는 제2 운동방향 추정수단과, 상기 제1 운동방향 추정수단 및 제2 운동방향 추정수단 중 적어도 하나에 의해 추정된 운동방향 상의 이미지 영역 중 오브젝트에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부;
를 포함하는 오브젝트 운동 센싱장치.
A sensor unit which acquires a multiple exposure image of a plurality of frames of a moving object; And
First motion direction estimating means for estimating the motion direction of the object based on the positional information of the initial object, second motion direction estimating means for estimating the motion direction of the object from pixel values of each image area on the multiple exposure image; A sensing processor including an analyzing means for extracting and analyzing an image of an object in an image area on the motion direction estimated by at least one of the first motion direction estimating means and the second motion direction estimating means;
Object motion sensing device comprising a.
제1항에 있어서, 상기 제1 운동방향 추정수단은,
상기 다중 노출 이미지상의 각 이미지 영역의 적어도 두 개의 포인트를 선정하여 서로 연결하는 라인을 생성하는 라인생성수단과,
상기 생성된 라인 중 초기 오브젝트의 위치와의 거리가 가장 짧은 라인을 오브젝트의 운동방향 축으로서 추출하는 라인추출수단을 포함하는 것을 특징으로 하는 오브젝트 운동 센싱장치.
According to claim 1, wherein the first direction of motion estimation means,
Line generation means for selecting at least two points of each image area on the multiple exposure image and generating a line connecting each other;
And a line extracting means for extracting, as the movement direction axis of the object, a line having a shortest distance from the position of the initial object among the generated lines.
제1항에 있어서, 상기 제2 운동방향 추정수단은,
상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 이미지 취합수단과,
초기 오브젝트의 위치를 중심으로 소정 각도 라인스캔하여 각 스캔 라인상의 이미지 영역의 픽셀값을 체크하는 라인스캔수단과,
상기 라인스캔수단에 의한 스캔 라인 중 가장 큰 픽셀값을 갖는 경우의 해당 스캔 라인을 오브젝트의 운동방향 축으로서 추출하는 축 추출수단을 포함하는 것을 특징으로 하는 오브젝트 운동 센싱장치.
The method of claim 1, wherein the second direction of motion estimation means,
Image collecting means for collecting the multiple exposure images of the at least two frames into one;
Line scanning means for checking a pixel value of an image area on each scan line by scanning a predetermined angle line around the position of the initial object;
And axis extracting means for extracting the scan line in the case where the scan line has the largest pixel value among the scan lines by the line scanning means as the direction of motion of the object.
제2항에 있어서,
상기 제2 운동방향 추정수단은 상기 라인추출수단에 의해 운동방향 축으로서 추출된 라인과 초기 오브젝트의 위치와의 거리가 설정값 보다 큰 경우에 실행되도록 구성되는 것을 특징으로 하는 오브젝트 운동 센싱장치.
The method of claim 2,
And the second movement direction estimating means is configured to be executed when the distance between the line extracted as the movement direction axis by the line extracting means and the position of the initial object is larger than a set value.
운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및
상기 다중 노출 이미지상의 각 이미지 영역을 관통하는 라인을 생성하여 초기 볼 위치에 가장 근접한 라인을 볼의 운동방향으로서 추정하는 운동방향 추정수단과, 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부;
를 포함하는 오브젝트 운동 센싱장치.
A sensor unit for acquiring multiple exposure images of a plurality of frames with respect to the moving ball; And
A motion direction estimating means for generating a line passing through each image area on the multiple-exposure image and estimating the line closest to the initial ball position as the direction of motion of the ball, and an image about the ball among the image areas on the estimated motion direction. Sensing processing unit including an analysis means for extracting and analyzing;
Object motion sensing device comprising a.
제5항에 있어서, 상기 센싱처리부는,
상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하여 초기 볼 위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 함수값을 산출하여 최대값을 갖는 스캔라인을 볼의 운동방향 축으로서 추출하는 운동방향 추출수단을 더 포함하는 것을 특징으로 하는 오브젝트 운동 센싱장치.
The method of claim 5, wherein the sensing processing unit,
The multi-exposure images of the at least two frames are collected into one line, and a predetermined angle line scan is performed around the initial ball position to calculate a function value based on the pixel value of each image area. The object motion sensing apparatus further comprises a movement direction extraction means for extracting.
제6항에 있어서,
상기 운동방향 추출수단은 상기 운동방향 추정수단에 의해 운동방향 축으로서 추정된 라인과 초기 볼 위치와의 거리가 설정값 보다 큰 경우에 실행되도록 구성되는 것을 특징으로 하는 오브젝트 운동 센싱장치.
The method of claim 6,
And the motion direction extracting means is configured to be executed when the distance between the line estimated as the motion direction axis by the motion direction estimation means and the initial ball position is larger than a set value.
운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 센서부; 및
상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하여 초기 볼 위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 함수값을 산출하여 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 운동방향 추출수단과, 추출된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 분석수단을 포함하는 센싱처리부;
를 포함하는 오브젝트 운동 센싱장치.
A sensor unit for acquiring multiple exposure images of a plurality of frames with respect to the moving ball; And
The multi-exposure images of the at least two frames are collected into one line, and a predetermined angle line scan is performed around the initial ball position to calculate a function value based on pixel values of each image region, thereby extracting a scan line having a maximum value as the direction of motion of the ball. A sensing processor including a moving direction extracting means and an analyzing means for extracting and analyzing an image of a ball from each image area on the extracted moving direction;
Object motion sensing device comprising a.
운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 단계;
상기 다중 노출 이미지상의 볼의 초기위치를 인식하는 단계;
상기 다중 노출 이미지상의 각 이미지 영역을 관통하는 라인을 각각 생성하는 단계;
상기 생성된 라인 중 상기 초기위치에 가장 가까운 거리의 라인을 볼의 운동방향으로서 추정하는 단계; 및
상기 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지를 추출하여 분석하는 단계;
를 포함하는 오브젝트 운동 센싱방법.
Acquiring multiple exposure images of multiple frames for a moving ball;
Recognizing an initial position of a ball on the multiple exposure image;
Generating a line passing through each image area on the multiple exposure image, respectively;
Estimating the line of the distance closest to the initial position among the generated lines as the direction of movement of the ball; And
Extracting and analyzing an image of a ball of each image area on the estimated movement direction;
Object movement sensing method comprising a.
제9항에 있어서,
상기 볼의 운동방향으로서 추정된 라인과 볼의 초기위치의 거리를 설정값과 비교하는 단계를 더 포함하며,
상기 거리가 상기 설정값 보다 작은 경우, 해당 라인을 운동방향 축으로 설정하여 상기 분석하는 단계가 수행되도록 하는 것을 특징으로 하는 오브젝트 운동 센싱방법.
10. The method of claim 9,
And comparing the distance between the line estimated as the direction of motion of the ball and the initial position of the ball with a set value,
If the distance is smaller than the set value, the object motion sensing method, characterized in that for performing the analyzing step by setting the corresponding line as the direction of movement axis.
제9항에 있어서,
상기 볼의 운동방향으로서 추정된 라인과 볼의 초기위치의 거리를 설정값과 비교하는 단계를 더 포함하며,
상기 거리가 상기 설정값 보다 큰 경우, 상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 단계와,
상기 취합된 이미지에서 상기 초기위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 소정의 함수값을 산출하는 단계와,
상기 산출된 함수값 중 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 단계를 더 포함하는 것을 특징으로 하는 오브젝트 운동 센싱방법.
10. The method of claim 9,
And comparing the distance between the line estimated as the direction of motion of the ball and the initial position of the ball with a set value,
When the distance is greater than the set value, combining multiple exposure images of the at least two frames into one;
Calculating a predetermined function value based on pixel values of each image area by scanning a predetermined angle line around the initial position in the combined image;
And extracting a scan line having a maximum value among the calculated function values as a direction of movement of the ball.
운동하는 볼에 대한 복수 프레임의 다중 노출 이미지를 취득하는 단계;
상기 다중 노출 이미지상의 볼의 초기위치를 인식하는 단계;
상기 적어도 둘 이상의 프레임의 다중 노출 이미지를 하나로 취합하는 단계;
상기 취합된 이미지에서 상기 초기위치를 중심으로 소정 각도 라인스캔하여 각 이미지 영역의 픽셀값에 근거한 소정의 함수값을 산출하는 단계;
상기 산출된 함수값 중 최대값을 갖는 스캔라인을 볼의 운동방향으로서 추출하는 단계; 및
상기 추정된 운동방향 상의 각 이미지 영역 중 볼에 관한 이미지 영역을 추출하여 분석하는 단계;
를 포함하는 오브젝트 운동 센싱방법.
Acquiring multiple exposure images of multiple frames for a moving ball;
Recognizing an initial position of a ball on the multiple exposure image;
Combining the multiple exposure images of the at least two frames into one;
Calculating a predetermined function value based on pixel values of each image area by scanning a predetermined angle line around the initial position in the collected image;
Extracting a scan line having a maximum value among the calculated function values as a direction of movement of a ball; And
Extracting and analyzing an image region of a ball from each of the image regions on the estimated movement direction;
Object movement sensing method comprising a.
제11항 또는 제12항에 있어서, 상기 함수값을 산출하는 단계는,
각 이미지 영역에 대해 스캔라인을 따라 픽셀값의 합에 관한 제1값이 계산되는 단계와,
상기 볼의 반지름으로서 미리 설정된 값을 간격으로 상기 스캔라인의 일측에 생성되는 일측 라인을 따라 해당 이미지 영역의 픽셀값의 합에 관한 제2값이 계산되는 단계와,
상기 스캔라인의 타측에 상기 반지름을 간격으로 생성되는 타측 라인을 따라 해당 이미지 영역의 픽셀값의 합에 관한 제3값이 계산되는 단계와,
상기 제1값에서 상기 제2값 및 제3값을 뺀 값을 계산하는 단계를 포함하는 것을 특징으로 하는 오브젝트 운동 센싱방법.
The method of claim 11 or 12, wherein calculating the function value comprises:
Calculating a first value for the sum of pixel values along the scanline for each image area;
Calculating a second value of a sum of pixel values of a corresponding image area along one side line generated at one side of the scan line at intervals of a predetermined value as the radius of the ball;
Calculating a third value relating to a sum of pixel values of a corresponding image area along the other line generated at intervals of the radius on the other side of the scan line;
And calculating a value obtained by subtracting the second value and the third value from the first value.
골퍼에 의해 타격되어 운동하는 골프공에 대한 다중 노출 이미지를 취득하는 카메라 장치 및 스트로보 장치를 포함하는 센서부;
상기 다중 노출 이미지에서 다중 노출에 의해 운동하는 오브젝트의 이미지가 서로 중첩되어 나타나는 오브젝트 이미지 영역을 추출하는 제1 처리수단과, 상기 추출된 오브젝트 영역 이미지에 대한 적어도 두 개의 중심점 후보를 생성하여 보정함으로써 상기 오브젝트 영역 이미지에 대한 적어도 두 개의 중심점을 추출하는 제2 처리수단을 포함하는 센싱처리부;
상기 센싱처리부에서 추출된 중심점의 좌표를 3차원 좌표로 변환시키는 컨버팅부; 및
상기 3차원 좌표를 기초로 운동하는 골프공에 관한 물리 정보를 계산함으로써 골프공의 궤적을 시뮬레이션하는 시뮬레이터;
를 포함하는 가상 골프 시뮬레이션 장치.
A sensor unit including a camera device and a strobe device for acquiring a multiple exposure image of a golf ball hit by a golfer and moving;
First processing means for extracting an object image region in which the images of the object moving by the multiple exposures overlap each other in the multiple exposure image, and generating and correcting at least two center point candidates for the extracted object region image; A sensing processor including second processing means for extracting at least two center points of the object region image;
A converting unit converting the coordinates of the center point extracted by the sensing processing unit into three-dimensional coordinates; And
A simulator for simulating a trajectory of a golf ball by calculating physical information about a golf ball moving based on the three-dimensional coordinates;
Virtual golf simulation device comprising a.
KR1020100062203A 2010-06-29 2010-06-29 Apparatus and method for sensing moving object and virtual golf simulation device using the same KR101019798B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100062203A KR101019798B1 (en) 2010-06-29 2010-06-29 Apparatus and method for sensing moving object and virtual golf simulation device using the same
CN201180041839.4A CN103079652B (en) 2010-06-29 2011-06-29 Sensing device and sensing processing method for moving object and virtual golf simulation device using the same
PCT/KR2011/004762 WO2012002734A2 (en) 2010-06-29 2011-06-29 Sensing device and sensing processing method for moving object and virtual golf simulation device using the same
JP2013518251A JP5572853B2 (en) 2010-06-29 2011-06-29 Sensing device for moving object, sensing processing method, and virtual golf simulation device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100062203A KR101019798B1 (en) 2010-06-29 2010-06-29 Apparatus and method for sensing moving object and virtual golf simulation device using the same

Publications (1)

Publication Number Publication Date
KR101019798B1 true KR101019798B1 (en) 2011-03-04

Family

ID=43938471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100062203A KR101019798B1 (en) 2010-06-29 2010-06-29 Apparatus and method for sensing moving object and virtual golf simulation device using the same

Country Status (1)

Country Link
KR (1) KR101019798B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048091B1 (en) 2011-03-22 2011-07-08 (주) 골프존 Apparatus and method for virtual golf simulation, and sensing device and method used to the same
US10122921B2 (en) 2016-03-04 2018-11-06 Electronics And Telecommunications Research Institute Apparatus and method for automatically recognizing object by using low-speed camera in dual photographing mode

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000262659A (en) 1999-03-19 2000-09-26 Sumitomo Rubber Ind Ltd Measuring instrument of ball trajectory
JP2002365018A (en) 2001-06-05 2002-12-18 Hamamatsu Photonics Kk Measurement apparatus of moving object
JP2003117044A (en) 2001-04-26 2003-04-22 Photron Ltd Hit ball diagnosing device
KR100871595B1 (en) 2007-10-09 2008-12-02 박선의 A system for measuring flying information of globe-shaped object using the high speed camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000262659A (en) 1999-03-19 2000-09-26 Sumitomo Rubber Ind Ltd Measuring instrument of ball trajectory
JP2003117044A (en) 2001-04-26 2003-04-22 Photron Ltd Hit ball diagnosing device
JP2002365018A (en) 2001-06-05 2002-12-18 Hamamatsu Photonics Kk Measurement apparatus of moving object
KR100871595B1 (en) 2007-10-09 2008-12-02 박선의 A system for measuring flying information of globe-shaped object using the high speed camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048091B1 (en) 2011-03-22 2011-07-08 (주) 골프존 Apparatus and method for virtual golf simulation, and sensing device and method used to the same
US10122921B2 (en) 2016-03-04 2018-11-06 Electronics And Telecommunications Research Institute Apparatus and method for automatically recognizing object by using low-speed camera in dual photographing mode

Similar Documents

Publication Publication Date Title
US10427051B2 (en) Methods and systems for sports simulation
KR101048090B1 (en) Apparatus for virtual golf simulation, and sensing device and method used to the same
KR101019823B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
US9514379B2 (en) Sensing device and method used for virtual golf simulation apparatus
TWI654016B (en) Sensing device and sensing method for baseball practice device, baseball practice device using the same and sensing method, and control method thereof
AU2012231925B2 (en) Virtual golf simulation apparatus and sensing device and method used for the same
KR101412505B1 (en) Golf simulator, and golf simulation method
JP5626939B2 (en) Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same
JP5572853B2 (en) Sensing device for moving object, sensing processing method, and virtual golf simulation device using the same
KR101019782B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101562319B1 (en) System and Method for analyzing putting motion using Depth Information
KR101019902B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101019801B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR101019829B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101019798B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR20170085460A (en) Apparatus for base-ball practice, sensing device and sensing method used to the same and control method for the same
KR101019824B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR101019847B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101078954B1 (en) Apparatus for virtual golf simulation, and sensing device and method used to the same
KR102262886B1 (en) Haptic type sports recognition system using Infrared depth camera sensor
KR20220136560A (en) Golf Simulation Method and System Using the Rotational Information of Balls Measured by Two Cameras
KR20170016559A (en) Sensor

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150113

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170105

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180105

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 10