WO2022075691A1 - 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법 - Google Patents

카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법 Download PDF

Info

Publication number
WO2022075691A1
WO2022075691A1 PCT/KR2021/013602 KR2021013602W WO2022075691A1 WO 2022075691 A1 WO2022075691 A1 WO 2022075691A1 KR 2021013602 W KR2021013602 W KR 2021013602W WO 2022075691 A1 WO2022075691 A1 WO 2022075691A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
sphere
plane
point
golf ball
Prior art date
Application number
PCT/KR2021/013602
Other languages
English (en)
French (fr)
Inventor
장수호
박영광
김재홍
고태석
Original Assignee
주식회사 골프존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 골프존 filed Critical 주식회사 골프존
Priority to CN202180068933.2A priority Critical patent/CN116490246A/zh
Priority to JP2023521284A priority patent/JP2023544793A/ja
Priority to US18/030,765 priority patent/US20230405432A1/en
Publication of WO2022075691A1 publication Critical patent/WO2022075691A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3661Mats for golf practice, e.g. mats having a simulated turf, a practice tee or a green area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3658Means associated with the ball for indicating or measuring, e.g. speed, direction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3676Training appliances or apparatus for special sports for golf for putting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • A63B2024/0028Tracking the path of an object, e.g. a ball inside a soccer pitch
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Definitions

  • the present invention relates to a sensing device and a sensing method for calculating information on the motion of a sphere by acquiring and analyzing an image of a spherical object such as a sports ball moving on a plane, for example, a golf ball or a bowling ball.
  • a spherical object such as a sports ball moving on a plane, for example, a golf ball or a bowling ball.
  • a stereoscopic camera device using two cameras is used as a device for acquiring coordinate information on an object in a three-dimensional space.
  • 2D coordinate information about the target object is extracted from the 2D image of the target object photographed by one camera and the 2D image shot by another camera of the same target object, respectively, and the extracted 2D coordinate information is 3D coordinate information of the target object is calculated using a correlation function predefined for
  • Such a stereo camera device is widely used to calculate location information of a certain target object in a three-dimensional space.
  • a ceiling camera and side camera are stereo It is interlocked and used to calculate position change information in a three-dimensional space as a golf ball struck by a user's golf swing moves.
  • detection and motion state calculation of a sports sphere are typically performed in a manner that utilizes a plurality of cameras, and the image captured by each of the plurality of cameras is transmitted to a computing device to calculate position information in three-dimensional space, and thus obtained The motion state of the object is calculated based on the coordinates in the real space.
  • the position of each of the two cameras must be fixed, and a dedicated lighting is provided to sense the motion of the object in a three-dimensional space. Because there is a limitation that it can be used only when it is installed accurately by a professional technician in a specific place, there is a problem that it cannot be used conveniently without a space limitation.
  • the present invention uses a low-cost single camera with a plane-moving sports sphere as a target object, and it is possible to detect a sports sphere without a separate lighting as well as space recognition, so the installation position of the camera must be fixed It is to provide a motion sensing device and method of a flat moving sphere using a single camera that can be used regardless of location with a simple configuration, and a motion sensing device and method of a golf ball for moving a putting mat.
  • a motion sensing apparatus of a plane moving sphere using a camera includes: a camera for acquiring an image at an angle of view including the plane of motion of the sphere at a single point of view at an arbitrary location; and setting a positional relationship with the camera using the motion plane of the sphere as a reference plane from the acquired image of the camera, detecting an object corresponding to the sphere on the acquired image, and applying the positional relationship with the camera and the object and a sensing processing unit for calculating the plane position coordinates of the sphere on the reference plane by using the information about the sphere, and calculating information on the motion of the sphere from the change in the calculated plane position coordinates.
  • the sensing device for a golf ball moving on a putting mat a camera for acquiring an image at an angle of view including the putting mat in a single view at an arbitrary position; And by recognizing the preset and displayed features on the putting mat from the acquired image of the camera, setting the positional relationship with the camera using the putting mat as a reference plane, on the outline of the object corresponding to the golf ball on the acquired image Detecting the feature point, calculating the position coordinate of the point where the center point of the golf ball is projected in the vertical direction to the reference plane using the feature point is calculated as the plane position coordinate of the golf ball, and the putting from the change in the calculated plane position coordinate It includes a sensing processing unit for calculating information about the movement of the golf ball on the mat.
  • the motion sensing method of a plane moving sphere using a single camera comprises the steps of: acquiring an image at an angle of view including the motion plane of the sphere at a single point of view at an arbitrary position by a camera; setting a positional relationship with the camera using the motion plane of the sphere as a reference plane from the image acquired by the camera; detecting a feature point on an outline of an object corresponding to the sphere on the acquired image; and calculating the positional coordinates of the point where the center point of the sphere is projected from the feature point in the vertical direction to the reference plane by using the positional relationship with the camera as the planar positional coordinates of the sphere on the reference plane.
  • a sensing method for a golf ball moving on a putting mat includes: acquiring an image at an angle of view including the putting mat in a single view at an arbitrary position by a camera; setting a positional relationship with the camera using the putting mat as a reference plane from the image acquired by the camera; preparing to hit the golf ball by detecting an object corresponding to the golf ball from the image acquired by the camera; Detecting the hit of the golf ball from the image acquired by the camera; When the hit is sensed, using the set reference plane and the positional relationship of the camera, the center point of the golf ball from the point on the outline of the object is the plane position coordinate of the point projected in the vertical direction to the reference plane. calculating as; and calculating the planar positional coordinates of the golf ball for each frame of the image acquired by the camera, and calculating information on the motion of the golf ball from the change.
  • the motion sensing device and method of a plane moving sphere using a camera and the motion sensing device and method of a golf ball moving a putting mat according to the present invention use a low-cost single camera with a plane moving sports sphere as a target object
  • FIG. 1 is a view showing a motion sensing device of a golf ball moving a putting mat as a specific example of a motion sensing device of a plane moving sphere using a camera according to the present invention.
  • FIG. 2 is a diagram illustrating an image acquired by a single camera in a positional relationship between a single camera and a putting mat as shown in FIG. 1 .
  • FIG. 3 is a flowchart for explaining a motion sensing method of a plane moving sphere using a single camera according to an embodiment of the present invention.
  • FIGS. 4 and 5 are diagrams illustrating detecting an object corresponding to a sphere in an image acquired by a single camera of a sensing device according to an embodiment of the present invention and calculating a feature point for calculating the plane position coordinates of the sphere therefrom admit.
  • 6 and 7 are based on the upper and lower points, which are feature points of an object detected by a sensing device according to an embodiment of the present invention, to calculate the position coordinates of a point in which the center point of a sphere is projected in a vertical direction to a reference plane.
  • FIG. 8 is a flowchart for explaining a motion sensing method of a golf ball moving a putting mat according to an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of a binarized image of an image acquired by a single camera for explaining the method according to the flowchart of FIG. 8 .
  • a motion sensing device and method for a plane moving sphere using a camera according to the present invention and a motion sensing device and method for a golf ball moving a putting mat will be described with reference to the drawings.
  • an image can be obtained using a single camera and information about the movement of the sphere can be calculated by analyzing it. Movement information can be calculated by detecting the movement of the golf ball putt by using the camera on the putting mat.
  • the camera may be implemented as a "single camera" that acquires an image with an angle of view including the motion plane of the sphere with a single view.
  • the camera for detecting the movement of the golf ball must be fixed at a preset position, and a plurality of cameras are stereo-typed to sense the three-dimensional motion of the golf ball.
  • the present invention is characterized in that a single single camera can sense the movement of a golf ball at an arbitrary position by breaking away from such a constraint.
  • FIG. 1 shows a motion sensing device of a golf ball moving a putting mat as a specific example of a motion sensing device of a plane moving sphere using a camera according to the present invention.
  • the motion sensing apparatus of a plane moving sphere using a camera includes a single camera 200 and a sensing processing unit 220 as shown in FIG. 1 .
  • the single camera 200 acquires an image at a frame per second preset with an angle of view including a motion plane (eg, putting mat 100) of a sphere at a single point of view at an arbitrary location.
  • a motion plane eg, putting mat 100
  • the golf ball 10 is hit by the putter 20 with a single view, not a stereo type, at a position as shown in FIG. 1 to acquire an image with an angle of view including the putting mat 100 that moves in a plane.
  • the sensing processing unit is a component that receives the image acquired by the single camera, processes the image, and analyzes the processed image to calculate information on the position of the sphere on the plane.
  • the present invention sets the plane on which the sphere moves as the reference plane using a single camera, and the position coordinates of the point where the center point of the sphere is projected on the reference plane in the vertical direction, that is, the It is characterized in that by calculating the position coordinates on the plane, the motion information of the sphere on the reference plane is calculated.
  • the sensing processing unit recognizes the 'reference plane' for the motion plane of the sphere from the image acquired by the single camera, sets a positional relationship with the single camera, and uses the positional relationship to correspond to the sphere on the image acquired by the single camera
  • the plane position coordinates of the sphere on the 'reference plane' are calculated from the object.
  • the sensing processing unit 220 recognizes the preset and displayed features 111 , 112 , 113 , 114 on the putting mat 100 from the acquired image of the single camera 200 to recognize the golf ball Set the reference plane as the motion plane of (10) and the position information of the single camera on the reference plane, that is, three-dimensional position information, detect the object corresponding to the golf ball on the acquired image, and the center point of the golf ball 10 as the reference plane It may be configured to calculate the coordinates of the position of the vertically projected point, that is, the planar position of the golf ball.
  • the single camera 200 recognizes the features 111 to 114 on the acquired image and analyzes the feature parts on the image, based on the origin of the x-y-z coordinate system, the reference plane and the single camera By calculating the x, y, and z coordinate information, the positional relationship between the reference plane and the single camera can be set.
  • Figure 2 shows the image acquired by the single camera in the positional relationship between the single camera and the putting mat as shown in Figure 1, (a) of Figure 2 shows the state before the golf ball is hit, Figure 2 (b) indicates a state in which the golf ball moves after being struck.
  • i100 represents the image of the putting mat
  • i111 to i114 respectively represent the image of the feature
  • i10 represents the image of the golf ball in a stationary state
  • ir10 represents an image of a golf ball in a moving state.
  • FIG. 1 when an image is acquired for the motion plane of a sphere such as the putting mat 100 at an angle of view obliquely looking down from the position of the single camera 200 on the upper side, in FIG. 2 (a) And as shown in (b), according to the distance from the single camera, the part close to the single camera of the putting mat appears larger and the farther part appears smaller, and the size of the sphere appears differently on the image depending on the distance between the sphere and the single camera .
  • the image acquired by the single camera is a two-dimensional image, and by analyzing the content of the image, as shown in (a) and (b) of FIG. It is very difficult to figure out.
  • the plane position coordinates of the sphere can be accurately calculated by setting the positional relationship between the reference plane and the single camera using the 'feature part' and analyzing the image using this.
  • the sensing device may recognize a feature prepared in advance on a plane as shown in FIG. 1 through the image shown in FIG. 2 .
  • the above-described 'features' may be in the form of markers 111 to 114 prepared in advance as shown in FIG. form) may be.
  • the sensing device sets information on the shape and size of a feature in advance, and determines how the shape of the feature recognized through the image has changed and how the size of the feature has changed in advance. By analyzing with reference to the information on , information on the position of the reference plane and the single camera can be grasped on the set coordinate system.
  • each of the features (111, 112, 113, 114) is prepared in advance on the edge of the putting mat 100, and the shape of the features (111, 112, 113, 114) and If information regarding the size, etc. is set in advance, the sensing processing unit 220 performs a portion (i111, i111, The changes in the shape and size of i112, i113, and i114) can be analyzed by comparing them with preset information, and from that, it is possible to calculate at which position coordinates the single camera is located on the x-y-z coordinate system with respect to the reference plane and store it as setting information.
  • the rectangular shape itself of the putting mat 100 as shown in FIG. 1 may be preset as a feature, and the shape and size of the portion i100 corresponding to the putting mat in the image as shown in FIG. 2 .
  • the positional relationship between the reference plane and the single camera can be calculated and stored as setting information.
  • the feature may have the same shape as the artificially assigned marker, or if the shape of the motion plane can be specified, the shape of the motion plane itself may be set as the feature. Any shape of a marker can be used as a feature as described above since it is possible as long as the change can be easily analyzed.
  • the sensing processing unit recognizes the predefined feature displayed on the motion plane through the image of the single camera, calculates the positional relationship between the single camera and the motion plane, sets the reference plane as described above, and then the sphere is positioned at any position on the reference plane It can be calculated, but a detailed method of calculating the position of the sphere on the reference plane will be described later.
  • FIG. 3 shows a motion sensing method of a sphere based on the configuration of the sensing device described with reference to FIGS. 1 and 2 .
  • the single camera acquires an image of the motion plane of the sphere within the angle of view at an arbitrary position (S110).
  • the single camera is configured to acquire an image with ambient lighting through adjustment of image parameters such as brightness, contrast, and gamma without dedicated lighting.
  • the sensing processing unit recognizes a preset feature on the acquired image (S120), and sets a positional relationship between the reference plane and the single camera with respect to the motion plane of the sphere therefrom (S130).
  • the sensing processing unit recognizes the sphere from the image acquired by the single camera (S140), and determines whether the movement of the sphere has started (S150).
  • the sensing processing unit detects an object on the image corresponding to the real sphere by analyzing the image acquired by the single camera (S160).
  • the sensing processing unit may detect a feature point on the contour of the detected object (S170).
  • the sensing processing unit detects a point (feature point) on the outline of the object using the object detected on the image acquired by the single camera, and uses the feature point to determine the position coordinates of the point where the center point of the sphere is projected in the vertical direction to the reference plane. It is calculated as the plane position coordinates of (S180).
  • the motion trajectory of the sphere can be calculated, and through the change of the plane position coordinates of the sphere with time It is possible to calculate the motion information of the sphere, such as to calculate the speed, etc. (S190).
  • 4 and 5 are diagrams illustrating detecting an object corresponding to a sphere in an image acquired by a single camera of a sensing device according to an embodiment of the present invention and calculating a feature point for calculating the plane position coordinates of the sphere therefrom 6 and 7 are based on the upper and lower points, which are characteristic points of the object detected by the sensing device according to an embodiment of the present invention, the center point of the sphere is projected in the vertical direction to the reference plane in the vertical direction.
  • FIG. 4A is an enlarged view of a part of an image acquired by a single camera in the configuration as shown in FIG. 1 .
  • the sensing processing unit recognizes preset features (i114, etc.) provided on the motion plane from the image as shown in (a) of FIG. 4 , calculates the positional relationship between the reference plane and the single camera using this, and stores the calculated information. can be set.
  • the pixels of the sphere corresponding to the sphere appear to have a brightness value that is significantly different from the surrounding pixels.
  • the group of pixels distinguished from the surroundings as described above may appear as a group of pixels having a brightness value distinguished from the surrounding area as well as a sphere, for example, a portion corresponding to a putter in the case of putting, and the same is true of the user's foot.
  • information such as brightness, roundness, and aspect ratio for pixels on the image is preset, respectively, and for various objects displayed on the image, the information is previously set. It is possible to detect which object corresponds to a sphere based on the set conditions. As shown in FIG. 4, an object corresponding to a sphere is displayed as an OB.
  • the object OB has an unclear outline and is not a perfect spherical shape. Therefore, in order to calculate the plane position coordinates of the sphere, the correct outline of the object OB is detected. it is necessary to do
  • the curve of the upper boundary Tb of the object OB may be used, and FIG. 4(c) shows the curve of the upper boundary Tb of the object OB
  • the result of detecting the outline of the object is shown by obtaining the circle fc having the curvature of the curve of the upper boundary.
  • the curve of the upper boundary Tb of the object OB on the image can be obtained using the brightness values of the pixels of the object OB, for example, the pixel brightness value of the object.
  • the curve of the upper boundary Tb can be detected by setting a threshold value of , and specifying pixels corresponding to the boundary of the threshold value.
  • the object OB is calculated by calculating a circle fc having the curvature of the curve of the upper boundary Tb as shown in Fig. 4(c). ) can be specified.
  • the upper end point TP of the upper end boundary Tb of the object may be obtained, and the lower end point BP of the object symmetrical with the upper end point TP may be detected.
  • the plane position coordinates of the sphere can be calculated using the feature points on the outline of the object, the upper end point TP and the lower end point BP can function as the feature points.
  • the outline of the object can be specified by obtaining the upper boundary Tb of the object OB and constructing a circle using the curvature of the curve. and a top point TP and a bottom point BP, which are feature points, can be detected therefrom.
  • the shape of the object OB detected on the image is in an unfavorable state for circular outline specification, if the upper boundary of the object as described above does not represent a desirable curved shape, the curvature is based on the As a result, the resulting circle may appear excessively large.
  • the present invention provides a method of detecting feature points (top and bottom points) on an object outline by a circle fitting method that uses the curvature of the curve of the upper boundary of the object as described above, along with a method of detecting the feature points (top and bottom points) of FIG. ), a method of detecting a feature point using the detection diagram (DR) as shown in the figure can be used in parallel.
  • the upper end boundary Tb of the object OB is detected, and the upper end point TP on the upper end boundary Tb is detected, and a predetermined type of figure, such as a rectangle, is detected.
  • a detection figure DR is generated to match the size and shape of the object OB, and the upper end point TP and the size d are symmetrical by using the size d of the matched detection figure DR. It is possible to detect the lower end point BP of the position.
  • the detected figure DR only predetermines the type of figure, and its shape and size can be generated by rotating or deforming to fit the object OB. may appear as a rectangle of
  • the matching of the detection figure DR to the object OB means that the detected figure DR most suitably includes the object OB by changing the length of the side of the detected figure DR or rotating it. It means when
  • the above-described 'detection figure DR matches the object OB' in the case where the average of the brightness values inside the detection figure DR is the largest. ' It can be judged as a case of
  • the length of one side and the length of the other side may be different.
  • a point corresponding to the upper end point TP of the boundary by the diameter d may be detected as the lower end point BP.
  • FIG. 4D shows an example of detecting the upper end point TP and the lower end point BP, which are feature points of an object in the same manner as described above.
  • the method of detecting the feature point of the object using the detection figure DR as described above with reference to FIG. 4(d) may produce a more preferable result.
  • the upper boundary Tb of the object OB is detected, and, for example, a rectangular detection figure DR is generated to match the size and shape of the object OB.
  • the detected figure DR is characterized in that only the type of figure is predetermined, and the size and the rotated posture can be deformed according to the state of the object.
  • the matched detection figure (DR) is a rectangular figure having a long side and a short side. Since the size of the spreading direction of the object, that is, the direction perpendicular to the moving direction, can be seen as the diameter of the object outline, in FIG.
  • the size d of the short side of the detection figure DR matched with the indicated object OB is the diameter of the object.
  • the upper end point (TP) is detected at the upper end boundary (Tb) of the object, and a point at a position symmetrical by size d from the upper end point (TP) is set as the lower end point ( BP) can be detected.
  • the circle fitting method using the curvature of the upper boundary of the object shown in FIGS. 4 (b) and (c) is a method of detecting the outline of an object and obtaining the upper and lower points, which are feature points, in FIG. 4 (d) and FIG.
  • the method shown in (b) and (c) of 5 is a method of obtaining the size of an object using a detection figure instead of obtaining the outline of the object and detecting the positions of the upper and lower points using this method, according to an embodiment of the present invention.
  • the sensing device according to the example may accurately detect the feature point of the object by using the above two methods in parallel.
  • the upper point (TP) and the lower point (BP) of the object as described above are obtained, and using these, the coordinates of the point where the center point of the sphere is projected in the vertical direction to the reference plane, that is, the plane position coordinates of the sphere can be obtained.
  • FIG. 6 shows that information on the positional relationship between the reference plane and the single camera can be set by recognizing the parts (i111 to i114) corresponding to the feature on the image viewed by the single camera shown in FIG. It shows that the upper end point TP and the lower end point BP, which are feature points on the object, are detected by detecting the object OB corresponding to the moving sphere.
  • the direction of the line passing through the detected upper point (TP) and the lower point (BP) is the single camera's line of sight direction
  • the lower point (BP) is a point close to the position of the single camera in the single camera's line of sight.
  • position and the top point (TP) is the position of a point far from the position of the single camera.
  • the 'plane position coordinates of the sphere' that is, the center point of the sphere is projected in the vertical direction to the reference plane. You can find the coordinates of the position of a point.
  • the above 'center point of the sphere' is completely different from the center point of the outline of the object on the image acquired by the single camera as shown in FIG. 6, and even if the coordinates of the center point of the outline of the object are obtained, from it Can't find 'coordinates'
  • the point A is not the center point of the actual sphere, but represents a significant difference from the center point of the actual sphere.
  • top point TP and the bottom point BP of the object OB displayed in FIG. 6 are position coordinates on the mat in the viewing direction viewed from the position of the single camera, not the point on the solid sphere, the top point TP in FIG. ) and the lower point (BP) are completely different from the upper and lower points of the sphere in real space.
  • the center point A of the outline of the object OB shown in FIG. 6 is not the center point of the sphere on the actual plane, it is not possible to obtain the plane position coordinates of the sphere using this, and the upper point TP and the lower end of the object
  • the plane position coordinates of the sphere can be obtained by geometric calculation using the point BP, which will be described with reference to FIG. 7 .
  • FIG. 7 shows the calculation of the positional coordinates of the point in which the center point of the sphere is projected in the vertical direction to the reference plane based on the upper and lower points, which are the characteristic points of the detected object, as shown in FIG. a) shows a cross-section cut along the line of sight of a single camera that connects the top point (TP) and the bottom point (BP) of the object on the x-y coordinate plane of the real space, (b) of FIG. 7 is the x-y of the real space Represents the coordinate plane.
  • setting information regarding the positional relationship between the reference plane and the single camera can be stored by the single camera acquiring an image and recognizing a portion corresponding to a feature (pre-set) on the acquired image.
  • the sensing processing unit of the sensing device recognizes the feature from the acquired image of the single camera and recognizes the reference plane (sPL) for the motion plane of the sphere as shown in (a) of FIG.
  • sPL reference plane
  • a geometric relationship between the reference plane sPL and the position P200 of the single camera can be set.
  • the height H of the single camera position P200 with respect to the reference plane sPL can be set as shown in (a) of FIG. 7 , (b ), the x, y coordinate information of the single camera position P200 can also be set, and as shown in (a) of FIG. 7 using the set height and position information for the single camera position P200 Similarly, angle information in the gaze direction from the single camera position P200 to the reference plane sPL can be calculated.
  • the upper point TP and the lower point BP of the object OB are single cameras for the upper and lower ends of the sphere CB in the real coordinate system as shown in FIGS. 7 (a) and (b). are the points TP and BP on the reference plane sPL projected in the gaze direction of .
  • the plane position coordinates of the sphere to be obtained by the sensing device of the present invention are, as shown in FIG. are the x and y coordinates of
  • the coordinates of the point Pc can be obtained using the geometric relationship between the positions of the upper end point TP and the lower end point BP on the reference plane sPL as described above.
  • the upper end point TP on the reference plane sPL is different from the point Pc at which the center point C of the sphere is projected in the vertical direction to the reference plane sPL. Let the difference be the error E2.
  • the point Pc projected in the vertical direction with respect to the reference plane sPL of the center C of the sphere, as shown in FIG. E2, which is an error with the upper end point TP, can be calculated by geometrical operation. That is, as shown in (a) of FIG. 7, for a triangle by the center point C, the lower point BP, and the point Pc of the sphere, E1 can be calculated by a trigonometric function using angle a information and the radius r of the sphere.
  • E2 can be calculated by a trigonometric function using the angle b information and the radius r of the sphere.
  • the error E1 from the lower end point and the upper end point are obtained by geometrical calculation as shown in FIG.
  • the error E2 from the point can be calculated, and by that error, the coordinates projected vertically on the reference plane of the center point of the sphere, that is, the coordinates on the x-y plane (reference plane) of the point Pc, which is the plane position coordinate of the sphere, can be obtained.
  • the flowchart shown in FIG. 3 shows the process of obtaining the plane position coordinates of the sphere using the acquired image of the single camera with respect to the plane motion of the sphere. It relates to a method for sensing the motion of a golf ball as the ball moves on a putting mat that is a motion plane.
  • the method of detecting the object on the image, detecting the contour of the object, and calculating the coordinates of the point projected onto the vertical reference plane of the center point of the sphere described above with reference to FIGS. 4 to 7 is a putting mat to be described in FIG. The same can be applied to the method of obtaining the plane position coordinates of the golf ball on the top.
  • the flowchart shown in FIG. 8 shows a process that is more specific than the sensing method according to the flowchart shown in FIG. 3 and is specialized for golf putting.
  • an image is acquired by a single camera at an arbitrary position (S210), and the sensing processing unit recognizes a feature on the putting mat from the acquired image to determine the positional relationship between the reference plane and the single camera. set (S220).
  • image parameters such as brightness, contrast, and gamma can be automatically adjusted so that the detection of an object according to ambient lighting can be effectively performed.
  • the sensing processing unit sets a region of interest for recognizing a golf ball on an image of a single camera after setting a reference plane ( S232 ).
  • Fig. 9 (a) shows a case in which a region of interest (ROI) having a preset size and shape is set to include an object OB corresponding to a golf ball.
  • ROI region of interest
  • S234 When it is determined that the object OB, that is, the object OB determined to correspond to the golf ball, exists within the region of interest (ROI) (S234), it is determined that the hitting preparation is complete and the 'ball-ready' state is entered (S236). ).
  • the position where the golf ball is initially placed is limited, so that the user can put the golf ball anywhere on the putting mat
  • the sensing processing unit sets a trigger detection area TR for detecting whether the golf ball has been hit (S236).
  • the trigger detection area TR may be set as an area within the area of the object OB, as shown in FIG. 9B .
  • a trigger detection area TR is set in the object OB, and it is determined whether the change in brightness inside the trigger detection area TR exceeds a preset reference value (S242).
  • Fig. 9 (b) in the process of setting the trigger detection area TR inside the object OB and detecting the brightness inside the trigger detection area TR, when the golf ball moves slightly, the trigger Since the change in brightness inside the detection area TR is not large, it does not proceed to the next step for trigger determination, but if the golf ball is hit and the golf ball moves, the brightness inside the trigger detection area TR is greatly changed.
  • a first trigger signal may be generated.
  • the golf ball moves as shown in FIG. 9 (b).
  • a change of 40 occurs, which exceeds the reference value of 30, so that the first trigger signal is generated.
  • the sensing processing unit detects each object in a plurality of frames of images, calculates the amount of movement of the object, and determines whether the calculated amount of movement of the object exceeds a preset reference value. It is determined (S244).
  • the reference value for the movement amount of the golf ball is set in advance. Accordingly, it is determined that the golf ball has been hit only when the golf ball has moved more than a certain level.
  • the sensing processing unit After the first trigger signal is generated as described above, the sensing processing unit generates a ball trigger when it is determined that the object has moved enough to exceed a preset reference value by detecting the object and calculating how much it has moved (S246).
  • the sensing processing unit detects the change in brightness inside the trigger detection area after the ball ready (S236), performs the first trigger, and then detects the movement amount of the object once again to generate a ball trigger. detect whether
  • the sensing processing unit retrieves images acquired from a single camera before and after the ball trigger time, analyzes them, and detects an object corresponding to a golf ball for each frame of the image to be analyzed (S250).
  • the same method as the method of detecting an object corresponding to a sphere described in FIG. 4 may be used.
  • the feature point on the contour of each detected object is detected.
  • the object is obtained in a circle fitting method using the curvature of the upper boundary of the object. It is possible to obtain the outline and detect the upper and lower points therefrom, or calculate the size information of the object using the detection figure and use it to detect the upper and lower points.
  • the feature points on the contour of the object is calculated using this, the position coordinates of the point where the center point of the golf ball is projected in the vertical direction to the reference plane is calculated as the planar position coordinates of the golf ball (S260).
  • the method of calculating the planar position coordinates of the golf ball can be calculated by calculating the error E1 or E2 from the upper end point and the lower end point of the object, as described above with reference to FIG. 7 .
  • the change in the position coordinates can be calculated, and information on the movement of the golf ball from the change in the plane position coordinates of the golf ball can be calculated (S270).
  • the sensing processing unit After calculating the information on the motion of the golf ball, the sensing processing unit transmits the motion information to the client 300 (refer to FIG. 1 ), for example, a simulator of a putting simulation device, a computer of a golf information providing device, etc. to provide it to the user.
  • the client 300 for example, a simulator of a putting simulation device, a computer of a golf information providing device, etc. to provide it to the user.
  • the sensing processing unit may inspect the feature once again to determine whether the reference plane is distorted from the initially set state (S280). If the reference plane is misaligned, return to step S220 to set the reference plane again, and if there is no change in the reference plane, the motion of the golf ball is sensed based on the previously set reference plane.
  • the apparatus and method for sensing the motion of a plane moving sphere using a camera and the device and method for sensing the motion of a golf ball for moving a putting mat according to the present invention are a low-cost type using a plane moving sphere as a target object. It uses a single camera of It has the advantage of being able to calculate the exact position and motion of the moving sphere.
  • the motion sensing device and method of a plane moving sphere using a camera and the motion sensing device and method of a golf ball moving a putting mat according to the present invention are a technical field based on sensing of a plane moving sports sphere, during a golf swing It can be used in the field of golf analysis based on the analysis of the movement of the golf ball, the field of virtual golf simulation system, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 평면 이동하는 스포츠용 구체를 목적 물체로 하여 저가형의 싱글카메라를 이용하며 별도의 전용조명 없이도 스포츠용 구체의 검출이 가능할 뿐 아니라 공간 인식이 가능하므로 카메라의 설치위치가 고정되어 있어야 하는 제약을 벗어나 간단한 구성으로 장소에 크게 구애받지 않고 사용할 수 있는 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법을 제공하기 위한 것이다.

Description

카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법
본 발명은 평면 상을 운동하는 스포츠용 공, 예컨대 골프공, 볼링공 등의 구형 물체의 영상을 취득하여 분석함으로써 그 구체의 운동에 대한 정보를 산출하는 센싱장치 및 그 센싱방법에 관한 기술이다.
일반적으로 어떤 물체에 대한 3차원 공간 상에서의 좌표 정보를 취득하기 위한 장치로서 두 대의 카메라를 이용하여 스테레오 방식(Stereoscopic)의 카메라 장치가 이용되고 있다.
즉, 일 카메라가 촬영한 대상 물체에 대한 2D 영상과 동일한 대상 물체에 대한 다른 카메라가 촬영한 2D 영상으로부터 각각 해당 대상 물체에 대한 2차원 좌표 정보를 추출하고, 그 각각 추출된 2차원 좌표 정보에 대해 미리 정의된 상관관계 함수를 이용하여 해당 대상 물체의 3차원 좌표 정보를 산출하는 것이다.
이와 같은 스테리오 방식의 카메라 장치는 어떤 대상 물체의 3차원 공간 상에서의 위치 정보의 산출에 널리 이용되는데, 가장 대표적인 예로서 소위 스크린 골프와 같은 가상 골프 시뮬레이션 장치에서 천장 카메라와 측면 카메라가 스테레오 방식으로 연동되어 사용자가 골프스윙에 의해 타격한 골프공이 운동함에 따른 3차원 공간 상에서의 위치 변화 정보를 산출하는데 이용된다.
이와 같이 통상적으로 스포츠용 구체의 검출 및 운동 상태 산출은 복수의 카메라를 활용하는 방식으로, 복수의 카메라 각각이 촬영한 이미지를 연산 장치로 전송해 3차원 공간 상에서의 위치 정보를 산출하며, 이렇게 취득된 실제 공간 상의 좌표를 기반으로 물체의 운동상태를 계산한다.
이와 관련하여 등록특허공보 제10-1902283호, 등록특허공보 제10-1826837호, 등록특허공보 제10-1723432호 등의 선행기술문헌에서 상기한 바와 같은 스테레오 방식의 카메라 센싱장치를 이용한 가상 골프 시뮬레이션 시스템에 관한 기술을 개시하고 있다.
그러나, 상기한 바와 같은 스테레오 방식의 카메라 센싱장치를 이용한 스포츠용 물체의 움직임 센싱 방식은 두 대의 카메라 각각의 위치가 고정되어 있어야 하고 3차원 공간 상에서의 물체의 움직임을 센싱하기 위해서는 전용 조명이 구비되어 있어야 하기 때문에 특정 장소에서 전문적인 기술자에 의해 정확하게 설치가 되어야만 사용이 가능하다는 제한이 있으므로, 공간적 제약 없이 간편하게 사용할 수 없는 문제점이 있었다.
또한, 스테레오 방식으로 연결된 복수개의 카메라가 필요하므로 각 카메라가 전송하는 영상 데이터를 처리하는 처리장치가 상당히 높은 사양의 처리능력을 갖추어야 한다는 문제점이 있었다.
[선행기술문헌]
한국등록특허공보 제10-1902283호
한국등록특허공보 제10-1826837호
한국등록특허공보 제10-1723432호
한국공개특허공보 제10-2019-0014490호
한국등록특허공보 제10-1141048호
본 발명은 평면 이동하는 스포츠용 구체를 목적 물체로 하여 저가형의 싱글카메라를 이용하며 별도의 전용조명 없이도 스포츠용 구체의 검출이 가능할 뿐 아니라 공간 인식이 가능하므로 카메라의 설치위치가 고정되어 있어야 하는 제약을 벗어나 간단한 구성으로 장소에 크게 구애받지 않고 사용할 수 있는 싱글 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법을 제공하기 위한 것이다.
본 발명의 일 실시예에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치는, 임의의 위치에서 단일 시각으로 상기 구체의 운동 평면을 포함하는 화각으로 영상을 취득하는 카메라; 및 상기 카메라의 취득 영상으로부터 상기 구체의 운동 평면을 기준면으로 하여 상기 카메라와의 위치관계를 설정하고, 상기 취득 영상 상의 상기 구체에 해당하는 오브젝트를 검출하며, 상기 카메라와의 위치관계와 상기 오브젝트에 대한 정보를 이용하여 상기 구체의 상기 기준면 상에서의 평면 위치좌표를 산출하여, 상기 산출된 평면 위치좌표의 변화로부터 상기 구체의 운동에 대한 정보를 산출하는 센싱처리부를 포함한다.
한편, 본 발명의 일 실시예에 따른 퍼팅매트 상을 운동하는 골프공에 대한 센싱장치는, 임의의 위치에서 단일 시각으로 상기 퍼팅매트를 포함하는 화각으로 영상을 취득하는 카메라; 및 상기 카메라의 취득 영상으로부터 상기 퍼팅매트 상의 미리 설정되어 표시된 특징부를 인식하여 상기 퍼팅매트를 기준면으로 하여 상기 카메라와의 위치관계를 설정하고, 상기 취득 영상 상의 상기 골프공에 해당하는 오브젝트의 윤곽 상의 특징점을 검출하며, 상기 특징점을 이용하여 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하여, 상기 산출된 평면 위치좌표의 변화로부터 상기 퍼팅매트 상에서의 골프공의 운동에 대한 정보를 산출하는 센싱처리부를 포함한다.
한편, 본 발명의 일 실시예에 따른 싱글카메라를 이용한 평면 이동 구체의 운동 센싱방법은, 카메라에 의해 임의의 위치에서 단일 시각으로 상기 구체의 운동 평면을 포함하는 화각으로 영상을 취득하는 단계; 상기 카메라의 취득 영상으로부터 상기 구체의 운동 평면을 기준면으로 하여 상기 카메라와의 위치관계를 설정하는 단계; 상기 취득 영상 상의 상기 구체에 해당하는 오브젝트의 윤곽 상의 특징점을 검출하는 단계; 및 상기 카메라와의 위치관계를 이용하여 상기 특징점으로부터 상기 구체의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 기준면 상에서의 구체의 평면 위치좌표로서 산출하는 단계를 포함한다.
한편, 본 발명의 일 실시예에 따른 퍼팅매트 상을 운동하는 골프공에 대한 센싱방법은, 카메라에 의해 임의의 위치에서 단일 시각으로 상기 퍼팅매트를 포함하는 화각으로 영상을 취득하는 단계; 상기 카메라의 취득 영상으로부터 상기 퍼팅매트를 기준면으로 하여 상기 카메라와의 위치관계를 설정하는 단계; 상기 카메라가 취득하는 영상으로부터 상기 골프공에 해당하는 오브젝트를 검출하여 골프공에 대한 타격 준비를 하는 단계; 상기 카메라가 취득하는 영상으로부터 골프공의 타격을 감지하는 단계; 상기 타격이 감지된 경우, 상기 설정된 기준면과 카메라의 위치관계를 이용하여 상기 오브젝트의 윤곽 상의 점으로부터 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하는 단계; 및 상기 카메라가 취득하는 영상의 각 프레임마다 상기 골프공의 평면 위치좌표를 산출하여 그 변화로부터 상기 골프공의 운동에 대한 정보를 산출하는 단계를 포함한다.
본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법은, 평면 이동하는 스포츠용 구체를 목적 물체로 하여 저가형의 싱글카메라를 이용하며 별도의 전용조명 없이도 스포츠용 구체의 검출이 가능할 뿐 아니라 공간 인식이 가능하므로 카메라의 설치위치가 고정되어 있어야 하는 제약을 벗어나 간단한 구성으로 장소에 크게 구애받지 않고 사용할 수 있으며 평면을 이동하는 구체의 정확한 위치 및 운동에 대한 정보를 산출할 수 있는 효과가 있다.
도 1은 본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치의 구체적인 일 예로서 퍼팅매트를 이동하는 골프공의 운동 센싱장치에 관하여 나타낸 도면이다.
도 2는 도 1에 도시된 바와 같은 싱글카메라와 퍼팅매트의 위치 관계에서 싱글카메라가 취득하는 영상을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 싱글카메라를 이용한 평면 이동 구체의 운동 센싱방법에 관하여 설명하기 위한 플로우차트이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 센싱장치의 싱글카메라가 취득하는 영상에서 구체에 해당하는 오브젝트를 검출하고 그로부터 구체의 평면 위치좌표 산출을 위한 특징점을 산출하는 것을 설명하기 위한 도면들이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 센싱장치에 의해 검출된 오브젝트의 특징점인 상단점과 하단점에 기초하여 구체의 중심점을 기준면에 연직방향으로 투영한 점의 위치좌표를 산출하는 것을 설명하기 위한 도면들이다.
도 8은 본 발명의 일 실시예에 따른 퍼팅매트를 이동하는 골프공의 운동 센싱방법에 관하여 설명하기 위한 플로우차트이다.
도 9는 도 8의 플로우차트에 따른 방법을 설명하기 위한 것으로서 싱글카메라에 의해 취득된 영상의 이진화 영상의 일 예에 대해 나타낸 도면이다.
본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법에 관한 구체적인 내용을 도면을 참조하여 설명한다.
본 발명은 평면을 이동하는 구체라면 골프공이든 볼링공이든 어떤 것이든 싱글카메라를 이용하여 영상을 얻고 이를 분석하여 그 구체의 운동에 대한 정보를 산출할 수 있으며, 구체적인 예로 퍼팅매트에서 사용자가 퍼터로 퍼팅한 골프공이 퍼팅매트 상을 이동하는 것을 카메라를 이용하여 감지하여 운동 정보를 산출할 수 있다. 여기서 상기 카메라는 단일 시각으로 상기 구체의 운동 평면을 포함하는 화각으로 영상을 취득하는 "싱글카메라"로서 구현될 수 있다.
종래의 카메라 센서 기반의 스크린 골프 시스템이나 골프연습 또는 퍼팅연습 시스템에서는 골프공의 움직임을 감지하는 카메라가 미리 설정된 위치에 고정되어 있어야 하고 골프공의 3차원 운동을 센싱하기 위해 복수의 카메라가 스테레오 방식으로 구비되어야 하는 큰 제약 조건이 있었으나, 본 발명은 그와 같은 제약 조건에서 벗어나서, 단일한 싱글카메라가 임의의 위치에서 골프공의 움직임을 센싱할 수 있는 것이 특징이다.
도 1은 본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치의 구체적인 일 예로서 퍼팅매트를 이동하는 골프공의 운동 센싱장치에 관하여 나타낸 것이다.
본 발명의 일 실시예에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치는, 도 1에 도시된 바와 같이 싱글카메라(200)와 센싱처리부(220)를 포함한다.
상기 싱글카메라(200)는 임의의 위치에서 단일 시각으로 구체의 운동 평면(예컨대 퍼팅매트(100))을 포함하는 화각으로 미리 설정된 초당 프레임으로 영상을 취득한다. 예컨대 도 1에 도시된 바와 같은 위치에서 스테레오 타입이 아닌 단일 시각으로 골프공(10)이 퍼터(20)에 의해 타격되어 평면 이동을 하는 퍼팅매트(100)를 포함하는 화각으로 영상을 취득한다.
상기 센싱처리부는 상기 싱글카메라가 취득하는 영상을 전달받아 영상처리를 하고 그 영상처리된 것을 분석하여 구체의 평면상 위치에 관한 정보를 산출하는 구성요소이다.
하나의 카메라를 이용하여, 미리 설정된 고정된 위치가 아닌 임의의 위치에서 바라보는 화각의 영상을 취득하는 경우 그 취득된 영상 상의 원근감 때문에 공간상의 구체의 3차원 위치 정보를 구하는 것은 매우 어려운데다가 3차원 위치 정보를 구하더라도 그 정확도가 상당히 떨어질 수밖에 없으므로, 본 발명은 싱글카메라를 이용하여 구체가 운동하는 평면을 기준면으로 설정하고 구체의 중심점을 기준면 상에 연직방향 투영시킨 점의 위치좌표, 즉 구체의 평면상의 위치좌표를 계산하여 기준면 상에서의 구체의 운동 정보를 산출하는 것을 특징으로 한다.
상기 센싱처리부는 싱글카메라의 취득 영상으로부터 구체의 운동 평면에 대한 '기준면'을 인식하고 상기 싱글카메라와의 위치관계를 설정하며, 그 위치관계를 이용하여 상기 싱글카메라의 취득 영상 상의 구체에 해당하는 오브젝트로부터 상기 '기준면' 상의 구체의 평면 위치좌표를 산출한다.
예컨대, 도 1에 도시된 바와 같이 센싱처리부(220)는 싱글카메라(200)의 취득 영상으로부터 퍼팅매트(100) 상의 미리 설정되어 표시된 특징부(111, 112, 113, 114)를 인식하여 골프공(10)의 운동 평면으로서의 기준면과 그 기준면에 대한 싱글카메라의 위치 정보, 즉 3차원 위치 정보를 설정하고, 취득 영상 상의 골프공에 해당하는 오브젝트를 검출하여 골프공(10)의 중심점이 기준면으로 연직방향 투영된 점의 위치, 즉 골프공의 평면 위치의 좌표를 산출하도록 구성될 수 있다.
도 1에 도시된 바와 같이, 싱글카메라(200)가 취득한 영상 상에서 특징부(111 ~ 114)를 인식하고 영상 상에서 상기 특징부 부분을 분석하여 x-y-z의 좌표계의 원점을 기준으로 하여 기준면과 싱글카메라의 x, y, z 좌표의 정보를 산출함으로써 기준면과 싱글카메라의 위치관계를 설정할 수 있다.
도 2는 도 1에 도시된 바와 같은 싱글카메라와 퍼팅매트의 위치 관계에서 싱글카메라가 취득하는 영상을 나타낸 것으로서, 도 2의 (a)는 골프공이 타격되기 전의 상태를 나타내고 도 2의 (b)는 골프공이 타격된 후 이동하는 상태를 나타낸다.
도 2의 (a) 및 (b)에서 나타낸 것은 영상 상의 내용을 나타낸 것으로서, i100은 퍼팅매트의 영상을 나타내고 i111 내지 i114는 각각 특징부의 영상을 나타내며, i10은 정지상태의 골프공의 영상을 나타내고 ir10은 이동하고 있는 상태의 골프공의 영상을 나타낸다.
도 1에 도시된 바와 같이 상부 일측의 싱글카메라(200)의 위치에서 비스듬하게 아래로 내려다보는 화각으로 퍼팅매트(100)와 같은 구체의 운동 평면에 대한 영상을 취득하면, 도 2의 (a) 및 (b)에 도시된 바와 같이 싱글카메라로부터의 거리에 따라 퍼팅매트의 싱글카메라와 가까운 부분은 크게 나타나고 먼 부분일수록 작게 나타나며, 구체와 싱글카메라 사이의 거리에 따라 영상 상에서 구체의 크기가 다르게 나타난다.
싱글카메라가 취득하는 영상은 2차원 영상으로서 영상의 내용을 분석해서는 도 2의 (a) 및 (b)에 도시된 바와 같이 거리에 따른 크기의 차이 때문에 구체가 평면 상의 어느 위치의 좌표에 있는지 정확하게 파악하는 것이 매우 어렵다.
그러나, 본 발명은 앞서 설명한 바와 같이, ‘특징부’를 이용하여 기준면과 싱글카메라의 위치관계를 설정하고 이를 이용하여 영상을 분석함으로써 구체의 평면 위치좌표를 정확하게 산출할 수 있다.
이를 위해, 본 발명의 일 실시예에 따른 센싱장치는, 도 1에 도시된 바와 같은 평면 상에 미리 준비해 놓은 특징부를 도 2에 도시된 영상을 통해 인식할 수 있다.
상기한 ‘특징부’는 도 1에 도시된 바와 같이 미리 마련해 놓은 마커(111 ~ 114)의 형태일 수도 있고, 운동 평면 자체의 형태 (예컨대, 도 1에 도시된 바와 같은 사각 형상의 퍼팅매트 자체의 형태)일 수도 있다.
본 발명의 일 실시예에 따른 센싱장치는 특징부의 형상과 크기에 대한 정보를 미리 설정해 놓고, 영상을 통해 인식되는 특징부 부분이 어떻게 형상 변화가 되었는지 그 크기가 어떻게 변화되었는지 등을 미리 설정된 특징부에 대한 정보를 참조하여 분석함으로써 기준면과 싱글카메라의 위치에 대한 정보를 설정된 좌표계 상에서 파악할 수 있다.
예컨대, 도 1에 도시된 바와 같이 퍼팅매트(100)의 모서리 부분에 각각 특징부(111, 112, 113, 114)를 미리 마련해 놓고, 그 특징부(111, 112, 113, 114)의 형상과 크기 등에 관한 정보를 미리 설정해 놓으면, 센싱처리부(220)는 도 2의 (a) 및 (b)에 도시된 바와 같이 싱글카메라(200)가 취득하는 영상을 통해 특징부에 해당하는 부분(i111, i112, i113, i114)의 형상과 크기의 변화를 미리 설정된 정보와 비교하여 분석할 수 있으며, 그로부터 x-y-z좌표계 상에서 기준면을 기준으로 싱글카메라가 어떤 위치좌표에 위치하는지 산출하여 설정 정보로서 저장할 수 있다.
또한 예컨대, 도 1에 도시된 바와 같은 퍼팅매트(100)의 사각형상 자체를 특징부로 미리 설정해 놓을 수 있고, 도 2에 도시된 바와 같은 영상에서 퍼팅매트에 해당하는 부분(i100)의 형상과 크기의 변화를 분석함으로써 기준면과 싱글카메라의 위치관계를 계산하여 설정 정보로서 저장할 수 있다.
특징부는 인위적으로 부여한 마커와 같은 형태일 수도 있고 운동 평면의 형태를 특정할 수 있다면 그 운동 평면의 형태 자체를 특징부로 설정할 수도 있으며, 인위적으로 부여한 마커의 형태일 경우에도 영상에서 그 형상과 크기의 변화를 쉽게 분석할 수 있는 것이면 가능하기 때문에 여하한 형상의 마커라도 상기한 바와 같은 특징부로서 사용할 수 있다.
센싱처리부는 운동 평면에 표시된 미리 정의된 특징부를 싱글카메라의 영상을 통해 인식하고 싱글카메라와 운동 평면과의 위치 관계를 산출하여 상기한 바와 같이 기준면을 설정한 후 구체가 그 기준면 상의 어느 위치에 위치하는지 산출할 수 있는데, 기준면 상의 구체의 위치를 산출하는 구체적인 방법에 대해서는 후술하도록 한다.
한편, 도 3의 플로우차트를 참조하여 본 발명의 일 실시예에 따른 싱글카메라를 이용한 평면 이동 구체의 운동 센싱방법에 관하여 설명한다.
도 3에 도시된 플로우차트는 도 1 및 도 2를 통해 설명한 바 있는 센싱장치의 구성을 기반으로 한 구체의 운동 센싱방법을 나타낸 것이다.
먼저, 싱글카메라는 임의의 위치에서 그 화각 내의 구체의 운동 평면에 대한 영상을 취득한다(S110).
싱글카메라는 전용 조명 없이도 밝기(brightness), 명암(contrast), 감마(gamma) 등의 영상 파라미터의 조절을 통해 주변 조명으로 영상을 취득할 수 있도록 구성되는 것이 바람직하다.
센싱처리부는 상기 취득된 영상 상의 미리 설정된 특징부를 인식하고(S120), 그로부터 구체의 운동 평면에 대한 기준면과 싱글카메라의 위치관계를 설정한다(S130).
센싱처리부는 싱글카메라가 취득하는 영상으로부터 구체를 인식하고(S140), 구체의 운동이 시작되었는지 여부를 판단한다(S150).
만약, 구체의 운동이 시작되었다면, 센싱처리부는 상기 싱글카메라에 의해 취득된 영상을 분석하여 실제 구체에 대응되는 영상 상의 오브젝트를 검출한다(S160).
그리고, 센싱처리부는 상기 검출된 오브젝트의 윤곽 상의 특징점을 검출할 수 있다(S170).
센싱처리부는 싱글카메라가 취득하는 영상 상에서 검출되는 오브젝트를 이용하여 그 오브젝트의 윤곽 상의 점(특징점)을 검출하고 그 특징점을 이용하여, 구체의 중심점이 기준면으로 연직방향 투영된 점의 위치좌표를 구체의 평면 위치좌표로서 산출한다(S180).
싱글카메라가 취득하는 다수의 프레임의 각 프레임마다 상기한 바와 같이 산출된 구체의 평면 위치좌표들을 연결하면 구체의 운동 궤적을 산출할 수 있고, 시간에 대한 구체의 평면 위치좌표의 변화를 통해 구체의 속도 등을 산출할 수 있는 등 구체의 운동 정보를 산출할 수 있다(S190).
상기한 바와 같은 영상 상의 오브젝트의 특징점을 이용한 구체의 평면 위치좌표의 산출에 관한 구체적인 내용, 즉 상기한 S160 단계 내지 S180 단계를 통한 영상 상의 오브젝트의 검출로부터 기준면으로 투영된 좌표 정보의 산출에 이르기까지의 과정에 대한 구체적인 내용을 도 4 내지 도 6을 참조하여 설명한다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 센싱장치의 싱글카메라가 취득하는 영상에서 구체에 해당하는 오브젝트를 검출하고 그로부터 구체의 평면 위치좌표 산출을 위한 특징점을 산출하는 것을 설명하기 위한 도면들이고, 도 6 및 도 7은 본 발명의 일 실시예에 따른 센싱장치에 의해 검출된 오브젝트의 특징점인 상단점과 하단점에 기초하여 구체의 중심점을 기준면에 연직방향으로 투영한 점의 위치좌표를 산출하는 것을 설명하기 위한 도면들이다.
먼저, 도 4를 참조하여 싱글카메라의 취득 영상으로부터 오브젝트를 검출하고 그 윤곽을 검출하는 방법의 일 예를 설명한다.
도 4의 (a)는 도 1에 도시된 바와 같은 구성에서 싱글카메라에 의해 취득된 영상의 일부를 확대하여 나타낸 것이다.
도 4의 (a)와 같은 영상으로부터 센싱처리부는 운동 평면 상에 구비되는 미리 설정된 특징부(i114 등)를 인식하고 이를 이용하여 기준면과 싱글카메라의 위치관계를 계산하고 그 계산된 정보를 저장함으로써 설정할 수 있다.
싱글카메라가 취득하는 영상 상에서 구체에 해당하는 부분의 픽셀들은 주변의 픽셀들과는 상당히 구분되는 밝기값을 갖는 것으로 나타난다.
그런데, 그와 같이 주변과 구분되는 픽셀들의 그룹은 구체뿐만 아니라, 예컨대 퍼팅의 경우 퍼터에 해당하는 부분 역시 주변과 구별되는 밝기값을 갖는 픽셀들의 그룹으로 나타날 수 있고 사용자의 발 부분 등도 마찬가지이다.
이와 같이 유사한 특성을 갖는 픽셀들의 그룹, 즉 오브젝트가 영상 상에 다수 존재하는 경우 어느 오브젝트가 구체에 해당하는 오브젝트인지 검출하여야 한다.
구체의 특성에 맞게 영상 상의 픽셀에 대한 밝기값(brightness), 둥근 정도(roundness), 가로세로 비율(aspect ratio) 등의 정보를 각각 미리 설정하고, 영상 상에 나타난 여러 오브젝트들에 대해 각각 상기 미리 설정된 조건들에 기초하여 어느 오브젝트가 구체에 해당하는 오브젝트인지 검출할 수 있다. 도 4에 나타낸 바와 같이 구체에 해당하는 오브젝트를 OB로 표시하도록 한다.
그런데, 도 4의 (a)의 영상에서 보듯이, 오브젝트(OB)는 그 윤곽이 명확하지 않고 완전한 구체의 형상도 아니기 때문에 구체의 평면 위치좌표를 산출하기 위해서는 오브젝트(OB)의 정확한 윤곽을 검출하는 것이 필요하다.
도 4의 (b)는 오브젝트(OB) 부분을 확대하여 나타낸 것인데, 운동 평면이 바닥면 쪽에 위치하기 때문에 조명(자연 조명이든 실내 조명이든 전용 조명이든) 하에서 촬영된 싱글카메라의 영상 상의 오브젝트는 대부분 상단 경계 부분이 상당히 정확하게 나타난다.
특히, 구체의 경우, 도 4의 (a), (b)에서 보이는 것처럼, 오브젝트(OB)의 상단 부분이 상당히 정확하게 영상 상에 나타나기 때문에, 오브젝트의 상단 경계(Tb)의 곡선 부분을 쉽게 특정할 수 있다.
그런데, 운동 평면이 바닥면 쪽에 위치하기 때문에 자연 조명이든 인공 조명이든 그 조명 하에서는 구체의 하단부에 그림자가 생긴다. 도 4의 (b)의 영상에서 보는 바와 같이, 오브젝트(OB)의 하부(S)가 그림자의 영향으로 오브젝트의 픽셀 밝기가 부분적으로 어두워져서 오브젝트(OB) 하단 부분의 경계가 상당히 모호하고 영상으로 보이는 밝은 픽셀 부분들이 실제 구체의 윤곽과 다르다는 것을 알 수 있다.
오브젝트(OB)의 하단 경계를 정확하게 구하기 위해 오브젝트(OB)의 상단 경계(Tb)의 곡선을 이용할 수 있으며, 도 4의 (c)는 오브젝트(OB)의 상단 경계(Tb)의 곡선을 이용하여 상기 상단 경계의 곡선의 곡률을 갖는 원(fc)을 구함으로써 오브젝트의 윤곽을 검출한 결과를 나타내고 있다.
먼저, 도 4의 (b)에 나타낸 바와 같이, 영상 상의 오브젝트(OB)의 상단 경계(Tb)의 곡선은 오브젝트(OB)의 픽셀들의 밝기값을 이용하여 구할 수 있는데, 예컨대 오브젝트의 픽셀 밝기값의 문턱값을 미리 설정해 놓고 상기 문턱값의 경계에 해당하는 픽셀들을 특정함으로써 상단 경계(Tb)의 곡선을 검출할 수 있다.
상기한 바와 같이 오브젝트의 상단 경계(Tb)의 곡선을 검출한 후, 도 4의 (c)에 나타낸 바와 같이 상기 상단 경계(Tb)의 곡선의 곡률을 갖는 원(fc)을 산출함으로써 오브젝트(OB)의 윤곽을 특정할 수 있다.
도 4의 (c)에 나타낸 바와 같이 상단 경계(Tb)의 곡선의 곡률을 이용한 원(fc)을 이용하여 오브젝트(OB)의 윤곽을 검출함으로써 조명에 의해 쉐이딩 되어 오브젝트의 하단 부분의 픽셀들이 소실됨으로써 경계가 불분명한 하단 부분의 경계를 명확하게 특정할 수 있다.
위와 같이 오브젝트의 윤곽으로부터, 오브젝트의 상단 경계(Tb)의 상단점(TP)를 구하고, 상기 상단점(TP)과 대칭되는 오브젝트의 하단점(BP)을 검출할 수 있다.
앞서 오브젝트의 윤곽 상의 특징점을 이용하여 구체의 평면 위치좌표를 산출할 수 있다고 한 바 있는데, 상기한 상단점(TP)과 하단점(BP)이 상기 특징점으로서 기능할 수 있다.
상기한 바와 같이 영상 상에서 구체에 해당하는 오브젝트(OB)를 검출한 후, 그 오브젝트(OB)의 상단 경계(Tb)를 구하여 그 곡선의 곡률을 이용하여 원을 구성함으로써 오브젝트의 윤곽을 특정할 수 있고, 그로부터 특징점인 상단점(TP)과 하단점(BP)을 검출할 수 있다.
그런데, 영상 상에서 검출되는 오브젝트(OB)의 형상이 원형으로 윤곽 특정을 하기에 바람직하지 못한 상태인 경우가 있으므로, 상기한 바와 같은 오브젝트의 상단 경계가 바람직한 곡선의 형태를 나타내지 않을 경우 그 곡률에 기반하여 구성한 원이 과도하게 크게 나타나는 등의 결과나 나올 수도 있다.
따라서, 본 발명은 상기한 바와 같은 오브젝트의 상단 경계의 곡선의 곡률을 이용한 원을 구성하는 circle fitting 방식으로 오브젝트 윤곽 상의 특징점(상단점 및 하단점)을 검출하는 방법과 함께, 도 4의 (d)에 나타낸 바와 같은 검출도형(DR)을 이용하여 특징점을 검출하는 방법을 병행하여 사용할 수 있다.
도 4의 (d)에 나타낸 바와 같이, 오브젝트(OB)의 상단 경계(Tb)를 검출하고 그 상단 경계(Tb) 상의 상단점(TP)을 검출하며, 미리 정해 놓은 종류의 도형, 예컨대 직사각형의 검출도형(DR)을 오브젝트(OB)의 크기와 형상에 매칭되도록 생성하여, 그 매칭된 검출도형(DR)의 크기(d)를 이용하여 상기 상단점(TP)과 상기 크기(d)만큼 대칭되는 위치의 하단점(BP)을 검출하는 것이 가능하다.
상기 검출도형(DR)은 도형의 종류를 미리 정해 놓을 뿐, 그 형상과 크기는 오브젝트(OB)에 맞게 회전 또는 변형되어 생성될 수 있는데, 도 4의 (d)에 도시된 바와 같이 회전된 형태의 직사각형으로 나타날 수 있다.
여기서, 검출도형(DR)이 오브젝트(OB)에 매칭된다는 것은, 검출도형(DR)의 변의 길이를 변형하거나 회전을 하는 등의 방법으로 검출도형(DR)이 오브젝트(OB)를 가장 적합하게 포함하게 되었을 때를 의미한다.
예컨대, 오브젝트(OB)를 포함하도록 검출도형(DR)을 생성하였을 때, 검출도형(DR) 내부의 밝기값의 평균이 가장 큰 경우를 상기한 '검출도형(DR)이 오브젝트(OB)에 매칭'된 경우로 판단할 수 있다.
상기한 바와 같이 매칭된 검출도형(DR)은 한 쪽 변의 길이와 다른 쪽 변의 길이가 다르게 나타날 수 있는데, 구체의 이동 방향에 수직인 변의 길이를 오브젝트의 지름(d)으로 정할 수 있으며, 오브젝트 상단 경계의 상단점(TP)에 대해 상기 지름(d)만큼 대응되는 위치의 점을 하단점(BP)으로 검출할 수 있다. 도 4의 (d)는 상기한 바와 같은 방식으로 오브젝트의 특징점인 상단점(TP)과 하단점(BP)을 검출한 것의 일 예를 나타내고 있다.
싱글카메라가 취득한 영상 상의 오브젝트를 검출하면 원형의 형태로만 나타나는 것이 아니라 도 5의 (a)와 같이 영상 상의 검출된 오브젝트(OB)가 상당히 블러링(blurring)되어 번져있는 상태로 나타나는 경우가 있다.
이러한 경우에 도 5의 (b)에 나타낸 바와 같이 오브젝트(OB)의 상단 경계(Tb)를 검출하면 그 곡률이 상당히 크게 나타나기 때문에 곡률에 의해 circle fitting하는 방법으로는 정확한 오브젝트의 윤곽을 검출할 수 없다.
따라서, 이와 같은 경우에 앞서 도 4의 (d)에서 설명한 바와 같은 검출도형(DR)을 이용하여 오브젝트의 특징점을 검출하는 방식이 더 바람직한 결과를 낼 수 있다.
도 5의 (b)에 나타낸 바와 같이, 오브젝트(OB)의 상단 경계(Tb)를 검출하고, 예컨대 직사각형의 검출도형(DR)을 오브젝트(OB)의 크기와 형상에 매칭되도록 생성한다.
이때, 검출도형(DR)은 도형의 종류가 미리 정해져 있을 뿐, 그 크기와 회전된 자세 등은 오브젝트의 상태에 맞게 변형될 수 있는 것이 특징이다.
상기한 매칭된 검출도형(DR)은 장변과 단변을 갖는 직사각형 도형인데, 오브젝트의 번짐 방향, 즉 이동 방향에 수직인 방향의 크기를 오브젝트 윤곽의 지름으로 볼 수 있으므로, 도 5의 (b)에서 나타낸 오브젝트(OB)에 매칭된 검출도형(DR)의 단변의 크기(d)가 오브젝트의 지름이다.
따라서, 도 5의 (c)에서 나타낸 바와 같이, 오브젝트의 상단 경계(Tb)에서 상단점(TP)을 검출하고, 그 상단점(TP)으로부터 크기 d만큼의 대칭되는 위치의 점을 하단점(BP)으로 검출할 수 있다.
도 4의 (b) 및 (c)에서 나타내는 오브젝트 상단 경계의 곡률을 이용한 circle fitting 방법은 오브젝트의 윤곽을 검출하고 그로부터 특징점인 상단점과 하단점을 구하는 방법이고, 도 4의 (d)와 도 5의 (b) 및 (c)에서 나타내는 방법은 오브젝트의 윤곽을 구하는 대신 검출도형을 이용하여 오브젝트의 크기를 구하고 이를 이용하여 상단점과 하단점의 위치를 검출하는 방법인데, 본 발명의 일 실시예에 따른 센싱장치는 위와 같은 두 가지 방법을 병행하여 사용함으로써 오브젝트의 특징점을 정확하게 검출할 수 있다.
상기한 바와 같은 오브젝트의 상단점(TP)과 하단점(BP)을 구하고 이를 이용하여 구체의 중심점이 기준면으로 연직방향 투영된 점의 좌표, 즉 구체의 평면 위치좌표를 얻을 수 있다.
도 6은 도 2의 (d)에 나타낸 싱글카메라가 바라보는 영상 상에서, 특징부에 해당하는 부분(i111 ~ i114)을 인식함으로써 기준면과 싱글카메라의 위치관계에 관한 정보를 설정할 수 있고, 평면을 운동하는 구체에 해당하는 오브젝트(OB)를 검출하여 오브젝트 상의 특징점인 상단점(TP)과 하단점(BP)을 검출한 것을 나타내고 있다.
상기한 바와 같이 검출된 상단점(TP)과 하단점(BP)을 통과하는 선의 방향이 싱글카메라의 시선방향이며, 하단점(BP)은 싱글카메라의 시선방향에서 싱글카메라의 위치에 가까운 점의 위치이고 상단점(TP)은 싱글카메라의 위치에서 먼 점의 위치이다.
상기한 기준면과 싱글카메라의 위치관계에 관한 설정정보와, 상기한 오브젝트의 상단점 및 하단점의 위치의 정보를 이용하면 ‘구체의 평면 위치좌표’, 즉 구체의 중심점이 기준면으로 연직방향 투영된 점의 위치좌표를 구할 수 있다.
여기서, 위 ‘구체의 중심점’은 도 6에 도시된 바와 같은 싱글카메라의 취득 영상 상의 오브젝트의 윤곽의 중심점과 완전히 다르며, 오브젝트의 윤곽의 중심점의 좌표를 구한다고 하더라도 그것으로부터는 '구체의 평면 위치좌표'를 구할 수 없다.
도 6에 나타낸 바와 같은 싱글카메라의 취득 영상 상에서 오브젝트의 윤곽의 중심점을 A라 할 때, 그 A점은 실제 구체의 중심점이 아니고, 실제 구체의 중심점과 상당한 차이를 나타낸다.
도 6에서 표시된 오브젝트(OB)의 상단점(TP)과 하단점(BP)은 실체 구체 상의 점이 아니라 싱글카메라의 위치에서 바라보는 시선방향 상의 매트 상의 위치좌표이기 때문에 도 6에서의 상단점(TP)과 하단점(BP)은 실제 공간 상에서의 구체의 상단의 점과 하단의 점과는 완전히 다른 것이다.
마찬가지로 도 6에서 보이는 오브젝트(OB)의 윤곽의 중심점(A)은 실제 평면 상의 구체의 중심점이 아니므로, 이를 이용해서는 구체의 평면 위치좌표를 구할 수는 없고, 오브젝트의 상단점(TP)과 하단점(BP)을 이용하여 기하학적 계산에 의해 구체의 평면 위치좌표를 구할 수 있으며, 이에 대해서는 도 7을 참조하여 설명한다.
도 7은 도 6에 도시된 바와 같이 검출된 오브젝트의 특징점인 상단점과 하단점에 기초하여 구체의 중심점을 기준면에 연직방향으로 투영한 점의 위치좌표를 산출하는 것을 나타내고 있으며, 도 7의 (a)는 실제 공간의 x-y좌표 평면에서 오브젝트의 상단점(TP)과 하단점(BP)을 연결하는 싱글카메라의 시선방향을 따라 자른 단면을 나타내며, 도 7의 (b)는 상기 실제 공간의 x-y좌표 평면을 나타낸다.
앞서 설명한 바와 같이, 싱글카메라가 영상을 취득하고 그 취득된 영상 상의 특징부(미리 설정되어 있음)에 해당하는 부분을 인식함으로써 기준면과 싱글카메라의 위치관계에 관한 설정 정보를 저장할 수 있다.
즉, 본 발명의 일 실시예에 따른 센싱장치의 센싱처리부는 싱글카메라의 취득 영상으로부터 특징부를 인식하고 도 7의 (a)에 도시된 바와 같이 구체의 운동 평면에 대한 기준면(sPL)을 인식하고 기준면(sPL)과 싱글카메라의 위치(P200)와의 기하학적 관계를 설정할 수 있다.
상기한 바와 같은 기준면과 싱글카메라와의 위치관계의 설정에 따라, 도 7의 (a)에 도시된 바와 같이 기준면(sPL)에 대한 싱글카메라 위치(P200)의 높이 H를 설정할 수 있고, (b)에 도시된 바와 같이 싱글카메라 위치(P200)의 x, y 좌표 정보도 설정할 수 있으며, 상기 싱글카메라 위치(P200)에 대한 설정된 높이 및 위치 정보를 이용하여 도 7의 (a)에 도시된 바와 같이 싱글카메라 위치(P200)에서 기준면(sPL)으로의 시선방향의 각도 정보도 산출할 수 있다.
도 6에서 오브젝트(OB)의 상단점(TP)과 하단점(BP)은 도 7의 (a) 및 (b)에 도시된 바와 같이 실제 좌표계에서 구체(CB)의 상단 및 하단에 대한 싱글카메라의 시선방향 투영된 기준면(sPL) 상의 점들(TP, BP)이다.
본 발명의 센싱장치가 구하고자 하는 구체의 평면 위치좌표는, 도 7의 (a)에도시된 바와 같이 구체(CB)의 중심점(C)이 기준면(sPL)으로 연직방향 투영된 점(Pc)의 x, y좌표이다.
그런데, 구체(CB)의 중심점 C의 위치는 알 수 없으므로, 상기한 바와 같은 기준면(sPL) 상의 상단점(TP)과 하단점(BP)의 위치의 기하학적 관계를 이용하여 Pc 점의 좌표를 구할 수 있다.
도 7의 (a)에 도시된 바와 같이, 기준면(sPL) 상의 하단점(BP)은 구체의 중심점(C)이 기준면(sPL)으로 연직방향 투영된 점(Pc)과 차이가 있는데, 그 차이를 오차 E1이라 하기로 한다.
마찬가지로 도 7의 (a)에 도시된 바와 같이, 기준면(sPL) 상의 상단점(TP)은 구체의 중심점(C)이 기준면(sPL)으로 연직방향 투영된 점(Pc)과 차이가 있는데, 그 차이를 오차 E2라 하기로 한다.
또한, 도 7의 (a)에 도시된 바와 같이, 기준면(sPL)과 싱글카메라 위치(P200)와의 위치관계의 설정 정보를 이용하여 원점(O)에서 하단점(BP)까지의 거리 L1과, 원점(O)에서 상단점(TP)까지의 거리 L2를 산출할 수 있고, 싱글카메라 위치(P200)의 높이 H와 상기 거리 L1으로부터 하단점(BP)에서 기준면(sPL)과 싱글카메라의 시선방향이 이루는 각도 a를 산출할 수 있으며, 싱글카메라 위치(P200)의 높이 H와 상기 거리 L2으로부터 상단점(TP)에서 기준면(sPL)과 싱글카메라의 시선방향이 이루는 각도 b를 산출할 수 있다.
도 7의 (a)에 도시된 바와 같이, 실제 구체의 반지름(r)은 센싱장치에 미리 설정되어 알고 있는 값이므로, 기준면(sPL) 상의 상단점 TP의 위치와 각도, 하단점 BP의 위치와 각도, 그리고 실제 구체의 반지름 r에 의한 원을 이용하면 기하학적 계산에 의해 구체의 중심(C)의 기준면(sPL)에 대한 연직방향 투영된 점 Pc의 위치좌표를 산출할 수 있다.
구체의 중심(C)의 기준면(sPL)에 대한 연직방향 투영된 점 Pc는, 도 7의 (a)에 도시된 바와 같이 하단점 BP와의 오차인 E1을 기하학적 연산에 의해 산출할 수 있고, 또한 상단점 TP와의 오차인 E2를 기하학적 연산에 의해 산출할 수 있다. 즉, 도 7의 (a)에 도시된 바와 같이, 구체의 중심점 C, 하단점 BP, 그리고 Pc점에 의한 삼각형에 대해 a각도 정보와 구체의 반지름 r을 이용하여 삼각함수에 의해 E1을 산출할 수 있다.
또한, 도 7의 (a)에 도시된 바와 같이, 구체의 중심점 C에서 수직으로 싱글카메라 위치(P200)와 상단점 TP를 연결한 선과 만나는 점 VP, 상단점 TP, 그리고 Pc점에 의한 삼각형에 대해 b각도 정보와 구체의 반지름 r을 이용하여 삼각함수에 의해 E2를 산출할 수 있다.
도 7의 (b)에 도시된 바와 같이, 기준면(sPL)의 x, y 좌표 평면 상에서 BP 점의 좌표와 TP 점의 좌표를 이미 알고 있으므로, 그로부터 E1 또는 E2 만큼의 보정된 위치인 Pc의 x, y 좌표 정보를 산출할 수 있다.
따라서, 상기한 바와 같이 오브젝트의 특징점인 상단점(TP)과 하단점(BP)을 검출하면 이를 이용하여 도 7의 (a)에 도시된 바와 같은 기하학적 연산에 의해 하단점으로부터의 오차 E1과 상단점으로부터의 오차 E2를 산출할 수 있고, 그 오차에 의해 구체의 중심점의 기준면에 연직방향 투영된 좌표, 즉 구체의 평면 위치좌표인 Pc점의 x-y평면(기준면) 상에서의 좌표를 구할 수 있다.
이와 같은 방법으로 싱글카메라의 취득 영상들 중 분석대상인 모든 프레임의 영상에서 구체의 평면 위치좌표를 각각 구하면 구체의 평면 이동에 따른 운동에 관한 정보를 산출할 수 있다.
한편, 도 8의 플로우차트를 참조하여 본 발명의 일 실시예에 따른 퍼팅매트를 이동하는 골프공의 운동 센싱방법에 관하여 설명한다.
도 3에 도시된 플로우차트는 구체의 평면 운동에 관하여 싱글카메라의 취득 영상을 이용하여 구체의 평면 위치좌표를 구하는 프로세스를 나타낸 것인데, 도 8에 도시된 플로우차트는 구체가 골프공인 경우에 그 골프공이 운동 평면인 퍼팅매트 상을 이동함에 따른 골프공의 운동 센싱방법에 관한 것이다.
따라서, 앞서 도 4 내지 도 7을 통해 설명한 영상 상의 오브젝트의 검출과 오브젝트의 윤곽 검출, 그리고 구체의 중심점의 연직방향 기준면 상으로의 투영된 점의 좌표를 산출하는 방법은 도 8에서 설명할 퍼팅매트 상에서의 골프공의 평면 위치좌표를 구하는 방법에도 동일하게 적용될 수 있다.
도 8에 도시된 플로우차트에서는 도 3에 도시된 플로우차트에 따른 센싱방법보다 좀 더 구체적이고 골프 퍼팅에 특화된 프로세스에 대해 나타내고 있다.
도 8에 도시된 바와 같이, 먼저 임의의 위치에서 싱글카메라에 의한 영상의 취득이 이루어지고(S210), 센싱처리부는 그 취득된 영상으로부터 퍼팅매트 상의 특징부를 인식하여 기준면과 싱글카메라의 위치관계를 설정한다(S220).
도 9의 (a)는 싱글카메라에 의해 취득된 영상에 대한 이진화 영상을 나타낸 것인데, 퍼팅매트의 특징부에 해당하는 i111, i112, i113, i114를 인식함으로써 기준면과 싱글카메라의 위치를 인식하여 설정할 수 있다.
상기한 바와 같이 기준면과 싱글카메라의 위치를 설정하는 과정에서 주변 조명에 따른 오브젝트의 검출이 효과적으로 이루어질 수 있도록 밝기, 명암, 감마 등의 영상 파라미터를 자동 조절할 수 있다.
한편, 도 8에 도시된 바와 같이, 센싱처리부는 기준면을 설정한 후 싱글카메라의 영상 상에 골프공 인식을 위한 관심영역을 설정한다(S232).
도 9의 (a)에서는 골프공에 해당하는 오브젝트(OB)를 포함하도록 미리 설정된 크기와 형상의 관심영역(ROI)을 설정한 경우에 대해 나타내고 있다.도 9의 (a)에서 나타낸 바와 같이, 관심영역(ROI) 내에 오브젝트(OB), 즉 골프공에 해당하는 것으로 판단된 오브젝트(OB)가 존재하는 것으로 판단된 경우(S234) 타격준비가 완료된 것으로 판단하고 '볼 레디' 상태가 된다(S236).
볼 레디 판정을 위한 관심영역(ROI)은 너무 좁게 설정할 경우 초기에 골프공을 놓을 위치가 한정되기 때문에, 사용자가 퍼팅매트 어느 위치에든 골프공을 놓고 퍼팅을 할 수 있도록 관심영역(ROI)은 도 9의 (a)에 도시된 바와 같이 가급적 넓은 영역을 갖도록 설정하여 사용자가 원하는 위치에 골프공을 놓고 퍼팅을 할 수 있도록 함이 바람직하다.
볼 레디 상태가 되면 센싱처리부는 골프공이 타격되었는지 여부를 감지하기위한 트리거 감지영역(TR)을 설정한다(S236). 트리거 감지영역(TR)은 도 9의 (b)에 나타낸 바와 같이, 오브젝트(OB)의 영역 내의 영역으로 설정할 수 있다.
도 9의 (b)에 나타낸 바와 같이 오브젝트(OB) 내에 트리거 감지영역(TR)을설정하고 그 트리거 감지영역(TR) 내부의 밝기 변화가 미리 설정된 기준치를 초과하는지 여부를 판단한다(S242).
도 9의 (b)에 나타낸 바와 같이, 오브젝트(OB) 내부에 트리거 감지영역(TR)을 설정하고 그 트리거 감지영역(TR) 내부의 밝기를 감지하는 과정에서, 골프공이 미소하게 움직이는 경우에는 트리거 감지영역(TR) 내부의 밝기 변화가 크지 않기 때문에 트리거 판정을 위한 다음 단계로 넘어가지 않지만, 만약 골프공이 타격되어 골프공이 움직이게 된다면 트리거 감지영역(TR) 내부의 밝기는 크게 변화하게 된다.
이와 같이 트리거 감지영역(TR) 내부의 밝기가 크게 변화하여 미리 설정된 기준치를 넘게 되면, 1차적으로 골프공이 움직인 것으로 판단하여 제1 트리거 신호를 발생시킬 수 있다.
예컨대, 트리거 감지영역(TR)이 생성될 때 내부의 밝기값이 100이라고 하고, 1차 트리거 신호 발생의 기준치를 30이라고 할 때, 골프공이 움직임으로서 도 9의 (b)에 도시된 바와 같은 상태에서 오브젝트가 이동하고 그에 따라 트리거 감지영역(TR) 내부의 밝기가 100에서 60으로 떨어진 경우, 40만큼의 변화가 발생하였고 이는 기준치인 30을 초과하는 것이므로 제1 트리거 신호가 발생하게 된다.
한편, 상기한 바와 같이 제1 트리거 신호가 발생하면, 센싱처리부는 다수 프레임의 영상에서 각각 오브젝트를 검출하여 그 오브젝트의 이동량을 산출하고, 그 산출된 오브젝트의 이동량이 미리 설정된 기준치를 초과하는지 여부를 판단한다(S244).
실제로 퍼팅매트 위에서 골프공이 초기 위치에서 움직이는 경우는, 사용자가 골프공을 타격하는 경우 외에도 실수로 퍼터나 발로 골프공을 터치하는 등의 경우가 있을 수 있으므로, 골프공의 이동량에 대한 기준치를 미리 설정하여 일정 정도 이상으로 골프공이 움직인 경우에만 골프공이 타격된 것으로 판단하는 것이다.
상기한 바와 같은 제1 트리거 신호 발생 후에는 오브젝트를 검출하여 어느 정도 이동을 하였는지 산출하여 미리 설정된 기준치를 초과할 정도로 오브젝트가 이동한 것으로 판단할 경우, 센싱처리부는 볼 트리거를 발생시킨다(S246).
즉, 센싱처리부는 볼 레디(S236) 후, 트리거 감지영역 내부의 밝기 변화를 감지하여 제1 트리거를 한 후 다시 한 번 오브젝트의 이동량을 감지하여 볼 트리거를 발생시키는 이중 트리거 방식으로 골프공의 타격 여부를 감지한다.
상기한 바와 같이 볼 트리거가 발생하면, 센싱처리부는 볼 트리거 시점 전후의 싱글카메라의 취득 영상들을 불러와서 이를 분석하며, 분석 대상 영상의 각 프레임마다 골프공에 대응되는 오브젝트를 검출한다(S250). 이는 도 4에서 설명한 구체에 해당하는 오브젝트의 검출 방법과 동일한 방법을 사용할 수 있다.
상기한 바와 같이 오브젝트를 검출한 후, 각 검출된 오브젝트의 윤곽 상의 특징점을 검출하는데, 이는 앞서 도 4 및 도 5를 통해 설명하였듯이, 오브젝트의 상단 경계의 곡선의 곡률을 이용한 circle fitting 방식으로 오브젝트의 윤곽을 구하고 그로부터 상단점과 하단점을 검출하거나, 검출도형을 이용하여 오브젝트의 크기 정보를 산출하고 이를 이용하여 상단점과 하단점을 검출할 수 있다.상기한 바와 같이 오브젝트의 윤곽 상의 특징점을 구한 후, 이를 이용하여 골프공의 중심점이 기준면으로 연직방향 투영된 점의 위치좌표를 골프공의 평면 위치좌표로서 산출한다(S260).
상기한 골프공의 평면 위치좌표를 산출하는 방법은 앞서 도 7에서 설명한 바와 같이, 오브젝트의 상단점과 하단점으로부터 오차 E1 또는 E2를 구함으로써 산출할 수 있다.
분석 대상이 되는 영상들 각 프레임마다 상기한 바와 같이 산출된 골프공의 평면 위치좌표를 구하면 그 위치좌표의 변화를 계산할 수 있고, 그 골프공의 평면 위치좌표의 변화로부터 골프공의 운동에 대한 정보를 산출할 수 있다(S270).
골프공의 운동에 대한 정보를 산출한 후 센싱처리부는 클라이언트(300, 도 1 참조), 예컨대 퍼팅 시뮬레이션 장치의 시뮬레이터, 골프 정보 제공 장치의 컴퓨터 등으로 상기한 운동 정보를 전달하여 사용자에게 제공하도록 할 수 있다.
한편, 상기한 바와 같이 골프공의 운동에 대한 정보를 산출한 후, 센싱처리부는 다시 한 번 특징부를 검사하여 기준면이 처음 설정한 상태에서 틀어졌는지 여부를 검사할 수 있다(S280). 만약 기준면이 틀어졌다면 S220 단계로 돌아가서 기준면을 다시 설정하고, 기준면에 변화가 없다면 기존 설정된 기준면을 기초로 골프공의 운동에 대한 센싱을 한다.
이상 설명한 바와 같이, 본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법은, 평면 이동하는 스포츠용 구체를 목적 물체로 하여 저가형의 싱글카메라를 이용하며 별도의 전용조명 없이도 스포츠용 구체의 검출이 가능할 뿐 아니라 공간 인식이 가능하므로 카메라의 설치위치가 고정되어 있어야 하는 제약을 벗어나 간단한 구성으로 장소에 크게 구애받지 않고 사용할 수 있으며 평면을 이동하는 구체의 정확한 위치 및 운동에 대한 정보를 산출할 수 있는 특장점이 있다.
본 발명에 따른 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법은, 평면 이동하는 스포츠용 구체에 대한 센싱에 기반한 기술분야, 골프스윙 시의 골프공의 움직임에 대한 분석을 기반으로 하는 골프 분석에 관한 분야, 가상 골프 시뮬레이션 시스템에 관한 분야 등에서 이용 가능하다.

Claims (13)

  1. 평면 상을 운동하는 구체에 대한 센싱장치로서,
    임의의 위치에서 단일 시각으로 상기 구체의 운동 평면을 포함하는 화각으로 영상을 취득하는 카메라; 및
    상기 카메라의 취득 영상으로부터 상기 구체의 운동 평면을 기준면으로 하여 상기 카메라와의 위치관계를 설정하고, 상기 취득 영상 상의 상기 구체에 해당하는 오브젝트를 검출하며, 상기 카메라와의 위치관계와 상기 오브젝트에 대한 정보를 이용하여 상기 구체의 상기 기준면 상에서의 평면 위치좌표를 산출하여, 상기 산출된 평면 위치좌표의 변화로부터 상기 구체의 운동에 대한 정보를 산출하는 센싱처리부;
    를 포함하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  2. 제1항에 있어서, 상기 카메라는,
    전용 조명 없이 상기 기준면과 카메라와의 위치관계 설정시 영상 파라미터의 조절을 통해 주변 조명에 따른 영상을 취득할 수 있도록 구성되는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  3. 제1항에 있어서, 상기 센싱처리부는,
    상기 구체의 운동 평면 상에 미리 설정되어 표시된 특징부를 상기 영상을 통해 인식하고 그 인식된 정보에 기초하여 상기 기준면과 상기 카메라와의 위치관계를 설정하도록 구성되는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  4. 제1항에 있어서, 상기 센싱처리부는,
    상기 영상에서 검출되는 오브젝트의 상단 경계의 곡선을 검출하고, 상기 상단 경계의 곡선의 곡률을 갖는 원을 산출하여 상기 원 상의 적어도 하나의 점을 특징점으로서 검출하며, 상기 특징점을 이용하여 상기 구체의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 구체의 평면 위치좌표로서 산출하도록 구성되는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  5. 제1항에 있어서, 상기 센싱처리부는,
    상기 영상에서 검출되는 오브젝트의 상단 경계를 검출하고, 상기 상단 경계 상의 상단점을 검출하며, 상기 오브젝트의 크기와 형상에 매칭되는 검출도형을 생성하여 상기 생성된 검출도형의 크기를 이용하여 상기 상단점에 대응되는 상기 오브젝트의 하단점을 검출하여,
    상기 상단점 또는 하단점을 이용하여 상기 구체의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 구체의 평면 위치좌표로서 산출하도록 구성되는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  6. 제1항에 있어서, 상기 센싱처리부는,
    상기 오브젝트의 윤곽의 상단점과 하단점을 검출하여, 상기 기준면과 카메라와의 위치관계에 관한 설정 정보를 이용하여 상기 상단점 또는 하단점을 상기 카메라의 시선방향으로 상기 기준면에 투영한 점의 오차를 보정함으로써 상기 구체의 평면 위치좌표를 산출하도록 구성되는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱장치.
  7. 퍼팅매트 상을 운동하는 골프공에 대한 센싱장치로서,
    임의의 위치에서 단일 시각으로 상기 퍼팅매트를 포함하는 화각으로 영상을 취득하는 카메라; 및
    상기 카메라의 취득 영상으로부터 상기 퍼팅매트 상의 미리 설정되어 표시된 특징부를 인식하여 상기 퍼팅매트를 기준면으로 하여 상기 카메라와의 위치관계를 설정하고, 상기 취득 영상 상의 상기 골프공에 해당하는 오브젝트의 윤곽 상의 특징점을 검출하며, 상기 특징점을 이용하여 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하여, 상기 산출된 평면 위치좌표의 변화로부터 상기 퍼팅매트 상에서의 골프공의 운동에 대한 정보를 산출하는 센싱처리부;
    를 포함하는 퍼팅매트 상을 운동하는 골프공에 대한 센싱장치.
  8. 카메라를 이용한 평면 이동 구체의 운동 센싱방법으로서,
    상기 카메라에 의해 임의의 위치에서 단일 시각으로 상기 구체의 운동 평면을 포함하는 화각으로 영상을 취득하는 단계;
    상기 카메라의 취득 영상으로부터 상기 구체의 운동 평면을 기준면으로 하여 상기 카메라와의 위치관계를 설정하는 단계;
    상기 취득 영상 상의 상기 구체에 해당하는 오브젝트의 윤곽 상의 특징점을 검출하는 단계; 및
    상기 카메라와의 위치관계를 이용하여 상기 특징점으로부터 상기 구체의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 기준면 상에서의 구체의 평면 위치좌표로서 산출하는 단계;
    를 포함하는 카메라를 이용한 평면 이동 구체의 운동 센싱방법.
  9. 제8항에 있어서, 상기 카메라와의 위치관계를 설정하는 단계는,
    상기 영상을 취득하는 단계에서 취득된 영상으로부터 상기 구체의 운동 평면 상에 미리 설정되어 표시된 특징부를 통해 상기 구체의 운동 평면을 기준면으로서 인식하는 단계와,
    상기 기준면의 인식을 기반으로 상기 카메라의 위치 정보를 설정하는 단계를 포함하는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱방법.
  10. 제8항에 있어서, 상기 구체의 평면 위치좌표로서 산출하는 단계는,
    상기 영상 상에서 검출된 상기 오브젝트의 상단 경계를 기준으로 상기 오브젝트의 윤곽을 검출하는 단계와,
    상기 오브젝트 윤곽의 상단점 또는 하단점을 상기 카메라의 시선방향으로 상기 기준면 상에 투영된 점과 각도 정보를 검출하는 단계와,
    상기 기준면과 카메라와의 위치관계에 관한 설정정보, 상기 구체의 크기 정보 및 상기 검출된 각도 정보를 이용하여 상기 상단점 또는 하단점의 상기 카메라의 시선방향으로 상기 기준면 상에 투영된 점의 오차를 보정함으로써 상기 구체의 평면 위치좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 카메라를 이용한 평면 이동 구체의 운동 센싱방법.
  11. 퍼팅매트 상을 운동하는 골프공에 대한 센싱방법으로서,
    상기 카메라에 의해 임의의 위치에서 단일 시각으로 상기 퍼팅매트를 포함하는 화각으로 영상을 취득하는 단계;
    상기 카메라의 취득 영상으로부터 상기 퍼팅매트를 기준면으로 하여 상기 카메라와의 위치관계를 설정하는 단계;
    상기 카메라가 취득하는 영상으로부터 상기 골프공에 해당하는 오브젝트를 검출하여 골프공에 대한 타격 준비를 하는 단계;
    상기 카메라가 취득하는 영상으로부터 골프공의 타격을 감지하는 단계;
    상기 타격이 감지된 경우, 상기 설정된 기준면과 카메라의 위치관계를 이용하여 상기 오브젝트의 윤곽 상의 점으로부터 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하는 단계; 및
    상기 카메라가 취득하는 영상의 각 프레임마다 상기 골프공의 평면 위치좌표를 산출하여 그 변화로부터 상기 골프공의 운동에 대한 정보를 산출하는 단계;
    를 포함하는 퍼팅매트 상을 운동하는 골프공에 대한 센싱방법.
  12. 제11항에 있어서, 상기 골프공의 평면 위치좌표로서 산출하는 단계는,
    상기 영상에서 검출되는 오브젝트의 상단 경계의 곡선을 검출하는 단계와,
    상기 상단 경계의 곡선의 곡률을 갖는 원을 산출하여 상기 원 상의 적어도 하나의 점을 특징점으로서 검출하는 단계와,
    상기 특징점을 이용하여 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하는 단계를 포함하는 것을 특징으로 하는 퍼팅매트 상을 운동하는 골프공에 대한 센싱방법.
  13. 제11항에 있어서, 상기 골프공의 평면 위치좌표로서 산출하는 단계는,
    상기 영상에서 검출되는 오브젝트의 상단 경계를 검출하는 단계와,
    상기 상단 경계 상의 상단점을 검출하는 단계와,
    상기 오브젝트의 크기와 형상에 매칭되는 검출도형을 생성하여 상기 생성된 검출도형의 크기를 이용하여 상기 상단점에 대응되는 상기 오브젝트의 하단점을 검출하는 단계와,
    상기 상단점 또는 하단점을 이용하여 상기 골프공의 중심점이 상기 기준면으로 연직방향 투영된 점의 위치좌표를 상기 골프공의 평면 위치좌표로서 산출하는 단계를 포함하는 것을 특징으로 하는 퍼팅매트 상을 운동하는 골프공에 대한 센싱방법.
PCT/KR2021/013602 2020-10-07 2021-10-05 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법 WO2022075691A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180068933.2A CN116490246A (zh) 2020-10-07 2021-10-05 利用摄像头的平面移动球体的运动感测装置及方法、在推杆垫上移动的高尔夫球的运动感测装置及方法
JP2023521284A JP2023544793A (ja) 2020-10-07 2021-10-05 平面移動球体の運動センシング装置及び方法と、パッティングマットを移動するゴルフボールの運動センシング装置及び方法
US18/030,765 US20230405432A1 (en) 2020-10-07 2021-10-05 Device and method for sensing movement of sphere moving on plane surface using camera, and device and method for sensing golfball moving on putting mat

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0129422 2020-10-07
KR1020200129422A KR20220046244A (ko) 2020-10-07 2020-10-07 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법

Publications (1)

Publication Number Publication Date
WO2022075691A1 true WO2022075691A1 (ko) 2022-04-14

Family

ID=81126654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/013602 WO2022075691A1 (ko) 2020-10-07 2021-10-05 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법

Country Status (5)

Country Link
US (1) US20230405432A1 (ko)
JP (1) JP2023544793A (ko)
KR (2) KR20220046244A (ko)
CN (1) CN116490246A (ko)
WO (1) WO2022075691A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102624716B1 (ko) * 2022-12-21 2024-01-12 (주)코아텍 스마트 모바일 기기를 이용한 퍼팅 연습 시스템
JP7319751B1 (ja) * 2023-04-12 2023-08-02 株式会社Knowhere コンピュータ、プログラム、情報処理方法およびモデル生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048090B1 (ko) * 2011-03-22 2011-07-08 (주) 골프존 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
KR20120010016A (ko) * 2010-07-23 2012-02-02 건국대학교 산학협력단 카메라를 이용한 골프 퍼팅 결과 분석 시스템 및 그 방법
KR20120084481A (ko) * 2011-01-20 2012-07-30 주식회사 웨이브애프터 당구대의 평면 영상 생성장치 및 생성방법, 기록매체
KR20170020982A (ko) * 2015-08-17 2017-02-27 주식회사 골프존 퍼팅매트장치와 이를 이용한 타구분석방법 및 퍼팅 시뮬레이션 방법과, 이를 이용한 퍼팅 시뮬레이션 장치
KR20190048670A (ko) * 2017-10-31 2019-05-09 대구대학교 산학협력단 영상 처리 기반의 퍼팅 분석 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101385326B1 (ko) * 2011-09-23 2014-04-16 주식회사 크리에이츠 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적을 획득하기 위한 방법 및 시스템
KR101231387B1 (ko) * 2012-01-20 2013-02-07 정미애 카메라 영상을 이용하는 구형물체의 비행속도 추정 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010016A (ko) * 2010-07-23 2012-02-02 건국대학교 산학협력단 카메라를 이용한 골프 퍼팅 결과 분석 시스템 및 그 방법
KR20120084481A (ko) * 2011-01-20 2012-07-30 주식회사 웨이브애프터 당구대의 평면 영상 생성장치 및 생성방법, 기록매체
KR101048090B1 (ko) * 2011-03-22 2011-07-08 (주) 골프존 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
KR20170020982A (ko) * 2015-08-17 2017-02-27 주식회사 골프존 퍼팅매트장치와 이를 이용한 타구분석방법 및 퍼팅 시뮬레이션 방법과, 이를 이용한 퍼팅 시뮬레이션 장치
KR20190048670A (ko) * 2017-10-31 2019-05-09 대구대학교 산학협력단 영상 처리 기반의 퍼팅 분석 장치 및 방법

Also Published As

Publication number Publication date
CN116490246A (zh) 2023-07-25
KR20220133143A (ko) 2022-10-04
US20230405432A1 (en) 2023-12-21
JP2023544793A (ja) 2023-10-25
KR20220046244A (ko) 2022-04-14
KR102642264B1 (ko) 2024-02-29

Similar Documents

Publication Publication Date Title
WO2022075691A1 (ko) 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법
WO2012128574A2 (ko) 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
WO2017123041A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
WO2016200208A1 (ko) 운동하는 볼에 대한 센싱장치 및 센싱방법
WO2017010695A1 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
WO2014058248A1 (ko) 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
WO2014109546A1 (ko) 운동하는 볼에 대한 센싱장치 및 센싱방법
US20070098250A1 (en) Man-machine interface based on 3-D positions of the human body
WO2012128568A2 (ko) 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
WO2017135690A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
CN110298864B (zh) 一种高尔夫推杆设备的视觉感测方法及装置
WO2018139810A1 (ko) 운동하는 객체의 위치 정보를 산출하기 위한 센싱장치 및 이를 이용한 센싱방법
Jeges et al. Measuring human height using calibrated cameras
WO2014189315A1 (ko) 골프 스윙에 대한 정보제공을 위한 골프 연습 시스템, 서버 및 이를 이용한 골프 스윙에 대한 정보 처리방법
JP6942566B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2019216673A1 (ko) 무인 이동체용 사물 유도 시스템 및 방법
WO2019135462A1 (ko) 번들 조정 알고리즘을 이용한 립모션과 hmd 사이의 캘리브레이션 방법 및 장치
KR20090112538A (ko) 조명 제어를 이용한 골프 영상 획득 장치, 및 그를 이용한 영상처리 기반의 골프 연습 시스템
WO2018097612A1 (ko) 사용자의 골프샷에 대한 정보를 산출하기 위한 센싱장치 및 이를 이용한 센싱방법
WO2015030534A1 (en) Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
WO2022211377A1 (ko) 타격되어 이동하는 골프공에 대한 스핀 산출 방법 및 이를 이용한 스핀 산출 장치
WO2021020813A1 (ko) 골프클럽의 검출 방법 및 이를 이용한 센싱장치
KR20220146137A (ko) 두 대의 카메라를 이용한 천장형 골프 시뮬레이션 시스템
WO2022055318A1 (ko) 골프스윙에 대한 센싱장치 및 이를 이용한 클럽헤드의 임팩트 위치 센싱방법
WO2012128572A2 (ko) 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21877943

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023521284

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180068933.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21877943

Country of ref document: EP

Kind code of ref document: A1