KR20230162918A - A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same - Google Patents
A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same Download PDFInfo
- Publication number
- KR20230162918A KR20230162918A KR1020237017603A KR20237017603A KR20230162918A KR 20230162918 A KR20230162918 A KR 20230162918A KR 1020237017603 A KR1020237017603 A KR 1020237017603A KR 20237017603 A KR20237017603 A KR 20237017603A KR 20230162918 A KR20230162918 A KR 20230162918A
- Authority
- KR
- South Korea
- Prior art keywords
- putting
- smart
- hole
- image
- flagpole
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 40
- 238000004891 communication Methods 0.000 claims description 39
- 230000001133 acceleration Effects 0.000 claims description 29
- 239000003550 marker Substances 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 11
- 238000013473 artificial intelligence Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 5
- 210000000981 epithelium Anatomy 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 230000005484 gravity Effects 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012356 Product development Methods 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 239000005341 toughened glass Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B57/00—Golfing accessories
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B37/00—Solid balls; Rigid hollow balls; Marbles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B37/00—Solid balls; Rigid hollow balls; Marbles
- A63B37/0003—Golf balls
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B57/00—Golfing accessories
- A63B57/30—Markers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B57/00—Golfing accessories
- A63B57/30—Markers
- A63B57/353—Golf ball position markers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B57/00—Golfing accessories
- A63B57/30—Markers
- A63B57/357—Markers for golf cups or holes, e.g. flags
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B57/00—Golfing accessories
- A63B57/40—Golf cups or holes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
- A63B69/36—Training appliances or apparatus for special sports for golf
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
- A63B69/36—Training appliances or apparatus for special sports for golf
- A63B69/3676—Training appliances or apparatus for special sports for golf for putting
- A63B69/3685—Putters or attachments on putters, e.g. for measuring, aligning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B2071/0694—Visual indication, e.g. Indicia
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/10—Positions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/17—Counting, e.g. counting periodical movements, revolutions or cycles, or including further data processing to determine distances or speed
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/18—Inclination, slope or curvature
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/20—Distances or displacements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/40—Acceleration
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/83—Special sensors, transducers or devices therefor characterised by the position of the sensor
- A63B2220/833—Sensors arranged on the exercise apparatus or sports implement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2225/00—Miscellaneous features of sport apparatus, devices or equipment
- A63B2225/50—Wireless data transmission, e.g. by radio transmitters or telemetry
Abstract
본 발명의 스마트 퍼팅 디바이스는, 홀과, 상기 홀에 꽂힌 깃대의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.The smart putting device of the present invention includes an image acquisition unit that acquires an image of a hole and a flagpole inserted into the hole, identifies the hole in the image acquired by the image acquisition unit, and obtains the elevation difference of the hole with respect to the putting position, It includes a processor that identifies the flagpole in the image, obtains the length of the flagpole, and calculates the horizontal distance from the putting position to the hole based on the elevation difference and the length of the flagpole.
Description
본 발명은 골프용 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법에 관한 것으로, 보다 상세하게는, 카메라를 이용하여 촬영한 영상을 바탕으로 퍼팅거리를 측정할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법에 관한 것이다.The present invention relates to a smart putting device for golf and a method of measuring putting distance using the same. More specifically, a smart putting device capable of measuring putting distance based on an image captured using a camera and measuring putting distance using the same. It's about method.
일반적으로 골프용 퍼터는, 퍼팅 그린에서 홀에 골프 공을 넣을 때 사용하는 골프 채이다. 정확한 퍼팅을 위해서는 공으로부터 홀까지의 거리와 그린의 지형, 그린 속도 등을 정확하게 파악하여야 하는데, 이는 고도의 숙련이 필요하다.Generally, a golf putter is a golf club used to put a golf ball into a hole on a putting green. In order to putt accurately, you must accurately understand the distance from the ball to the hole, the topography of the green, and the speed of the green, which requires a high level of skill.
이런 이유로, 그린에 대한 정확한 정보와 경험을 가지고 있는 캐디를 동반하여 경기를 하는 경우가 일반적인데, 최근, 골프의 대중화와 인기에 힘입어 골프 인구가 증가하여 캐디가 부족할 뿐만 아니라, 캐디 동반에 수반되는 비용도 만만치 않아 캐디를 동반하지 않아도 플레이가 허용되는 골프장들도 늘고 있다.For this reason, it is common to play a game accompanied by a caddy who has accurate information and experience about the green. However, recently, due to the popularization and popularity of golf, the golf population has increased, and not only is there a shortage of caddies, but the accompanying caddy is also required. Because the cost is so high, the number of golf courses that allow play without a caddy is increasing.
그런데, 캐디를 동반하지 않고 플레이를 하는 경우, 초급자들이 퍼팅거리나 방향 등의 그린 정보를 파악하는 것이 매우 어려워 경기의 재미가 반감될 뿐 아니라 타수가 늘어 경기 운영이 지체됨으로써 다른 팀들에게도 피해를 주는 문제가 있다. 따라서, 퍼팅을 하는데 필요한 정보를 골퍼에게 제공함으로써 혼자서도 정확한 퍼팅을 할 수 있도록 하는 장비가 필요하다.However, when playing without a caddy, it is very difficult for beginners to understand green information such as putting distance and direction, which not only reduces the fun of the game, but also causes damage to other teams by increasing the number of strokes and delaying the game. there is a problem. Therefore, there is a need for equipment that provides golfers with the information necessary for putting, allowing them to make accurate putting even on their own.
미국등록특허 US8608595호(이하, '종래기술'이라고 함.)는, 사용자가 의도한 퍼팅 방향(즉, 퍼터로부터 직선으로 홀을 향하는 방향)과 실제 퍼팅이 이루어지는 방향(즉, 퍼팅이 이루어지는 순간에 퍼터 헤드의 전면에 수직한 방향)이 디스플레이에 표시되는 퍼터를 개시하고 있다.US Patent No. US8608595 (hereinafter referred to as 'prior art') is a combination of the user's intended putting direction (i.e., the direction from the putter toward the hole in a straight line) and the actual putting direction (i.e., at the moment the putting is made). A putter in which the direction perpendicular to the front of the putter head (direction perpendicular to the front of the putter head) is displayed on the display is disclosed.
종래기술은 홀의 위치 정보를 구하기 위해 카메라가 획득한 영상을 활용하고 있는데, 특히, 상기 영상에 표현된 홀의 크기(즉, 직경)를 바탕으로 퍼터로부터 홀까지의 거리를 구한다.The prior art utilizes images acquired by a camera to obtain hole location information. In particular, the distance from the putter to the hole is obtained based on the size (i.e., diameter) of the hole expressed in the image.
그런데, 통상적으로 퍼팅이 주로 이루어지는 그린에는 굴곡(undulation)이 있기 때문에 카메라가 퍼터 헤드에 위치하는 경우 그린 상황에 따라서는 홀을 촬영하기 어려워 홀까지의 정확한 거리를 구할 수 없는 문제가 있다. 이러한 문제를 해결하기 위해 종래기술은 카메라를 샤프트에 설치하였으나, 이 경우, 샤프트에 많은 무게가 부여되기 때문에 퍼팅 스트로크에 영향을 미쳐 경기력을 저하시키는 문제가 있을 뿐만 아니라, 카메라와 디스플레이가 사용자의 시야를 가려 퍼팅 동작을 방해하는 문제가 있었다.However, since the green where putting is usually performed has undulations, it is difficult to photograph the hole depending on the green situation when the camera is positioned on the putter head, so there is a problem in that the exact distance to the hole cannot be obtained. To solve this problem, the prior art installed a camera on the shaft, but in this case, a lot of weight is given to the shaft, which not only affects the putting stroke and reduces performance, but also causes the camera and display to interfere with the user's field of view. There was a problem with blocking the putting action.
본 발명이 해결하고자 하는 과제는, 첫째, 카메라를 이용해 획득한 영상을 이용하여 홀까지의 거리를 구하는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.The problem that the present invention aims to solve is, first, to provide a smart putting device that calculates the distance to the hole using an image acquired using a camera and a method of measuring the putting distance using the same.
둘째, 카메라로부터 획득한 영상을 통해 홀까지의 거리를 구하되, 상기 카메라를 퍼터 헤드에 구비함으로써 상기 카메라의 부가로 인해 퍼터의 무게 중심이 지면에서 수직한 방향으로 이동되는 것을 억제한 스마트 퍼팅 디바이스를 제공하는 것이다.Second, a smart putting device that calculates the distance to the hole through an image obtained from a camera, and prevents the center of gravity of the putter from moving in a vertical direction from the ground due to the addition of the camera by providing the camera to the putter head. is to provide.
셋째, 지면의 굴곡으로 인해 카메라로 홀을 촬영할 수 없는 경우에도, 홀까지의 거리를 상당한 정확도로 측정할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.Third, it provides a smart putting device that can measure the distance to the hole with considerable accuracy even when the hole cannot be photographed with a camera due to the curvature of the ground, and a method of measuring the putting distance using the same.
넷째, 카메라를 이용하여 퍼터로부터 홀까지의 거리와 퍼팅 위치와 홀 간의 고저차를 구할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.Fourth, we provide a smart putting device that can use a camera to obtain the distance from the putter to the hole and the elevation difference between the putting position and the hole, and a method of measuring the putting distance using the same.
본 발명의 스마트 퍼팅 디바이스는, 홀과, 상기 홀에 꽂힌 깃대의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.The smart putting device of the present invention includes an image acquisition unit that acquires an image of a hole and a flagpole inserted into the hole, identifies the hole in the image acquired by the image acquisition unit, and obtains the elevation difference of the hole with respect to the putting position, It includes a processor that identifies the flagpole in the image, obtains the length of the flagpole, and calculates the horizontal distance from the putting position to the hole based on the elevation difference and the length of the flagpole.
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함할 수 있다.It may further include an output unit that outputs at least one of the height difference and the horizontal distance.
상기 출력부는, 상기 수평 거리 및 상기 고저차 중 적어도 하나를 시각적으로 표시하는 디스플레이를 포함할 수 있다.The output unit may include a display that visually displays at least one of the horizontal distance and the elevation difference.
상기 스마트 퍼팅 디바이스는, 가속도 센서를 더 포함할 수 있고, 상기 프로세서는, 상기 가속도 센서의 감지값을 바탕으로 상기 영상 획득부가 기 설정된 기준자세로 정렬되었는지를 판단하고, 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력할 수 있다.The smart putting device may further include an acceleration sensor, and the processor determines whether the image acquisition unit is aligned to a preset reference posture based on the detection value of the acceleration sensor, and outputs an output when determined to be aligned. Notifications can be output through the unit.
상기 스마트 퍼팅 디바이스는, 사용자로부터 소정의 명령을 입력받는 입력부를 더 포함할 수 있고, 상기 프로세서는, 상기 알림이 출력된 후 상기 입력부를 통해 촬영 명령이 입력되면, 상기 영상 획득부를 통해 영상이 획득되도록 제어할 수 있다.The smart putting device may further include an input unit that receives a predetermined command from the user, and the processor acquires an image through the image acquisition unit when a shooting command is input through the input unit after the notification is output. It can be controlled as much as possible.
상기 프로세서는, 상기 영상 획득부에 의해 획득된 영상을, 상기 가속도 센서의 감지값을 바탕으로 보정하고, 보정된 영상에서 상기 깃대의 길이를 구할 수 있다.The processor may correct the image acquired by the image acquisition unit based on the detection value of the acceleration sensor and obtain the length of the flagpole from the corrected image.
상기 프로세서는, 상피 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 구한 제 1 획득영상과, 상기 스마트 퍼팅 디바이스가 상기 지면으로부터 소정 거리 이격된 상태에서 구한 제 2 획득영상을 바탕으로 상기 고저차를 구할 수 있다.The processor determines the elevation difference based on a first acquired image obtained through the image acquisition unit while the epithelium smart putting device is placed on the ground, and a second acquired image obtained while the smart putting device is spaced a predetermined distance from the ground. can be obtained.
상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부와, 골프 퍼터용 퍼터 헤드를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance, and a putter head for a golf putter.
상기 프로세서, 영상 획득부 및 출력부는 상기 퍼터 헤드에 배치될 수 있다.The processor, image acquisition unit, and output unit may be disposed on the putter head.
상기 스마트 퍼팅 디바이스는, 가속도 센서와, 상기 고저차 및 수평 거리에 대한 정보를 무선으로 전송하는 무선통신모듈을 더 포함할 수 있다.The smart putting device may further include an acceleration sensor and a wireless communication module that wirelessly transmits information about the elevation difference and horizontal distance.
상기 가속도 센서 및 상기 무선통신모듈은 상기 퍼터 헤드에 배치될 수 있다.The acceleration sensor and the wireless communication module may be placed on the putter head.
상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부와, 골프 퍼터용 퍼터 헤드를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance, and a putter head for a golf putter.
상기 영상 획득부는 상기 퍼터 헤드에 배치될 수 있다. 상기 스마트 퍼팅 디바이스는, 상기 퍼터 헤드와 분리된 것으로서, 상기 프로세서 및 상기 출력부를 포함하는 서브 디바이스를 더 포함할 수 있다.The image acquisition unit may be disposed on the putter head. The smart putting device is separate from the putter head and may further include a sub-device including the processor and the output unit.
상기 스마트 퍼팅 디바이스는, 상기 퍼터 헤드에 배치되고 상기 영항 획득부에 의해 획득된 영상을 무선으로 전송하는 제 1 무선통신모듈과, 상기 서브 디바이스에 배치되고, 상기 제 1 무선통신모듈과 통신하는 제 2 무선통신모듈을 더 포함할 수 있다.The smart putting device includes a first wireless communication module disposed on the putter head and wirelessly transmitting an image acquired by the zero-angular acquisition unit, and a first wireless communication module disposed on the sub-device and communicating with the first wireless communication module. 2 It may further include a wireless communication module.
본 발명의 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 홀이 위치한 지점에서 공의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 상기 공을 식별하여, 상기 공과 상기 홀 간의 고저차 및 상기 공의 너비를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 공까지의 수평 거리를 구하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit that acquires an image of the ball at a point where the hole is located, identifies the ball in the image acquired by the image acquisition unit, and identifies the ball and the hole. It includes a processor that obtains the elevation difference and the width of the ball, and calculates the horizontal distance to the ball based on the elevation difference and the width of the ball.
상기 스마트 퍼팅 디바이스는, 볼마커를 더 포함할 수 있고, 상기 영상 획득부 및 상기 프로세서는 상기 볼마커에 배치될 수 있다.The smart putting device may further include a ball marker, and the image acquisition unit and the processor may be disposed on the ball marker.
상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance.
상기 출력부는, 상기 볼마커에 배치될 수 있다.The output unit may be placed on the ball marker.
상기 스마트 퍼팅 디바이스는, 상기 볼마커와 분리된 서브 디바이스를 더 포함할 수 있고, 상기 출력부는, 상기 서브 디바이스에 배치될 수 있다.The smart putting device may further include a sub-device separated from the ball marker, and the output unit may be disposed in the sub-device.
상기 프로세서는, 인공지능 기반의 객체 탐지 알고리즘을 이용하여 상기 영상으로부터 상기 홀과 상기 깃대를 식별할 수 있다.The processor may identify the hole and the flagpole from the image using an artificial intelligence-based object detection algorithm.
상기 프로세서는, 상기 영상에 표현된 색상을 분석하여 상기 홀과 상기 깃대를 식별할 수 있다.The processor may identify the hole and the flagpole by analyzing the colors expressed in the image.
본 발명의 또 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 수평 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부와, 상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit having a first camera and a second camera spaced apart by a predetermined distance in the horizontal direction, and the first camera with the image acquisition unit being at the same position. It includes a processor that calculates the elevation difference of the hole with respect to the putting position and the horizontal distance from the putting position to the hole based on the first acquired image captured by and the second acquired image captured by the second camera.
본 발명의 또 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 수평 및 수직 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부와, 상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 상기 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit having a first camera and a second camera spaced apart by a predetermined distance in the horizontal and vertical directions, and the image acquisition unit being at the same position. 1. A processor that calculates the height difference of the hole with respect to the putting position and the horizontal distance from the putting position to the hole based on the first acquired image captured by the camera and the second acquired image captured by the second camera. Includes.
본 발명의 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정방법은, (a) 영상 획득부에 의해 전방의 영상이 획득되는 단계와, (b) 상기 영상을 바탕으로 퍼팅거리를 구하는 단계와, (c) 상기 퍼팅거리를 출력부를 통해 출력하는 단계를 포함한다.The putting distance measurement method using the smart putting device of the present invention includes the steps of (a) acquiring a front image by an image acquisition unit, (b) calculating the putting distance based on the image, and (c) the step of obtaining the putting distance based on the image. It includes the step of outputting the putting distance through an output unit.
상기 (a)단계는, (a-1) 가속도 센서의 감지값을 바탕으로 스마트 퍼팅 디바이스가 기 설정된 기준자세로 정렬되었는지를 판단하는 단계와, (a-2) 상기 (a-1)단계에서 상기 스마트 퍼팅 디바이스가 상기 기준자세로 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력하는 단계와, (a-3) 상기 알림이 출력된 후 입력부를 통해 소정의 명령이 입력되면, 상기 영상 획득부에 의해 상기 영상이 획득되는 단계를 더 포함할 수 있다.Step (a) includes (a-1) determining whether the smart putting device is aligned to a preset reference posture based on the detection value of the acceleration sensor, and (a-2) step (a-1). When it is determined that the smart putting device is aligned to the reference posture, outputting a notification through an output unit; (a-3) when a predetermined command is input through an input unit after the notification is output, the image acquisition unit The step of acquiring the image may be further included.
상기 (b)단계는, 상기 영상에서 깃대를 식별하여, 식별된 깃대의 길이를 바탕으로 상기 스마트 퍼팅 디바이스로부터 상기 홀까지의 수평 거리를 구하는 단계를 포함할 수 있다.Step (b) may include identifying a flagpole in the image and calculating the horizontal distance from the smart putting device to the hole based on the length of the identified flagpole.
상기 (c)단계는, 상기 수평 거리를 상기 퍼팅거리로서 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.Step (c) may include outputting the horizontal distance as the putting distance through the output unit.
상기 (b)단계는, 상기 영상에서 퍼팅위치에 대한 상기 홀의 고저차를 구하고, 상기 고저차 및 상기 깃대의 높이를 바탕으로 상기 수평 거리를 구하는 단계를 더 포함할 수 있다.Step (b) may further include obtaining the elevation difference of the hole with respect to the putting position in the image, and determining the horizontal distance based on the elevation difference and the height of the flagpole.
상기 출력부를 통해 상기 고저차를 출력하는 단계를 더 포함할 수 있다.It may further include outputting the elevation difference through the output unit.
상기 (a)단계는, 상기 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 제 1 획득영상을 구하는 단계와, 상기 스마트 퍼팅 디바이스를 지면으로부터 소정의 상승 높이까지 들어 올린 상태에서 상기 영상 획득부를 통해 제 2 획득영상을 구하는 단계를 포함할 수 있고, 상기 (b)단계는, 상기 제 2 획득영상에서 구한 상기 홀의 높이 및 상기 제 1 획득영상과 상기 제 2 획득영상을 바탕으로 구한 상기 상승 높이를 바탕으로 상기 고저차를 구하는 단계를 포함할 수 있다.The step (a) includes obtaining a first acquired image through the image acquisition unit with the smart putting device placed on the ground, and acquiring the image while lifting the smart putting device from the ground to a predetermined elevation height. It may include the step of obtaining a second acquired image through a portion, and the step (b) may include the height of the hole obtained from the second acquired image and the elevation obtained based on the first acquired image and the second acquired image. It may include calculating the elevation difference based on the height.
상기 (b)단계는, 상기 영상에서 공을 식별하여, 식별된 공의 너비를 바탕으로 상기 공으로부터 상기 홀까지의 수평 거리를 구하는 단계를 포함할 수 있고, 상기 (c)단계는, 상기 수평 거리를 상기 퍼팅거리로서 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.Step (b) may include identifying a ball in the image and calculating the horizontal distance from the ball to the hole based on the width of the identified ball, and step (c) may include determining the horizontal distance from the ball to the hole. It may include outputting the distance as the putting distance through the output unit.
상기 (b)단계는, 상기 영상에서 상기 공과 상기 홀 간의 고저차를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 수평 거리를 구하는 단계를 포함할 수 있다.Step (b) may include obtaining the elevation difference between the ball and the hole in the image, and determining the horizontal distance based on the elevation difference and the width of the ball.
상기 퍼팅거리 측정 방법은, 상기 출력부를 통해 상기 고저차를 출력하는 단계를 더 포함할 수 있다.The putting distance measuring method may further include outputting the height difference through the output unit.
상기 (a)단계는, 공과 상기 홀을 연결하는 직선을 기준으로 양쪽에서 각각 제 1 획득영상과 제 2 획득영상을 구하는 단계와, 상기 제 1 획득영상과 상기 제 2 획득영상을 바탕으로 퍼팅 방향을 설정하여 상기 출력부를 통해 표시하는 단계를 더 포함할 수 있다.The step (a) includes obtaining a first acquired image and a second acquired image on both sides based on a straight line connecting the ball and the hole, and determining a putting direction based on the first acquired image and the second acquired image. It may further include setting and displaying through the output unit.
본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법은, 획득영상을 바탕으로 구한 깃대의 길이를 바탕으로 홀까지의 거리를 산출하기 때문에 종래 홀컵을 촬영하여 퍼팅거리를 계산하던 방식과 비교하여, 지면 굴곡의 영향을 덜 받을 뿐만 아니라, 카메라를 퍼터 헤드에 위치하더라도 깃대를 촬영하여 퍼팅거리를 산출할 수 있어 퍼터 무게 중심을 낮추는데 유리한 효과가 있다.The smart putting device according to an embodiment of the present invention and the putting distance measuring method using the same calculate the distance to the hole based on the length of the flagpole obtained based on the acquired image, so it is possible to calculate the putting distance by photographing the conventional hole cup. Compared to this method, not only is it less affected by the curvature of the ground, but even when the camera is placed on the putter head, the putting distance can be calculated by filming the flagpole, which has the advantage of lowering the center of gravity of the putter.
또한, 퍼터와 깃대 사이에 언덕이 있어 깃대의 하단 일부가 촬영되지 못하는 경우에도, 통상적인 퍼팅 환경에서는 깃대의 전체 길이에 비해 가려지는 부분이 미미하기 때문에, 깃대 길이를 바탕으로 퍼팅거리를 산출하더라도 비교적 높은 정확도를 구현하는 것이 가능하다. 특히, 종래 홀컵을 촬영하여 퍼팅거리를 산출하는 방식에서는 불가능한 그린 굴곡에서도 상당한 정확도의 퍼팅거리를 구할 수 있는 이점이 있다.In addition, even if the lower part of the flagpole cannot be photographed because there is a hill between the putter and the flagpole, in a normal putting environment, the hidden part is minimal compared to the entire length of the flagpole, so even if the putting distance is calculated based on the length of the flagpole, It is possible to achieve relatively high accuracy. In particular, there is an advantage in that the putting distance can be obtained with considerable accuracy even on curves of the green, which is impossible with the conventional method of calculating the putting distance by photographing the hole cup.
본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법은, 지면에 놓인 공을 촬영하여 공의 너비를 구하고, 이를 바탕으로 퍼팅거리를 산출하는 방식이다. 따라서, 공이 홀보다 낮은 위치(즉, 오르막 라이)인 경우에도 퍼터를 홀의 위치에 두고 공을 촬영할 수 있어 오르막 라이에서도 퍼팅거리를 구할 수 있다.A smart putting device according to an embodiment of the present invention and a method of measuring the putting distance using the same are a method of obtaining the width of the ball by photographing a ball placed on the ground and calculating the putting distance based on this. Therefore, even when the ball is located lower than the hole (i.e., uphill lie), the putting distance can be obtained even from an uphill lie because the ball can be photographed with the putter positioned at the hole.
또한, 공이 홀보다 높은 내리막 라이에서는 퍼터를 홀의 위치에 두고 공을 촬영하는 경우 공의 아랫부분이 부분적으로 지면에 가려질 수는 있으나, 그렇다고 하더라도 통상적인 그린의 굴곡이나 퍼팅거리에서 지면이 공의 중앙부분까지 가리지는 않기 때문에 특별한 경우가 아닌 한 공의 너비 측정이 가능하다. 따라서, 내리막 라이에서도 우수한 거리 측정 성능이 보장되는 효과가 있다.In addition, in a downhill lie where the ball is higher than the hole, if the ball is photographed with the putter at the hole's position, the lower part of the ball may be partially obscured by the ground, but even so, the ground may be close to the ball at the normal curve of the green or putting distance. Since it does not cover the center part, it is possible to measure the width of the ball unless there are special cases. Therefore, excellent distance measurement performance is guaranteed even when lying downhill.
또한, 본 발명의 스마트 퍼팅 디바이스는 종래 홀컵을 촬영하여 퍼팅거리를 계산하던 방식과 비교하여, 지면 굴곡의 영향을 덜 받을 뿐만 아니라, 카메라를 퍼터 헤드에 위치하더라도 깃대를 촬영하여 퍼팅거리를 산출할 수 있어 퍼터 무게 중심을 낮추는데 유리한 효과가 있다.In addition, compared to the conventional method of calculating the putting distance by photographing the hole cup, the smart putting device of the present invention is not only less affected by ground curvature, but can also calculate the putting distance by photographing the flagpole even when the camera is placed on the putter head. This has an advantageous effect in lowering the center of gravity of the putter.
또한, 본 발명의 스마트 퍼팅 디바이스는, 퍼팅거리를 구하기 위한 영상을 촬영하는 카메라를 퍼터 헤드에 구비할 수 있기 때문에 퍼터의 무게 중심이 퍼터 헤드 측에 유지될 수 있어, 사용자에게 일반적인 퍼터와 매우 유사한 스윙 밸런스를 제공할 수 있는 효과가 있다.In addition, the smart putting device of the present invention can be equipped with a camera on the putter head that takes images to determine the putting distance, so the center of gravity of the putter can be maintained on the putter head side, making it very similar to a typical putter to the user. It has the effect of providing swing balance.
또한, 일반적으로 퍼터는 그 종류에 따라 샤프트의 길이, 샤프트가 지면과 이루는 각도(라이각(lie angle)) 등이 다르기 때문에, 종래와 같이 샤프트에 카메라를 설치하는 경우 해당 퍼터에 맞도록 카메라를 튜닝하여야 하다. 그러나, 본 발명의 스마트 퍼팅 디바이스는 지면과 맞닿는 퍼터 헤드에 카메라가 설치됨으로써 영상이 구해지는 기준이 일정하기 때문에(즉, 지면과 매우 근접한 위치에서 영상이 획득됨), 퍼터를 여러 규격으로 제조하더라도 규격별로 카메라 튜닝작업을 할 필요 없이 하나의 공통된 방식으로 튜닝하여도 무방하다. 따라서, 본 발명의 스마트 퍼팅 디바이스는 제품의 개발, 생산 관리 등의 측면에서 유리할 뿐만 아니라, 더 나아가 유지, 보수 차원에서도 효율적인 이점이 있다.In addition, since the length of the shaft and the angle that the shaft forms with the ground (lie angle) are generally different depending on the type of putter, when installing a camera on the shaft as in the past, the camera must be tuned to fit the putter. It must be done. However, in the smart putting device of the present invention, the standard for obtaining images is constant by installing a camera on the putter head in contact with the ground (i.e., the image is obtained at a position very close to the ground), so even if the putter is manufactured to various specifications There is no need to tune the camera for each standard, but you can tune it using a common method. Therefore, the smart putting device of the present invention is not only advantageous in terms of product development and production management, but also has an efficient advantage in terms of maintenance and repair.
도 1은 본 발명의 스마트 퍼팅 디바이스와, 이를 포함하는 스마트 퍼팅 시스템을 도시한 것이다.
도 2는 도 1의 스마트 퍼팅 디바이스의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 3은 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스의 주요부들을 보인 블록도이다.
도 4는 도 3의 스마트 퍼팅 디바이스의 일례로 퍼터를 도시한 것으로, 도 4의 (a)는 퍼터를 위에서 내려다본 것이고, 도 4의 (b)는 퍼터를 정면에서 바라본 것이다.
도 5는 본 발명의 다른 실시예에 따른 퍼터를 도시한 것이다.
도 6은 본 발명의 또 다른 실시예들에 따른 퍼터들을 도시한 것이다.
도 7은 도 3의 스마트 퍼팅 디바이스의 다른 예로 볼마커를 도시한 것이다.
도 8은 본 발명의 제 2 실시예에 따른 스마트 퍼팅 디바이스의 주요부들을 보인 블록도이다.
도 9는 도 8의 스마트 퍼팅 디바이스의 일례를 도시한 것이다.
도 10은 도 8의 스마트 퍼팅 디바이스의 다른 예를 도시한 것이다.
도 11은 수평한 지면에서 구한 것들로써 스마트 퍼팅 디바이스로부터 홀까지의 거리에 따른 획득영상들을 도시한 것이다.
도 12는 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 깃대 이미지와 기준자세로 조정된 상태에서 구한 깃대 이미지를 비교하여 도시한 것이다.
도 13은 (a)는 획득영상에서 보이는 홀과 깃대의 위치를 카메라가 제 1 위치에 있을 시 구한 것과 제 2 위치에 있을 시 구한 것을 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이다.
도 14는 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 홀컵까지의 거리에 대한 깃대 상단의 좌표를 고저차 별로 도시한 것이다.
도 15는 (a)스마트 퍼팅 디바이스가 바닥에 있을 때와, (b)바닥으로부터 들어 올려졌을 때를 도시한 것이다.
도 16은 (a)스마트 퍼팅 디바이스가 바닥에 있을 때 획득 영상에 보이는 깃대와, (b)스마트 퍼팅 디바이스가 바닥으로부터 들어 올려졌을 때 획득 영상에 보이는 깃대를 도시한 것이다.
도 17은 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 설명하기 위한 것으로써, 스마트 퍼팅 디바이스를 홀컵 위치에 놓고 공을 촬영한 영상을 도시한 것이다.
도 18은 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 공의 이미지와 기준자세로 조정된 상태에서 구한 공의 이미지를 비교하여 도시한 것이다.
도 19의 (a)는 획득영상에서 보이는 공을 카메라가 제 1 위치에 있을 시와 제 2 위치에 있을 시를 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라와 공의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라와 공의 위치관계를 도시한 것이다.
도 20은 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 공까지의 거리에 대한 공의 폭을 고저차 별로 도시한 것이다.
도 21은 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 도시한 순서도이다.
도 22는 공이 홀보다 높은 경우의 일례로서, 공과 깃대의 위치(a), 제 1 획득영상에 표시된 공과 깃대의 위치(b) 및 제 2 획득영상에 표시된 공과 깃대의 위치(c)를 도시한 것이다.
도 23은 공과 홀을 연결한 선을 기준으로 양쪽 지대가 높이차가 있는 경우의 일례로서, 공과 깃대의 위치(a), 제 1 획득영상에 표시된 공과 깃대의 위치(b) 및 제 2 획득영상에 표시된 공과 깃대의 위치(c)를 도시한 것이다.
도 24는 퍼터 헤드의 디스플레이를 통해 표시되는 화면들을 도시한 것이다.
도 25는 퍼팅거리 측정 방법의 다른 실시예를 설명하기 위한 도면이다.
도 26은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다.
도 27은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다.
Figure 1 shows a smart putting device of the present invention and a smart putting system including the same.
Figure 2 is a block diagram showing the control relationship between the main components of the smart putting device of Figure 1.
Figure 3 is a block diagram showing main parts of a smart putting device according to the first embodiment of the present invention.
Figure 4 shows a putter as an example of the smart putting device of Figure 3. Figure 4 (a) is a view of the putter from above, and Figure 4 (b) is a view of the putter from the front.
Figure 5 shows a putter according to another embodiment of the present invention.
Figure 6 shows putters according to further embodiments of the present invention.
Figure 7 shows a ball marker as another example of the smart putting device of Figure 3.
Figure 8 is a block diagram showing main parts of a smart putting device according to a second embodiment of the present invention.
Figure 9 shows an example of the smart putting device of Figure 8.
Figure 10 shows another example of the smart putting device of Figure 8.
Figure 11 shows acquired images according to the distance from the smart putting device to the hole as obtained on a horizontal ground.
Figure 12 shows a comparison between a flagpole image obtained when the smart putting device is not in the standard posture and a flagpole image obtained when the smart putting device is adjusted to the standard posture.
Figure 13 (a) shows the positions of the hole and the flagpole visible in the acquired image compared with those obtained when the camera was in the first position and those obtained when the camera was in the second position, and (b) shows the positions of the hole and the flagpole seen in the acquired image. The positional relationship between the camera, the hall, and the flagpole is shown, and (c) shows the positional relationship between the camera, the hall, and the flagpole at the second position.
Figure 14 shows the coordinates of the top of the flagpole relative to the distance from the camera to the hole cup by elevation difference in the acquired image taken when the camera was in the reference position.
Figure 15 shows (a) when the smart putting device is on the floor and (b) when it is lifted from the floor.
Figure 16 shows (a) the flagpole visible in the acquired image when the smart putting device is on the floor, and (b) the flagpole visible in the acquired image when the smart putting device is lifted from the floor.
Figure 17 is for explaining a method of measuring the putting distance using a smart putting device according to another embodiment of the present invention, and shows an image of a ball taken with the smart putting device placed at the hole cup position.
Figure 18 shows a comparison between the image of the ball obtained when the smart putting device is not in the standard posture and the image of the ball obtained when the smart putting device is adjusted to the standard posture.
Figure 19 (a) shows the ball seen in the acquired image by comparing it when the camera is in the first position and when it is in the second position, and (b) shows the positional relationship between the camera and the ball at the first position. , and (c) shows the positional relationship between the camera and the ball at the second position.
Figure 20 shows the width of the ball relative to the distance from the camera to the ball by elevation difference in the acquired image taken when the camera was in the reference position.
Figure 21 is a flow chart illustrating a method of measuring a putting distance using a smart putting device according to embodiments of the present invention.
Figure 22 is an example of a case where the ball is higher than the hole, showing the positions of the ball and the flagpole (a), the positions of the ball and the flagpole shown in the first acquired image (b), and the positions of the ball and the flagpole shown in the second acquired image (c). will be.
Figure 23 is an example of a case where there is a height difference between the two zones based on the line connecting the ball and the hole, and the positions of the ball and the flagpole (a), the positions of the ball and the flagpole shown in the first acquired image (b), and the second acquired image The positions of the marked ball and flagpole (c) are shown.
Figure 24 shows screens displayed through the display of the putter head.
Figure 25 is a diagram for explaining another embodiment of a putting distance measuring method.
Figure 26 is a diagram for explaining another embodiment of a putting distance measuring method.
Figure 27 is a diagram for explaining another embodiment of a putting distance measuring method.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도 록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform those with knowledge of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
도 1은 본 발명의 스마트 퍼팅 디바이스(100)와, 이를 포함하는 스마트 퍼팅 시스템(1)을 도시한 것이다. 도 2는 도 1의 스마트 퍼팅 디바이스(100)의 주요 구성들 간의 제어관계를 도시한 블록도이다.Figure 1 shows a
도 1 내지 도 2를 참조하면, 본 발명의 일 실시예에 따른 스마트 퍼팅 시스템(1)은 스마트 퍼팅 디바이스(100)와 모바일 디바이스(200)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the smart putting
스마트 퍼팅 디바이스(100)와 모바일 디바이스(200)는 상호 간에 무선 통신 방식으로 데이터를 교환할 수 있다. 스마트 퍼팅 디바이스(100)에 의해 처리된 결과가 무선 통신을 통해 모바일 디바이스(200)로 전송되고, 모바일 디바이스(200)는 전송받은 정보를 사용자가 인지할 수 있도록 출력할 수 있다.The
모바일 디바이스(200)는, 무선 통신 기능을 갖춘 것으로서, 정보를 시각, 청각 및/또는 촉각(예를 들어, 햅틱(haptic)) 방식으로 출력하는 기기일 수 있으며, 예를 들어, 블루투스 이어폰이나 스마트폰일 수 있으나, 반드시 이에 한정되어야 하는 것은 아니다.The
모바일 디바이스(200)는 무선 통신 기능을 위한 무선통신모듈을 구비할 수 있으며, 상기 무선통신모듈은, 반드시 이에 한정되어야 하는 것은 아니나, 근거리 무선통신모듈(예를 들어, 블루투스, 비콘, NFC 등), 무선 인터넷 모듈(예를 들어, WiFi) 중 적어도 하나를 포함할 수 있다.The
스마트 퍼팅 디바이스(100)는, 영상 획득부(5), 프로세서(7), 가속도 센서(50), 입력부(18), 충전 배터리(9), 충전부(17), 메모리(19) 및/또는 출력부(8)를 포함할 수 있다.The
영상 획득부(5)는 디지털 이미지를 촬영하는 카메라(5a, 도 5 참조)를 포함할 수 있다. 영상 획득부(5)(또는 카메라(5a))는 하나 이상의 정지 영상 또는 소정 주기로 촬영한 다수의 정지 영상들로 구성된 동영상을 촬영할 수 있다.The
프로세서(7)는 영상 획득부(5)에 의해 획득된 영상(이하, '획득영상'이라고 함.)을 바탕으로 공(25)으로부터 홀(21)까지의 수평 거리(이하, '퍼팅거리'라고 함.)를 구할 수 있다. 프로세서(7)는 퍼팅거리가 출력부(8)를 통해 출력되도록 제어할 수 있다.The
프로세서(7)는 영상 획득부(5)와 출력부(8) 뿐만 아니라, 후술하는 각종 장치들을 제어한다. 프로세서(7)는 전자적 기록매체에 기록된 프로그램의 연산을 실행, 처리하는 제어 장치 또는 그 기능을 내장한 칩일 수 있고, 중앙연산처리장치(CPU)를 포함할 수 있다.The
출력부(8)는 정보를 시각적으로 표시하는 LCD, LED 등의 디스플레이(81), 음향으로 출력하는 스피커(82) 및 네트워크로 전송 가능한 전기적 신호로써 출력하는 무선통신모듈(83) 중 적어도 하나를 포함할 수 있다.The
무선통신모듈(83)은 네트워크를 통해 다른 디바이스(200), 예를 들어, 블루투스 이어폰이나 스마트폰과 통신이 가능하다. 무선통신모듈(83)은 근거리 무선통신모듈(예를 들어, 블루투스, 비콘, NFC 등), 무선 인터넷 모듈(예를 들어, WiFi) 중 적어도 하나를 포함할 수 있다.The wireless communication module 83 is capable of communicating with another
가속도 센서(50)는 x, y, z축으로 작용하는 중력을 측정하는 센서일 수 있다. 여기서, x, y, z축은, 스마트 디바이스(100)를 기준으로 구성된 상대좌표계로 정의하였다.The acceleration sensor 50 may be a sensor that measures gravity acting on the x, y, and z axes. Here, the x, y, and z axes are defined as relative coordinate systems based on the
입력부(18)는, 스마트 퍼팅 디바이스(100)의 작동에 필요한 각종 명령을 사용자로부터 입력 받는 것일 수 있다. 입력부(18)는 버튼, 스위치, 터치 패널 등의 각종 입력 수단으로 구현될 수 있으며, 실시예에 따라, 모바일 디바이스(200)가 입력부(18)를 구성하는 것도 가능하다.The
충전 배터리(9)는, 스마트 퍼팅 디바이스(100)의 작동에 필요한 전원을 공급하는 것으로써 일회용 또는 재충전이 가능한 전지를 포함할 수 있다.The
충전 배터리(9)를 충전하기 위해 외부 전원과 연결되는 충전부(17)가 구비될 수 있다. 충전부(17)는 충전 배터리(9)를 충전 및/또는 방전시키는 회로를 포함할 수 있다. 충전부(17)는 USB(A, B, C type, micro type 등), 마이크로 5핀, 라이트닝 8핀 등의 단자를 포함할 수 있으며, 이에 한정되지 않고 기 공지된 다양한 방식의 단자를 포함하는 것도 가능하다.A charging
메모리(19)는 데이터(또는, 정보)를 저장하는 기록수단으로써, 휘발성, 비휘발성, ROM, RAM, EEPROM, 플래시 메모리 등을 포함할 수 있으며, 이에 한정되지 않고 기 공지된 다양한 방식의 메모리를 포함하는 것도 가능하다.The memory 19 is a recording means for storing data (or information) and may include volatile, non-volatile, ROM, RAM, EEPROM, flash memory, etc., but is not limited to this and may include various types of memory known in the art. It is also possible to include
출력부(8)는 프로세서(7)에 의해 처리된 결과를 출력하는 것으로, 정보를 시각적으로 표시하는 LCD, LED 등의 디스플레이(81), 음향으로 출력하는 스피커(82) 및 네트워크로 전송 가능한 전기적 신호로써 출력하는 무선통신모듈(83) 중 적어도 하나를 포함할 수 있다.The
도 3은 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스(100a)의 주요부들을 보인 블록도이다. 도 3을 참조하면, 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스(100a)는, 도 2에 도시된 여러 장치들 중 적어도 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)을 구비한 제 1 서브 디바이스(110)와, 도 2에 도시된 여러 장치들 중 적어도 프로세서(7)와 디스플레이(81)를 구비한 제 2 서브 디바이스(120)를 포함할 수 있다.Figure 3 is a block diagram showing main parts of the
제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 하나의 장치에 배치되되, 하나의 장치 상에서는 물리적으로는 서로 분리 배치되는 것을 특징으로 한다. 즉, 제 1 서브 디바이스(110)는 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)의 집합체 또는 조립체로 이루어지고, 제 2 서브 디바이스(120)는 프로세서(7)와 디스플레이(81)의 집합체 또는 조립체로 이루어져, 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120) 서로 간에 전기적으로는 연결되되 물리적 또는 공간상으로는 분리 또는 구분되도록 구성될 수 있다.The
예를 들어, 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)은 제 1 PCB(Printed Circuit Board: 인쇄회로기판)에 실장되고, 프로세서(7)와 디스플레이(81)는 제 2 PCB에 실장될 수 있다.For example, the
한편, 실시예에서, 충전 배터리(9)는 제 1 서브 디바이스(110)에 구비되나, 반드시 이에 한정되어야 하는 것은 아니고, 제 2 서브 디바이스(120)에 구비되는 것도 가능하다.Meanwhile, in the embodiment, the
도 4는 도 3의 스마트 퍼팅 디바이스의 일례로 퍼터(100a1)를 도시한 것으로, 도 4의 (a)는 퍼터를 위에서 내려다본 것이고, 도 4의 (b)는 퍼터를 정면에서 바라본 것이다.FIG. 4 shows a putter 100a1 as an example of the smart putting device of FIG. 3, where (a) of FIG. 4 is a view looking down at the putter from above, and (b) of FIG. 4 is a view of the putter from the front.
도 4를 참조하면, 본 발명의 실시예에 따른 스마트 퍼팅 디바이스(100a)는 퍼터(100a1)일 수 있다. 퍼터(100a1)는 퍼터 헤드(1), 샤프트(2), 그립(3), 영상 획득부(5), 프로세서(7), 출력부(8)를 포함할 수 있다. 퍼터 헤드(1)는 골프 공과 접촉되는 타구면(41)을 형성한다. 이하, 타구면(41)이 대향하는 방향을 전방으로 정의한다.Referring to FIG. 4, the
퍼터 헤드(1)는 그 형태가 어느 한 가지로 한정되어야 하는 것은 아니다. 예를 들어, 퍼터 헤드(1)는 블레이드(blade)형 또는 말렛(mallet)형 중 어느 것도 무방하다.The
샤프트(2)는 퍼터 헤드(1)로부터 상측으로 연장된다. 샤프트(2)의 상단에는 그립(3)이 끼워질 수 있다. 그립(3)의 상단에는 입력부(18)가 구비될 수 있다.The
퍼터 헤드(1)는 샤프트(2)의 하단에 결합될 수 있다. 통상의 퍼터와 마찬가지로 퍼터 헤드(1)는 공구를 이용하여 샤프트(2)로부터 분리될 수 있다. 바람직하게는, 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 구비될 수 있다.The
도 5는 본 발명의 다른 실시예에 따른 퍼터(100a2)를 도시한 것이다. 도 6은 본 발명의 또 다른 실시예들에 따른 퍼터들(100a3, 100a4)을 도시한 것이다.Figure 5 shows a putter 100a2 according to another embodiment of the present invention. Figure 6 shows putters 100a3 and 100a4 according to still other embodiments of the present invention.
도 5를 참조하면, 실시예에 따른 퍼터(100a2)에서, 퍼터 헤드(1)는 전면에 개구부를 갖는 수용실(M)을 형성하는 헤드 하우징(11)과, 상기 개구부에 삽입되며 타구면(41, 도 4 참조.)을 형성하는 타구면 형성체(4)를 포함할 수 있다.Referring to FIG. 5, in the putter 100a2 according to the embodiment, the
영상 획득부(5)는, 수용실(M) 내에 배치되어 영상을 획득하는 카메라(5a)를 포함할 수 있다. 타구면 형성체(4)의 전면 또는 타구면(41)을 형성하는 면에는 카메라(5a)의 렌즈(미도시)와 대응하는 개구부 또는 시창이 형성될 수 있다. 상기 시창에는 렌즈 보호를 위한 투명한 쉴드(shield, 6)가 구비될 수 있다. 쉴드(6)는 강화 유리일 수 있다.The
실시예에 따라 카메라(5a)는 수용실(M)의 외측에 배치될 수도 있다. 예를 들어, 도 6의 (a)에 도시된 바와 같이, 카메라(5a)는 퍼터 헤드(1)의 토우(toe)측에 구비되거나, 도 6의 (b)에 도시된 바와 같이 퍼터 헤드(1)의 상측에 구비될 수 있다. 더 나아가, 카메라(5a)는 평시에는 수용실(M) 내에 수용되어 있다가, 사용자의 수동 조작에 의해 또는 입력부(18)를 통한 제어 명령의 입력에 따라 자동으로 수용실(M)로부터 인출되도록 구성될 수도 있다.Depending on the embodiment, the
프로세서(7)는 수용실(M)에 배치될 수 있다. 그리고, 수용실(M)에는 가속도 센서(50), 충전 배터리(9), 메모리(19) 및 충전부(17) 중 적어도 하나가 더 구비될 수 있다.The
다르게는, 실시예에 따라 가속도 센서(50), 충전 배터리(9), 메모리(19) 및 충전부(17) 중 적어도 하나는 샤프트(2)나 그립(3)에 구비되는 것도 가능하다.Alternatively, depending on the embodiment, at least one of the acceleration sensor 50, the
가속도 센서(50)는 x, y, z축으로 작용하는 중력을 측정하는 센서일 수 있다. 여기서, x, y, z축은, 예시적으로 도 6에 도시된 바와 같이 퍼터 헤드(1)를 기준으로 구성된 상대좌표계로 정의하였다.The acceleration sensor 50 may be a sensor that measures gravity acting on the x, y, and z axes. Here, the x, y, and z axes are defined as relative coordinate systems based on the
퍼터(100a) 또는 퍼터 헤드(1)의 자세는 개개인의 셋업 방식이나, 깃대와 퍼팅 지점 간의 고저차에 따라 쉽게 달라질 수가 있다. 거리 산출을 위해 필요한 획득 영상은 퍼터(100a) 또는 퍼터 헤드(1)가 기 설정된 자세로 정렬되었을 시 구해진 것일 필요가 있다. 실시예에서 프로세서(7)는, 가속도 센서(50)에 의한 감지 결과를 바탕으로 퍼터 헤드(1)가 기 설정된 방향으로 정렬되었는지, 즉, 기준자세인지를 판단하고, 기준자세로 판단된 경우 알림신호를 출력한다.The posture of the
그리고, 상기 알림신호에 따라 출력부(8)는 알림을 출력할 수 있다. 상기 알림을 인지한 사용자가 입력부(18)를 통해 촬영 명령을 입력하면 카메라(5a)에 의해 촬영이 이루어져 영상이 획득될 수 있다.And, the
디스플레이(81)가 구비되는 경우, 디스플레이(81)의 화면은 퍼터 헤드(1)의 상면을 구성할 수 있다. 상기 화면에는 퍼팅거리(D1)가 표시될 수 있다.When the
실시예에 따라, 퍼팅거리(D1)는 스마트 퍼팅 디바이스(100)로부터 홀(21)까지의 수평거리, 즉, 3차원 공간 상에서 스마트 퍼팅 디바이스(100)로부터 홀(21)을 직선으로 연결한 선을 수평면 상에 정투영하였을 시의 길이로 정의될 수 있다.According to the embodiment, the putting distance D1 is the horizontal distance from the smart putting
다르게는, 퍼팅거리는, 도 19에 도시된 바와 같이, 홀(21)로부터 공(25)까지의 수평거리, 즉, 3차원 공간 상에서 스마트 퍼팅 디바이스(100)로부터 공(25)을 직선으로 연결한 선(이때, 스마트 퍼팅 디바이스(100)는 홀(21)과 실질적으로 동일한 지점에 위치한 상태임)을 수평면 상에 정투영하였을 시의 길이(D1)로 정의될 수 있다.Alternatively, the putting distance, as shown in FIG. 19, is the horizontal distance from the
또한, 프로세서(7)는 영상 획득부(5)에 의해 획득된 영상(이하, '획득영상'이라고 함)을 바탕으로 홀(21)과 퍼팅지점 간의 고저차(H2)를 구하고, 이렇게 구해진 고저차(H2)가 퍼팅거리(D1)와 함께 출력부(8)를 통해 출력되도록 제어할 수 있다. 상기 퍼팅지점은 스마트 퍼팅 디바이스(100) 또는 공(25)의 위치일 수 있다.In addition, the
한편, 도 5를 참조하면, 디스플레이(81)는, 프로세서(7)의 제어에 의해, 퍼팅 지점과 홀(21) 간의 높이차 또는 고저차(H2, 도 13 참조.) 및/또는 퍼팅 방향(E) 등을 더 표시할 수 있다.Meanwhile, referring to FIG. 5, the
도 7은 도 3의 스마트 퍼팅 디바이스의 다른 예로 볼마커(100a5)를 도시한 것이다. 볼마커(100a5)는 집어 올릴 볼(공)의 지점을 마크하기 위해 코스 상에 놓아두는 인공물로 정의될 수 있다. 본 발명의 스마트 퍼팅 디바이스(100)는 볼마커(100a5)일 수 있다. 볼마커(100a5)는 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)를 포함할 수 있다.FIG. 7 shows a ball marker 100a5 as another example of the smart putting device of FIG. 3. The ball marker 100a5 can be defined as an artifact placed on the course to mark the point of the ball to be picked up. The
제 2 서브 디바이스(120)가 수평한 바닥에 놓인 상태에서, 제 1 서브 디바이스(110)에 구비된 카메라(5a)는 렌즈의 주축이 수평 방향으로 정렬되도록 구성될 수 있다.When the
제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 실질적으로 전술한 실시예들(100a1 내지 100a4)에 적용된 것과 동일하므로 설명을 생략한다.Since the
도 8은 본 발명의 제 2 실시예에 따른 스마트 퍼팅 디바이스(100b)의 주요부들을 보인 블록도이다. 도 9는 도 8의 스마트 퍼팅 디바이스(100b)의 일례를 도시한 것이다.Figure 8 is a block diagram showing main parts of the smart putting
도 8 내지 도 9를 참조하면, 실시예에 따른 스마트 퍼팅 디바이스(100b1)는 퍼터를 포함할 수 있는데, 도 4 내지 도 6을 참조하여 전술한 퍼터(100a1, 100a2, 100a3, 100a4)와는 다르게 제 1 서브 디바이스(110)만이 퍼터 헤드(1)에 구비되고, 제 2 서브 디바이스(120)는 퍼터와는 분리된 별도의 디바이스를 구성한다.8 to 9, the smart putting device 100b1 according to the embodiment may include a putter, and unlike the putters 100a1, 100a2, 100a3, and 100a4 described above with reference to FIGS. 4 to 6, the smart putting device 100b1 according to the embodiment may include a putter. Only one
제 2 서브 디바이스(120)는, 제 1 서브 디바이스(110)에 구비된 제 1 무선통신모듈(83)과 무선 통신이 가능한 제 2 무선통신모듈(미도시)과, 상기 제 2 무선통신모듈과 프로세서(7)의 동작에 필요한 전원을 공급하기 위한 별도의 충전 배터리(미도시)를 포함할 수 있다.The
제 1 서브 디바이스(110)의 영상 획득부(5)에 의해 획득된 영상 데이터가 무선 통신을 통해 제 2 서브 디바이스(120)의 프로세서(7)에 입력될 수 있다.Image data acquired by the
실시예에 따라, 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 착탈되는 방식으로 구성될 수 있으며, 이 경우, 사용자의 선택에 따라 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 설치된 상태에서 동작하거나, 퍼터 헤드(1)로부터 분리된 상태에서 동작할 수 있다.Depending on the embodiment, the
한편, 제 2 서브 디바이스(120)에서 처리된 퍼팅 정보(예를 들어, 고저차나 퍼팅거리)는 모바일 디바이스(200)로 전송될 수 있다.Meanwhile, putting information (eg, elevation difference or putting distance) processed by the
다르게는, 제 2 서브 디바이스(120) 대신 모바일 디바이스(200, 도 1 참조.)가 그 기능을 대신할 수도 있다.Alternatively, the mobile device 200 (see FIG. 1) may perform the function instead of the
도 10은 도 8의 스마트 퍼팅 디바이스(100b)의 다른 예를 도시한 것이다. 도 10을 참조하면, 실시예에 따른 스마트 퍼팅 디바이스(100b2)는 볼마커를 구성하는 제 1 서브 디바이스(110)와, 상기 볼마커와는 분리된 별도의 디바이스를 구성하는 제 2 서브 디바이스(120)를 포함할 수 있다.FIG. 10 shows another example of the smart putting
제 2 서브 디바이스(120)는, 제 1 서브 디바이스(110)에 구비된 제 1 무선통신모듈(83)과 무선 통신이 가능한 제 2 무선통신모듈(미도시)과, 상기 제 2 무선통신모듈과 프로세서(7)등의 동작에 필요한 전원을 공급하기 위한 별도의 충전 배터리를 포함할 수 있다.The
제 1 서브 디바이스(110)의 영상 획득부(5)에 의해 획득된 영상 데이터가 무선 통신을 통해 제 2 서브 디바이스(120)의 프로세서(7)에 입력될 수 있다.Image data acquired by the
실시예에 따라, 제 2 서브 디바이스(120)는 상기 볼마커에 착탈되는 방식으로 구성될 수 있으며, 이 경우, 사용자의 선택에 따라 제 2 서브 디바이스(120)는 상기 볼마커에 설치된 상태에서 동작하거나, 상기 볼마커로부터 분리된 상태에서 동작할 수 있다.Depending on the embodiment, the
제 2 서브 디바이스(120)는 모바일 디바이스(200)와 통신 가능하게 구비될 수 있다. 이 경우, 제 2 서브 디바이스(120)의 프로세서(7)에 의해 처리된 퍼팅 정보가 모바일 디바이스(200)로 전송된 후 사용자가 인지할 수 있는 형태로 출력될 수 있다.The
한편, 전술한 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스(100)는 획득영상으로부터 구한 깃대(22)에 대한 정보를 바탕으로 퍼팅거리(D1)를 산출할 수 있다. 이하, 도 11 내지 도 14를 참조하여 퍼팅거리(D1)를 구하는 방법을 설명한다.Meanwhile, the smart putting
이하, 스마트 퍼팅 디바이스(100)가 퍼터를 포함하여 구성되는 것을 기준으로 설명하나, 후술하는 설명은 스마트 퍼팅 디바이스(100)가 볼마커를 포함하여 구성되는 경우에도 실질적으로 동일하게 적용될 수 있다.Hereinafter, the description will be made based on the fact that the smart putting
도 11은 수평한 지면에서 구한 것들로써 스마트 퍼팅 디바이스로부터 홀까지의 거리에 따른 획득영상들을 도시한 것이다. 도 12는 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 깃대 이미지와 기준자세로 조정된 상태에서 구한 깃대 이미지를 비교하여 도시한 것이다. 도 13은 (a)는 획득영상에서 보이는 홀과 깃대의 위치를 카메라가 제 1 위치에 있을 시 구한 것과 제 2 위치에 있을 시 구한 것을 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이다. 도 14는 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 홀컵까지의 거리에 대한 깃대 상단의 좌표를 고저차 별로 도시한 것이다.Figure 11 shows acquired images according to the distance from the smart putting device to the hole as obtained on a horizontal ground. Figure 12 shows a comparison between a flagpole image obtained when the smart putting device is not in the standard posture and a flagpole image obtained when the smart putting device is adjusted to the standard posture. Figure 13 (a) shows the positions of the hole and the flagpole visible in the acquired image compared with those obtained when the camera was in the first position and those obtained when the camera was in the second position, and (b) shows the positions of the hole and the flagpole seen in the acquired image. The positional relationship between the camera, the hall, and the flagpole is shown, and (c) shows the positional relationship between the camera, the hall, and the flagpole at the second position. Figure 14 shows the coordinates of the top of the flagpole relative to the distance from the camera to the hole cup by elevation difference in the acquired image taken when the camera was in the reference position.
도 11 내지 도 14를 참조하면, 퍼터 헤드(1)로부터 깃대(22)까지의 수평 거리, 즉, 퍼팅거리(D1)는 획득영상에 표시된 홀(21)과 깃대(22)에 대한 정보로부터 구해질 수 있다. 이하, 도면에서 21'과 22'는 각각 획득영상에 나타난 홀(21)과 깃대(22)의 이미지를 지시한다.11 to 14, the horizontal distance from the
구체적으로, 프로세서(7)는 획득영상에서 홀(21)과 깃대(22)에 각각 대응하는 특징들을 검출하고, 검출된 특징들을 바탕으로 깃대(22) 상단의 좌표 및/또는 홀(21)로부터 깃대(22)의 상단까지의 길이(이하, '깃대 길이'라고 함.)를 구할 수 있다.Specifically, the
영상에서 객체를 탐지하는 것(object detection)은 SIFT(Scale Invariant Feature Transformation), HOG(Histogram of Oriented Gradient), LBP(Local Binary Pattern), Harr-like features, ORB(Oriented FAST and Rotated BRIEF) 등의 여러 방식이 알려져 있다. 이 밖에도 최근에 활발한 연구가 이루어지고 있는 딥러닝(deep learning) 등의 인공지능 기반의 객체 탐지 알고리즘도 유용하다. 프로세서(7)는 이러한 기 공지된 객체 탐지 알고리즘을 이용하여 획득영상에서 홀(21) 및/또는 깃대(22)를 검출할 수 있다.Detecting objects in images involves methods such as SIFT (Scale Invariant Feature Transformation), HOG (Histogram of Oriented Gradient), LBP (Local Binary Pattern), Harr-like features, and ORB (Oriented FAST and Rotated BRIEF). Several methods are known. In addition, artificial intelligence-based object detection algorithms such as deep learning, which have recently been actively studied, are also useful. The
도 11을 참조하면, 프로세서(7)는, 획득영상에서 홀(21)과 깃대(22)를 검출한 것으로부터 깃대(22) 상단의 좌표(y1), 홀(21)로부터 깃대(22)의 상단까지의 길이(즉, 깃대 길이(h1')), 홀(21)의 위치(h2') 중 적어도 하나를 구하고, 이렇게 구해진 값들을 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Referring to FIG. 11, the
획득영상은, 바람직하게는, 퍼터(10)가 기준자세인 상태에서 카메라(5a)에 의해 촬영된 것이다. 프로세서(7)는 가속도 센서(50)의 감지값을 바탕으로 현재 퍼터(10)가 기준자세로 정렬된 상태인지 여부를 결정할 수 있다.The acquired image is preferably captured by the
예를 들어, 기준자세는 가속도 센서(50)의 y축(도 6 참조)이 중력방향으로 정렬된 상태로 정의될 수 있고, 이 경우, 프로세서(7)는 가속도 센서(50)의 x축 값 및 z축 값이 실질적으로 0인 경우 퍼터(10)가 기준자세인 것으로 판단할 수 있다.For example, the reference posture may be defined as a state in which the y-axis (see FIG. 6) of the acceleration sensor 50 is aligned in the direction of gravity, and in this case, the
다르게는, 프로세서(7)는 가속도 센서(50)의 x축 및 z축 측정값들의 크기가 기 설정된 기준값 이내인 경우 퍼터(10)가 기준자세인 것으로 판단할 수 있다. 이 경우, 프로세서(7)는 획득영상에서 가속도 센서(50)의 상기 측정값에 대응하는 x, y, z 축에 회전각을 보정하여 깃대(22)와 홀(21)에 대한 정보를 구하고, 이를 바탕으로 퍼팅거리(D1)를 산출할 수 있다.Alternatively, the
한편, 도 11에서 보이는 바와 같이, 획득영상에서의 깃대 길이는 카메라(5a) 로부터의 거리(D1')에 대해 비선형적으로 변화한다. 실험에 의해 미리 거리(D1')별 깃대 길이 정보가 구축되어 메모리(19)에 저장될 수 있으며, 프로세서(7)는 메모리(19)에 저장된 상기 거리(D1')별 깃대 길이 정보와 획득 영상에서 검출한 깃대 길이(h1', 도 11 내지 도 12 참조)를 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Meanwhile, as shown in FIG. 11, the length of the flagpole in the acquired image changes non-linearly with respect to the distance D1' from the
수평한 지면에 홀(21)과 카메라(5a)가 위치하는 경우 거리 D1'가 퍼팅거리(D1)가 되나, 홀(21)과 카메라(5a) 간에 고저차가 있는 경우에는 거리(D1')을 수평면 상에 정사영한 거리 D1이 퍼팅거리가 된다.If the hole (21) and the camera (5a) are located on a level ground, the distance D1' becomes the putting distance (D1), but if there is an elevation difference between the hole (21) and the camera (5a), the distance (D1') The distance D1 projected on the horizontal plane becomes the putting distance.
거리(D1')에 대한 깃대 길이 정보는 실제 깃대의 길이별로 저장된 것을 수 있다. 즉, 깃대로부터 같은 거리로 떨어진 지점에서 촬영을 하더라도 실제 깃대의 규격(길이)에 따라 획득영상에서 보이는 깃대의 길이가 다를 것이기 때문에, 깃대의 규격에 따라 거리(D1')별 깃대 길이 정보를 구축할 필요가 있는 것이다.The flagpole length information for the distance D1' may be stored for each actual flagpole length. In other words, even if filming is done at a point the same distance away from the flagpole, the length of the flagpole visible in the acquired image will be different depending on the actual standard (length) of the flagpole, so flagpole length information is constructed for each distance (D1') according to the standard of the flagpole. It is necessary to do this.
도 13 내지 도 14를 참조하면, 퍼터 헤드(1)와 홀(21) 사이에 고저차(H2)가 있는 경우, 프로세서(7)는 획득영상에서 깃대(22b)의 길이(h1', 이하, '깃대 길이'라고 함)와 홀(21)의 높이(h2', 이하, '홀 높이'라고 함)를 구하고, 이들을 바탕으로 퍼팅거리(D1)를 산출할 수 있다.Referring to Figures 13 and 14, when there is a height difference (H2) between the putter head (1) and the hole (21), the processor (7) determines the length (h1', hereinafter, ') of the flagpole (22b) in the acquired image. The putting distance (D1) can be calculated by obtaining the 'flagpole length') and the height of the hole 21 (h2', hereinafter referred to as 'hole height').
도 14에 도시된 바와 같이, 카메라(5a)가 기준자세에 있을 시에 촬영한 획득영상들에 근거하여, 카메라(5a)로부터 홀(21)까지의 거리(그래프에서 X축)에 대한 깃대 상단의 좌표(그래프에서 Y축)가 고저차 별로 구해지고, 이렇게 구해진 데이터가 메모리(19)에 미리 저장되어 있을 수 있다. 이러한 데이터는 또한 깃대(22)의 규격(즉, 실제 깃대(22)의 길이)별로 분류되어 저장된 것일 수 있다.As shown in FIG. 14, based on the acquired images taken when the
한편, 획득영상에서 깃대 상단의 높이(y1)는 깃대 길이(h1')와 홀 높이(h2')를 합한 값이기 때문에, 실시예에 따라, 프로세서(7)는 획득영상에서 상단의 높이(y1)와 홀의 높이(h2')를 구한 후, 두 값의 차(y1-h2')로부터 깃대 길이(h1')을 구할 수 있다.Meanwhile, since the height (y1) of the top of the flagpole in the acquired image is the sum of the flagpole length (h1') and the hole height (h2'), depending on the embodiment, the
h1'과 h2'가 구해지면, 프로세서(7)는 이들 값들과 앞서 설명한 메모리(19)에 저장된 데이터를 바탕으로 거리(D1'), 실제 고저차(H2)와 퍼팅거리(D1)를 산출할 수 있다.Once h1' and h2' are obtained, the
도 14는 홀 높이(H2')가 0.3m이고, 깃대 상단의 높이가 y1인 경우 메모리(19)에 저장된 데이터를 바탕으로 거리(D1')를 구하는 것을 예시적으로 보여주고 있으며, 이러한 과정을 식으로 표현하면 다음과 같다.Figure 14 shows an example of calculating the distance (D1') based on the data stored in the memory 19 when the hole height (H2') is 0.3 m and the height of the top of the flagpole is y1, and this process is Expressed in this way, it is as follows:
D1'= f1(h1', h2') .......(1)D1'=f1(h1', h2').......(1)
H2'= f2(h1', h2') .......(2)H2'=f2(h1', h2').......(2)
D1 = f3(D1', H2') .......(3)D1 = f3(D1', H2').......(3)
한편, 도 15는 (a)퍼터 헤드가 바닥에 있을 때와, (b)바닥으로부터 들어 올려졌을 때를 도시한 것이다. 도 10은 (a)퍼터 헤드(또는, 마커)가 바닥에 있을 때 획득 영상에 보이는 깃대와, (b)퍼터 헤드(또는, 마커)가 바닥으로부터 들어 올려졌을 때 획득 영상에 보이는 깃대를 도시한 것이다. 이하, 도 15 내지 도 16을 참조하여, 지면의 굴곡(예를 들어, 언덕)으로 인해 홀 또는 깃대의 하단이 보이지 않는 경우에도 홀까지의 거리와 고저차를 정확하게 측정하는 방법을 설명한다.Meanwhile, Figure 15 shows (a) when the putter head is on the floor and (b) when it is lifted from the floor. Figure 10 shows (a) the flagpole visible in the acquired image when the putter head (or marker) is on the floor, and (b) the flagpole visible in the acquired image when the putter head (or marker) is lifted from the floor. will be. Hereinafter, with reference to FIGS. 15 and 16, a method for accurately measuring the distance to the hole and the elevation difference will be described even when the bottom of the hole or the flagpole is not visible due to the curvature of the ground (e.g., a hill).
한편, 도 14에는 H2'가 0보다 큰 경우를 예로 들었으나, H2'가 0보다 작은 경우의 데이터도 실험에 의해 미리 구하여 메모리(19)에 저장할 수 있음은 물론이다.Meanwhile, in Figure 14, the case where H2' is greater than 0 is given as an example, but of course, data when H2' is less than 0 can also be obtained in advance through experiment and stored in the memory 19.
도 15의 (a)와 같이 홀(21)과 퍼터 헤드(1) 사이에 언덕이 있어 획득영상(도 16의 (a) 참조.)에 홀(21) 또는 깃대(22)의 하단이 보이지 않는 경우, 앞서 설명한 실시예에 따르면 깃대 길이는 획득영상에서 보이는 깃대(22)의 중단(즉, 지면과 깃대(22)가 만나는 지점)으로부터 상단까지의 길이를 바탕으로 구해진다. 이 경우, 언덕에 의해 깃대(22)가 가려지는 부분이 많아질수록 퍼팅거리(D1)의 오차가 커지게 되는 문제가 있다. 이 경우, 퍼팅거리(D1)는 언덕에 의해 가려지지 않는 부분의 깃대 길이를 바탕으로 구해지기 때문이다.As shown in (a) of FIG. 15, there is a hill between the
이와 같은 문제를 보완하기 위해, 본 실시예에 따른 퍼팅거리 측정 방법은, 지면으로부터 퍼터(10)를 들어올려 홀(21) 또는 깃대(22)의 하단이 보이는 상태(도 9의 (b) 참조.)에서 구한 획득영상(도 16의 (b) 참조.)을 바탕으로 프로세서(7)에 의해 퍼팅거리(D1)가 구해진다.In order to compensate for this problem, the method of measuring the putting distance according to this embodiment involves lifting the
이때의 획득영상은 홀(21) 또는 깃대(22)의 하단(즉, 홀(21)과 깃대(22)가 만나는 부분)이 촬영한 것이어야 한다. 사용자가 눈대중으로 퍼터(10)를 적당한 높이까지 들어올려서 촬영을 할 수도 있겠으나, 실시예에 따라 퍼터(10)가 들어올려지는 과정에서 영상(바람직하게는, 동영상)이 촬영되고, 이 과정에서 프로세서(7)가 영상에서 홀(21')이나 깃대(22')의 하단을 식별한 경우 출력부(8)를 통해 알림이 출력되도록 구성되는 것도 가능하다. 상기 알림을 확인한 사용자가 입력부(18)를 통해 촬영 명령을 입력하면, 촬영을 통해 영상이 획득될 수 있다.At this time, the acquired image must be taken from the bottom of the
한편, 본 발명의 일 실시예에 따르면, 지면에 퍼터(10)가 놓인 상태(도 15의 (a) 참조.)에서 구한 제 1 획득영상(도 16의 (a) 참조.)과, 지면으로부터 퍼터(10)를 들어올린 상태(도 15의 (b) 참조.)에서 구한 제 2 획득영상(도 16의 (b) 참조.)을 바탕으로 고저차(H3)를 구할 수 있다.Meanwhile, according to one embodiment of the present invention, the first acquired image (see (a) of FIG. 16) obtained with the
홀(21)과 퍼터 헤드(1) 사이의 높이차, 즉, 고저차(H3)를 구하기 위해서는 홀(21) 또는 깃대(22)의 하단이 보이는 획득영상을 구하여야 한다.In order to obtain the height difference between the
먼저, 도 15의 (b)에 도시된 바와 같이 퍼터(10)를 들어 올린 상태에서 획득영상을 구하고, 이를 바탕으로 홀의 높이(H2)를 구한다.First, as shown in (b) of FIG. 15, the acquired image is obtained while the
홀의 높이 H2는, 도 15의 (b)에 도시된 바와 같이, 획득영상이 구해지는 시점에서의 퍼터 헤드(1)의 위치와 홀(21) 간의 높이차에 해당하는 것이기 때문에, 실제 퍼팅이 이루어지는 지면상의 위치(즉, 공의 위치)와 홀(21) 간의 고저차(H3)을 구하기 위해서는, 앞서 구한 홀의 높이 H2를 퍼터(10)를 들어 올린 높이 T를 이용하여 보정하여야 한다.Since the height H2 of the hole corresponds to the height difference between the position of the
따라서, 퍼터(10)를 들어 올린 높이 T를 구하여야 하는데, 이는 퍼터 헤드(1)가 지면에 놓인 상태(도 15의 (a) 참조)에서 구한 제 1 획득영상(도 16의 (a))에서의 깃대(22')의 위치와 퍼터 헤드(1)를 지면으로부터 들어올린 상태(도 15의 (b) 참조)에서 구한 제 2 획득영상(도 16의 (b))에서의 깃대(22')의 위치를 바탕으로 구해질 수 있다.Therefore, the height T at which the
즉, 프로세서(7)는 상기 제 1 획득영상과 상기 제 2 획득영상에서 각각 깃대(22')를 식별하고, 양 영상들의 비교를 통해 깃대(22')의 변위(t)를 구하고, 이렇게 구한 변위(t)를 바탕으로 홀의 높이(H2)를 보정하여 최종적으로 고저차(H3)을 구할 수 있다.That is, the
한편, 깃대(22')의 변위(t)를 바탕으로 실제로 퍼터(10)가 들어올려진 높이(T)를 구하기 위해서는, 퍼팅거리(D1) 별로 변위(t)와 상승 높이(T)가 매칭된 정보(이하, '퍼팅거리별 변위-상승 높이 정보'라고 함.)를 미리 알고 있어야 하며, 이는 실험에 의해 미리 구해질 수 있는 것으로서 메모리(19)에 기저장된 것일 수 있다.Meanwhile, in order to determine the height (T) at which the
여기서, 퍼팅거리(D1)는 퍼터 헤드(1)로부터 홀(21)까지의 수평거리에 해당하기 때문에 상기 제 2 획득영상으로부터 구해질 수 있으며, 이렇게 구해진 거리 D1과 변위 t를 알면 퍼팅거리별 변위-상승 높이 정보로부터 상승 높이(T)를 구할 수 있다.Here, the putting distance D1 can be obtained from the second acquired image because it corresponds to the horizontal distance from the
그 다음, 프로세서(7)는 앞서 구한 높이 H2와 상승 높이 T를 바탕으로 최종적으로 고저차 H3를 구할 수 있다. (H3=H2-T)Next, the
도 17은 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 설명하기 위한 것으로써, 스마트 퍼팅 디바이스를 홀컵 위치에 놓고 공을 촬영한 영상을 도시한 것이다. 도 18은 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 공의 이미지와 기준자세로 조정된 상태에서 구한 공의 이미지를 비교하여 도시한 것이다. 도 19의 (a)는 획득영상에서 보이는 공을 카메라가 제 1 위치에 있을 시와 제 2 위치에 있을 시를 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라와 공의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라와 공의 위치관계를 도시한 것이다. 도 20은 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 공까지의 거리에 대한 공의 폭을 고저차 별로 도시한 것이다.Figure 17 is for explaining a method of measuring the putting distance using a smart putting device according to another embodiment of the present invention, and shows an image of a ball taken with the smart putting device placed at the hole cup position. Figure 18 shows a comparison between the image of the ball obtained when the smart putting device is not in the standard posture and the image of the ball obtained when the smart putting device is adjusted to the standard posture. Figure 19 (a) shows the ball seen in the acquired image by comparing it when the camera is in the first position and when it is in the second position, and (b) shows the positional relationship between the camera and the ball at the first position. , and (c) shows the positional relationship between the camera and the ball at the second position. Figure 20 shows the width of the ball relative to the distance from the camera to the ball by elevation difference in the acquired image taken when the camera was in the reference position.
도 17 내지 도 20를 참조하면, 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스(100)는 획득영상에서 구한 공(25)에 대한 정보를 바탕으로 퍼팅거리(D1)를 구할 수 있다. 여기서, 획득영상은 스마트 퍼팅 디바이스(100)를 실질적으로 홀(21)의 위치에 놓고 공(25)을 촬영해서 구한 것이다. 이하, 스마트 퍼팅 디바이스(100)가 퍼터를 포함하여 구성되는 것을 기준으로 설명하나, 후술하는 설명은 스마트 퍼팅 디바이스(100)가 볼마커를 포함하여 구성되는 경우에도 실질적으로 동일하게 적용될 수 있다.17 to 20, the smart putting
홀(21)로부터 공(25)까지의 거리(D1, 도 13 참조)에 따라 공(25)의 폭 (W1', 획득영상에서 구한 값임.)이 달라진다. 공(25)이 카메라(5a)로부터 멀어질수록 폭(W1')이 점점 작아지며, 이러한 변화는 미시적으로는 비선형적이다.The width (W1', a value obtained from the acquired image) of the
전술한 실시예들에서와 마찬가지로, 퍼터(10)가 기준자세로 정렬된 상태에서 영상이 획득되며, 도 18에서 공(25', 획득영상에서 보이는 공)은 퍼터(10)가 기준자세로 정렬된 상태에서 영상에서 보이는 공을 표시한 것이다.As in the above-described embodiments, the image is acquired with the
도 18에서 h2'는 퍼터(10)가 기준자세인 상태에서 카메라(5a)에 의해 촬영된 영상에서의 공(25')의 높이이고, w1'은 공(25')의 폭 길이를 표시한 것이다.(이하, w1'을 '공 폭'이라고 함.) 그리고, h2과 w1 은 각각 퍼터(10)가 기준자세로 정렬되기 전에 카메라(5a)에 의해 촬영된 영상에서의 공(25)의 높이와 폭 길이이다.In FIG. 18, h2' is the height of the ball 25' in the image captured by the
실험에 의해 미리 거리(D1')별 공의 폭(w1)에 대한 정보가 구축되어 메모리(19)에 저장될 수 있으며, 프로세서(7)는 메모리(19)에 저장된 정보와 획득 영상에서 검출한 공 폭(w1')을 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Information about the width (w1) of the ball for each distance (D1') can be established in advance through experiment and stored in the memory 19, and the
수평한 지면에 공(25)과 카메라(5a)가 위치하는 경우, 도 19의 (b)에 도시된 바와 같이 거리(D1')가 퍼팅거리(D1)가 되나, 도 19의 (c)에 도시된 바와 같이 공(25)과 카메라(5a) 간에 고저차가 있는 경우에는 거리(D1')을 수평면 상에 정사영한 거리 D1이 퍼팅거리가 된다.When the
도 19 내지 도 20를 참조하면, 퍼터 헤드(1)와 공(25) 사이에 고저차(H2)가 있는 경우, 프로세서(7)는 획득영상에서 공 폭(w1')과 공 높이(h2')를 구하고, 이들을 바탕으로 퍼팅거리(D1)를 산출할 수 있다.19 to 20, when there is a height difference (H2) between the putter head (1) and the ball (25), the processor (7) calculates the ball width (w1') and ball height (h2') in the acquired image. , and based on these, the putting distance (D1) can be calculated.
도 20에 도시된 바와 같이, 카메라(5a)가 기준자세에 있을 시에 촬영한 획득영상들에 근거하여, 카메라(5a)로부터 공(25)까지의 거리(그래프에서 X축)에 대한 공 폭(그래프에서 Y축)이 고저차 별로 구해지고, 이렇게 구해진 데이터가 메모리(19)에 미리 저장되어 있을 수 있다. 도 20에는 H2'가 0보다 큰 경우를 예로 들었으나, H2'가 0보다 작은 경우의 데이터도 실험에 의해 미리 구하여 메모리(19)에 저장할 수 있음은 물론이다.As shown in FIG. 20, based on acquired images taken when the
h2'과 w1'가 구해지면, 프로세서(7)는 이들 값들과 앞서 설명한 메모리(19)에 저장된 데이터를 바탕으로 거리(D1'), 실제 고저차(H2)와 퍼팅거리(D1)를 산출할 수 있다.Once h2' and w1' are obtained, the
도 20은 공 높이(H2')가 0.3m이고, 공 폭이 w1'인 경우 메모리(19)에 저장된 데이터를 바탕으로 거리(D1')를 구하는 것을 예시적으로 보여주고 있으며, 이러한 과정을 식으로 표현하면 다음과 같다.Figure 20 shows an example of calculating the distance (D1') based on the data stored in the memory 19 when the ball height (H2') is 0.3 m and the ball width is w1', and this process is expressed as Eq. Expressed as follows:
D1'= g1(w1', h1') .......(4)D1'=g1(w1', h1').......(4)
H1'= g2(w1', h1') .......(5)H1'=g2(w1', h1').......(5)
D1 = g3(D1', H1') .......(6)D1 = g3(D1', H1') .......(6)
이와 같이 획득영상에 표시된 공(25)을 이용하여 퍼팅거리(D1)를 구하는 방식은, 지면으로부터 돌출된 형상의 공을 식별하여 정보를 얻는 것이기 때문에 지면 상에 위치한 홀(21)을 영상에서 식별하는 것보다 정확도가 뛰어나다.In this way, the method of calculating the putting distance (D1) using the ball (25) displayed on the acquired image is to obtain information by identifying the ball that has a shape protruding from the ground, so the hole (21) located on the ground is identified in the image. The accuracy is superior to that of
특히, 공(25)이 홀(21)보다 낮은 위치에 있는 경우(즉, 오르막 라이), 공(21)의 위치에 퍼터(10)를 놓고 촬영을 하는 경우 홀(21)을 식별하기기 어렵기 때문에, 종래와 같이 홀(21)을 식별하여 거리를 산출하는 방식은 한계가 있다. 이에 반해, 동일한 조건에서 본원 발명은 퍼터(10)를 상대적으로 지대가 높은 홀(21)에 놓고 촬영을 하기 때문에 공(25)을 위에서 내려다보게 되어 식별이 가능하며, 따라서 전술한 방법에 따라 퍼팅거리(D1)를 구할 수 있다.In particular, when the
더 나아가, 반대로 공(25)이 홀(21)보다 높은 위치에 있다고 하더라도, 통상적인 범위의 그린 면적, 그린에 형성된 굴곡 또는 고저차, 공(25)의 반지름(즉, 지면으로부터 공(25)의 중심까지의 높이) 등을 고려할 시 대체적으로 영상에서 공 폭(w1')이 식별 가능하므로, 내리막 라이에서도 퍼팅거리(D1)를 정확하게 측정할 수 있는 효과가 있다.Furthermore, even if the
도 21은 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 도시한 순서도이다. 도 21을 참조하면, 본 발명의 일 실시예에 따른 퍼팅거리 측정 방법은 퍼팅거리 측정 모드를 시작하는 단계(S1), 깃대의 길이를 설정하는 단계(S2), 촬영 자세를 조정하는 단계(S3), 퍼터(10)가 기준자세인지를 판단하는 단계(S4), S3단계의 판단 결과에 따라 퍼터(10)가 기준자세로 정렬되었음을 알리는 단계(S5), 획득영상을 구하는 단계(S6), 획득영상으로부터 퍼팅 정보를 산출하는 단계(S7) 및/또는 S7단계에서 산출된 퍼팅 정보를 출력하는 단계(S8)를 포함할 수 있다.Figure 21 is a flow chart illustrating a method of measuring a putting distance using a smart putting device according to embodiments of the present invention. Referring to Figure 21, the putting distance measurement method according to an embodiment of the present invention includes starting the putting distance measurement mode (S1), setting the length of the flagpole (S2), and adjusting the shooting posture (S3). ), a step of determining whether the
S1단계는, 퍼팅거리 측정 모드에 진입하기 위한 명령이 입력되는 단계이다. 사용자가 입력부(18)를 통해 시작 명령을 입력할 수 있다. 입력부(18)는 퍼터(10)에 구비되어 사용자로부터 각종 제어 명령을 입력 받는 인터페이스를 제공하는 것으로써, 버튼, 스위치, 터치센서, 모션센서 등의 각종 입력 수단을 포함할 수 있다. 실시예에서, 입력부(18)는 그립(3)의 상단에 배치되나, 반드시 이에 한정되어야 하는 것은 아니다.Step S1 is a step in which a command to enter the putting distance measurement mode is input. The user can input a start command through the
S2단계는 깃대길이를 설정하는 단계이다. S1단계에서 입력부(18)를 통한 시작 명령이 입력되면, 프로세서(7)는 디스플레이(81)를 통해 깃대길이(또는, 규격)를 설정할 수 있는 메뉴를 표시할 수 있다. (도 24의 (a) 참조) 사용자는 입력부(18)를 통해 깃대길이(즉, 현재 진행 중인 경기에 사용되고 있는 실제 깃대의 길이)를 선택할 수 있다. 디스플레이(81)가 구비된 경우, 깃대길이를 선택할 수 있는 메뉴가 디스플레이(81)를 통해 표시될 수 있다.Step S2 is the step of setting the flagpole length. When a start command is input through the
다르게는, 스피커(82)를 통해 깃대길이 선택에 대한 안내와 선택 현황을 중계하는 음성이 출력되는 것도 가능하며, 이러한 음성을 네트워크로 전송하기 위한 신호가 무선통신모듈(83)을 통해 출력되는 것도 가능하다.Alternatively, it is possible to output a voice providing guidance on selecting the flagpole length and relaying the selection status through the speaker 82, and a signal for transmitting this voice to the network can also be output through the wireless communication module 83. possible.
한편, 앞서 도 17 내지 도 20를 참조하여 설명한 공(25)에 대한 정보를 이용하는 방식의 스마트 퍼팅 디바이스에서는 S2단계는 필요치 않으므로 생략될 수 있다.Meanwhile, in the smart putting device that uses information about the
S3단계에서는 기준자세로 정렬하기 위해 사용자가 퍼터(10)를 움직이게 되고, 이 과정에서 가속도 센서(50)에 의한 측정이 이루어진다. 프로세서(7)는, 가속도 센서(50)의 측정값을 바탕으로 퍼터(10)가 기준자세로 정렬되었는지를 판단할 수 있다.In step S3, the user moves the
가속도 센서(50)의 측정값이 출력부(8)를 통해 출력될 수 있으며, 이렇게 출력된 값들을 확인하면서 사용자는 퍼터(10)의 자세를 계속하여 수정할 수 있다. 이때, 프로세서(7)는 가속도 센서(50)의 측정값을 바탕으로 퍼터(10)의 x축 회전각(즉, 상하 각도)과 y축 회전각(즉, 좌우 각도)을 계산할 수 있으며, 이들 값들이 실시예에 따라, 디스플레이(81)가 구비된 경우에는 도 24의 (b)에 도시된 바와 같이 표시될 수 있다.The measured value of the acceleration sensor 50 can be output through the
실시예에 따라, 상하 각도와 좌우 각도는 스피커(82)를 통해 출력되거나, 무선통신모듈(83)을 통해 네트워크로 전송될 수 있다.Depending on the embodiment, the vertical angle and the left and right angle may be output through the speaker 82 or transmitted to the network through the wireless communication module 83.
사용자는 출력부(8)를 통해 출력된 상하 각도 및 좌우 각도를 확인하면서 퍼터(10)를 계속하여 움직여 보게 되고, 이 과정에서 변화하는 상하 각도와 좌우 각도가 각각 기준치 이하인 되면, 프로세서(7)는 퍼터 헤드(1)가 기준자세가 된 것으로 판단(S4)하고, 기준자세로 정렬되었음을 알리는 알림이 출력부(8)를 통해 출력되도록 제어할 수 있다. 이하, 출력부(8)로써 디스플레이(81)를 예로써 설명하나, 스피커(82) 또는 무선통신모듈(83)도 가능함은 물론이다.The user continues to move the
이후, 출력부(8)를 통해 출력된 알림을 인지한 사용자가 입력부(18)를 통해 영상획득명령을 인가하면, 프로세서(7)는 상기 영상획득명령에 대응하여 카메라(5a)에 의해 촬영이 이루어지도록 제어하고, 이렇게 촬영된 영상을 퍼팅거리(D1)를 구하는데 사용할 획득영상으로 정의할 수 있다.(S6) S6단계에서 촬영이 완료되면 프로세서(7)는 디스플레이(81)를 통해 촬영 완료 메시지가 출력되도록 제어할 수 있다. (도 24의 (c) 참조)Thereafter, when the user who recognizes the notification output through the
이후, S7단계에서 프로세서(7)는 앞서 설명한 실시예들에 따라 획득영상으로부터 퍼팅 정보를 산출할 수 있다. 상기 퍼팅 정보는 앞서 설명한 고저차(H2, H3) 및 퍼팅거리(D1) 중 적어도 하나를 포함할 수 있다. (도 24의 (d), (e)참조)Thereafter, in step S7, the
프로세서(7)는 상기 퍼팅 정보가 출력부(8)를 통해 출력되도록 제어할 수 있다(S8).The
퍼팅 정보가 출력된 후, 사용자가 실제로 퍼팅을 하기 위한 셋업 자세를 취하게 되면, 프로세서(7)는 현재 퍼터 헤드(1)가 퍼팅방향(이에 대해서는 도 22 내지 도 23을 참조하여 후술 함.)으로 정렬이 되었는지를 판단하고, 그 결과에 따라 출력부(8)를 통해 방향 지시 알림(E, 도 5/ 도 24의 (d), (e) 참조)을 출력할 수 있다.After the putting information is output, when the user actually takes a setup posture for putting, the
예를 들어, 도 24의 (d)와 같이 퍼터 헤드(1)가 퍼팅 방향으로 정렬이 된 경우, 프로세서(7)는 디스플레이(81)를 통해 소정 색(예를 들어, 초록색)의 화살표를 표시하고, 도 24의 (e)와 같이 퍼터 헤드(1)가 기준자세로 정렬되지 않은 경우에는 다른 색(예를 들어, 빨간색)의 화살표가 표시되도록 제어할 수 있다.For example, when the
한편, 도 22 내지 도 23을 참조하면, 본 발명의 일 실시예에 따른 퍼터(10)는 공(25)과 홀(21)을 직선으로 연결하는 선을 기준으로 양쪽에서 각각 구한 제 1 획득영상(M1)과 제 2 획득영상(M2)을 바탕으로 퍼팅 방향을 판단할 수 있다.Meanwhile, referring to FIGS. 22 and 23, the
예를 들어, 도 22에 도시된 바와 같이 공(25)으로부터 홀(21)을 향하는 제 1 방향으로는 경사가 있으나, 상기 제 1 방향과 직교하는 제 2 방향으로는 경사가 없는 경우, 제 1 획득영상(M1)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값은, 각각 제 2 획득영상(M2)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값과 실질적으로 동일하다. 이러한 경우 프로세서(7)는 상기 제 1 방향으로 퍼팅할 것, 즉, 홀(21)을 향해 똑바로 치면 된다는 것을 결과로서 출력할 수 있다.For example, as shown in FIG. 22, when there is a slope in the first direction from the
다른 예로, 도 23에 도시된 바와 같이 공(25)으로부터 홀(21)을 향하는 제 1 방향으로는 경사가 없으나, 상기 제 1 방향과 직교하는 제 2 방향으로는 경사가 있는 경우, 제 1 획득영상(M1)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값은, 제 2 획득영상(M2)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값과 각각 다르게 된다. 이러한 경우 프로세서(7)는 상기 제 2 방향으로의 경사를 고려하여 지대가 높은 쪽으로 퍼팅을 할 것을 결과로서 출력할 수 있다.As another example, as shown in FIG. 23, when there is no slope in the first direction from the
더 나아가, 프로세서(7)는, 제 1 획득영상(M1)에서 구한 공의 Y축 좌표값과 제 2 획득영상(M2)에서 구한 공의 Y축 좌표값의 크기를 비교하여 홀(21)을 향하는 방향에 대해 좌, 우측 중 어느 측으로 어느 정도의 각도로 퍼팅방향을 할 것인지도 판단할 수 있다.Furthermore, the
도 25는 퍼팅거리 측정 방법의 다른 실시예를 설명하기 위한 도면이다. 도 25를 참조하면, 본 실시예에 따른 퍼팅거리 측정 방법은 획득영상에 표현된 색상을 분석하여 홀(21)과 깃대(22)를 식별할 수 있다. 구체적으로, 프로세서(7)는 획득 영상에 표현된 색상을 분석하여 깃대(22)의 윤곽, 깃대(22)의 최상단 지점 및 홀(21)을 검출하고, 이렇게 검출된 결과를 바탕으로 깃대 길이(h1') 및/또는 고저차(h2')를 구할 수 있다.Figure 25 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 25, the putting distance measurement method according to this embodiment can identify the
스마트 퍼팅 디바이스(100)는 레이저를 이용하여 깃발을 인식하는 깃발인식모듈(미도시)를 포함할 수 있다. 상기 깃발인식모듈은 레이저에 의해 깃발이 감지된 경우 이를 짧은 진동으로 알려주는 졸트 기능(JOLT)을 구현하는 것일 수 있다. 졸트 기능은 이미 레이저 거리 측정기에 널리 적용되고 있는 기술이므로 구체적인 설명은 생략한다.The
상기 깃발인식모듈에 의해 깃발이 인식되면, 프로세서(7)는 획득영상에 표현된 색상들을 분석하여 깃발의 윤곽을 검출할 수 있다. 통상적으로 깃발은 먼 거리에서도 용이하게 식별될 수 있도록 배경과 대비를 이루는 색상으로 이루어지므로, 프로세서(7)는 획득 영상을 구성하는 화소들의 색상들을 분석하여 깃발의 윤곽과 깃발 상단의 위치를 검출할 수 있다.When the flag is recognized by the flag recognition module, the
또한, 프로세서(7)는 획득영상에 표현된 색상을 분석하여 깃대(22)와 홀(21)이 만나는 지점을 검출할 수 있으며, 이렇게 구해진 지점(즉, 홀의 위치)과 앞서 구한 깃발 상단의 위치를 바탕으로 획득 영상에서의 깃대 길이(h1')를 구할 수 있다. 더 나아가, 프로세서(7)는 홀의 위치를 바탕으로 고저차(h2')를 구할 수 있다.In addition, the
도 26은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 26을 참조하면, 홀의 위치와 깃발 상단의 위치는 인공지능에 기반한 영상 분석 방법에 의해 구해질 수 있다.Figure 26 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to Figure 26, the location of the hole and the location of the top of the flag can be obtained by an image analysis method based on artificial intelligence.
메모리(19)에는 딥러닝 기반으로 학습된 인공 신경망이 저장될 수 있으며, 프로세서(7)는 상기 인공 신경망을 이용한 획득 영상의 분석 과정을 통해 홀의 위치와 깃발 상단의 위치를 검출할 수 있다. 상기 인공 신경망은 기 알려진 다양한 방식으로 구현될 수 있다.An artificial neural network learned based on deep learning can be stored in the memory 19, and the
예를 들어, 프로세서(7)는 도 26에 도시된 바와 같이, 획득 영상에서 깃대를 인식하여 박스 형태로 깃대가 표현된 영역을 정의할 수 있으며, 여기서, 상기 박스는 홀을 지나는 수평선을 하측 가로로 하고, 깃대의 상단을 지나는 수평선을 상측 가로로 하는 직사각형일 수 있다.For example, as shown in FIG. 26, the
또한, 프로세서(7)는 획득 영상에서 깃발을 인식하여 박스 형태로 깃발이 표현된 영역을 정의할 수 있으며, 이 경우, 깃발의 상단을 지나는 수평선이 직사각형 박스의 상측 가로를 정의할 수 있다.Additionally, the
도 27은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 27을 참조하면, 본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스는 영상 획득부(5)가 스테레오 방식의 2 개의 획득 이미지를 구하도록 구성될 수 있다.Figure 27 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 27, the smart putting device according to an embodiment of the present invention may be configured so that the
구체적으로, 영상 획득부(5)는 수평방향(또는, 좌우방향)으로 일정 거리 이격된 2 개의 카메라를 포함할 수 있다. 같은 위치에서 동일한 대상을 상기 2 개의 카메라를 이용하여 촬영함으로써 시차가 다른 두개의 획득 영상을 구하게 되고, 이렇게 구한 두 개의 획득 영상을 이용하여 프로세서(7)는 퍼팅위치에 대한 홀의 고저차 및/또는 대상까지의 거리(또는, 퍼팅위치로부터 홀까지의 수평거리)를 구할 수 있다.Specifically, the
도 27에서 L1은 좌측에 위치하는 제 1 카메라에 의해 획득된 제 1 획득 영상이고, R1은 우측에 위치하는 제 2 카메라에 의해 획득된 제 2 획득 영상이다.In FIG. 27, L1 is the first acquired image acquired by the first camera located on the left, and R1 is the second acquired image acquired by the second camera located on the right.
프로세서(7)는 상기 제 1 획득 영상과 상기 제 2 획득 영상을 바탕으로 Disparity Map 또는 Depth Map을 구할 수 있다.The
통상적으로 이러한 맵들을 생성하는 데에는 매우 큰 연산량이 필요하기 때문에, 바람직하게는, 프로세서(7)는 제 1, 2 획득 영상에서 각각 깃대(또는, 깃발) 및/또는 공(25)만을 식별하고, 이들에 대한 차이(disparity)만을 맵으로 생성할 수 있다. 획득 영상에서 깃대 또는 공을 식별하는 것은 인공지능 알고리즘에 의해 이루어질 수 있다.Since generating these maps typically requires a very large amount of computation, preferably, the
실시예에 따라, 차이(disparity)는 양 영상에서의 밝기 차일 수 있다. 프로세서(7)는 획득영상의 밝기 정보를 분석할 수 있다. 색상을 제외하고 밝기만을 비교할 시 영상에서 표현된 객체들은 어두울수록 멀리 떨어진 것이다. 프로세서(7)는 제 1 획득 영상으로부터 제 1 밝기 정보를 구하고, 제 2 획득 영상으로부터 제 2 밝기 정보를 구한 후, 제 1, 2 밝기 정보들의 차이를 바탕으로 타겟(예를 들어, 깃대나 공)까지의 거리를 구할 수 있다.Depending on the embodiment, the disparity may be a difference in brightness between both images. The
참고로, 도 27에서 L2는 제 1 획득 영상을 밝기 정보를 이용하여 처리한 영상이고, R2는 제 2 획득 영상을 밝기 정보를 이용하여 처리한 영상이다.For reference, in FIG. 27, L2 is an image obtained by processing the first acquired image using brightness information, and R2 is an image obtained by processing the second acquired image using brightness information.
색상이나, 형태 등의 영상을 구성하는 다양한 정보들 중에서, 상대적으로 데이터량이 적은 밝기 정보를 이용하여 거리를 구하기 때문에 연산량을 줄일 수 있는 효과가 있다.Among the various information that constitutes an image, such as color and shape, the distance is calculated using brightness information, which has a relatively small amount of data, which has the effect of reducing the amount of calculation.
도 28은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 28을 참조하면, 영상 획득부(5)는 좌우(또는, 수평) 및 상하(또는, 수직)로 소정 거리 이격된 2 개의 카메라를 포함할 수 있다.Figure 28 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 28, the
같은 위치에서 동일한 대상을 상기 2 개의 카메라를 이용하여 촬영함으로써 시차가 다른 두개의 획득 영상을 구하게 되고, 이렇게 구한 두 개의 획득 영상에서 프로세서(7)는 깃대의 좌우 편차(xa) 및 상하 편차(ya)를 구하고, 구해진 값들을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및/또는 깃대까지의 거리(또는, 퍼팅위치로부터 홀까지의 수평거리)를 구할 수 있다.By shooting the same object at the same location using the two cameras, two acquired images with different time differences are obtained, and from the two acquired images obtained in this way, the
Claims (20)
상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.An image acquisition unit that acquires images of a hole and a flagpole inserted into the hole; and
Identify the hole in the image acquired by the image acquisition unit to obtain the elevation difference of the hole with respect to the putting position, identify the flagpole in the image to obtain the length of the flagpole, and obtain the height difference and the length of the flagpole based on the elevation difference and the length of the flagpole. A smart putting device including a processor that calculates the horizontal distance from the putting position to the hole.
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함하는 스마트 퍼팅 디바이스.According to claim 1,
A smart putting device further comprising an output unit that outputs at least one of the elevation difference and the horizontal distance.
상기 출력부는,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 시각적으로 표시하는 디스플레이를 포함하는 스마트 퍼팅 디바이스.According to claim 2,
The output unit,
A smart putting device including a display that visually displays at least one of the elevation difference and the horizontal distance.
가속도 센서를 더 포함하고,
상기 프로세서는,
상기 가속도 센서의 감지값을 바탕으로 상기 영상 획득부가 기 설정된 기준자세로 정렬되었는지를 판단하고, 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력하는 스마트 퍼팅 디바이스.According to claim 1,
Further comprising an acceleration sensor,
The processor,
A smart putting device that determines whether the image acquisition unit is aligned to a preset reference posture based on the detection value of the acceleration sensor, and outputs a notification through the output unit if it is determined to be aligned.
사용자로부터 소정의 명령을 입력받는 입력부를 더 포함하고,
상기 프로세서는,
상기 알림이 출력된 후 상기 입력부를 통해 촬영 명령이 입력되면, 상기 영상 획득부를 통해 영상이 획득되도록 제어하는 스마트 퍼팅 디바이스.According to claim 4,
It further includes an input unit that receives a predetermined command from the user,
The processor,
A smart putting device that controls to acquire an image through the image acquisition unit when a shooting command is input through the input unit after the notification is output.
상기 프로세서는,
상기 영상 획득부에 의해 획득된 영상을, 상기 가속도 센서의 감지값을 바탕으로 보정하고, 보정된 영상에서 상기 깃대의 길이를 구하는 스마트 퍼팅 디바이스.According to claim 5,
The processor,
A smart putting device that corrects the image acquired by the image acquisition unit based on the detection value of the acceleration sensor and determines the length of the flagpole from the corrected image.
상기 프로세서는,
상피 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 구한 제 1 획득영상과, 상기 스마트 퍼팅 디바이스가 상기 지면으로부터 소정 거리 이격된 상태에서 구한 제 2 획득영상을 바탕으로 상기 고저차를 구하는 스마트 퍼팅 디바이스.According to claim 1,
The processor,
Smart putting to obtain the height difference based on the first acquired image obtained through the image acquisition unit while the epithelium smart putting device is placed on the ground, and the second acquired image obtained while the smart putting device is spaced a predetermined distance from the ground. device.
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부; 및
골프 퍼터용 퍼터 헤드를 더 포함하고,
상기 프로세서, 영상 획득부 및 출력부는 상기 퍼터 헤드에 배치되는 스마트 퍼팅 디바이스.According to claim 1,
an output unit that outputs at least one of the elevation difference and the horizontal distance; and
Further comprising a putter head for a golf putter,
A smart putting device where the processor, image acquisition unit, and output unit are disposed on the putter head.
가속도 센서; 및
상기 고저차 및 수평 거리에 대한 정보를 무선으로 전송하는 무선통신모듈을 더 포함하고,
상기 가속도 센서 및 상기 무선통신모듈은 상기 퍼터 헤드에 배치되는 스마트 퍼팅 디바이스.According to claim 8,
acceleration sensor; and
It further includes a wireless communication module that wirelessly transmits information about the elevation difference and horizontal distance,
The acceleration sensor and the wireless communication module are a smart putting device disposed on the putter head.
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부; 및
골프 퍼터용 퍼터 헤드를 더 포함하고,
상기 영상 획득부는 상기 퍼터 헤드에 배치되고,
상기 퍼터 헤드와 분리된 것으로서, 상기 프로세서 및 상기 출력부를 포함하는 서브 디바이스를 더 포함하는 스마트 퍼팅 디바이스.According to claim 1,
an output unit that outputs at least one of the elevation difference and the horizontal distance; and
Further comprising a putter head for a golf putter,
The image acquisition unit is disposed on the putter head,
A smart putting device that is separate from the putter head and further includes a sub-device including the processor and the output unit.
상기 퍼터 헤드에 배치되고 상기 영항 획득부에 의해 획득된 영상을 무선으로 전송하는 제 1 무선통신모듈; 및
상기 서브 디바이스에 배치되고, 상기 제 1 무선통신모듈과 통신하는 제 2 무선통신모듈을 더 포함하는 스마트 퍼팅 디바이스.According to claim 10,
a first wireless communication module disposed on the putter head and wirelessly transmitting the image acquired by the zero-angular acquisition unit; and
A smart putting device further comprising a second wireless communication module disposed on the sub-device and communicating with the first wireless communication module.
상기 영상 획득부에 의해 획득된 영상에서 상기 공을 식별하여, 상기 공과 상기 홀 간의 고저차 및 상기 공의 너비를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 공까지의 수평 거리를 구하는 프로세서를 포함하는 스마트 퍼팅 디바이스.An image acquisition unit that acquires an image of the ball at the point where the hole is located; and
A processor that identifies the ball in the image acquired by the image acquisition unit, obtains the elevation difference between the ball and the hole and the width of the ball, and determines the horizontal distance to the ball based on the elevation difference and the width of the ball. Smart putting device, including:
볼마커를 더 포함하고,
상기 영상 획득부 및 상기 프로세서는 상기 볼마커에 배치되는 스마트 퍼팅 디바이스.According to claim 12,
Includes more ball markers,
The image acquisition unit and the processor are smart putting devices disposed on the ball marker.
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함하는 스마트 퍼팅 디바이스.According to claim 13,
A smart putting device further comprising an output unit that outputs at least one of the elevation difference and the horizontal distance.
상기 출력부는,
상기 볼마커에 배치되는 스마트 퍼팅 디바이스.According to claim 14,
The output unit,
A smart putting device placed on the ball marker.
상기 볼마커와 분리된 서브 디바이스를 더 포함하고,
상기 출력부는,
상기 서브 디바이스에 배치되는 스마트 퍼팅 디바이스.According to claim 14,
Further comprising a sub device separated from the ball marker,
The output unit,
A smart putting device disposed on the sub-device.
상기 프로세서는,
인공지능 기반의 객체 탐지 알고리즘을 이용하여 상기 영상으로부터 상기 홀과 상기 깃대를 식별하는 스마트 퍼팅 디바이스.According to claim 1,
The processor,
A smart putting device that identifies the hole and the flagpole from the image using an artificial intelligence-based object detection algorithm.
상기 프로세서는,
상기 영상에 표현된 색상을 분석하여 상기 홀과 상기 깃대를 식별하는 스마트 퍼팅 디바이스.According to claim 1,
The processor,
A smart putting device that identifies the hole and the flagpole by analyzing the colors expressed in the image.
상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.An image acquisition unit including a first camera and a second camera spaced apart by a predetermined distance in the horizontal direction; and
Based on the first acquired image captured by the first camera and the second acquired image captured by the second camera while the image acquisition unit is at the same position, the height difference of the hole with respect to the putting position and the putting position A smart putting device including a processor that calculates the horizontal distance to the hole.
상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 상기 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.
An image acquisition unit including a first camera and a second camera spaced apart from each other by a predetermined distance in the horizontal and vertical directions; and
The elevation difference of the hole with respect to the putting position and the putting position based on the first acquired image captured by the first camera and the second acquired image captured by the second camera while the image acquisition unit is at the same position. A smart putting device including a processor that calculates the horizontal distance from to the hole.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220060741 | 2022-05-18 | ||
KR1020220060741 | 2022-05-18 | ||
PCT/KR2023/006729 WO2023224399A1 (en) | 2022-05-18 | 2023-05-18 | Smart putting device calculating putting distance on basis of image captured by camera, and method of measuring putting distance using same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230162918A true KR20230162918A (en) | 2023-11-29 |
Family
ID=88835802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237017603A KR20230162918A (en) | 2022-05-18 | 2023-05-18 | A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20230162918A (en) |
WO (1) | WO2023224399A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200445184Y1 (en) * | 2007-07-26 | 2009-07-06 | 주식회사 한국센시스 | A sensor for golf club and a golf club using the same |
JP6438899B2 (en) * | 2016-01-21 | 2018-12-19 | 株式会社テクノクラフト | Golf practice equipment |
KR102295126B1 (en) * | 2019-05-02 | 2021-08-31 | (주) 이룸디엔티 | Putting assistance apparatus based on green information providing putting guide and control method thereof |
KR102456335B1 (en) * | 2020-10-27 | 2022-10-20 | 알바이오텍 주식회사 | Device for measuring golf distance and green slope |
KR102304787B1 (en) * | 2021-03-31 | 2021-09-23 | 박광수 | Ball marker providing putting line informaion on the green |
-
2023
- 2023-05-18 WO PCT/KR2023/006729 patent/WO2023224399A1/en unknown
- 2023-05-18 KR KR1020237017603A patent/KR20230162918A/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
WO2023224399A1 (en) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101577764B1 (en) | Providing Method of Predicted Putting Trace of Golf Green in Mobile Terminal | |
JP5932059B2 (en) | Golf club head measuring device | |
JP5646263B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
KR101898782B1 (en) | Apparatus for tracking object | |
CN105288982B (en) | The motion state measure device of golf | |
JP2019506260A (en) | Method and apparatus for performing motion analysis of sports equipment | |
KR102215037B1 (en) | System and apparatus to provide distance measurement for golf | |
KR20190077081A (en) | Golf Ball Launch Monitor Target Alignment Method and System | |
KR102431813B1 (en) | Putting-guide apparatus and putting guide method using the same | |
KR102102290B1 (en) | Apparatus for analyzing green lie | |
CN107560637A (en) | Wear display device calibration result verification method and wear display device | |
KR102050378B1 (en) | Green information providing device by direct 3-dimensional image obtain and method | |
US20230036888A1 (en) | Electronic golfing aid systems and methods thereof | |
CN107106900A (en) | Detection means, detecting system, motion analysis system, recording medium and analysis method | |
KR20170119644A (en) | Apparatus and method for putting assist | |
CN109948630A (en) | Recognition methods, device, system and the storage medium of target sheet image | |
KR20230162918A (en) | A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same | |
KR102202594B1 (en) | Putting guide providing system and method thereof | |
US20210008430A1 (en) | Trajectory assistance systems and methods thereof | |
KR102526640B1 (en) | Golf glasses providing putting information and putting information providing apparatus including the same | |
KR102456335B1 (en) | Device for measuring golf distance and green slope | |
KR102651770B1 (en) | Portable guise apparatus for golf putting | |
KR101938639B1 (en) | Green information providing method using picture and terminal thereof | |
US20200289906A1 (en) | Auxiliary apparatus for golf putter | |
JP7076031B1 (en) | Ball position identification system, ball position identification method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal |