KR20230162918A - A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same - Google Patents

A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same Download PDF

Info

Publication number
KR20230162918A
KR20230162918A KR1020237017603A KR20237017603A KR20230162918A KR 20230162918 A KR20230162918 A KR 20230162918A KR 1020237017603 A KR1020237017603 A KR 1020237017603A KR 20237017603 A KR20237017603 A KR 20237017603A KR 20230162918 A KR20230162918 A KR 20230162918A
Authority
KR
South Korea
Prior art keywords
putting
smart
hole
image
flagpole
Prior art date
Application number
KR1020237017603A
Other languages
Korean (ko)
Inventor
김영국
Original Assignee
김영국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영국 filed Critical 김영국
Publication of KR20230162918A publication Critical patent/KR20230162918A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B57/00Golfing accessories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B37/00Solid balls; Rigid hollow balls; Marbles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B37/00Solid balls; Rigid hollow balls; Marbles
    • A63B37/0003Golf balls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B57/00Golfing accessories
    • A63B57/30Markers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B57/00Golfing accessories
    • A63B57/30Markers
    • A63B57/353Golf ball position markers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B57/00Golfing accessories
    • A63B57/30Markers
    • A63B57/357Markers for golf cups or holes, e.g. flags
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B57/00Golfing accessories
    • A63B57/40Golf cups or holes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3676Training appliances or apparatus for special sports for golf for putting
    • A63B69/3685Putters or attachments on putters, e.g. for measuring, aligning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B2071/0694Visual indication, e.g. Indicia
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/17Counting, e.g. counting periodical movements, revolutions or cycles, or including further data processing to determine distances or speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/18Inclination, slope or curvature
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/20Distances or displacements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/40Acceleration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/50Wireless data transmission, e.g. by radio transmitters or telemetry

Abstract

본 발명의 스마트 퍼팅 디바이스는, 홀과, 상기 홀에 꽂힌 깃대의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.The smart putting device of the present invention includes an image acquisition unit that acquires an image of a hole and a flagpole inserted into the hole, identifies the hole in the image acquired by the image acquisition unit, and obtains the elevation difference of the hole with respect to the putting position, It includes a processor that identifies the flagpole in the image, obtains the length of the flagpole, and calculates the horizontal distance from the putting position to the hole based on the elevation difference and the length of the flagpole.

Description

카메라를 통해 촬영한 영상을 바탕으로 퍼팅거리를 구하는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법 A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same

본 발명은 골프용 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법에 관한 것으로, 보다 상세하게는, 카메라를 이용하여 촬영한 영상을 바탕으로 퍼팅거리를 측정할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법에 관한 것이다.The present invention relates to a smart putting device for golf and a method of measuring putting distance using the same. More specifically, a smart putting device capable of measuring putting distance based on an image captured using a camera and measuring putting distance using the same. It's about method.

일반적으로 골프용 퍼터는, 퍼팅 그린에서 홀에 골프 공을 넣을 때 사용하는 골프 채이다. 정확한 퍼팅을 위해서는 공으로부터 홀까지의 거리와 그린의 지형, 그린 속도 등을 정확하게 파악하여야 하는데, 이는 고도의 숙련이 필요하다.Generally, a golf putter is a golf club used to put a golf ball into a hole on a putting green. In order to putt accurately, you must accurately understand the distance from the ball to the hole, the topography of the green, and the speed of the green, which requires a high level of skill.

이런 이유로, 그린에 대한 정확한 정보와 경험을 가지고 있는 캐디를 동반하여 경기를 하는 경우가 일반적인데, 최근, 골프의 대중화와 인기에 힘입어 골프 인구가 증가하여 캐디가 부족할 뿐만 아니라, 캐디 동반에 수반되는 비용도 만만치 않아 캐디를 동반하지 않아도 플레이가 허용되는 골프장들도 늘고 있다.For this reason, it is common to play a game accompanied by a caddy who has accurate information and experience about the green. However, recently, due to the popularization and popularity of golf, the golf population has increased, and not only is there a shortage of caddies, but the accompanying caddy is also required. Because the cost is so high, the number of golf courses that allow play without a caddy is increasing.

그런데, 캐디를 동반하지 않고 플레이를 하는 경우, 초급자들이 퍼팅거리나 방향 등의 그린 정보를 파악하는 것이 매우 어려워 경기의 재미가 반감될 뿐 아니라 타수가 늘어 경기 운영이 지체됨으로써 다른 팀들에게도 피해를 주는 문제가 있다. 따라서, 퍼팅을 하는데 필요한 정보를 골퍼에게 제공함으로써 혼자서도 정확한 퍼팅을 할 수 있도록 하는 장비가 필요하다.However, when playing without a caddy, it is very difficult for beginners to understand green information such as putting distance and direction, which not only reduces the fun of the game, but also causes damage to other teams by increasing the number of strokes and delaying the game. there is a problem. Therefore, there is a need for equipment that provides golfers with the information necessary for putting, allowing them to make accurate putting even on their own.

미국등록특허 US8608595호(이하, '종래기술'이라고 함.)는, 사용자가 의도한 퍼팅 방향(즉, 퍼터로부터 직선으로 홀을 향하는 방향)과 실제 퍼팅이 이루어지는 방향(즉, 퍼팅이 이루어지는 순간에 퍼터 헤드의 전면에 수직한 방향)이 디스플레이에 표시되는 퍼터를 개시하고 있다.US Patent No. US8608595 (hereinafter referred to as 'prior art') is a combination of the user's intended putting direction (i.e., the direction from the putter toward the hole in a straight line) and the actual putting direction (i.e., at the moment the putting is made). A putter in which the direction perpendicular to the front of the putter head (direction perpendicular to the front of the putter head) is displayed on the display is disclosed.

종래기술은 홀의 위치 정보를 구하기 위해 카메라가 획득한 영상을 활용하고 있는데, 특히, 상기 영상에 표현된 홀의 크기(즉, 직경)를 바탕으로 퍼터로부터 홀까지의 거리를 구한다.The prior art utilizes images acquired by a camera to obtain hole location information. In particular, the distance from the putter to the hole is obtained based on the size (i.e., diameter) of the hole expressed in the image.

그런데, 통상적으로 퍼팅이 주로 이루어지는 그린에는 굴곡(undulation)이 있기 때문에 카메라가 퍼터 헤드에 위치하는 경우 그린 상황에 따라서는 홀을 촬영하기 어려워 홀까지의 정확한 거리를 구할 수 없는 문제가 있다. 이러한 문제를 해결하기 위해 종래기술은 카메라를 샤프트에 설치하였으나, 이 경우, 샤프트에 많은 무게가 부여되기 때문에 퍼팅 스트로크에 영향을 미쳐 경기력을 저하시키는 문제가 있을 뿐만 아니라, 카메라와 디스플레이가 사용자의 시야를 가려 퍼팅 동작을 방해하는 문제가 있었다.However, since the green where putting is usually performed has undulations, it is difficult to photograph the hole depending on the green situation when the camera is positioned on the putter head, so there is a problem in that the exact distance to the hole cannot be obtained. To solve this problem, the prior art installed a camera on the shaft, but in this case, a lot of weight is given to the shaft, which not only affects the putting stroke and reduces performance, but also causes the camera and display to interfere with the user's field of view. There was a problem with blocking the putting action.

본 발명이 해결하고자 하는 과제는, 첫째, 카메라를 이용해 획득한 영상을 이용하여 홀까지의 거리를 구하는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.The problem that the present invention aims to solve is, first, to provide a smart putting device that calculates the distance to the hole using an image acquired using a camera and a method of measuring the putting distance using the same.

둘째, 카메라로부터 획득한 영상을 통해 홀까지의 거리를 구하되, 상기 카메라를 퍼터 헤드에 구비함으로써 상기 카메라의 부가로 인해 퍼터의 무게 중심이 지면에서 수직한 방향으로 이동되는 것을 억제한 스마트 퍼팅 디바이스를 제공하는 것이다.Second, a smart putting device that calculates the distance to the hole through an image obtained from a camera, and prevents the center of gravity of the putter from moving in a vertical direction from the ground due to the addition of the camera by providing the camera to the putter head. is to provide.

셋째, 지면의 굴곡으로 인해 카메라로 홀을 촬영할 수 없는 경우에도, 홀까지의 거리를 상당한 정확도로 측정할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.Third, it provides a smart putting device that can measure the distance to the hole with considerable accuracy even when the hole cannot be photographed with a camera due to the curvature of the ground, and a method of measuring the putting distance using the same.

넷째, 카메라를 이용하여 퍼터로부터 홀까지의 거리와 퍼팅 위치와 홀 간의 고저차를 구할 수 있는 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법을 제공하는 것이다.Fourth, we provide a smart putting device that can use a camera to obtain the distance from the putter to the hole and the elevation difference between the putting position and the hole, and a method of measuring the putting distance using the same.

본 발명의 스마트 퍼팅 디바이스는, 홀과, 상기 홀에 꽂힌 깃대의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.The smart putting device of the present invention includes an image acquisition unit that acquires an image of a hole and a flagpole inserted into the hole, identifies the hole in the image acquired by the image acquisition unit, and obtains the elevation difference of the hole with respect to the putting position, It includes a processor that identifies the flagpole in the image, obtains the length of the flagpole, and calculates the horizontal distance from the putting position to the hole based on the elevation difference and the length of the flagpole.

상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함할 수 있다.It may further include an output unit that outputs at least one of the height difference and the horizontal distance.

상기 출력부는, 상기 수평 거리 및 상기 고저차 중 적어도 하나를 시각적으로 표시하는 디스플레이를 포함할 수 있다.The output unit may include a display that visually displays at least one of the horizontal distance and the elevation difference.

상기 스마트 퍼팅 디바이스는, 가속도 센서를 더 포함할 수 있고, 상기 프로세서는, 상기 가속도 센서의 감지값을 바탕으로 상기 영상 획득부가 기 설정된 기준자세로 정렬되었는지를 판단하고, 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력할 수 있다.The smart putting device may further include an acceleration sensor, and the processor determines whether the image acquisition unit is aligned to a preset reference posture based on the detection value of the acceleration sensor, and outputs an output when determined to be aligned. Notifications can be output through the unit.

상기 스마트 퍼팅 디바이스는, 사용자로부터 소정의 명령을 입력받는 입력부를 더 포함할 수 있고, 상기 프로세서는, 상기 알림이 출력된 후 상기 입력부를 통해 촬영 명령이 입력되면, 상기 영상 획득부를 통해 영상이 획득되도록 제어할 수 있다.The smart putting device may further include an input unit that receives a predetermined command from the user, and the processor acquires an image through the image acquisition unit when a shooting command is input through the input unit after the notification is output. It can be controlled as much as possible.

상기 프로세서는, 상기 영상 획득부에 의해 획득된 영상을, 상기 가속도 센서의 감지값을 바탕으로 보정하고, 보정된 영상에서 상기 깃대의 길이를 구할 수 있다.The processor may correct the image acquired by the image acquisition unit based on the detection value of the acceleration sensor and obtain the length of the flagpole from the corrected image.

상기 프로세서는, 상피 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 구한 제 1 획득영상과, 상기 스마트 퍼팅 디바이스가 상기 지면으로부터 소정 거리 이격된 상태에서 구한 제 2 획득영상을 바탕으로 상기 고저차를 구할 수 있다.The processor determines the elevation difference based on a first acquired image obtained through the image acquisition unit while the epithelium smart putting device is placed on the ground, and a second acquired image obtained while the smart putting device is spaced a predetermined distance from the ground. can be obtained.

상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부와, 골프 퍼터용 퍼터 헤드를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance, and a putter head for a golf putter.

상기 프로세서, 영상 획득부 및 출력부는 상기 퍼터 헤드에 배치될 수 있다.The processor, image acquisition unit, and output unit may be disposed on the putter head.

상기 스마트 퍼팅 디바이스는, 가속도 센서와, 상기 고저차 및 수평 거리에 대한 정보를 무선으로 전송하는 무선통신모듈을 더 포함할 수 있다.The smart putting device may further include an acceleration sensor and a wireless communication module that wirelessly transmits information about the elevation difference and horizontal distance.

상기 가속도 센서 및 상기 무선통신모듈은 상기 퍼터 헤드에 배치될 수 있다.The acceleration sensor and the wireless communication module may be placed on the putter head.

상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부와, 골프 퍼터용 퍼터 헤드를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance, and a putter head for a golf putter.

상기 영상 획득부는 상기 퍼터 헤드에 배치될 수 있다. 상기 스마트 퍼팅 디바이스는, 상기 퍼터 헤드와 분리된 것으로서, 상기 프로세서 및 상기 출력부를 포함하는 서브 디바이스를 더 포함할 수 있다.The image acquisition unit may be disposed on the putter head. The smart putting device is separate from the putter head and may further include a sub-device including the processor and the output unit.

상기 스마트 퍼팅 디바이스는, 상기 퍼터 헤드에 배치되고 상기 영항 획득부에 의해 획득된 영상을 무선으로 전송하는 제 1 무선통신모듈과, 상기 서브 디바이스에 배치되고, 상기 제 1 무선통신모듈과 통신하는 제 2 무선통신모듈을 더 포함할 수 있다.The smart putting device includes a first wireless communication module disposed on the putter head and wirelessly transmitting an image acquired by the zero-angular acquisition unit, and a first wireless communication module disposed on the sub-device and communicating with the first wireless communication module. 2 It may further include a wireless communication module.

본 발명의 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 홀이 위치한 지점에서 공의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 영상에서 상기 공을 식별하여, 상기 공과 상기 홀 간의 고저차 및 상기 공의 너비를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 공까지의 수평 거리를 구하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit that acquires an image of the ball at a point where the hole is located, identifies the ball in the image acquired by the image acquisition unit, and identifies the ball and the hole. It includes a processor that obtains the elevation difference and the width of the ball, and calculates the horizontal distance to the ball based on the elevation difference and the width of the ball.

상기 스마트 퍼팅 디바이스는, 볼마커를 더 포함할 수 있고, 상기 영상 획득부 및 상기 프로세서는 상기 볼마커에 배치될 수 있다.The smart putting device may further include a ball marker, and the image acquisition unit and the processor may be disposed on the ball marker.

상기 스마트 퍼팅 디바이스는, 상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함할 수 있다.The smart putting device may further include an output unit that outputs at least one of the elevation difference and the horizontal distance.

상기 출력부는, 상기 볼마커에 배치될 수 있다.The output unit may be placed on the ball marker.

상기 스마트 퍼팅 디바이스는, 상기 볼마커와 분리된 서브 디바이스를 더 포함할 수 있고, 상기 출력부는, 상기 서브 디바이스에 배치될 수 있다.The smart putting device may further include a sub-device separated from the ball marker, and the output unit may be disposed in the sub-device.

상기 프로세서는, 인공지능 기반의 객체 탐지 알고리즘을 이용하여 상기 영상으로부터 상기 홀과 상기 깃대를 식별할 수 있다.The processor may identify the hole and the flagpole from the image using an artificial intelligence-based object detection algorithm.

상기 프로세서는, 상기 영상에 표현된 색상을 분석하여 상기 홀과 상기 깃대를 식별할 수 있다.The processor may identify the hole and the flagpole by analyzing the colors expressed in the image.

본 발명의 또 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 수평 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부와, 상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit having a first camera and a second camera spaced apart by a predetermined distance in the horizontal direction, and the first camera with the image acquisition unit being at the same position. It includes a processor that calculates the elevation difference of the hole with respect to the putting position and the horizontal distance from the putting position to the hole based on the first acquired image captured by and the second acquired image captured by the second camera.

본 발명의 또 다른 측면에 따르면, 스마트 퍼팅 디바이스는, 수평 및 수직 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부와, 상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 상기 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함한다.According to another aspect of the present invention, a smart putting device includes an image acquisition unit having a first camera and a second camera spaced apart by a predetermined distance in the horizontal and vertical directions, and the image acquisition unit being at the same position. 1. A processor that calculates the height difference of the hole with respect to the putting position and the horizontal distance from the putting position to the hole based on the first acquired image captured by the camera and the second acquired image captured by the second camera. Includes.

본 발명의 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정방법은, (a) 영상 획득부에 의해 전방의 영상이 획득되는 단계와, (b) 상기 영상을 바탕으로 퍼팅거리를 구하는 단계와, (c) 상기 퍼팅거리를 출력부를 통해 출력하는 단계를 포함한다.The putting distance measurement method using the smart putting device of the present invention includes the steps of (a) acquiring a front image by an image acquisition unit, (b) calculating the putting distance based on the image, and (c) the step of obtaining the putting distance based on the image. It includes the step of outputting the putting distance through an output unit.

상기 (a)단계는, (a-1) 가속도 센서의 감지값을 바탕으로 스마트 퍼팅 디바이스가 기 설정된 기준자세로 정렬되었는지를 판단하는 단계와, (a-2) 상기 (a-1)단계에서 상기 스마트 퍼팅 디바이스가 상기 기준자세로 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력하는 단계와, (a-3) 상기 알림이 출력된 후 입력부를 통해 소정의 명령이 입력되면, 상기 영상 획득부에 의해 상기 영상이 획득되는 단계를 더 포함할 수 있다.Step (a) includes (a-1) determining whether the smart putting device is aligned to a preset reference posture based on the detection value of the acceleration sensor, and (a-2) step (a-1). When it is determined that the smart putting device is aligned to the reference posture, outputting a notification through an output unit; (a-3) when a predetermined command is input through an input unit after the notification is output, the image acquisition unit The step of acquiring the image may be further included.

상기 (b)단계는, 상기 영상에서 깃대를 식별하여, 식별된 깃대의 길이를 바탕으로 상기 스마트 퍼팅 디바이스로부터 상기 홀까지의 수평 거리를 구하는 단계를 포함할 수 있다.Step (b) may include identifying a flagpole in the image and calculating the horizontal distance from the smart putting device to the hole based on the length of the identified flagpole.

상기 (c)단계는, 상기 수평 거리를 상기 퍼팅거리로서 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.Step (c) may include outputting the horizontal distance as the putting distance through the output unit.

상기 (b)단계는, 상기 영상에서 퍼팅위치에 대한 상기 홀의 고저차를 구하고, 상기 고저차 및 상기 깃대의 높이를 바탕으로 상기 수평 거리를 구하는 단계를 더 포함할 수 있다.Step (b) may further include obtaining the elevation difference of the hole with respect to the putting position in the image, and determining the horizontal distance based on the elevation difference and the height of the flagpole.

상기 출력부를 통해 상기 고저차를 출력하는 단계를 더 포함할 수 있다.It may further include outputting the elevation difference through the output unit.

상기 (a)단계는, 상기 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 제 1 획득영상을 구하는 단계와, 상기 스마트 퍼팅 디바이스를 지면으로부터 소정의 상승 높이까지 들어 올린 상태에서 상기 영상 획득부를 통해 제 2 획득영상을 구하는 단계를 포함할 수 있고, 상기 (b)단계는, 상기 제 2 획득영상에서 구한 상기 홀의 높이 및 상기 제 1 획득영상과 상기 제 2 획득영상을 바탕으로 구한 상기 상승 높이를 바탕으로 상기 고저차를 구하는 단계를 포함할 수 있다.The step (a) includes obtaining a first acquired image through the image acquisition unit with the smart putting device placed on the ground, and acquiring the image while lifting the smart putting device from the ground to a predetermined elevation height. It may include the step of obtaining a second acquired image through a portion, and the step (b) may include the height of the hole obtained from the second acquired image and the elevation obtained based on the first acquired image and the second acquired image. It may include calculating the elevation difference based on the height.

상기 (b)단계는, 상기 영상에서 공을 식별하여, 식별된 공의 너비를 바탕으로 상기 공으로부터 상기 홀까지의 수평 거리를 구하는 단계를 포함할 수 있고, 상기 (c)단계는, 상기 수평 거리를 상기 퍼팅거리로서 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.Step (b) may include identifying a ball in the image and calculating the horizontal distance from the ball to the hole based on the width of the identified ball, and step (c) may include determining the horizontal distance from the ball to the hole. It may include outputting the distance as the putting distance through the output unit.

상기 (b)단계는, 상기 영상에서 상기 공과 상기 홀 간의 고저차를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 수평 거리를 구하는 단계를 포함할 수 있다.Step (b) may include obtaining the elevation difference between the ball and the hole in the image, and determining the horizontal distance based on the elevation difference and the width of the ball.

상기 퍼팅거리 측정 방법은, 상기 출력부를 통해 상기 고저차를 출력하는 단계를 더 포함할 수 있다.The putting distance measuring method may further include outputting the height difference through the output unit.

상기 (a)단계는, 공과 상기 홀을 연결하는 직선을 기준으로 양쪽에서 각각 제 1 획득영상과 제 2 획득영상을 구하는 단계와, 상기 제 1 획득영상과 상기 제 2 획득영상을 바탕으로 퍼팅 방향을 설정하여 상기 출력부를 통해 표시하는 단계를 더 포함할 수 있다.The step (a) includes obtaining a first acquired image and a second acquired image on both sides based on a straight line connecting the ball and the hole, and determining a putting direction based on the first acquired image and the second acquired image. It may further include setting and displaying through the output unit.

본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법은, 획득영상을 바탕으로 구한 깃대의 길이를 바탕으로 홀까지의 거리를 산출하기 때문에 종래 홀컵을 촬영하여 퍼팅거리를 계산하던 방식과 비교하여, 지면 굴곡의 영향을 덜 받을 뿐만 아니라, 카메라를 퍼터 헤드에 위치하더라도 깃대를 촬영하여 퍼팅거리를 산출할 수 있어 퍼터 무게 중심을 낮추는데 유리한 효과가 있다.The smart putting device according to an embodiment of the present invention and the putting distance measuring method using the same calculate the distance to the hole based on the length of the flagpole obtained based on the acquired image, so it is possible to calculate the putting distance by photographing the conventional hole cup. Compared to this method, not only is it less affected by the curvature of the ground, but even when the camera is placed on the putter head, the putting distance can be calculated by filming the flagpole, which has the advantage of lowering the center of gravity of the putter.

또한, 퍼터와 깃대 사이에 언덕이 있어 깃대의 하단 일부가 촬영되지 못하는 경우에도, 통상적인 퍼팅 환경에서는 깃대의 전체 길이에 비해 가려지는 부분이 미미하기 때문에, 깃대 길이를 바탕으로 퍼팅거리를 산출하더라도 비교적 높은 정확도를 구현하는 것이 가능하다. 특히, 종래 홀컵을 촬영하여 퍼팅거리를 산출하는 방식에서는 불가능한 그린 굴곡에서도 상당한 정확도의 퍼팅거리를 구할 수 있는 이점이 있다.In addition, even if the lower part of the flagpole cannot be photographed because there is a hill between the putter and the flagpole, in a normal putting environment, the hidden part is minimal compared to the entire length of the flagpole, so even if the putting distance is calculated based on the length of the flagpole, It is possible to achieve relatively high accuracy. In particular, there is an advantage in that the putting distance can be obtained with considerable accuracy even on curves of the green, which is impossible with the conventional method of calculating the putting distance by photographing the hole cup.

본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스 및 이를 이용한 퍼팅거리 측정 방법은, 지면에 놓인 공을 촬영하여 공의 너비를 구하고, 이를 바탕으로 퍼팅거리를 산출하는 방식이다. 따라서, 공이 홀보다 낮은 위치(즉, 오르막 라이)인 경우에도 퍼터를 홀의 위치에 두고 공을 촬영할 수 있어 오르막 라이에서도 퍼팅거리를 구할 수 있다.A smart putting device according to an embodiment of the present invention and a method of measuring the putting distance using the same are a method of obtaining the width of the ball by photographing a ball placed on the ground and calculating the putting distance based on this. Therefore, even when the ball is located lower than the hole (i.e., uphill lie), the putting distance can be obtained even from an uphill lie because the ball can be photographed with the putter positioned at the hole.

또한, 공이 홀보다 높은 내리막 라이에서는 퍼터를 홀의 위치에 두고 공을 촬영하는 경우 공의 아랫부분이 부분적으로 지면에 가려질 수는 있으나, 그렇다고 하더라도 통상적인 그린의 굴곡이나 퍼팅거리에서 지면이 공의 중앙부분까지 가리지는 않기 때문에 특별한 경우가 아닌 한 공의 너비 측정이 가능하다. 따라서, 내리막 라이에서도 우수한 거리 측정 성능이 보장되는 효과가 있다.In addition, in a downhill lie where the ball is higher than the hole, if the ball is photographed with the putter at the hole's position, the lower part of the ball may be partially obscured by the ground, but even so, the ground may be close to the ball at the normal curve of the green or putting distance. Since it does not cover the center part, it is possible to measure the width of the ball unless there are special cases. Therefore, excellent distance measurement performance is guaranteed even when lying downhill.

또한, 본 발명의 스마트 퍼팅 디바이스는 종래 홀컵을 촬영하여 퍼팅거리를 계산하던 방식과 비교하여, 지면 굴곡의 영향을 덜 받을 뿐만 아니라, 카메라를 퍼터 헤드에 위치하더라도 깃대를 촬영하여 퍼팅거리를 산출할 수 있어 퍼터 무게 중심을 낮추는데 유리한 효과가 있다.In addition, compared to the conventional method of calculating the putting distance by photographing the hole cup, the smart putting device of the present invention is not only less affected by ground curvature, but can also calculate the putting distance by photographing the flagpole even when the camera is placed on the putter head. This has an advantageous effect in lowering the center of gravity of the putter.

또한, 본 발명의 스마트 퍼팅 디바이스는, 퍼팅거리를 구하기 위한 영상을 촬영하는 카메라를 퍼터 헤드에 구비할 수 있기 때문에 퍼터의 무게 중심이 퍼터 헤드 측에 유지될 수 있어, 사용자에게 일반적인 퍼터와 매우 유사한 스윙 밸런스를 제공할 수 있는 효과가 있다.In addition, the smart putting device of the present invention can be equipped with a camera on the putter head that takes images to determine the putting distance, so the center of gravity of the putter can be maintained on the putter head side, making it very similar to a typical putter to the user. It has the effect of providing swing balance.

또한, 일반적으로 퍼터는 그 종류에 따라 샤프트의 길이, 샤프트가 지면과 이루는 각도(라이각(lie angle)) 등이 다르기 때문에, 종래와 같이 샤프트에 카메라를 설치하는 경우 해당 퍼터에 맞도록 카메라를 튜닝하여야 하다. 그러나, 본 발명의 스마트 퍼팅 디바이스는 지면과 맞닿는 퍼터 헤드에 카메라가 설치됨으로써 영상이 구해지는 기준이 일정하기 때문에(즉, 지면과 매우 근접한 위치에서 영상이 획득됨), 퍼터를 여러 규격으로 제조하더라도 규격별로 카메라 튜닝작업을 할 필요 없이 하나의 공통된 방식으로 튜닝하여도 무방하다. 따라서, 본 발명의 스마트 퍼팅 디바이스는 제품의 개발, 생산 관리 등의 측면에서 유리할 뿐만 아니라, 더 나아가 유지, 보수 차원에서도 효율적인 이점이 있다.In addition, since the length of the shaft and the angle that the shaft forms with the ground (lie angle) are generally different depending on the type of putter, when installing a camera on the shaft as in the past, the camera must be tuned to fit the putter. It must be done. However, in the smart putting device of the present invention, the standard for obtaining images is constant by installing a camera on the putter head in contact with the ground (i.e., the image is obtained at a position very close to the ground), so even if the putter is manufactured to various specifications There is no need to tune the camera for each standard, but you can tune it using a common method. Therefore, the smart putting device of the present invention is not only advantageous in terms of product development and production management, but also has an efficient advantage in terms of maintenance and repair.

도 1은 본 발명의 스마트 퍼팅 디바이스와, 이를 포함하는 스마트 퍼팅 시스템을 도시한 것이다.
도 2는 도 1의 스마트 퍼팅 디바이스의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 3은 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스의 주요부들을 보인 블록도이다.
도 4는 도 3의 스마트 퍼팅 디바이스의 일례로 퍼터를 도시한 것으로, 도 4의 (a)는 퍼터를 위에서 내려다본 것이고, 도 4의 (b)는 퍼터를 정면에서 바라본 것이다.
도 5는 본 발명의 다른 실시예에 따른 퍼터를 도시한 것이다.
도 6은 본 발명의 또 다른 실시예들에 따른 퍼터들을 도시한 것이다.
도 7은 도 3의 스마트 퍼팅 디바이스의 다른 예로 볼마커를 도시한 것이다.
도 8은 본 발명의 제 2 실시예에 따른 스마트 퍼팅 디바이스의 주요부들을 보인 블록도이다.
도 9는 도 8의 스마트 퍼팅 디바이스의 일례를 도시한 것이다.
도 10은 도 8의 스마트 퍼팅 디바이스의 다른 예를 도시한 것이다.
도 11은 수평한 지면에서 구한 것들로써 스마트 퍼팅 디바이스로부터 홀까지의 거리에 따른 획득영상들을 도시한 것이다.
도 12는 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 깃대 이미지와 기준자세로 조정된 상태에서 구한 깃대 이미지를 비교하여 도시한 것이다.
도 13은 (a)는 획득영상에서 보이는 홀과 깃대의 위치를 카메라가 제 1 위치에 있을 시 구한 것과 제 2 위치에 있을 시 구한 것을 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이다.
도 14는 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 홀컵까지의 거리에 대한 깃대 상단의 좌표를 고저차 별로 도시한 것이다.
도 15는 (a)스마트 퍼팅 디바이스가 바닥에 있을 때와, (b)바닥으로부터 들어 올려졌을 때를 도시한 것이다.
도 16은 (a)스마트 퍼팅 디바이스가 바닥에 있을 때 획득 영상에 보이는 깃대와, (b)스마트 퍼팅 디바이스가 바닥으로부터 들어 올려졌을 때 획득 영상에 보이는 깃대를 도시한 것이다.
도 17은 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 설명하기 위한 것으로써, 스마트 퍼팅 디바이스를 홀컵 위치에 놓고 공을 촬영한 영상을 도시한 것이다.
도 18은 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 공의 이미지와 기준자세로 조정된 상태에서 구한 공의 이미지를 비교하여 도시한 것이다.
도 19의 (a)는 획득영상에서 보이는 공을 카메라가 제 1 위치에 있을 시와 제 2 위치에 있을 시를 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라와 공의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라와 공의 위치관계를 도시한 것이다.
도 20은 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 공까지의 거리에 대한 공의 폭을 고저차 별로 도시한 것이다.
도 21은 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 도시한 순서도이다.
도 22는 공이 홀보다 높은 경우의 일례로서, 공과 깃대의 위치(a), 제 1 획득영상에 표시된 공과 깃대의 위치(b) 및 제 2 획득영상에 표시된 공과 깃대의 위치(c)를 도시한 것이다.
도 23은 공과 홀을 연결한 선을 기준으로 양쪽 지대가 높이차가 있는 경우의 일례로서, 공과 깃대의 위치(a), 제 1 획득영상에 표시된 공과 깃대의 위치(b) 및 제 2 획득영상에 표시된 공과 깃대의 위치(c)를 도시한 것이다.
도 24는 퍼터 헤드의 디스플레이를 통해 표시되는 화면들을 도시한 것이다.
도 25는 퍼팅거리 측정 방법의 다른 실시예를 설명하기 위한 도면이다.
도 26은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다.
도 27은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다.
Figure 1 shows a smart putting device of the present invention and a smart putting system including the same.
Figure 2 is a block diagram showing the control relationship between the main components of the smart putting device of Figure 1.
Figure 3 is a block diagram showing main parts of a smart putting device according to the first embodiment of the present invention.
Figure 4 shows a putter as an example of the smart putting device of Figure 3. Figure 4 (a) is a view of the putter from above, and Figure 4 (b) is a view of the putter from the front.
Figure 5 shows a putter according to another embodiment of the present invention.
Figure 6 shows putters according to further embodiments of the present invention.
Figure 7 shows a ball marker as another example of the smart putting device of Figure 3.
Figure 8 is a block diagram showing main parts of a smart putting device according to a second embodiment of the present invention.
Figure 9 shows an example of the smart putting device of Figure 8.
Figure 10 shows another example of the smart putting device of Figure 8.
Figure 11 shows acquired images according to the distance from the smart putting device to the hole as obtained on a horizontal ground.
Figure 12 shows a comparison between a flagpole image obtained when the smart putting device is not in the standard posture and a flagpole image obtained when the smart putting device is adjusted to the standard posture.
Figure 13 (a) shows the positions of the hole and the flagpole visible in the acquired image compared with those obtained when the camera was in the first position and those obtained when the camera was in the second position, and (b) shows the positions of the hole and the flagpole seen in the acquired image. The positional relationship between the camera, the hall, and the flagpole is shown, and (c) shows the positional relationship between the camera, the hall, and the flagpole at the second position.
Figure 14 shows the coordinates of the top of the flagpole relative to the distance from the camera to the hole cup by elevation difference in the acquired image taken when the camera was in the reference position.
Figure 15 shows (a) when the smart putting device is on the floor and (b) when it is lifted from the floor.
Figure 16 shows (a) the flagpole visible in the acquired image when the smart putting device is on the floor, and (b) the flagpole visible in the acquired image when the smart putting device is lifted from the floor.
Figure 17 is for explaining a method of measuring the putting distance using a smart putting device according to another embodiment of the present invention, and shows an image of a ball taken with the smart putting device placed at the hole cup position.
Figure 18 shows a comparison between the image of the ball obtained when the smart putting device is not in the standard posture and the image of the ball obtained when the smart putting device is adjusted to the standard posture.
Figure 19 (a) shows the ball seen in the acquired image by comparing it when the camera is in the first position and when it is in the second position, and (b) shows the positional relationship between the camera and the ball at the first position. , and (c) shows the positional relationship between the camera and the ball at the second position.
Figure 20 shows the width of the ball relative to the distance from the camera to the ball by elevation difference in the acquired image taken when the camera was in the reference position.
Figure 21 is a flow chart illustrating a method of measuring a putting distance using a smart putting device according to embodiments of the present invention.
Figure 22 is an example of a case where the ball is higher than the hole, showing the positions of the ball and the flagpole (a), the positions of the ball and the flagpole shown in the first acquired image (b), and the positions of the ball and the flagpole shown in the second acquired image (c). will be.
Figure 23 is an example of a case where there is a height difference between the two zones based on the line connecting the ball and the hole, and the positions of the ball and the flagpole (a), the positions of the ball and the flagpole shown in the first acquired image (b), and the second acquired image The positions of the marked ball and flagpole (c) are shown.
Figure 24 shows screens displayed through the display of the putter head.
Figure 25 is a diagram for explaining another embodiment of a putting distance measuring method.
Figure 26 is a diagram for explaining another embodiment of a putting distance measuring method.
Figure 27 is a diagram for explaining another embodiment of a putting distance measuring method.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도 록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform those with knowledge of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

도 1은 본 발명의 스마트 퍼팅 디바이스(100)와, 이를 포함하는 스마트 퍼팅 시스템(1)을 도시한 것이다. 도 2는 도 1의 스마트 퍼팅 디바이스(100)의 주요 구성들 간의 제어관계를 도시한 블록도이다.Figure 1 shows a smart putting device 100 of the present invention and a smart putting system 1 including the same. FIG. 2 is a block diagram showing the control relationship between the main components of the smart putting device 100 of FIG. 1.

도 1 내지 도 2를 참조하면, 본 발명의 일 실시예에 따른 스마트 퍼팅 시스템(1)은 스마트 퍼팅 디바이스(100)와 모바일 디바이스(200)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the smart putting system 1 according to an embodiment of the present invention may include a smart putting device 100 and a mobile device 200.

스마트 퍼팅 디바이스(100)와 모바일 디바이스(200)는 상호 간에 무선 통신 방식으로 데이터를 교환할 수 있다. 스마트 퍼팅 디바이스(100)에 의해 처리된 결과가 무선 통신을 통해 모바일 디바이스(200)로 전송되고, 모바일 디바이스(200)는 전송받은 정보를 사용자가 인지할 수 있도록 출력할 수 있다.The smart putting device 100 and the mobile device 200 may exchange data with each other through wireless communication. The results processed by the smart putting device 100 are transmitted to the mobile device 200 through wireless communication, and the mobile device 200 can output the received information so that the user can recognize it.

모바일 디바이스(200)는, 무선 통신 기능을 갖춘 것으로서, 정보를 시각, 청각 및/또는 촉각(예를 들어, 햅틱(haptic)) 방식으로 출력하는 기기일 수 있으며, 예를 들어, 블루투스 이어폰이나 스마트폰일 수 있으나, 반드시 이에 한정되어야 하는 것은 아니다.The mobile device 200 is equipped with a wireless communication function and may be a device that outputs information in a visual, auditory, and/or tactile (e.g., haptic) manner, for example, Bluetooth earphones or smart devices. It may be a phone, but it is not necessarily limited to this.

모바일 디바이스(200)는 무선 통신 기능을 위한 무선통신모듈을 구비할 수 있으며, 상기 무선통신모듈은, 반드시 이에 한정되어야 하는 것은 아니나, 근거리 무선통신모듈(예를 들어, 블루투스, 비콘, NFC 등), 무선 인터넷 모듈(예를 들어, WiFi) 중 적어도 하나를 포함할 수 있다.The mobile device 200 may be equipped with a wireless communication module for wireless communication function, and the wireless communication module is not necessarily limited to this, but is a short-range wireless communication module (e.g., Bluetooth, beacon, NFC, etc.) , and may include at least one of a wireless Internet module (eg, WiFi).

스마트 퍼팅 디바이스(100)는, 영상 획득부(5), 프로세서(7), 가속도 센서(50), 입력부(18), 충전 배터리(9), 충전부(17), 메모리(19) 및/또는 출력부(8)를 포함할 수 있다.The smart putting device 100 includes an image acquisition unit 5, a processor 7, an acceleration sensor 50, an input unit 18, a rechargeable battery 9, a charging unit 17, a memory 19, and/or an output. May include part (8).

영상 획득부(5)는 디지털 이미지를 촬영하는 카메라(5a, 도 5 참조)를 포함할 수 있다. 영상 획득부(5)(또는 카메라(5a))는 하나 이상의 정지 영상 또는 소정 주기로 촬영한 다수의 정지 영상들로 구성된 동영상을 촬영할 수 있다.The image acquisition unit 5 may include a camera 5a (see FIG. 5) that captures a digital image. The image acquisition unit 5 (or camera 5a) can capture one or more still images or a moving image composed of multiple still images taken at a predetermined period.

프로세서(7)는 영상 획득부(5)에 의해 획득된 영상(이하, '획득영상'이라고 함.)을 바탕으로 공(25)으로부터 홀(21)까지의 수평 거리(이하, '퍼팅거리'라고 함.)를 구할 수 있다. 프로세서(7)는 퍼팅거리가 출력부(8)를 통해 출력되도록 제어할 수 있다.The processor 7 determines the horizontal distance from the ball 25 to the hole 21 (hereinafter referred to as ‘putting distance’) based on the image acquired by the image acquisition unit 5 (hereinafter referred to as ‘acquired image’). ) can be obtained. The processor 7 can control the putting distance to be output through the output unit 8.

프로세서(7)는 영상 획득부(5)와 출력부(8) 뿐만 아니라, 후술하는 각종 장치들을 제어한다. 프로세서(7)는 전자적 기록매체에 기록된 프로그램의 연산을 실행, 처리하는 제어 장치 또는 그 기능을 내장한 칩일 수 있고, 중앙연산처리장치(CPU)를 포함할 수 있다.The processor 7 controls the image acquisition unit 5 and the output unit 8 as well as various devices described later. The processor 7 may be a control device that executes and processes operations of a program recorded on an electronic recording medium or a chip with the function built in, and may include a central processing unit (CPU).

출력부(8)는 정보를 시각적으로 표시하는 LCD, LED 등의 디스플레이(81), 음향으로 출력하는 스피커(82) 및 네트워크로 전송 가능한 전기적 신호로써 출력하는 무선통신모듈(83) 중 적어도 하나를 포함할 수 있다.The output unit 8 includes at least one of a display 81 such as an LCD or LED that displays information visually, a speaker 82 that outputs sound, and a wireless communication module 83 that outputs an electrical signal that can be transmitted to a network. It can be included.

무선통신모듈(83)은 네트워크를 통해 다른 디바이스(200), 예를 들어, 블루투스 이어폰이나 스마트폰과 통신이 가능하다. 무선통신모듈(83)은 근거리 무선통신모듈(예를 들어, 블루투스, 비콘, NFC 등), 무선 인터넷 모듈(예를 들어, WiFi) 중 적어도 하나를 포함할 수 있다.The wireless communication module 83 is capable of communicating with another device 200, for example, Bluetooth earphones or a smartphone, through a network. The wireless communication module 83 may include at least one of a short-range wireless communication module (eg, Bluetooth, beacon, NFC, etc.) and a wireless Internet module (eg, WiFi).

가속도 센서(50)는 x, y, z축으로 작용하는 중력을 측정하는 센서일 수 있다. 여기서, x, y, z축은, 스마트 디바이스(100)를 기준으로 구성된 상대좌표계로 정의하였다.The acceleration sensor 50 may be a sensor that measures gravity acting on the x, y, and z axes. Here, the x, y, and z axes are defined as relative coordinate systems based on the smart device 100.

입력부(18)는, 스마트 퍼팅 디바이스(100)의 작동에 필요한 각종 명령을 사용자로부터 입력 받는 것일 수 있다. 입력부(18)는 버튼, 스위치, 터치 패널 등의 각종 입력 수단으로 구현될 수 있으며, 실시예에 따라, 모바일 디바이스(200)가 입력부(18)를 구성하는 것도 가능하다.The input unit 18 may receive input from the user various commands necessary for operation of the smart putting device 100. The input unit 18 may be implemented with various input means such as buttons, switches, and touch panels. Depending on the embodiment, the mobile device 200 may configure the input unit 18.

충전 배터리(9)는, 스마트 퍼팅 디바이스(100)의 작동에 필요한 전원을 공급하는 것으로써 일회용 또는 재충전이 가능한 전지를 포함할 수 있다.The rechargeable battery 9 may include a disposable or rechargeable battery that supplies power required for operation of the smart putting device 100.

충전 배터리(9)를 충전하기 위해 외부 전원과 연결되는 충전부(17)가 구비될 수 있다. 충전부(17)는 충전 배터리(9)를 충전 및/또는 방전시키는 회로를 포함할 수 있다. 충전부(17)는 USB(A, B, C type, micro type 등), 마이크로 5핀, 라이트닝 8핀 등의 단자를 포함할 수 있으며, 이에 한정되지 않고 기 공지된 다양한 방식의 단자를 포함하는 것도 가능하다.A charging unit 17 connected to an external power source may be provided to charge the rechargeable battery 9. The charging unit 17 may include a circuit that charges and/or discharges the rechargeable battery 9. The charging unit 17 may include terminals such as USB (type A, B, C, micro type, etc.), micro 5-pin, lightning 8-pin, etc., but is not limited to this and may also include various types of terminals known in the art. possible.

메모리(19)는 데이터(또는, 정보)를 저장하는 기록수단으로써, 휘발성, 비휘발성, ROM, RAM, EEPROM, 플래시 메모리 등을 포함할 수 있으며, 이에 한정되지 않고 기 공지된 다양한 방식의 메모리를 포함하는 것도 가능하다.The memory 19 is a recording means for storing data (or information) and may include volatile, non-volatile, ROM, RAM, EEPROM, flash memory, etc., but is not limited to this and may include various types of memory known in the art. It is also possible to include

출력부(8)는 프로세서(7)에 의해 처리된 결과를 출력하는 것으로, 정보를 시각적으로 표시하는 LCD, LED 등의 디스플레이(81), 음향으로 출력하는 스피커(82) 및 네트워크로 전송 가능한 전기적 신호로써 출력하는 무선통신모듈(83) 중 적어도 하나를 포함할 수 있다.The output unit 8 outputs the results processed by the processor 7, and includes a display 81 such as an LCD or LED that displays information visually, a speaker 82 that outputs sound, and an electrical signal that can be transmitted to a network. It may include at least one of the wireless communication modules 83 that output as a signal.

도 3은 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스(100a)의 주요부들을 보인 블록도이다. 도 3을 참조하면, 본 발명의 제 1 실시예에 따른 스마트 퍼팅 디바이스(100a)는, 도 2에 도시된 여러 장치들 중 적어도 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)을 구비한 제 1 서브 디바이스(110)와, 도 2에 도시된 여러 장치들 중 적어도 프로세서(7)와 디스플레이(81)를 구비한 제 2 서브 디바이스(120)를 포함할 수 있다.Figure 3 is a block diagram showing main parts of the smart putting device 100a according to the first embodiment of the present invention. Referring to FIG. 3, the smart putting device 100a according to the first embodiment of the present invention includes at least an image acquisition unit 5, an acceleration sensor 50, and a wireless communication module ( 83), and may include a second sub-device 120 including at least a processor 7 and a display 81 among several devices shown in FIG. 2.

제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 하나의 장치에 배치되되, 하나의 장치 상에서는 물리적으로는 서로 분리 배치되는 것을 특징으로 한다. 즉, 제 1 서브 디바이스(110)는 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)의 집합체 또는 조립체로 이루어지고, 제 2 서브 디바이스(120)는 프로세서(7)와 디스플레이(81)의 집합체 또는 조립체로 이루어져, 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120) 서로 간에 전기적으로는 연결되되 물리적 또는 공간상으로는 분리 또는 구분되도록 구성될 수 있다.The first sub-device 110 and the second sub-device 120 are disposed in one device, but are physically separated from each other in the one device. That is, the first sub-device 110 is composed of a collection or assembly of an image acquisition unit 5, an acceleration sensor 50, and a wireless communication module 83, and the second sub-device 120 includes a processor 7 and It may be composed of a collection or assembly of the displays 81, and the first sub-device 110 and the second sub-device 120 may be electrically connected to each other but physically or spatially separated or separated from each other.

예를 들어, 영상 획득부(5), 가속도 센서(50) 및 무선통신모듈(83)은 제 1 PCB(Printed Circuit Board: 인쇄회로기판)에 실장되고, 프로세서(7)와 디스플레이(81)는 제 2 PCB에 실장될 수 있다.For example, the image acquisition unit 5, acceleration sensor 50, and wireless communication module 83 are mounted on a first PCB (Printed Circuit Board), and the processor 7 and display 81 are It can be mounted on a second PCB.

한편, 실시예에서, 충전 배터리(9)는 제 1 서브 디바이스(110)에 구비되나, 반드시 이에 한정되어야 하는 것은 아니고, 제 2 서브 디바이스(120)에 구비되는 것도 가능하다.Meanwhile, in the embodiment, the rechargeable battery 9 is provided in the first sub-device 110, but it is not necessarily limited thereto, and may also be provided in the second sub-device 120.

도 4는 도 3의 스마트 퍼팅 디바이스의 일례로 퍼터(100a1)를 도시한 것으로, 도 4의 (a)는 퍼터를 위에서 내려다본 것이고, 도 4의 (b)는 퍼터를 정면에서 바라본 것이다.FIG. 4 shows a putter 100a1 as an example of the smart putting device of FIG. 3, where (a) of FIG. 4 is a view looking down at the putter from above, and (b) of FIG. 4 is a view of the putter from the front.

도 4를 참조하면, 본 발명의 실시예에 따른 스마트 퍼팅 디바이스(100a)는 퍼터(100a1)일 수 있다. 퍼터(100a1)는 퍼터 헤드(1), 샤프트(2), 그립(3), 영상 획득부(5), 프로세서(7), 출력부(8)를 포함할 수 있다. 퍼터 헤드(1)는 골프 공과 접촉되는 타구면(41)을 형성한다. 이하, 타구면(41)이 대향하는 방향을 전방으로 정의한다.Referring to FIG. 4, the smart putting device 100a according to an embodiment of the present invention may be a putter 100a1. The putter 100a1 may include a putter head 1, a shaft 2, a grip 3, an image acquisition unit 5, a processor 7, and an output unit 8. The putter head 1 forms a hitting surface 41 that comes into contact with the golf ball. Hereinafter, the direction in which the hitting surface 41 faces is defined as the front.

퍼터 헤드(1)는 그 형태가 어느 한 가지로 한정되어야 하는 것은 아니다. 예를 들어, 퍼터 헤드(1)는 블레이드(blade)형 또는 말렛(mallet)형 중 어느 것도 무방하다.The putter head 1 does not have to be limited to one shape. For example, the putter head 1 may be either a blade type or a mallet type.

샤프트(2)는 퍼터 헤드(1)로부터 상측으로 연장된다. 샤프트(2)의 상단에는 그립(3)이 끼워질 수 있다. 그립(3)의 상단에는 입력부(18)가 구비될 수 있다.The shaft 2 extends upward from the putter head 1. A grip (3) may be fitted to the top of the shaft (2). An input unit 18 may be provided at the top of the grip 3.

퍼터 헤드(1)는 샤프트(2)의 하단에 결합될 수 있다. 통상의 퍼터와 마찬가지로 퍼터 헤드(1)는 공구를 이용하여 샤프트(2)로부터 분리될 수 있다. 바람직하게는, 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 구비될 수 있다.The putter head 1 may be coupled to the lower end of the shaft 2. Like a normal putter, the putter head 1 can be separated from the shaft 2 using a tool. Preferably, the first sub-device 110 and the second sub-device 120 may be provided in the putter head 1.

도 5는 본 발명의 다른 실시예에 따른 퍼터(100a2)를 도시한 것이다. 도 6은 본 발명의 또 다른 실시예들에 따른 퍼터들(100a3, 100a4)을 도시한 것이다.Figure 5 shows a putter 100a2 according to another embodiment of the present invention. Figure 6 shows putters 100a3 and 100a4 according to still other embodiments of the present invention.

도 5를 참조하면, 실시예에 따른 퍼터(100a2)에서, 퍼터 헤드(1)는 전면에 개구부를 갖는 수용실(M)을 형성하는 헤드 하우징(11)과, 상기 개구부에 삽입되며 타구면(41, 도 4 참조.)을 형성하는 타구면 형성체(4)를 포함할 수 있다.Referring to FIG. 5, in the putter 100a2 according to the embodiment, the putter head 1 has a head housing 11 forming a receiving chamber M having an opening on the front, and is inserted into the opening and has a hitting surface ( 41, see FIG. 4.) may include a striking surface forming body 4.

영상 획득부(5)는, 수용실(M) 내에 배치되어 영상을 획득하는 카메라(5a)를 포함할 수 있다. 타구면 형성체(4)의 전면 또는 타구면(41)을 형성하는 면에는 카메라(5a)의 렌즈(미도시)와 대응하는 개구부 또는 시창이 형성될 수 있다. 상기 시창에는 렌즈 보호를 위한 투명한 쉴드(shield, 6)가 구비될 수 있다. 쉴드(6)는 강화 유리일 수 있다.The image acquisition unit 5 may include a camera 5a that is disposed in the receiving room M and acquires an image. An opening or sight glass corresponding to the lens (not shown) of the camera 5a may be formed on the front surface of the spherical surface forming body 4 or on the surface forming the spherical surface 41. The sight glass may be provided with a transparent shield 6 to protect the lens. Shield 6 may be tempered glass.

실시예에 따라 카메라(5a)는 수용실(M)의 외측에 배치될 수도 있다. 예를 들어, 도 6의 (a)에 도시된 바와 같이, 카메라(5a)는 퍼터 헤드(1)의 토우(toe)측에 구비되거나, 도 6의 (b)에 도시된 바와 같이 퍼터 헤드(1)의 상측에 구비될 수 있다. 더 나아가, 카메라(5a)는 평시에는 수용실(M) 내에 수용되어 있다가, 사용자의 수동 조작에 의해 또는 입력부(18)를 통한 제어 명령의 입력에 따라 자동으로 수용실(M)로부터 인출되도록 구성될 수도 있다.Depending on the embodiment, the camera 5a may be placed outside the receiving room M. For example, as shown in (a) of FIG. 6, the camera 5a is provided on the toe side of the putter head 1, or as shown in (b) of FIG. 6, the camera 5a is installed on the putter head (1). 1) It can be provided on the upper side. Furthermore, the camera 5a is stored in the receiving room M in normal times, and is automatically withdrawn from the receiving room M by a user's manual operation or by inputting a control command through the input unit 18. It may be configured.

프로세서(7)는 수용실(M)에 배치될 수 있다. 그리고, 수용실(M)에는 가속도 센서(50), 충전 배터리(9), 메모리(19) 및 충전부(17) 중 적어도 하나가 더 구비될 수 있다.The processor 7 may be placed in the receiving room (M). Additionally, the accommodation room M may be further equipped with at least one of an acceleration sensor 50, a rechargeable battery 9, a memory 19, and a charging unit 17.

다르게는, 실시예에 따라 가속도 센서(50), 충전 배터리(9), 메모리(19) 및 충전부(17) 중 적어도 하나는 샤프트(2)나 그립(3)에 구비되는 것도 가능하다.Alternatively, depending on the embodiment, at least one of the acceleration sensor 50, the rechargeable battery 9, the memory 19, and the charging unit 17 may be provided on the shaft 2 or the grip 3.

가속도 센서(50)는 x, y, z축으로 작용하는 중력을 측정하는 센서일 수 있다. 여기서, x, y, z축은, 예시적으로 도 6에 도시된 바와 같이 퍼터 헤드(1)를 기준으로 구성된 상대좌표계로 정의하였다.The acceleration sensor 50 may be a sensor that measures gravity acting on the x, y, and z axes. Here, the x, y, and z axes are defined as relative coordinate systems based on the putter head 1, as shown in FIG. 6.

퍼터(100a) 또는 퍼터 헤드(1)의 자세는 개개인의 셋업 방식이나, 깃대와 퍼팅 지점 간의 고저차에 따라 쉽게 달라질 수가 있다. 거리 산출을 위해 필요한 획득 영상은 퍼터(100a) 또는 퍼터 헤드(1)가 기 설정된 자세로 정렬되었을 시 구해진 것일 필요가 있다. 실시예에서 프로세서(7)는, 가속도 센서(50)에 의한 감지 결과를 바탕으로 퍼터 헤드(1)가 기 설정된 방향으로 정렬되었는지, 즉, 기준자세인지를 판단하고, 기준자세로 판단된 경우 알림신호를 출력한다.The posture of the putter 100a or the putter head 1 can easily vary depending on the individual setup method or the height difference between the flagpole and the putting point. The acquired image needed to calculate the distance needs to be obtained when the putter 100a or the putter head 1 is aligned in a preset posture. In the embodiment, the processor 7 determines whether the putter head 1 is aligned in a preset direction, that is, whether it is in a reference posture, based on the detection result by the acceleration sensor 50, and notifies if it is determined to be in the reference posture. Output a signal.

그리고, 상기 알림신호에 따라 출력부(8)는 알림을 출력할 수 있다. 상기 알림을 인지한 사용자가 입력부(18)를 통해 촬영 명령을 입력하면 카메라(5a)에 의해 촬영이 이루어져 영상이 획득될 수 있다.And, the output unit 8 can output a notification according to the notification signal. When the user who recognizes the notification inputs a shooting command through the input unit 18, the camera 5a can shoot and obtain an image.

디스플레이(81)가 구비되는 경우, 디스플레이(81)의 화면은 퍼터 헤드(1)의 상면을 구성할 수 있다. 상기 화면에는 퍼팅거리(D1)가 표시될 수 있다.When the display 81 is provided, the screen of the display 81 may constitute the upper surface of the putter head 1. The putting distance (D1) may be displayed on the screen.

실시예에 따라, 퍼팅거리(D1)는 스마트 퍼팅 디바이스(100)로부터 홀(21)까지의 수평거리, 즉, 3차원 공간 상에서 스마트 퍼팅 디바이스(100)로부터 홀(21)을 직선으로 연결한 선을 수평면 상에 정투영하였을 시의 길이로 정의될 수 있다.According to the embodiment, the putting distance D1 is the horizontal distance from the smart putting device 100 to the hole 21, that is, a straight line connecting the hole 21 from the smart putting device 100 in three-dimensional space. It can be defined as the length when projected onto a horizontal plane.

다르게는, 퍼팅거리는, 도 19에 도시된 바와 같이, 홀(21)로부터 공(25)까지의 수평거리, 즉, 3차원 공간 상에서 스마트 퍼팅 디바이스(100)로부터 공(25)을 직선으로 연결한 선(이때, 스마트 퍼팅 디바이스(100)는 홀(21)과 실질적으로 동일한 지점에 위치한 상태임)을 수평면 상에 정투영하였을 시의 길이(D1)로 정의될 수 있다.Alternatively, the putting distance, as shown in FIG. 19, is the horizontal distance from the hole 21 to the ball 25, that is, the straight line connecting the ball 25 from the smart putting device 100 in three-dimensional space. The line (at this time, the smart putting device 100 is located at substantially the same point as the hole 21) can be defined as the length D1 when projected onto a horizontal plane.

또한, 프로세서(7)는 영상 획득부(5)에 의해 획득된 영상(이하, '획득영상'이라고 함)을 바탕으로 홀(21)과 퍼팅지점 간의 고저차(H2)를 구하고, 이렇게 구해진 고저차(H2)가 퍼팅거리(D1)와 함께 출력부(8)를 통해 출력되도록 제어할 수 있다. 상기 퍼팅지점은 스마트 퍼팅 디바이스(100) 또는 공(25)의 위치일 수 있다.In addition, the processor 7 obtains the elevation difference (H2) between the hole 21 and the putting point based on the image acquired by the image acquisition unit 5 (hereinafter referred to as 'acquired image'), and the elevation difference (H2) obtained in this way ( H2) can be controlled to be output through the output unit 8 together with the putting distance D1. The putting point may be the location of the smart putting device 100 or the ball 25.

한편, 도 5를 참조하면, 디스플레이(81)는, 프로세서(7)의 제어에 의해, 퍼팅 지점과 홀(21) 간의 높이차 또는 고저차(H2, 도 13 참조.) 및/또는 퍼팅 방향(E) 등을 더 표시할 수 있다.Meanwhile, referring to FIG. 5, the display 81 displays the height difference or elevation difference between the putting point and the hole 21 (H2, see FIG. 13) and/or the putting direction (E) under the control of the processor 7. ) can be further displayed.

도 7은 도 3의 스마트 퍼팅 디바이스의 다른 예로 볼마커(100a5)를 도시한 것이다. 볼마커(100a5)는 집어 올릴 볼(공)의 지점을 마크하기 위해 코스 상에 놓아두는 인공물로 정의될 수 있다. 본 발명의 스마트 퍼팅 디바이스(100)는 볼마커(100a5)일 수 있다. 볼마커(100a5)는 제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)를 포함할 수 있다.FIG. 7 shows a ball marker 100a5 as another example of the smart putting device of FIG. 3. The ball marker 100a5 can be defined as an artifact placed on the course to mark the point of the ball to be picked up. The smart putting device 100 of the present invention may be a ball marker 100a5. The ball marker 100a5 may include a first sub device 110 and a second sub device 120.

제 2 서브 디바이스(120)가 수평한 바닥에 놓인 상태에서, 제 1 서브 디바이스(110)에 구비된 카메라(5a)는 렌즈의 주축이 수평 방향으로 정렬되도록 구성될 수 있다.When the second sub-device 120 is placed on a horizontal floor, the camera 5a provided in the first sub-device 110 may be configured so that the main axis of the lens is aligned in the horizontal direction.

제 1 서브 디바이스(110)와 제 2 서브 디바이스(120)는 실질적으로 전술한 실시예들(100a1 내지 100a4)에 적용된 것과 동일하므로 설명을 생략한다.Since the first sub-device 110 and the second sub-device 120 are substantially the same as those applied to the above-described embodiments 100a1 to 100a4, description thereof will be omitted.

도 8은 본 발명의 제 2 실시예에 따른 스마트 퍼팅 디바이스(100b)의 주요부들을 보인 블록도이다. 도 9는 도 8의 스마트 퍼팅 디바이스(100b)의 일례를 도시한 것이다.Figure 8 is a block diagram showing main parts of the smart putting device 100b according to the second embodiment of the present invention. FIG. 9 shows an example of the smart putting device 100b of FIG. 8.

도 8 내지 도 9를 참조하면, 실시예에 따른 스마트 퍼팅 디바이스(100b1)는 퍼터를 포함할 수 있는데, 도 4 내지 도 6을 참조하여 전술한 퍼터(100a1, 100a2, 100a3, 100a4)와는 다르게 제 1 서브 디바이스(110)만이 퍼터 헤드(1)에 구비되고, 제 2 서브 디바이스(120)는 퍼터와는 분리된 별도의 디바이스를 구성한다.8 to 9, the smart putting device 100b1 according to the embodiment may include a putter, and unlike the putters 100a1, 100a2, 100a3, and 100a4 described above with reference to FIGS. 4 to 6, the smart putting device 100b1 according to the embodiment may include a putter. Only one sub-device 110 is provided in the putter head 1, and the second sub-device 120 constitutes a separate device separate from the putter.

제 2 서브 디바이스(120)는, 제 1 서브 디바이스(110)에 구비된 제 1 무선통신모듈(83)과 무선 통신이 가능한 제 2 무선통신모듈(미도시)과, 상기 제 2 무선통신모듈과 프로세서(7)의 동작에 필요한 전원을 공급하기 위한 별도의 충전 배터리(미도시)를 포함할 수 있다.The second sub-device 120 includes a second wireless communication module (not shown) capable of wireless communication with the first wireless communication module 83 provided in the first sub-device 110, and the second wireless communication module. A separate rechargeable battery (not shown) may be included to supply power required for the operation of the processor 7.

제 1 서브 디바이스(110)의 영상 획득부(5)에 의해 획득된 영상 데이터가 무선 통신을 통해 제 2 서브 디바이스(120)의 프로세서(7)에 입력될 수 있다.Image data acquired by the image acquisition unit 5 of the first sub-device 110 may be input to the processor 7 of the second sub-device 120 through wireless communication.

실시예에 따라, 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 착탈되는 방식으로 구성될 수 있으며, 이 경우, 사용자의 선택에 따라 제 2 서브 디바이스(120)는 퍼터 헤드(1)에 설치된 상태에서 동작하거나, 퍼터 헤드(1)로부터 분리된 상태에서 동작할 수 있다.Depending on the embodiment, the second sub-device 120 may be configured to be attached to or detached from the putter head 1. In this case, the second sub-device 120 may be attached to the putter head 1 according to the user's selection. It can be operated in an installed state or in a state separated from the putter head (1).

한편, 제 2 서브 디바이스(120)에서 처리된 퍼팅 정보(예를 들어, 고저차나 퍼팅거리)는 모바일 디바이스(200)로 전송될 수 있다.Meanwhile, putting information (eg, elevation difference or putting distance) processed by the second sub-device 120 may be transmitted to the mobile device 200.

다르게는, 제 2 서브 디바이스(120) 대신 모바일 디바이스(200, 도 1 참조.)가 그 기능을 대신할 수도 있다.Alternatively, the mobile device 200 (see FIG. 1) may perform the function instead of the second sub-device 120.

도 10은 도 8의 스마트 퍼팅 디바이스(100b)의 다른 예를 도시한 것이다. 도 10을 참조하면, 실시예에 따른 스마트 퍼팅 디바이스(100b2)는 볼마커를 구성하는 제 1 서브 디바이스(110)와, 상기 볼마커와는 분리된 별도의 디바이스를 구성하는 제 2 서브 디바이스(120)를 포함할 수 있다.FIG. 10 shows another example of the smart putting device 100b of FIG. 8. Referring to FIG. 10, the smart putting device 100b2 according to the embodiment includes a first sub-device 110 constituting a ball marker and a second sub-device 120 constituting a separate device separate from the ball marker. It can be included.

제 2 서브 디바이스(120)는, 제 1 서브 디바이스(110)에 구비된 제 1 무선통신모듈(83)과 무선 통신이 가능한 제 2 무선통신모듈(미도시)과, 상기 제 2 무선통신모듈과 프로세서(7)등의 동작에 필요한 전원을 공급하기 위한 별도의 충전 배터리를 포함할 수 있다.The second sub-device 120 includes a second wireless communication module (not shown) capable of wireless communication with the first wireless communication module 83 provided in the first sub-device 110, and the second wireless communication module. It may include a separate rechargeable battery to supply power required for the operation of the processor 7, etc.

제 1 서브 디바이스(110)의 영상 획득부(5)에 의해 획득된 영상 데이터가 무선 통신을 통해 제 2 서브 디바이스(120)의 프로세서(7)에 입력될 수 있다.Image data acquired by the image acquisition unit 5 of the first sub-device 110 may be input to the processor 7 of the second sub-device 120 through wireless communication.

실시예에 따라, 제 2 서브 디바이스(120)는 상기 볼마커에 착탈되는 방식으로 구성될 수 있으며, 이 경우, 사용자의 선택에 따라 제 2 서브 디바이스(120)는 상기 볼마커에 설치된 상태에서 동작하거나, 상기 볼마커로부터 분리된 상태에서 동작할 수 있다.Depending on the embodiment, the second sub-device 120 may be configured to be attached to or detached from the ball marker. In this case, depending on the user's selection, the second sub-device 120 operates while installed on the ball marker, or It can be operated while separated from the ball marker.

제 2 서브 디바이스(120)는 모바일 디바이스(200)와 통신 가능하게 구비될 수 있다. 이 경우, 제 2 서브 디바이스(120)의 프로세서(7)에 의해 처리된 퍼팅 정보가 모바일 디바이스(200)로 전송된 후 사용자가 인지할 수 있는 형태로 출력될 수 있다.The second sub-device 120 may be equipped to communicate with the mobile device 200. In this case, the putting information processed by the processor 7 of the second sub-device 120 may be transmitted to the mobile device 200 and then output in a form that can be recognized by the user.

한편, 전술한 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스(100)는 획득영상으로부터 구한 깃대(22)에 대한 정보를 바탕으로 퍼팅거리(D1)를 산출할 수 있다. 이하, 도 11 내지 도 14를 참조하여 퍼팅거리(D1)를 구하는 방법을 설명한다.Meanwhile, the smart putting device 100 according to the embodiments of the present invention described above can calculate the putting distance D1 based on information about the flagpole 22 obtained from the acquired image. Hereinafter, a method for calculating the putting distance D1 will be described with reference to FIGS. 11 to 14.

이하, 스마트 퍼팅 디바이스(100)가 퍼터를 포함하여 구성되는 것을 기준으로 설명하나, 후술하는 설명은 스마트 퍼팅 디바이스(100)가 볼마커를 포함하여 구성되는 경우에도 실질적으로 동일하게 적용될 수 있다.Hereinafter, the description will be made based on the fact that the smart putting device 100 is configured to include a putter, but the description described later can be applied substantially the same even if the smart putting device 100 is configured to include a ball marker.

도 11은 수평한 지면에서 구한 것들로써 스마트 퍼팅 디바이스로부터 홀까지의 거리에 따른 획득영상들을 도시한 것이다. 도 12는 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 깃대 이미지와 기준자세로 조정된 상태에서 구한 깃대 이미지를 비교하여 도시한 것이다. 도 13은 (a)는 획득영상에서 보이는 홀과 깃대의 위치를 카메라가 제 1 위치에 있을 시 구한 것과 제 2 위치에 있을 시 구한 것을 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라, 홀 및 깃대의 위치관계를 도시한 것이다. 도 14는 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 홀컵까지의 거리에 대한 깃대 상단의 좌표를 고저차 별로 도시한 것이다.Figure 11 shows acquired images according to the distance from the smart putting device to the hole as obtained on a horizontal ground. Figure 12 shows a comparison between a flagpole image obtained when the smart putting device is not in the standard posture and a flagpole image obtained when the smart putting device is adjusted to the standard posture. Figure 13 (a) shows the positions of the hole and the flagpole visible in the acquired image compared with those obtained when the camera was in the first position and those obtained when the camera was in the second position, and (b) shows the positions of the hole and the flagpole seen in the acquired image. The positional relationship between the camera, the hall, and the flagpole is shown, and (c) shows the positional relationship between the camera, the hall, and the flagpole at the second position. Figure 14 shows the coordinates of the top of the flagpole relative to the distance from the camera to the hole cup by elevation difference in the acquired image taken when the camera was in the reference position.

도 11 내지 도 14를 참조하면, 퍼터 헤드(1)로부터 깃대(22)까지의 수평 거리, 즉, 퍼팅거리(D1)는 획득영상에 표시된 홀(21)과 깃대(22)에 대한 정보로부터 구해질 수 있다. 이하, 도면에서 21'과 22'는 각각 획득영상에 나타난 홀(21)과 깃대(22)의 이미지를 지시한다.11 to 14, the horizontal distance from the putter head 1 to the flagpole 22, that is, the putting distance D1, is obtained from information about the hole 21 and the flagpole 22 displayed in the acquired image. It can happen. Hereinafter, in the drawings, 21' and 22' indicate images of the hole 21 and the flagpole 22 respectively shown in the acquired image.

구체적으로, 프로세서(7)는 획득영상에서 홀(21)과 깃대(22)에 각각 대응하는 특징들을 검출하고, 검출된 특징들을 바탕으로 깃대(22) 상단의 좌표 및/또는 홀(21)로부터 깃대(22)의 상단까지의 길이(이하, '깃대 길이'라고 함.)를 구할 수 있다.Specifically, the processor 7 detects features corresponding to the hole 21 and the flagpole 22, respectively, in the acquired image, and calculates the coordinates of the top of the flagpole 22 and/or the hole 21 based on the detected features. The length to the top of the flagpole 22 (hereinafter referred to as 'flagpole length') can be obtained.

영상에서 객체를 탐지하는 것(object detection)은 SIFT(Scale Invariant Feature Transformation), HOG(Histogram of Oriented Gradient), LBP(Local Binary Pattern), Harr-like features, ORB(Oriented FAST and Rotated BRIEF) 등의 여러 방식이 알려져 있다. 이 밖에도 최근에 활발한 연구가 이루어지고 있는 딥러닝(deep learning) 등의 인공지능 기반의 객체 탐지 알고리즘도 유용하다. 프로세서(7)는 이러한 기 공지된 객체 탐지 알고리즘을 이용하여 획득영상에서 홀(21) 및/또는 깃대(22)를 검출할 수 있다.Detecting objects in images involves methods such as SIFT (Scale Invariant Feature Transformation), HOG (Histogram of Oriented Gradient), LBP (Local Binary Pattern), Harr-like features, and ORB (Oriented FAST and Rotated BRIEF). Several methods are known. In addition, artificial intelligence-based object detection algorithms such as deep learning, which have recently been actively studied, are also useful. The processor 7 may detect the hole 21 and/or the flagpole 22 in the acquired image using this known object detection algorithm.

도 11을 참조하면, 프로세서(7)는, 획득영상에서 홀(21)과 깃대(22)를 검출한 것으로부터 깃대(22) 상단의 좌표(y1), 홀(21)로부터 깃대(22)의 상단까지의 길이(즉, 깃대 길이(h1')), 홀(21)의 위치(h2') 중 적어도 하나를 구하고, 이렇게 구해진 값들을 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Referring to FIG. 11, the processor 7 detects the hole 21 and the flagpole 22 in the acquired image, determines the coordinates (y1) of the top of the flagpole 22, and the coordinates of the flagpole 22 from the hole 21. At least one of the length to the top (i.e., the flagpole length (h1')) and the position (h2') of the hole 21 can be obtained, and the putting distance (D1) can be determined based on the values obtained in this way.

획득영상은, 바람직하게는, 퍼터(10)가 기준자세인 상태에서 카메라(5a)에 의해 촬영된 것이다. 프로세서(7)는 가속도 센서(50)의 감지값을 바탕으로 현재 퍼터(10)가 기준자세로 정렬된 상태인지 여부를 결정할 수 있다.The acquired image is preferably captured by the camera 5a with the putter 10 in the reference posture. The processor 7 may determine whether the putter 10 is currently aligned to the reference posture based on the detection value of the acceleration sensor 50.

예를 들어, 기준자세는 가속도 센서(50)의 y축(도 6 참조)이 중력방향으로 정렬된 상태로 정의될 수 있고, 이 경우, 프로세서(7)는 가속도 센서(50)의 x축 값 및 z축 값이 실질적으로 0인 경우 퍼터(10)가 기준자세인 것으로 판단할 수 있다.For example, the reference posture may be defined as a state in which the y-axis (see FIG. 6) of the acceleration sensor 50 is aligned in the direction of gravity, and in this case, the processor 7 determines the x-axis value of the acceleration sensor 50. And when the z-axis value is substantially 0, it can be determined that the putter 10 is in the reference posture.

다르게는, 프로세서(7)는 가속도 센서(50)의 x축 및 z축 측정값들의 크기가 기 설정된 기준값 이내인 경우 퍼터(10)가 기준자세인 것으로 판단할 수 있다. 이 경우, 프로세서(7)는 획득영상에서 가속도 센서(50)의 상기 측정값에 대응하는 x, y, z 축에 회전각을 보정하여 깃대(22)와 홀(21)에 대한 정보를 구하고, 이를 바탕으로 퍼팅거리(D1)를 산출할 수 있다.Alternatively, the processor 7 may determine that the putter 10 is in the reference posture when the sizes of the x-axis and z-axis measurement values of the acceleration sensor 50 are within a preset reference value. In this case, the processor 7 obtains information about the flagpole 22 and the hole 21 by correcting the rotation angles in the x, y, and z axes corresponding to the measured values of the acceleration sensor 50 in the acquired image, Based on this, the putting distance (D1) can be calculated.

한편, 도 11에서 보이는 바와 같이, 획득영상에서의 깃대 길이는 카메라(5a) 로부터의 거리(D1')에 대해 비선형적으로 변화한다. 실험에 의해 미리 거리(D1')별 깃대 길이 정보가 구축되어 메모리(19)에 저장될 수 있으며, 프로세서(7)는 메모리(19)에 저장된 상기 거리(D1')별 깃대 길이 정보와 획득 영상에서 검출한 깃대 길이(h1', 도 11 내지 도 12 참조)를 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Meanwhile, as shown in FIG. 11, the length of the flagpole in the acquired image changes non-linearly with respect to the distance D1' from the camera 5a. Flagpole length information for each distance (D1') may be established in advance through experiment and stored in the memory 19, and the processor 7 may store the flagpole length information and acquired image for each distance (D1') stored in the memory 19. The putting distance (D1) can be determined based on the flagpole length (h1', see FIGS. 11 and 12) detected in .

수평한 지면에 홀(21)과 카메라(5a)가 위치하는 경우 거리 D1'가 퍼팅거리(D1)가 되나, 홀(21)과 카메라(5a) 간에 고저차가 있는 경우에는 거리(D1')을 수평면 상에 정사영한 거리 D1이 퍼팅거리가 된다.If the hole (21) and the camera (5a) are located on a level ground, the distance D1' becomes the putting distance (D1), but if there is an elevation difference between the hole (21) and the camera (5a), the distance (D1') The distance D1 projected on the horizontal plane becomes the putting distance.

거리(D1')에 대한 깃대 길이 정보는 실제 깃대의 길이별로 저장된 것을 수 있다. 즉, 깃대로부터 같은 거리로 떨어진 지점에서 촬영을 하더라도 실제 깃대의 규격(길이)에 따라 획득영상에서 보이는 깃대의 길이가 다를 것이기 때문에, 깃대의 규격에 따라 거리(D1')별 깃대 길이 정보를 구축할 필요가 있는 것이다.The flagpole length information for the distance D1' may be stored for each actual flagpole length. In other words, even if filming is done at a point the same distance away from the flagpole, the length of the flagpole visible in the acquired image will be different depending on the actual standard (length) of the flagpole, so flagpole length information is constructed for each distance (D1') according to the standard of the flagpole. It is necessary to do this.

도 13 내지 도 14를 참조하면, 퍼터 헤드(1)와 홀(21) 사이에 고저차(H2)가 있는 경우, 프로세서(7)는 획득영상에서 깃대(22b)의 길이(h1', 이하, '깃대 길이'라고 함)와 홀(21)의 높이(h2', 이하, '홀 높이'라고 함)를 구하고, 이들을 바탕으로 퍼팅거리(D1)를 산출할 수 있다.Referring to Figures 13 and 14, when there is a height difference (H2) between the putter head (1) and the hole (21), the processor (7) determines the length (h1', hereinafter, ') of the flagpole (22b) in the acquired image. The putting distance (D1) can be calculated by obtaining the 'flagpole length') and the height of the hole 21 (h2', hereinafter referred to as 'hole height').

도 14에 도시된 바와 같이, 카메라(5a)가 기준자세에 있을 시에 촬영한 획득영상들에 근거하여, 카메라(5a)로부터 홀(21)까지의 거리(그래프에서 X축)에 대한 깃대 상단의 좌표(그래프에서 Y축)가 고저차 별로 구해지고, 이렇게 구해진 데이터가 메모리(19)에 미리 저장되어 있을 수 있다. 이러한 데이터는 또한 깃대(22)의 규격(즉, 실제 깃대(22)의 길이)별로 분류되어 저장된 것일 수 있다.As shown in FIG. 14, based on the acquired images taken when the camera 5a is in the reference posture, the top of the flagpole relative to the distance from the camera 5a to the hole 21 (X-axis in the graph) The coordinates (Y-axis in the graph) are obtained for each elevation difference, and the data obtained in this way may be stored in advance in the memory 19. Such data may also be classified and stored according to the standard of the flagpole 22 (i.e., the actual length of the flagpole 22).

한편, 획득영상에서 깃대 상단의 높이(y1)는 깃대 길이(h1')와 홀 높이(h2')를 합한 값이기 때문에, 실시예에 따라, 프로세서(7)는 획득영상에서 상단의 높이(y1)와 홀의 높이(h2')를 구한 후, 두 값의 차(y1-h2')로부터 깃대 길이(h1')을 구할 수 있다.Meanwhile, since the height (y1) of the top of the flagpole in the acquired image is the sum of the flagpole length (h1') and the hole height (h2'), depending on the embodiment, the processor 7 determines the height (y1) of the top in the acquired image. ) and the height of the hole (h2'), the flagpole length (h1') can be obtained from the difference between the two values (y1-h2').

h1'과 h2'가 구해지면, 프로세서(7)는 이들 값들과 앞서 설명한 메모리(19)에 저장된 데이터를 바탕으로 거리(D1'), 실제 고저차(H2)와 퍼팅거리(D1)를 산출할 수 있다.Once h1' and h2' are obtained, the processor 7 can calculate the distance (D1'), the actual elevation difference (H2), and the putting distance (D1) based on these values and the data stored in the memory 19 described above. there is.

도 14는 홀 높이(H2')가 0.3m이고, 깃대 상단의 높이가 y1인 경우 메모리(19)에 저장된 데이터를 바탕으로 거리(D1')를 구하는 것을 예시적으로 보여주고 있으며, 이러한 과정을 식으로 표현하면 다음과 같다.Figure 14 shows an example of calculating the distance (D1') based on the data stored in the memory 19 when the hole height (H2') is 0.3 m and the height of the top of the flagpole is y1, and this process is Expressed in this way, it is as follows:

D1'= f1(h1', h2') .......(1)D1'=f1(h1', h2').......(1)

H2'= f2(h1', h2') .......(2)H2'=f2(h1', h2').......(2)

D1 = f3(D1', H2') .......(3)D1 = f3(D1', H2').......(3)

한편, 도 15는 (a)퍼터 헤드가 바닥에 있을 때와, (b)바닥으로부터 들어 올려졌을 때를 도시한 것이다. 도 10은 (a)퍼터 헤드(또는, 마커)가 바닥에 있을 때 획득 영상에 보이는 깃대와, (b)퍼터 헤드(또는, 마커)가 바닥으로부터 들어 올려졌을 때 획득 영상에 보이는 깃대를 도시한 것이다. 이하, 도 15 내지 도 16을 참조하여, 지면의 굴곡(예를 들어, 언덕)으로 인해 홀 또는 깃대의 하단이 보이지 않는 경우에도 홀까지의 거리와 고저차를 정확하게 측정하는 방법을 설명한다.Meanwhile, Figure 15 shows (a) when the putter head is on the floor and (b) when it is lifted from the floor. Figure 10 shows (a) the flagpole visible in the acquired image when the putter head (or marker) is on the floor, and (b) the flagpole visible in the acquired image when the putter head (or marker) is lifted from the floor. will be. Hereinafter, with reference to FIGS. 15 and 16, a method for accurately measuring the distance to the hole and the elevation difference will be described even when the bottom of the hole or the flagpole is not visible due to the curvature of the ground (e.g., a hill).

한편, 도 14에는 H2'가 0보다 큰 경우를 예로 들었으나, H2'가 0보다 작은 경우의 데이터도 실험에 의해 미리 구하여 메모리(19)에 저장할 수 있음은 물론이다.Meanwhile, in Figure 14, the case where H2' is greater than 0 is given as an example, but of course, data when H2' is less than 0 can also be obtained in advance through experiment and stored in the memory 19.

도 15의 (a)와 같이 홀(21)과 퍼터 헤드(1) 사이에 언덕이 있어 획득영상(도 16의 (a) 참조.)에 홀(21) 또는 깃대(22)의 하단이 보이지 않는 경우, 앞서 설명한 실시예에 따르면 깃대 길이는 획득영상에서 보이는 깃대(22)의 중단(즉, 지면과 깃대(22)가 만나는 지점)으로부터 상단까지의 길이를 바탕으로 구해진다. 이 경우, 언덕에 의해 깃대(22)가 가려지는 부분이 많아질수록 퍼팅거리(D1)의 오차가 커지게 되는 문제가 있다. 이 경우, 퍼팅거리(D1)는 언덕에 의해 가려지지 않는 부분의 깃대 길이를 바탕으로 구해지기 때문이다.As shown in (a) of FIG. 15, there is a hill between the hole 21 and the putter head 1, so the bottom of the hole 21 or the flagpole 22 is not visible in the acquired image (see (a) of FIG. 16). In this case, according to the previously described embodiment, the length of the flagpole is calculated based on the length from the middle of the flagpole 22 (that is, the point where the ground and the flagpole 22 meet) to the top as seen in the acquired image. In this case, there is a problem in that the error in the putting distance D1 increases as the portion of the flagpole 22 is obscured by the hill. In this case, the putting distance (D1) is calculated based on the length of the flagpole in the part that is not obscured by the hill.

이와 같은 문제를 보완하기 위해, 본 실시예에 따른 퍼팅거리 측정 방법은, 지면으로부터 퍼터(10)를 들어올려 홀(21) 또는 깃대(22)의 하단이 보이는 상태(도 9의 (b) 참조.)에서 구한 획득영상(도 16의 (b) 참조.)을 바탕으로 프로세서(7)에 의해 퍼팅거리(D1)가 구해진다.In order to compensate for this problem, the method of measuring the putting distance according to this embodiment involves lifting the putter 10 from the ground so that the bottom of the hole 21 or the flagpole 22 is visible (see (b) of FIG. 9). The putting distance (D1) is calculated by the processor 7 based on the acquired image (see (b) of FIG. 16) obtained from .).

이때의 획득영상은 홀(21) 또는 깃대(22)의 하단(즉, 홀(21)과 깃대(22)가 만나는 부분)이 촬영한 것이어야 한다. 사용자가 눈대중으로 퍼터(10)를 적당한 높이까지 들어올려서 촬영을 할 수도 있겠으나, 실시예에 따라 퍼터(10)가 들어올려지는 과정에서 영상(바람직하게는, 동영상)이 촬영되고, 이 과정에서 프로세서(7)가 영상에서 홀(21')이나 깃대(22')의 하단을 식별한 경우 출력부(8)를 통해 알림이 출력되도록 구성되는 것도 가능하다. 상기 알림을 확인한 사용자가 입력부(18)를 통해 촬영 명령을 입력하면, 촬영을 통해 영상이 획득될 수 있다.At this time, the acquired image must be taken from the bottom of the hole 21 or the flagpole 22 (i.e., the part where the hole 21 and the flagpole 22 meet). The user may lift the putter 10 to an appropriate height with the eye and take a picture, but depending on the embodiment, an image (preferably a video) is captured in the process of lifting the putter 10, and in this process It is also possible to configure a notification to be output through the output unit 8 when the processor 7 identifies the bottom of the hole 21' or the flagpole 22' in the image. If the user who has confirmed the notification inputs a shooting command through the input unit 18, an image can be obtained through shooting.

한편, 본 발명의 일 실시예에 따르면, 지면에 퍼터(10)가 놓인 상태(도 15의 (a) 참조.)에서 구한 제 1 획득영상(도 16의 (a) 참조.)과, 지면으로부터 퍼터(10)를 들어올린 상태(도 15의 (b) 참조.)에서 구한 제 2 획득영상(도 16의 (b) 참조.)을 바탕으로 고저차(H3)를 구할 수 있다.Meanwhile, according to one embodiment of the present invention, the first acquired image (see (a) of FIG. 16) obtained with the putter 10 placed on the ground (see (a) of FIG. 15) and the The elevation difference (H3) can be obtained based on the second acquired image (see (b) of FIG. 16) obtained while the putter 10 is raised (see (b) of FIG. 15).

홀(21)과 퍼터 헤드(1) 사이의 높이차, 즉, 고저차(H3)를 구하기 위해서는 홀(21) 또는 깃대(22)의 하단이 보이는 획득영상을 구하여야 한다.In order to obtain the height difference between the hole 21 and the putter head 1, that is, the height difference H3, an acquired image showing the bottom of the hole 21 or the flagpole 22 must be obtained.

먼저, 도 15의 (b)에 도시된 바와 같이 퍼터(10)를 들어 올린 상태에서 획득영상을 구하고, 이를 바탕으로 홀의 높이(H2)를 구한다.First, as shown in (b) of FIG. 15, the acquired image is obtained while the putter 10 is lifted, and the height of the hole (H2) is obtained based on this.

홀의 높이 H2는, 도 15의 (b)에 도시된 바와 같이, 획득영상이 구해지는 시점에서의 퍼터 헤드(1)의 위치와 홀(21) 간의 높이차에 해당하는 것이기 때문에, 실제 퍼팅이 이루어지는 지면상의 위치(즉, 공의 위치)와 홀(21) 간의 고저차(H3)을 구하기 위해서는, 앞서 구한 홀의 높이 H2를 퍼터(10)를 들어 올린 높이 T를 이용하여 보정하여야 한다.Since the height H2 of the hole corresponds to the height difference between the position of the putter head 1 and the hole 21 at the time when the acquired image is obtained, as shown in (b) of FIG. 15, the actual putting takes place. In order to obtain the elevation difference (H3) between the position on the ground (i.e., the position of the ball) and the hole 21, the previously obtained height H2 of the hole must be corrected using the height T at which the putter 10 is lifted.

따라서, 퍼터(10)를 들어 올린 높이 T를 구하여야 하는데, 이는 퍼터 헤드(1)가 지면에 놓인 상태(도 15의 (a) 참조)에서 구한 제 1 획득영상(도 16의 (a))에서의 깃대(22')의 위치와 퍼터 헤드(1)를 지면으로부터 들어올린 상태(도 15의 (b) 참조)에서 구한 제 2 획득영상(도 16의 (b))에서의 깃대(22')의 위치를 바탕으로 구해질 수 있다.Therefore, the height T at which the putter 10 is lifted must be obtained, which is the first acquired image ((a) of FIG. 16) obtained when the putter head 1 is placed on the ground (see (a) of FIG. 15). The position of the flagpole 22' and the flagpole 22' in the second acquired image ((b) of FIG. 16) obtained when the putter head 1 is lifted from the ground (see (b) of FIG. 15). ) can be obtained based on the location of.

즉, 프로세서(7)는 상기 제 1 획득영상과 상기 제 2 획득영상에서 각각 깃대(22')를 식별하고, 양 영상들의 비교를 통해 깃대(22')의 변위(t)를 구하고, 이렇게 구한 변위(t)를 바탕으로 홀의 높이(H2)를 보정하여 최종적으로 고저차(H3)을 구할 수 있다.That is, the processor 7 identifies the flagpole 22' in the first acquired image and the second acquired image, obtains the displacement (t) of the flagpole 22' through comparison of both images, and obtains Based on the displacement (t), the height of the hole (H2) can be corrected to obtain the final elevation difference (H3).

한편, 깃대(22')의 변위(t)를 바탕으로 실제로 퍼터(10)가 들어올려진 높이(T)를 구하기 위해서는, 퍼팅거리(D1) 별로 변위(t)와 상승 높이(T)가 매칭된 정보(이하, '퍼팅거리별 변위-상승 높이 정보'라고 함.)를 미리 알고 있어야 하며, 이는 실험에 의해 미리 구해질 수 있는 것으로서 메모리(19)에 기저장된 것일 수 있다.Meanwhile, in order to determine the height (T) at which the putter 10 was actually lifted based on the displacement (t) of the flagpole (22'), the displacement (t) and the rising height (T) are matched for each putting distance (D1). Information (hereinafter referred to as 'displacement-rise height information by putting distance') must be known in advance, and this can be obtained in advance through experimentation and may be pre-stored in the memory 19.

여기서, 퍼팅거리(D1)는 퍼터 헤드(1)로부터 홀(21)까지의 수평거리에 해당하기 때문에 상기 제 2 획득영상으로부터 구해질 수 있으며, 이렇게 구해진 거리 D1과 변위 t를 알면 퍼팅거리별 변위-상승 높이 정보로부터 상승 높이(T)를 구할 수 있다.Here, the putting distance D1 can be obtained from the second acquired image because it corresponds to the horizontal distance from the putter head 1 to the hole 21. If the distance D1 and the displacement t obtained in this way are known, the displacement for each putting distance can be obtained. -The rise height (T) can be obtained from the rise height information.

그 다음, 프로세서(7)는 앞서 구한 높이 H2와 상승 높이 T를 바탕으로 최종적으로 고저차 H3를 구할 수 있다. (H3=H2-T)Next, the processor 7 can finally obtain the height difference H3 based on the previously obtained height H2 and rise height T. (H3=H2-T)

도 17은 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 설명하기 위한 것으로써, 스마트 퍼팅 디바이스를 홀컵 위치에 놓고 공을 촬영한 영상을 도시한 것이다. 도 18은 스마트 퍼팅 디바이스가 기준자세가 아닌 상태에서 구한 공의 이미지와 기준자세로 조정된 상태에서 구한 공의 이미지를 비교하여 도시한 것이다. 도 19의 (a)는 획득영상에서 보이는 공을 카메라가 제 1 위치에 있을 시와 제 2 위치에 있을 시를 비교하여 보인 것이고, (b)는 상기 제 1 위치에서의 카메라와 공의 위치관계를 도시한 것이고, (c)는 상기 제 2 위치에서의 카메라와 공의 위치관계를 도시한 것이다. 도 20은 카메라가 기준자세에 있을 시에 촬영한 획득영상에서, 카메라로부터 공까지의 거리에 대한 공의 폭을 고저차 별로 도시한 것이다.Figure 17 is for explaining a method of measuring the putting distance using a smart putting device according to another embodiment of the present invention, and shows an image of a ball taken with the smart putting device placed at the hole cup position. Figure 18 shows a comparison between the image of the ball obtained when the smart putting device is not in the standard posture and the image of the ball obtained when the smart putting device is adjusted to the standard posture. Figure 19 (a) shows the ball seen in the acquired image by comparing it when the camera is in the first position and when it is in the second position, and (b) shows the positional relationship between the camera and the ball at the first position. , and (c) shows the positional relationship between the camera and the ball at the second position. Figure 20 shows the width of the ball relative to the distance from the camera to the ball by elevation difference in the acquired image taken when the camera was in the reference position.

도 17 내지 도 20를 참조하면, 본 발명의 다른 실시예에 따른 스마트 퍼팅 디바이스(100)는 획득영상에서 구한 공(25)에 대한 정보를 바탕으로 퍼팅거리(D1)를 구할 수 있다. 여기서, 획득영상은 스마트 퍼팅 디바이스(100)를 실질적으로 홀(21)의 위치에 놓고 공(25)을 촬영해서 구한 것이다. 이하, 스마트 퍼팅 디바이스(100)가 퍼터를 포함하여 구성되는 것을 기준으로 설명하나, 후술하는 설명은 스마트 퍼팅 디바이스(100)가 볼마커를 포함하여 구성되는 경우에도 실질적으로 동일하게 적용될 수 있다.17 to 20, the smart putting device 100 according to another embodiment of the present invention can calculate the putting distance D1 based on information about the ball 25 obtained from the acquired image. Here, the acquired image is obtained by placing the smart putting device 100 at the position of the hole 21 and photographing the ball 25. Hereinafter, the description will be made based on the fact that the smart putting device 100 is configured to include a putter, but the description described later can be applied substantially the same even if the smart putting device 100 is configured to include a ball marker.

홀(21)로부터 공(25)까지의 거리(D1, 도 13 참조)에 따라 공(25)의 폭 (W1', 획득영상에서 구한 값임.)이 달라진다. 공(25)이 카메라(5a)로부터 멀어질수록 폭(W1')이 점점 작아지며, 이러한 변화는 미시적으로는 비선형적이다.The width (W1', a value obtained from the acquired image) of the ball 25 varies depending on the distance (D1, see FIG. 13) from the hole 21 to the ball 25. As the ball 25 moves away from the camera 5a, the width W1' gradually decreases, and this change is microscopically non-linear.

전술한 실시예들에서와 마찬가지로, 퍼터(10)가 기준자세로 정렬된 상태에서 영상이 획득되며, 도 18에서 공(25', 획득영상에서 보이는 공)은 퍼터(10)가 기준자세로 정렬된 상태에서 영상에서 보이는 공을 표시한 것이다.As in the above-described embodiments, the image is acquired with the putter 10 aligned in the reference posture, and in FIG. 18, the ball 25' (the ball visible in the acquired image) is aligned with the putter 10 in the reference posture. The ball shown in the video is displayed in this state.

도 18에서 h2'는 퍼터(10)가 기준자세인 상태에서 카메라(5a)에 의해 촬영된 영상에서의 공(25')의 높이이고, w1'은 공(25')의 폭 길이를 표시한 것이다.(이하, w1'을 '공 폭'이라고 함.) 그리고, h2과 w1 은 각각 퍼터(10)가 기준자세로 정렬되기 전에 카메라(5a)에 의해 촬영된 영상에서의 공(25)의 높이와 폭 길이이다.In FIG. 18, h2' is the height of the ball 25' in the image captured by the camera 5a with the putter 10 in the standard posture, and w1' indicates the width and length of the ball 25'. (Hereinafter, w1' is referred to as 'ball width'.) And, h2 and w1 are respectively the size of the ball 25 in the image captured by the camera 5a before the putter 10 is aligned to the reference posture. Height and width are length.

실험에 의해 미리 거리(D1')별 공의 폭(w1)에 대한 정보가 구축되어 메모리(19)에 저장될 수 있으며, 프로세서(7)는 메모리(19)에 저장된 정보와 획득 영상에서 검출한 공 폭(w1')을 바탕으로 퍼팅거리(D1)를 결정할 수 있다.Information about the width (w1) of the ball for each distance (D1') can be established in advance through experiment and stored in the memory 19, and the processor 7 detects the information stored in the memory 19 and the acquired image. The putting distance (D1) can be determined based on the ball width (w1').

수평한 지면에 공(25)과 카메라(5a)가 위치하는 경우, 도 19의 (b)에 도시된 바와 같이 거리(D1')가 퍼팅거리(D1)가 되나, 도 19의 (c)에 도시된 바와 같이 공(25)과 카메라(5a) 간에 고저차가 있는 경우에는 거리(D1')을 수평면 상에 정사영한 거리 D1이 퍼팅거리가 된다.When the ball 25 and the camera 5a are located on a horizontal ground, the distance D1' becomes the putting distance D1 as shown in (b) of Figure 19, but as shown in (c) of Figure 19 As shown, when there is a height difference between the ball 25 and the camera 5a, the distance D1, which is an orthogonal projection of the distance D1' on a horizontal plane, becomes the putting distance.

도 19 내지 도 20를 참조하면, 퍼터 헤드(1)와 공(25) 사이에 고저차(H2)가 있는 경우, 프로세서(7)는 획득영상에서 공 폭(w1')과 공 높이(h2')를 구하고, 이들을 바탕으로 퍼팅거리(D1)를 산출할 수 있다.19 to 20, when there is a height difference (H2) between the putter head (1) and the ball (25), the processor (7) calculates the ball width (w1') and ball height (h2') in the acquired image. , and based on these, the putting distance (D1) can be calculated.

도 20에 도시된 바와 같이, 카메라(5a)가 기준자세에 있을 시에 촬영한 획득영상들에 근거하여, 카메라(5a)로부터 공(25)까지의 거리(그래프에서 X축)에 대한 공 폭(그래프에서 Y축)이 고저차 별로 구해지고, 이렇게 구해진 데이터가 메모리(19)에 미리 저장되어 있을 수 있다. 도 20에는 H2'가 0보다 큰 경우를 예로 들었으나, H2'가 0보다 작은 경우의 데이터도 실험에 의해 미리 구하여 메모리(19)에 저장할 수 있음은 물론이다.As shown in FIG. 20, based on acquired images taken when the camera 5a is in the reference posture, the ball width relative to the distance from the camera 5a to the ball 25 (X-axis in the graph) (Y-axis in the graph) is obtained for each elevation difference, and the data obtained in this way may be stored in advance in the memory 19. In Figure 20, the case where H2' is greater than 0 is given as an example, but of course, data when H2' is less than 0 can also be obtained in advance through experiment and stored in the memory 19.

h2'과 w1'가 구해지면, 프로세서(7)는 이들 값들과 앞서 설명한 메모리(19)에 저장된 데이터를 바탕으로 거리(D1'), 실제 고저차(H2)와 퍼팅거리(D1)를 산출할 수 있다.Once h2' and w1' are obtained, the processor 7 can calculate the distance (D1'), actual elevation difference (H2), and putting distance (D1) based on these values and the data stored in the memory 19 described above. there is.

도 20은 공 높이(H2')가 0.3m이고, 공 폭이 w1'인 경우 메모리(19)에 저장된 데이터를 바탕으로 거리(D1')를 구하는 것을 예시적으로 보여주고 있으며, 이러한 과정을 식으로 표현하면 다음과 같다.Figure 20 shows an example of calculating the distance (D1') based on the data stored in the memory 19 when the ball height (H2') is 0.3 m and the ball width is w1', and this process is expressed as Eq. Expressed as follows:

D1'= g1(w1', h1') .......(4)D1'=g1(w1', h1').......(4)

H1'= g2(w1', h1') .......(5)H1'=g2(w1', h1').......(5)

D1 = g3(D1', H1') .......(6)D1 = g3(D1', H1') .......(6)

이와 같이 획득영상에 표시된 공(25)을 이용하여 퍼팅거리(D1)를 구하는 방식은, 지면으로부터 돌출된 형상의 공을 식별하여 정보를 얻는 것이기 때문에 지면 상에 위치한 홀(21)을 영상에서 식별하는 것보다 정확도가 뛰어나다.In this way, the method of calculating the putting distance (D1) using the ball (25) displayed on the acquired image is to obtain information by identifying the ball that has a shape protruding from the ground, so the hole (21) located on the ground is identified in the image. The accuracy is superior to that of

특히, 공(25)이 홀(21)보다 낮은 위치에 있는 경우(즉, 오르막 라이), 공(21)의 위치에 퍼터(10)를 놓고 촬영을 하는 경우 홀(21)을 식별하기기 어렵기 때문에, 종래와 같이 홀(21)을 식별하여 거리를 산출하는 방식은 한계가 있다. 이에 반해, 동일한 조건에서 본원 발명은 퍼터(10)를 상대적으로 지대가 높은 홀(21)에 놓고 촬영을 하기 때문에 공(25)을 위에서 내려다보게 되어 식별이 가능하며, 따라서 전술한 방법에 따라 퍼팅거리(D1)를 구할 수 있다.In particular, when the ball 25 is located lower than the hole 21 (i.e., uphill lie), it is difficult to identify the hole 21 when taking pictures with the putter 10 placed at the position of the ball 21. Therefore, the conventional method of identifying the hole 21 and calculating the distance has limitations. On the other hand, in the present invention under the same conditions, since the putter 10 is placed in the hole 21 with a relatively high ground and the photograph is taken, the ball 25 can be identified by looking down from above, and therefore, putting according to the above-described method The distance (D1) can be obtained.

더 나아가, 반대로 공(25)이 홀(21)보다 높은 위치에 있다고 하더라도, 통상적인 범위의 그린 면적, 그린에 형성된 굴곡 또는 고저차, 공(25)의 반지름(즉, 지면으로부터 공(25)의 중심까지의 높이) 등을 고려할 시 대체적으로 영상에서 공 폭(w1')이 식별 가능하므로, 내리막 라이에서도 퍼팅거리(D1)를 정확하게 측정할 수 있는 효과가 있다.Furthermore, even if the ball 25 is in a higher position than the hole 21, the green area in the normal range, the curve or elevation difference formed on the green, and the radius of the ball 25 (i.e., the distance between the ball 25 and the ground) Considering the height to the center, etc., the width of the ball (w1') can generally be identified in the image, which has the effect of accurately measuring the putting distance (D1) even in a downhill lie.

도 21은 본 발명의 실시예들에 따른 스마트 퍼팅 디바이스를 이용한 퍼팅거리 측정 방법을 도시한 순서도이다. 도 21을 참조하면, 본 발명의 일 실시예에 따른 퍼팅거리 측정 방법은 퍼팅거리 측정 모드를 시작하는 단계(S1), 깃대의 길이를 설정하는 단계(S2), 촬영 자세를 조정하는 단계(S3), 퍼터(10)가 기준자세인지를 판단하는 단계(S4), S3단계의 판단 결과에 따라 퍼터(10)가 기준자세로 정렬되었음을 알리는 단계(S5), 획득영상을 구하는 단계(S6), 획득영상으로부터 퍼팅 정보를 산출하는 단계(S7) 및/또는 S7단계에서 산출된 퍼팅 정보를 출력하는 단계(S8)를 포함할 수 있다.Figure 21 is a flow chart illustrating a method of measuring a putting distance using a smart putting device according to embodiments of the present invention. Referring to Figure 21, the putting distance measurement method according to an embodiment of the present invention includes starting the putting distance measurement mode (S1), setting the length of the flagpole (S2), and adjusting the shooting posture (S3). ), a step of determining whether the putter 10 is in the standard posture (S4), a step of notifying that the putter 10 is aligned to the standard posture according to the determination result of step S3 (S5), a step of obtaining an acquired image (S6), It may include calculating putting information from the acquired image (S7) and/or outputting the putting information calculated in step S7 (S8).

S1단계는, 퍼팅거리 측정 모드에 진입하기 위한 명령이 입력되는 단계이다. 사용자가 입력부(18)를 통해 시작 명령을 입력할 수 있다. 입력부(18)는 퍼터(10)에 구비되어 사용자로부터 각종 제어 명령을 입력 받는 인터페이스를 제공하는 것으로써, 버튼, 스위치, 터치센서, 모션센서 등의 각종 입력 수단을 포함할 수 있다. 실시예에서, 입력부(18)는 그립(3)의 상단에 배치되나, 반드시 이에 한정되어야 하는 것은 아니다.Step S1 is a step in which a command to enter the putting distance measurement mode is input. The user can input a start command through the input unit 18. The input unit 18 is provided in the putter 10 to provide an interface for receiving various control commands from the user, and may include various input means such as buttons, switches, touch sensors, and motion sensors. In an embodiment, the input portion 18 is disposed on the top of the grip 3, but this is not necessarily limiting.

S2단계는 깃대길이를 설정하는 단계이다. S1단계에서 입력부(18)를 통한 시작 명령이 입력되면, 프로세서(7)는 디스플레이(81)를 통해 깃대길이(또는, 규격)를 설정할 수 있는 메뉴를 표시할 수 있다. (도 24의 (a) 참조) 사용자는 입력부(18)를 통해 깃대길이(즉, 현재 진행 중인 경기에 사용되고 있는 실제 깃대의 길이)를 선택할 수 있다. 디스플레이(81)가 구비된 경우, 깃대길이를 선택할 수 있는 메뉴가 디스플레이(81)를 통해 표시될 수 있다.Step S2 is the step of setting the flagpole length. When a start command is input through the input unit 18 in step S1, the processor 7 can display a menu for setting the flagpole length (or standard) through the display 81. (See Figure 24 (a)) The user can select the flagpole length (i.e., the actual length of the flagpole being used in the currently ongoing game) through the input unit 18. If the display 81 is provided, a menu for selecting the flagpole length may be displayed through the display 81.

다르게는, 스피커(82)를 통해 깃대길이 선택에 대한 안내와 선택 현황을 중계하는 음성이 출력되는 것도 가능하며, 이러한 음성을 네트워크로 전송하기 위한 신호가 무선통신모듈(83)을 통해 출력되는 것도 가능하다.Alternatively, it is possible to output a voice providing guidance on selecting the flagpole length and relaying the selection status through the speaker 82, and a signal for transmitting this voice to the network can also be output through the wireless communication module 83. possible.

한편, 앞서 도 17 내지 도 20를 참조하여 설명한 공(25)에 대한 정보를 이용하는 방식의 스마트 퍼팅 디바이스에서는 S2단계는 필요치 않으므로 생략될 수 있다.Meanwhile, in the smart putting device that uses information about the ball 25 previously described with reference to FIGS. 17 to 20, step S2 is not necessary and can be omitted.

S3단계에서는 기준자세로 정렬하기 위해 사용자가 퍼터(10)를 움직이게 되고, 이 과정에서 가속도 센서(50)에 의한 측정이 이루어진다. 프로세서(7)는, 가속도 센서(50)의 측정값을 바탕으로 퍼터(10)가 기준자세로 정렬되었는지를 판단할 수 있다.In step S3, the user moves the putter 10 to align it with the reference posture, and in this process, measurement is made by the acceleration sensor 50. The processor 7 may determine whether the putter 10 is aligned to the reference posture based on the measured value of the acceleration sensor 50.

가속도 센서(50)의 측정값이 출력부(8)를 통해 출력될 수 있으며, 이렇게 출력된 값들을 확인하면서 사용자는 퍼터(10)의 자세를 계속하여 수정할 수 있다. 이때, 프로세서(7)는 가속도 센서(50)의 측정값을 바탕으로 퍼터(10)의 x축 회전각(즉, 상하 각도)과 y축 회전각(즉, 좌우 각도)을 계산할 수 있으며, 이들 값들이 실시예에 따라, 디스플레이(81)가 구비된 경우에는 도 24의 (b)에 도시된 바와 같이 표시될 수 있다.The measured value of the acceleration sensor 50 can be output through the output unit 8, and the user can continuously modify the posture of the putter 10 while checking the output values. At this time, the processor 7 may calculate the x-axis rotation angle (i.e., up and down angle) and y-axis rotation angle (i.e., left and right angle) of the putter 10 based on the measured value of the acceleration sensor 50. Depending on the embodiment, the values may be displayed as shown in (b) of FIG. 24 when the display 81 is provided.

실시예에 따라, 상하 각도와 좌우 각도는 스피커(82)를 통해 출력되거나, 무선통신모듈(83)을 통해 네트워크로 전송될 수 있다.Depending on the embodiment, the vertical angle and the left and right angle may be output through the speaker 82 or transmitted to the network through the wireless communication module 83.

사용자는 출력부(8)를 통해 출력된 상하 각도 및 좌우 각도를 확인하면서 퍼터(10)를 계속하여 움직여 보게 되고, 이 과정에서 변화하는 상하 각도와 좌우 각도가 각각 기준치 이하인 되면, 프로세서(7)는 퍼터 헤드(1)가 기준자세가 된 것으로 판단(S4)하고, 기준자세로 정렬되었음을 알리는 알림이 출력부(8)를 통해 출력되도록 제어할 수 있다. 이하, 출력부(8)로써 디스플레이(81)를 예로써 설명하나, 스피커(82) 또는 무선통신모듈(83)도 가능함은 물론이다.The user continues to move the putter 10 while checking the up and down angles and left and right angles output through the output unit 8. If the up and down angles and left and right angles that change in this process are less than the standard value, the processor 7 may determine that the putter head 1 is in the standard posture (S4), and control a notification indicating that the putter head 1 has been aligned to the standard posture to be output through the output unit 8. Hereinafter, the display 81 will be described as the output unit 8 as an example, but of course, the speaker 82 or the wireless communication module 83 is also possible.

이후, 출력부(8)를 통해 출력된 알림을 인지한 사용자가 입력부(18)를 통해 영상획득명령을 인가하면, 프로세서(7)는 상기 영상획득명령에 대응하여 카메라(5a)에 의해 촬영이 이루어지도록 제어하고, 이렇게 촬영된 영상을 퍼팅거리(D1)를 구하는데 사용할 획득영상으로 정의할 수 있다.(S6) S6단계에서 촬영이 완료되면 프로세서(7)는 디스플레이(81)를 통해 촬영 완료 메시지가 출력되도록 제어할 수 있다. (도 24의 (c) 참조)Thereafter, when the user who recognizes the notification output through the output unit 8 applies an image acquisition command through the input unit 18, the processor 7 captures the image by the camera 5a in response to the image acquisition command. It can be controlled so that it takes place, and the image captured in this way can be defined as the acquired image to be used to calculate the putting distance (D1). (S6) When the shooting is completed in step S6, the processor 7 displays the display 81 to complete the shooting. You can control the message to be output. (See (c) in Figure 24)

이후, S7단계에서 프로세서(7)는 앞서 설명한 실시예들에 따라 획득영상으로부터 퍼팅 정보를 산출할 수 있다. 상기 퍼팅 정보는 앞서 설명한 고저차(H2, H3) 및 퍼팅거리(D1) 중 적어도 하나를 포함할 수 있다. (도 24의 (d), (e)참조)Thereafter, in step S7, the processor 7 may calculate putting information from the acquired image according to the previously described embodiments. The putting information may include at least one of the height difference (H2, H3) and putting distance (D1) described above. (See Figure 24 (d), (e))

프로세서(7)는 상기 퍼팅 정보가 출력부(8)를 통해 출력되도록 제어할 수 있다(S8).The processor 7 can control the putting information to be output through the output unit 8 (S8).

퍼팅 정보가 출력된 후, 사용자가 실제로 퍼팅을 하기 위한 셋업 자세를 취하게 되면, 프로세서(7)는 현재 퍼터 헤드(1)가 퍼팅방향(이에 대해서는 도 22 내지 도 23을 참조하여 후술 함.)으로 정렬이 되었는지를 판단하고, 그 결과에 따라 출력부(8)를 통해 방향 지시 알림(E, 도 5/ 도 24의 (d), (e) 참조)을 출력할 수 있다.After the putting information is output, when the user actually takes a setup posture for putting, the processor 7 determines the current putter head 1 in the putting direction (this will be described later with reference to FIGS. 22 and 23). It is determined whether the alignment is done, and according to the result, a direction indication notification (E, see (d), (e) of FIG. 5/FIG. 24) can be output through the output unit 8.

예를 들어, 도 24의 (d)와 같이 퍼터 헤드(1)가 퍼팅 방향으로 정렬이 된 경우, 프로세서(7)는 디스플레이(81)를 통해 소정 색(예를 들어, 초록색)의 화살표를 표시하고, 도 24의 (e)와 같이 퍼터 헤드(1)가 기준자세로 정렬되지 않은 경우에는 다른 색(예를 들어, 빨간색)의 화살표가 표시되도록 제어할 수 있다.For example, when the putter head 1 is aligned in the putting direction as shown in (d) of FIG. 24, the processor 7 displays an arrow of a predetermined color (e.g., green) through the display 81. And, when the putter head 1 is not aligned to the reference posture as shown in (e) of FIG. 24, an arrow of a different color (for example, red) can be displayed.

한편, 도 22 내지 도 23을 참조하면, 본 발명의 일 실시예에 따른 퍼터(10)는 공(25)과 홀(21)을 직선으로 연결하는 선을 기준으로 양쪽에서 각각 구한 제 1 획득영상(M1)과 제 2 획득영상(M2)을 바탕으로 퍼팅 방향을 판단할 수 있다.Meanwhile, referring to FIGS. 22 and 23, the putter 10 according to an embodiment of the present invention is a first acquired image obtained from both sides based on a straight line connecting the ball 25 and the hole 21. The putting direction can be determined based on (M1) and the second acquired image (M2).

예를 들어, 도 22에 도시된 바와 같이 공(25)으로부터 홀(21)을 향하는 제 1 방향으로는 경사가 있으나, 상기 제 1 방향과 직교하는 제 2 방향으로는 경사가 없는 경우, 제 1 획득영상(M1)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값은, 각각 제 2 획득영상(M2)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값과 실질적으로 동일하다. 이러한 경우 프로세서(7)는 상기 제 1 방향으로 퍼팅할 것, 즉, 홀(21)을 향해 똑바로 치면 된다는 것을 결과로서 출력할 수 있다.For example, as shown in FIG. 22, when there is a slope in the first direction from the ball 25 to the hole 21, but there is no slope in the second direction orthogonal to the first direction, the first The Y-axis coordinate value of the ball 25 and the Y-axis coordinate value of the hole 21 obtained from the acquired image M1 are the Y-axis coordinate value of the ball 25 obtained from the second acquired image M2 and the hole ( It is substantially the same as the Y-axis coordinate value in 21). In this case, the processor 7 may output as a result that putting in the first direction, that is, hitting straight toward the hole 21, is sufficient.

다른 예로, 도 23에 도시된 바와 같이 공(25)으로부터 홀(21)을 향하는 제 1 방향으로는 경사가 없으나, 상기 제 1 방향과 직교하는 제 2 방향으로는 경사가 있는 경우, 제 1 획득영상(M1)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값은, 제 2 획득영상(M2)에서 구한 공(25)의 Y축 좌표값 및 홀(21)의 Y축 좌표값과 각각 다르게 된다. 이러한 경우 프로세서(7)는 상기 제 2 방향으로의 경사를 고려하여 지대가 높은 쪽으로 퍼팅을 할 것을 결과로서 출력할 수 있다.As another example, as shown in FIG. 23, when there is no slope in the first direction from the ball 25 to the hole 21, but there is a slope in the second direction orthogonal to the first direction, the first obtained The Y-axis coordinate value of the ball 25 and the Y-axis coordinate value of the hole 21 obtained from the image M1 are the Y-axis coordinate value of the ball 25 and the hole 21 obtained from the second acquired image M2. Each is different from the Y-axis coordinate value of . In this case, the processor 7 may consider the slope in the second direction and output a result indicating that putting should be done toward the higher ground.

더 나아가, 프로세서(7)는, 제 1 획득영상(M1)에서 구한 공의 Y축 좌표값과 제 2 획득영상(M2)에서 구한 공의 Y축 좌표값의 크기를 비교하여 홀(21)을 향하는 방향에 대해 좌, 우측 중 어느 측으로 어느 정도의 각도로 퍼팅방향을 할 것인지도 판단할 수 있다.Furthermore, the processor 7 compares the size of the Y-axis coordinate value of the ball obtained from the first acquired image (M1) with the size of the Y-axis coordinate value of the ball obtained from the second acquired image (M2) to determine the hole 21. You can also determine which direction to put at, left or right, and at what angle in relation to the direction you are heading.

도 25는 퍼팅거리 측정 방법의 다른 실시예를 설명하기 위한 도면이다. 도 25를 참조하면, 본 실시예에 따른 퍼팅거리 측정 방법은 획득영상에 표현된 색상을 분석하여 홀(21)과 깃대(22)를 식별할 수 있다. 구체적으로, 프로세서(7)는 획득 영상에 표현된 색상을 분석하여 깃대(22)의 윤곽, 깃대(22)의 최상단 지점 및 홀(21)을 검출하고, 이렇게 검출된 결과를 바탕으로 깃대 길이(h1') 및/또는 고저차(h2')를 구할 수 있다.Figure 25 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 25, the putting distance measurement method according to this embodiment can identify the hole 21 and the flagpole 22 by analyzing the color expressed in the acquired image. Specifically, the processor 7 analyzes the color expressed in the acquired image to detect the outline of the flagpole 22, the uppermost point of the flagpole 22, and the hole 21, and based on the detected results, the flagpole length ( h1') and/or elevation difference (h2') can be obtained.

스마트 퍼팅 디바이스(100)는 레이저를 이용하여 깃발을 인식하는 깃발인식모듈(미도시)를 포함할 수 있다. 상기 깃발인식모듈은 레이저에 의해 깃발이 감지된 경우 이를 짧은 진동으로 알려주는 졸트 기능(JOLT)을 구현하는 것일 수 있다. 졸트 기능은 이미 레이저 거리 측정기에 널리 적용되고 있는 기술이므로 구체적인 설명은 생략한다.The smart putting device 100 may include a flag recognition module (not shown) that recognizes the flag using a laser. The flag recognition module may implement a JOLT function that notifies the flag with a short vibration when a flag is detected by a laser. Since the Jolt function is a technology that is already widely applied to laser range finders, detailed explanations will be omitted.

상기 깃발인식모듈에 의해 깃발이 인식되면, 프로세서(7)는 획득영상에 표현된 색상들을 분석하여 깃발의 윤곽을 검출할 수 있다. 통상적으로 깃발은 먼 거리에서도 용이하게 식별될 수 있도록 배경과 대비를 이루는 색상으로 이루어지므로, 프로세서(7)는 획득 영상을 구성하는 화소들의 색상들을 분석하여 깃발의 윤곽과 깃발 상단의 위치를 검출할 수 있다.When the flag is recognized by the flag recognition module, the processor 7 can detect the outline of the flag by analyzing the colors expressed in the acquired image. Typically, the flag is made up of colors that contrast with the background so that it can be easily identified from a distance, so the processor 7 analyzes the colors of the pixels that make up the acquired image to detect the outline of the flag and the position of the top of the flag. You can.

또한, 프로세서(7)는 획득영상에 표현된 색상을 분석하여 깃대(22)와 홀(21)이 만나는 지점을 검출할 수 있으며, 이렇게 구해진 지점(즉, 홀의 위치)과 앞서 구한 깃발 상단의 위치를 바탕으로 획득 영상에서의 깃대 길이(h1')를 구할 수 있다. 더 나아가, 프로세서(7)는 홀의 위치를 바탕으로 고저차(h2')를 구할 수 있다.In addition, the processor 7 can detect the point where the flagpole 22 and the hole 21 meet by analyzing the color expressed in the acquired image, and the point obtained in this way (i.e., the position of the hole) and the position of the top of the flag obtained previously Based on this, the flagpole length (h1') in the acquired image can be obtained. Furthermore, the processor 7 can obtain the elevation difference (h2') based on the location of the hole.

도 26은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 26을 참조하면, 홀의 위치와 깃발 상단의 위치는 인공지능에 기반한 영상 분석 방법에 의해 구해질 수 있다.Figure 26 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to Figure 26, the location of the hole and the location of the top of the flag can be obtained by an image analysis method based on artificial intelligence.

메모리(19)에는 딥러닝 기반으로 학습된 인공 신경망이 저장될 수 있으며, 프로세서(7)는 상기 인공 신경망을 이용한 획득 영상의 분석 과정을 통해 홀의 위치와 깃발 상단의 위치를 검출할 수 있다. 상기 인공 신경망은 기 알려진 다양한 방식으로 구현될 수 있다.An artificial neural network learned based on deep learning can be stored in the memory 19, and the processor 7 can detect the location of the hole and the position of the top of the flag through an analysis process of the acquired image using the artificial neural network. The artificial neural network can be implemented in various known ways.

예를 들어, 프로세서(7)는 도 26에 도시된 바와 같이, 획득 영상에서 깃대를 인식하여 박스 형태로 깃대가 표현된 영역을 정의할 수 있으며, 여기서, 상기 박스는 홀을 지나는 수평선을 하측 가로로 하고, 깃대의 상단을 지나는 수평선을 상측 가로로 하는 직사각형일 수 있다.For example, as shown in FIG. 26, the processor 7 may recognize a flagpole in an acquired image and define an area where the flagpole is expressed in the form of a box, where the box is located along the lower horizontal line passing through the hole. It may be a rectangle with the horizontal line passing through the top of the flagpole as the upper horizontal line.

또한, 프로세서(7)는 획득 영상에서 깃발을 인식하여 박스 형태로 깃발이 표현된 영역을 정의할 수 있으며, 이 경우, 깃발의 상단을 지나는 수평선이 직사각형 박스의 상측 가로를 정의할 수 있다.Additionally, the processor 7 can recognize the flag in the acquired image and define an area where the flag is expressed in the form of a box. In this case, the horizontal line passing through the top of the flag can define the upper side of the rectangular box.

도 27은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 27을 참조하면, 본 발명의 일 실시예에 따른 스마트 퍼팅 디바이스는 영상 획득부(5)가 스테레오 방식의 2 개의 획득 이미지를 구하도록 구성될 수 있다.Figure 27 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 27, the smart putting device according to an embodiment of the present invention may be configured so that the image acquisition unit 5 obtains two stereo acquired images.

구체적으로, 영상 획득부(5)는 수평방향(또는, 좌우방향)으로 일정 거리 이격된 2 개의 카메라를 포함할 수 있다. 같은 위치에서 동일한 대상을 상기 2 개의 카메라를 이용하여 촬영함으로써 시차가 다른 두개의 획득 영상을 구하게 되고, 이렇게 구한 두 개의 획득 영상을 이용하여 프로세서(7)는 퍼팅위치에 대한 홀의 고저차 및/또는 대상까지의 거리(또는, 퍼팅위치로부터 홀까지의 수평거리)를 구할 수 있다.Specifically, the image acquisition unit 5 may include two cameras spaced a certain distance apart in the horizontal direction (or left and right directions). By shooting the same object at the same location using the two cameras, two acquired images with different time differences are obtained, and using the two acquired images obtained in this way, the processor 7 determines the elevation difference of the hole and/or the object with respect to the putting position. You can find the distance to (or the horizontal distance from the putting position to the hole).

도 27에서 L1은 좌측에 위치하는 제 1 카메라에 의해 획득된 제 1 획득 영상이고, R1은 우측에 위치하는 제 2 카메라에 의해 획득된 제 2 획득 영상이다.In FIG. 27, L1 is the first acquired image acquired by the first camera located on the left, and R1 is the second acquired image acquired by the second camera located on the right.

프로세서(7)는 상기 제 1 획득 영상과 상기 제 2 획득 영상을 바탕으로 Disparity Map 또는 Depth Map을 구할 수 있다.The processor 7 may obtain a Disparity Map or Depth Map based on the first acquired image and the second acquired image.

통상적으로 이러한 맵들을 생성하는 데에는 매우 큰 연산량이 필요하기 때문에, 바람직하게는, 프로세서(7)는 제 1, 2 획득 영상에서 각각 깃대(또는, 깃발) 및/또는 공(25)만을 식별하고, 이들에 대한 차이(disparity)만을 맵으로 생성할 수 있다. 획득 영상에서 깃대 또는 공을 식별하는 것은 인공지능 알고리즘에 의해 이루어질 수 있다.Since generating these maps typically requires a very large amount of computation, preferably, the processor 7 identifies only the flagpole (or flag) and/or the ball 25 in the first and second acquired images, respectively, Only the disparity for these can be created as a map. Identifying the flagpole or ball from the acquired image can be accomplished by an artificial intelligence algorithm.

실시예에 따라, 차이(disparity)는 양 영상에서의 밝기 차일 수 있다. 프로세서(7)는 획득영상의 밝기 정보를 분석할 수 있다. 색상을 제외하고 밝기만을 비교할 시 영상에서 표현된 객체들은 어두울수록 멀리 떨어진 것이다. 프로세서(7)는 제 1 획득 영상으로부터 제 1 밝기 정보를 구하고, 제 2 획득 영상으로부터 제 2 밝기 정보를 구한 후, 제 1, 2 밝기 정보들의 차이를 바탕으로 타겟(예를 들어, 깃대나 공)까지의 거리를 구할 수 있다.Depending on the embodiment, the disparity may be a difference in brightness between both images. The processor 7 can analyze brightness information of the acquired image. When comparing only brightness, excluding color, the darker the objects expressed in the image, the farther away they are. The processor 7 obtains first brightness information from the first acquired image, obtains second brightness information from the second acquired image, and then determines a target (for example, a flagpole or a ball) based on the difference between the first and second brightness information. ) can be found.

참고로, 도 27에서 L2는 제 1 획득 영상을 밝기 정보를 이용하여 처리한 영상이고, R2는 제 2 획득 영상을 밝기 정보를 이용하여 처리한 영상이다.For reference, in FIG. 27, L2 is an image obtained by processing the first acquired image using brightness information, and R2 is an image obtained by processing the second acquired image using brightness information.

색상이나, 형태 등의 영상을 구성하는 다양한 정보들 중에서, 상대적으로 데이터량이 적은 밝기 정보를 이용하여 거리를 구하기 때문에 연산량을 줄일 수 있는 효과가 있다.Among the various information that constitutes an image, such as color and shape, the distance is calculated using brightness information, which has a relatively small amount of data, which has the effect of reducing the amount of calculation.

도 28은 퍼팅거리 측정 방법의 또 다른 실시예를 설명하기 위한 도면이다. 도 28을 참조하면, 영상 획득부(5)는 좌우(또는, 수평) 및 상하(또는, 수직)로 소정 거리 이격된 2 개의 카메라를 포함할 수 있다.Figure 28 is a diagram for explaining another embodiment of a putting distance measuring method. Referring to FIG. 28, the image acquisition unit 5 may include two cameras spaced apart from each other by a predetermined distance left and right (or horizontally) and up and down (or vertically).

같은 위치에서 동일한 대상을 상기 2 개의 카메라를 이용하여 촬영함으로써 시차가 다른 두개의 획득 영상을 구하게 되고, 이렇게 구한 두 개의 획득 영상에서 프로세서(7)는 깃대의 좌우 편차(xa) 및 상하 편차(ya)를 구하고, 구해진 값들을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및/또는 깃대까지의 거리(또는, 퍼팅위치로부터 홀까지의 수평거리)를 구할 수 있다.By shooting the same object at the same location using the two cameras, two acquired images with different time differences are obtained, and from the two acquired images obtained in this way, the processor 7 determines the left and right deviation (xa) and the top and bottom deviation (ya) of the flagpole. ), and based on the obtained values, the height difference of the hole with respect to the putting position and/or the distance to the flagpole (or the horizontal distance from the putting position to the hole) can be obtained.

Claims (20)

홀과, 상기 홀에 꽂힌 깃대의 영상을 획득하는 영상 획득부; 및
상기 영상 획득부에 의해 획득된 영상에서 홀을 식별하여 퍼팅 위치에 대한 상기 홀의 고저차를 구하고, 상기 영상에서 상기 깃대를 식별하여 상기 깃대의 길이를 구하고, 상기 고저차와 상기 깃대의 길이를 바탕으로 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.
An image acquisition unit that acquires images of a hole and a flagpole inserted into the hole; and
Identify the hole in the image acquired by the image acquisition unit to obtain the elevation difference of the hole with respect to the putting position, identify the flagpole in the image to obtain the length of the flagpole, and obtain the height difference and the length of the flagpole based on the elevation difference and the length of the flagpole. A smart putting device including a processor that calculates the horizontal distance from the putting position to the hole.
제 1 항에 있어서,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함하는 스마트 퍼팅 디바이스.
According to claim 1,
A smart putting device further comprising an output unit that outputs at least one of the elevation difference and the horizontal distance.
제 2 항에 있어서,
상기 출력부는,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 시각적으로 표시하는 디스플레이를 포함하는 스마트 퍼팅 디바이스.
According to claim 2,
The output unit,
A smart putting device including a display that visually displays at least one of the elevation difference and the horizontal distance.
제 1 항에 있어서,
가속도 센서를 더 포함하고,
상기 프로세서는,
상기 가속도 센서의 감지값을 바탕으로 상기 영상 획득부가 기 설정된 기준자세로 정렬되었는지를 판단하고, 정렬된 것으로 판단된 경우 출력부를 통해 알림을 출력하는 스마트 퍼팅 디바이스.
According to claim 1,
Further comprising an acceleration sensor,
The processor,
A smart putting device that determines whether the image acquisition unit is aligned to a preset reference posture based on the detection value of the acceleration sensor, and outputs a notification through the output unit if it is determined to be aligned.
제 4 항에 있어서,
사용자로부터 소정의 명령을 입력받는 입력부를 더 포함하고,
상기 프로세서는,
상기 알림이 출력된 후 상기 입력부를 통해 촬영 명령이 입력되면, 상기 영상 획득부를 통해 영상이 획득되도록 제어하는 스마트 퍼팅 디바이스.
According to claim 4,
It further includes an input unit that receives a predetermined command from the user,
The processor,
A smart putting device that controls to acquire an image through the image acquisition unit when a shooting command is input through the input unit after the notification is output.
제 5 항에 있어서,
상기 프로세서는,
상기 영상 획득부에 의해 획득된 영상을, 상기 가속도 센서의 감지값을 바탕으로 보정하고, 보정된 영상에서 상기 깃대의 길이를 구하는 스마트 퍼팅 디바이스.
According to claim 5,
The processor,
A smart putting device that corrects the image acquired by the image acquisition unit based on the detection value of the acceleration sensor and determines the length of the flagpole from the corrected image.
제 1 항에 있어서,
상기 프로세서는,
상피 스마트 퍼팅 디바이스가 지면에 놓인 상태에서 상기 영상 획득부를 통해 구한 제 1 획득영상과, 상기 스마트 퍼팅 디바이스가 상기 지면으로부터 소정 거리 이격된 상태에서 구한 제 2 획득영상을 바탕으로 상기 고저차를 구하는 스마트 퍼팅 디바이스.
According to claim 1,
The processor,
Smart putting to obtain the height difference based on the first acquired image obtained through the image acquisition unit while the epithelium smart putting device is placed on the ground, and the second acquired image obtained while the smart putting device is spaced a predetermined distance from the ground. device.
제 1 항에 있어서,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부; 및
골프 퍼터용 퍼터 헤드를 더 포함하고,
상기 프로세서, 영상 획득부 및 출력부는 상기 퍼터 헤드에 배치되는 스마트 퍼팅 디바이스.
According to claim 1,
an output unit that outputs at least one of the elevation difference and the horizontal distance; and
Further comprising a putter head for a golf putter,
A smart putting device where the processor, image acquisition unit, and output unit are disposed on the putter head.
제 8 항에 있어서,
가속도 센서; 및
상기 고저차 및 수평 거리에 대한 정보를 무선으로 전송하는 무선통신모듈을 더 포함하고,
상기 가속도 센서 및 상기 무선통신모듈은 상기 퍼터 헤드에 배치되는 스마트 퍼팅 디바이스.
According to claim 8,
acceleration sensor; and
It further includes a wireless communication module that wirelessly transmits information about the elevation difference and horizontal distance,
The acceleration sensor and the wireless communication module are a smart putting device disposed on the putter head.
제 1 항에 있어서,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부; 및
골프 퍼터용 퍼터 헤드를 더 포함하고,
상기 영상 획득부는 상기 퍼터 헤드에 배치되고,
상기 퍼터 헤드와 분리된 것으로서, 상기 프로세서 및 상기 출력부를 포함하는 서브 디바이스를 더 포함하는 스마트 퍼팅 디바이스.
According to claim 1,
an output unit that outputs at least one of the elevation difference and the horizontal distance; and
Further comprising a putter head for a golf putter,
The image acquisition unit is disposed on the putter head,
A smart putting device that is separate from the putter head and further includes a sub-device including the processor and the output unit.
제 10 항에 있어서,
상기 퍼터 헤드에 배치되고 상기 영항 획득부에 의해 획득된 영상을 무선으로 전송하는 제 1 무선통신모듈; 및
상기 서브 디바이스에 배치되고, 상기 제 1 무선통신모듈과 통신하는 제 2 무선통신모듈을 더 포함하는 스마트 퍼팅 디바이스.
According to claim 10,
a first wireless communication module disposed on the putter head and wirelessly transmitting the image acquired by the zero-angular acquisition unit; and
A smart putting device further comprising a second wireless communication module disposed on the sub-device and communicating with the first wireless communication module.
홀이 위치한 지점에서 공의 영상을 획득하는 영상 획득부; 및
상기 영상 획득부에 의해 획득된 영상에서 상기 공을 식별하여, 상기 공과 상기 홀 간의 고저차 및 상기 공의 너비를 구하고, 상기 고저차 및 상기 공의 너비를 바탕으로 상기 공까지의 수평 거리를 구하는 프로세서를 포함하는 스마트 퍼팅 디바이스.
An image acquisition unit that acquires an image of the ball at the point where the hole is located; and
A processor that identifies the ball in the image acquired by the image acquisition unit, obtains the elevation difference between the ball and the hole and the width of the ball, and determines the horizontal distance to the ball based on the elevation difference and the width of the ball. Smart putting device, including:
제 12 항에 있어서,
볼마커를 더 포함하고,
상기 영상 획득부 및 상기 프로세서는 상기 볼마커에 배치되는 스마트 퍼팅 디바이스.
According to claim 12,
Includes more ball markers,
The image acquisition unit and the processor are smart putting devices disposed on the ball marker.
제 13 항에 있어서,
상기 고저차 및 상기 수평 거리 중 적어도 하나를 출력하는 출력부를 더 포함하는 스마트 퍼팅 디바이스.
According to claim 13,
A smart putting device further comprising an output unit that outputs at least one of the elevation difference and the horizontal distance.
제 14 항에 있어서,
상기 출력부는,
상기 볼마커에 배치되는 스마트 퍼팅 디바이스.
According to claim 14,
The output unit,
A smart putting device placed on the ball marker.
제 14 항에 있어서,
상기 볼마커와 분리된 서브 디바이스를 더 포함하고,
상기 출력부는,
상기 서브 디바이스에 배치되는 스마트 퍼팅 디바이스.
According to claim 14,
Further comprising a sub device separated from the ball marker,
The output unit,
A smart putting device disposed on the sub-device.
제 1 항에 있어서,
상기 프로세서는,
인공지능 기반의 객체 탐지 알고리즘을 이용하여 상기 영상으로부터 상기 홀과 상기 깃대를 식별하는 스마트 퍼팅 디바이스.
According to claim 1,
The processor,
A smart putting device that identifies the hole and the flagpole from the image using an artificial intelligence-based object detection algorithm.
제 1 항에 있어서,
상기 프로세서는,
상기 영상에 표현된 색상을 분석하여 상기 홀과 상기 깃대를 식별하는 스마트 퍼팅 디바이스.
According to claim 1,
The processor,
A smart putting device that identifies the hole and the flagpole by analyzing the colors expressed in the image.
수평 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부; 및
상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.
An image acquisition unit including a first camera and a second camera spaced apart by a predetermined distance in the horizontal direction; and
Based on the first acquired image captured by the first camera and the second acquired image captured by the second camera while the image acquisition unit is at the same position, the height difference of the hole with respect to the putting position and the putting position A smart putting device including a processor that calculates the horizontal distance to the hole.
수평 및 수직 방향으로 소정 거리 이격된 제 1 카메라 및 제 2 카메라를 구비한 영상 획득부; 및
상기 영상 획득부가 같은 위치에 있는 상태에서 상기 제 1 카메라에 의해 촬영된 제 1 획득 영상과, 상기 제 2 카메라에 의해 촬영된 제 2 획득 영상을 바탕으로 퍼팅 위치에 대한 상기 홀의 고저차 및 상기 퍼팅 위치에서 상기 홀까지의 수평 거리를 산출하는 프로세서를 포함하는 스마트 퍼팅 디바이스.
An image acquisition unit including a first camera and a second camera spaced apart from each other by a predetermined distance in the horizontal and vertical directions; and
The elevation difference of the hole with respect to the putting position and the putting position based on the first acquired image captured by the first camera and the second acquired image captured by the second camera while the image acquisition unit is at the same position. A smart putting device including a processor that calculates the horizontal distance from to the hole.
KR1020237017603A 2022-05-18 2023-05-18 A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same KR20230162918A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20220060741 2022-05-18
KR1020220060741 2022-05-18
PCT/KR2023/006729 WO2023224399A1 (en) 2022-05-18 2023-05-18 Smart putting device calculating putting distance on basis of image captured by camera, and method of measuring putting distance using same

Publications (1)

Publication Number Publication Date
KR20230162918A true KR20230162918A (en) 2023-11-29

Family

ID=88835802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237017603A KR20230162918A (en) 2022-05-18 2023-05-18 A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same

Country Status (2)

Country Link
KR (1) KR20230162918A (en)
WO (1) WO2023224399A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200445184Y1 (en) * 2007-07-26 2009-07-06 주식회사 한국센시스 A sensor for golf club and a golf club using the same
JP6438899B2 (en) * 2016-01-21 2018-12-19 株式会社テクノクラフト Golf practice equipment
KR102295126B1 (en) * 2019-05-02 2021-08-31 (주) 이룸디엔티 Putting assistance apparatus based on green information providing putting guide and control method thereof
KR102456335B1 (en) * 2020-10-27 2022-10-20 알바이오텍 주식회사 Device for measuring golf distance and green slope
KR102304787B1 (en) * 2021-03-31 2021-09-23 박광수 Ball marker providing putting line informaion on the green

Also Published As

Publication number Publication date
WO2023224399A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
KR101577764B1 (en) Providing Method of Predicted Putting Trace of Golf Green in Mobile Terminal
JP5932059B2 (en) Golf club head measuring device
JP5646263B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
KR101898782B1 (en) Apparatus for tracking object
CN105288982B (en) The motion state measure device of golf
JP2019506260A (en) Method and apparatus for performing motion analysis of sports equipment
KR102215037B1 (en) System and apparatus to provide distance measurement for golf
KR20190077081A (en) Golf Ball Launch Monitor Target Alignment Method and System
KR102431813B1 (en) Putting-guide apparatus and putting guide method using the same
KR102102290B1 (en) Apparatus for analyzing green lie
CN107560637A (en) Wear display device calibration result verification method and wear display device
KR102050378B1 (en) Green information providing device by direct 3-dimensional image obtain and method
US20230036888A1 (en) Electronic golfing aid systems and methods thereof
CN107106900A (en) Detection means, detecting system, motion analysis system, recording medium and analysis method
KR20170119644A (en) Apparatus and method for putting assist
CN109948630A (en) Recognition methods, device, system and the storage medium of target sheet image
KR20230162918A (en) A smart putting device that calculates the putting distance based on images captured by a camera and a method of measuring the putting distance using the same
KR102202594B1 (en) Putting guide providing system and method thereof
US20210008430A1 (en) Trajectory assistance systems and methods thereof
KR102526640B1 (en) Golf glasses providing putting information and putting information providing apparatus including the same
KR102456335B1 (en) Device for measuring golf distance and green slope
KR102651770B1 (en) Portable guise apparatus for golf putting
KR101938639B1 (en) Green information providing method using picture and terminal thereof
US20200289906A1 (en) Auxiliary apparatus for golf putter
JP7076031B1 (en) Ball position identification system, ball position identification method and program

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal