KR20170133730A - Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same - Google Patents

Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same Download PDF

Info

Publication number
KR20170133730A
KR20170133730A KR1020160064881A KR20160064881A KR20170133730A KR 20170133730 A KR20170133730 A KR 20170133730A KR 1020160064881 A KR1020160064881 A KR 1020160064881A KR 20160064881 A KR20160064881 A KR 20160064881A KR 20170133730 A KR20170133730 A KR 20170133730A
Authority
KR
South Korea
Prior art keywords
light
camera
image
wavelength band
camera device
Prior art date
Application number
KR1020160064881A
Other languages
Korean (ko)
Other versions
KR101902283B1 (en
Inventor
박현진
오세정
정현담
Original Assignee
주식회사 골프존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 골프존 filed Critical 주식회사 골프존
Priority to KR1020160064881A priority Critical patent/KR101902283B1/en
Priority to TW106117350A priority patent/TWI642462B/en
Priority to PCT/KR2017/005451 priority patent/WO2017204571A1/en
Publication of KR20170133730A publication Critical patent/KR20170133730A/en
Application granted granted Critical
Publication of KR101902283B1 publication Critical patent/KR101902283B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3658Means associated with the ball for indicating or measuring, e.g. speed, direction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3623Training appliances or apparatus for special sports for golf for driving
    • A63B69/3632Clubs or attachments on clubs, e.g. for measuring, aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • H04N13/0239
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Abstract

The present invention relates to a camera sensing device for obtaining three-dimensional information of an object and a virtual golf simulation apparatus using the same. The camera sensing device in which two cameras are formed in a completely different location to be separated away from each other such that a corresponding object cannot be detected through similarity determination of a target object from images obtained by the two cameras, and which can calculate location information of an object in a three-dimensional space by detecting each object from images obtained by two cameras for the same object with a stereoscopic method. The camera sensing device removes influence of a shadow from an image obtained by each camera due to a shadow generated for a target object by removing according to light irradiated from a location of each camera and allows each camera to obtain more clear and bright images for an object. Therefore, the prevent invention can take advantage of a camera sensing device using a long-range arrangement method and solve a shadow problem caused thereby at the same time, and thus high-quality images can be obtained. The camera sensing device of the present invention comprises: a first camera device acquiring an image in accordance with a light source of a predetermined first wavelength bandwidth for an object; a second camera device acquiring an image in accordance with a light source of a second wavelength bandwidth different from the first wavelength bandwidth as a predetermined wavelength bandwidth for an object; and a calculation device calculating coordinate information.

Description

물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치{CAMERA SENSING DEVICE FOR OBTAINING THREE-DIMENSIONAL INFORMATION OF OBJECT AND VIRTUAL GOLF SIMULATION APPARATUS USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a camera sensing apparatus for acquiring three-dimensional information of an object, and a virtual golf simulation apparatus using the same. [0002]

본 발명은 센싱 대상 물체에 대해 2차원 영상을 취득하는 두 대의 카메라 각각으로부터 전달받은 이미지의 2차원 좌표 정보를 이용하여 센싱 대상 물체에 대한 3차원 공간 상에서의 3차원 정보를 획득할 수 있도록 하는 스테레오스코픽(Stereoscopic) 방식의 카메라 센싱 장치와, 상기 카메라 센싱 장치를 이용하여 골프공 및 상기 골프공을 타격하는 골프클럽을 감지하여 3차원 공간 상에서의 위치 정보를 산출하여 이를 시뮬레이션 영상 구현에 이용하도록 하는 가상 골프 시뮬레이션 장치에 관한 것이다.The present invention relates to a stereoscopic image capturing apparatus and a stereoscopic image capturing method, which can acquire three-dimensional information in a three-dimensional space with respect to an object to be sensed using two-dimensional coordinate information of an image received from each of two cameras, A stereoscopic camera sensing device, a golf ball sensing the golf ball and a golf club hitting the golf ball using the camera sensing device, calculating position information in a three-dimensional space, and using the same for realizing a simulation image And a virtual golf simulation apparatus.

일반적으로 어떤 물체에 대한 3차원 공간 상에서의 좌표 정보를 취득하기 위한 장치로서 두 대의 카메라를 이용하여 양안 방식(Stereoscopic)의 카메라 장치가 이용되고 있다.2. Description of the Related Art In general, a stereoscopic camera device using two cameras is used as an apparatus for acquiring coordinate information in a three-dimensional space with respect to an object.

즉, 일 카메라가 촬영한 대상 물체에 대한 2D 영상과 동일한 대상 물체에 대한 다른 카메라가 촬영한 2D 영상으로부터 각각 해당 대상 물체에 대한 2차원 좌표 정보를 추출하고, 그 각각 추출된 2차원 좌표 정보에 대해 미리 정의된 상관관계 함수를 이용하여 해당 대상 물체의 3차원 좌표 정보를 산출하는 것이다.That is, two-dimensional coordinate information for a corresponding object is extracted from a 2D image captured by another camera for the same object as a 2D image for an object photographed by one camera, and the extracted two- Dimensional coordinate information of the target object using a pre-defined correlation function.

이와 같은 양안 방식의 카메라 장치는 어떤 대상 물체의 3차원 공간 상에서의 위치 정보의 산출에 널리 이용되는데, 가장 대표적인 예로서 도 1에 도시된 바와 같이 소위 스크린 골프와 같은 가상 골프 시뮬레이션 장치에서 사용자가 골프스윙에 의해 타격한 골프공이 운동함에 따른 3차원 공간 상에서의 위치 변화 정보를 산출하는데 이용된다.As shown in FIG. 1, in a virtual golf simulation apparatus such as a so-called screen golf, a user can select a golf course And is used to calculate the position change information in the three-dimensional space due to the movement of the golf ball struck by the swing.

도 1에 도시된 바와 같이 스크린 골프를 위한 공간을 마련하는 부스(BT) 내에서, 사용자(P)의 전방에 스크린(12)을 설치하고 영상출력장치(400)가 골프코스에 대한 영상(SI)을 상기 스크린(12)에 출력하며, 부스 바닥(B1)에 타석(10)을 마련하고 사용자(P)가 골프공(1)을 타격하면, 부스(BT)의 천장에 설치된 제1 카메라(51)와 제2 카메라(52)가 각각 타격된 골프공(1)을 촬영하여 시뮬레이터(SM)로 전송하고, 시뮬레이터(SM)는 각각의 카메라가 취득한 영상을 분석하여 골프공(1)에 대한 3차원 공간 상에서의 위치 정보를 산출하고 그 산출된 위치 정보에 기초하여 골프공(1)의 운동에 따른 운동 파라미터를 산출하며 그 산출된 골프공의 운동 파라미터에 기초한 볼의 궤적에 대한 시뮬레이션 영상이 상기 골프코스의 영상 상에서 이루어질 수 있도록 한다.1, a screen 12 is installed in front of a user P in a booth BT providing a space for screen golf, and the video output device 400 displays images (SI ) To the screen 12 and a batting 10 is provided on the floor B1 of the booth and the user P hits the golf ball 1 and the first camera installed on the ceiling of the booth BT 51 and the second camera 52 pick up the shot golf ball 1 and transmit the shot to the simulator SM so that the simulator SM analyzes the images acquired by the respective cameras to obtain the golf ball 1 Calculates a motion parameter according to the motion of the golf ball 1 based on the calculated position information, and outputs a simulation image of the ball's trajectory based on the calculated motion parameter of the golf ball So that it can be performed on the image of the golf course.

도 1에 도시된 바와 같이, 종래에는 가상 골프 시뮬레이션 장치에 이용되는 골프공을 감지하기 위한 센싱장치의 제1 카메라(51)와 제2 카메라(52)가 부스(BT)의 천장, 즉 사용자(P)의 머리 위쪽에 가깝게 배치되어 설치되었다.As shown in FIG. 1, a first camera 51 and a second camera 52 of a sensing device for sensing a golf ball used in a virtual golf simulation apparatus are connected to a ceiling of a BT, that is, a user P in the vicinity of the top of the head.

이와 같이 두 대의 카메라가 근접하도록 배치되어 동일한 물체에 대한 영상을 취득하는 경우에는 많은 장점이 있는데, 이에 대해 도 2를 참조하여 설명한다.There are many advantages when the two cameras are arranged close to each other and acquire an image of the same object, which will be described with reference to FIG.

도 2의 (a)에서는 제1 카메라(C1)와 제2 카메라(C2)가 근접하여 설치되어 대상 물체(Ob)를 감지하는 경우에 대해 나타내고 있고, 도 2의 (b)에서는 제1 카메라(C1')가 천장 쪽에 설치되고 제2 카메라(C2')가 측면 쪽에 설치되어 멀리 떨어져서 각각 대상 물체(Ob)를 감지하는 경우에 대해 나타내고 있다.2 (a) shows a case where the first camera C1 and the second camera C2 are installed in close proximity to each other to detect the target object Ob. In FIG. 2 (b) C1 'are installed on the ceiling side and the second camera C2' is installed on the lateral side to detect the object Ob at a far distance.

도 2의 (a)에 도시된 바와 같이 두 카메라가 근접하여 배치되어 있는 경우에는 제1 카메라(C1)가 취득하는 영상상의 피사체와 제2 카메라(C2)가 취득하는 영상상의 피사체가 상당히 유사하게 나타나므로, 각 카메라의 취득 영상으로부터 동일한 대상 물체를 검출할 때 유사성(Similarity)에 근거를 둔 특징들을 기반으로 하여 영상 처리 및 대상 물체에 대한 3차원 정보의 취득이 가능하다.When two cameras are arranged close to each other as shown in Fig. 2 (a), the subject on the image captured by the first camera C1 and the subject captured on the image captured by the second camera C2 are substantially similar Therefore, when detecting the same object from captured images of each camera, image processing and acquisition of three-dimensional information on the object can be performed based on features based on similarity.

또한, 도 2의 (a)에 도시된 바와 같이 두 카메라가 근접하여 배치되면 대상 물체(Ob)가 이동하는 경우에도 그 이동 변위가 두 카메라가 각각 취득하는 영상 상에 유사하게 나타나므로 이동 변위에 대한 유사성을 산출하여 해당 대상 물체에 대한 검출을 용이하게 할 수 있는 장점이 있다.In addition, as shown in FIG. 2A, when the two cameras are arranged close to each other, even when the object Ob moves, the movement displacement similarly appears on the images acquired by the two cameras, So that it is possible to easily detect the object.

한편, 도 2의 (b)에 도시된 바와 같이 제1 카메라(C1')와 제2 카메라(C2')가 서로 원거리에 배치되어 대상 물체(Ob)를 서로 다른 쪽에서 바라보는 방향으로 각각 영상을 취득하는 경우에는 각 카메라의 취득 영상 상에서 동일한 대상 물체라도 서로 다른 형상으로 나타나기 때문에 도 2의 (a)에 도시된 카메라 센싱 방식과 같이 양 이미지 사이의 유사성에 근거하여서는 대상 물체를 검출해 낼 수 없으므로 다른 방식으로 대상 물체를 검출하여야 한다.On the other hand, as shown in FIG. 2 (b), the first camera C1 'and the second camera C2' are arranged at a distance from each other, and the images are displayed in the direction in which the object OB is viewed from the other side In the case of acquiring, since the same object is displayed in different shapes on the captured image of each camera, the object can not be detected based on the similarity between the two images as in the camera sensing method shown in Fig. 2A The object should be detected in a different manner.

상기한 바와 같이 두 카메라의 위치가 근접해 있는지 서로 다른 위치에 멀리 떨어져 있는지에 따라 장단점이 나뉘는 반면, 도 2의 (a)에 도시된 바와 같은 근접한 위치에서의 스테레오스코픽 방식의 카메라 센싱보다 도 2의 (b)에 도시된 바와 같은 멀리 떨어진 서로 다른 위치에서의 스테레오스코픽 방식의 카메라 센싱이 더 큰 장점을 갖는 경우도 있다.As described above, the pros and cons are divided according to whether the positions of the two cameras are close to each other or apart from each other. On the other hand, in contrast to the stereoscopic camera sensing at a close position as shown in FIG. 2 (a) there is a case in which the stereoscopic camera sensing at different distant positions as shown in (b) has a greater advantage.

도 2의 (c)는 도 2의 (a)에 도시된 바와 같은 카메라 센싱 방식에 따라 대상 물체를 검출하는 경우를 나타내고, 도 2의 (d)는 도 2의 (b)에 도시된 바와 같은 카메라 센싱 방식에 따라 대상 물체를 검출하는 경우를 나타내고 있다.2 (c) shows a case in which a target object is detected according to a camera sensing method as shown in (a) of FIG. 2, and FIG. 2 (d) And the object is detected according to the camera sensing method.

먼저 도 2의 (c)를 보면, A라는 피사체에 대해 제1 카메라의 영상 1에서 A1으로, 제2 카메라의 영상 2에서 A2로 각각 영상이 취득되었다고 할 때, 피사체 A의 3차원 정보는 A1으로부터의 시선벡터 v1과 A2로부터의 시선벡터 v2에 의한 삼각측량법(Triangulation Method)에 의해 산출할 수 있다.2 (c), when it is assumed that an image is acquired from the image 1 of the first camera to the image A1 of the first camera and the image A2 of the image of the second camera respectively with respect to the object A, the three-dimensional information of the object A is A1 Can be calculated by the triangulation method using the line-of-sight vector v1 from A2 and the line-of-sight vector v2 from A2.

그런데, 예컨대 도 2의 (c)에 도시된 바와 같이 영상 2에서 A2 부분에 대한 영상 오차(E1)가 발생하는 경우 오차에 따른 시선벡터를 ve라고 할 때 시선벡터 v1과 ve에 따라 대상 물체 A에 대한 3차원 정보에 E2 만큼의 3차원 오차가 발생하게 된다.2 (c), when an image error E1 for the portion A2 is generated in the image 2, if the eye vector according to the error is ve, the target object A Dimensional error of E2 is generated in the three-dimensional information about the three-dimensional information.

여기서, 도 2의 (c)에 도시된 바와 같은 카메라 센싱 방식에서 두 카메라의 시선벡터가 교차하는 각도를 a1이라 하고, 도 2의 (d)에 도시된 바와 같은 카메라 센싱 방식에서 두 카메라의 시선벡터가 교차하는 각도를 a2라 할 때, a2가 a1보다 큰 것은 당연한 것이다.Here, in the camera sensing method as shown in FIG. 2 (c), the angle at which the line of sight lines of the two cameras intersect is a1, and in the camera sensing method as shown in FIG. 2 (d) When the angle at which the vector intersects is a2, it is natural that a2 is larger than a1.

교차 각도 a2가 a1보다 얼마나 더 큰가에 따라 영상 2 부분에 대한 영상 오차(E1')가 발생할 때 시선벡터 v1과 ve'에 따라 대상 물체 A에 대한 3차원 정보에서 발생하는 3차원 오차(E2')가 더 작아질 수 있다.Dimensional error E2 'generated in the three-dimensional information on the object A according to the eye vectors v1 and ve' when the image error E1 'for the image 2 is generated according to how much the intersection angle a2 is larger than a1, ) Can be made smaller.

즉, 같은 스테레오스코픽 카메라 센싱 방식이라고 하더라도 도 2의 (a)에 도시된 바와 같이 두 카메라를 근접해서 배치하는 경우보다 도 2의 (b)에 도시된 바와 같이 두 카메라를, 예컨대 하나는 천장에 하나는 벽에 설치하는 것과 같이 멀리 떨어지게 하면서도 두 카메라의 시선벡터의 교차 각도를 90도에 가깝게 또는 90도 보다 크게 함으로써 두 영상으로부터 각각 얻은 정보를 이용하여 3차원 정보를 산출할 때 오차가 작아진다. 즉, 정확성에 있어서 도 2의 (b)에 도시된 바와 같은 카메라 센싱 방식이 더 높은 정확성을 갖는 장점이 있다.In other words, even if the same stereoscopic camera sensing method is used, as shown in FIG. 2 (a), two cameras are arranged in the same manner as shown in FIG. 2 (b) One is to set the angle of intersection of the line of sight of two cameras to be close to 90 degrees or 90 degrees, while leaving them as if they are installed on a wall, but when calculating three-dimensional information using the information obtained from two images, . That is, the camera sensing method as shown in FIG. 2 (b) has an advantage of higher accuracy in terms of accuracy.

뿐만 아니라, 도 2의 (b)에 도시된 바와 같은 카메라 센싱 방식은 대상 물체를 한 쪽에서만 바라보는 것이 아니라 서로 다른 두 위치에서 좀 더 다양한 상태에 대한 영상을 확보할 수 있기 때문에, 두 카메라를 근접해서 배치하는 도 2의 (a)에 도시된 바와 같은 카메라 센싱 방식에서는 얻을 수 없는 더 다양한 정보를 얻을 수 있는 큰 장점이 있다.In addition, since the camera sensing method as shown in FIG. 2 (b) can acquire images for more various states at two different positions instead of looking at the object from only one side, There is a great advantage that more various information that can not be obtained by the camera sensing method as shown in Fig. 2 (a) arranged close to each other can be obtained.

그러나, 도 2의 (b)에 도시된 바와 같이 두 카메라를 서로 다른 위치에 멀리 떨어지게 배치하는 방식의 카메라 센싱장치의 경우에는 조명에 따른 그림자의 발생에 의해 취득되는 영상이 어둡게 나타나게 되고 영상을 통해 대상 물체를 구별하기 힘들게 되는 문제점이 있다.However, as shown in FIG. 2B, in the case of a camera sensing apparatus in which two cameras are disposed at different distances from each other, an image obtained by the generation of shadows due to illumination is darkly displayed, There is a problem that it becomes difficult to distinguish a target object.

상기한 문제점에 대해 도 3을 참조하여 설명하면, 도 3에 도시된 바와 같이 Top 위치에 제1 카메라(Cam1)가 배치되고 Side 위치에 제2 카메라(Cam2)가 배치되어 대상 물체(Ob)에 대한 영상을 취득한다고 할 때, 제1 카메라(Cam1) 쪽에서 물체(Ob) 쪽으로 조사되는 조명에 의해 물체(Ob)에 대한 제1 그림자(Sh1)가 생성되고 제2 카메라(Cam2) 쪽에서 물체(Ob) 쪽으로 조사되는 조명에 의해 물체(Ob)에 대한 제2 그림자(Sh2)가 생성된다.3, a first camera (Cam1) is disposed at the Top position and a second camera (Cam2) is disposed at the Side position, and the object A first shadow Sh1 for the object Ob is generated by the illumination directed toward the object Ob from the first camera Cam1 side and a second shadow Sh1 for the object Ob is generated from the second camera Cam2 side , A second shadow Sh2 for the object Ob is generated.

이와 같이 제1 그림자(Sh1) 및 제2 그림자(Sh2)가 생성되는 경우, 도 3에 도시된 바와 같이 제1 카메라(Cam1)가 취득하는 영상(Img1) 상에 물체에 대응되는 부분(T1)이 제2 그림자(Sh2) 등의 영향으로 매우 어둡게 나타나고, 제2 카메라(Cam2)가 취득하는 영상(Img2) 상에서도 물체에 대응되는 부분(T2)이 제1 그림자(Sh1) 등의 영향으로 매우 어둡게 나타난다.When a first shadow Sh1 and a second shadow Sh2 are generated as described above, a portion T1 corresponding to an object is displayed on the image Img1 acquired by the first camera Cam1, The portion T2 corresponding to the object appears very dark due to the influence of the second shadow Sh2 or the like and also on the image Img2 acquired by the second camera Cam2, appear.

취득되는 영상이 매우 어둡게 나타나는 경우 영상으로부터 대상 물체를 검출하는 것이 매우 어렵거나 불가능할 수 있으며 검출이 가능하다 하더라도 정확하게 검출해 내는 것이 불가능하게 되는 문제점이 있다.It is very difficult or impossible to detect the object from the image if the captured image appears very dark and it is impossible to accurately detect the object even if the detection is possible.

도 4의 (a)는 골프공을 아이언 클럽으로 타격할 때 Top 위치의 카메라가 촬영한 영상을 나타내고 도 4의 (b)는 골프공을 드라이버로 타격할 때 Top 위치의 카메라가 촬영한 영상을 나타낸다.4 (a) shows an image taken by a camera at a top position when hitting a golf ball with an iron club, and FIG. 4 (b) shows an image shot by a camera at a top position when hitting a golf ball with a driver .

도 4의 (a) 및 (b)에서 각각 알 수 있듯이 상기한 바와 같은 그림자의 영향으로 취득되는 영상이 매우 어둡게 나타나므로 대상 물체를 정확하게 검출해 내는 것이 거의 불가능하다는 것을 알 수 있다.As can be seen from FIGS. 4 (a) and 4 (b), it can be seen that the image obtained by the shadow effect is very dark, and it is almost impossible to accurately detect the object.

본 발명은 두 카메라를 스테레오스코픽 방식으로 동일 물체에 대해 각각 취득한 영상으로부터 각각 물체를 검출하여 해당 물체에 대한 3차원 공간 상에서의 위치 정보를 산출하도록 하는 카메라 센싱장치에 관한 것으로서, 두 카메라가 각각 취득한 영상으로부터 대상 물체에 대한 유사성 판단을 통해 해당 대상 물체를 검출할 수 없을 정도로 두 카메라의 위치가 전혀 다른 위치에 서로 멀리 떨어져서 배치되는 카메라 센싱장치에 있어서 각 카메라의 위치에서 조사되는 조명에 따라 대상 물체에 대해 생성되는 그림자로 말미암은 각 카메라가 취득하는 영상 상에서 그림자의 영향을 제거하고 각 카메라가 대상 물체에 대해 더욱 선명하고 밝은 영상을 각각 취득할 수 있도록 하여, 원거리 배치 방식의 카메라 센싱장치의 장점을 취하면서도 그에 따른 그림자 문제를 해결하여 높은 품질의 영상을 획득할 수 있도록 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치를 제공하기 위한 것이다.The present invention relates to a camera sensing apparatus for detecting an object from an image obtained by acquiring two cameras with respect to the same object in a stereoscopic manner and calculating position information on the three-dimensional space with respect to the object, In a camera sensing apparatus in which positions of two cameras are arranged at distances away from each other such that a corresponding object can not be detected through determination of similarity with respect to an object from the image, The effect of the shadows on the images captured by each camera due to the shadows generated for the object can be removed and each camera can acquire clearer and brighter images for the object, And that The present invention is to provide a camera sensing device for acquiring three-dimensional information of an object and a virtual golf simulation device using the camera sensing device.

본 발명의 일 실시예에 따른 물체의 3차원 정보 획득을 위한 카메라 센싱 장치는, 물체에 대한 미리 설정된 제1 파장대의 광원에 따른 이미지를 취득하는 제1 카메라 장치; 상기 물체에 대한 미리 설정된 파장대로서 상기 제1 파장대와 다른 파장대인 제2 파장대의 광원에 따른 이미지를 취득하는 제2 카메라 장치; 및 상기 제1 카메라 장치의 취득 이미지 상에서 상기 물체에 대응되는 부분을 추출하여 좌표 정보를 산출하고, 상기 제2 카메라 장치의 취득 이미지 상에서 상기 물체에 대응되는 부분을 추출하여 좌표 정보를 산출하여 각 산출된 좌표 정보로부터 상기 물체에 대한 3차원 위치 정보를 산출하는 연산장치를 포함한다.According to an embodiment of the present invention, there is provided a camera sensing apparatus for acquiring three-dimensional information of an object, comprising: a first camera device for acquiring an image according to a light source of a predetermined first wavelength band with respect to an object; A second camera device for acquiring an image according to a light source of a second wavelength band different from the first wavelength band as a predetermined wavelength band for the object; And calculating coordinate information by extracting a portion corresponding to the object on the acquired image of the first camera device, extracting a portion corresponding to the object on the acquired image of the second camera device to calculate coordinate information, Dimensional position information of the object based on the coordinate information of the object.

또한 바람직하게는, 상기 제1 카메라 장치는, 공간상의 위쪽에서 상기 물체가 있는 아래쪽으로 내려다보는 화각으로 이미지를 취득하도록 구성되고, 상기 제2 카메라 장치는, 상기 공간상의 측면쪽에서 상기 물체가 있는 쪽을 바라보는 화각으로 이미지를 취득하도록 구성되는 것을 특징으로 한다.Preferably, the first camera device is configured to acquire an image at an angle of view looking downward with the object from above the space, and the second camera device is configured to acquire an image at a side facing the object And acquires an image at an angle of view looking at the image.

또한 바람직하게는, 상기 제1 카메라 장치는, 상기 제1 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와, 상기 제2 파장대의 빛을 차단하고 상기 제1 광원부에 의해 조사되는 제1 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부를 포함하고, 상기 제2 카메라 장치는, 상기 제2 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와, 상기 제2 광원부에 의해 조사되는 상기 제2 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부를 포함하는 것을 특징으로 한다.Preferably, the first camera device further comprises: a first light source unit configured to irradiate light of the first wavelength range toward the object; and a second light source unit configured to cut off the light of the second wavelength range, And a first camera unit for acquiring an image photographed by the light of the first wavelength band by transmitting the reflection of the light of the wavelength band, wherein the second camera unit is configured to irradiate the light of the second wavelength band toward the object side And a second camera unit for acquiring an image photographed by the light of the second wavelength band by transmitting reflection of light of the second wavelength band irradiated by the second light source unit .

또한 바람직하게는, 상기 제1 카메라 장치는, 상기 제1 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와, 상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부와, 상기 제1 카메라부의 렌즈에 장착되며, 상기 제2 파장대의 빛을 차단하고 상기 제1 광원부에 의해 조사되는 제1 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제1 카메라부가 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제1 필터를 포함하고, 상기 제2 카메라 장치는, 상기 제2 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와, 상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부와, 상기 제2 카메라부의 렌즈에 장착되며, 상기 제2 광원부에 의해 조사되는 상기 제2 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제2 카메라부가 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제2 필터를 포함하는 것을 특징으로 한다.Preferably, the first camera device further comprises: a first light source unit configured to irradiate light of the first wavelength band toward the object; a first camera unit that acquires an image captured by the light reflected by the object; The first camera unit being mounted on a lens of the first camera unit and intercepting the light of the second wavelength band and transmitting reflection of light of a first wavelength range irradiated by the first light source unit, Wherein the second camera device includes a second light source unit configured to irradiate the light of the second wavelength band toward the object side, and a second light source unit configured to emit light A second camera unit mounted on a lens of the second camera unit and configured to detect an image of the second wavelength band irradiated by the second light source unit By transmitting that is reflected it is characterized in that it comprises a second filter which allows to obtain an image that is taken by the camera portion and the second light of the second wavelength band.

또한 바람직하게는, 상기 제1 광원부는 상기 제1 파장대로서 가시광선 파장대의 빛을 조사하도록 구성되고, 상기 제1 카메라부는 적외선 파장대의 빛이 반사되어 오는 것을 차단하면서 상기 제1 파장대인 가시광선 파장대의 빛이 반사되어 오는 것을 투과시키도록 구성되며, 상기 제2 광원부는 상기 제2 파장대로서 적외선 파장대의 빛을 조사하도록 구성되고, 상기 제2 카메라부는 적외선 파장대의 빛이 반사되어 오는 것을 투과시키도록 구성되는 것을 특징으로 한다.Preferably, the first light source unit is configured to irradiate light of a visible light wavelength range as the first wavelength range, and the first camera unit may block the reflection of light of an infrared wavelength range, And the second light source unit is configured to emit light of an infrared wavelength band as the second wavelength band, and the second camera unit is configured to transmit the reflected light of the infrared wavelength band .

또한 바람직하게는, 상기 제1 광원부는 상기 제1 파장대로서 가시광선 파장대의 빛을 조사하도록 구성되고, 상기 제1 필터는 적외선 파장대의 빛이 반사되어 오는 것을 차단하면서 상기 제1 파장대인 가시광선 파장대의 빛이 반사되어 오는 것을 투과시키며, 상기 제2 광원부는 상기 제2 파장대로서 적외선 파장대의 빛을 조사하도록 구성되고, 상기 제2 필터는 적외선 파장대의 빛이 반사되어 오는 것을 투과시키는 것을 특징으로 한다.Preferably, the first light source unit is configured to irradiate light of a visible light wavelength band as the first wavelength band, while the first filter blocks reflection of light of an infrared wavelength band, And the second light source unit is configured to emit light of an infrared wavelength band as the second wavelength band, and the second filter transmits the reflection of light of an infrared wavelength band .

한편, 본 발명의 다른 일 실시예에 따른 물체의 3차원 정보 획득을 위한 카메라 센싱 장치는, 물체에 가시광선을 조사하여 반사되는 광 중 미리 설정된 제1 파장대의 광을 받아서 이미지를 생성하는 제1 카메라 장치; 상기 물체에 가시광선을 조사하여 반사되는 광 중 미리 설정된 파장대로서 상기 제1 파장대와 다른 파장대인 제2 파장대의 광을 받아서 이미지를 생성하는 제2 카메라 장치; 및 상기 제1 카메라 장치 및 제2 카메라 장치 각각이 생성한 이미지 상에서 상기 물체에 해당하는 부분의 좌표 정보를 이용하여 상기 물체의 3차원 위치 정보를 산출하는 연산장치를 포함한다.According to another aspect of the present invention, there is provided a camera sensing apparatus for acquiring three-dimensional information of an object, the apparatus comprising: a first sensing unit for receiving visible light of a predetermined first wavelength among light reflected by irradiating an object with visible light, A camera device; A second camera device for receiving light of a second wavelength band which is different from the first wavelength band from light reflected by irradiating visible light to the object and generating an image; And an arithmetic unit for calculating the three-dimensional position information of the object using the coordinate information of the part corresponding to the object on the image generated by the first camera device and the second camera device.

또한 바람직하게는, 상기 제1 카메라 장치는, 가시광선을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와, 상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부와, 상기 제1 카메라부의 렌즈에 장착되며, 상기 반사되는 광에서 상기 제2 파장대의 빛을 차단하고 상기 제1 파장대의 빛을 투과시킴으로써 상기 제1 카메라부가 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제1 필터를 포함하고, 상기 제2 카메라 장치는, 가시광선을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와, 상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부와, 상기 제2 카메라부의 렌즈에 장착되며, 상기 반사되는 광에서 상기 제1 파장대의 빛을 차단하고 상기 제2 파장대의 빛을 투과시킴으로써 상기 제2 카메라부가 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제2 필터를 포함하는 것을 특징으로 한다.Preferably, the first camera device further includes: a first light source unit configured to irradiate visible light toward the object; a first camera unit that acquires an image captured by the light reflected by the object; The first camera unit is mounted on a lens of the camera unit and shields the light of the second wavelength band from the reflected light and transmits the light of the first wavelength range, so that the first camera unit can acquire an image photographed by the light of the first wavelength band Wherein the second camera device includes a second light source unit configured to irradiate visible light toward the object side, a second camera unit that acquires an image captured by the light reflected from the object, And a second lens unit that is mounted on a lens of the second camera unit and intercepts light of the first wavelength band from the reflected light and transmits light of the second wavelength band, And a second filter that allows the second camera unit to acquire an image taken by the light of the second wavelength band.

한편, 본 발명의 일 실시예에 따른 가상 골프 시뮬레이션 장치는, 골프공이 놓인 타격매트를 포함하는 영역에 가시광선을 조사하여 반사되는 가시광선에 의해 촬영되는 이미지를 취득하는 제1 카메라 장치와, 상기 타격매트를 포함하는 영역에 적외선을 조사하여 반사되는 적외선에 의해 촬영되는 이미지를 취득하는 제2 카메라 장치와, 상기 제1 카메라 장치 및 제2 카메라 장치 각각의 취득 이미지를 분석하여 상기 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출하는 연산장치를 포함하는 카메라 센싱장치; 및 가상의 골프코스에 관한 영상을 구현하고, 상기 카메라 센싱장치에 의해 산출된 3차원 위치 정보를 이용하여 상기 사용자의 골프스윙에 따라 운동하는 골프공에 대한 운동 파라미터를 산출하며, 상기 산출된 운동 파라미터에 기초하여 상기 영상 구현된 가상의 골프코스 상에서 볼이 이동하는 시뮬레이션 영상을 구현하는 시뮬레이터를 포함한다.According to another aspect of the present invention, there is provided a virtual golf simulation apparatus comprising: a first camera device for acquiring an image photographed by visible light reflected by irradiating visible light on an area including a striking mat on which a golf ball is placed; A second camera device for irradiating an infrared ray to an area including the striking mat to acquire an image to be photographed by reflected infrared rays; and a second camera device for analyzing an acquired image of each of the first camera device and the second camera device, A camera sensing device including an arithmetic unit for calculating three-dimensional position information on at least one of the clubs; And calculating a motion parameter for a golf ball which moves according to the user's golf swing using the three-dimensional position information calculated by the camera sensing device, And a simulator for implementing a simulation image in which the ball moves on the imaginary golf course implemented based on the parameter.

한편, 본 발명의 다른 일 실시예에 따른 가상 골프 시뮬레이션 장치는, 골프공이 놓인 타격매트를 포함하는 영역에 가시광선을 조사하여 반사되는 가시광선에 의해 촬영되는 이미지를 취득하는 제1 카메라 장치와, 상기 타격매트를 포함하는 영역에 적외선을 조사하여 반사되는 적외선에 의해 촬영되는 이미지를 취득하는 제2 카메라 장치를 포함하여 상기 골프공 및 사용자의 골프스윙에 이용되는 골프클럽을 감지하도록 구성되는 카메라 센싱장치; 및 가상의 골프코스에 관한 영상을 구현하고, 상기 제1 카메라 장치 및 제2 카메라 장치 각각의 취득 이미지를 분석하여 상기 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출하여 상기 사용자의 골프스윙에 따라 운동하는 골프공에 대한 운동 파라미터를 산출하며, 상기 산출된 운동 파라미터에 기초하여 상기 영상 구현된 가상의 골프코스 상에서 볼이 이동하는 시뮬레이션 영상을 구현하는 시뮬레이터를 포함한다.According to another aspect of the present invention, there is provided a virtual golf simulation apparatus including a first camera device for acquiring an image photographed by visible light reflected by irradiating visible light on an area including a striking mat on which a golf ball is placed, And a second camera device for irradiating infrared rays to the area including the striking mat to acquire an image photographed by infrared rays reflected thereby to detect a golf club used for the golf ball and a golf swing of the user, Device; Dimensional position information of at least one of the golf ball and the golf club by analyzing an image obtained by each of the first camera device and the second camera device, And a simulator for calculating a motion parameter for a golf ball to be moved according to a golf swing and implementing a simulation image in which the ball moves on the imaginary golf course implemented based on the calculated motion parameter.

또한 바람직하게는, 상기 제1 카메라는 상기 사용자의 머리 위쪽의 천장에 설치되고, 상기 제2 카메라는 벽 쪽에 설치된 상기 시뮬레이터의 케이스에 설치되는 것을 특징으로 한다.Preferably, the first camera is installed in a ceiling above the head of the user, and the second camera is installed in a case of the simulator installed on the wall.

본 발명에 따른 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치는, 두 카메라를 스테레오스코픽 방식으로 동일 물체에 대해 각각 취득한 영상으로부터 각각 물체를 검출하여 해당 물체에 대한 3차원 공간 상에서의 위치 정보를 산출하도록 하는 카메라 센싱장치에 관한 것으로서, 두 카메라가 각각 취득한 영상으로부터 대상 물체에 대한 유사성 판단을 통해 해당 대상 물체를 검출할 수 없을 정도로 두 카메라의 위치가 전혀 다른 위치에 서로 멀리 떨어져서 배치되는 카메라 센싱장치에 있어서 각 카메라의 위치에서 조사되는 조명에 따라 대상 물체에 대해 생성되는 그림자로 말미암은 각 카메라가 취득하는 영상 상에서 그림자의 영향을 제거하고 각 카메라가 대상 물체에 대해 더욱 선명하고 밝은 영상을 각각 취득할 수 있도록 하여, 원거리 배치 방식의 카메라 센싱장치의 장점을 취하면서도 그에 따른 그림자 문제를 해결하여 높은 품질의 영상을 획득할 수 있도록 하는 효과가 있다.A camera sensing apparatus for acquiring three-dimensional information of an object according to the present invention and a virtual golf simulation apparatus using the same are characterized in that an object is detected from an image acquired for each of the two objects by the stereoscopic method, The present invention relates to a camera sensing apparatus for calculating position information in a space, and in which the positions of two cameras are detected at positions which are completely different from each other such that an object can not be detected through determination of similarity with respect to the object, In the camera sensing apparatus disposed far away, the influence of shadows on images acquired by each camera due to shadows generated with respect to the target object in accordance with illumination illuminated at the positions of the cameras is removed, And bright images So that it is possible to acquire the high quality image by solving the shadowing problem while taking advantage of the camera arrangement of the remote location type.

도 1은 종래의 스크린 골프 시스템에 적용되는 센싱장치의 일 예에 대해 나타낸 도면이다.
도 2는 종래의 카메라 센싱장치에서 이용되는 두 카메라의 배치에 따른 장단점을 설명하기 위한 도면이다.
도 3은 두 카메라의 위치가 서로 다른 위치에 각각 설치되어 멀리 떨어져서 배치되는 경우에 발생하게 되는 문제점을 설명하기 위한 도면이다.
도 4는 도 3에 도시된 바와 같은 배치를 갖는 카메라 센싱 장치의 Top 위치 카메라가 촬영한 영상의 일 예에 관하여 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 카메라 센싱 장치가 적용된 가상 골프 시뮬레이션 장치가 설치된 스크린 골프 시스템에 관하여 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 카메라 센싱 장치의 구성 및 기능에 관하여 설명하기 위한 도면이다.
도 7은 도 6에 도시된 바와 같은 구성을 갖는 카메라 센싱 장치의 두 카메라가 각각 촬영한 이미지를 나타낸 것이다.
1 is a view showing an example of a sensing apparatus applied to a conventional screen golf system.
2 is a view for explaining advantages and disadvantages of arrangement of two cameras used in a conventional camera sensing apparatus.
3 is a view for explaining a problem that occurs when two cameras are installed at different positions and are located far away from each other.
FIG. 4 shows an example of an image taken by a top position camera of a camera sensing apparatus having the arrangement as shown in FIG.
FIG. 5 is a diagram illustrating a screen golf system equipped with a virtual golf simulation apparatus to which a camera sensing apparatus according to an embodiment of the present invention is applied.
6 is a diagram for explaining a configuration and a function of a camera sensing apparatus according to an embodiment of the present invention.
FIG. 7 shows images taken by two cameras of the camera sensing apparatus having the configuration as shown in FIG.

본 발명에 따른 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치에 관한 구체적인 내용을 도면을 참조하여 더욱 상세하게 설명하도록 한다.The camera sensing apparatus for acquiring three-dimensional information of an object according to the present invention and a virtual golf simulation apparatus using the same will be described in detail with reference to the drawings.

먼저, 도 5를 참조하여 본 발명의 일 실시예에 따른 카메라 센싱 장치가 적용된 가상 골프 시뮬레이션 장치가 설치된 스크린 골프 시스템의 일 예에 관하여 설명한다.5, an example of a screen golf system equipped with a virtual golf simulation apparatus to which a camera sensing apparatus according to an embodiment of the present invention is applied will be described.

도 5에 도시된 바와 같이 스크린 골프를 위한 공간을 마련하는 부스(BT) 내에서, 사용자(P)의 전방에 스크린(12)이 설치되고 영상출력장치(400)가 시뮬레이터로부터 영상 정보를 전달받아 골프코스에 대한 영상(SI)을 상기 스크린(12)에 출력하도록 구성될 수 있다.5, a screen 12 is installed in front of the user P in a booth BT providing a space for screen golf, and the video output device 400 receives video information from the simulator And output an image (SI) for the golf course to the screen (12).

부스 바닥(B1)에 타석이 마련되고 그 타석에 골프공(1)이 놓이며 골프클럽(CL)에 의한 골프 스윙이 이루어질 수 있도록 타격매트(13)가 마련될 수 있다.The batter mat (13) may be provided so that the golf ball (1) is placed on the batting floor (B1) and the golf swing by the golf club (CL) is made.

부스(BT)의 일측 벽에는 시뮬레이터가 담긴 보호 케이스(SM)가 설치된다.A protective case SM containing a simulator is installed on one side wall of the booth BT.

본 발명의 일 실시예에 따른 카메라 센싱장치는 제1 카메라 장치(100)와 제2 카메라 장치(200)를 포함하는데, 상기 제1 카메라 장치(100)는 부스(BT)의 천장 (사용자(P)의 머리 위쪽)에 설치되어 미리 설정된 화각으로 타격매트(13)를 포함하는 영역을 촬영하고 제2 카메라 장치(200)는 부스의 벽쪽, 예컨대 시뮬레이터의 보호 케이스(SM)에 설치되어 미리 설정된 화각으로 타격매트(13)를 포함하는 영역을 측면 쪽에서 촬영하도록 구성될 수 있다.A camera sensing apparatus according to an embodiment of the present invention includes a first camera apparatus 100 and a second camera apparatus 200. The first camera apparatus 100 includes a ceiling And the second camera device 200 is mounted on the wall side of the booth, for example, in the protective case SM of the simulator, and is provided at a preset angle of view (angle of view) To the side including the impact mat (13).

상기 제1 카메라 장치(100)를 사용자의 머리 위쪽 위치, 즉 천장 위치에 설치하도록 하고 상기 제2 카메라 장치(200)를 사용자의 측면 위치, 즉 벽쪽 위치에 설치하도록 하며 상기 제1 카메라 장치(100)와 제2 카메라 장치(200)가 각각 골프공(1)이 놓여있는 타격매트(13)를 포함하는 소정 영역을 촬영하도록 구성될 수 있다.The first camera device 100 may be installed at a position above the head of the user, that is, at a ceiling position, and the second camera device 200 may be installed at a side position of the user, And the second camera device 200 can photograph the predetermined area including the striking mat 13 on which the golf ball 1 is placed, respectively.

상기한 바와 같이 각각 배치된 제1 카메라 장치(100) 및 제2 카메라 장치(200)가 타격된 골프공(1)을 각각 촬영하여 시뮬레이터로 전송하고, 시뮬레이터는 각각의 카메라가 취득한 영상을 분석하여 골프공(1)에 대한 3차원 공간 상에서의 위치 정보를 산출하며, 시뮬레이터는 그 산출된 위치 정보에 기초하여 골프공(1)의 운동에 따른 운동 파라미터를 산출할 수 있으며, 그 산출된 골프공의 운동 파라미터에 기초한 볼의 궤적에 대한 시뮬레이션 영상이 상기 골프코스의 영상 상에서 이루어지도록 할 수 있다.The first camera device 100 and the second camera device 200, which are disposed as described above, respectively shoot the golf ball 1 struck and transmit them to the simulator. The simulator analyzes the images captured by the cameras The simulator calculates position information on the three-dimensional space with respect to the golf ball 1, and the simulator can calculate the motion parameters according to the motion of the golf ball 1 based on the calculated position information, So that a simulation image of the trajectory of the ball based on the motion parameters of the golf course can be made on the image of the golf course.

이때, 상기 제1 카메라 장치의 취득 이미지 상에서 상기 골프공 및 골프클럽 중 적어도 하나에 대응되는 부분을 추출하여 좌표 정보를 산출하고, 상기 제2 카메라 장치의 취득 이미지 상에서 상기 골프공 및 골프클럽 중 적어도 하나에 대응되는 부분을 추출하여 좌표 정보를 산출하여 각 산출된 좌표 정보로부터 상기 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출하는 기능을 수행하는 구성요소를 "연산장치"라 할 때, 상기 연산장치는 제1 카메라 장치 또는 제2 카메라 장치에 함께 포함되어 있을 수도 있고, 시뮬레이터에 포함될 수도 있다.At this time, on the acquired image of the first camera device, a part corresponding to at least one of the golf ball and the golf club is extracted to calculate coordinate information, and at least one of the golf ball and the golf club A component that performs a function of calculating coordinate information by extracting a portion corresponding to one of the golf ball and the golf club and calculating three-dimensional position information of at least one of the golf ball and the golf club from each calculated coordinate information is referred to as & The computing device may be included in the first camera device or the second camera device, or may be included in the simulator.

상기 연산장치가 시뮬레이터에 포함되지 않는 경우에는 상기 연산장치가 상기 제1 카메라 장치나 제2 카메라 장치에 함께 포함되어 있을 수 있는데, 이 경우에는 연산장치가 상기 두 카메라 장치로부터 각각 전달받은 이미지를 분석하여 대상 물체에 대한 3차원 위치 정보를 산출하여 시뮬레이터로 전달하고, 시뮬레이터는 연상장치로부터 전달받은 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 이용하여 운동하는 골프공에 대한 운동 파라미터, 예컨대 골프공의 속도, 방향각, 높이각, 스핀 등의 파라미터 정보를 산출하여 그 산출된 운동 파라미터에 기초하여 시뮬레이션 영상 상에서 볼이 이동하는 영상을 구현하도록 한다.When the computing device is not included in the simulator, the computing device may be included in the first camera device or the second camera device. In this case, the computing device analyzes the image received from the two camera devices Dimensional position information on the object, and transmits the calculated three-dimensional position information to the simulator. The simulator computes a motion parameter for the golf ball using the three-dimensional position information of at least one of the golf ball and the golf club transmitted from the associating apparatus, For example, parameter information such as the velocity, direction angle, height angle, and spin of a golf ball is calculated, and a moving image of the ball on the simulation image is implemented based on the calculated motion parameter.

만약, 상기 연산장치가 시뮬레이터에 포함되는 경우에는, 시뮬레이터가 상기한 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출할 뿐만 아니라 이를 이용하여 운동하는 골프공에 대한 운동 파라미터를 산출하는 기능까지 모두 함께 수행할 수 있다.If the computing device is included in the simulator, the simulator not only calculates the three-dimensional position information of at least one of the golf ball and the golf club, but also calculates motion parameters for the golf ball to be used Function can be performed together.

상기한 바와 같이 두 카메라 장치를 각각 Top 위치 및 Side 위치에 배치함으로써 앞서, 도 2를 통해 설명한 바와 같이 영상 오차에 따라 발생하는 대상 물체의 3차원 정보에 대한 오차를 크게 감소시킬 수 있어 정확한 3차원 정보의 산출이 가능할 뿐만 아니라 Top 위치의 제1 카메라 장치가 취득하는 영상과 Side 위치의 제2 카메라 장치가 취득하는 영상이 서로 전혀 다른 영상이기 때문에 그로부터 다양한 정보의 산출이 가능하게 되는 특장점이 있다As described above, by arranging the two camera apparatuses at the top position and the side position, it is possible to greatly reduce the error of the three-dimensional information of the object generated according to the image error as described above with reference to FIG. 2, It is possible not only to calculate the information but also to obtain various information from the images obtained by the first camera device in the Top position and the images acquired by the second camera device in the Side position are completely different from each other

도 5에서는 제1 카메라 장치를 Top 위치에, 제2 카메라 장치를 Side 위치에 각각 배치되는 경우에 대해 나타내었으나, 이에 한정되는 것은 아니며 본 발명에 따른 카메라 센싱 장치의 제1 카메라 장치와 제2 카메라 장치는 그 각각이 취득한 영상으로부터 대상 물체에 대한 유사성 판단을 통해 해당 대상 물체를 검출할 수 없을 정도로 두 카메라의 위치가 전혀 다른 위치에 배치되는 모든 경우를 포함한다.5, the first camera device is disposed at the top position and the second camera device is disposed at the side position. However, the present invention is not limited thereto, and the first camera device and the second camera device of the camera sensing device according to the present invention, The apparatus includes all cases in which the positions of the two cameras are disposed at positions completely different from each other such that the respective objects can not be detected through similarity determination of the object from the acquired images.

한편, 도 5에 도시된 바와 같은 배치를 갖는 카메라 센싱 장치의 두 카메라 장치에 의해 각각 취득되는 이미지 상에서 그림자의 영향을 제거하기 위한 구성을 도 6을 참조하여 구체적으로 설명하도록 한다.On the other hand, a configuration for eliminating the influence of shadows on the images acquired by the two camera devices of the camera sensing device having the arrangement as shown in Fig. 5 will be described in detail with reference to Fig.

카메라가 대상 물체에 대한 이미지를 취득하기 위해서는 대상 물체에서 반사되는 광이 있어야 그 반사광에 의해 카메라 내부의 이미지 센서가 상을 맺음으로써 이미지를 취득할 수 있게 된다.In order to acquire an image of a target object, the camera needs to have light reflected from the target object, so that the image sensor in the camera can form an image by the reflected light, thereby acquiring an image.

본 발명에 따른 카메라 센싱 장치에서, 앞서 도 3 및 도 4를 통해 설명한 바와 같은 그림자에 대한 문제를 해결하기 위하여 제1 카메라 장치가 취득하는 이미지의 생성을 위한 반사광과 제2 카메라 장치가 취득하는 이미지의 생성을 위한 방사광의 파장대를 서로 다르게 하도록 한다.3 and 4, in order to solve the problem of shadows as described above with reference to FIGS. 3 and 4, in the camera sensing apparatus according to the present invention, the reflected light for generating an image acquired by the first camera device, So that the wavelengths of the emitted light are different from each other.

즉, 제1 카메라 장치는 제1 파장대의 광원이 대상 물체에 조사되어 반사되는 반사광을 수신하여 이미지를 취득하고, 제2 카메라 장치는 제2 파장대의 광원이 대상 물체에 조사되어 반사되는 반사광을 수신하여 이미지를 취득하도록 함으로써 상기한 바와 같은 그림자에 대한 문제를 해결하도록 한다.That is, the first camera device receives the reflected light that is irradiated to the object and reflects the light of the first wavelength range, and the second camera device receives the reflected light that is reflected by the light source of the second wavelength range So as to solve the problem of the shadow as described above.

여기서, 제1 파장대와 제2 파장대는 서로 다른 빛의 파장대이며, 예컨대 제1 파장대는 가시광선 파장대이고 제2 파장대는 적외선 파장대일 수 있다. 이하에서는 제1 카메라 장치가 이미지를 취득하는데 이용하는 광원을 가시광선으로 특정하고 제2 카메라 장치가 이미지를 취득하는데 이용하는 광원을 적외선으로 특정하여 설명하도록 한다.Here, the first wavelength band and the second wavelength band are different wavelength ranges of light, for example, the first wavelength band may be a visible light wavelength band and the second wavelength band may be an infrared wavelength band. Hereinafter, the light source used by the first camera device to acquire an image is specified as a visible light, and the light source used by the second camera device to acquire an image is specified by infrared rays.

도 6에 도시된 바와 같이, 본 발명의 일 실시예에 따른 카메라 센싱 장치의 Top 위치에 설치되는 제1 카메라 장치(100)는 가시광선(Le)을 물체(1) 쪽으로 조사하도록 구성되는 제1 광원부(120)와, 상기 물체(1)에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부(110)와, 상기 제1 카메라부(110)의 렌즈에 장착되어 적외선이 반사되어 수광되는 것(Rf2)을 차단하고 상기 제1 광원부(120)에 의해 조사되는 가시광선(Le)이 반사되는 반사광(Lf1)을 투과시킴으로써 상기 제1 카메라부(110)가 가시광선에 의해 촬영되는 이미지를 취득할 수 있게 하는 제1 필터(130)를 포함하여 구성될 수 있다.6, a first camera device 100 installed at a top position of a camera sensing device according to an embodiment of the present invention includes a first camera device 100 configured to irradiate a visible ray Le toward the object 1, A first camera unit 110 mounted on a lens of the first camera unit 110 to receive infrared rays reflected by the light source unit 120, And the reflected light Lf1 reflected by the first light source unit 120 is reflected by the first light source unit 120 so that the first camera unit 110 senses an image And a first filter 130 for acquiring the first filter 130.

여기서, 상기 제1 필터(130)는 적외선 차단 필터로서 구현될 수 있으며, 상기 제1 필터(130)가 제1 카메라부(110)에 포함되어 구비될 수도 있고 상기 제1 카메라부(110)의 렌즈에 착탈 가능하도록 부착할 수 있도록 할 수도 있다.Here, the first filter 130 may be implemented as an infrared cut filter, the first filter 130 may be included in the first camera unit 110, It may be detachably attached to the lens.

그리고, 상기 제1 광원부(120)는, 도 6에 도시된 바와 같이 가시광선을 조사하도록 구성되는 광원 소자를 이용하여 제1 카메라부(110)와 일체로 하나의 장치로서 구성되도록 함이 바람직하다.6, the first light source unit 120 may be configured as a single device integrally with the first camera unit 110 using a light source device configured to emit visible light .

또한, 본 발명의 일 실시예에 따른 카메라 센싱 장치의 Side 위치에 설치되는 제2 카메라 장치(200)는 적외선(Re)을 물체(1) 쪽으로 조사하도록 구성되는 제2 광원부(220)와, 상기 물체(1)에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부(210)와, 상기 제2 카메라부(210)의 렌즈에 장착되어 가시광선이 반사되어 수광되는 것(Lf2)을 차단하고 상기 제2 광원부(220)에 의해 조사되는 적외선(Re)이 반사되는 반사광(Rf1)을 투과시킴으로써 상기 제2 카메라부(210)가 적외선에 의해 촬영되는 이미지를 취득할 수 있게 하는 제2 필터(230)를 포함하여 구성될 수 있다.The second camera device 200 installed at the side of the camera sensing device according to an embodiment of the present invention includes a second light source 220 configured to irradiate the infrared ray Re toward the object 1, A second camera unit 210 for acquiring an image photographed by the light reflected by the object 1 and a second lens unit Lf2 mounted on the lens of the second camera unit 210 and receiving visible light reflected thereon, (Rf1) reflected by the second light source unit (220) and transmits the reflected light (Rf1) reflected by the second light source unit (220) so that the second camera unit (210) A filter 230 may be included.

여기서, 상기 제2 필터(230)는 적외선 투과 필터로서 구현될 수 있으며, 상기 제2 필터(230)가 제2 카메라부(210)에 포함되어 구비될 수도 있고 상기 제2 카메라부(210)의 렌즈에 착탈 가능하도록 부착할 수 있도록 할 수도 있다.Here, the second filter 230 may be implemented as an infrared ray transmission filter, the second filter 230 may be included in the second camera unit 210, It may be detachably attached to the lens.

그리고, 상기 제2 광원부(220)는, 도 6에 도시된 바와 같이 적외선을 조사하도록 구성되는 광원 소자를 이용하여 제2 카메라부(210)와 일체로 하나의 장치로서 구성되도록 함이 바람직하다.6, the second light source unit 220 may be configured as a single device integrally with the second camera unit 210 using a light source configured to emit infrared rays.

도 7에서는 도 6에 도시된 바와 같은 구성을 갖는 본 발명의 일 실시예에 따른 카메라 센싱 장치에 의해 취득된 이미지로서, 도 7의 (a)는 Top 위치의 제1 카메라 장치에 의해, 도 7의 (b)는 Side 위치의 제2 카메라 장치에 의해 각각 취득된 이미지를 나타내고 있다.7 is an image acquired by the camera sensing apparatus according to an embodiment of the present invention having the configuration as shown in Fig. 6, wherein Fig. 7 (a) (B) shows images acquired by the second camera device at the side position, respectively.

앞서 도 4에서 나타낸 그림자 문제를 갖는 경우의 이미지와 도 7에서 나타낸 그림자 문제가 해결된 경우의 이미지를 비교하면, 본 발명의 경우 취득된 이미지로부터 또는 취득된 이미지에 적절한 이미지 처리를 한 것으로부터 그 이미지 내의 어떤 대상 물체를 충분히 검출할 수 있을 정도로 선명한 이미지를 취득할 수 있음을 알 수 있다.If the image of the case having the shadow problem shown in FIG. 4 and the image of the case of the shadow problem shown in FIG. 7 are compared with each other, it can be determined from the acquired image, It can be seen that a clear image can be obtained enough to detect any object in the image sufficiently.

한편, 도 6에서는 제1 카메라 장치(100)의 제1 광원부(120)를 가시광선을 조사하는 것으로, 제2 카메라 장치(200)의 제2 광원부(220)를 적외선을 조사하는 것으로 각각 구성하고, 그에 따라 제1 카메라 장치(100)에 제1 필터(130)로서 적외선 차단 필터를, 제2 카메라 장치(200)에 제2 필터(230)로서 적외선 투과 필터를 각각 적용한 경우에 대해 설명하였으나, 본 발명은 이에 한정되지 않고 제1 광원부와 제2 광원부를 동일한 광원을 조사하는 것으로 구성하고 제1 필터와 제2 필터를 해당 광원에서 서로 파장대를 달리하는 빛을 투과하도록 구성하는 것도 가능하다.6, the first light source unit 120 of the first camera device 100 is irradiated with visible light, and the second light source unit 220 of the second camera device 200 is irradiated with infrared light, The infrared filter as the first filter 130 and the infrared filter as the second filter 230 are applied to the first camera device 100 and the second camera device 200, The present invention is not limited to this. The first light source unit and the second light source unit may be configured to irradiate the same light source, and the first and second filters may be configured to transmit light having different wavelengths from each other in the light source.

상기한 내용을 설명하기 위하여, 빛의 파장에 대해 살펴보면 아래 그림과 같이 가시광선 내에서도 다양한 파장대의 광이 존재하고 적외선 내에서도 다양한 파장대의 광이 존재한다.
In order to explain the above description, as to the wavelength of light, there exist light of various wavelength ranges even in the visible light as shown in the following figure, and light of various wavelength ranges exists even in the infrared ray.

Figure pat00001

Figure pat00001

따라서, 상기한 제1 광원부와 제2 광원부를 각각 가시광선을 조사하는 광원소자를 이용하여 동일하게 가사광선을 조사하는 것으로 구성하고, 상기한 제1 필터를 가시광선 내의 특정 파장대의 광을 투과하고 나머지 파장대의 광을 차단하는 것으로 구성하며, 상기한 제2 필터를 상기 제1 필터가 투과하는 파장대와 다른 파장대의 광을 투과하고 그 외의 파장대의 광을 차단하는 것으로 구성할 수 있다.Therefore, the first light source unit and the second light source unit are configured to irradiate the same light beam by using a light source element that emits visible light, respectively. The first filter transmits the light of a specific wavelength band in the visible light And the second filter is configured to transmit the light of the wavelength band different from the wavelength band transmitted by the first filter and to block the light of the other wavelength band.

예컨대, 상기한 제1 광원부와 제2 광원부를 동일하게 가시광선을 조사하는 조명장치로서 구성하고, 상기한 제1 필터를 보라색이나 남색 계통의 파장대의 광을 투과하고 나머지 파장대의 광을 차단하는 것으로 구성하며, 상기한 제2 필터를 주황색이나 빨강색 계통의 파장대의 광을 투과하고 나머지 파장대의 광을 차단하는 것으로 구성할 수도 있다.For example, the first light source unit and the second light source unit may be configured as an illuminating device for irradiating visible light, and the first filter may transmit light of a wavelength band of purple or blue color system and may block light of the remaining wavelength band The second filter may be configured to transmit light of a wavelength band of orange or red system and to block light of the remaining wavelength band.

이상 설명한 바와 같이, 본 발명에 따른 물체의 3차원 정보 획득을 위한 카메라 센싱 장치는 각 카메라 장치의 위치에서 조사되는 조명에 따라 대상 물체에 대해 생성되는 그림자로 말미암은 문제점을 해소하여 각 카메라 장치가 취득하는 영상 상에서 그림자의 영향을 제거하고 각 카메라장치가 대상 물체에 대해 더욱 선명하고 밝은 영상을 각각 취득하도록 함으로써 각 카메라 장치의 취득 영상을 이용하여 대상 물체에 대한 3차원 정보를 더욱 정확하게 산출할 수 있는 특장점이 있다.As described above, according to the present invention, a camera sensing apparatus for acquiring three-dimensional information of an object eliminates a problem caused by shadows generated on a target object in accordance with illumination illuminated at a position of each camera apparatus, The three-dimensional information on the object can be more precisely calculated by using the acquired image of each camera apparatus by allowing each camera apparatus to acquire a clearer and brighter image with respect to the object, There are special features.

100: 제1 카메라 장치, 110: 제1 카메라부
120: 제1 광원부, 130: 제1 필터
200: 제2 카메라 장치, 210: 제2 카메라부
220: 제2 광원부, 230: 제2 필터
100: first camera device, 110: first camera part
120: first light source, 130: first filter
200: second camera device, 210: second camera part
220: second light source part, 230: second filter

Claims (11)

물체에 대한 미리 설정된 제1 파장대의 광원에 따른 이미지를 취득하는 제1 카메라 장치;
상기 물체에 대한 미리 설정된 파장대로서 상기 제1 파장대와 다른 파장대인 제2 파장대의 광원에 따른 이미지를 취득하는 제2 카메라 장치; 및
상기 제1 카메라 장치의 취득 이미지 상에서 상기 물체에 대응되는 부분을 추출하여 좌표 정보를 산출하고, 상기 제2 카메라 장치의 취득 이미지 상에서 상기 물체에 대응되는 부분을 추출하여 좌표 정보를 산출하여 각 산출된 좌표 정보로부터 상기 물체에 대한 3차원 위치 정보를 산출하는 연산장치;
를 포함하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
A first camera device for acquiring an image according to a light source of a predetermined first wavelength band with respect to an object;
A second camera device for acquiring an image according to a light source of a second wavelength band different from the first wavelength band as a predetermined wavelength band for the object; And
The coordinate information is calculated by extracting a portion corresponding to the object on the acquired image of the first camera device, extracting a portion corresponding to the object on the acquired image of the second camera device to calculate coordinate information, An arithmetic unit for calculating three-dimensional position information on the object from the coordinate information;
Dimensional information of an object including the three-dimensional information.
제1항에 있어서,
상기 제1 카메라 장치는,
공간상의 위쪽에서 상기 물체가 있는 아래쪽으로 내려다보는 화각으로 이미지를 취득하도록 구성되고,
상기 제2 카메라 장치는,
상기 공간상의 측면쪽에서 상기 물체가 있는 쪽을 바라보는 화각으로 이미지를 취득하도록 구성되는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
The method according to claim 1,
Wherein the first camera device comprises:
And to acquire an image at an angle of view looking downward with the object from above in space,
Wherein the second camera device comprises:
And acquires an image at an angle of view at a side of the space facing the object side.
제1항에 있어서,
상기 제1 카메라 장치는,
상기 제1 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와,
상기 제2 파장대의 빛을 차단하고 상기 제1 광원부에 의해 조사되는 제1 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부를 포함하고,
상기 제2 카메라 장치는,
상기 제2 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와,
상기 제2 광원부에 의해 조사되는 상기 제2 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부를 포함하는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
The method according to claim 1,
Wherein the first camera device comprises:
A first light source unit configured to emit light of the first wavelength band toward the object side,
And a first camera unit for intercepting the light of the second wavelength band and transmitting the reflected light of the first wavelength range irradiated by the first light source unit to acquire an image photographed by the light of the first wavelength range,
Wherein the second camera device comprises:
A second light source unit configured to irradiate the light of the second wavelength band toward the object side,
And a second camera unit for acquiring an image photographed by the light of the second wavelength band by transmitting the light of the second wavelength band irradiated by the second light source unit through reflection of the light of the second wavelength band. A camera sensing device.
제1항에 있어서,
상기 제1 카메라 장치는,
상기 제1 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와,
상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부와,
상기 제1 카메라부의 렌즈에 장착되며, 상기 제2 파장대의 빛을 차단하고 상기 제1 광원부에 의해 조사되는 제1 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제1 카메라부가 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제1 필터를 포함하고,
상기 제2 카메라 장치는,
상기 제2 파장대의 빛을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와,
상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부와,
상기 제2 카메라부의 렌즈에 장착되며, 상기 제2 광원부에 의해 조사되는 상기 제2 파장대의 빛이 반사되는 것을 투과시킴으로써 상기 제2 카메라부가 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제2 필터를 포함하는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
The method according to claim 1,
Wherein the first camera device comprises:
A first light source unit configured to emit light of the first wavelength band toward the object side,
A first camera unit for acquiring an image photographed by light reflected from the object;
The first camera unit being mounted on a lens of the first camera unit and interrupting the light of the second wavelength range and transmitting the reflection of the light of the first wavelength range irradiated by the first light source unit, And a first filter for acquiring an image photographed by the first filter,
Wherein the second camera device comprises:
A second light source unit configured to irradiate the light of the second wavelength band toward the object side,
A second camera unit for acquiring an image photographed by light reflected from the object;
Wherein the second camera unit is mounted on a lens of the second camera unit and transmits the reflection of the light of the second wavelength range irradiated by the second light source unit so that the second camera unit can acquire an image photographed by the light of the second wavelength range And a second filter for providing the three-dimensional information of the object.
제3항에 있어서,
상기 제1 광원부는 상기 제1 파장대로서 가시광선 파장대의 빛을 조사하도록 구성되고, 상기 제1 카메라부는 적외선 파장대의 빛이 반사되어 오는 것을 차단하면서 상기 제1 파장대인 가시광선 파장대의 빛이 반사되어 오는 것을 투과시키도록 구성되며,
상기 제2 광원부는 상기 제2 파장대로서 적외선 파장대의 빛을 조사하도록 구성되고, 상기 제2 카메라부는 적외선 파장대의 빛이 반사되어 오는 것을 투과시키도록 구성되는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
The method of claim 3,
Wherein the first light source unit is configured to irradiate light of a visible light wavelength range as the first wavelength range, and the first camera unit intercepts reflection of light of an infrared wavelength range while reflecting light of a visible light wavelength range of the first wavelength range To transmit the coming,
Wherein the second light source unit is configured to irradiate light of an infrared wavelength band as the second wavelength band, and the second camera unit is configured to transmit reflection of light of an infrared wavelength band. A camera sensing device.
제4항에 있어서,
상기 제1 광원부는 상기 제1 파장대로서 가시광선 파장대의 빛을 조사하도록 구성되고, 상기 제1 필터는 적외선 파장대의 빛이 반사되어 오는 것을 차단하면서 상기 제1 파장대인 가시광선 파장대의 빛이 반사되어 오는 것을 투과시키며,
상기 제2 광원부는 상기 제2 파장대로서 적외선 파장대의 빛을 조사하도록 구성되고, 상기 제2 필터는 적외선 파장대의 빛이 반사되어 오는 것을 투과시키는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
5. The method of claim 4,
Wherein the first light source unit is configured to emit light of a visible light wavelength band as the first wavelength band, and the first filter blocks light of the infrared wavelength band from being reflected, and reflects light of a visible light wavelength band of the first wavelength band Permeates the coming,
Wherein the second light source unit is configured to irradiate light of an infrared wavelength band as the second wavelength band, and the second filter transmits reflection of light of an infrared wavelength band. Device.
물체에 가시광선을 조사하여 반사되는 광 중 미리 설정된 제1 파장대의 광을 받아서 이미지를 생성하는 제1 카메라 장치;
상기 물체에 가시광선을 조사하여 반사되는 광 중 미리 설정된 파장대로서 상기 제1 파장대와 다른 파장대인 제2 파장대의 광을 받아서 이미지를 생성하는 제2 카메라 장치; 및
상기 제1 카메라 장치 및 제2 카메라 장치 각각이 생성한 이미지 상에서 상기 물체에 해당하는 부분의 좌표 정보를 이용하여 상기 물체의 3차원 위치 정보를 산출하는 연산장치;
를 포함하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
A first camera device for irradiating visible light to an object and receiving light of a first predetermined wavelength band among the reflected light to generate an image;
A second camera device for receiving light of a second wavelength band which is different from the first wavelength band from light reflected by irradiating visible light to the object and generating an image; And
An arithmetic unit for calculating three-dimensional position information of the object using coordinate information of a part corresponding to the object on the image generated by the first camera device and the second camera device;
Dimensional information of an object including the three-dimensional information.
제7항에 있어서,
상기 제1 카메라 장치는,
가시광선을 상기 물체 쪽으로 조사하도록 구성되는 제1 광원부와,
상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제1 카메라부와,
상기 제1 카메라부의 렌즈에 장착되며, 상기 반사되는 광에서 상기 제2 파장대의 빛을 차단하고 상기 제1 파장대의 빛을 투과시킴으로써 상기 제1 카메라부가 상기 제1 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제1 필터를 포함하고,
상기 제2 카메라 장치는,
가시광선을 상기 물체 쪽으로 조사하도록 구성되는 제2 광원부와,
상기 물체에서 반사되는 빛에 의해 촬영되는 이미지를 취득하는 제2 카메라부와,
상기 제2 카메라부의 렌즈에 장착되며, 상기 반사되는 광에서 상기 제1 파장대의 빛을 차단하고 상기 제2 파장대의 빛을 투과시킴으로써 상기 제2 카메라부가 상기 제2 파장대의 빛에 의해 촬영되는 이미지를 취득할 수 있게 하는 제2 필터를 포함하는 것을 특징으로 하는 물체의 3차원 정보 획득을 위한 카메라 센싱 장치.
8. The method of claim 7,
Wherein the first camera device comprises:
A first light source unit configured to irradiate visible light toward the object;
A first camera unit for acquiring an image photographed by light reflected from the object;
The first camera unit is mounted on a lens of the first camera unit and intercepts the light of the second wavelength band from the reflected light and transmits the light of the first wavelength band so that the image of the first camera unit is captured by the light of the first wavelength band And a second filter,
Wherein the second camera device comprises:
A second light source unit configured to emit a visible light toward the object side,
A second camera unit for acquiring an image photographed by light reflected from the object;
The second camera unit is mounted on a lens of the second camera unit and intercepts the light of the first wavelength band from the reflected light and transmits the light of the second wavelength band so that the image of the second camera unit is captured by the light of the second wavelength band And a second filter for acquiring three-dimensional information of an object.
골프공이 놓인 타격매트를 포함하는 영역에 가시광선을 조사하여 반사되는 가시광선에 의해 촬영되는 이미지를 취득하는 제1 카메라 장치와, 상기 타격매트를 포함하는 영역에 적외선을 조사하여 반사되는 적외선에 의해 촬영되는 이미지를 취득하는 제2 카메라 장치와, 상기 제1 카메라 장치 및 제2 카메라 장치 각각의 취득 이미지를 분석하여 상기 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출하는 연산장치를 포함하는 카메라 센싱장치; 및
가상의 골프코스에 관한 영상을 구현하고, 상기 카메라 센싱장치에 의해 산출된 3차원 위치 정보를 이용하여 상기 사용자의 골프스윙에 따라 운동하는 골프공에 대한 운동 파라미터를 산출하며, 상기 산출된 운동 파라미터에 기초하여 상기 영상 구현된 가상의 골프코스 상에서 볼이 이동하는 시뮬레이션 영상을 구현하는 시뮬레이터;
를 포함하는 가상 골프 시뮬레이션 장치.
A first camera device for acquiring an image photographed by a visible light reflected by irradiating a visible ray to an area including a striking mat on which a golf ball is placed; and a second camera device for irradiating the area including the striking mat with infrared rays Dimensional position information of at least one of the golf ball and the golf club by analyzing an image obtained by each of the first camera device and the second camera device, A camera sensing device including; And
A golf ball according to any one of claims 1 to 3, characterized by comprising: an image generating unit generating an image related to a virtual golf course, calculating a motion parameter for a golf ball to be moved in accordance with the user's golf swing using the 3-dimensional position information calculated by the camera sensing apparatus, A simulator for implementing a simulation image in which a ball moves on a virtual golf course implemented with the image;
And a virtual golf simulation device.
골프공이 놓인 타격매트를 포함하는 영역에 가시광선을 조사하여 반사되는 가시광선에 의해 촬영되는 이미지를 취득하는 제1 카메라 장치와, 상기 타격매트를 포함하는 영역에 적외선을 조사하여 반사되는 적외선에 의해 촬영되는 이미지를 취득하는 제2 카메라 장치를 포함하여 상기 골프공 및 사용자의 골프스윙에 이용되는 골프클럽을 감지하도록 구성되는 카메라 센싱장치; 및
가상의 골프코스에 관한 영상을 구현하고, 상기 제1 카메라 장치 및 제2 카메라 장치 각각의 취득 이미지를 분석하여 상기 골프공 및 골프클럽 중 적어도 하나에 대한 3차원 위치 정보를 산출하여 상기 사용자의 골프스윙에 따라 운동하는 골프공에 대한 운동 파라미터를 산출하며, 상기 산출된 운동 파라미터에 기초하여 상기 영상 구현된 가상의 골프코스 상에서 볼이 이동하는 시뮬레이션 영상을 구현하는 시뮬레이터;
를 포함하는 가상 골프 시뮬레이션 장치.
A first camera device for acquiring an image photographed by a visible light reflected by irradiating a visible ray to an area including a striking mat on which a golf ball is placed; and a second camera device for irradiating the area including the striking mat with infrared rays A camera sensing device configured to detect a golf club used for the golf ball and a golf swing of the user, the second camera device acquiring an image to be photographed; And
Dimensional position information of at least one of the golf ball and the golf club by analyzing an image obtained by each of the first camera device and the second camera device, A simulator for calculating a motion parameter for a golf ball to be moved according to a swing and implementing a simulation image in which the ball moves on the imaginary golf course implemented based on the calculated motion parameter;
And a virtual golf simulation device.
제9항 또는 제10항에 있어서,
상기 제1 카메라는 상기 사용자의 머리 위쪽의 천장에 설치되고, 상기 제2 카메라는 벽 쪽에 설치된 상기 시뮬레이터의 케이스에 설치되는 것을 특징으로 하는 가상 골프 시뮬레이션 장치.
11. The method according to claim 9 or 10,
Wherein the first camera is installed on the ceiling above the head of the user and the second camera is installed on the case of the simulator installed on the wall.
KR1020160064881A 2016-05-26 2016-05-26 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same KR101902283B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160064881A KR101902283B1 (en) 2016-05-26 2016-05-26 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same
TW106117350A TWI642462B (en) 2016-05-26 2017-05-25 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same
PCT/KR2017/005451 WO2017204571A1 (en) 2016-05-26 2017-05-25 Camera sensing apparatus for obtaining three-dimensional information of object, and virtual golf simulation apparatus using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160064881A KR101902283B1 (en) 2016-05-26 2016-05-26 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same

Publications (2)

Publication Number Publication Date
KR20170133730A true KR20170133730A (en) 2017-12-06
KR101902283B1 KR101902283B1 (en) 2018-09-28

Family

ID=60411391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160064881A KR101902283B1 (en) 2016-05-26 2016-05-26 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same

Country Status (3)

Country Link
KR (1) KR101902283B1 (en)
TW (1) TWI642462B (en)
WO (1) WO2017204571A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200063937A (en) 2018-11-28 2020-06-05 알바이오텍 주식회사 System for detecting position using ir stereo camera
KR20200063938A (en) 2018-11-28 2020-06-05 알바이오텍 주식회사 Distortion correction method of 3-d coordinate data using distortion correction device and system therefor
CN111526291A (en) * 2020-04-29 2020-08-11 济南博观智能科技有限公司 Method, device and equipment for determining monitoring direction of camera and storage medium
KR20220146737A (en) * 2021-04-23 2022-11-02 정영란 floor golf simulation system using two cameras
KR102631823B1 (en) * 2022-12-26 2024-01-31 주식회사 장안 Bunker Shot Club Contact Detection System for Screen Golf

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062752B (en) * 2017-12-13 2023-07-25 杭州易现先进科技有限公司 Method, medium, device and computing equipment for judging azimuth of main light source
KR101994225B1 (en) * 2018-04-02 2019-07-01 주식회사 골프존 Device for putting guide, virtual golf simulation apparatus using the same and control method of the same
CN111553915A (en) * 2020-05-08 2020-08-18 深圳前海微众银行股份有限公司 Article identification detection method, device, equipment and readable storage medium
CN113538550A (en) * 2021-06-21 2021-10-22 深圳市如歌科技有限公司 Golf ball sensing method, system and storage medium
CN115278194B (en) * 2022-09-22 2022-12-23 山东省青东智能科技有限公司 Image data processing method based on 3D industrial camera
KR102540117B1 (en) 2022-12-21 2023-06-05 도광수 Photographing apparatus for screen golf

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
KR20090112538A (en) * 2008-04-23 2009-10-28 김성규 Apparatus for obtaining golf images using illumination control, and golf practice system based on image processing using it
KR101048090B1 (en) * 2011-03-22 2011-07-08 (주) 골프존 Apparatus for virtual golf simulation, and sensing device and method used to the same
KR101327433B1 (en) * 2011-12-08 2013-11-11 주식회사 엔티리서치 Apparatus for monitoring three-dimensional shape of target object
KR101399274B1 (en) * 2012-09-27 2014-05-27 오승태 multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME
KR101461144B1 (en) 2013-08-02 2014-11-13 (주) 골프존 Device for sensing moving ball and method for the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200063937A (en) 2018-11-28 2020-06-05 알바이오텍 주식회사 System for detecting position using ir stereo camera
KR20200063938A (en) 2018-11-28 2020-06-05 알바이오텍 주식회사 Distortion correction method of 3-d coordinate data using distortion correction device and system therefor
CN111526291A (en) * 2020-04-29 2020-08-11 济南博观智能科技有限公司 Method, device and equipment for determining monitoring direction of camera and storage medium
KR20220146737A (en) * 2021-04-23 2022-11-02 정영란 floor golf simulation system using two cameras
KR102631823B1 (en) * 2022-12-26 2024-01-31 주식회사 장안 Bunker Shot Club Contact Detection System for Screen Golf

Also Published As

Publication number Publication date
KR101902283B1 (en) 2018-09-28
TW201741003A (en) 2017-12-01
WO2017204571A1 (en) 2017-11-30
TWI642462B (en) 2018-12-01

Similar Documents

Publication Publication Date Title
KR101902283B1 (en) Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same
CN104052938B (en) Apparatus and method for the multispectral imaging using three-dimensional overlay
CN108351523A (en) Stereocamera and the depth map of structure light are used using head-mounted display
US10936900B2 (en) Color identification using infrared imaging
KR20180101496A (en) Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking
CN108234984A (en) Binocular depth camera system and depth image generation method
JP2008048386A (en) Interactive system for forming three-dimensional solid data
US20140200080A1 (en) 3d device and 3d game device using a virtual touch
EP3734423B1 (en) Camera-based location of optically detectable markers
JP6677531B2 (en) Object tracking system
CN104376154A (en) Rigid-body collision track prediction display unit
CN110383341A (en) Mthods, systems and devices for visual effect
US10542875B2 (en) Imaging device, endoscope apparatus, and imaging method
KR102527207B1 (en) Shooting device and object behavior calculation device
US11944897B2 (en) Device including plurality of markers
JP7061304B2 (en) Golf shot shooting device, golf shot analysis system and ball spin measuring device
KR102185322B1 (en) System for detecting position using ir stereo camera
KR101296365B1 (en) hologram touch detection method using camera
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
KR102317913B1 (en) Billiards System Capable of Contents Image Presentation
US20230358892A1 (en) Position information acquisition system, position information acquisition method, and position information acquisition device
KR101845270B1 (en) Baseball game system
KR101403925B1 (en) Apparatus for tracking moving target used in broadcasting
KR101407972B1 (en) Golf Ball Recognizer
CN105717487A (en) 3D space positioning sensor, interactive display system and 3D image generation method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant