KR101147873B1 - Screen-golf system using face recognition and control method of the same - Google Patents

Screen-golf system using face recognition and control method of the same Download PDF

Info

Publication number
KR101147873B1
KR101147873B1 KR1020100059947A KR20100059947A KR101147873B1 KR 101147873 B1 KR101147873 B1 KR 101147873B1 KR 1020100059947 A KR1020100059947 A KR 1020100059947A KR 20100059947 A KR20100059947 A KR 20100059947A KR 101147873 B1 KR101147873 B1 KR 101147873B1
Authority
KR
South Korea
Prior art keywords
face
image
user
screen
area
Prior art date
Application number
KR1020100059947A
Other languages
Korean (ko)
Other versions
KR20110139869A (en
Inventor
김병국
박영기
Original Assignee
박영기
김병국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박영기, 김병국 filed Critical 박영기
Priority to KR1020100059947A priority Critical patent/KR101147873B1/en
Publication of KR20110139869A publication Critical patent/KR20110139869A/en
Application granted granted Critical
Publication of KR101147873B1 publication Critical patent/KR101147873B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/04Games or sports accessories not covered in groups A63B1/00 - A63B69/00 for small-room or indoor sporting games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0605Decision makers and devices using detection means facilitating arbitration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 얼굴 인식을 이용한 스크린 골프 시스템 및 그 제어 방법을 공개한다. 본 발명은 사용자의 상반신 영상을 촬영하고, 상반신 영상에서 얼굴 영역을 추출한 후 분석하여 사용자의 얼굴 방향 변화 및 크기 변화를 인식한다. 그리고, 본 발명은 인식된 사용자의 얼굴 방향에 대응되도록 스크린에 표시되는 영상의 방향을 변경할 수 있고, 사용자의 얼굴의 크기 변화를 이용하여 사용자와 스크린간의 거리를 측정할 수 있고, 이에 대응되도록 스크린에 표시되는 영상을 줌인하거나 줌아웃 할 수 있다. 따라서, 본 발명에 의하면, 사용자는 타석에서 내려와서 컴퓨터 키보드를 조작하고 다시 타석으로 돌아가는 불편함없이, 타석에서 얼굴의 방향을 이동하는 것만으로 간편하게 스크린 영상의 방향을 변경하고, 스크린 영상의 확대 및 축소를 수행할 수 있다.The present invention discloses a screen golf system using face recognition and a control method thereof. The present invention captures an image of a torso of a user, extracts a face region from the torso image, and analyzes the same to recognize a change in face direction and a change in size of the user. In addition, the present invention may change the direction of the image displayed on the screen to correspond to the recognized direction of the user's face, measure the distance between the user and the screen by using the size change of the user's face, the screen to correspond You can zoom in or out the video displayed on the screen. Accordingly, according to the present invention, the user can easily change the direction of the screen image by simply moving the direction of the face at the turn at the turn, without the inconvenience of manipulating the computer keyboard and returning to the turn at turn. Reduction can be performed.

Figure R1020100059947
Figure R1020100059947

Description

얼굴 인식을 이용한 스크린 골프 시스템 및 그 제어 방법{Screen-golf system using face recognition and control method of the same }Screen-golf system using face recognition and control method of the same}

본 발명은 스크린 골프 시스템 및 그 제어 방법에 관한 것으로서, 보다 구체적으로는 얼굴 인식을 이용한 스크린 골프 시스템 및 그 제어 방법에 관한 것이다.
The present invention relates to a screen golf system and a control method thereof, and more particularly, to a screen golf system using face recognition and a control method thereof.

최근에는, 생활수준의 향상과 함께 골프가 대중적인 스포츠로 자리매김하고 있고, 도시로부터 원거리에 위치한 골프장을 찾기 어려운 시민들이 이용할 수 있는 스크린 골프장이 도심에서 급속도로 확산되고 있으며, 이러한 추세에 따라서, 스크린 골프 시장은 성장기를 지나서 성숙기에 접어들고 있다.In recent years, with the improvement of living standards, golf has become a popular sport, and the screen golf course which is available to citizens who cannot find a golf course far from the city is rapidly spreading in the city center. The screen golf market is entering maturity beyond growth.

이러한, 스크린 골프장이란 일정한 크기의 방안에 골프장을 그대로 모사한 영상을 방 전면에 설치된 스크린에 표시하고, 사용자가 골프 클럽을 이용해서 스크린을 향해서 골프공을 치면, 골프공의 속도, 방향, 회전 등을 감지하여 골프공이 이동하는 모습을 스크린상에 표시하며, 골프공의 예상 경로 및 거리를 3차원 공간상에서 계산하여 게임을 진행하는 것이다.Such a screen golf course displays an image of a golf course as it is in a room of a certain size on a screen installed in the front of the room, and when a user hits a golf ball toward the screen using a golf club, the speed, direction, and rotation of the golf ball. It detects the movement of the golf ball on the screen and displays the expected path and distance of the golf ball in three-dimensional space to proceed with the game.

초창기에는 이러한 스크린 골프장에 설치된 일련의 장치들을 체감형 골프 실연 시스템, 가상 골프 시뮬레이션 시스템 등으로 칭하였으나, 본 발명은, 이하에서, 일반대중이 부르는 명칭인 스크린 골프 시스템이라 칭하기로 한다.In the beginning, a series of devices installed in such a screen golf course was referred to as a tangible golf demonstration system, a virtual golf simulation system, and the like. Hereinafter, the present invention will be referred to as a screen golf system, which is called by the general public.

도 1은 종래의 스크린 골프 시스템의 구성을 도시하는 도면이다.1 is a view showing the configuration of a conventional screen golf system.

도 1을 참조하면, 종래의 스크린 골프 시스템은 천장에 프로젝터(12)가 설치되어, 전면에 설치된 스크린(11)에 골프장 영상 및 골프공의 이동 모습을 표시한다.Referring to FIG. 1, in the conventional screen golf system, the projector 12 is installed on the ceiling, and the golf course image and the golf ball are displayed on the screen 11 installed at the front.

스윙 플레이트(14;이하, "타석"이라 약칭함)에는 골프공의 회전, 속도, 방향을 측정하는 센서 모듈(15)이 설치되어 있고, 센서 모듈(15)에서 측정된 센서값들은 컴퓨터(16)로 입력된다.The swing plate 14 (hereinafter, abbreviated as “at batting”) is provided with a sensor module 15 for measuring the rotation, speed, and direction of a golf ball, and the sensor values measured by the sensor module 15 are computer 16. ) Is entered.

또한, 타석(14)의 정면에는 카메라(13)가 설치되어 사용자가 스윙하는 모습을 촬영하여 샷이 끝난 후 사용자에게 표시한다. In addition, the front of the plate 14 is installed with a camera 13 to take a picture of the user swings to display the user after the end of the shot.

컴퓨터(16)는 내부에 저장된 골프장 영상을 프로젝터(11)를 통해서 출력하고, 센서 모듈(15)로부터 입력된 센서값들을 이용하여 사용자가 친 골프공의 이동 방향 및 경로를 계산하여 프로젝터(12)를 통해서 스크린(11)에 표시한다.The computer 16 outputs the golf course image stored therein through the projector 11, and calculates a moving direction and a path of the golf ball hit by the user using the sensor values input from the sensor module 15. It is displayed on the screen 11 through.

그러나, 이러한 종래의 스크린 골프 시스템에서는 골프공의 이동 방향은 현재 스크린(11)에 표시된 정면을 기준 방향으로 하여 계산 및 표시되고, 탁트인 야외 골프장과 달리, 실내 스크린 골프장은 장소가 협소하여 스크린(11)에 표시되는 영역이 한계가 있다. However, in this conventional screen golf system, the direction of movement of the golf ball is calculated and displayed with reference to the front face currently displayed on the screen 11, and unlike an open outdoor golf course, an indoor screen golf course has a narrow space due to a narrow screen ( The area displayed in 11) is limited.

따라서, 사용자가 자신이 치는 공의 방향을 변경하거나, 자신이 바라보고자 뷰(view)를 변경하고자 하는 경우, 또는 현재의 스크린에 표시되는 영상을 줌인하거나 줌아웃하기 위해서는, 타석(14)에서 내려와서 컴퓨터(16)에 연결된 키보드(17) 및 마우스(18)를 일일이 조작하여, 스크린에 표시되는 영상을 변경해야 한다.Therefore, when the user changes the direction of the ball he is hitting, or wants to change the view he or she is looking at, or to zoom in or out of the image displayed on the current screen, he comes down from the turn at bat 14 The keyboard 17 and the mouse 18 connected to the computer 16 must be operated manually to change the image displayed on the screen.

또한, 한번 변경된 영상의 방향이 마음에 들지 않으면, 다시 또 타석에서 내려와서 키보드 및 마우스를 조작하여 스크린에 표시되는 영상을 일일이 변경해야 하므로, 많은 불편함이 초래된다.
In addition, if you do not like the direction of the changed image once, you have to come back from the turn at the turn and to change the image displayed on the screen by manipulating the keyboard and mouse, causing a lot of inconvenience.

본 발명이 해결하고자 하는 과제는, 사용자가 타석에서 자유롭게 스크린에 표시되는 영상의 방향을 변경하고, 자신이 원하는 영상을 자유롭게 줌인하거나 줌아웃 할 수 있는 스크린 골프 시스템 및 그 제어 방법을 제공하는 것이다.
An object of the present invention is to provide a screen golf system and a method of controlling the same, which allows a user to freely change a direction of an image displayed on a screen at a turn at bat, and freely zoom in or zoom out a desired image.

상술한 과제를 해결하기 위한 본 발명의 얼굴 인식을 이용한 스크린 골프 시스템은, 전면에 설치된 스크린; 상기 스크린에 골프장 영상을 출력하는 프로젝터; 사용자가 타격한 골프공의 속도 및 방향을 측정하는 센서 모듈; 사용자의 상반신 영상을 촬영하는 카메라; 및 상기 센서 모듈로부터 입력된 측정 결과를 이용하여 골프공의 이동 거리 및 이동 방향을 분석하는 타구 분석부, 상기 카메라에서 촬영한 상반신 영상에서 얼굴 영역을 추출하고, 추출된 얼굴 영역을 분석하여 사용자의 얼굴 방향을 판별하고, 얼굴 방향에 대응되도록 상기 스크린에 출력되는 영상을 변경시킬 것을 지시하는 영상 제어신호를 생성하는 안면 인식부, 그래픽 DB에 저장된 그래픽 데이터를 판독하여 상기 프로젝터로 골프장 영상을 출력하고, 제어부로부터 입력되는 골프공 이동 영상 데이터를 상기 골프장 영상과 합성하여 표시하며, 상기 제어부로부터 입력되는 제어신호에 따라서 스크린에 표시되는 영상을 변경하는 영상 처리부, 및 상기 타구 분석부로부터 입력되는 분석 결과에 따라서 상기 골프공 이동 영상 데이터를 생성하여 상기 영상 처리부로 출력하고, 상기 안면 인식부로부터 입력되는 영상 제어신호에 따라서 상기 영상처리부를 제어하여 스크린에 표시되는 영상을 변경하는 제어부를 포함하는 제어 장치를 포함한다.Screen golf system using the face recognition of the present invention for solving the above problems, the screen installed on the front; A projector for outputting a golf course image on the screen; Sensor module for measuring the speed and direction of the golf ball hit by the user; A camera for photographing an upper body image of the user; And a batting analyzer for analyzing a moving distance and a moving direction of the golf ball using the measurement result input from the sensor module, extracting a face region from an upper body image photographed by the camera, and analyzing the extracted face region. A face recognition unit for generating an image control signal instructing to change the image output on the screen to determine the face direction and corresponding to the face direction, reading graphic data stored in a graphic DB, and outputting a golf course image to the projector; And an image processing unit for synthesizing the golf ball moving image data input from the control unit with the golf course image and changing the image displayed on the screen according to a control signal input from the control unit, and an analysis result input from the batting analysis unit. According to the golf ball moving image data generated Output to the image processing unit, and according to the image control signal received from the face recognition unit and a control apparatus including a control unit for changing the image displayed on the screen by controlling the image processor.

또한, 상기 안면 인식부는, 사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 눈의 위치를 이용하여 사용자 얼굴의 방향을 판단할 수 있다.The face recognizing unit may detect the positions of two eyes in the face region of the user and determine the direction of the user's face using the position of the eyes.

또한, 상기 안면 인식부는, 사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 두 눈의 중심점이 얼굴 영상의 중심 범위를 벗어나면, 상기 눈의 중심점이 얼굴 영상의 중심 범위를 벗어난 방향으로 사용자 얼굴의 방향을 판단할 수 있다.In addition, the face recognition unit detects the positions of the two eyes in the face region of the user, and if the center point of the two eyes is outside the center range of the face image, the center point of the eyes is out of the center range of the face image. The direction of can be determined.

또한, 상기 안면 인식부는, 사용자의 얼굴 영역의 중심과, 사용자의 얼굴 영역의 피부색 영역의 중심을 비교하여 사용자가 얼굴의 위로 향하는지 또는 아래로 향하는지 여부를 판단할 수 있다.The face recognition unit may compare the center of the user's face area with the center of the skin color area of the user's face area to determine whether the user faces upward or downward.

또한, 상기 안면 인식부는, 상기 스크린에 표시되는 영상 중 사용자의 얼굴 방향에 대응되는 영역이 스크린 중심 방향으로 이동하도록 제어하는 상기 영상 제어신호를 발생시켜 상기 제어부로 출력하고, 상기 제어부는 상기 영상 제어신호에 따라서 상기 영상 처리부를 제어하여 상기 스크린에 표시되는 영상을 이동시킬 수 있다.The face recognizing unit generates and outputs the image control signal to the controller to control an area corresponding to the direction of the user's face among the images displayed on the screen to move toward the screen center, and the controller controls the image. The image processor may be moved according to a signal to move an image displayed on the screen.

또한, 기 안면 인식부는, 상기 카메라로부터 입력되는 각각의 영상 프레임에 대해서 사용자의 얼굴 방향을 조사하고, 사용자의 얼굴 방향이 측면을 향하는 경우에, 사용자의 얼굴 방향에 대응되는 방향 변경 예비 이벤트를 발생시키고, 방향 변경 예비 이벤트가 발생된 영상 프레임의 얼굴 영역과, 소정수 이후의 영상 프레임의 얼굴 영역을 비교하여 유사도가 사전에 정의된 임계값 이상인 경우에 예비 방향 변경 이벤트에 대응되도록 영상 제어신호 발생시켜 상기 제어부로 출력할 수 있다.In addition, the facial recognition unit checks the face direction of the user with respect to each image frame input from the camera, and generates a direction change preliminary event corresponding to the face direction of the user when the face direction of the user faces the side. The image control signal is generated to correspond to the preliminary redirection event when the similarity is greater than or equal to a predetermined threshold by comparing the face area of the video frame where the redirection preliminary event is generated with the face area of the post-predetermined number of video frames. It can be output to the control unit.

또한, 상기 안면 인식부는, 상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 얼굴 영역의 크기 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)를 지시하는 영상 제어신호를 상기 제어부로 출력할 수 있다.In addition, the face recognizing unit may compare the size of the face area between the image frames while the face area faces the front, and enlarge (zoom in) or reduce the image displayed on the screen according to the change of the size of the face area. The image control signal indicating the zoom out) may be output to the controller.

또한, 상기 안면 인식부는, 상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기 변화와 상기 상반신 영상에서 상기 얼굴 영역의 위치 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)를 지시하는 영상 제어신호를 상기 제어부로 출력할 수 있다.The face recognition unit may enlarge (zoom in) an image displayed on the screen according to a change in the size of the face region between each image frame and a change in the position of the face region in the upper torso image while the face region faces the front. Alternatively, an image control signal indicating reduction (zoom out) may be output to the controller.

또한, 상기 카메라는, 사용자가 골프공을 타격하는 타석과 상기 스크린 사이의 위치에, 지면으로부터 내부로 형성된 수용홈에 수용되어 타석에 위치한 사용자의 상반신을 촬영할 수 있다.In addition, the camera, the position between the batter hit the golf ball and the screen, can be taken in the receiving groove formed from the ground inwardly to take a photograph of the upper body of the user located at the batter.

한편, 상술한 과제를 해결하기 위한 본 발명의 얼굴 인식을 이용한 스크린 골프 시스템의 제어 방법은, (a) 스크린 골프 시스템이 스크린에 골프장 영상을 표시하는 단계; (b) 스크린 골프 시스템이, 타석에 위치한 사용자의 상반신 영상을 촬영하고, 상기 상반신 영상으로부터 얼굴 영역을 추출하는 단계; (c) 상기 스크린 골프 시스템이, 상기 얼굴 영역을 분석하여 얼굴 방향을 판별하는 단계; 및 (d) 상기 스크린 골프 시스템이, 상기 얼굴 방향에 대응되는 영역의 영상을 상기 스크린의 중심으로 이동시켜 표시하는 단계를 포함한다.On the other hand, the control method of the screen golf system using the face recognition of the present invention for solving the above problems, (a) the screen golf system displaying a golf course image on the screen; (b) the screen golf system photographing a torso image of a user located at the turn at bat and extracting a face region from the torso image; (c) the screen golf system analyzing the face area to determine a face direction; And (d) the screen golf system moving and displaying an image of an area corresponding to the face direction toward the center of the screen.

또한, 상기 (c) 단계는, 사용자 얼굴 영상에서 두 눈의 위치를 검출하고, 눈의 위치를 이용하여 사용자 얼굴의 방향을 판단할 수 있다.In addition, in step (c), the position of the two eyes may be detected in the user face image, and the direction of the user face may be determined using the position of the eyes.

또한, 상기 (c) 단계는, 사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 두 눈의 중심점이 얼굴 영상의 중심 범위를 벗어나면, 상기 눈의 중심점이 얼굴 영상의 중심 범위를 벗어난 방향으로 사용자 얼굴의 방향을 판단할 수 있다.Also, in the step (c), when the positions of the two eyes are detected in the face region of the user and the center point of the two eyes is outside the center range of the face image, the center point of the eyes is out of the center range of the face image. The direction of the user's face may be determined.

또한, 상기 (c) 단계는, 사용자의 얼굴 영역의 중심과, 사용자의 얼굴 영역의 피부색 영역의 중심을 비교하여 사용자가 얼굴의 위로 향하는지 또는 아래로 향하는지 여부를 판단할 수 있다.In addition, in the step (c), it may be determined whether the user faces the face up or down by comparing the center of the user's face area with the center of the skin color area of the user's face area.

또한, 상기 (c) 단계는, 상기 카메라로부터 입력되는 각각의 영상 프레임에 대해서 사용자의 얼굴 방향을 조사하고, 사용자의 얼굴 방향이 측면을 향하는 경우에, 사용자의 얼굴 방향에 대응되는 방향 변경 예비 이벤트를 발생시키고, 방향 변경 예비 이벤트가 발생된 영상 프레임의 얼굴 영역과, 소정수 이후의 영상 프레임의 얼굴 영역을 비교하여 유사도가 사전에 정의된 임계값 이상인 경우에 예비 방향 변경 이벤트에 대응되는 방향을 사용자가 스크린 영상을 제어하기 위해 움직인 얼굴 방향으로 판단할 수 있다.In addition, in the step (c), the direction of the face of the user is irradiated with respect to each image frame input from the camera, and the direction change preliminary event corresponding to the direction of the face of the user when the direction of the face of the user faces the side And a face area of the image frame in which the direction change preliminary event is generated and a face area of the image frame after a predetermined number, and determine a direction corresponding to the preliminary direction change event when the similarity is greater than or equal to a predefined threshold. The user may determine the direction of the face moved to control the screen image.

또한, 상기 (c) 단계에서 판별된 얼굴 영상의 방향이 정면을 향하는 경우에, 상기 (d) 단계는, 상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 얼굴 영역의 크기 변화에 따라서 상기 스크린에 표시되는 영상을 확대(줌인) 또는 축소(줌아웃)할 수 있다.In addition, when the direction of the face image determined in the step (c) is directed to the front, the step (d) is to compare the size of the face region between each image frame in a state that the face area is facing to the front, As the size of the face area changes, the image displayed on the screen may be enlarged (zoom in) or reduced (zoom out).

또한, 상기 (c) 단계에서 판별된 얼굴 영상의 방향이 정면을 향하는 경우에, 상기 (d) 단계는, 상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 상기 얼굴 영역의 크기 변화와 상기 상반신 영상에서의 상기 얼굴 영역의 위치 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)할 수 있다.
In addition, when the direction of the face image determined in the step (c) is directed to the front, the step (d) is to compare the size of the face region between each image frame in a state that the face area is facing to the front, The image displayed on the screen may be enlarged (zoom in) or reduced (zoom out) according to a change in the size of the face area and a change in the position of the face area in the upper body image.

본 발명은 사용자의 상반신 영상을 촬영하고, 상반신 영상에서 얼굴 영역을 추출한 후 분석하여 사용자의 얼굴 방향 변화 및 크기 변화를 인식한다. 그리고, 본 발명은 인식된 사용자의 얼굴 방향에 대응되도록 스크린에 표시되는 영상의 방향을 변경할 수 있고, 사용자의 얼굴의 크기 변화를 이용하여 사용자와 스크린간의 거리를 측정할 수 있고, 이에 대응되도록 스크린에 표시되는 영상을 줌인하거나 줌아웃 할 수 있다.The present invention captures an image of a torso of a user, extracts a face region from the torso image, and analyzes the same to recognize a change in face direction and a change in size of the user. In addition, the present invention may change the direction of the image displayed on the screen to correspond to the recognized direction of the user's face, measure the distance between the user and the screen by using the size change of the user's face, the screen to correspond You can zoom in or out the video displayed on the screen.

따라서, 본 발명에 의하면, 사용자는 타석에서 내려와서 컴퓨터 키보드를 조작하고 다시 타석으로 돌아가는 불편함없이, 타석에서 얼굴의 방향을 이동하는 것만으로 간편하게 스크린 영상의 방향을 변경하고, 스크린 영상의 확대 및 축소를 수행할 수 있다.
Accordingly, according to the present invention, the user can easily change the direction of the screen image by simply moving the direction of the face at the turn at the turn, without the inconvenience of manipulating the computer keyboard and returning to the turn at turn. Reduction can be performed.

도 1은 종래의 스크린 골프 시스템의 구성을 도시하는 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 구성을 도시하는 도면이다.
도 3은 스크린과 타석사이에 사용자의 얼굴을 촬영하는 제 2 카메라가 설치된 일 예를 도시한 도면이다.
도 4는 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 구조를 기능적으로 도시한 블록도이다.
도 5는 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 제어 방법을 설명하는 흐름도이다.
도 6은 사용자가 스크린 화면을 줌인/줌아웃하는 과정을 설명하는 도면이다.
도 7a 내지 도 7c는 사용자가 얼굴을 좌우로 돌리는 경우의 영상 처리 과정을 설명하는 도면이다.
도 8 및 도 9는 사용자가 좌측 또는 우측을 바라보는지 여부를 판단하는 방법을 설명하는 도면이다.
도 10은 사용자가 얼굴을 위아래로 향하는 경우의 영상 처리 과정을 설명하는 도면이다.
도 11은 사용자가 고개를 위로 들었는지 또는 아래로 내렸는지 판단하는 방법의 일예를 도시하는 도면이다.
1 is a view showing the configuration of a conventional screen golf system.
2 is a diagram showing the configuration of a screen golf system according to a preferred embodiment of the present invention.
3 is a diagram illustrating an example in which a second camera for photographing a user's face is installed between a screen and a turn at bat.
Figure 4 is a block diagram functionally showing the structure of a screen golf system according to a preferred embodiment of the present invention.
5 is a flowchart illustrating a control method of a screen golf system according to a preferred embodiment of the present invention.
6 is a diagram illustrating a process of a user zooming in and out of a screen screen.
7A to 7C are diagrams illustrating an image processing process when a user rotates a face from side to side.
8 and 9 illustrate a method of determining whether a user looks left or right.
10 is a diagram illustrating an image processing process when a user faces a face up and down.
FIG. 11 is a diagram illustrating an example of a method of determining whether a user raises or lowers his head.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 구성을 도시하는 도면이다.2 is a diagram showing the configuration of a screen golf system according to a preferred embodiment of the present invention.

도 2를 참조하면, 본 발명의 스크린 골프 시스템은 스크린(210), 스윙 플레이트(240:"타석"으로 약칭함), 센서 모듈(250), 프로젝터(220), 제 1 카메라(230), 제 2 카메라(290), 사용자 감지부(미도시 됨) 및 제어 장치(260)를 포함하여 구성된다. 이하, 각 구성요소들에 대해서 설명한다.Referring to FIG. 2, the screen golf system according to the present invention includes a screen 210, a swing plate 240 (abbreviated as “at batting”), a sensor module 250, a projector 220, a first camera 230, and a first one. 2 includes a camera 290, a user sensor (not shown) and the control device 260. Hereinafter, each component is demonstrated.

먼저, 스크린 골프장 전면에 스크린(210)이 설치되고, 천장에는 골프장 영상 및 골프공의 이동 영상을 전면의 스크린(210)에 출력하는 프로젝터(220)가 설치되어 있다.First, the screen 210 is installed in front of the screen golf course, the projector 220 for outputting the golf course image and the moving image of the golf ball on the front screen 210 is installed on the ceiling.

스크린(210)으로부터 일정거리 떨어진 위치에는 사용자가 골프 클럽으로 골프공을 타격할 수 있는 타석(240)이 설치되어 있고, 사용자가 골프공을 치는 타석(240) 주변에는 골프공의 속도, 방향, 회전 등을 감지하는 센서 모듈(250)이 설치되어 있다.At a certain distance from the screen 210, a plate at bat 240 is installed to allow the user to hit the golf ball with a golf club. The speed, direction, and direction of the golf ball are around the plate at bat 240 where the user hits the golf ball. Sensor module 250 for detecting the rotation and the like is installed.

또한, 스윙을 위해서 타석(240)에 선 사용자의 전면에는 사용자의 스윙 모습을 촬영하는 제 1 카메라(230)가 설치되어 있다.In addition, the first camera 230 for capturing the swing state of the user is installed on the front of the user standing on the turn at bat 240 for the swing.

상술한 구성은 종래의 스크린 골프 시스템의 구성과 매우 유사하므로 구체적인 설명은 생략한다.Since the above-described configuration is very similar to that of the conventional screen golf system, a detailed description thereof will be omitted.

한편, 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템은 스크린(210)과 타석(240) 사이에, 타석(240)에 위치한 사용자의 얼굴을 촬영할 수 있는 제 2 카메라(290)가 설치되어 있고, 타석 주변에는 사용자가 스크린 제어를 위한 영역(화면 제어 영역)에 위치하는지 여부를 감지하여 제어장치(260)로 출력하는 사용자 감지부(미도시 됨)가 설치된다. On the other hand, the screen golf system according to a preferred embodiment of the present invention is provided between the screen 210 and the plate at bat 240, the second camera 290 that can photograph the user's face located on the plate at bat 240, In the vicinity of the turn at bat, a user detector (not shown) for detecting whether the user is located in an area for screen control (screen control area) and outputting it to the control device 260 is installed.

사용자 감지부는 타석(240)의 앞부분인 화면 제어 영역 밑에 설치된 압력 센서로 구현되어 사용자가 화면 제어 영역에 위치하면 압력을 감지하여 사용자 감지 신호를 제어장치(260)로 출력할 수 있다.The user sensor may be implemented as a pressure sensor installed under the screen control area, which is the front of the turn at bat 240, and may detect a pressure when the user is located in the screen control area to output a user detection signal to the control device 260.

또한, 사용자 감지부는 타석(240)의 전면에 설치된 거리 측정 센서(초음파 센서 등으로 구현됨)로 구현되어 사용자와 사용자 감지부 간의 거리를 측정하여 사용자가 화면 제어 영역에 위치하는지 여부를 감지하여 사용자 감지 신호를 제어장치(260)로 출력할 수 있다.In addition, the user detection unit is implemented as a distance measuring sensor (implemented by an ultrasonic sensor, etc.) installed in front of the turn at bat 240 to measure the distance between the user and the user detection unit to detect whether the user is located in the screen control area, the user The detection signal may be output to the control device 260.

도 3은 스크린과 타석(240)사이에 사용자의 얼굴을 촬영하는 제 2 카메라(290)가 설치된 일 예를 도시한 도면이다. 3 is a diagram illustrating an example in which a second camera 290 for photographing a user's face is installed between the screen and the turn at bat 240.

도 3을 참조하면, 본 발명의 바람직한 실시예에서, 사용자의 얼굴을 촬영하는 제 2 카메라(290)는 타석(240)과 스크린(210) 사이의 지면으로부터 내부로 형성된 수용홈(291) 내부에 수용된다. 또한, 수용홈(291)과 지면의 표면에는 골프공이 수용홈(291) 내부로 유입되는 것을 차단하기 위한 투명판(292)이 설치되고, 제 2 카메라(290)는 투명판(292)을 통해서 사용자의 얼굴 영상을 촬영하여 제어 장치(260)로 전송한다.Referring to FIG. 3, in a preferred embodiment of the present invention, the second camera 290 photographing the user's face is located inside the receiving groove 291 formed therein from the ground between the plate at bat 240 and the screen 210. Are accepted. In addition, the receiving groove 291 and the surface of the ground is provided with a transparent plate 292 for blocking the golf ball from entering the receiving groove 291, the second camera 290 through the transparent plate 292 The image of the face of the user is photographed and transmitted to the control device 260.

투명판(292)은 강화 유리판 또는 강화 플라스틱 재질 등과 같이, 골프공이 수용홈(291) 내부로 유입되는 것을 막고, 수용홈(291) 내부의 제 1 카메라(230)가 투명판(292)을 통해서 사용자를 촬영할 수 있는 구성이라면, 그 재질에 제한이 없다.The transparent plate 292 prevents a golf ball from flowing into the receiving groove 291, such as a tempered glass plate or a reinforced plastic material, and the first camera 230 inside the receiving groove 291 passes through the transparent plate 292. If the configuration can shoot the user, the material is not limited.

다시 도 2를 참조하면, 제어 장치(260)는 본 발명의 스크린 골프 시스템을 구현하는 소프트웨어가 설치된 컴퓨터로 구현될 수 있는데, 제어 장치(260)는 센서 모듈(250)로부터 입력되는 센서값을 이용하여, 사용자가 타격한 골프공의 이동 방향, 거리 등을 계산하여 스크린(210)에 표시한다. 사용자의 스윙 영상을 표시하는 구성 등과 같은, 후술하는 사용자의 얼굴을 검출하여 영상을 제어하는 구성 외의 구성은 종래 기술과 매우 유사하므로 구체적인 설명은 생략한다. Referring back to FIG. 2, the control device 260 may be implemented as a computer in which software for implementing the screen golf system of the present invention is installed. The control device 260 uses a sensor value input from the sensor module 250. Then, the movement direction, distance, etc. of the golf ball hit by the user is calculated and displayed on the screen 210. The configuration other than the configuration for controlling the image by detecting the face of the user, which will be described later, such as the configuration for displaying the swing image of the user, is very similar to the prior art, and thus a detailed description thereof will be omitted.

한편, 본 발명의 제어 장치(260)는 사용자 감지부(미도시 됨)로부터 사용자가 화면 제어 영역에 위치하였다는 신호를 수신하면, 제 2 카메라(290)로부터 입력되는 사용자를 촬영한 영상에서 사용자의 얼굴 및 눈을 검출하고, 이를 이용하여 사용자가 얼굴을 움직이는 방향을 탐지하며, 사용자가 움직이는 방향에 따라서 스크린(210)에 표시되는 영상을 변경한다.On the other hand, when the control device 260 of the present invention receives a signal from the user sensor (not shown) that the user is located in the screen control area, the control device 260 is a user in the image of the user input from the second camera 290 Detects the face and eyes of the user, detects the direction in which the user moves the face, and changes the image displayed on the screen 210 according to the direction in which the user moves.

즉, 제어 장치(260)는 사용자가 고개를 왼쪽으로 돌리면 현재 사용자를 기준으로 왼쪽에 표시된 영상이 스크린(210) 중앙으로 이동하여 표시되도록 표시되는 영상을 변경하고, 사용자가 고개를 오른쪽으로 돌리면 현재 사용자를 기준으로 오른쪽에 표시된 영상이 스크린(210) 중앙으로 이동되어 표시되도록 영상을 변경한다.That is, when the user turns his head to the left, the control device 260 changes the displayed image so that the image displayed on the left is moved to the center of the screen 210 based on the current user, and the user turns the head to the right. The image displayed on the right side of the user is moved to the center of the screen 210 to change the image.

또한, 제어 장치(260)는 제 2 카메라(290)가 촬영한 영상에서 사용자 얼굴 영역의 크기를 조사하여 사용자가 타석(240) 내에서 앞으로 이동하는지 또는 뒤로 이동하는지 여부를 조사하여, 사용자가 앞으로 이동하여 얼굴 영역이 이전에 촬영된 영상보다 크게 검출되면 스크린(210)에 표시되는 영상을 줌인(zoom-in)하여 표시하고, 사용자가 뒤로 이동하여 얼굴 영역이 이전에 촬영되던 영상보다 작게 검출되면 스크린(210)에 표시되는 영상을 줌아웃(zoom-out)하여 표시한다.In addition, the control device 260 examines the size of the user's face area in the image captured by the second camera 290 to investigate whether the user moves forward or backward in the turn at bat 240, so that the user moves forward. When the face area is detected to be larger than the previously photographed image, the image displayed on the screen 210 is zoomed-in and displayed. When the user moves backward, the face area is detected to be smaller than the previously photographed image. The image displayed on the screen 210 is zoomed out and displayed.

도 4는 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 구조를 기능적으로 도시한 블록도이다.Figure 4 is a block diagram functionally showing the structure of a screen golf system according to a preferred embodiment of the present invention.

도 4를 참조하면, 본 발명은 타석(240)에 설치되어 사용자가 타격한 골프공의 속도, 방향, 회전 등의 정보를 측정하는 센서 모듈(250), 사용자가 화면 제어 영역에 위치하였는지를 감지하는 사용자 감지부(280), 사용자의 얼굴 영상을 촬영하는 제 2 카메라(290), 사용자의 스윙 모습을 촬영하는 제 1 카메라(230), 사용자의 조작에 따라서 정보를 입력하는 키보드ㅇ마우스와 같은 입력 수단(270), 제어 장치(260)로부터 입력되는 영상 신호를 스크린(210)에 출력하는 프로젝터(220), 및 상기 구성들을 제어하고 영상 신호를 프로젝터(220)로 출력하는 제어 장치(260)를 포함하여 구성된다.Referring to FIG. 4, the present invention provides a sensor module 250 installed at the batter 240 to measure information such as speed, direction, and rotation of the golf ball hit by the user, and detecting whether the user is located in the screen control area. User detection unit 280, the second camera 290 for photographing the face of the user, the first camera 230 for photographing the swing of the user, input such as a keyboard mouse for inputting information according to the user's operation Means 270, a projector 220 for outputting the video signal input from the control device 260 to the screen 210, and a control device 260 for controlling the configurations and outputting the video signal to the projector 220 It is configured to include.

본 발명의 바람직한 실시예에 따른 제어 장치(260)는, 타구 분석부(261), 안면 인식부(263), 제어부(265), 그래픽 DB(269) 및 영상 처리부(267)를 포함하여 구성되고, 안면 인식부(263)는 얼굴 영역 추출부(263-1), 영상 분석부(263-2), 및 영상 제어신호 생성부(263-3)를 포함하여 구성된다.The control device 260 according to the preferred embodiment of the present invention includes a batting analyzer 261, a face recognition unit 263, a controller 265, a graphic DB 269, and an image processor 267. The face recognition unit 263 includes a face region extractor 263-1, an image analyzer 263-2, and an image control signal generator 263-3.

먼저, 타구 분석부(261)는 센서 모듈(250)로부터 사용자가 타격한 골프공의 속도, 방향, 회전 등의 센서 측정 정보를 입력받고, 이를 분석하여 3차원 공간상의 골프공의 이동방향, 이동 거리, 이동 궤적등을 계산하여 제어부(265)로 출력한다.First, the batting analyzer 261 receives sensor measurement information such as the speed, direction, and rotation of the golf ball hit by the user from the sensor module 250, and analyzes the moving direction and movement of the golf ball in a three-dimensional space. The distance, the movement trajectory, etc. are calculated and output to the control unit 265.

제 1 카메라(230)는 종래의 스크린 골프 시스템과 동일하게, 사용자의 스윙 모습을 촬영하여 제어부(265)로 출력하고, 제어부(265)는 타격이 종료된 후, 이를 사용자에게 출력한다.Like the conventional screen golf system, the first camera 230 photographs a swing of the user and outputs the swing to the controller 265, and the controller 265 outputs the swing to the user after the hit is completed.

입력 수단(270)은 키보드 및 마우스로 구현되어, 사용자는 입력 수단(270)을 이용하여 제어 장치(260)에 포함된 각 기능을 제어할 수 있다. The input means 270 is implemented with a keyboard and a mouse, so that the user can control each function included in the control device 260 using the input means 270.

상술한 타구 분석부(261), 제 1 카메라(230), 입력 수단(270) 등의 구성 및 기능은 종래의 스크린 골프 장치의 구성 및 기능과 거의 동일하므로, 구체적인 설명은 생략하고, 이하에서는 본 발명의 특유한 구성인 안면 인식부(263) 및 이와 연동되는 제어부(265)의 구성을 중심으로 설명한다.Since the structure and functions of the above-described ball analysis unit 261, the first camera 230, the input unit 270, and the like are almost the same as those of the conventional screen golf device, detailed descriptions are omitted and the following description will be omitted. A description will be given focusing on the configuration of the face recognition unit 263 and the control unit 265 linked thereto.

안면 인식부(263)는 제 2 카메라(290)로부터 입력된 타석(240)에 위치한 사용자의 얼굴 영상을 이용하여 사용자가 바라보는 방향 및 스크린(210)과의 거리에 따라서 스크린(210)에 출력되는 영상을 좌우 방향 또는 상하 방향으로 변경시키거나 줌인/줌아웃 시키도록 제어하는 영상 제어 신호를 생성하여 제어부(265)로 출력한다.The face recognizing unit 263 outputs the screen to the screen 210 according to the direction of the user's viewing and the distance to the screen 210 using the face image of the user located in the turn at bat 240 input from the second camera 290. The control unit 265 generates an image control signal for controlling the image to be changed in the left and right direction or the vertical direction or zooms in and out.

구체적으로, 안면 인식부(263)는 얼굴 영역 추출부(263-1), 영상 분석부(263-2), 및 영상 제어 신호 생성부(263-3)를 포함하여 구성된다.In detail, the face recognizer 263 includes a face region extractor 263-1, an image analyzer 263-2, and an image control signal generator 263-3.

먼저, 얼굴 영역 추출부(263-1)는 제 2 카메라(290)에서 촬영된 사용자의 상반신 영상에서 얼굴 영역을 추출하여 영상 분석부(263-2)로 출력한다. 사용자의 상반신 영상에서 얼굴 영역을 추출하는 기술은 종래에 다양한 방식이 소개되어 있으며, 종래의 다양한 얼굴 추출 방법이 본 발명에 적용될 수 있다. 다만, 본 발명의 바람직한 실시예에서는 "Viola-Jonse Object Detection" 알고리즘을 이용하여 사용자의 얼굴 영역을 추출한다.First, the face region extractor 263-1 extracts a face region from the upper body image of the user photographed by the second camera 290 and outputs the face region to the image analyzer 263-2. As a technique for extracting a face region from a user's torso image, various methods have been introduced in the related art, and various conventional face extraction methods may be applied to the present invention. However, in the preferred embodiment of the present invention, the face region of the user is extracted using a "Viola-Jonse Object Detection" algorithm.

영상 분석부(263-2)는 사용자의 얼굴 영역 영상이 좌우 대칭이 되는지 여부를 조사하여, 사용자가 정면을 보고 있는지, 또는 측면(좌측, 우측, 위, 아래)을 보고 있는지 여부를 조사할 수 있다. The image analyzer 263-2 may examine whether the face region image of the user is symmetrical to determine whether the user is looking at the front or the side (left, right, up, down). have.

또한, 영상 분석부(263-2)는 사용자의 얼굴 영역 영상의 위치 및 크기를 기존 얼굴 영역 영상과 비교하여, 사용자와 스크린(210)간의 거리를 측정하고, 사용자가 스크린(210) 방향으로 접근하는지 또는 스크린(210) 뒤로 이동하는지 여부를 판단한다.In addition, the image analyzer 263-2 compares the position and size of the face region image of the user with the existing face region image to measure a distance between the user and the screen 210, and the user approaches the screen 210. Whether or not to move back the screen 210.

영상 제어신호 생성부(263-3)는 영상 분석부(263-2)로부터 입력되는 분석 결과를 이용하여 사용자의 의도를 판단하고, 사용자의 의도에 따라서 현재 스크린(210)에 표시되는 영상을 변경하도록 지시하는 영상 제어신호를 생성하여 제어부(265)로 출력하고, 제어부(265)는 영상 제어신호에 따라서 스크린(210) 화면을 제어한다.The image control signal generator 263-3 determines the intention of the user by using the analysis result input from the image analyzer 263-2, and changes the image currently displayed on the screen 210 according to the intention of the user. The control unit 265 generates an image control signal instructing the user to output the image control signal, and the control unit 265 controls the screen 210 screen according to the image control signal.

이하, 도 6 내지 도 8을 더 참조하여, 얼굴 인식부(263)에서 수행되는 기능을 보다 구체적으로 설명한다.Hereinafter, the function performed by the face recognition unit 263 will be described in more detail with reference to FIGS. 6 to 8.

먼저, 도 6은 사용자가 스크린(210) 화면을 줌인/줌아웃하는 과정을 설명하는 도면이다. 도 6을 참조하면, 사용자가 타석(240)에 위치하면, 제 2 카메라(290)에서 촬영한 영상이 얼굴 영역 추출부(263-1)로 입력되고, 사용자의 상반신 영상에서 얼굴 영역만 추출되어 영상 분석부(263-2)로 입력된다.First, FIG. 6 is a diagram illustrating a process of a user zooming in and out of a screen 210 screen. Referring to FIG. 6, when the user is located at the turn at bat 240, an image captured by the second camera 290 is input to the face region extractor 263-1, and only the face region is extracted from the upper torso image of the user. It is input to the image analyzer 263-2.

영상 분석부(263-2)는 얼굴 영상을 분석하여 사용자가 정면을 바라보고 있는지 또는 측면(상, 하, 좌, 우)을 바라보고 있는지 조사하여 생성한 얼굴 방향 정보(얼굴 방향, 두 눈 사이의 거리 및 중심 위치, 얼굴 중심 범위로부터의 이격 거리, 얼굴 영역에서 피부색 영역의 중심의 위치 등을 포함할 수 있음)를, 사용자의 얼굴 영역의 크기 및 얼굴 영상의 위치에 관한 정보와 함께 영상 제어신호 생성부(263-3)로 출력한다.The image analyzer 263-2 analyzes the face image and examines whether the user is looking at the front or the side (up, down, left, right) to generate face direction information (face direction, between two eyes). And distance from the center of the face, distance from the center of the face, the location of the center of the skin color area in the face area, etc., together with information about the size of the user's face area and the location of the face image. The signal generator 263-3 outputs the signal.

이 때, 영상 분석부(263-2)는 얼굴 영역 영상이 정면을 바라보고 있는지 여부에 대해서 다양한 방식으로 조사할 수 있는데, 예를 들면, 사람의 얼굴은 정면을 바라볼 때 좌우 대칭을 이루는 것이 일반적이므로, 얼굴 영역 영상을 좌우 반전시켜 원 영상과 비교하여 비교 대상 영상의 유사도가 소정의 임계값 이상인 경우에는 정면을 바라본다고 판정하고, 임계값 미만인 경우에는 좌측 또는 우측을 바라본다고 판단 할 수 있다.In this case, the image analyzer 263-2 may investigate whether the face region image is facing the front side in various ways. For example, when the face of the person faces the front side, it is symmetrical. In general, the face region image is inverted left and right, and compared with the original image, when the similarity of the comparison target image is greater than or equal to a predetermined threshold value, it is determined that the user faces the front face. .

이 밖에도, 사용자의 눈의 위치를 이용하여 사용자가 정면을 바라보는지 여부를 판단할 수 있는데, 얼굴 영역에서 검출된 두 눈의 중심위치가 얼굴 영상의 중심(사용자가 정면을 바라보는 상태에서 두 눈을 잇는 선과 얼굴의 중심 수직선이 교차하는 위치)으로부터 소정의 거리내인 중심 범위를 벗어나면 두 눈의 중심이 얼굴 영상의 중심 범위를 벗어난 방향으로 사용자가 얼굴을 돌렸다고 판단할 수 있다.In addition, it is possible to determine whether the user looks at the front using the position of the user's eyes, the center position of the two eyes detected in the face area is the center of the face image (the two eyes with the user looking at the front). The user may determine that the user has turned his or her face in a direction outside the center range of the face image when the center of the eyes is out of the center range within a predetermined distance from the line connecting the line and the center vertical line of the face.

즉, 얼굴 영상의 두 눈의 중심점이 얼굴 영상의 중심 범위를 위로 벗어나면 얼굴을 위로 들었다고 판단하고, 아래로 벗어나면 얼굴을 숙였다고 판단하며, 좌측 또는 우측으로 벗어나면 얼굴을 좌측 또는 우측으로 돌렸다고 판단한다. That is, if the center point of the two eyes of the face image is outside the center range of the face image, it is determined that the face is lifted up, if it is down, it is determined that the face is bowed down, and if it is left or right, the face is turned left or right. Judging.

또한, 얼굴 영역에서 피부색 영역의 중심이 얼굴 영역의 중심에서 벗어난 정도를 이용하여 사용자가 얼굴을 위로 들었는지, 아래로 내렸는지 또는 좌우측으로 돌렸는지 여부를 판단할 수도 있다.In addition, the degree of the center of the skin color region in the face region may be determined by using the degree of deviation from the center of the face region to determine whether the user lifts the face up, down, or to the left or right.

이 밖에 얼굴의 방향을 판단하는 다양한 방법들이 존재하고, 본 발명은 이러한 모든 방법을 적용할 수 있으므로, 구체적인 얼굴 방향 판단 방법에 대한 설명은 생략한다.In addition, there are various methods of determining the direction of the face, and the present invention may apply all of these methods, and thus a detailed description of the method of determining the face direction is omitted.

한편, 영상 분석부(263-2)에서 영상 제어신호 생성부(263-3)로 출력되는 정보는, 상술한 얼굴 방향 정보, 얼굴 영상의 절대적인 크기 정보, 현재 프레임의 얼굴 영상과 이전 프레임의 얼굴 영상의 크기를 비교한 상대적인 크기의 변화 정보, 현재 프레임의 얼굴 영상과 이전 프레임의 얼굴 영상의 위치를 비교한 상대적인 위치의 변화 정보 등을 포함할 수 있다.On the other hand, the information output from the image analyzer 263-2 to the image control signal generator 263-3 includes the above-described face direction information, absolute size information of the face image, the face image of the current frame and the face of the previous frame. It may include change information of a relative size comparing the size of the image, change information of the relative position comparing the position of the face image of the current frame and the face image of the previous frame.

영상 제어신호 생성부(263-3)는 영상 분석부(263-2)로부터 입력되는 얼굴 영상의 크기만을 이용하거나, 얼굴 영상의 크기 및 위치 정보를 종합적으로 고려하여 사용자가 스크린(210)으로 접근하고 있는지 여부 및 스크린(210)으로부터 멀어지고 있는지 여부를 판단하여, 스크린(210)에 접근하고 있는 경우에는 스크린(210)에 표시되는 화면을 확대(zoom-in)하고, 스크린(210)으로부터 멀어지고 있는 경우에는 스크린(210)에 표시되는 화면을 축소(zoom-out)하도록 지시하는 영상 제어신호를 제어부(265)로 출력한다.The image control signal generator 263-3 uses only the size of the face image input from the image analyzer 263-2, or the user approaches the screen 210 by comprehensively considering the size and position information of the face image. Determining whether or not the user is moving away from the screen 210, and when approaching the screen 210, zooms-in the screen displayed on the screen 210, and moves away from the screen 210. If the image is lost, an image control signal instructing to zoom out the screen displayed on the screen 210 is output to the controller 265.

이 때, 영상 제어신호 생성부(263-3)가 사용자와 스크린(210)간의 거리를 판단하는 방법의 일예를 도 6을 참조하여 설명하면, 사용자가 스크린(210)으로부터 멀리 떨어져 있는 경우에는, 도 6 의 (a)에 도시된 바와 같이, 얼굴 영역 영상은 그 크기가 작고, 그 위치는 촬영된 전체 사용자의 상반신 영상의 아래쪽에 위치한다.In this case, an example of a method of determining the distance between the user and the screen 210 by the image control signal generator 263-3 will be described with reference to FIG. 6. When the user is far from the screen 210, As shown in (a) of FIG. 6, the facial region image is small in size, and its position is located below the upper torso image of the entire user.

한편, 사용자가 스크린(210) 방향으로 접근하면, 도 6의 (b) 에 도시된 바와 같이, 사용자의 얼굴 영역은 더 커지고, 그 위치도 위쪽으로 올라가며, 사용자가 더 스크린(210) 방향으로 접근하면, 도 6의 (c)에 도시된 바와 같이, 사용자의 얼굴 영역은 도 6의 (b)에 도시된 것 보다 더 커지고, 그 위치도 더 위쪽에 위치한다.On the other hand, when the user approaches the screen 210, as shown in Figure 6 (b), the user's face area is larger, the position also rises upward, the user approaches the screen 210 more 6C, the face area of the user is larger than that shown in FIG. 6B, and the position thereof is located upward.

이렇게, 영상 제어신호 생성부(263-3)는 각 프레임의 얼굴 영상에서 얼굴 영역의 크기만을 비교하거나, 각 프레임의 얼굴 영상에서 얼굴 영역의 크기 및 위치를 비교하여 사용자가 스크린(210) 방향으로 근접하면, 사용자가 현재 스크린(210)에 표시되는 화면을 더 확대해서 보고자 하는 의도라고 판단하여 화면을 확대(zoom-in)하고, 사용자가 스크린(210)으로부터 멀어지면, 사용자가 현재 스크린(210)에 표시되는 화면을 더 축소해서 보고자 하는 의도라고 판단하여 화면을 축소(zoom-out)하여 표시한다.In this way, the image control signal generator 263-3 compares only the size of the face region in the face image of each frame or compares the size and position of the face region in the face image of each frame to the user in the direction of the screen 210. When approaching, the user zooms in on the screen by determining that the user intends to enlarge and view the screen displayed on the current screen 210, and when the user moves away from the screen 210, the user moves to the current screen 210. Zoom out of the screen to determine that it is intended to be further reduced.

또한, 영상 제어신호 생성부(263-3)는 영상 분석부(263-2)로부터 입력되는 일련의 얼굴 영상에 대한 정보를 이용하여 사용자가 화면을 제어하기 위해서 고개를 좌우로 돌리거나 위아래로 움직였다고 판단되면, 이에 따라서 스크린(210)에 표시되는 영상을 제어하도록 지시하는 영상 제어신호를 생성하여 제어부(265)로 출력한다.In addition, the image control signal generator 263-3 rotates the head left or right or moves up and down to control the screen by using the information on the series of face images input from the image analyzer 263-2. In response to the determination, the control unit 265 generates an image control signal instructing to control the image displayed on the screen 210 accordingly.

도 7a 내지 도 7c는 사용자가 얼굴을 좌우측으로 돌리는 경우의 영상 처리 과정을 설명하는 도면이고, 도 8 및 도 9는 사용자가 좌측 또는 우측을 바라보는지 여부를 판단하는 방법을 설명하는 도면이다.7A to 7C are diagrams illustrating an image processing process when a user turns a face left and right, and FIGS. 8 and 9 are views illustrating a method of determining whether a user looks left or right.

먼저, 도 7a 내지 도 7c를 참조하면, 영상 제어신호 생성부(263-3)는 영상 분석부(263-2)로부터 입력되는 얼굴 영상 정보를 이용하여, 도 7a에 도시된 바와 같이 사용자가 스크린(210) 정면을 바라보다가, 화면 제어를 위해서(오른쪽 영역을 더 보기 위해서) 오른쪽으로 고개를 돌렸다고 판단되면, 도 7b에 도시된 바와 같이, 현재 스크린(210)에 표시되는 전체 영상을 일정 영역만큼 왼쪽으로 이동시킴으로써 오른쪽 측면에 표시된 영상을 일정 부분만큼 중앙으로 이동시키고 기존에 보이지 않던 영역이 오른쪽 측면에 표시된다. First, referring to FIGS. 7A to 7C, the image control signal generator 263-3 may display a screen by using a face image information input from the image analyzer 263-2 as shown in FIG. 7A. If it is determined that the user looks to the front and turns his head to the right for screen control (seeing the right area), the entire image currently displayed on the screen 210 is fixed as shown in FIG. 7B. By moving the image to the left by the area, the image displayed on the right side is moved to the center by a certain portion, and the area not previously visible is displayed on the right side.

마찬가지로, 사용자가 정면을 바라보다가 화면 제어를 위해서(왼쪽 영역을 더 보기 위해서) 왼쪽으로 고개를 돌렸다고 판단되면, 도 7c에 도시된 바와 같이 현재 스크린(210)에 표시되는 전체 영상을 일정 영역만큼 오른쪽으로 이동시킴으로써 왼쪽 측면에 표시된 영상을 일정 부분만큼 중앙으로 이동시키고 기존에 보이지 않던 영역이 왼쪽 측면에 표시된다. Similarly, if it is determined that the user looks straight ahead and turns his head to the left for screen control (to see more of the left area), the entire image currently displayed on the screen 210 as shown in FIG. By moving it to the right as much as possible, the image displayed on the left side is moved to the center by a certain portion, and an area not previously visible is displayed on the left side.

도 8 및 도 9를 참조하여, 사용자가 좌측 또는 우측을 바라보는지 판단하는 방법을 설명하면, 영상 분석부(263-2)는 얼굴영역 추출부(263-1)로부터 입력되는 각 프레임 영상을 분석한 정보를 영상 제어신호 생성부(263-3)로 출력하고, 영상 제어신호 생성부(263-3)는 도 8 및 도 9에 도시된 바와 같은, 일련의 프레임의 얼굴 영상을 이용하여 영상 제어신호를 생성할지 여부를 결정한다.Referring to FIGS. 8 and 9, a method of determining whether a user looks to the left or the right is described. The image analyzer 263-2 analyzes each frame image input from the face region extractor 263-1. One piece of information is output to the image control signal generator 263-3, and the image control signal generator 263-3 controls the image using a face image of a series of frames as shown in Figs. Determine whether to generate a signal.

예컨대, 도 8 및 도 9의 좌측에 표시된 얼굴 영상부터 우측에 표시된 얼굴 영상의 순서로, 얼굴 영역이 추출되고 얼굴 영상에 대해서 분석이 수행되어 분석 정보가 입력되면, 영상 제어신호 생성부(263-3)는 각 얼굴 영상이 정면을 향하는지, 즉, 얼굴을 돌렸는지 여부를 조사한다.For example, when a face region is extracted from the face image displayed on the left side of FIG. 8 and the face image displayed on the right side, analysis is performed on the face image, and the analysis information is inputted, the image control signal generator 263- 3) examines whether each face image faces the front, that is, turned the face.

얼굴을 돌린 얼굴 영상(810, 910)이 입력되면, 방향 변경 예비 이벤트를 발생시키고, 방향 변경 예비 이벤트가 발생된 얼굴 영상의 소정수 이후의 영상(820, 920)과 방향 변경 예비 이벤트가 발생된 영상(810, 910)을 다시 비교한다.When face images 810 and 910 having turned faces are input, a direction change preliminary event is generated, and after the predetermined number of face images in which the direction change preliminary event is generated, a direction change preliminary event is generated. The images 810 and 910 are compared again.

그 후, 도 8과 같이, 얼굴 영상의 유사도가 소정의 임계값 이상이면(즉, 예비 이벤트 발생 영상과 유사한 경우) 방향 변경 예비 이벤트에 대응되는 방향 변경 이벤트를 발생시켜, 해당 방향에 대응되는 영역(좌측 또는 우측)에 표시된 영상이 일정 부분만큼 중앙 방향으로 이동되도록 영상 제어신호를 발생시킨다. Subsequently, as shown in FIG. 8, when the similarity of the face image is equal to or greater than a predetermined threshold value (ie, similar to the preliminary event occurrence image), a direction change event corresponding to the direction change preliminary event is generated, and the area corresponding to the corresponding direction is generated. An image control signal is generated so that the image displayed on the left or right side is moved by a predetermined portion in the center direction.

한편, 도 9와 같이, 얼굴 영상의 유사도가 소정의 임계값 미만이면(즉, 예비 이벤트 발생 영상과 유사하지 않은 경우) 방향 변경 예비 이벤트를 취소한다. Meanwhile, as shown in FIG. 9, when the similarity of the face image is less than a predetermined threshold value (that is, when the similarity is not similar to the preliminary event occurrence image), the direction change preliminary event is canceled.

이렇게, 사용자가 얼굴을 측면으로 돌린 영상이 검출되었을 때, 바로 방향 변경 이벤트를 발생시키는 않고 소정수 이후의 얼굴 영상과 비교하여 방향 변경 이벤트를 발생시키는 이유는, 사용자가 화면을 제어하기 위해서 얼굴을 돌리는 경우와 타석(240)에서 스윙을 하기 위해서 얼굴을 돌리는 경우를 구별하기 위한 것이다.Thus, when the user detects an image in which the user turns the face to the side, the reason for generating the direction change event in comparison with the face image after a predetermined number without generating the direction change event immediately is that the user changes the face in order to control the screen. This is to distinguish the case of turning and turning the face to swing in the plate at 240.

도 8에 도시된 예와 같이, 사용자가 화면을 제어하기 위해서 얼굴을 돌리는 경우에는, 얼굴의 돌리는 각도가 제한적이다. 즉, 얼굴이 스크린(210)의 가장자리 부분을 바라보는 각도 이상으로 얼굴을 돌리는 경우는 발생하기 어렵다. 따라서, 화면을 제어하는 경우에, 예비 방향 변경 이벤트가 발생한 영상의 소정수 이후의 영상은 예비 방향 변경 이벤트가 발생된 영상보다 측면으로 조금 더 얼굴을 돌린 영상이거나, 측면으로 얼굴을 돌린 후, 다시 중앙으로 얼굴을 돌리는 과정중의 영상이다.As shown in FIG. 8, when the user turns the face to control the screen, the turning angle of the face is limited. That is, it is difficult to occur when the face is turned over the angle of looking at the edge of the screen 210. Therefore, in the case of controlling the screen, an image after a predetermined number of images in which the preliminary direction change event has occurred is an image in which the face is turned to the side slightly more than the image in which the preliminary direction change event has occurred, or after the face is turned to the side, This image is in the process of turning your face to the center.

그러나, 도 9에 도시된 바와 같이, 사용자가 타석(240)에서 스윙을 하기 위해서 얼굴을 돌리는 경우에는, 제 2 카메라(290)에 대해서 거의 90도 만큼 얼굴을 돌리게 되고, 이 경우, 입력되는 얼굴 영상은 얼굴의 측면만이 보여지는 영상(920)이다. 따라서, 예비 방향 변경 이벤트가 발생한 영상(910)과, 소정수 이후의 영상(920)간의 유사도는 소정의 임계값 미만으로 떨어지게 되고, 영상 제어신호 생성부(263-3)는 사용자가 타석(240)에서 스윙하기 위해서 고개를 돌렸음을 인식하여 스크린(210) 화면을 이동시키지 않게된다.However, as shown in FIG. 9, when the user turns his face to swing in the turn at bat 240, the face is turned by about 90 degrees with respect to the second camera 290, in which case the face is input. The image is an image 920 in which only the side of the face is shown. Accordingly, the similarity between the image 910 in which the preliminary direction change event occurs and the image 920 after the predetermined number falls below a predetermined threshold value, and the image control signal generator 263-3 causes the user to turn at bat 240. Recognizing that he turned his head in order to swing on the screen 210 does not move the screen.

도 8 및 도 9에 도시된 예에서는, 3번째 영상에서 방향 변경 예비 이벤트가 발생하였고, 그 후, 20프레임 이후의 얼굴 영상(23번째 얼굴 영상)을 비교하여, 스크린(210) 화면을 변경할지 여부를 결정하였으나, 초당 안면 인식부(263)로 입력되는 영상의 수에 따라서 10프레임 이후의 얼굴 영상 또는 30프레임 이후의 얼굴 영상과도 비교될 수 있다.In the example shown in FIGS. 8 and 9, a direction change preliminary event has occurred in the third image, and then, the screen image of the screen 210 is changed by comparing the face image (the 23rd face image) after 20 frames. Although it is determined whether or not, the image may be compared with a face image after 10 frames or a face image after 30 frames according to the number of images input to the face recognition unit 263 per second.

도 10은 사용자가 얼굴을 위아래로 향하는 경우의 영상 처리 과정을 설명하는 도면이고, 도 11은 사용자가 고개를 위로 들었는지 또는 아래로 내렸는지 판단하는 방법의 일예를 도시하는 도면이다.FIG. 10 is a diagram illustrating an image processing process when a user faces a face up and down, and FIG. 11 is a diagram illustrating an example of a method of determining whether the user raises or lowers his head.

도 10을 참조하면, 영상 제어신호 생성부(263-3)는 영상 분석부(263-2)로부터 입력되는 분석 결과를 이용하여, 사용자가 얼굴을 들어서 스크린(210)의 상부를 바라본다고 판단되면 스크린(210)에 표시되는 화면을 아래로 이동시켜 사용자가 관심을 갖는 위의 부분 영상이 스크린(210)의 정면에 표시되도록 제어신호를 발생시키고, 사용자가 얼굴을 숙여서 스크린(210)의 하부를 바라본다고 판단되면 스크린(210)에 표시되는 화면을 위로 이동시켜 사용자가 관심을 갖는 아래 부분 영상이 스크린(210)의 정면에 표시되도록 제어신호를 발생시킨다.Referring to FIG. 10, when the image control signal generator 263-3 uses the analysis result input from the image analyzer 263-2 to determine that the user looks up at the top of the screen 210 by lifting his face. By moving the screen displayed on the screen 210 down to generate a control signal so that the above partial image of interest to the user in front of the screen 210, the user bows the face to lower the screen 210 When it is determined that the user is looking at the screen, the screen displayed on the screen 210 is moved upward to generate a control signal such that the lower part image of interest to the user is displayed in front of the screen 210.

도 11을 참조하여, 사용자의 얼굴을 상하 방향으로 움직인 것을 판단하는 방법의 일예를 설명하면, 영상 분석부(263-2)는 얼굴 영역 추출부(263-1)로부터 얼굴 영역(1100)을 입력받고, 그 내부에서 피부색에 대응되는 영역을 계산하여 피부색 영역의 중심(1110)을 계산한다.Referring to FIG. 11, an example of a method of determining whether the user's face is moved in the vertical direction will be described. The image analyzer 263-2 may detect the face region 1100 from the face region extractor 263-1. The center 1110 of the skin color region is calculated by receiving an input and calculating a region corresponding to the skin color therein.

사용자가 정면을 바라보는 경우에는, 도 11의 (b)와 같이, 얼굴 영역을 나타내는 사각형 영역의 4군데 모서리 부분에 배경 영상이 골고루 분포하여, 피부색 영역의 중심이 얼굴 영역 중심의 오차 범위내에 위치한다. When the user looks at the front side, as shown in FIG. 11 (b), the background image is evenly distributed in four corner portions of the rectangular area representing the face area, and the center of the skin color area is located within the error range of the center of the face area. do.

그러나, 사용자가 얼굴을 들어 위를 쳐다보는 경우에는 도 11의 (a)에 도시되는 바와 같이, 사용자의 이마 근처의 모서리 부분에 배경영상이 증가하는 반면 사용자의 턱 근처의 모서리 부분에는 배경영상이 감소하여 피부색 영역의 중심이 얼굴 영역의 중심이 사용자가 정면을 바라보는 경우보다 아래에 위치하게 된다. 즉, 피부색 영역의 중심이 얼굴 영역의 중심보다 아래에 위치하게 된다.However, when the user looks up and faces the face, as shown in (a) of FIG. 11, the background image is increased at the corner near the user's forehead, while the background image is at the corner near the user's chin. As a result, the center of the skin color region is positioned below the center of the facial region than when the user looks straight ahead. That is, the center of the skin color region is located below the center of the facial region.

또한, 사용자가 고개를 숙여서 아래를 쳐다보는 경우에는 도 11의 (c)에 도시되는 바와 같이, 사용자의 턱 근처의 모서리 부분에 배경영상이 증가하는 반면 사용자의 이마 근처의 모서리 부분에는 배경영상이 감소하여 피부색 영역의 중심이 얼굴 영역의 중심이 사용자가 정면을 바라보는 경우보다 위에 위치하게 된다. 즉, 피부색 영역의 중심이 얼굴 영역의 중심보다 위에 위치하게 된다.In addition, when the user looks down with his head down, as shown in FIG. 11 (c), the background image is increased in the corner portion near the user's chin while the background image is in the corner portion near the user's forehead. As a result, the center of the skin color region is positioned above the center of the facial region than when the user faces the front. That is, the center of the skin color region is located above the center of the facial region.

따라서, 이러한 과정을 통해서 사용자가 얼굴을 들어 위쪽을 바라보는지 또는 고개를 숙여서 아래쪽을 바라보는지 판단할 수 있다.Therefore, through this process, it is possible to determine whether the user is looking upward by lifting his face or looking downward by bowing his head.

한편, 제어부(265)는 종래의 일반적인 스크린 골프 시스템과 마찬가지로, 타구 분석부(261)로부터 입력되는 타구 분석 정보를 이용하여 골프공의 이동 거리, 이동 방향, 및 이동 궤적을 계산하여 영상 처리부(267)로 출력하여 스크린(210)에 표시하고, 안면 인식부(263)로부터 입력되는 영상 제어신호에 따라서 현재 스크린(210)에 표시되는 영상을 좌우 방향 또는 상하 방향으로 이동시키거나, 줌인/줌아웃하도록 영상 처리부(267)로 제어신호를 출력한다.Meanwhile, the controller 265 calculates a moving distance, a moving direction, and a moving trajectory of the golf ball by using the batting analysis information input from the batting analyzer 261, as in a conventional screen golf system. ) To display on the screen 210 and to move the image currently displayed on the screen 210 in the left-right direction or the vertical direction, or to zoom in / out according to the image control signal input from the face recognition unit 263. The control signal is output to the image processor 267.

그래픽 DB(269)는 사용자가 선택한 골프장을 묘사한 골프장 영상을 저장하고, 영상 처리부(267)는 제어부(265)의 제어신호에 따라서 그래픽 DB(269)로부터 그래픽 데이터를 판독하여 프로젝터(220)로 출력한다. The graphic DB 269 stores a golf course image depicting a golf course selected by the user, and the image processor 267 reads graphic data from the graphic DB 269 according to a control signal of the controller 265 to the projector 220. Output

특히, 영상 처리부(267)는 제어부(265)가 안면 인식부(263)로부터 수신한 영상 제어신호에 따라서 스크린(210)에 표시되는 영상을 상하, 좌우로 이동시키도록 지시하는 제어신호 및 줌인/줌아웃하도록 지시하는 제어신호에 따라서 스크린(210)에 표시되는 영상을 변경한다.In particular, the image processing unit 267 may control and zoom in / instruct the control unit 265 to move the image displayed on the screen 210 up, down, left and right according to the image control signal received from the face recognition unit 263. The image displayed on the screen 210 is changed according to a control signal instructing to zoom out.

지금까지 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템에 대해서 설명하였다. 이하에서는, 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 제어 방법을 설명하는 흐름도인 도 5를 참조하여, 상술한 스크린 골프 시스템의 제어 방법에 대해서 설명한다. 다만, 본 발명의 바람직한 실시예에 따른 스크린 골프 시스템의 제어 방법의 각 기능은, 본 발명의 스크린 골프 시스템의 기능을 설명하면서 상세하게 설명한 내용과 중복되므로, 이하에서는, 전체적인 흐름을 중심으로 간략하게 설명한다.So far, the screen golf system according to the preferred embodiment of the present invention has been described. Hereinafter, the control method of the screen golf system described above will be described with reference to FIG. 5, which is a flowchart illustrating a method of controlling the screen golf system according to an exemplary embodiment of the present invention. However, since each function of the method for controlling the screen golf system according to the preferred embodiment of the present invention overlaps with the detailed description while explaining the function of the screen golf system of the present invention, the following briefly focuses on the overall flow. Explain.

도 5를 참조하면, 먼저, 본 발명의 스크린 골프 시스템이 가동되면, 사용자가 선택한 골프장 영상이 스크린(210)에 표시되면서, 사용자 감지부(280)가 동작하고, 사용자 감지부(280)가 사용자가 화면 제어 영역에 위치하였음을 감지하면, 제 S502 단계 내지 제 S560 단계가 사용자가 화면 제어 영역에 위치하는 동안 수행된다(S501). Referring to FIG. 5, first, when the screen golf system of the present invention is operated, the golf course image selected by the user is displayed on the screen 210, the user detector 280 is operated, and the user detector 280 is operated by the user. When S is detected in the screen control area, steps S502 to S560 are performed while the user is located in the screen control area (S501).

사용자가 화면 제어 영역에 위치하면, 제 2 카메라(290)는 일정한 시간 간격으로, 사용자가 타석(240) 중에서 얼굴로 화면을 제어할 수 있는 영역(화면 제어 영역)에 선 모습을 촬영하여 안면 인식부(263)로 출력하고(S502), 안면 인식부(263)는 촬영된 영상에서 사용자의 얼굴 영역 및 눈을 검출하고, 피부색 영역을 추출한다(S504). 제 S502 단계 및 제 S504 단계는 사용자가 타석(240) 앞부분인 화면 제어 영역에 위치하는 동안에 지속적으로 반복 수행된다.When the user is located in the screen control area, the second camera 290 photographs a face on the area (screen control area) in which the user can control the screen with the face at a predetermined time interval and recognizes the face. Output to the unit 263 (S502), the face recognition unit 263 detects the user's face area and eyes from the captured image, and extracts the skin color area (S504). Steps S502 and S504 are continuously repeated while the user is positioned in the screen control area that is in front of the turn at bat 240.

안면 인식부(263)는 제 S504 단계에서 추출된 얼굴 영상을 분석하여 얼굴 방향이 정면을 향하는가 조사하고(S510), 얼굴이 정면을 향하는 경우에는 프레임간의 얼굴 크기의 변화를 조사하여(S522), 얼굴 크기가 변화되는 경우에는 얼굴 크기 변화에 대응하여 스크린(210)에 표시되는 영상을 줌인 또는 줌아웃 시킨다(S524). The face recognizing unit 263 analyzes the face image extracted in step S504 to check whether the face direction faces the front (S510), and if the face faces the front, examines the change in the size of the face between the frames (S522). When the face size is changed, the image displayed on the screen 210 is zoomed in or zoomed out in response to the face size change (S524).

상술한 제 S522 단계에서는, 얼굴 크기의 변화만으로 줌인/줌아웃 여부를 결정하였으나, 도 6에 도시된 바와 같이, 얼굴 크기 및 얼굴 영역의 위치를 종합적으로 고려하여 판단할 수 도 있음은 물론이다.In the above-described step S522, it is determined whether to zoom in / out by only changing the size of the face, but as shown in FIG. 6, the face size and the position of the face area may be comprehensively determined.

한편, 제 S522 단계에서 얼굴 크기의 변화가 없으면, 사용자가 얼굴을 상하로 이동하였는지, 즉, 고개를 들었는지 또는 고개를 숙였는지 여부를 조사하여, 얼굴을 상하로 이동하지 않고 정면만을 주시하는 경우에는 제 S510 단계로 진행한다(S526). On the other hand, if there is no change in the size of the face in step S522, if the user has moved the face up and down, that is, whether the head is raised or bowed down to look at the front without moving the face up and down The process proceeds to step S510 (S526).

제 S510 단계에서 사용자가 얼굴을 상하로 움직였는지 여부를 판단하는 방식은 상술한 바와 같이, 다양하게 적용가능하다. 다만, 본 발명의 바람직한 실시예에서는, 도 11을 참조하여 설명한 바와 같이, 얼굴 영역의 중심과 피부색 영역의 중심을 비교하여 피부색 영역의 중심이 이동되었는지 여부를 조사하여, 사용자가 고개를 들거나 숙였는지 여부를 판단하였다.As described above, the method of determining whether the user moves the face up and down in operation S510 may be variously applied. However, in the preferred embodiment of the present invention, as described with reference to FIG. 11, by comparing the center of the face area and the center of the skin color area to investigate whether the center of the skin color area is moved, whether the user raises or bows his head. Judgment was made.

제 S526 단계에서, 사용자가 얼굴을 상하로 움직였다고 판단되는 경우에는, 얼굴 방향에 따라서 스크린에 표시되는 영상을 변경한다(S528).If it is determined in step S526 that the user has moved the face up and down, the image displayed on the screen is changed according to the direction of the face (S528).

한편, 제 S510 단계에서 얼굴 방향이 정면이 아닌 경우(얼굴을 좌우측면으로 돌린 경우)에는, 도 9에 도시된 바와 같이, 방향 변경 예비 이벤트를 발생시키고(S532), 소정수 이후의 프레임 영상과 비교한다(S534).On the other hand, when the face direction is not the front in the step S510 (when the face is turned to the left and right side), as shown in Fig. 9, a direction change preliminary event is generated (S532), and the frame image after the predetermined number Comparison is made (S534).

안면 인식부(263)는 비교 결과 유사도가 상술한 제 2 임계값 이상인지 여부를 조사하고(S540), 유사도가 상술한 임계값 미만인 경우에는 사용자가 골프공 타격을 위해서 얼굴을 완전히 돌린 경우에 해당되므로, 방향 변경을 위한 예비 이벤트를 취소하고(S550), 사용자가 타격을 마치고, 스크린(210)에 표시된 영상을 제어하기 위해서 타석(240)에서 정면을 바라볼때가지 대기한다(S552).The face recognition unit 263 determines whether the similarity is greater than or equal to the second threshold as a result of the comparison (S540), and when the similarity is less than the threshold, the user completely turns his face to hit the golf ball. Therefore, the preliminary event for changing the direction is canceled (S550), and the user waits until the user views the front face at the turn at bat 240 to control the image displayed on the screen 210 (S552).

한편, 제 S540 단계에서, 유사도가 임계값 이상인 경우에는, 사용자가 스크린(210) 영상을 제어하기 위해서 얼굴 방향을 이동시킨 것으로 판단하여, 방향 변경 예비 이벤트 발생 프레임의 얼굴 방향에 따라서 스크린(210)에 표시되는 영상을 좌, 우 방향으로 일정 부분만큼씩 이동시켜서 표시함으로써, 사용자가 얼굴을 움직임으로써 스크린(210)에 표시되는 영상을 자유롭게 제어할 수 있도록 한다(S560).
Meanwhile, in operation S540, when the similarity is greater than or equal to the threshold, it is determined that the user moves the face direction to control the image of the screen 210, and the screen 210 is determined according to the face direction of the direction change preliminary event generation frame. By moving the image displayed in the left, right direction by a predetermined portion by the display, the user can freely control the image displayed on the screen 210 by moving the face (S560).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

210 스크린
220 프로젝터
230 제 1 카메라
240 스윙 플레이트(타석)
250 센서 모듈
260 제어 장치
261 타구 분석부 263 안면 인식부
263-1 얼굴영역 추출부 263-2 영상 분석부
263-3 영상 제어신호 생성부
265 제어부 267 영상 처리부
269 그래픽 DB
270 입력 수단
290 제 2 카메라
291 수용홈 292 투명판
210 screen
220 projector
230 first camera
240 swing plate
250 sensor module
260 control unit
261 Batting analysis unit 263 Facial recognition unit
263-1 face region extractor 263-2 image analyzer
263-3 Video Control Signal Generator
265 Control Unit 267 Image Processing Unit
269 graphic DB
270 input means
290 second camera
291 Receiving Groove 292 Transparent Plate

Claims (16)

전면에 설치된 스크린;
상기 스크린에 골프장 영상을 출력하는 프로젝터;
사용자가 타격한 골프공의 속도 및 방향을 측정하는 센서 모듈;
사용자의 상반신 영상을 촬영하는 카메라; 및
상기 센서 모듈로부터 입력된 측정 결과를 이용하여 골프공의 이동 거리 및 이동 방향을 분석하는 타구 분석부,
상기 카메라에서 촬영한 상반신 영상에서 얼굴 영역을 추출하고, 추출된 얼굴 영역을 분석하여 사용자의 얼굴 방향을 판별하고, 얼굴 방향에 대응되도록 상기 스크린에 출력되는 영상을 변경시킬 것을 지시하는 영상 제어신호를 생성하는 안면 인식부,
그래픽 DB에 저장된 그래픽 데이터를 판독하여 상기 프로젝터로 골프장 영상을 출력하고, 제어부로부터 입력되는 골프공 이동 영상 데이터를 상기 골프장 영상과 합성하여 표시하며, 상기 제어부로부터 입력되는 제어신호에 따라서 스크린에 표시되는 영상을 변경하는 영상 처리부, 및
상기 타구 분석부로부터 입력되는 분석 결과에 따라서 상기 골프공 이동 영상 데이터를 생성하여 상기 영상 처리부로 출력하고, 상기 안면 인식부로부터 입력되는 영상 제어신호에 따라서 상기 영상처리부를 제어하여 스크린에 표시되는 영상을 변경하는 제어부를 포함하는 제어 장치를 포함하는 것을 특징으로 하는 스크린 골프 시스템.
A front mounted screen;
A projector for outputting a golf course image on the screen;
Sensor module for measuring the speed and direction of the golf ball hit by the user;
A camera for photographing an upper body image of the user; And
A batting analyzer for analyzing the moving distance and the moving direction of the golf ball using the measurement result input from the sensor module,
Extracts a face region from the torso image captured by the camera, analyzes the extracted face region to determine a user's face direction, and outputs an image control signal instructing to change the image output on the screen to correspond to the face direction Facial recognition unit to generate,
Read the graphic data stored in the graphic DB to output the golf course image to the projector, display the golf ball moving image data input from the control unit with the golf course image, and displayed on the screen according to the control signal input from the control unit An image processor for changing an image, and
The golf ball moving image data is generated and output to the image processing unit according to the analysis result input from the batting analysis unit, and the image is displayed on the screen by controlling the image processing unit according to the image control signal input from the face recognition unit. Screen golf system comprising a control device including a control unit for changing the.
제 1 항에 있어서, 상기 안면 인식부는
사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 눈의 위치를 이용하여 사용자 얼굴의 방향을 판단하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
Screen golf system, characterized in that for detecting the position of both eyes in the user's face area, the direction of the user's face using the position of the eye.
제 1 항에 있어서, 상기 안면 인식부는
사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 두 눈의 중심점이 얼굴 영상의 중심 범위를 벗어나면, 상기 눈의 중심점이 얼굴 영상의 중심 범위를 벗어난 방향으로 사용자 얼굴의 방향을 판단하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
The position of the two eyes is detected in the user's face area, and when the center point of the two eyes is out of the center range of the face image, the direction of the user's face is determined in a direction out of the center range of the face image. Screen golf system.
제 1 항에 있어서, 상기 안면 인식부는
사용자의 얼굴 영역의 중심과, 사용자의 얼굴 영역의 피부색 영역의 중심을 비교하여 사용자가 얼굴의 위로 향하는지 또는 아래로 향하는지 여부를 판단하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
And comparing the center of the user's face area with the center of the skin color area of the user's face area to determine whether the user is facing up or down.
제 1 항에 있어서,
상기 안면 인식부는, 상기 스크린에 표시되는 영상 중 사용자의 얼굴 방향에 대응되는 영역이 스크린 중심 방향으로 이동하도록 제어하는 상기 영상 제어신호를 발생시켜 상기 제어부로 출력하고,
상기 제어부는 상기 영상 제어신호에 따라서 상기 영상 처리부를 제어하여 상기 스크린에 표시되는 영상을 이동시키는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1,
The face recognizing unit generates and outputs the image control signal for controlling the region corresponding to the direction of the user's face in the image displayed on the screen to move to the screen center direction, and outputs it to the controller.
And the controller controls the image processor to move the image displayed on the screen according to the image control signal.
제 1 항에 있어서, 상기 안면 인식부는
상기 카메라로부터 입력되는 각각의 영상 프레임에 대해서 사용자의 얼굴 방향을 조사하고, 사용자의 얼굴 방향이 측면을 향하는 경우에, 사용자의 얼굴 방향에 대응되는 방향 변경 예비 이벤트를 발생시키고, 방향 변경 예비 이벤트가 발생된 영상 프레임의 얼굴 영역과, 소정수 이후의 영상 프레임의 얼굴 영역을 비교하여 유사도가 사전에 정의된 임계값 이상인 경우에 예비 방향 변경 이벤트에 대응되도록 영상 제어신호 발생시켜 상기 제어부로 출력하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
The direction of the face of the user is examined for each image frame input from the camera, and when the direction of the face of the user faces the side, a direction change preliminary event corresponding to the direction of the user's face is generated, and the direction change preliminary event is generated. Comparing the face region of the generated image frame with the face region of the image frame after a predetermined number and generating an image control signal and outputting the image control signal to the controller when the similarity is equal to or greater than a predetermined threshold Screen golf system.
제 1 항에 있어서, 상기 안면 인식부는
상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 얼굴 영역의 크기 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)를 지시하는 영상 제어신호를 상기 제어부로 출력하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
Image control for instructing enlargement (zoom in) or reduction (zoom out) of an image displayed on the screen according to a change in the size of the face area by comparing the size of the face area between each image frame while the face area faces the front. Screen golf system, characterized in that for outputting a signal to the control unit.
제 1 항에 있어서, 상기 안면 인식부는
상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기 변화와 상기 상반신 영상에서 상기 얼굴 영역의 위치 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)를 지시하는 영상 제어신호를 상기 제어부로 출력하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the face recognition unit
In the state in which the face area faces the front, an enlargement (zoom in) or reduction (zoom out) of an image displayed on the screen is indicated according to a change in the size of the face area between each image frame and a change in the position of the face area in the upper body image. A screen golf system, characterized in that for outputting an image control signal to the control unit.
제 1 항에 있어서, 상기 카메라는
사용자가 골프공을 타격하는 타석과 상기 스크린 사이의 위치에, 지면으로부터 내부로 형성된 수용홈에 수용되어 타석에 위치한 사용자의 상반신을 촬영하는 것을 특징으로 하는 스크린 골프 시스템.
The method of claim 1, wherein the camera
Screen golf system, characterized in that the user shoots the upper body of the user located in the plate is accommodated in the receiving groove formed in the interior from the ground at the position between the batter hit the golf ball and the screen.
(a) 스크린 골프 시스템이 스크린에 골프장 영상을 표시하는 단계;
(b) 스크린 골프 시스템이, 타석에 위치한 사용자의 상반신 영상을 촬영하고, 상기 상반신 영상으로부터 얼굴 영역을 추출하는 단계;
(c) 상기 스크린 골프 시스템이, 상기 얼굴 영역을 분석하여 얼굴 방향을 판별하는 단계; 및
(d) 상기 스크린 골프 시스템이, 상기 얼굴 방향에 대응되는 영역의 영상을 상기 스크린의 중심으로 이동시켜 표시하는 단계를 포함하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
(a) the screen golf system displaying a golf course image on the screen;
(b) the screen golf system photographing a torso image of a user located at the turn at bat and extracting a face region from the torso image;
(c) the screen golf system analyzing the face area to determine a face direction; And
and (d) the screen golf system moving and displaying an image of an area corresponding to the face direction toward the center of the screen.
제 10 항에 있어서, 상기 (c) 단계는
사용자 얼굴 영상에서 두 눈의 위치를 검출하고, 눈의 위치를 이용하여 사용자 얼굴의 방향을 판단하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
The method of claim 10, wherein step (c)
A method of controlling a screen golf system, characterized in that the position of two eyes is detected from a user's face image and the direction of the user's face is determined using the position of the eyes.
제 10 항에 있어서, 상기 (c) 단계는
사용자의 얼굴 영역에서 두 눈의 위치를 검출하고, 두 눈의 중심점이 얼굴 영상의 중심 범위를 벗어나면, 상기 눈의 중심점이 얼굴 영상의 중심 범위를 벗어난 방향으로 사용자 얼굴의 방향을 판단하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
The method of claim 10, wherein step (c)
The position of the two eyes is detected in the user's face area, and when the center point of the two eyes is out of the center range of the face image, the direction of the user's face is determined in a direction out of the center range of the face image. The control method of the screen golf system.
제 10 항에 있어서, 상기 (c) 단계는
사용자의 얼굴 영역의 중심과, 사용자의 얼굴 영역의 피부색 영역의 중심을 비교하여 사용자가 얼굴의 위로 향하는지 또는 아래로 향하는지 여부를 판단하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
The method of claim 10, wherein step (c)
And comparing the center of the user's face area with the center of the skin color area of the user's face area to determine whether the user faces the face up or down.
제 10 항에 있어서, 상기 (c) 단계는
상기 카메라로부터 입력되는 각각의 영상 프레임에 대해서 사용자의 얼굴 방향을 조사하고, 사용자의 얼굴 방향이 측면을 향하는 경우에, 사용자의 얼굴 방향에 대응되는 방향 변경 예비 이벤트를 발생시키고, 방향 변경 예비 이벤트가 발생된 영상 프레임의 얼굴 영역과, 소정수 이후의 영상 프레임의 얼굴 영역을 비교하여 유사도가 사전에 정의된 임계값 이상인 경우에 예비 방향 변경 이벤트에 대응되는 방향을 사용자가 스크린 영상을 제어하기 위해 움직인 얼굴 방향으로 판단하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
The method of claim 10, wherein step (c)
The direction of the face of the user is examined for each image frame input from the camera, and when the direction of the face of the user faces the side, a direction change preliminary event corresponding to the direction of the user's face is generated, and the direction change preliminary event is generated. The user moves the direction corresponding to the preliminary direction change event when the similarity is more than a predetermined threshold by comparing the face area of the generated image frame with the face area of the image frame after a predetermined number. The control method of the screen golf system, characterized in that judging in the direction of the face.
제 10 항에 있어서,
상기 (c) 단계에서 판별된 얼굴 영상의 방향이 정면을 향하는 경우에,
상기 (d) 단계는
상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 얼굴 영역의 크기 변화에 따라서 상기 스크린에 표시되는 영상을 확대(줌인) 또는 축소(줌아웃)하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
11. The method of claim 10,
When the direction of the face image determined in the step (c) is directed to the front,
The step (d)
In the state where the face area faces the front side, the size of the face area between the image frames is compared, and the image displayed on the screen is enlarged (zoom in) or reduced (zoom out) according to the change of the size of the face area. Control method of screen golf system.
제 10 항에 있어서,
상기 (c) 단계에서 판별된 얼굴 영상의 방향이 정면을 향하는 경우에,
상기 (d) 단계는
상기 얼굴 영역이 정면을 향하는 상태에서, 각 영상 프레임간의 얼굴 영역의 크기를 비교하여, 상기 얼굴 영역의 크기 변화와 상기 상반신 영상에서의 상기 얼굴 영역의 위치 변화에 따라서 상기 스크린에 표시되는 영상의 확대(줌인) 또는 축소(줌아웃)하는 것을 특징으로 하는 스크린 골프 시스템의 제어 방법.
11. The method of claim 10,
When the direction of the face image determined in the step (c) is directed to the front,
The step (d)
In the state in which the face area faces the front side, the size of the face area between the image frames is compared to enlarge an image displayed on the screen according to the change of the size of the face area and the change of the position of the face area in the upper body image. (Zoom in) or down (zoom out).
KR1020100059947A 2010-06-24 2010-06-24 Screen-golf system using face recognition and control method of the same KR101147873B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100059947A KR101147873B1 (en) 2010-06-24 2010-06-24 Screen-golf system using face recognition and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100059947A KR101147873B1 (en) 2010-06-24 2010-06-24 Screen-golf system using face recognition and control method of the same

Publications (2)

Publication Number Publication Date
KR20110139869A KR20110139869A (en) 2011-12-30
KR101147873B1 true KR101147873B1 (en) 2012-05-24

Family

ID=45505182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100059947A KR101147873B1 (en) 2010-06-24 2010-06-24 Screen-golf system using face recognition and control method of the same

Country Status (1)

Country Link
KR (1) KR101147873B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101975906B1 (en) * 2012-01-09 2019-05-08 삼성전자주식회사 Apparatus and method for scaling layout of application program in visual display unit
KR101316805B1 (en) 2013-05-22 2013-10-11 주식회사 파이브지티 Automatic face tracing and recognition method and system
KR20170025234A (en) * 2015-08-28 2017-03-08 공경배 golf ball cognition device using camera
KR102045439B1 (en) * 2017-09-15 2019-11-15 주식회사 뉴딘콘텐츠 Virtual tennis simulation system, sensing device and method for sensing process using the same
KR102016308B1 (en) * 2017-11-17 2019-08-30 포인드 주식회사 Eye Tracking Method Using Movement of Pupil and Gap between Eyes and Edge of Face

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123840A (en) 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> Processing method and processor for providing presence type virtual reality
KR20080010502A (en) * 2006-07-27 2008-01-31 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR20110019837A (en) * 2009-08-21 2011-03-02 이재복 Adapted screen golf system to a golfer's visual point and displaying methode therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123840A (en) 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> Processing method and processor for providing presence type virtual reality
KR20080010502A (en) * 2006-07-27 2008-01-31 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR20110019837A (en) * 2009-08-21 2011-03-02 이재복 Adapted screen golf system to a golfer's visual point and displaying methode therefor

Also Published As

Publication number Publication date
KR20110139869A (en) 2011-12-30

Similar Documents

Publication Publication Date Title
US9400935B2 (en) Detecting apparatus of human component and method thereof
JP5203281B2 (en) Person detection device, person detection method, and person detection program
US20110164032A1 (en) Three-Dimensional User Interface
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
KR101441333B1 (en) Detecting Apparatus of Human Component AND Method of the same
JP2020194608A (en) Living body detection device, living body detection method, and living body detection program
US20130100140A1 (en) Human body and facial animation systems with 3d camera and method thereof
KR101147873B1 (en) Screen-golf system using face recognition and control method of the same
JP5001930B2 (en) Motion recognition apparatus and method
JP2004164563A (en) Image analysis method, image analysis apparatus, image analysis program
CN109375765B (en) Eyeball tracking interaction method and device
WO2013002653A1 (en) Method of analysing a video of sports motion
CN106843821A (en) The method and apparatus of adjust automatically screen
US20110122154A1 (en) Image capturing apparatus, image processing apparatus, control method thereof and program
KR101583406B1 (en) Display control apparatus, display control method and a recording medium thereof
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
KR101642402B1 (en) Apparatus and method for capturing digital image for guiding photo composition
CN111488775B (en) Device and method for judging degree of visibility
WO2020020022A1 (en) Method for visual recognition and system thereof
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
CN112446333B (en) Ball target tracking method and system based on re-detection
CN102867172B (en) A kind of human-eye positioning method, system and electronic equipment
JP4464902B2 (en) Camera control apparatus and camera control program
KR101961266B1 (en) Gaze Tracking Apparatus and Method
JP2002366958A (en) Method and device for recognizing image

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151116

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160614

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170614

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee