KR101879368B1 - 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 - Google Patents
구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 Download PDFInfo
- Publication number
- KR101879368B1 KR101879368B1 KR1020160107019A KR20160107019A KR101879368B1 KR 101879368 B1 KR101879368 B1 KR 101879368B1 KR 1020160107019 A KR1020160107019 A KR 1020160107019A KR 20160107019 A KR20160107019 A KR 20160107019A KR 101879368 B1 KR101879368 B1 KR 101879368B1
- Authority
- KR
- South Korea
- Prior art keywords
- line
- image
- ball
- target object
- control unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B63/00—Targets or goals for ball games
- A63B63/003—Targets or goals for ball games non-electronic means for locating the point of impact on a target or the point of entry in the goal
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B63/00—Targets or goals for ball games
- A63B63/007—Target zones without opening defined on a substantially horizontal surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법에 관한 것으로, 본 발명의 일 양상에 따른 라인 인/아웃 판단 방법은 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트의 낙구 시점을 판단하는 단계; 및 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 단계;를 포함할 수 있다.
Description
본 발명은 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법에 관한 것으로, 보다 상세하게는 이벤트 상황에 대한 이벤트 영상을 제공하는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법에 관한 것이다.
스포츠는 다양한 육체적, 정신적 활동을 의미하는 것으로 여가 등을 사람들의 일상에서 큰 여가 활동으로 자리 잡고 있다.
스포츠는 다양한 형태가 있는데 이중 공을 이용한 구기 종목은 가장 대중적인 스포츠라고 할 수 있다. 이러한 구기 종목은 직접 즐기는 사람도 많지만 대부분의 사람들은 경기장에서 관람하거나 중계를 통하여 시청하고 있다.
대부분의 스포츠에서도 심판이 존재하나, 특히나 구기 종목은 그 룰(rule)이 다양하고, 특히나 공과 사람, 특정 구역 및 라인 등과의 관계에 대한 다양한 룰이 존재한다.
이러한 룰을 이용한 판정은 심판에 의해 결정되는데, 대부분의 구기 종목에서 공의 속도는 매우 빠르기 때문에 순간적인 실수나, 신체 능력의 제한으로 인하여 잘못된 판정을 하기도 한다.
이를 위해 최근에는 배구, 야구 등에서 심판 합의 판정을 통하여 잘못된 판정을 바로 잡을 수 있는 기회를 제공하고 있는데 이러한 심판 합의 판정에는 경기를 촬영한 영상이 사용된다.
이러한 판정을 위한 영상은 종래 TV, 인터넷으로 중계하는 중계 화면에서 해당 상황에 대한 장면을 사람이 직접 편집하여 심판이 제공하는 불편함이 있었다.
본 발명의 일 과제는 카메라로부터 획득한 이미지를 이용하여 공의 낙구 시점을 판단하고, 판단된 낙구 시점으로부터 이벤트 영상을 획득하는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법을 제공하는 것이다.
본 발명의 다른 과제는 촬영된 이미지에서의 라인과 공의 위치관계 및/또는 이미지로부터 산출된 공의 실제 좌표를 이용하여 인/아웃 여부를 판단할 수 있는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트의 낙구 시점을 판단하는 단계; 및 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 단계;를 포함하는 라인 인/아웃 판단 방법이 제공될 수 있다.
본 발명의 다른 양상에 따르면, 상술한 방법을 수행하기 위한 프로그램이 기록된 기록 매체가 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 전자기기로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 통신부; 및 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하고, 상기 대상 오브젝트가 감지된 이미지에 기초하여 상기 대상 오브젝트의 낙구 시점을 판단하고, 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 제어부;를 포함하는 라인 인/아웃 판정 전자기기가 제공될 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 의하면, 카메라로부터 획득한 이미지를 이용하여 공의 낙구 시점을 판단하고, 판단된 낙구 시점으로부터 이벤트 영상을 획득할 수 있다.
또 본 발명에 의하면, 촬영된 이미지에서의 라인과 공의 위치관계 및/또는 이미지로부터 산출된 공의 실제 좌표를 이용하여 인/아웃 여부를 판단할 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 스포츠 영상 제공 시스템의 환경도이다.
도 2는 본 발명의 일 실시예에 따른 운영 전자기기의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 카메라 배치를 나타내는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 메인 카메라 및 서브 카메라(1000b)의 상하 위치 관계를 나타내는 예시도이다.
도 5는 본 발 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 대상 오브젝트 촬영을 이용한 실 좌표 설정을 나타내는 예시도이다.
도 7은 본 발명의 일 실시예에 따른 앤드 라인 측에 위치한 카메라로부터 획득한 정면 이미지의 예시도이다.
도 8은 본 발명의 일 실시예에 따른 사이드 라인 측에 위치한 카메라로부터 획득한 측면 이미지의 예시도이다.
도 9는 본 발명의 일 실시예에 따른 측면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 10은 본 발명의 일 실시예에 따른 정면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 11은 본 발명의 일 실시예에 따른 이벤트 영상 획득을 나타내는 예시도이다.
도 12는 본 발명의 일 실시예에 따른 인/아웃 판단 방법의 순서도이다.
도 13은 본 발명의 일 실시예에 따른 인/아웃 판단을 나타내는 예시도이다.
도 2는 본 발명의 일 실시예에 따른 운영 전자기기의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 카메라 배치를 나타내는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 메인 카메라 및 서브 카메라(1000b)의 상하 위치 관계를 나타내는 예시도이다.
도 5는 본 발 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 대상 오브젝트 촬영을 이용한 실 좌표 설정을 나타내는 예시도이다.
도 7은 본 발명의 일 실시예에 따른 앤드 라인 측에 위치한 카메라로부터 획득한 정면 이미지의 예시도이다.
도 8은 본 발명의 일 실시예에 따른 사이드 라인 측에 위치한 카메라로부터 획득한 측면 이미지의 예시도이다.
도 9는 본 발명의 일 실시예에 따른 측면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 10은 본 발명의 일 실시예에 따른 정면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 11은 본 발명의 일 실시예에 따른 이벤트 영상 획득을 나타내는 예시도이다.
도 12는 본 발명의 일 실시예에 따른 인/아웃 판단 방법의 순서도이다.
도 13은 본 발명의 일 실시예에 따른 인/아웃 판단을 나타내는 예시도이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해 질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어 진 것이며, 또한, 구성 요소(element) 또는 층이 다른 구성 요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성 요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성 요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조 번호들은 원칙적으로 동일한 구성 요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조 부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성 요소를 다른 구성 요소와 구분하기 위한 식별 기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 일 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트의 낙구 시점을 판단하는 단계; 및 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 단계;를 포함하는 라인 인/아웃 판단 방법이 제공될 수 있다.
또 상기 인/아웃 여부를 판단하는 단계는 미리 설정된 라인 레퍼런스와 상기 낙구 위치와의 관계에 기초하여 상기 인/아웃 여부를 판단할 수 있다.
또 상기 라인 레퍼런스는 상기 라인의 위치한 영역 및 상기 라인을 기점으로 인으로 판단하는 인영역과 상기 라인을 기점으로 아웃으로 판단하는 아웃영역에 대한 정보를 포함할 수 있다.
또 상기 인/아웃 여부를 판단하는 단계는 낙구 위치가 상기 인영역 및/또는 상기 라인 영역 상에 위치한 경우 인으로 판단할 수 있다.
또 상기 인/아웃 여부를 판단하는 단계는 상기 낙구 위치가 상기 아웃영역인 경우 아웃으로 판단할 수 있다.
또 상기 인/아웃 여부를 판단하는 단계는 상기 낙구 위치가 아웃영역인 경우 상기 공이 지면과 접촉하는 낙구 시점에서의 탄성 변형에 따른 면적 변화를 고려하여 아웃 여부를 판단할 수 있다.
또 상기 면적 변화에 따라 상기 공의 적어도 일부가 상기 라인 영역에 중첩되는 경우 인으로 판단할 수 있다.
또 상기 낙구 시점에서 상기 공이 감지된 이미지에 포함된 프레임에서 상기 공의 지면으로부터 수평한 방향으로의 면적을 산출하여 산출된 공의 면적이 상기 라인 영역에 중첩되는 경우 인으로 판단할 수 있다.
또 상기 공의 면적은 상기 낙구 시점에서 공의 높이 및 상기 공의 높이에 따른 탄성 변형량에 기초하여 상기 공의 높이 대비 탄성 변형량을 산출하고, 상기 탄성 변형량에 기초하여 상기 지면으로부터 수평한 방향으로의 면적을 산출할 수 있다.
또 상기 인/아웃 여부를 판단 결과를 외부 전자기기로 전송하는 단계를 더 포함할 수 있다.
본 발명의 다른 양상에 따르면, 상술한 방법을 수행하기 위한 프로그램이 기록된 기록 매체가 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 전자기기로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 통신부; 및 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하고, 상기 대상 오브젝트가 감지된 이미지에 기초하여 상기 대상 오브젝트의 낙구 시점을 판단하고, 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 제어부;를 포함하는 라인 인/아웃 판정 전자기기가 제공될 수 있다.
도 1은 본 발명의 일 실시예에 따른 스포츠 영상 제공 시스템(10000)의 환경도이다.
도 1을 참조하면, 스포츠 영상 제공 시스템(10000)은 복수의 카메라(1000), 운영 전자기기(2000), 영상 송출 전자기기(3000) 및 판정 전자기기(4000)를 포함할 수 있다.
카메라(1000)는 운영 전자기기(2000)와 연결될 수 있다.
카메라(1000)는 획득한 이미지 데이터를 운영 전자기기(2000)로 전송할 수 있다. 예를 들어 이미지 데이터는 카메라가 획득한 이미지 신호일 수 있다. 다른 예를 들어 이미지 데이터는 이미지 픽셀에 대한 데이터일 수 있다. 다른 예를 들어 이미지 데이터는 프레임에 대한 데이터일 수 있다.
카메라(1000)는 메인 카메라(1000a) 및 서브 카메라(1000b)를 포함할 수 있다.
메인 카메라(1000a) 및 서브 카메라(1000b) 중 적어도 하나는 복수로 제공될 수 있다. 예를 들어 메인 카메라(1000a) 및 서브 카메라(1000b) 모두 복수로 제공될 수 있다.
메인 카메라(1000a)는 미리 정해진 상황에서의 이벤트 영상을 획득하기 위한 카메라(1000) 일 수 있다. 서브 카메라(1000b)는 대상 오브젝트(예를 들어 구기 종목에서 사용되는 공)의 위치를 산출하는데 사용하기 위한 이미지를 획득하기 위한 카메라(1000)일 수 있다.
메인 카메라(1000a) 및 서브 카메라(1000b)의 용도는 위에 설명된 용도에 한정되지 않으며, 상황에 따라 서로의 역할을 대체하여 수행할 수 있다. 예를 들어 미리 정해진 상황에서 메인 카메라(1000a)로부터 획득한 이벤트 영상에서 대상 오브젝트가 다른 오브젝트(예를 들어 사람이나 구조물 등)에 의해 가려진 경우, 서브 카메라(1000b)로부터 획득한 이미지로 대체하여 이벤트 영상을 획득할 수 있다. 다른 예를 들어 서브 카메라(1000b)로부터 획득한 이미지에서 대상 오브젝트가 다른 오브젝트(예를 들어 사람이나 구조물 등)에 의해 가려져 위치 산출이 불가능한 경우, 메인 카메라(1000a)로부터 획득한 이미지를 위치 산출에 사용할 수 있다.
운영 전자기기(2000)는 카메라와 연결될 수 있다.
운영 전자기기(2000)는 카메라와 연결되어 이미지 데이터를 획득할 수 있다.
운영 전자기기(2000)는 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 촬영 이미지는 복수의 프레임을 포함할 수 있다.
미리 정해진 상황에 대한 이벤트 영상을 획득할 수 있다. 이벤트 영상은 예를 들어 선택적으로 경기 영상 중계에 사용하기 위한 영상일 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 영상 송출 전자기기(3000)를 통하여 송출되는 경기 영상 중계 영상의 일부로 사용되기 위한 영상일 수 있다. 여기서, 미리 정해진 상황은 낙구 상황, 공이 네트에 터치된 상황 및 블로킹 상황 등일 수 있다.
운영 전자기기(2000)는 영상 송출 전자기기(3000)와 연결될 수 있다.
운영 전자기기(2000)는 이벤트 영상을 영상 송출 전자기기(3000)로 전송할 수 있다.
운영 전자기기(2000)는 판정 전자기기(4000)와 연결될 수 있다.
운영 전자기기(2000)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
운영 전자기기(2000)는 낙구 시점을 판단하여 이벤트 영상을 생성하는 전자기기일 수 있다.
영상 송출 전자기기(3000)는 운영 전자기기(2000)와 연결될 수 있다.
영상 송출 전자기기(3000)는 운영 전자기기(2000)로부터 이벤트 영상을 획득할 수 있다. 영상 송출 전자기기(3000)는 이벤트 영상을 외부로 송출할 수 있다.
판정 전자기기(4000)는 운영 전자기기(2000)와 연결될 수 있다.
판정 전자기기(4000)는 운영 전자기기(2000)로부터 이벤트 영상을 획득할 수 있다. 판정 전자기기(4000)는 이벤트 영상을 출력할 수 있다. 판정 전자기기(4000)는 이벤트 영상을 판정에 사용하기 위하여 출력할 수 있다. 예를 들어 판정 전자기기(4000)는 판정 영상 라인 인/아웃 판정을 위하여 이벤트 영상을 출력할 수 있다. 다른 예를 들어 판정 전자기기(4000)는 심판 합의 판정을 위하여 이벤트 영상을 출력할 수 있다.
도 2는 본 발명의 일 실시예에 따른 운영 전자기기(2000)의 블록도이다.
도 2를 참조하면 운영 전자기기(2000)는 운영 통신부(2100), 운영 디스플레이부(2200), 운영 입력부(2300), 운영 저장부(2400) 및 운영 제어부(2500)를 포함할 수 있다.
운영 통신부(2100)는 카메라(1000)와 연결될 수 있다.
운영 통신부(2100)는 카메라(1000)로부터 이미지 데이터를 획득할 수 있다.
운영 통신부(2100)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송할 수 있다.
운영 통신부(2100)는 판정 전자기기(4000)로 판정 영상을 전송할 수 있다.
운영 디스플레이부(2200)는 시각적인 정보를 출력할 수 있다.
예를 들어 디스플레이부(2200)는 운영 전자기기(2000)의 동작에 필요한 GUI(graphical user interface)를 출력할 수 있다. 다른 예를 들어 복수의 카메라(1000) 중 적어도 일부의 카메라(1000)로부터 획득한 영상을 출력할 수 있다.
운영 입력부(2300)는 사용자의 입력에 대응하는 전기 신호를 획득할 수 있다.
예를 들어 운영 입력부(2300)는 이벤트 영상의 이벤트 영상 설정에 대한 사용자의 입력을 획득할 수 있다. 다른 예를 들어 운영 입력부(2300)는 이벤트 영상의 전송 대상에 대한 사용자의 입력을 획득할 수 있다.
운영 저장부(2400)는 데이터를 저장할 수 있다.
예를 들어 운영 전자기기(2000)의 동작에 필요한 프로그램을 저장할 수 있다. 다른 예를 들어 운영 전자기기(2000)는 카메라(1000)로부터 획득한 이미지 데이터를 저장할 수 있다. 또 다른 예를 들어 운영 전자기기(2000)는 획득한 이벤트 영상을 저장할 수 있다.
운영 제어부(2500)는 운영 전자기기(2000)의 동작을 제어할 수 있다. 예를 들어 운영 제어부(2500)는 운영 전자기기(2000)에 포함된 구성 중 적어도 일부에 대한 동작을 제어할 수 있다. 다른 예를 들어 운영 제어부(2500)는 이벤트 영상 획득 동작을 제어할 수 있다.
이하에서는 도 3을 참조하여 본 발명의 일 실시예에 따른 카메라(1000)의 배치에 대하여 설명하도록 한다. 본 발명의 일 실시예에 따른 카메라(1000)의 배치는 설명의 편의를 위하여 배구장에서의 카메라(1000) 배치를 예시적으로 설명하도록 한다. 따라서, 이하에서 설명되는 카메라(1000)의 배치는 경기장의 종류, 대상 경기 종목 등에 따라 상이하게 제공될 수 있다.
도 3은 본 발명의 일 실시예에 따른 카메라(1000) 배치를 나타내는 예시도이다.
도 3에 도시된 바와 같이 경기장에는 제1 앤드 라인(L1-1), 제2 앤드 라인(L1-2), 제1 사이드 라인(L2-1) 및 제2 사이드 라인(L2-1)이 제공될 수 있다.
또한, 경기장에는 복수의 메인 카메라(1000a) 및 복수의 서브 카메라(1000b)가 제공될 수 있다.
메인 카메라(1000a)는 경기장의 미리 정해진 구역을 촬영할 수 있도록 제공될 수 있다.
메인 카메라(1000a)는 예를 들어 도 3에 도시된 바와 같이 제1 메인 카메라(1000a-1)는 제1 앤드 라인(L1-1)의 연장 선상에서 제1사이드 라인(L2-1) 측에 위치할 수 있다. 또한 제2 메인 카메라(1000a-2)는 제1 사이드 라인(L2-1)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제3 메인 카메라(1000a-3)는 제2 사이드 라인(L2-2)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제3 메인 카메라(1000a-3)는 제2 사이드 라인(L2-2)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제4 메인 카메라(1000a-4)는 제1 앤드 라인(L1-2)의 연장 선상에서 제1 사이드 라인(L2-1) 측에 위치할 수 있다.
복수의 메인 카메라(1000a) 중 적어도 두 개의 메인 카메라(1000a)는 서로 화각의 적어도 일부가 중첩되도록 제공될 수 있다. 예를 들어 제1 메인 카메라(1000a-1)의 화각 및 제2 메인 카메라(1000a-2)의 화각은 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 메인 카메라(1000a-2)의 화각 및 제3 메인 카메라(1000a-3)의 화각 중 적어도 일부가 중첩될 수 있다.
서브 카메라(1000b)는 메인 카메라(1000a)와 비교하였을 때, 경기장을 기점으로 비교적 원거리에 위치할 수 있다. 서브 카메라(1000b)는 메인 카메라(1000a)와 비교하였을 때, 경기장을 기점으로 비교적 원거리에 위치함으로 써, 메인 카메라(1000a)보다 경기장의 상대적으로 넓은 영역을 촬영할 수 있다.
서브 카메라(1000b)는 예를 들어 도 3에 도시된 바와 같이 제1 서브 카메라(1000b-1)는 제1 사이드 라인(L2-1) 측에 제공될 수 있다. 또한 제2 서브 카메라(1000b-2)는 제1 앤드 라인 측(L1-1)에 제공될 수 있다. 또한 제3 서브 카메라(1000b-3)는 제2 사이드 라인 측(L2-2)에 제공될 수 있다.
복수의 서브 카메라(1000b) 중 적어도 두 개의 서브 카메라(1000b)는 서로 화각이 중첩되도록 제공될 수 있다. 예를 들어 제1 서브 카메라(1000b-1)의 화각 및 제2 서브 카메라(1000b-2)의 화각은 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 서브 카메라(1000b-2)의 화각 및 제3 서브 카메라(1000b-3)의 화각은 적어도 일부가 중첩될 수 있다.
또한 하나의 서브 카메라(1000b)는 적어도 하나의 메인 카메라(1000a)와 서로 화각이 중첩될 수 있다. 예를 들어 제1 서브 카메라(1000b-1)의 화각은 제1 메인 카메라(1000a-1)와 화각과 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 서브 카메라(1000b-2)의 화각은 제2 메인 카메라(1000a-2)의 화각과 적어도 일부가 중첩될 수 있다.
도 4는 본 발명의 일 실시예에 따른 메인 카메라(1000a) 및 서브 카메라(1000b)의 상하 위치 관계를 나타내는 예시도이다.
도 4에서는 예시적으로 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)과의 상하 관계를 도시하였다.
예를 들어 도 4에 도시된 바와 같이 제1 서브 카메라(1000b)는 제1 메인 카메라(1000a)보다 상대적으로 높은 위치에 제공될 수 있다. 또한, 제1 메인 카메라(1000a)는 실질적으로 수평한 방향에 대한 이미지를 획득할 수 있으며, 제1 서브 카메라(1000b)는 실질적으로 하향으로의 이미지를 획득할 수 있다. 제1 서브 카메라(1000b)가 제1 메인 카메라(1000a)와 비교하였을 때, 상대적으로 높은 위치에서 하향으로 이미지를 획득 함으로써, 제1 서브 카메라(1000b)가 경기장을 촬영하는 촬영 영역은 제1 서브 카메라(1000b)의 촬영 영역보다 넓게 제공될 수 있다. 따라서, 서브 카메라(1000b)는 메인 카메라(1000a)로부터 획득한 이미지에서 대상 오브젝트(b)가 다른 오브젝트에 의해 가려질 때, 메인 카메라(1000a)를 대신하여 낙구 시점 판단 등에 필요한 이미지를 제공할 수 있다.
이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 운영 전자기기(2000)의 이벤트 영상 획득 동작에 대해 설명하도록 한다.
도 5는 본 발 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법의 순서도이다.
도 5를 참조하면, 이벤트 영상 획득 방법은 촬영 이미지를 획득하는 단계(S100), 대상 오브젝트(B)를 판단하는 단계(S200), 프레임 별 대상 오브젝트(B)를 비교하는 단계(S300), 낙구 시점을 판단하는 단계(S400), 이벤트 영상을 획득하는 단계(S500) 및 이벤트 영상을 전송하는 단계(S600)을 포함할 수 있다.
운영 제어부(2500)는 촬영 이미지를 획득할 수 있다(S100).
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 일부로부터 이미지 데이터를 획득할 수 있으며, 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 촬영 이미지를 획득할 수 있다 다른 예를 들어 운영 제어부(2500)는 필요에 따라 서브 카메라(1000b)로부터 촬영 이미지를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)를 판단할 수 있다(S200).
운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B) 판단할 수 있다. 예를 들어 운영 제어부(2500)는 서브 카메라(1000b)로부터 획득한 촬영 이미지에 포함된 대상 프레임에 대상 오브젝트(B)가 존재 하는 지 여부 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B) 판단 기준에 기초하여 프레임에 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 미리 정해진 오브젝트 형태와 유사한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 제1 시점의 프레임과 제2 시점의 프레임을 서로 비교하여 제1 시점의 프레임에 포함된 오브젝트 중 제2 시점의 프레임에서 미리 정해진 거리 이상 이동한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다.'
운영 제어부(2500)는 우선순위에 따라 대상 오브젝트(B)의 존재 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 및 서브 카메라(1000b) 중 서브 카메라(1000b)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 지 여부를 우선적으로 판단할 수 있다.
운영 제어부(2500)는 제1 서브 카메라(1000b-1), 제2 서브 카메라(1000b-2) 및 제3 서브 카메라(1000b-3)로 획득한 이미지에서 대상 오브젝트(B)를 검출하지 못한 경우, 제1 메인 카메라(1000a-1), 제2 메인 카메라(1000a-2), 제3 메인 카메라(1000a-3) 및 제4 메인 카메라(1000a-4)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트 정보를 획득할 수 있다(S300).
운영 제어부(2500)는 적어도 하나의 카메라(1000)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 경우 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 검출된 이미지를 전송한 카메라(1000) 중 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
이하에서는 예시들을 통하여 카메라(1000) 선택에 대해 설명하도록 한다.
운영 제어부(2500)는 우선적으로 서브 카메라(1000b)로부터 획득한 이미지에서 대상 오브젝트(B)가 검출된 경우 서브 카메라(1000b)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
또한 운영 제어부(2500)는 서로 다른 측면에 위치한 두 개의 카메라(1000)를 선택하여 선택된 두 개의 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 제1 서브 카메라(1000b-1), 제2 서브 카메라(1000b-2) 및 제3 서브 카메라(1000b-3)로 획득한 이미지에서 대상 오브젝트(B)가 검출된 경우, 제1 사이드 라인(L2-1)측에 위치한 제1 서브 카메라(1000b-1)와 제1 앤드 라인(L1-1)에 위치한 제2 서브 카메라(1000b-2)로부터 획득한 이미지 및 제2 사이드 라인(L2-2)측에 위치한 제3 서브 카메라(1000b-3)와 제1 앤드 라인(L1-1)에 위치한 제2 서브 카메라(1000b-2)로부터 획득한 이미지 중 적어도 하나의 이미지로부터 대상 오브젝트 정보를 획득할 수 있다.
오브젝트 정보 획득에 사용되는 카메라(1000)는 상황에 따라 대체될 수 있다.
예를 들어 서브 카메라(1000b) 중 제1 서브 카메라(1000b-1)로부터 획득한 이미지에서만 대상 오브젝트(B)가 검출되고 제2 서브 카메라(1000b-2)로부터 획득한 이미지에서는 대상 오브젝트(B)가 검출되지 않은 경우, 제2 서브 카메라(1000b-2)를 대신하여 제2 메인 카메라(1000a-2)로부터 획득한 이미지가 오브젝트 정보 획득에 사용될 수 있다.
이러한 카메라(1000)들 간의 대체 관계는 세트화 되어 미리 설정될 수 있다.
예를 들어 같은 측면에 위치한 카메라(1000)는 서로를 대체하도록 설정될 수 있다. 보다 구체적인 예를 들어 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)는 서로를 대체할 수 있도록 설정될 수 있다. 다른 구체적인 예를 들어 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3)는 제2 서브 카메라(1000b-2)와 서로를 대체할 수 있다. 또 다른 구체적 예를 들어 제4 메인 카메라(1000a-4) 및 제3 서브 카메라(1000b-3)는 서로를 대체할 수 있도록 설정될 수 있다.
다른 예를 들어 서로 마주보는 측면에 위치한 카메라(1000)는 서로를 대체하도록 설정할 수 있다. 보다 구체적인 예를 들어 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)는 제4 메인 카메라(1000a-4) 및 제3 서브 카메라(1000b-3)와 서로 대체될 수 있다.
대상 오브젝트 정보 획득에 사용될 카메라(1000)가 선택되면 운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 포함된 프레임에서의 대상 오브젝트(B)의 좌표를 획득할 수 있다. 또한 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대응하는 실 좌표를 획득할 수 있다. 여기서, 실좌표는 예를 들어 실제 경기장에서의 좌표일 수 있다.
대상 오브젝트(B)의 실 좌표를 획득하는데 있어서 좌표 획득의 기준점은 다양하게 제공될 수 있다. 예를 들어 기준점은 대상 오브젝트(B)의 최고점(예를 들어 대상 오브젝트(B)에서 Z축 값이 가장 높은 포인트)일 수 있다. 다른 예를 들어 기준점은 대상 오브젝트(B)의 최저점(예를 들어 대상 오브젝트(B)에서 Z축 값이 가장 낮은 포인트)일 수 있다. 또 다른 예를 들어 기준점은 대상 오브젝트(B)의 중심점일 수 있다.
운영 제어부(2500)는 미리 정해진 이미지 프레임에서의 좌표와 실 좌표와의 상관 관계 및/또는 이미지 프레임에서의 좌표와 실 좌표의 좌표 테이블에 기초하여 이미지 프레임의 좌표에 기초하여 실 좌표를 산출할 수 있다.
다른 예를 들어 운영 제어부(2500)는 카메라(1000) 별로 설치 위치에서 미리 촬영된 대상 오브젝트(B)의 실제 위치 및 이미지 프레임 상의 위치를 매칭하여 저장할 수 있다.
도 6은 본 발명의 일 실시예에 따른 대상 오브젝트(B) 촬영을 이용한 실 좌표 설정을 나타내는 예시도이다.
도 6에 도시된 바와 같이 운영 제어부(2500)는 제1 메인 카메라(1000a-1)의 화각 중 적어도 일부에 배치된 대상 오브젝트(B)에 대한 이미지 프레임을 획득할 수 있으며, 획득한 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대한 실 좌표를 입력 받을 수 있다. 예를 들어 운영 제어부(2500)는 도 5와 같이 촬영된 이미지 프레임에서 하나의 대상 오브젝트(B)에 대한 실 좌표 X축200, Y축 1000, Z축 0의 좌표값을 획득할 수 있으며, 획득한 실 좌표와 대상 오브젝트(B)의 이미지 프레임 상의 좌표인 X축 10, Y축 5와 매칭하여 저장할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 서로 다른 측면에 위치한 두 개의 카메라(1000)로부터 획득한 이미지를 이용하여 대상 오브젝트(B)의 실 좌표를 획득할 수 있다.
이하에서는 도 7 및 도 8을 참조하여 본 발명의 일 실시예에 따른 두 개의 카메라(1000)를 이용한 대상 오브젝트 정보 획득에 대해서 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 앤드 라인(L1) 측에 위치한 카메라(1000)로부터 획득한 정면 이미지의 예시도이다.
도 7에 도시된 바와 같이 운영 제어부(2500)는 앤드 라인(L1) 측에 위치한 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3) 중 적어도 하나로부터 정면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 X축의 좌표값 및 Y축의 좌표값을 획득할 수 있다.
도 8은 본 발명의 일 실시예에 따른 사이드 라인(L2) 측에 위치한 카메라(1000)로부터 획득한 측면 이미지의 예시도이다.
도 8에 도시된 바와 같이 운영 제어부(2500)는 사이드 라인(L2) 측에 위치한 제1 메인 카메라(1000a-1) 및 제2 메인 카메라(1000a-4) 중 적어도 하나로부터 측면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 Z축의 좌표값을 획득할 수 있다.
따라서, 운영 제어부(2500)는 정면 이미지 및 측면 이미지로부터 실 좌표 X축, Y축 및 Z축의 좌표값을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 경우, 프레임 별 오브젝트 이미지를 비교할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 제1 프레임을 이후의 제2 프레임과 비교할 수 있으며, 제2 프레임과 이후의 제3 프레임을 비교할 수 있다.
운영 제어부(2500)는 앞선 이미지 프레임에서의 오브젝트와 이후 이미지 프레임에서의 오브젝트를 서로 비교하여 오브젝트에 대한 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 속도를 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 경로를 획득할 수 있다.
또한, 운영 제어부(2500)는 대상 오브젝트(B)의 형태 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 오브젝트 폭(Bw), 오브젝트 높이(Bh) 및 오브젝트 면적 중 적어도 하나를 포함하는 형태 정보를 획득할 수 있다.
또한, 운영 제어부(2500)는 각 프레임 별로 형태 정보를 획득할 수 있으며, 획득한 형태 정보의 변화량을 산출할 수 있다.
또한, 운영 제어부(2500)는 미리 설정된 레퍼런스 오브젝트와 대상 오브젝트(B)의 변형에 대한 변형 정보를 획득할 수 있다. 여기서 변형 정보는 대상 오브젝트(B)의 레퍼런스 오브젝트 대비 면적 변형 및 형태 변형 중 적어도 하나를 포함할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)와 레퍼런스 오브젝트의 면적 차이, 폭 차이 및 높이 차이를 산출할 수 있다.
운영 제어부(2500)는 낙구 시점을 판단할 수 있다(S400).
운영 제어부(2500)는 대상 오브젝트 정보에 기초하여 대상 오브젝트(B)가 지면과 접촉하는 낙구 시점을 판단할 수 있다. 여기서 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 중 적어도 일부의 시점일 수 있다. 예를 들어 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 전체를 의미할 수 있다. 다른 예를 들어 낙구 시점은 대상 오브젝트(B)의 지면과의 접촉면적이 최대가 되는 시점일 수 있다. 또 다른 예를 들어 낙구 시점은 상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지의 중간 시점일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표 및 대상 오브젝트(B)의 변형 중 적어도 하나에 기초하여 대상 오브젝트(B)의 낙구 여부 및/또는 낙구 시점을 판단할 수 있다.
예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 0이되는 시점, 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 미리 정해진 좌표값이 되는 시점 및 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 최저점이 되는 시점 중 적어도 하나의 시점을 낙구 시점으로 판단할 수 있다.
다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 미리 정해진 형태로 변형된 시점을 낙구 시점으로 판단할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)를 서로 비교하여 그 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상인 경우 공이 지면에 닿은 것으로 판단할 수 있다. 공의 경우, 탄성 변형이 거의 없는 하드의 공과 탄성 변형되는 연성 재질의 공으로 구분될 수 있다. 탄성 변형이 없는 하드한 공의 경우에는 지면에 닿은 후에도 실질적으로 공의 현상에 변화가 없지만, 연성 재질로 제공되는 공의 경우에는 지면에 닿는 시점부터 탄성 변형이 시작되어 최대 탄성 변형 후 지면으로부터의 이탈 시점에 다시 원상태로 복원되게 된다. 따라서, 운영 제어부(2500)는 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)를 서로 비교하여 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상인 경우 공이 지면에 닿아 탄성 변형이 시작된 것으로 판단 수 있으며, 탄성 변형이 시작되어 최대 탄성 변형 후 다시 원상태로 복원되어 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되면 공이 지면으로부터 이탈되는 것으로 판단할 수 있다. 운영 제어부(2500)는 처음으로 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되는 제1 시점과 탄성 변형이 지속된 후 형태가 복원되는 과정에서 다시 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되는 제2 시점에 있어서 제1 시점, 제2 시점 및 제1 시점 내지 제2 시점 사이의 어느 한 시점 중 하나를 낙구 시점으로 판단할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 변형량이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 미리 정해진 기준이 되는 시점을 낙구 시점으로 판단할 수 있다. 앞서 대상 오브젝트(B)의 형태에 기초하여 낙구 시점을 판단하는 예시에서 설명한 바와 같이 연성 재질로 제공되는 공의 경우 지면과 닿는 시점부터 탄성 변형이 시작될 수 있다. 이러한 탄성 변형에 의해 공의 형태가 변형됨에 따라 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나에 변화가 생길 수 있다. 여기서 높이는 예를 들어 대상 오브젝트(B)의 기준점 중 최고점으로부터 최저점까지의 길이일 수 있다. 또한 폭은 예를 들어 대상 오브젝트(B)의 기준점 중 양 측에 대칭하여 위치한 두 포인트 사이의 거리일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 미리 정해진 길이인 경우 또는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 기준 길이로부터 미리 정해진 길이 이상으로 변화된 경우에 해당 시점을 낙구 시점으로 판단할 수 있다. 또한, 운영 제어부(2500)는 길이 변화가 시작된 제1 시점 및 변형 후 다시 제1 시점의 길이와 동일해 지는 제2 시점 및 제1 시점 내지 제2 시점 사이의 어느 한 시점 중 적어도 하나의 시점을 낙구 시점으로 판단할 수 있다.
도 9는 본 발명의 일 실시예에 따른 측면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 9에 도시된 바와 같이 측면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수형하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
도 10은 본 발명의 일 실시예에 따른 정면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 10에 도시된 바와 같이 정면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수직하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
운영 제어부(2500)는 이벤트 영상을 획득할 수 있다(S500).
운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 우선적으로 메인 카메라(1000a)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있으며, 상황에 따라 서브 카메라(1000a)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표에 기초하여 가장 인접한 메인 카메라(1000a)를 최우선적으로 선택하여 이벤트 영상을 획득할 수 있다. 또한 운영 제어부(2500)는 메인 카메라(1000a) 중 대상 오브젝트(B)가 검출된 메인 카메라(1000a) 가 존재하지 않는 경우 서브 카메라(1000b) 중 가장 인접한 서브 카메라(1000b)를 선택하여 이벤트 영상을 획득할 수 있다.
도 11은 본 발명의 일 실시예에 따른 이벤트 영상 획득을 나타내는 예시도이다.
예를 들어 도 11에 도시된 바와 같이 이벤트 영상은 낙구 시점에 대한 프레임 및 낙구 시점을 기준으로 전 및/또는 후 프레임을 포함할 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 낙구 시점에 대한 프레임이 15프레임 동안 반복되도록 제공될 수 있으며, 낙구 시점을 기준으로 이전 20프레임을 포함할 수 있다. 또한, 이벤트 영상은 낙구 시점을 기준으로 이후 20 프레임을 포함할 수 있다.
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 하나의 카메라(1000)로부터 이벤트 영상을 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 서브 카메라(1000b) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 이벤트 영상을 전송하도록 제어할 수 있다(S600).
운영 제어부(2500)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송하도록 제어할 수 있다. 또한, 운영 제어부(2500)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
이하에서는 도 12를 참조하여 본 발명의 일 실시예에 따른 인/아웃 판단 방법에 대해서 설명하도록 한다.
본 발명의 일 실시예에 따른 인/아웃 판단 방법은 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법에서 판정 기준 라인과 낙구 위치를 비교하는 단계(S700)가 부가된 것으로 그 외의 동작 및 구성에 대해서는 동일하다. 따라서, 본 발명의 일 실시예에 따른 인/아웃 판단 방법을 설명함에 있어서, 이벤트 영상 획득 방법과 동일한 설명에 대해서는 생략하여 설명하도록 한다.
도 12는 본 발명의 일 실시예에 따른 인/아웃 판단 방법의 순서도이다.
도 12를 참조하면 인/아웃 판단 방법은 촬영 이미지를 획득하는 단계(S100), 대상 오브젝트(B)를 판단하는 단계(S200), 프레임 별 대상 오브젝트(B)를 비교하는 단계(S300), 낙구 시점을 판단하는 단계(S400), 판정 기준 라인과 낙구 위치를 비교하는 단계(S700), 이벤트 영상을 획득하는 단계(S500) 및 이벤트 영상을 전송하는 단계(S600)을 포함할 수 있다.
운영 제어부(2500)는 촬영 이미지를 획득할 수 있다(S100).
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 일부로부터 이미지 데이터를 획득할 수 있으며, 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 촬영 이미지를 획득할 수 있다 다른 예를 들어 운영 제어부(2500)는 필요에 따라 서브 카메라(1000b)로부터 촬영 이미지를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)를 판단할 수 있다(S200).
운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B) 판단할 수 있다. 예를 들어 운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B)인 공의 존재 여부를 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B) 판단 기준에 기초하여 프레임에 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 미리 정해진 오브젝트 형태와 유사한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 제1 시점의 프레임과 제2 시점의 프레임을 서로 비교하여 제1 시점의 프레임에 포함된 오브젝트 중 제2 시점의 프레임에서 미리 정해진 거리 이상 이동한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트 정보를 획득할 수 있다(S300).
예를 들어 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표를 획득할 수 있다. 또한 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대응하는 실 좌표를 획득할 수 있다. 여기서, 실좌표는 예를 들어 실제 경기장에서의 좌표일 수 있다.
대상 오브젝트(B)의 실 좌표를 획득하는데 있어서 좌표 획득의 기준점은 다양하게 제공될 수 있다. 예를 들어 기준점은 대상 오브젝트(B)의 최고점일 수 있다. 다른 예를 들어 기준점은 대상 오브젝트(B)의 최저점일 수 있다. 또 다른 예를 들어 기준점은 대상 오브젝트(B)의 중심점일 수 있다.
운영 제어부(2500)는 미리 정해진 이미지 프레임에서의 좌표와 실 좌표와의 상관 관계 및/또는 이미지 프레임에서의 좌표와 실 좌표의 좌표 테이블에 기초하여 이미지 프레임의 좌표에 기초하여 실 좌표를 산출할 수 있다.
다른 예를 들어 운영 제어부(2500)는 카메라(1000) 별로 설치 위치에서 미리 촬영된 대상 오브젝트(B)의 실제 위치 및 이미지 프레임 상의 위치를 매칭하여 저장할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 두 개의 카메라(1000)로부터 획득한 이미지를 이용하여 대상 오브젝트(B)의 실 좌표를 획득할 수 있다.
운영 제어부(2500)는 앤드 라인(L1) 측에 위치한 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3) 중 적어도 하나로부터 정면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 X축의 좌표값 및 Y축의 좌표값을 획득할 수 있다.
운영 제어부(2500)는 사이드 라인(L2) 측에 위치한 제1 메인 카메라(1000a-1) 및 제2 메인 카메라(1000a-4) 중 적어도 하나로부터 측면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 Z축의 좌표값을 획득할 수 있다.
따라서, 운영 제어부(2500)는 정면 이미지 및 측면 이미지로부터 실 좌표 X축, Y축 및 Z축의 좌표값을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 경우, 프레임 별 오브젝트 이미지를 비교할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 제1 프레임을 이후의 제2 프레임과 비교할 수 있으며, 제2 프레임과 이후의 제3 프레임을 비교할 수 있다.
운영 제어부(2500)는 앞선 이미지 프레임에서의 오브젝트와 이후 이미지 프레임에서의 오브젝트를 서로 비교하여 오브젝트에 대한 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 속도를 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 경로를 획득할 수 있다.
운영 제어부(2500)는 낙구 시점을 판단할 수 있다(S400).
운영 제어부(2500)는 대상 오브젝트(B)가 지면과 접촉하는 낙구 시점을 판단할 수 있다. 여기서 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 중 적어도 일부의 시점일 수 있다. 예를 들어 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 전체를 의미할 수 있다. 다른 예를 들어 낙구 시점은 대상 오브젝트(B)의 지면과의 접촉면적이 최대가 되는 시점일 수 있다. 또 다른 예를 들어 낙구 시점은 상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지의 중간 시점일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표 및 대상 오브젝트(B)의 변형 중 적어도 하나에 기초하여 대상 오브젝트(B)의 낙구 여부 및/또는 낙구 시점을 판단할 수 있다.
예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 0이되는 시점을 낙구 시점으로 판단할 수 있다.
다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 미리 정해진 형태로 변형된 시점을 낙구 시점으로 판단할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 변형량이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다.
측면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수형하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
정면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수직하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
운영 제어부(2500)는 판정 기준 라인과 낙구 위치를 비교할 수 있다(S700).
운영 제어부(2500)는 판정 기준 라인과 낙구 위치를 비교하여 판정 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 인(IN)/아웃(OUT)에 대한 판정 정보를 획득할 수 있다.
판정 기준 라인은 미리 설정될 수 있다. 예를 들어 이미지에서의 판정 라인 영역이 미리 설정될 수 있다.
또한 판정 기준 라인은 운영 제어부(2500)에 의해 검출될 수 있다. 예를 들어 운영 제어부(2500)는 이미지 트래킹을 이용하여 이미지에서 판정 기준 라인을 검출할 수 있다. 보다 구체적인 예를 들어 경기장에서 바닥에 그려 진 판정 기준 라인은 주변 경기장 바닥과는 다른 색으로(예를 들어 경기 장 바닥이 녹색인 경우 판정 기준 라인은 흰색으로 제공) 제공될 수 있으며, 운영 제어부(2500)는 판정 기준 라인과 주변 경기장 바닥과의 색 차이에 기초하여 판정 기준 라인의 영역을 검출할 수 있다.
도 13은 본 발명의 일 실시예에 따른 인/아웃 판단을 나타내는 예시도이다.
도 13에 도시된 바와 같이 운영 제어부(2500)는 판정 기준 라인과 낙구 위치와의 관계에 기초하여 인/아웃 여부를 판단할 수 있다.
도 13(a)와 같이 낙구 위치가 라인상인 경우 운영 제어부(2500)는 인으로 판단할 수 있다. 운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 라인 영역 상인 경우 인으로 판단할 수 있다.
도 13(b)와 같이 낙구 위치가 인영역(IA)인 경우 운영 제어부(2500)는 인으로 판단할 수 있다.
운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 인 영역(IA)인 경우 인으로 판단할 수 있다.
도 13(c)와 같이 낙구 위치가 아웃 영역(OA)인 경우 운영 제어부(2500)는 아웃으로 판단할 수 있다. 운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 아웃 영역(OA)인 경우 인으로 판단할 수 있다.
도 13(d)와 같이 낙구 위치가 아웃영역(OA)인 상태에서 대상 오브젝트(B)의 영역이 판정 기준 라인 영역과 겹치는 경우 운영 제어부(2500)는 인으로 판단할 수 있다.
운영 제어부(2500)는 공의 탄성 변형을 더 고려하여 인/아웃을 판단할 수 있다.
운영 제어부(2500)는 낙구 시점에서의 대상 오브젝트(B)의 오브젝트 높이(Bh)를 산출할 수 있다. 운영 제어부(2500)는 오브젝트 높이(Bh)에 대응하는 공의 탄성 변형량을 산출할 수 있으며, 변성 변형량에 따른 공의 면적 변화를 고려하여 인/아웃을 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트의 실 좌표 및 면적 변화에 따라 늘어난 면적에 의해 대상 오브젝트의 영역이 라인 영역과 중첩되는지 여부를 판단할 수 있으며, 대상 오브젝트의 영역이 라인 영역과 중첩되는 경우 인으로 판단할 수 있다.
운영 제어부(2500)는 이벤트 영상을 획득할 수 있다(S500).
이벤트 영상은 낙구 시점에 대한 프레임 및 낙구 시점을 기준으로 전 및/또는 후 프레임을 포함할 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 낙구 시점에 대한 프레임이 15프레임 동안 반복되도록 제공될 수 있으며, 낙구 시점을 기준으로 이전 20프레임을 포함할 수 있다. 또한, 이벤트 영상은 낙구 시점을 기준으로 이후 20 프레임을 포함할 수 있다.
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 하나의 카메라(1000)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 중 적어도 하나로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 획득한 이미지 중 낙구 시점의 프레임 15프레임, 낙구 시점을 기준으로 이전 20프레임 및 낙구 시점을 기준으로 이후 20프레임을 획득하여
다른 예를 들어 운영 제어부(2500)는 서브 카메라(1000b) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다. 또 다른 예를 들어 적어도 하나의 메인 카메라(1000a)와 적어도 하나의 서브 카메라(1000b)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 이벤트 영상을 전송하도록 제어할 수 있다(S600).
운영 제어부(2500)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송하도록 제어할 수 있다. 또한, 운영 제어부(2500)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.
10000 구기 경기 중계 시스템 1000 카메라
2000 운영 전자기기 2100 운영 통신부
2200 운영 디스플레이부 2300 운영 입력부
2400 운영 저장부 2500 운영 제어부
3000 영상 송출 전자기기 4000 판정 전자기기
2000 운영 전자기기 2100 운영 통신부
2200 운영 디스플레이부 2300 운영 입력부
2400 운영 저장부 2500 운영 제어부
3000 영상 송출 전자기기 4000 판정 전자기기
Claims (12)
- 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인 또는 아웃 여부를 판정하는 방법으로서,
상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 획득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-;
상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계;
상기 대상 오브젝트의 낙구 시점을 판단하는 단계; 및
상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관계에 기초하여 인 또는 아웃 여부를 판단하는 단계;를 포함하되,
상기 인 또는 아웃 여부를 판단하는 단계는 상기 공이 지면과 접촉하는 낙구 시점에서의 탄성 변형에 따른 면적 변화를 고려하여 아웃 여부를 판단하는 단계인
라인 인 또는 아웃 판단 방법.
- 제1 항에 있어서,
상기 인 또는 아웃 여부를 판단하는 단계는 미리 설정된 라인 레퍼런스와 상기 낙구 위치와의 관계에 기초하여 상기 인 또는 아웃 여부를 판단하는
라인 인 또는 아웃 판단 방법.
- 제2 항에 있어서,
상기 라인 레퍼런스는 상기 라인의 위치한 영역 및 상기 라인을 기점으로 인으로 판단하는 인영역과 상기 라인을 기점으로 아웃으로 판단하는 아웃영역에 대한 정보를 포함하는
라인 인 또는 아웃 판단 방법.
- 제3 항에 있어서,
상기 인 또는 아웃 여부를 판단하는 단계는 낙구 위치가 상기 인영역 및 상기 라인 영역 중 적어도 하나에 위치한 경우 인으로 판단하는
라인 인 또는 아웃 판단 방법.
- 제3 항에 있어서,
상기 인 또는 아웃 여부를 판단하는 단계는 상기 낙구 위치가 상기 아웃영역인 경우 아웃으로 판단하는
라인 인 또는 아웃 판단 방법.
- 삭제
- 제1 항에 있어서,
상기 면적 변화에 따라 상기 공의 적어도 일부가 상기 라인 영역에 중첩되는 경우 인으로 판단하는
라인 인 또는 아웃 판단 방법.
- 제7 항에 있어서,
상기 낙구 시점에서 상기 공이 감지된 이미지에 포함된 프레임에서 상기 공의 지면으로부터 수평한 방향으로의 면적을 산출하여 산출된 공의 면적이 상기 라인 영역에 중첩되는 경우 인으로 판단하는
라인 인 또는 아웃 판단 방법.
- 제8 항에 있어서,
상기 공의 면적은 상기 낙구 시점에서 공의 높이 및 상기 공의 높이에 따른 탄성 변형량에 기초하여 상기 공의 높이 대비 탄성 변형량을 산출하고, 상기 탄성 변형량에 기초하여 상기 지면으로부터 수평한 방향으로의 면적을 산출하는
라인 인 또는 아웃 판단 방법.
- 제1 항에 있어서,
상기 인 또는 아웃 여부를 판단하는 단계에서 상기 인 또는 아웃 여부를 판단한 결과를 외부 전자기기로 전송하는 단계를 더 포함하는
라인 인 또는 아웃 판단 방법.
- 제1 내지 5, 7 내지 10항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 기록 매체.
- 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 전자기기로서,
상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 통신부; 및
상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하고, 상기 대상 오브젝트가 감지된 이미지에 기초하여 상기 대상 오브젝트의 낙구 시점을 판단하고, 상기 낙구 시점에서의 상기 대상 오브젝트의 낙구 위치와 상기 라인과의 관례에 기초하여 인/아웃 여부를 판단하는 제어부;를 포함하되,
상기 제어부는 상기 공이 지면과 접촉하는 낙구 시점에서의 탄성 변형에 따른 면적 변화를 고려하여 아웃 여부를 판단하는
라인 인 또는 아웃 판정 전자기기.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160107019A KR101879368B1 (ko) | 2016-08-23 | 2016-08-23 | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160107019A KR101879368B1 (ko) | 2016-08-23 | 2016-08-23 | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180022116A KR20180022116A (ko) | 2018-03-06 |
KR101879368B1 true KR101879368B1 (ko) | 2018-07-18 |
Family
ID=61727437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160107019A KR101879368B1 (ko) | 2016-08-23 | 2016-08-23 | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101879368B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200080562A (ko) * | 2018-12-27 | 2020-07-07 | 주식회사 디아이블 | 스포츠 코트에서의 인아웃 판정 방법 및 장치 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102247557B1 (ko) * | 2019-04-01 | 2021-05-03 | 숭실대학교산학협력단 | 인-아웃 판정 방법, 이를 수행하기 위한 기록 매체 및 장치 |
US11138431B2 (en) | 2019-04-01 | 2021-10-05 | Foundation Of Soongsil University-Industry Cooperation | Method for judging in or out, computer readable medium and apparatus for performing the method |
JP2023549982A (ja) * | 2020-10-22 | 2023-11-29 | ピクセルスコープインク | スポーツ中継のための映像を決定する装置、方法及び命令を記録した記録媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5489886A (en) * | 1992-08-07 | 1996-02-06 | Alos-Officiating Tennis System Limited | Automatic line officiating system and method thereof |
KR20090118634A (ko) * | 2008-05-14 | 2009-11-18 | (주)비주얼 스포츠 | 운동경기의 자동분석 시스템 및 그 방법 |
US20130039538A1 (en) * | 2011-08-12 | 2013-02-14 | Henri Johnson | Ball trajectory and bounce position detection |
-
2016
- 2016-08-23 KR KR1020160107019A patent/KR101879368B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5489886A (en) * | 1992-08-07 | 1996-02-06 | Alos-Officiating Tennis System Limited | Automatic line officiating system and method thereof |
KR20090118634A (ko) * | 2008-05-14 | 2009-11-18 | (주)비주얼 스포츠 | 운동경기의 자동분석 시스템 및 그 방법 |
US20130039538A1 (en) * | 2011-08-12 | 2013-02-14 | Henri Johnson | Ball trajectory and bounce position detection |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200080562A (ko) * | 2018-12-27 | 2020-07-07 | 주식회사 디아이블 | 스포츠 코트에서의 인아웃 판정 방법 및 장치 |
KR102144764B1 (ko) * | 2018-12-27 | 2020-08-14 | 주식회사 디아이블 | 스포츠 코트에서의 인아웃 판정 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20180022116A (ko) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101879368B1 (ko) | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법 | |
US11006089B2 (en) | Information processing apparatus and information processing method | |
US8049750B2 (en) | Fading techniques for virtual viewpoint animations | |
US8154633B2 (en) | Line removal and object detection in an image | |
US8451265B2 (en) | Virtual viewpoint animation | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
US20090128577A1 (en) | Updating backround texture for virtual viewpoint animations | |
JP4389901B2 (ja) | スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム | |
JP2018107793A (ja) | 仮想視点画像の生成装置、生成方法及びプログラム | |
JP2019505111A (ja) | 複数のメディアストリームの処理 | |
JP2021192273A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20200028837A (ko) | 정보 처리장치, 정보 처리방법 및 기억매체 | |
CN110944101A (zh) | 摄像装置及图像记录方法 | |
US20230353717A1 (en) | Image processing system, image processing method, and storage medium | |
KR101888748B1 (ko) | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법 | |
KR101888747B1 (ko) | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 이벤트 영상 생성 방법 | |
US20240104793A1 (en) | Adding augmented reality to a sub-view of a high resolution central video feed | |
KR101924572B1 (ko) | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법 | |
JP5687670B2 (ja) | 表示制御システム、ゲームシステム、表示制御装置、及びプログラム | |
WO2021192768A1 (ja) | 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム | |
WO2021149336A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7289630B2 (ja) | 画像処理装置 | |
JP7304747B2 (ja) | 画像処理装置、制御方法及び制御プログラム | |
JP7233886B2 (ja) | 画像処理装置 | |
KR101737587B1 (ko) | 스포츠 경기 관리 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |