KR101924572B1 - 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법 - Google Patents

구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법 Download PDF

Info

Publication number
KR101924572B1
KR101924572B1 KR1020160107017A KR20160107017A KR101924572B1 KR 101924572 B1 KR101924572 B1 KR 101924572B1 KR 1020160107017 A KR1020160107017 A KR 1020160107017A KR 20160107017 A KR20160107017 A KR 20160107017A KR 101924572 B1 KR101924572 B1 KR 101924572B1
Authority
KR
South Korea
Prior art keywords
target object
image
time
camera
control unit
Prior art date
Application number
KR1020160107017A
Other languages
English (en)
Other versions
KR20180022114A (ko
Inventor
권기환
Original Assignee
주식회사 픽셀스코프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 픽셀스코프 filed Critical 주식회사 픽셀스코프
Priority to KR1020160107017A priority Critical patent/KR101924572B1/ko
Publication of KR20180022114A publication Critical patent/KR20180022114A/ko
Application granted granted Critical
Publication of KR101924572B1 publication Critical patent/KR101924572B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B63/00Targets or goals for ball games
    • A63B63/003Targets or goals for ball games non-electronic means for locating the point of impact on a target or the point of entry in the goal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법에 관한 것으로, 본 발명의 일 양상에 따른 낙구 시점 판단 방법은 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트가 감지된 이미지 상에서 상기 대상 오브젝트의 위치인 이미지 좌표를 산출하는 단계; 상기 촬영 위치, 상기 카메라의 촬영 화각 및 상기 이미지 좌표 중 적어도 하나에 기초하여 실제 경기장 내에서의 상기 대상 오브젝트의 실 좌표-상기 실 좌표는 지면에 수직한 방향인 z축값을 포함함-를 획득하는 단계; 및 상기 Z축 값이 최소인 영상 프레임에 대응하는 시점을 낙구 시점으로 판단하는 단계;를 포함할 수 있다.

Description

구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법{EVENT VIDEO PROVIDING SYSTEM IN BALL GAME AND METHOD FOR DECIDING FALLING BALL POINT USING THE SAME}
구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법으로, 보다 상세하게는 이벤트 상황에 대한 이벤트 영상을 제공하는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법에 관한 것이다.
스포츠는 다양한 육체적, 정신적 활동을 의미하는 것으로 여가 등을 사람들의 일상에서 큰 여가 활동으로 자리 잡고 있다.
스포츠는 다양한 형태가 있는데 이중 공을 이용한 구기 종목은 가장 대중적인 스포츠라고 할 수 있다. 이러한 구기 종목은 직접 즐기는 사람도 많지만 대부분의 사람들은 경기장에서 관람하거나 중계를 통하여 시청하고 있다.
대부분의 스포츠에서도 심판이 존재하나, 특히나 구기 종목은 그 룰(rule)이 다양하고, 특히나 공과 사람, 특정 구역 및 라인 등과의 관계에 대한 다양한 룰이 존재한다.
이러한 룰을 이용한 판정은 심판에 의해 결정되는데, 대부분의 구기 종목에서 공의 속도는 매우 빠르기 때문에 순간적인 실수나, 신체 능력의 제한으로 인하여 잘못된 판정을 하기도 한다.
이를 위해 최근에는 배구, 야구 등에서 심판 합의 판정을 통하여 잘못된 판정을 바로 잡을 수 있는 기회를 제공하고 있는데 이러한 심판 합의 판정에는 경기를 촬영한 영상이 사용된다.
이러한 판정을 위한 영상은 종래 TV, 인터넷으로 중계하는 중계 화면에서 해당 상황에 대한 장면을 사람이 직접 편집하여 심판이 제공하는 불편함이 있었다.
본 발명의 일 과제는 카메라로부터 획득한 이미지를 이용하여 공의 낙구 시점을 판단하고, 판단된 낙구 시점으로부터 이벤트 영상을 획득하는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법을 제공하는 것이다.
본 발명의 다른 과제는 촬영된 이미지에서의 라인과 공의 위치 관계 및/또는 이미지로부터 산출된 공의 실제 좌표를 이용하여 인/아웃 여부를 판단할 수 있는 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트가 감지된 이미지 상에서 상기 대상 오브젝트의 위치인 이미지 좌표를 산출하는 단계; 상기 촬영 위치 및 상기 이미지 좌표에 기초하여 실제 경기장 내에서의 상기 대상 오브젝트의 실 좌표-상기 실 좌표는 지면에 수직한 방향인 z축값을 포함함-를 획득하는 단계; 및 상기 Z축 값이 최소인 영상 프레임에 대응하는 시점을 낙구 시점으로 판단하는 단계;를 포함하는 낙구 시점 판단 방법이 제공될 수 있다.
본 발명의 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 탄성 변형 가능한 공을 이용하여 진행되는 구기 스포츠에서 상기 공이 지면에 접촉함에 따라 발생하는 탄성 변형을 이용하여 낙구 시점 판단 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트가 감지된 프레임 및 상기 대상 오브젝트가 감지된 프레임의 이후 프레임에서의 상기 대상 오브젝트의 형태 정보를 획득하는 단계; 대상 오브젝트의 형태 정보에 기초하여 낙구 시점을 판단 하는 단계;를 포함하는 낙구 시점 판단 방법이 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 상술한 방법을 수행하기 위한 프로그램이 기록된 기록 매체가 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 전자기기로서, 상기 경기장에 설치된 복수의 카메라로부터 이미지 데이터를 획득하는 통신부; 상기 이미지 데이터로부터 이미지를 획득하고, 상기 복수의 카메라 중 이미지에서 대상 오브젝트가 검출된 카메라를 선택하여 선택된 상기 카메라로부터 획득한 이미지로부터 상기 대상 오브젝트의 이미지 좌표, 상기 대상 오브젝트 변형량, 상기 대상 오브젝트의 형태 정보, 및 상기 대상 오브젝트와 레퍼런스 오브젝트와의 차이값 중 적어도 하나를 포함하는 오브젝트 정보를 획득하고, 상기 오브젝트 정보에 포함된 변수 중 적어도 하나에 기초하여 상기 낙구 시점을 판단하는 제어부;를 포함하는 이벤트 영상 생성 전자기기가 제공될 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 의하면, 카메라로부터 획득한 이미지를 이용하여 공의 낙구 시점을 판단하고, 판단된 낙구 시점으로부터 이벤트 영상을 획득할 수 있다.
또 본 발명에 의하면, 촬영된 이미지에서의 라인과 공의 위치 관계 및/또는 이미지로부터 산출된 공의 실제 좌표를 이용하여 인/아웃 여부를 판단할 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 스포츠 영상 제공 시스템의 환경도이다.
도 2는 본 발명의 일 실시예에 따른 운영 전자기기의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 카메라 배치를 나타내는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 메인 카메라 및 서브 카메라의 상하 위치 관계를 나타내는 예시도이다.
도 5는 본 발 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 대상 오브젝트 촬영을 이용한 실 좌표 설정을 나타내는 예시도이다.
도 7은 본 발명의 일 실시예에 따른 앤드 라인 측에 위치한 카메라로부터 획득한 정면 이미지의 예시도이다.
도 8은 본 발명의 일 실시예에 따른 사이드 라인 측에 위치한 카메라로부터 획득한 측면 이미지의 예시도이다.
도 9는 본 발명의 일 실시예에 따른 측면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 10은 본 발명의 일 실시예에 따른 정면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 11은 본 발명의 일 실시예에 따른 이벤트 영상 획득을 나타내는 예시도이다.
도 12는 본 발명의 일 실시예에 따른 인/아웃 판단 방법의 순서도이다.
도 13은 본 발명의 일 실시예에 따른 인/아웃 판단을 나타내는 예시도이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성 요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조 번호들은 원칙적으로 동일한 구성 요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조 부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성 요소를 다른 구성 요소와 구분하기 위한 식별 기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 일 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 상기 공에 대응되는 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트가 감지된 이미지 상에서 상기 대상 오브젝트의 위치인 이미지 좌표를 산출하는 단계; 상기 촬영 위치 및 상기 이미지 좌표에 기초하여 실제 경기장 내에서의 상기 대상 오브젝트의 실 좌표-상기 실 좌표는 지면에 수직한 방향인 z축값을 포함함-를 획득하는 단계; 및 상기 Z축 값이 최소인 영상 프레임에 대응하는 시점을 낙구 시점으로 판단하는 단계;를 포함하는 낙구 시점 판단 방법이 제공될 수 있다.
또 상기 낙구 시점은 공이 지면과 최초 접촉하는 시점부터 상기 공이 지면으로부터 이탈하는 시점 사이의 복수의 시점 중 경기 룰에 따른 라인 인/아웃 판독의 기준이 되는 시점일 수 있다.
또 상기 낙구 시점은 상기 대상 오브젝트가 지면에 접촉하면 면적이 최대가 되는 시점일 수 있다.
또 상기 낙구 시점은 공이 지면과 최초 접촉하는 시점부터 상기 공이 지면으로부터 이탈하는 시점일 수 있다.
또 상기 이미지 좌표를 산출하는 단계는 상기 복수의 카메라 중 상기 대상 오브젝트가 감지된 프레임을 전송한 상기 카메라를 선택하여 선택된 상기 카메라로부터 획득한 프레임에서 상기 이미지 좌표를 산출하는 단계일 수 있다.
또 상기 카메라는 메인 카메라 및 서브 카메라를 포함하고, 상기 이미지 좌표를 산출하는 단계는 상기 대상 오브젝트가 감지된 프레임을 전송한 상기 카메라가 복수인 경우, 미리 정해진 우선 순위에 기초하여 상기 카메라를 선택하는 단계일 수 있다.
또 상기 우선순위는 상기 서브 카메라 및 상기 메인 카메라 순이며, 상기 서브 카메라 중 미리 정해진 개수의 상기 카메라로부터 획득한 프레임에서 상기 대상 오브젝트가 검출된 경우, 상기 서브 카메라 중 상기 미리 정해진 개수의 카메라를 선택하여 상기 이미지 좌표를 산출하고, 상기 서브 카메라 중 상기 오브젝트가 검출된 카메라가 상기 미리 정해진 개수 미만인 경우, 상기 미리 정해진 개수에서 부족한 개수의 카메라 수 만큼 상기 메인 카메라에서 선택하여 상기 이미지 좌표를 산출할 수 있다.
본 발명의 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 탄성 변형 가능한 공을 이용하여 진행되는 구기 스포츠에서 상기 공이 지면에 접촉함에 따라 발생하는 탄성 변형을 이용하여 낙구 시점 판단 방법으로서, 상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-; 상기 이미지에 포함된 프레임에서 대상 오브젝트를 감지하는 단계; 상기 대상 오브젝트가 감지된 프레임 및 상기 대상 오브젝트가 감지된 프레임의 이후 프레임에서의 상기 대상 오브젝트의 형태 정보를 획득하는 단계; 대상 오브젝트의 형태 정보에 기초하여 낙구 시점을 판단 하는 단계;를 포함하는 낙구 시점 판단 방법이 제공될 수 있다.
또 상기 낙구 시점을 판단 하는 단계는 상기 형태 정보에 포함된 상기 대상 오브젝트의 폭이 미리 정해진 기준 이상이 되는 제1 시점부터 상기 대상 오브젝트 폭이 상기 미리 정해진 기준 이하로 변화하는 제2 시점 사이의 시점 중 어느 한 시점을 상기 낙구 시점으로 판단하는 단계일 수 있다.
또 상기 낙구 시점을 판단 하는 단계는 상기 형태 정보에 포함된 상기 대상 오브젝트의 높이가 미리 정해진 기준 이하가 되는 제1 시점부터 상기 대상 오브젝트 높이가 상기 미리 정해진 기준 이상으로 변화하는 제2 시점 사이의 시점 중 어느 한 시점을 상기 낙구 시점으로 판단하는 단계일 수 있다.
또 상기 낙구 시점을 판단하는 단계는 미리 설정된 레퍼런스 오브젝트와의 차이가 미리 정해진 기준 이상인 시점을 낙구 시점으로 판단하는 단계일 수 있다.
또 상기 낙구 시점을 판단하는 단계는 최초 검출된 상기 대상 오브젝트의 오브젝트 폭 및 오브젝트 높이 중 적어도 하나의 변화량이 미리 정해진 기준 이상인 시점을 낙구 시점으로 판단하는 단계일 수 있다.
본 발명의 또 다른 양상에 따르면, 상술한 방법을 수행하기 위한 프로그램이 기록된 기록 매체가 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 전자기기로서, 상기 경기장에 설치된 복수의 카메라로부터 이미지 데이터를 획득하는 통신부; 상기 이미지 데이터로부터 이미지를 획득하고, 상기 복수의 카메라 중 이미지에서 대상 오브젝트가 검출된 카메라를 선택하여 선택된 상기 카메라로부터 획득한 이미지로부터 상기 대상 오브젝트의 이미지 좌표, 상기 대상 오브젝트 변형량, 상기 대상 오브젝트의 형태 정보, 및 상기 대상 오브젝트와 레퍼런스 오브젝트와의 차이값 중 적어도 하나를 포함하는 오브젝트 정보를 획득하고, 상기 오브젝트 정보에 포함된 변수 중 적어도 하나에 기초하여 상기 낙구 시점을 판단하는 제어부;를 포함하는 이벤트 영상 생성 전자기기가 제공될 수 있다.
도 1은 본 발명의 일 실시예에 따른 스포츠 영상 제공 시스템(10000)의 환경도이다.
도 1을 참조하면, 스포츠 영상 제공 시스템(10000)은 복수의 카메라(1000), 운영 전자기기(2000), 영상 송출 전자기기(3000) 및 판정 전자기기(4000)를 포함할 수 있다.
카메라(1000)는 운영 전자기기(2000)와 연결될 수 있다.
카메라(1000)는 획득한 이미지 데이터를 운영 전자기기(2000)로 전송할 수 있다. 예를 들어 이미지 데이터는 카메라가 획득한 이미지 신호일 수 있다. 다른 예를 들어 이미지 데이터는 이미지 픽셀에 대한 데이터일 수 있다. 다른 예를 들어 이미지 데이터는 프레임에 대한 데이터일 수 있다.
카메라(1000)는 메인 카메라(1000a) 및 서브 카메라(1000b)를 포함할 수 있다.
메인 카메라(1000a) 및 서브 카메라(1000b) 중 적어도 하나는 복수로 제공될 수 있다. 예를 들어 메인 카메라(1000a) 및 서브 카메라(1000b) 모두 복수로 제공될 수 있다.
메인 카메라(1000a)는 미리 정해진 상황에서의 이벤트 영상을 획득하기 위한 카메라(1000) 일 수 있다. 서브 카메라(1000b)는 대상 오브젝트(예를 들어 구기 종목에서 사용되는 공)의 위치를 산출하는데 사용하기 위한 이미지를 획득하기 위한 카메라(1000)일 수 있다.
메인 카메라(1000a) 및 서브 카메라(1000b)의 용도는 위에 설명된 용도에 한정되지 않으며, 상황에 따라 서로의 역할을 대체하여 수행할 수 있다. 예를 들어 미리 정해진 상황에서 메인 카메라(1000a)로부터 획득한 이벤트 영상에서 대상 오브젝트가 다른 오브젝트(예를 들어 사람이나 구조물 등)에 의해 가려진 경우, 서브 카메라(1000b)로부터 획득한 이미지로 대체하여 이벤트 영상을 획득할 수 있다. 다른 예를 들어 서브 카메라(1000b)로부터 획득한 이미지에서 대상 오브젝트가 다른 오브젝트(예를 들어 사람이나 구조물 등)에 의해 가려져 위치 산출이 불가능한 경우, 메인 카메라(1000a)로부터 획득한 이미지를 위치 산출에 사용할 수 있다.
운영 전자기기(2000)는 카메라와 연결될 수 있다.
운영 전자기기(2000)는 카메라와 연결되어 이미지 데이터를 획득할 수 있다.
운영 전자기기(2000)는 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 촬영 이미지는 복수의 프레임을 포함할 수 있다.
미리 정해진 상황에 대한 이벤트 영상을 획득할 수 있다. 이벤트 영상은 예를 들어 선택적으로 경기 영상 중계에 사용하기 위한 영상일 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 영상 송출 전자기기(3000)를 통하여 송출되는 경기 영상 중계 영상의 일부로 사용되기 위한 영상일 수 있다. 여기서, 미리 정해진 상황은 낙구 상황, 공이 네트에 터치된 상황 및 블로킹 상황 등일 수 있다.
운영 전자기기(2000)는 영상 송출 전자기기(3000)와 연결될 수 있다.
운영 전자기기(2000)는 이벤트 영상을 영상 송출 전자기기(3000)로 전송할 수 있다.
운영 전자기기(2000)는 판정 전자기기(4000)와 연결될 수 있다.
운영 전자기기(2000)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
운영 전자기기(2000)는 낙구 시점을 판단하여 이벤트 영상을 생성하는 전자기기일 수 있다.
영상 송출 전자기기(3000)는 운영 전자기기(2000)와 연결될 수 있다.
영상 송출 전자기기(3000)는 운영 전자기기(2000)로부터 이벤트 영상을 획득할 수 있다. 영상 송출 전자기기(3000)는 이벤트 영상을 외부로 송출할 수 있다.
판정 전자기기(4000)는 운영 전자기기(2000)와 연결될 수 있다.
판정 전자기기(4000)는 운영 전자기기(2000)로부터 이벤트 영상을 획득할 수 있다. 판정 전자기기(4000)는 이벤트 영상을 출력할 수 있다. 판정 전자기기(4000)는 이벤트 영상을 판정에 사용하기 위하여 출력할 수 있다. 예를 들어 판정 전자기기(4000)는 판정 영상 라인 인/아웃 판정을 위하여 이벤트 영상을 출력할 수 있다. 다른 예를 들어 판정 전자기기(4000)는 심판 합의 판정을 위하여 이벤트 영상을 출력할 수 있다.
도 2는 본 발명의 일 실시예에 따른 운영 전자기기(2000)의 블록도이다.
도 2를 참조하면 운영 전자기기(2000)는 운영 통신부(2100), 운영 디스플레이부(2200), 운영 입력부(2300), 운영 저장부(2400) 및 운영 제어부(2500)를 포함할 수 있다.
운영 통신부(2100)는 카메라(1000)와 연결될 수 있다.
운영 통신부(2100)는 카메라(1000)로부터 이미지 데이터를 획득할 수 있다.
운영 통신부(2100)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송할 수 있다.
운영 통신부(2100)는 판정 전자기기(4000)로 판정 영상을 전송할 수 있다.
운영 디스플레이부(2200)는 시각적인 정보를 출력할 수 있다.
예를 들어 디스플레이부(2200)는 운영 전자기기(2000)의 동작에 필요한 GUI(graphical user interface)를 출력할 수 있다. 다른 예를 들어 복수의 카메라(1000) 중 적어도 일부의 카메라(1000)로부터 획득한 영상을 출력할 수 있다.
운영 입력부(2300)는 사용자의 입력에 대응하는 전기 신호를 획득할 수 있다.
예를 들어 운영 입력부(2300)는 이벤트 영상의 이벤트 영상 설정에 대한 사용자의 입력을 획득할 수 있다. 다른 예를 들어 운영 입력부(2300)는 이벤트 영상의 전송 대상에 대한 사용자의 입력을 획득할 수 있다.
운영 저장부(2400)는 데이터를 저장할 수 있다.
예를 들어 운영 전자기기(2000)의 동작에 필요한 프로그램을 저장할 수 있다. 다른 예를 들어 운영 전자기기(2000)는 카메라(1000)로부터 획득한 이미지 데이터를 저장할 수 있다. 또 다른 예를 들어 운영 전자기기(2000)는 획득한 이벤트 영상을 저장할 수 있다.
운영 제어부(2500)는 운영 전자기기(2000)의 동작을 제어할 수 있다. 예를 들어 운영 제어부(2500)는 운영 전자기기(2000)에 포함된 구성 중 적어도 일부에 대한 동작을 제어할 수 있다. 다른 예를 들어 운영 제어부(2500)는 이벤트 영상 획득 동작을 제어할 수 있다.
이하에서는 도 3을 참조하여 본 발명의 일 실시예에 따른 카메라(1000)의 배치에 대하여 설명하도록 한다. 본 발명의 일 실시예에 따른 카메라(1000)의 배치는 설명의 편의를 위하여 배구장에서의 카메라(1000) 배치를 예시적으로 설명하도록 한다. 따라서, 이하에서 설명되는 카메라(1000)의 배치는 경기장의 종류, 대상 경기 종목 등에 따라 상이하게 제공될 수 있다.
도 3은 본 발명의 일 실시예에 따른 카메라(1000) 배치를 나타내는 예시도이다.
도 3에 도시된 바와 같이 경기장에는 제1 앤드 라인(L1-1), 제2 앤드 라인(L1-2), 제1 사이드 라인(L2-1) 및 제2 사이드 라인(L2-1)이 제공될 수 있다.
또한, 경기장에는 복수의 메인 카메라(1000a) 및 복수의 서브 카메라(1000b)가 제공될 수 있다.
메인 카메라(1000a)는 경기장의 미리 정해진 구역을 촬영할 수 있도록 제공될 수 있다.
메인 카메라(1000a)는 예를 들어 도 3에 도시된 바와 같이 제1 메인 카메라(1000a-1)는 제1 앤드 라인(L1-1)의 연장 선상에서 제1사이드 라인(L2-1) 측에 위치할 수 있다. 또한 제2 메인 카메라(1000a-2)는 제1 사이드 라인(L2-1)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제3 메인 카메라(1000a-3)는 제2 사이드 라인(L2-2)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제3 메인 카메라(1000a-3)는 제2 사이드 라인(L2-2)의 연장 선상에서 제1 앤드 라인(L1-1) 측에 위치할 수 있다. 또한 제4 메인 카메라(1000a-4)는 제1 앤드 라인(L1-2)의 연장 선상에서 제1 사이드 라인(L2-1) 측에 위치할 수 있다.
복수의 메인 카메라(1000a) 중 적어도 두 개의 메인 카메라(1000a)는 서로 화각의 적어도 일부가 중첩되도록 제공될 수 있다. 예를 들어 제1 메인 카메라(1000a-1)의 화각 및 제2 메인 카메라(1000a-2)의 화각은 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 메인 카메라(1000a-2)의 화각 및 제3 메인 카메라(1000a-3)의 화각 중 적어도 일부가 중첩될 수 있다.
서브 카메라(1000b)는 메인 카메라(1000a)와 비교하였을 때, 경기장을 기점으로 비교적 원거리에 위치할 수 있다. 서브 카메라(1000b)는 메인 카메라(1000a)와 비교하였을 때, 경기장을 기점으로 비교적 원거리에 위치함으로 써, 메인 카메라(1000a)보다 경기장의 상대적으로 넓은 영역을 촬영할 수 있다.
서브 카메라(1000b)는 예를 들어 도 3에 도시된 바와 같이 제1 서브 카메라(1000b-1)는 제1 사이드 라인(L2-1) 측에 제공될 수 있다. 또한 제2 서브 카메라(1000b-2)는 제1 앤드 라인 측(L1-1)에 제공될 수 있다. 또한 제3 서브 카메라(1000b-3)는 제2 사이드 라인 측(L2-2)에 제공될 수 있다.
복수의 서브 카메라(1000b) 중 적어도 두 개의 서브 카메라(1000b)는 서로 화각이 중첩되도록 제공될 수 있다. 예를 들어 제1 서브 카메라(1000b-1)의 화각 및 제2 서브 카메라(1000b-2)의 화각은 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 서브 카메라(1000b-2)의 화각 및 제3 서브 카메라(1000b-3)의 화각은 적어도 일부가 중첩될 수 있다.
또한 하나의 서브 카메라(1000b)는 적어도 하나의 메인 카메라(1000a)와 서로 화각이 중첩될 수 있다. 예를 들어 제1 서브 카메라(1000b-1)의 화각은 제1 메인 카메라(1000a-1)와 화각과 적어도 일부가 중첩될 수 있다. 다른 예를 들어 제2 서브 카메라(1000b-2)의 화각은 제2 메인 카메라(1000a-2)의 화각과 적어도 일부가 중첩될 수 있다.
도 4는 본 발명의 일 실시예에 따른 메인 카메라(1000a) 및 서브 카메라(1000b)의 상하 위치 관계를 나타내는 예시도이다.
도 4에서는 예시적으로 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)과의 상하 관계를 도시하였다.
예를 들어 도 4에 도시된 바와 같이 제1 서브 카메라(1000b)는 제1 메인 카메라(1000a)보다 상대적으로 높은 위치에 제공될 수 있다. 또한, 제1 메인 카메라(1000a)는 실질적으로 수평 한 방향에 대한 이미지를 획득할 수 있으며, 제1 서브 카메라(1000b)는 실질적으로 하향으로의 이미지를 획득할 수 있다. 제1 서브 카메라(1000b)가 제1 메인 카메라(1000a)와 비교하였을 때, 상대적으로 높은 위치에서 하향으로 이미지를 획득 함으로써, 제1 서브 카메라(1000b)가 경기장을 촬영하는 촬영 영역은 제1 서브 카메라(1000b)의 촬영 영역보다 넓게 제공될 수 있다. 따라서, 서브 카메라(1000b)는 메인 카메라(1000a)로부터 획득한 이미지에서 대상 오브젝트(b)가 다른 오브젝트에 의해 가려질 때, 메인 카메라(1000a)를 대신하여 낙구 시점 판단 등에 필요한 이미지를 제공할 수 있다.
이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 운영 전자기기(2000)의 이벤트 영상 획득 동작에 대해 설명하도록 한다.
도 5는 본 발 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법의 순서도이다.
도 5를 참조하면, 이벤트 영상 획득 방법은 촬영 이미지를 획득하는 단계(S100), 대상 오브젝트(B)를 판단하는 단계(S200), 프레임 별 대상 오브젝트(B)를 비교하는 단계(S300), 낙구 시점을 판단하는 단계(S400), 이벤트 영상을 획득하는 단계(S500) 및 이벤트 영상을 전송하는 단계(S600)을 포함할 수 있다.
운영 제어부(2500)는 촬영 이미지를 획득할 수 있다(S100).
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 일부로부터 이미지 데이터를 획득할 수 있으며, 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 촬영 이미지를 획득할 수 있다 다른 예를 들어 운영 제어부(2500)는 필요에 따라 서브 카메라(1000b)로부터 촬영 이미지를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)를 판단할 수 있다(S200).
운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B) 판단할 수 있다. 예를 들어 운영 제어부(2500)는 서브 카메라(1000b)로부터 획득한 촬영 이미지에 포함된 대상 프레임에 대상 오브젝트(B)가 존재 하는 지 여부 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B) 판단 기준에 기초하여 프레임에 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 미리 정해진 오브젝트 형태와 유사한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 제1 시점의 프레임과 제2 시점의 프레임을 서로 비교하여 제1 시점의 프레임에 포함된 오브젝트 중 제2 시점의 프레임에서 미리 정해진 거리 이상 이동한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다.'
운영 제어부(2500)는 우선순위에 따라 대상 오브젝트(B)의 존재 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 및 서브 카메라(1000b) 중 서브 카메라(1000b)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 지 여부를 우선적으로 판단할 수 있다.
운영 제어부(2500)는 제1 서브 카메라(1000b-1), 제2 서브 카메라(1000b-2) 및 제3 서브 카메라(1000b-3)로 획득한 이미지에서 대상 오브젝트(B)를 검출하지 못한 경우, 제1 메인 카메라(1000a-1), 제2 메인 카메라(1000a-2), 제3 메인 카메라(1000a-3) 및 제4 메인 카메라(1000a-4)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트 정보를 획득할 수 있다(S300).
운영 제어부(2500)는 적어도 하나의 카메라(1000)로부터 획득한 이미지에 대상 오브젝트(B)가 존재하는 경우 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 검출된 이미지를 전송한 카메라(1000) 중 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
이하에서는 예시들을 통하여 카메라(1000) 선택에 대해 설명하도록 한다.
운영 제어부(2500)는 우선적으로 서브 카메라(1000b)로부터 획득한 이미지에서 대상 오브젝트(B)가 검출된 경우 서브 카메라(1000b)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
또한 운영 제어부(2500)는 서로 다른 측면에 위치한 두 개의 카메라(1000)를 선택하여 선택된 두 개의 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 제1 서브 카메라(1000b-1), 제2 서브 카메라(1000b-2) 및 제3 서브 카메라(1000b-3)로 획득한 이미지에서 대상 오브젝트(B)가 검출된 경우, 제1 사이드 라인(L2-1)측에 위치한 제1 서브 카메라(1000b-1)와 제1 앤드 라인(L1-1)에 위치한 제2 서브 카메라(1000b-2)로부터 획득한 이미지 및 제2 사이드 라인(L2-2)측에 위치한 제3 서브 카메라(1000b-3)와 제1 앤드 라인(L1-1)에 위치한 제2 서브 카메라(1000b-2)로부터 획득한 이미지 중 적어도 하나의 이미지로부터 대상 오브젝트 정보를 획득할 수 있다.
오브젝트 정보 획득에 사용되는 카메라(1000)는 상황에 따라 대체될 수 있다.
예를 들어 서브 카메라(1000b) 중 제1 서브 카메라(1000b-1)로부터 획득한 이미지에서만 대상 오브젝트(B)가 검출되고 제2 서브 카메라(1000b-2)로부터 획득한 이미지에서는 대상 오브젝트(B)가 검출되지 않은 경우, 제2 서브 카메라(1000b-2)를 대신하여 제2 메인 카메라(1000a-2)로부터 획득한 이미지가 오브젝트 정보 획득에 사용될 수 있다.
이러한 카메라(1000)들 간의 대체 관계는 세트화 되어 미리 설정될 수 있다.
예를 들어 같은 측면에 위치한 카메라(1000)는 서로를 대체하도록 설정될 수 있다. 보다 구체적인 예를 들어 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)는 서로를 대체할 수 있도록 설정될 수 있다. 다른 구체적인 예를 들어 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3)는 제2 서브 카메라(1000b-2)와 서로를 대체할 수 있다. 또 다른 구체적 예를 들어 제4 메인 카메라(1000a-4) 및 제3 서브 카메라(1000b-3)는 서로를 대체할 수 있도록 설정될 수 있다.
다른 예를 들어 서로 마주보는 측면에 위치한 카메라(1000)는 서로를 대체하도록 설정할 수 있다. 보다 구체적인 예를 들어 제1 메인 카메라(1000a-1) 및 제1 서브 카메라(1000b-1)는 제4 메인 카메라(1000a-4) 및 제3 서브 카메라(1000b-3)와 서로 대체될 수 있다.
대상 오브젝트 정보 획득에 사용될 카메라(1000)가 선택되면 운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 대상 오브젝트 정보를 획득할 수 있다.
운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 포함된 프레임에서의 대상 오브젝트(B)의 좌표를 획득할 수 있다. 또한 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대응하는 실 좌표를 획득할 수 있다. 여기서, 실 좌표는 예를 들어 실제 경기장에서의 좌표일 수 있다.
대상 오브젝트(B)의 실 좌표를 획득하는데 있어서 좌표 획득의 기준점은 다양하게 제공될 수 있다. 예를 들어 기준점은 대상 오브젝트(B)의 최고점(예를 들어 대상 오브젝트(B)에서 Z축 값이 가장 높은 포인트)일 수 있다. 다른 예를 들어 기준점은 대상 오브젝트(B)의 최저점(예를 들어 대상 오브젝트(B)에서 Z축 값이 가장 낮은 포인트)일 수 있다. 또 다른 예를 들어 기준점은 대상 오브젝트(B)의 중심점일 수 있다.
운영 제어부(2500)는 미리 정해진 이미지 프레임에서의 좌표와 실 좌표와의 상관 관계 및/또는 이미지 프레임에서의 좌표와 실 좌표의 좌표 테이블에 기초하여 이미지 프레임의 좌표에 기초하여 실 좌표를 산출할 수 있다.
다른 예를 들어 운영 제어부(2500)는 카메라(1000) 별로 설치 위치에서 미리 촬영된 대상 오브젝트(B)의 실제 위치 및 이미지 프레임 상의 위치를 매칭하여 저장할 수 있다.
도 6은 본 발명의 일 실시예에 따른 대상 오브젝트(B) 촬영을 이용한 실 좌표 설정을 나타내는 예시도이다.
도 6에 도시된 바와 같이 운영 제어부(2500)는 제1 메인 카메라(1000a-1)의 화각 중 적어도 일부에 배치된 대상 오브젝트(B)에 대한 이미지 프레임을 획득할 수 있으며, 획득한 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대한 실 좌표를 입력 받을 수 있다. 예를 들어 운영 제어부(2500)는 도 5와 같이 촬영된 이미지 프레임에서 하나의 대상 오브젝트(B)에 대한 실 좌표 X축200, Y축 1000, Z축 0의 좌표 값을 획득할 수 있으며, 획득한 실 좌표와 대상 오브젝트(B)의 이미지 프레임 상의 좌표인 X축 10, Y축 5와 매칭하여 저장할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 서로 다른 측면에 위치한 두 개의 카메라(1000)로부터 획득한 이미지를 이용하여 대상 오브젝트(B)의 실 좌표를 획득할 수 있다.
이하에서는 도 7 및 도 8을 참조하여 본 발명의 일 실시예에 따른 두 개의 카메라(1000)를 이용한 대상 오브젝트 정보 획득에 대해서 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 앤드 라인(L1) 측에 위치한 카메라(1000)로부터 획득한 정면 이미지의 예시도이다.
도 7에 도시된 바와 같이 운영 제어부(2500)는 앤드 라인(L1) 측에 위치한 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3) 중 적어도 하나로부터 정면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 X축의 좌표 값 및 Y축의 좌표 값을 획득할 수 있다.
도 8은 본 발명의 일 실시예에 따른 사이드 라인(L2) 측에 위치한 카메라(1000)로부터 획득한 측면 이미지의 예시도이다.
도 8에 도시된 바와 같이 운영 제어부(2500)는 사이드 라인(L2) 측에 위치한 제1 메인 카메라(1000a-1) 및 제2 메인 카메라(1000a-4) 중 적어도 하나로부터 측면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 Z축의 좌표 값을 획득할 수 있다.
따라서, 운영 제어부(2500)는 정면 이미지 및 측면 이미지로부터 실 좌표 X축, Y축 및 Z축의 좌표 값을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 경우, 프레임 별 오브젝트 이미지를 비교할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 제1 프레임을 이후의 제2 프레임과 비교할 수 있으며, 제2 프레임과 이후의 제3 프레임을 비교할 수 있다.
운영 제어부(2500)는 앞선 이미지 프레임에서의 오브젝트와 이후 이미지 프레임에서의 오브젝트를 서로 비교하여 오브젝트에 대한 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 속도를 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 경로를 획득할 수 있다.
또한, 운영 제어부(2500)는 대상 오브젝트(B)의 형태 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 오브젝트 폭(Bw), 오브젝트 높이(Bh) 및 오브젝트 면적 중 적어도 하나를 포함하는 형태 정보를 획득할 수 있다.
또한, 운영 제어부(2500)는 각 프레임 별로 형태 정보를 획득할 수 있으며, 획득한 형태 정보의 변화량을 산출할 수 있다.
또한, 운영 제어부(2500)는 미리 설정된 레퍼런스 오브젝트와 대상 오브젝트(B)의 변형에 대한 변형 정보를 획득할 수 있다. 여기서 변형 정보는 대상 오브젝트(B)의 레퍼런스 오브젝트 대비 면적 변형 및 형태 변형 중 적어도 하나를 포함할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)와 레퍼런스 오브젝트의 면적 차이, 폭 차이 및 높이 차이를 산출할 수 있다.
운영 제어부(2500)는 낙구 시점을 판단할 수 있다(S400).
운영 제어부(2500)는 대상 오브젝트 정보에 기초하여 대상 오브젝트(B)가 지면과 접촉하는 낙구 시점을 판단할 수 있다. 여기서 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 중 적어도 일부의 시점일 수 있다. 예를 들어 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 전체를 의미할 수 있다. 다른 예를 들어 낙구 시점은 대상 오브젝트(B)의 지면과의 접촉면적이 최대가 되는 시점일 수 있다. 또 다른 예를 들어 낙구 시점은 상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지의 중간 시점일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표 및 대상 오브젝트(B)의 변형 등에 기초하여 대상 오브젝트(B)의 낙구 여부 및/또는 낙구 시점을 판단할 수 있다.
예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 0이되는 시점, 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 미리 정해진 좌표값이 되는 시점 및 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 최저점이 되는 시점 중 적어도 하나의 시점을 낙구 시점으로 판단할 수 있다.
다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 미리 정해진 형태로 변형된 시점을 낙구 시점으로 판단할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)를 서로 비교하여 그 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상인 경우 공이 지면에 닿은 것으로 판단할 수 있다. 공의 경우, 탄성 변형이 거의 없는 하드의 공과 탄성 변형되는 연성 재질의 공으로 구분될 수 있다. 탄성 변형이 없는 하드한 공의 경우에는 지면에 닿은 후에도 실질적으로 공의 현상에 변화가 없지만, 연성 재질로 제공되는 공의 경우에는 지면에 닿는 시점부터 탄성 변형이 시작되어 최대 탄성 변형 후 지면으로부터의 이탈 시점에 다시 원상태로 복원되게 된다. 따라서, 운영 제어부(2500)는 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)를 서로 비교하여 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상인 경우 공이 지면에 닿아 탄성 변형이 시작된 것으로 판단 수 있으며, 탄성 변형이 시작되어 최대 탄성 변형 후 다시 원상태로 복원되어 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되면 공이 지면으로부터 이탈되는 것으로 판단할 수 있다. 운영 제어부(2500)는 처음으로 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되는 제1 시점과 탄성 변형이 지속된 후 형태가 복원되는 과정에서 다시 대상 오브젝트(B)의 기준 이미지와 대상 오브젝트(B)의 형태가 일치하거나, 형태의 유사도가 미리 정해진 유사도 이상이 되는 제2 시점에 있어서 제1 시점, 제2 시점 및 제1 시점 내지 제2 시점 사이의 어느 한 시점 중 하나를 낙구 시점으로 판단할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 변형량이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 미리 정해진 기준이 되는 시점을 낙구 시점으로 판단할 수 있다. 앞서 대상 오브젝트(B)의 형태에 기초하여 낙구 시점을 판단하는 예시에서 설명한 바와 같이 연성 재질로 제공되는 공의 경우 지면과 닿는 시점부터 탄성 변형이 시작될 수 있다. 이러한 탄성 변형에 의해 공의 형태가 변형됨에 따라 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나에 변화가 생길 수 있다. 여기서 높이는 예를 들어 대상 오브젝트(B)의 기준점 중 최고점으로부터 최저점까지의 길이일 수 있다. 또한 폭은 예를 들어 대상 오브젝트(B)의 기준점 중 양 측에 대칭하여 위치한 두 포인트 사이의 거리일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 미리 정해진 길이인 경우 또는 대상 오브젝트(B)의 높이 및 폭 중 적어도 하나가 기준 길이로부터 미리 정해진 길이 이상으로 변화된 경우에 해당 시점을 낙구 시점으로 판단할 수 있다. 또한, 운영 제어부(2500)는 길이 변화가 시작된 제1 시점 및 변형 후 다시 제1 시점의 길이와 동일해 지는 제2 시점 및 제1 시점 내지 제2 시점 사이의 어느 한 시점 중 적어도 하나의 시점을 낙구 시점으로 판단할 수 있다.
도 9는 본 발명의 일 실시예에 따른 측면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 9에 도시된 바와 같이 측면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수형하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
도 10은 본 발명의 일 실시예에 따른 정면 이미지에서의 낙구 시점 판단을 나타내는 예시도이다.
도 10에 도시된 바와 같이 정면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수직하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
운영 제어부(2500)는 이벤트 영상을 획득할 수 있다(S500).
운영 제어부(2500)는 선택된 카메라(1000)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 우선적으로 메인 카메라(1000a)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있으며, 상황에 따라 서브 카메라(1000a)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표에 기초하여 가장 인접한 메인 카메라(1000a)를 최우선적으로 선택하여 이벤트 영상을 획득할 수 있다. 또한 운영 제어부(2500)는 메인 카메라(1000a) 중 대상 오브젝트(B)가 검출된 메인 카메라(1000a) 가 존재하지 않는 경우 서브 카메라(1000b) 중 가장 인접한 서브 카메라(1000b)를 선택하여 이벤트 영상을 획득할 수 있다.
도 11은 본 발명의 일 실시예에 따른 이벤트 영상 획득을 나타내는 예시도이다.
예를 들어 도 11에 도시된 바와 같이 이벤트 영상은 낙구 시점에 대한 프레임 및 낙구 시점을 기준으로 전 및/또는 후 프레임을 포함할 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 낙구 시점에 대한 프레임이 15프레임 동안 반복되도록 제공될 수 있으며, 낙구 시점을 기준으로 이전 20프레임을 포함할 수 있다. 또한, 이벤트 영상은 낙구 시점을 기준으로 이후 20 프레임을 포함할 수 있다.
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 하나의 카메라(1000)로부터 이벤트 영상을 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 서브 카메라(1000b) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 이벤트 영상을 전송하도록 제어할 수 있다(S600).
운영 제어부(2500)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송하도록 제어할 수 있다. 또한, 운영 제어부(2500)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
이하에서는 도 12를 참조하여 본 발명의 일 실시예에 따른 인/아웃 판단 방법에 대해서 설명하도록 한다.
본 발명의 일 실시예에 따른 인/아웃 판단 방법은 본 발명의 일 실시예에 따른 이벤트 영상 획득 방법에서 판정 기준 라인과 낙구 위치를 비교하는 단계(S700)가 부가된 것으로 그 외의 동작 및 구성에 대해서는 동일하다. 따라서, 본 발명의 일 실시예에 따른 인/아웃 판단 방법을 설명함에 있어서, 이벤트 영상 획득 방법과 동일한 설명에 대해서는 생략하여 설명하도록 한다.
도 12는 본 발명의 일 실시예에 따른 인/아웃 판단 방법의 순서도이다.
도 12를 참조하면 인/아웃 판단 방법은 촬영 이미지를 획득하는 단계(S100), 대상 오브젝트(B)를 판단하는 단계(S200), 프레임 별 대상 오브젝트(B)를 비교하는 단계(S300), 낙구 시점을 판단하는 단계(S400), 판정 기준 라인과 낙구 위치를 비교하는 단계(S700), 이벤트 영상을 획득하는 단계(S500) 및 이벤트 영상을 전송하는 단계(S600)을 포함할 수 있다.
운영 제어부(2500)는 촬영 이미지를 획득할 수 있다(S100).
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 일부로부터 이미지 데이터를 획득할 수 있으며, 이미지 데이터로부터 촬영 이미지를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 촬영 이미지를 획득할 수 있다 다른 예를 들어 운영 제어부(2500)는 필요에 따라 서브 카메라(1000b)로부터 촬영 이미지를 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)를 판단할 수 있다(S200).
운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B) 판단할 수 있다. 예를 들어 운영 제어부(2500)는 촬영 이미지에 포함된 대상 오브젝트(B)인 공의 존재 여부를 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B) 판단 기준에 기초하여 프레임에 오브젝트(B)가 존재하는 지 여부를 판단할 수 있다. 예를 들어 운영 제어부(2500)는 미리 정해진 오브젝트 형태와 유사한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 제1 시점의 프레임과 제2 시점의 프레임을 서로 비교하여 제1 시점의 프레임에 포함된 오브젝트 중 제2 시점의 프레임에서 미리 정해진 거리 이상 이동한 오브젝트를 대상 오브젝트(B)로 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트 정보를 획득할 수 있다(S300).
예를 들어 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표를 획득할 수 있다. 또한 운영 제어부(2500)는 이미지 프레임에서의 대상 오브젝트(B)의 좌표에 대응하는 실 좌표를 획득할 수 있다. 여기서, 실 좌표는 예를 들어 실제 경기장에서의 좌표일 수 있다.
대상 오브젝트(B)의 실 좌표를 획득하는데 있어서 좌표 획득의 기준점은 다양하게 제공될 수 있다. 예를 들어 기준점은 대상 오브젝트(B)의 최고점일 수 있다. 다른 예를 들어 기준점은 대상 오브젝트(B)의 최저점일 수 있다. 또 다른 예를 들어 기준점은 대상 오브젝트(B)의 중심점일 수 있다.
운영 제어부(2500)는 미리 정해진 이미지 프레임에서의 좌표와 실 좌표와의 상관 관계 및/또는 이미지 프레임에서의 좌표와 실 좌표의 좌표 테이블에 기초하여 이미지 프레임의 좌표에 기초하여 실 좌표를 산출할 수 있다.
다른 예를 들어 운영 제어부(2500)는 카메라(1000) 별로 설치 위치에서 미리 촬영된 대상 오브젝트(B)의 실제 위치 및 이미지 프레임 상의 위치를 매칭하여 저장할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 두 개의 카메라(1000)로부터 획득한 이미지를 이용하여 대상 오브젝트(B)의 실 좌표를 획득할 수 있다.
운영 제어부(2500)는 앤드 라인(L1) 측에 위치한 제2 메인 카메라(1000a-2) 및 제3 메인 카메라(1000a-3) 중 적어도 하나로부터 정면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 X축의 좌표 값 및 Y축의 좌표 값을 획득할 수 있다.
운영 제어부(2500)는 사이드 라인(L2) 측에 위치한 제1 메인 카메라(1000a-1) 및 제2 메인 카메라(1000a-4) 중 적어도 하나로부터 측면 이미지를 획득할 수 있다.
운영 제어부(2500)는 측면 이미지로부터 실 좌표의 Z축의 좌표 값을 획득할 수 있다.
따라서, 운영 제어부(2500)는 정면 이미지 및 측면 이미지로부터 실 좌표 X축, Y축 및 Z축의 좌표 값을 획득할 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 경우, 프레임 별 오브젝트 이미지를 비교할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 존재하는 제1 프레임을 이후의 제2 프레임과 비교할 수 있으며, 제2 프레임과 이후의 제3 프레임을 비교할 수 있다.
운영 제어부(2500)는 앞선 이미지 프레임에서의 오브젝트와 이후 이미지 프레임에서의 오브젝트를 서로 비교하여 오브젝트에 대한 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 속도를 획득할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 이동 경로를 획득할 수 있다.
운영 제어부(2500)는 낙구 시점을 판단할 수 있다(S400).
운영 제어부(2500)는 대상 오브젝트(B)가 지면과 접촉하는 낙구 시점을 판단할 수 있다. 여기서 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 중 적어도 일부의 시점일 수 있다. 예를 들어 낙구 시점은 대상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지 전체를 의미할 수 있다. 다른 예를 들어 낙구 시점은 대상 오브젝트(B)의 지면과의 접촉면적이 최대가 되는 시점일 수 있다. 또 다른 예를 들어 낙구 시점은 상 오브젝트(B)가 지면과 접촉을 시작하는 시점부터 지면으로부터 이탈하는 시점까지의 중간 시점일 수 있다.
운영 제어부(2500)는 대상 오브젝트(B)의 실 좌표 및 대상 오브젝트(B)의 변형 중 적어도 하나에 기초하여 대상 오브젝트(B)의 낙구 여부 및/또는 낙구 시점을 판단할 수 있다.
예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 실좌표값 중 Z축의 값이 0이되는 시점을 낙구 시점으로 판단할 수 있다.
다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)가 미리 정해진 형태로 변형된 시점을 낙구 시점으로 판단할 수 있다.
또 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 변형량이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다.
측면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수형하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
정면 이미지에서는 낙구 시점에 대상 오브젝트(B)가 지면에 접촉함에 따라 탄성력에 의해 진행 방향과 수직하게 탄성 변형될 수 있다.
운영 제어부(2500)는 예를 들어 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 미리 정해진 변형량 이상인 경우 낙구 시점으로 판단할 수 있다. 다른 예를 들어 운영 제어부(2500)는 대상 오브젝트(B)의 진행 방향과 수직으로의 탄성 변형이 최대가 되는 시점을 낙구 시점으로 판단할 수 있다.
운영 제어부(2500)는 판정 기준 라인과 낙구 위치를 비교할 수 있다(S700).
운영 제어부(2500)는 판정 기준 라인과 낙구 위치를 비교하여 판정 정보를 획득할 수 있다. 예를 들어 운영 제어부(2500)는 인(IN)/아웃(OUT)에 대한 판정 정보를 획득할 수 있다.
판정 기준 라인은 미리 설정될 수 있다. 예를 들어 이미지에서의 판정 라인 영역이 미리 설정될 수 있다.
또한 판정 기준 라인은 운영 제어부(2500)에 의해 검출될 수 있다. 예를 들어 운영 제어부(2500)는 이미지 트래킹을 이용하여 이미지에서 판정 기준 라인을 검출할 수 있다. 보다 구체적인 예를 들어 경기장에서 바닥에 그려 진 판정 기준 라인은 주변 경기장 바닥과는 다른 색으로(예를 들어 경기 장 바닥이 녹색인 경우 판정 기준 라인은 흰색으로 제공) 제공될 수 있으며, 운영 제어부(2500)는 판정 기준 라인과 주변 경기장 바닥과의 색 차이에 기초하여 판정 기준 라인의 영역을 검출할 수 있다.
도 13은 본 발명의 일 실시예에 따른 인/아웃 판단을 나타내는 예시도이다.
도 13에 도시된 바와 같이 운영 제어부(2500)는 판정 기준 라인과 낙구 위치와의 관계에 기초하여 인/아웃 여부를 판단할 수 있다.
도 13(a)와 같이 낙구 위치가 라인상인 경우 운영 제어부(2500)는 인으로 판단할 수 있다. 운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 라인 영역 상인 경우 인으로 판단할 수 있다.
도 13(b)와 같이 낙구 위치가 인영역(IA)인 경우 운영 제어부(2500)는 인으로 판단할 수 있다.
운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 인 영역(IA)인 경우 인으로 판단할 수 있다.
도 13(c)와 같이 낙구 위치가 아웃 영역(OA)인 경우 운영 제어부(2500)는 아웃으로 판단할 수 있다. 운영 제어부(2500)는 산출된 낙구 위치의 실 좌표가 아웃 영역(OA)인 경우 인으로 판단할 수 있다.
도 13(d)와 같이 낙구 위치가 아웃 영역(OA)인 상태에서 대상 오브젝트(B)의 영역이 판정 기준 라인 영역과 겹치는 경우 운영 제어부(2500)는 인으로 판단할 수 있다.
운영 제어부(2500)는 공의 탄성 변형을 더 고려하여 인/아웃을 판단할 수 있다.
운영 제어부(2500)는 낙구 시점에서의 대상 오브젝트(B)의 오브젝트 높이(Bh)를 산출할 수 있다. 운영 제어부(2500)는 오브젝트 높이(Bh)에 대응하는 공의 탄성 변형량을 산출할 수 있으며, 변성 변형량에 따른 공의 면적 변화를 고려하여 인/아웃을 판단할 수 있다.
운영 제어부(2500)는 대상 오브젝트의 실 좌표 및 면적 변화에 따라 늘어난 면적에 의해 대상 오브젝트의 영역이 라인 영역과 중첩되는지 여부를 판단할 수 있으며, 대상 오브젝트의 영역이 라인 영역과 중첩되는 경우 인으로 판단할 수 있다.
운영 제어부(2500)는 이벤트 영상을 획득할 수 있다(S500).
이벤트 영상은 낙구 시점에 대한 프레임 및 낙구 시점을 기준으로 전 및/또는 후 프레임을 포함할 수 있다. 보다 구체적인 예를 들어 이벤트 영상은 낙구 시점에 대한 프레임이 15프레임 동안 반복되도록 제공될 수 있으며, 낙구 시점을 기준으로 이전 20프레임을 포함할 수 있다. 또한, 이벤트 영상은 낙구 시점을 기준으로 이후 20 프레임을 포함할 수 있다.
운영 제어부(2500)는 복수의 카메라(1000) 중 적어도 하나의 카메라(1000)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다. 예를 들어 운영 제어부(2500)는 메인 카메라(1000a) 중 적어도 하나로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다. 보다 구체적인 예를 들어 운영 제어부(2500)는 메인 카메라(1000a)로부터 획득한 이미지 중 낙구 시점의 프레임 15프레임, 낙구 시점을 기준으로 이전 20프레임 및 낙구 시점을 기준으로 이후 20프레임을 획득하여
다른 예를 들어 운영 제어부(2500)는 서브 카메라(1000b) 중 적어도 하나로부터 이벤트 영상을 획득할 수 있다. 또 다른 예를 들어 적어도 하나의 메인 카메라(1000a)와 적어도 하나의 서브 카메라(1000b)로부터 획득한 이미지에 기초하여 이벤트 영상을 획득할 수 있다.
운영 제어부(2500)는 이벤트 영상을 전송하도록 제어할 수 있다(S600).
운영 제어부(2500)는 영상 송출 전자기기(3000)로 이벤트 영상을 전송하도록 제어할 수 있다. 또한, 운영 제어부(2500)는 사용자의 입력 및/또는 판정 전자기기(4000)의 요청에 따라 이벤트 영상을 판정 전자기기(4000)로 전송할 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.
10000 구기 경기 중계 시스템 1000 카메라
2000 운영 전자기기 2100 운영 통신부
2200 운영 디스플레이부 2300 운영 입력부
2400 운영 저장부 2500 운영 제어부
3000 영상 송출 전자기기 4000 판정 전자기기

Claims (14)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 탄성 변형 가능한 공을 이용하여 진행되는 구기 스포츠에서 상기 공이 지면에 접촉함에 따라 발생하는 탄성 변형을 이용하여 낙구 시점 판단 방법으로서,
    상기 경기장의 주변의 위치한 복수의 카메라 중 서로 다른 촬영 위치에 위치한 상기 카메라로부터 이미지를 회득하는 단계-이때, 상기 복수의 카메라 각각으로부터 획득한 이미지는 다른 카메라의 촬영 영역과 적어도 일부가 중첩됨-;
    상기 이미지에 포함된 프레임에서 대상 오브젝트를 감지하는 단계;
    상기 대상 오브젝트가 감지된 프레임 및 상기 대상 오브젝트가 감지된 프레임의 이후 프레임에서의 상기 대상 오브젝트의 형태 정보를 획득하는 단계;
    대상 오브젝트의 형태 정보에 기초하여 낙구 시점을 판단 하는 단계;를 포함하는
    낙구 시점 판단 방법.
  9. 제8 항에 있어서,
    상기 낙구 시점을 판단 하는 단계는 상기 형태 정보에 포함된 상기 대상 오브젝트의 폭이 미리 정해진 기준 이상이 되는 제1 시점부터 상기 대상 오브젝트 폭이 상기 미리 정해진 기준 이하로 변화하는 제2 시점 사이의 시점 중 어느 한 시점을 상기 낙구 시점으로 판단하는 단계인
    낙구 시점 판단 방법.
  10. 제8 항에 있어서,
    상기 낙구 시점을 판단 하는 단계는 상기 형태 정보에 포함된 상기 대상 오브젝트의 높이가 미리 정해진 기준 이하가 되는 제1 시점부터 상기 대상 오브젝트 높이가 상기 미리 정해진 기준 이상으로 변화하는 제2 시점 사이의 시점 중 어느 한 시점을 상기 낙구 시점으로 판단하는 단계인
    낙구 시점 판단 방법.
  11. 제8 항에 있어서,
    상기 낙구 시점을 판단하는 단계는 미리 설정된 레퍼런스 오브젝트와의 차이가 미리 정해진 기준 이상인 시점을 낙구 시점으로 판단하는 단계인
    낙구 시점 판단 방법.
  12. 제8 항에 있어서,
    상기 낙구 시점을 판단하는 단계는 최초 검출된 상기 대상 오브젝트로의 오브젝트 폭 및 오브젝트 높이 중 적어도 하나의 변화량이 미리 정해진 기준 이상인 시점을 낙구 시점으로 판단하는 단계인
    낙구 시점 판단 방법.
  13. 제8항 내지 제12항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 기록 매체.
  14. 미리 정해진 규격에 따라 실내 또는 실외에 제공되는 경기장에서 공을 이용하여 진행되는 구기 스포츠에서 상기 공과 상기 경기장의 지면에 그려 진 라인의 위치 관계에 따라 라인 인/아웃 여부를 판정하는 비디오 판독에 이용되는 낙구 시점 판단 전자기기로서,
    상기 경기장에 설치된 복수의 카메라로부터 이미지 데이터를 획득하는 통신부;
    상기 이미지 데이터로부터 이미지를 획득하고, 상기 복수의 카메라 중 이미지에서 대상 오브젝트가 검출된 카메라를 선택하여 선택된 상기 카메라로부터 획득한 이미지로부터 상기 대상 오브젝트를 감지하고, 상기 대상 오브젝트가 감지된 프레임 및 상기 대상 오브젝트가 감지된 프레임의 이후 프레임에서의 상기 대상 오브젝트의 형태 정보를 획득하고, 대상 오브젝트의 형태 정보에 기초하여 낙구 시점을 판단 하는 제어부;를 포함하는
    낙구 시점 판단 전자기기.
KR1020160107017A 2016-08-23 2016-08-23 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법 KR101924572B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160107017A KR101924572B1 (ko) 2016-08-23 2016-08-23 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160107017A KR101924572B1 (ko) 2016-08-23 2016-08-23 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법

Publications (2)

Publication Number Publication Date
KR20180022114A KR20180022114A (ko) 2018-03-06
KR101924572B1 true KR101924572B1 (ko) 2018-12-03

Family

ID=61727445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160107017A KR101924572B1 (ko) 2016-08-23 2016-08-23 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법

Country Status (1)

Country Link
KR (1) KR101924572B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102282356B1 (ko) 2020-09-15 2021-07-27 주식회사 스포잇 IoT 기반의 스포츠 모니터링 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5489886A (en) 1992-08-07 1996-02-06 Alos-Officiating Tennis System Limited Automatic line officiating system and method thereof
JP2005181037A (ja) 2003-12-18 2005-07-07 Mitsubishi Electric Corp 目標位置検出装置
US20130039538A1 (en) * 2011-08-12 2013-02-14 Henri Johnson Ball trajectory and bounce position detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5489886A (en) 1992-08-07 1996-02-06 Alos-Officiating Tennis System Limited Automatic line officiating system and method thereof
JP2005181037A (ja) 2003-12-18 2005-07-07 Mitsubishi Electric Corp 目標位置検出装置
US20130039538A1 (en) * 2011-08-12 2013-02-14 Henri Johnson Ball trajectory and bounce position detection

Also Published As

Publication number Publication date
KR20180022114A (ko) 2018-03-06

Similar Documents

Publication Publication Date Title
KR101879368B1 (ko) 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 인/아웃 판단 방법
US8466913B2 (en) User interface for accessing virtual viewpoint animations
JPWO2019225681A1 (ja) 校正装置および校正方法
US7341530B2 (en) Virtual strike zone
US8154633B2 (en) Line removal and object detection in an image
US20170309077A1 (en) System and Method for Implementing Augmented Reality via Three-Dimensional Painting
JP4389901B2 (ja) スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム
US20090128549A1 (en) Fading techniques for virtual viewpoint animations
US20090128577A1 (en) Updating backround texture for virtual viewpoint animations
KR101888747B1 (ko) 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 이벤트 영상 생성 방법
KR102475994B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
KR101924572B1 (ko) 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법
US20240104793A1 (en) Adding augmented reality to a sub-view of a high resolution central video feed
KR101888748B1 (ko) 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 낙구 시점 판단 방법
KR101188286B1 (ko) 골프 시뮬레이션 시스템 및 그 제어방법
EP3836081A1 (en) Data processing method and apparatus
US20230353717A1 (en) Image processing system, image processing method, and storage medium
CN103606174B (zh) 一种在足球场地画面上叠加虚拟图形的操作方法及装置
JP2015217122A (ja) 画像報知装置、撮像装置、画像報知方法及び画像報知プログラム
CN112989905A (zh) 从图像判定运动员的手球的设备、计算机程序以及方法
JP7304747B2 (ja) 画像処理装置、制御方法及び制御プログラム
JP7442089B2 (ja) 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
JP7289630B2 (ja) 画像処理装置
KR101737587B1 (ko) 스포츠 경기 관리 장치 및 방법
JP6965975B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant