KR20130139151A - Method and system of displaying user-selectable picture - Google Patents

Method and system of displaying user-selectable picture Download PDF

Info

Publication number
KR20130139151A
KR20130139151A KR1020120146681A KR20120146681A KR20130139151A KR 20130139151 A KR20130139151 A KR 20130139151A KR 1020120146681 A KR1020120146681 A KR 1020120146681A KR 20120146681 A KR20120146681 A KR 20120146681A KR 20130139151 A KR20130139151 A KR 20130139151A
Authority
KR
South Korea
Prior art keywords
user
image information
location
information
displaying
Prior art date
Application number
KR1020120146681A
Other languages
Korean (ko)
Other versions
KR102055614B1 (en
Inventor
양회성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/907,159 priority Critical patent/US9693108B2/en
Publication of KR20130139151A publication Critical patent/KR20130139151A/en
Application granted granted Critical
Publication of KR102055614B1 publication Critical patent/KR102055614B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

The present invention relates to a method for displaying user-selected images and a system in which viewers can actively watch images filmed with selected objects after the viewers select specific objects from camera images broadcasted in real time. [Reference numerals] (110) Object extracting unit;(120) Location tracing unit;(130) Display control unit;(140) Image extractor unit

Description

사용자 선택 영상을 표시하는 방법 및 시스템{METHOD AND SYSTEM OF DISPLAYING USER-SELECTABLE PICTURE}METHOD AND SYSTEM OF DISPLAYING USER-SELECTABLE PICTURE}

본 발명의 일실시예들은 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체를 포함하여 촬영되는 영상을 시청자가 능동적으로 선택하여 시청할 수 있게 하는 사용자 선택 영상을 표시하는 방법 및 시스템에 관한 것이다.One embodiment of the present invention provides a method and system for displaying a user selected image that allows a viewer to actively select and view an image to be photographed including a selected object from an image of a camera relayed in real time, .

종래의 중계 방송은 다수의 카메라로부터 수집된 다수의 영상 정보를 방송국의 관제 센터에서 일괄 수집하고, 상기 다수의 영상 정보 중에서, 예컨대 프로듀서가 선택한 특정의 영상 정보(이하, '편집 영상 정보'라 함)를 각 시청자에게 일괄 방송하는 구조이다.Conventional broadcast broadcasts collectively collect a plurality of video information collected from a plurality of cameras in a control center of a broadcasting station, and among the plurality of video information, for example, specific video information selected by a producer (hereinafter referred to as 'edited video information'). ) Is broadcasted to each viewer collectively.

즉, 종래의 중계 방송은 방송국에서 송출하는 일방의 편집 영상 정보를 시청자가 수동적으로 시청하도록 하는 것이며, 시청자의 입장에서 화면에 대한 선택권이 없어 제한된 방송 서비스 만을 제공받게 되는 한계가 있어 왔다.In other words, the conventional broadcast broadcast is to allow the viewer to passively watch one of the edited video information transmitted from the broadcast station, and there is a limit in that only the limited broadcast service is provided because there is no option for the screen from the viewer's point of view.

따라서, 시청자가 특정 객체를 촬영한 다수의 방송 영상으로부터 원하는 영상을 능동적으로 선택하여 시청할 수 있는 기술의 등장이 절실히 요구되고 있다.Accordingly, there is an urgent need for a technology that enables a viewer to actively select and view a desired image from a plurality of broadcast images photographing a specific object.

본 발명의 일실시예는 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체가 포함되는 중계 영상을 사용자가 선택하여 시청하도록 하는 것을 그 목적으로 한다.One embodiment of the present invention is to select a specific object from the image of the camera relayed in real time, and to allow the user to select and watch the relay image including the selected object.

또한, 본 발명은, 영상에 포함되는 객체 각각에 대해 위치를 추적하고, 추적된 위치를 화면상에 실시간으로 표시 함으로써, 사용자가 보고자 하는 객체를 선택하고, 선택된 객체를 포함하는 영상의 선택이 원활히 이루어지게 하는 것을 목적으로 한다.In addition, the present invention, by tracking the position of each object included in the image, and displays the tracked position on the screen in real time, the user to select the object to view, and smoothly the selection of the image including the selected object It aims to be done.

또한, 본 발명은 방송국으로부터 일방적으로 송출되는 편집 영상 정보가 아닌, 사용자가 능동적으로 선택한 영상 정보를 시청할 수 있게 하여, 사용자의 화면 선택을 최대한 보장한다.In addition, the present invention enables the user to watch the video information actively selected by the user rather than the edited video information unilaterally transmitted from the broadcasting station, thereby ensuring the user's screen selection as much as possible.

상기의 목적을 이루기 위한, 사용자 선택 영상을 표시하는 방법은, 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 단계와, 상기 추출된 객체에 아이디를 부여하는 단계와, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하는 단계와, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 단계, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계를 포함할 수 있다.In order to achieve the above object, a method of displaying a user-selected image, the method comprising the steps of extracting an object from the image information generated by a plurality of cameras, assigning an ID to the extracted object, and Classifying the image information based on the reference, using the classified image information to track a location of the object, and displaying location map information mapping the tracked location on at least a portion of the screen. It may include a step.

또한, 본 발명의 따른 실시예에 따른, 사용자 선택 영상을 표시하는 방법은, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 단계와, 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 단계, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계를 포함하여 구현할 수 있다.In addition, the method for displaying a user-selected image according to an embodiment of the present invention, identifying the image information including the first selected object from the image information generated by the plurality of cameras, and the identified image And using the information, tracking the location of the first selected object, and displaying location map information for mapping the tracked location on at least a portion of the screen.

또한, 상기 목적을 달성하기 위한 기술적 구성으로서, 사용자 선택 영상 표시 시스템은, 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 객체 추출부와, 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하며, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 위치 추적부, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부를 포함할 수 있다.In addition, as a technical configuration for achieving the above object, the user-selected video display system, the object extraction unit for extracting the object from the image information generated by a plurality of cameras, and the ID to the extracted object, the grant Classifying the image information based on the received ID, and using the classified image information, a location tracking unit for tracking a location of the object, and location map information for mapping the tracked location to at least a portion of a screen. It may include a display control unit displayed on.

또한, 다른 실시예에서, 사용자 선택 영상 표시 시스템은, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 영상 추출부와, 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 위치 추적부, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부를 포함할 수 있다.Also, in another embodiment, the user-selected image display system may include an image extractor that identifies image information including a first selected object among image information generated by a plurality of cameras, and using the identified image information. The display apparatus may include a location tracking unit that tracks a location of the first selected object, and a display controller that displays location map information that maps the tracked location on at least a portion of a screen.

본 발명의 일실시예에 따르면, 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체가 포함되는 중계 영상을 사용자가 선택하여 시청하도록 할 수 있다.According to an embodiment of the present invention, a specific object may be selected from an image of a camera relayed in real time, and a user may select and watch a relay image including the selected object.

또한, 본 발명에 의해서는, 영상에 포함되는 객체 각각에 대해 위치를 추적하고, 추적된 위치를 화면 상에 실시간으로 표시 함으로써, 사용자가 보고자 하는 객체를 선택하고, 선택된 객체를 포함하는 영상의 선택이 원활히 이루어지게 할 수 있다.In addition, according to the present invention, by tracking the position of each object included in the image, and displays the tracked position in real time on the screen, the user selects the object to be viewed, the selection of the image including the selected object This can be done smoothly.

또한, 본 발명에 따르면, 방송국으로부터 일방적으로 송출되는 편집 영상 정보가 아닌, 사용자가 능동적으로 선택한 영상 정보를 시청할 수 있게 하여, 사용자의 화면 선택을 최대한 보장할 수 있다.According to the present invention, it is possible to ensure the user's screen selection as much as possible by allowing the user to watch the video information actively selected by the user, rather than the edited video information unilaterally transmitted from the broadcasting station.

도 1은 본 발명의 일실시예에 따른 사용자 선택 영상 표시 시스템을 도시한 블록도이다.
도 2는 위치 맵 정보의 일례를 나타내는 도면이다.
도 3은 위치 맵 정보와 제1 선택된 객체를 포함하는 영상 정보를 화면 상에 표시하는 일례를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 선택 영상을 표시하는 방법을 구체적으로 도시한 작업 흐름도이다.
1 is a block diagram illustrating a user-selected video display system according to an embodiment of the present invention.
2 is a diagram illustrating an example of location map information.
3 is a diagram illustrating an example of displaying location map information and image information including a first selected object on a screen.
4 is a flowchart illustrating a method of displaying a user selection image in detail according to an embodiment of the present invention.

이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.

본 명세서에서 지속적으로 사용하는, '객체(object)'는 촬영 대상체로서, 예컨대 사람, 동물 등의 유기체, 이동체 및 고정체 등 카메라의 시선 초점이 형성되는 외부체를 지칭할 수 있다. 특히, 본 명세서에서는 영상 정보에 포함되며, 정보 가치가 있는 물체를 의미할 수 있다. 예컨대, 축구 경기를 촬영하는 카메라에 의해 생성되는, 영상 정보에서의 객체는, 상기 축구 경기에 참여하는 운동 선수 일 수 있다.As used herein, the term 'object' may refer to an external object in which a gaze focus of a camera is formed, such as an object such as a human or an animal, a moving object, and a fixed object. In particular, in the present specification, it may mean an object included in the image information and having information value. For example, an object in the image information, which is generated by a camera shooting a soccer game, may be an athlete participating in the soccer game.

카메라를 통해 생성된 영상 정보에는, 주로 촬영 대상이 되는 주객체 이외에, 상기 주객체와 함께 촬영된 부객체 등을 포함할 수 있다.The image information generated by the camera may include, in addition to the main object to be mainly captured, a sub-object photographed together with the main object.

이에 따라, 본 발명의 사용자 선택 영상 시스템에서는, 주객체, 부객체를 막론하고, 개별 객체들을 고려하여 복수의 영상 정보를 분류 함으로써, 분류된 영상 정보들을 통해 임의의 객체가 이동하는 경로를 추적하는 환경을 조성할 수 있게 한다.Accordingly, in the user-selected video system of the present invention, by classifying a plurality of image information in consideration of individual objects regardless of the main object and sub-objects, a path for moving an arbitrary object through the classified image information is tracked. It helps to create an environment.

도 1은 본 발명의 일실시예에 따른 사용자 선택 영상 표시 시스템을 도시한 블록도이다.1 is a block diagram illustrating a user-selected video display system according to an embodiment of the present invention.

도 1을 참조하면, 사용자 선택 영상 표시 시스템(100)은 객체 추출부(110), 위치 추적부(120) 및 표시 제어부(130)를 포함하여 구성할 수 있다.Referring to FIG. 1, the user-selected video display system 100 may include an object extractor 110, a location tracker 120, and a display controller 130.

우선, 객체 추출부(110)는 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출한다. 즉, 객체 추출부(110)는 영상 정보에 포함되어 있는 객체를 식별하는 기능을 한다.First, the object extractor 110 extracts an object from image information generated by a plurality of cameras. That is, the object extracting unit 110 functions to identify the object included in the image information.

예컨대, 축구 경기에서 공을 잡고 있는 A 선수를 중심으로 촬영되어 생성된 영상 정보로부터, 객체 추출부(110)는, 상기 A 선수와, 상기 A 선수를 수비하는 상대팀의 B 선수, 상기 A 선수로부터 공이 건네지길 대기하는 같은 팀의 C 선수 등을 객체로 추출할 수 있다.For example, from the video information generated by photographing the player A who is holding the ball in a soccer game, the object extracting unit 110 includes the player A, the player B of the opposing team defending the player A, and the player A. You can extract a C player, etc., from the same team waiting to be handed over to you as an object.

영상 정보로부터 객체를 추출하는 기법은, 객체의 윤곽선 정보를 이용한 추출 방식, 객체의 주요 특징 점을 이용한 추출 방식, 3D 모델 기반 또는 영역 기반 추출 방식 등을 예시할 수 있고, 본 발명의 객체 추출부(110)는 이러한 공지의 기법들을 유효 적절하게 활용하여 영상 정보로부터 객체를 추출하게 된다.The technique of extracting an object from image information may include an extraction method using contour information of the object, an extraction method using main feature points of the object, a 3D model-based or region-based extraction method, and the like. 110 effectively extracts the object from the image information by utilizing the known techniques effectively.

위치 추적부(120)는 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류한다. 즉, 위치 추적부(120)는 수집된 복수의 영상 정보에서 추출된 객체 정보를 바탕으로 전체 객체의 위치 정보를 정렬하여 통합 맵을 생성하는 기능을 한다.The location tracking unit 120 assigns an ID to the extracted object and classifies the image information based on the assigned ID. That is, the location tracking unit 120 functions to generate the integrated map by aligning the location information of all objects based on the object information extracted from the collected plurality of image information.

또한, 위치 추적부(120)는 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류할 수 있다.In addition, the location tracking unit 120 may assign an ID to the extracted object and classify the image information based on the assigned ID.

상기 영상 정보의 분류에 있어서, 위치 추적부(120)는 영상 정보가 생성된 생성 시간을 고려하여 정렬시켜 분류 처리할 수 있다.In the classification of the image information, the location tracking unit 120 may sort and process the image information in consideration of the generation time when the image information is generated.

또한 다른 실시예에서, 상기 위치 추적부(120)는 복수의 영상 정보에서 추출된 객체 정보에 개별 아이디를 부여할 수 있고, 상기 개별 아이디의 정보를 기준으로 정렬시켜 분류 처리할 수 있다.In another embodiment, the location tracking unit 120 may assign an individual ID to the object information extracted from the plurality of image information, and may sort and sort the information based on the information of the individual ID.

예컨대, 앞서의 축구 경기에서, A 선수와 B 선수를 객체로 포함한 영상 정보 #1과, A 선수와 C 선수를 객체로 포함한 영상 정보 #2가 생성되는 조건에서, 위치 추적부(120)는 A 선수를 포함하는 영상 정보 #1 및 #2를, 생성 순서에 따라 정렬하여 분류하거나, A 선수, B 선수, C 선수 각각에 A, B, C라는 아이디를 부여하고 아이디 A 만 있는 영상만 별도로 관리할 수 있다.For example, in the above soccer game, under the condition that the image information # 1 including the A player and the B player as the object and the image information # 2 including the A player and the C player as the object are generated, the position tracking unit 120 is A The video information # 1 and # 2 including the players can be sorted and sorted according to the generation order, or A, B, C players are assigned IDs A, B, C, and only the videos with ID A are managed separately. can do.

또한, 위치 추적부(120)는, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적한다. 즉, 위치 추적부(120)는, 생성 시간별 또는 아이디별로 정렬하여 분류한 영상 정보에 대해, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하고, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 역할을 한다.In addition, the location tracking unit 120 tracks the location of the object by using the classified image information. That is, the position tracking unit 120 specifies the position coordinates of the object with respect to each of the sorted image information with respect to the image information sorted by generation time or by ID, in consideration of the photographing point of the camera. It serves to track the position of the object based on the specified position coordinates.

예컨대, 앞서의 축구 경기와 관련하여, 객체 A 선수와 연관하여 정렬, 분류된 영상 정보 #1 및 #2에 대해, 위치 추적부(120)는 상대적으로 먼저 생성된 영상 정보 #1 내 A 선수의 위치를 (1024, 1024)로 결정하고, 이어서 영상 정보 #2 내 A 선수의 위치를 (-1024, -1024)를 결정할 수 있고, 이를 통해, A 선수가 좌표 (1024, 1024)에서 좌표 (-1024, -1024)로 이동 했음을 위치 추적할 수 있다.For example, in relation to the above soccer game, for the image information # 1 and # 2 aligned and classified in association with the player A, the position tracking unit 120 may determine the position of the player A in the image information # 1 generated relatively earlier. Determine the position as (1024, 1024), and then determine the position of player A in the image information # 2 (-1024, -1024), whereby the player A coordinates (-) in coordinates (1024, 1024) 1024, -1024) to track location.

이때, 위치 추적부(120)는 영상 정보 마다, 예컨대 카메라의 촬영 지점 또는 기선정된 영상 정보 내 특이점(예, 랜드마크 등)을 원점으로 하는, 가상의 좌표계를 설정하고, 설정된 좌표계에서 객체 A 선수에 대한 좌표를 결정할 수 있다.In this case, the position tracking unit 120 sets an imaginary coordinate system that sets the virtual coordinate system, which is based on the shooting point of the camera or the singular point (eg, landmark, etc.) in the predetermined image information, for each image information, and sets the object A in the set coordinate system. You can determine the coordinates for the athlete.

다른 일례에서, 위치 추적부(120)는, 각 객체에 부착된 위치 추적 장치로부터 입력되는 위치 정보에 기초하여 상기 객체의 위치를 추적할 수 있다. 여기서, 위치 추적 장치는 무선통신을 이용한 위치추적 장치 일 수 있다.In another example, the location tracking unit 120 may track the location of the object based on location information input from the location tracking device attached to each object. Here, the location tracking device may be a location tracking device using wireless communication.

또한, 실시예에 따라, 위치 추적부(120)는 객체를 구분하여 객체의 위치를 추적한다. 예컨대, 위치 추적부(120)는 상기 객체가 속하는 그룹을 고려하여 결정된 컬러로 구분하여, 상기 객체의 위치를 추적할 수도 있다. 즉, 위치 추적부(120)는 복수의 객체를 그룹별로 분류하고, 각 그룹에 할당되는 색을 통해, 객체의 위치를 구별하여 추적할 수 있게 한다.Also, according to an embodiment, the location tracking unit 120 classifies the objects to track the location of the objects. For example, the location tracking unit 120 may track the location of the object by classifying the color into a color determined by considering the group to which the object belongs. That is, the location tracking unit 120 classifies the plurality of objects into groups, and distinguishes and tracks the location of the objects through colors assigned to each group.

예컨대, 앞서의 축구 경기에서, 위치 추적부(120)는 객체 A 선수와 객체 C 선수를 같은 팀의 동일 그룹으로 분류할 수 있고, 객체 B 선수는 다른 그룹으로 분류할 수 있다. 더불어, 위치 추적부(120)는 객체 A 선수와 객체 C 선수가 분류된 그룹에 할당되는 레드(red)로, 상기 객체 A, C 선수에 대해 위치 추적하고, 반면 객체 B 선수가 분류된 그룹에 할당되는 옐로우(yellow)로, 상기 객체 B 선수에 대해 위치 추적을 수행할 수 있다.For example, in the above soccer game, the position tracking unit 120 may classify the object A player and the object C player into the same group of the same team, and the object B player may be classified into another group. In addition, the position tracking unit 120 tracks the position of the object A and the player C in red, which is assigned to the group in which the object A player and the object C player are classified, while the object B player is in the classified group. With yellow being assigned, location tracking can be performed for the object B player.

표시 제어부(130)는 상기 추적된 객체의 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시한다. 즉, 표시 제어부(130)는 객체들의 실시간 위치 관계를 위치 맵 정보로서, 화면 상에 나타내는 기능을 한다.The display controller 130 displays location map information for mapping the location of the tracked object on at least a portion of the screen. That is, the display controller 130 functions to display the real-time positional relationship of the objects on the screen as location map information.

위치 맵 정보의 표시에 있어서, 표시 제어부(130)는, 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 분할된 화면(예, 화면 분할 형태)에 표시할 수 있다. 이를 통해, 표시 제어부(130)는 위치 맵 정보가, 화면 상에 표시되게 하고, 사용자로 하여금 객체들의 실시간 위치 관계가 지속적으로 인식될 수 있게 한다.In the display of the location map information, the display control unit 130 may display the location map information on a picture in picture (PIP) form or a divided screen (eg, a screen division form) on the screen. In this way, the display controller 130 causes the location map information to be displayed on the screen and allows the user to continuously recognize the real-time positional relationship of the objects.

도 2는 위치 맵 정보의 일례를 나타내는 도면이다.2 is a diagram illustrating an example of location map information.

도 2에서는 축구 경기와 관련하여 생성된 영상 정보로부터 추출된 복수의 객체를, 소속되는 팀을 고려하여 3개의 그룹으로 분류하는 위치 맵 정보를 예시한다.2 illustrates location map information for classifying a plurality of objects extracted from image information generated in relation to a football game into three groups in consideration of a team to which the team belongs.

위치 추적부(120)는 먼저 그룹 Ⅰ로, 상술의 객체 C 선수를 포함하여 A 선수와 동일 팀에 속하는 객체를 분류하고, 레드를 할당할 수 있다.The position tracking unit 120 may first classify an object belonging to the same team as the player A, including the aforementioned object C player, and assign a red group to the group I.

또한, 위치 추적부(120)는 그룹 Ⅱ로, 상기 A 선수와 다른 팀에 속하는, B 선수를 포함한 객체를 분류하고, 옐로우를 할당할 수 있다.In addition, the position tracking unit 120 may classify an object including a player B belonging to a team different from the player A, and assign yellow to the group II.

또한, 위치 추적부(120)는 그룹 Ⅰ, Ⅱ에 속하지 않는 객체(예, 심판)를, 그룹 Ⅲ으로 분류하고, 화이트(white)를 할당할 수 있다.In addition, the position tracking unit 120 may classify objects (eg, referees) that do not belong to groups I and II into group III and allocate white.

위치 추적부(120)는 각 그룹 속하는 객체 각각에 대해, 이동하는 위치에 대한 추적을 수행하여, 위치 좌표를 결정한다.The location tracking unit 120 determines a location coordinate by tracking a moving location for each object belonging to each group.

이후, 표시 제어부(130)는 결정된 위치 좌표에 따라 객체의 위치를, 상기 그룹별 컬러로 구분하는, 도 2와 같은 위치 맵 정보를 작성할 수 있다.Subsequently, the display controller 130 may generate location map information as illustrated in FIG. 2, which classifies the location of the object into the color for each group according to the determined location coordinates.

도 2의 위치 맵 정보는 예컨대 축구 경기에 참여하는 선수와 심판 각각을, 소속팀 별로 나눠 색구분 된 아이콘을 통해, 축구 경기장 내 위치를 식별할 수 있게 하는 것으로 예시하고 있다. 즉, 도 2에서는, 레드가 할당된 그룹 Ⅰ의 객체들이 공격을 위해 이동하고, 이에 대응하여 옐로우가 할당된 그룹 Ⅱ의 객체들이 수비를 위해 이동하며, 화이트가 할당된 그룹 Ⅲ의 객체가 심판을 보기 위해 이동하는 양태를, 추적하여 보여주는 위치 맵 정보를 나타낸다.For example, the location map information of FIG. 2 exemplifies that the players and the referees participating in the soccer game can be identified in the soccer stadium through color-coded icons divided by teams. That is, in FIG. 2, objects of group I assigned red are moved for attack, and objects of group II assigned yellow are moved for defense, and objects of group III assigned white are judged. Represents a location map that tracks and shows aspects of moving for viewing.

이에 따라, 본 발명에 의해서는, 객체의 현 위치에 관한 위치 맵 정보를 생성하여, 사용자가 시청하는 단말의 화면에 표시되도록 함으로써, 사용자가 모니터링하고자 하는 객체의 위치를 일목요연하게 보여지게 할 수 있다.Accordingly, according to the present invention, by generating the location map information on the current position of the object to be displayed on the screen of the terminal that the user is viewing, it is possible to see the position of the object to be monitored by the user at a glance. .

확장된 실시예에서, 표시 제어부(130)는 상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시할 수 있다. 즉, 표시 제어부(130)는, 위치 맵 정보 내 임의 객체를 사용자가 선택(이하, 제1 선택이라 함) 함에 따라, 제1 선택된 객체가 포함되는 것으로 분류된 적어도 하나의 영상 정보를, 단말 화면 상에 배치하여 사용자에게 보여 줄 수 있다.In an expanded embodiment, the display controller 130 may display image information classified in association with the first selected object on at least another part of the screen according to a user's selection of the location map information. That is, as the user selects an arbitrary object in the location map information (hereinafter, referred to as a first selection), the display control unit 130 displays at least one image information classified as including the first selected object. Can be placed on top of it and shown to the user.

또한, 표시 제어부(130)는, 표시되는 영상 정보에 대한 사용자의 선택에 따라, 제2 선택된 영상 정보를, 화면의 전체로 표시할 수 있다. 즉, 표시 제어부(130)는 방송국에서 송출하는 편집 영상 정보와 별개로, 사용자 자신이 선택한 객체를 중심으로 촬영되는 영상 정보를 능동적으로 시청할 수 있게 한다.In addition, the display controller 130 may display the second selected video information on the entire screen according to a user's selection of the displayed video information. That is, the display control unit 130 enables the user to actively view the image information photographed around the object selected by the user, independently of the edited image information transmitted from the broadcasting station.

만약, 화면에 표시되는 영상 정보에 대한 사용자의 제2 선택이 선정된 시간 동안 없는 경우, 표시 제어부(130)는 방송국에서 송출되는 편집 영상 정보를 화면에 표시하게 할 수 있다. 즉, 표시 제어부(130)는, 상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 일방적으로 제공되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 화면의 나머지, 또는 화면 전체로 표시할 수 있다.If the user's second selection for the image information displayed on the screen is absent for a predetermined time, the display controller 130 may display the edited image information transmitted from the broadcasting station on the screen. That is, the display control unit 130 displays the edited video information provided unilaterally by a broadcasting station until the user selects the displayed video information, except for the video information and the location map information. Or it can be displayed in full screen.

도 3은 위치 맵 정보와 제1 선택된 객체를 포함하는 영상 정보를 화면 상에 표시하는 일례를 나타내는 도면이다.3 is a diagram illustrating an example of displaying location map information and image information including a first selected object on a screen.

도 3에서는 레드로 구분되는 그룹 Ⅰ 소속의 객체 중에서, 객체 A 선수를 사용자가 선택하는 경우에, 화면 구성을 보여 준다.FIG. 3 shows a screen configuration when a user selects an object A player among objects belonging to group I divided by red.

도 3에 도시한 바와 같이, 단말 화면(300)은 방송국에서 송출되는 방송용 편집 영상 정보를 표시하여, 사용자가 편집 영상 정보를 시청 가능하도록 하는, 예컨대 TV의 디스플레이 장치 일 수 있다.As illustrated in FIG. 3, the terminal screen 300 may be, for example, a display device of a TV that displays edited video information for broadcasting transmitted from a broadcasting station so that a user can view the edited video information.

단말 화면(300)의 일측으로는 위치 맵 정보(310)가 표시되며, 또한 단말 화면(300)의 다른 일측으로는, 사용자의 제1 선택에 따른 영상 정보(320)가 표시된다. 예컨대, 위치 맵 정보(310) 내 객체 A 선수를 사용자가 선택하면, 표시 제어부(130)는 상기 객체 A 선수가 포함되는 영상 정보(320)를 모두 불러와, 단말 화면(300)에 표시한 후, 사용자의 선택(이하, 제2 선택이라 함)을 대기할 수 있다.The location map information 310 is displayed on one side of the terminal screen 300, and the image information 320 according to the first selection of the user is displayed on the other side of the terminal screen 300. For example, when a user selects an object A player in the location map information 310, the display controller 130 retrieves all the image information 320 including the object A player and displays the image information 320 on the terminal screen 300. The user's selection (hereinafter referred to as a second selection) may be awaited.

객체 A 선수가 포함된 영상 정보(320)는, 위치 맵 정보(310)와 구분되게 표시될 수 있으며, 도 3에는 위치 맵 정보(310)가 표시된 화면 일측에 반대 측으로, 4개의 영상 정보(320)를 배열하여 표시하는 것이 예시되어 있다.The image information 320 including the object A player may be displayed to be distinguished from the location map information 310. In FIG. 3, the image information 320 may be displayed on the opposite side of the screen on which the location map information 310 is displayed. ) Is shown as an arrangement.

표시된 영상 정보(320) 중 어느 하나에 대해 사용자의 제2 선택(예, 3번째 영상 정보)이 이루어지면, 표시 제어부(130)는 제2 선택된 영상 정보를, 단말 화면 전체, 또는 위치 맵 정보(310)와 영상 정보(320)가 배열된 영역을 제외한 단말 화면으로 표시할 수 있다.When a second selection (eg, third image information) of the user is made with respect to any one of the displayed image information 320, the display control unit 130 displays the second selected image information on the entire terminal screen or the location map information ( 310 may be displayed on the terminal screen excluding an area where the image information 320 is arranged.

이를 통해, 본 발명에 의해서는, 사용자로 하여금 자신이 보고자 하는 객체의 영상 정보를 선택하여, 지속적으로 시청하도록 할 수 있다.In this way, according to the present invention, the user can select the image information of the object that he wants to see, so as to continuously watch.

본 발명의 사용자 선택 영상 표시 시스템(100)의 다른 실시예에서는, 사용자가 미리 선택한 객체를 포함하는 영상 정보를 식별하여, 단말 화면에 표시할 수 있다.According to another exemplary embodiment of the user-selected video display system 100 of the present invention, video information including an object previously selected by a user may be identified and displayed on the terminal screen.

이를 위해 사용자 선택 영상 표시 시스템(100)은 영상 추출부(140)를 더 포함하여 구현할 수 있다.To this end, the user-selected image display system 100 may further include an image extractor 140.

영상 추출부(140)는 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별한다. 즉, 영상 추출부(140)는 사용자가 사전에 미리 선택한 특정 객체를 포함하는 영상 정보 만을 선별적으로 식별할 수 있다. 이때, 영상 추출부(140)는 영상 정보로부터 모든 객체를 추출하는 작업을 생략하여, 전체적인 처리 속도를 향상시킬 수 있다.The image extractor 140 identifies image information including the first selected object from among image information generated by the plurality of cameras. That is, the image extractor 140 may selectively identify only image information including a specific object previously selected by the user. In this case, the image extractor 140 may omit the task of extracting all objects from the image information, thereby improving the overall processing speed.

이후, 위치 추적부(120)는 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하여, 위치 맵 정보를 작성한다.Thereafter, the location tracking unit 120 generates location map information by tracking the location of the first selected object by using the identified image information.

또한, 표시 제어부(130)는 상기 위치 맵 정보를, 화면의 적어도 일부에 표시하고, 상기 식별된 영상 정보를 상기 위치 맵 정보와 함께 상기 화면에 표시할 수 있다. 만약, 상기 표시되는 영상 정보에 대한 상기 사용자의 제2 선택이 입력되면, 표시 제어부(130)는 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로, 상기 제2 선택된 영상 정보를 표시한다. 실시예에 따라, 표시 제어부(130)는 제2 선택된 영상 정보를, 화면 전체로 표시할 수도 있다.In addition, the display controller 130 may display the location map information on at least a portion of the screen, and display the identified image information on the screen together with the location map information. If the user's second selection of the displayed image information is input, the display controller 130 displays the second selected image information to the rest of the screen except for the image information and the location map information. do. According to an exemplary embodiment, the display controller 130 may display the second selected image information on the entire screen.

이와 관련한, 위치 추적부(120)와 표시 제어부(130)의 구체 동작 설명은 앞서 설명한 실시예의 것과 유사 또는 동일하며, 여기서는 반복을 피해 생략한다.In this regard, detailed operation descriptions of the position tracking unit 120 and the display control unit 130 are similar to or identical to those of the above-described embodiment, and will not be repeated here.

따라서, 본 발명에 따르면, 사용자가 미리 지정한 객체를 촬영하여 생성한 영상 정보를 선별하여 화면에 작게 표시하고, 사용자가 화면 선택을 통해 결정한 특정의 영상 정보가 화면에 크게 표시하여, 사용자의 영상 선택권이 최적하게 보장될 수 있게 한다.Accordingly, according to the present invention, image information generated by photographing an object designated by a user is selected and displayed on the screen in small size, and specific image information determined by the user's screen selection is displayed on the screen in large size, thereby allowing the user to select the image. This can be ensured optimally.

이하, 본 발명의 실시예에 따른 사용자 선택 영상 표시 시스템의 작업 흐름을 상세히 설명한다.Hereinafter, the workflow of the user-selected video display system according to an embodiment of the present invention will be described in detail.

도 4는 본 발명의 일실시예에 따른 사용자 선택 영상을 표시하는 방법을 구체적으로 도시한 작업 흐름도이다.4 is a flowchart illustrating a method of displaying a user selection image in detail according to an embodiment of the present invention.

본 실시예에 따른 사용자 선택 영상을 표시하는 방법은 상술한 사용자 선택 영상 표시 시스템에 의해 수행될 수 있다.The method for displaying a user selection image according to the present embodiment may be performed by the above-described user selection image display system.

사용자 선택 영상 표시 시스템(100)은 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출한다(410). 본 단계(410)는 영상 정보에 포함되고 있는 객체를 식별하는 과정이다. 특히, 본 단계(410)의 사용자 선택 영상 표시 시스템(100)은 정보로서 가치가 있는 객체만을 영상 정보로부터 선별 추출 함으로써, 객체 추출에 따른 리소스의 불필요한 사용을 최대한 억제하게 한다.The user-selected image display system 100 extracts an object from image information generated by a plurality of cameras (410). This step 410 is a process of identifying the object included in the image information. In particular, the user-selected video display system 100 of step 410 selectively extracts only objects that are valuable as information from the image information, thereby maximally suppressing unnecessary use of resources according to object extraction.

다른 실시예의 본 단계(410)에서는, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별한다. 즉, 사용자 선택 영상 표시 시스템(100)은 사용자가 사전에 미리 선택한 특정 객체를 포함하는 영상 정보 만을 선별적으로 식별할 수 있다. 이 경우, 사용자 선택 영상 표시 시스템(100)은 영상 정보로부터 모든 객체를 추출하는 작업을 생략하여, 전체적인 처리 속도를 향상시킬 수 있다.In the present step 410 of another embodiment, image information including the first selected object is identified from the image information generated by the plurality of cameras. That is, the user-selected image display system 100 may selectively identify only image information including a specific object previously selected by the user. In this case, the user-selected video display system 100 may improve the overall processing speed by omitting the task of extracting all objects from the video information.

다음으로, 사용자 선택 영상 표시 시스템(100)은 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류한다(420). 본 단계(420)는 생성된 복수의 영상 정보를, 포함하고 있는 객체 별로 재정렬하는 기능을 한다.Next, the user-selected video display system 100 assigns an ID to the extracted object and classifies the image information based on the assigned ID (420). In operation 420, the plurality of generated image information may be rearranged for each object.

다른 실시예에서 본 단계(420)는 직접 식별된 영상 정보를 객체별로 분류할 수 있고, 상기 영상 정보의 분류에 있어서, 사용자 선택 영상 표시 시스템(100)은 영상 정보가 생성된 생성 시간을 고려하여 정렬시켜 분류 처리할 수 있다. 또한 복수의 영상 정보에서 추출된 객체 정보에 개별 아이디를 부여할 수 있고, 상기 개별 아이디의 정보를 기준으로 정렬시켜 분류 처리 할 수 있다.In another embodiment, the step 420 may classify the directly identified image information for each object. In the classification of the image information, the user-selected image display system 100 may consider the generation time at which the image information is generated. You can sort by sorting. In addition, an individual ID may be assigned to the object information extracted from the plurality of image information, and sorted based on the information of the individual ID.

계속해서, 사용자 선택 영상 표시 시스템(100)은, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적한다(430). 본 단계(430)는 생성 시간 별로 정렬하여 분류한 영상 정보 또는 개별 아이디별로 정렬하여 분류한 영상정보에 대해, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하고, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 과정이다. 본 단계(430)을 통해 사용자 선택 영상 표시 시스템(100)은 객체에 대한 위치에 관한 위치 맵 정보를 생성하게 된다.Subsequently, the user-selected video display system 100 tracks a location of the object by using the classified video information (430). The step 430 is a position of the object with respect to each of the sorted image information with respect to the image information sorted by the generation time or the image information sorted by the individual ID and sorted by the individual ID. A process of specifying coordinates and tracking the position of the object based on the specified position coordinates. In operation 430, the user-selected video display system 100 generates location map information about a location of an object.

또한 본 단계(430)에서는 각 객체에 부착된 위치추적장치로부터 입력되는 위치 정보에 기초하여 상기 객체의 위치를 추적할 수 있다.In operation 430, the location of the object may be tracked based on the location information input from the location tracking device attached to each object.

실시예에 따라, 본 단계(430)에서의 사용자 선택 영상 표시 시스템(100)은, 상기 객체가 속하는 그룹을 고려하여 결정된 컬러로 구분하여, 상기 객체의 위치를 추적할 수도 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 복수의 객체를 그룹별로 분류하고, 각 그룹에 할당되는 색을 통해, 객체의 위치를 구별하여 추적할 수 있게 한다.According to an embodiment, the user-selected video display system 100 in operation 430 may track the location of the object by dividing it into a color determined in consideration of the group to which the object belongs. That is, the user-selected video display system 100 classifies a plurality of objects into groups, and distinguishes and tracks positions of the objects through colors assigned to the groups.

또한, 사용자 선택 영상 표시 시스템(100)은, 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시한다(440). 본 단계(440)는 객체들의 실시간 위치 관계를 위치 맵 정보로서, 화면 상에 표시하는 과정이다. 상기 위치 맵 정보는 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시될 수 있다.In addition, the user-selected video display system 100 displays location map information for mapping the tracked location on at least part of the screen (440). This step 440 is a process of displaying the real-time positional relationship of the objects on the screen as location map information. The location map information may be displayed in a picture in picture (PIP) form or a screen division form on the screen.

이에 따라, 본 발명에 의해서는, 객체의 현 위치에 관한 위치 맵 정보를 생성하여, 사용자가 시청하는 단말의 화면에 표시되도록 함으로써, 사용자가 모니터링하고자 하는 객체의 위치를 일목요연하게 보여지게 할 수 있다.Accordingly, according to the present invention, by generating the location map information on the current position of the object to be displayed on the screen of the terminal that the user is viewing, it is possible to see the position of the object to be monitored by the user at a glance. .

확장된 실시예에서, 사용자 선택 영상을 표시하는 방법은 상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 위치 맵 정보 내 임의 객체를 사용자가 제1 선택 함에 따라, 제1 선택된 객체가 포함되는 것으로 분류된 적어도 하나의 영상 정보를, 단말 화면 상에 배치하여 사용자에게 보여 줄 수 있다.In an extended embodiment, the method of displaying a user selection image may display image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information. . That is, the user-selected video display system 100 arranges at least one video information classified as including the first selected object on the terminal screen as the user first selects an arbitrary object in the location map information. Can be shown to the user.

또한, 사용자 선택 영상 표시 시스템(100)은, 표시되는 영상 정보에 대한 사용자의 선택에 따라, 제2 선택된 영상 정보를, 화면의 전체 또는 일부로 표시할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 방송국에서 송출하는 편집 영상 정보와 별개로, 사용자 자신이 선택한 객체를 중심으로 촬영되는 영상 정보를 능동적으로 시청할 수 있게 한다.In addition, the user-selected video display system 100 may display the second selected video information as a whole or part of a screen according to a user's selection of the displayed video information. That is, the user-selected video display system 100 enables the user to actively view video information captured by an object selected by the user, independently of the edited video information transmitted by the broadcasting station.

만약, 화면에 표시되는 영상 정보에 대한 사용자의 제2 선택이 선정된 시간 동안 없는 경우, 사용자 선택 영상 표시 시스템(100)은, 방송국에서 송출되는 편집 영상 정보를 화면에 표시하게 할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 일방적으로 제공되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 화면의 나머지, 또는 화면 전체로 표시할 수 있다.If the user's second selection of the video information displayed on the screen is not present for a predetermined time, the user-selected video display system 100 may display the edited video information transmitted from the broadcasting station on the screen. That is, the user-selected video display system 100 displays edited video information provided unilaterally by a broadcasting station until the user selects the displayed video information, excluding the video information and the location map information. It can be displayed as the rest of the screen, or the entire screen.

이를 통해, 본 발명에 의해서는, 사용자로 하여금 자신이 보고자 하는 객체의 영상 정보를 선택하여, 지속적으로 시청하도록 할 수 있다.In this way, according to the present invention, the user can select the image information of the object that he wants to see, so as to continuously watch.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

300 : 권한 부여 시스템
310 : 수신부 320 : 오브젝트 설정부
330 : 세션 제어부 340 : 처리부
300: Authorization system
310: Receiving unit 320: Object setting unit
330: Session control unit 340:

Claims (20)

복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 단계;
상기 추출된 객체에 아이디를 부여하는 단계;
상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하는 단계;
상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 단계; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.
Extracting an object from image information generated by the plurality of cameras;
Assigning an ID to the extracted object;
Classifying the image information based on the assigned ID;
Tracking the location of the object using the classified image information; And
Displaying location map information for mapping the tracked location on at least part of a screen;
Method of displaying a user selection image comprising a.
제1항에 있어서,
상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.
The method of claim 1,
Displaying image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information;
Method for displaying a user selection image further comprising.
제2항에 있어서,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 화면의 전체로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.
3. The method of claim 2,
Displaying second selected image information on the entire screen according to a user's selection of the displayed image information.
Method for displaying a user selection image further comprising.
제2항에 있어서,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 송출되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.
3. The method of claim 2,
Displaying the edited video information transmitted from the broadcasting station as the rest of the screen except for the video information and the location map information until the user selects the displayed video information.
Method for displaying a user selection image further comprising.
제1항에 있어서,
상기 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계는,
상기 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.
The method of claim 1,
Displaying the location map information on at least a portion of the screen,
Displaying the location map information in a picture in picture (PIP) form or a screen division form on the screen;
Method of displaying a user selection image comprising a.
제1항에 있어서,
상기 객체에 대한 위치를 추적하는 단계는,
상기 분류된 영상 정보를, 생성 시간 별 또는 객체에 부여된 아이디 별로 정렬하는 단계;
상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하는 단계; 및
상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.
The method of claim 1,
Tracking the location for the object,
Sorting the classified image information by generation time or by IDs assigned to objects;
Specifying a position coordinate with respect to the object with respect to each of the aligned image information in consideration of a photographing point of the camera; And
Tracking the position of the object based on the specified position coordinates
Method of displaying a user selection image comprising a.
제1항에 있어서,
상기 객체의 위치를 추적하는 단계는,
상기 객체를 구분하여, 상기 객체의 위치를 추적하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.
The method of claim 1,
Tracking the location of the object,
Classifying the object and tracking the location of the object
Method of displaying a user selection image comprising a.
복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 단계;
상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 단계; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.
Identifying image information including a first selected object among image information generated by the plurality of cameras;
Tracking a location with respect to the first selected object using the identified image information; And
Displaying location map information for mapping the tracked location on at least part of a screen;
Method of displaying a user selection image comprising a.
제8항에 있어서,
상기 식별된 영상 정보를, 상기 위치 맵 정보와 함께 상기 화면에 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.
9. The method of claim 8,
Displaying the identified image information on the screen together with the location map information.
Method for displaying a user selection image further comprising.
제9항에 있어서,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.
10. The method of claim 9,
Displaying second selected image information as the remainder of the screen except for the image information and the location map information according to the user's selection of the displayed image information.
Method for displaying a user selection image further comprising.
복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 객체 추출부;
상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하며, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 위치 추적부; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부
를 포함하는 사용자 선택 영상 표시 시스템.
An object extracting unit which extracts an object from image information generated by a plurality of cameras;
A location tracking unit for assigning an ID to the extracted object, classifying the image information based on the assigned ID, and tracking a location of the object using the classified image information; And
A display control unit that displays location map information for mapping the tracked location on at least part of a screen.
User selected image display system comprising a.
제11항에 있어서,
상기 표시 제어부는,
상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시하는
사용자 선택 영상 표시 시스템.
12. The method of claim 11,
The display control unit
Displaying image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information.
User-selected video display system.
제12항에 있어서,
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 화면의 전체로 표시하는
사용자 선택 영상 표시 시스템.
The method of claim 12,
The display control unit
Displaying the second selected image information as the whole of the screen according to the user's selection of the displayed image information.
User-selected video display system.
제12항에 있어서,
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 송출되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는
사용자 선택 영상 표시 시스템.
The method of claim 12,
The display control unit
Until the user selects the displayed video information, edited video information transmitted from a broadcasting station is displayed on the remainder of the screen except for the video information and the location map information.
User-selected video display system.
제11항에 있어서,
상기 표시 제어부는,
상기 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시하는
사용자 선택 영상 표시 시스템.
12. The method of claim 11,
The display control unit
Displaying the location map information in a picture in picture (PIP) form or a screen division form on the screen
User-selected video display system.
제11항에 있어서,
상기 위치 추적부는,
상기 분류된 영상 정보를, 생성 시간 별 또는 객체에 부여된 아이디 별로 정렬하고, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하며, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는
사용자 선택 영상 표시 시스템.
12. The method of claim 11,
The position-
The classified image information is sorted by creation time or by ID given to an object, and the position coordinates of the object are specified for each of the sorted image information in consideration of the photographing location of the camera. To track the position of the object based on position coordinates
User-selected video display system.
제11항에 있어서,
상기 위치 추적부는,
상기 객체를 구분하여, 상기 객체의 위치를 추적하는 사용자 선택 영상 표시 시스템.
12. The method of claim 11,
The position-
A user-selected video display system for classifying the object and tracking the location of the object.
복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 영상 추출부;
상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 위치 추적부; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부
를 포함하는 사용자 선택 영상 표시 시스템.
An image extracting unit for identifying image information including a first selected object from among image information generated by a plurality of cameras;
A location tracker which tracks a location of the first selected object by using the identified image information; And
A display control unit that displays location map information for mapping the tracked location on at least part of a screen.
User selected image display system comprising a.
제18항에 있어서,
상기 표시 제어부는,
상기 식별된 영상 정보를, 상기 위치 맵 정보와 함께 상기 화면에 표시하는
사용자 선택 영상 표시 시스템.
19. The method of claim 18,
The display control unit
Displaying the identified video information on the screen together with the location map information.
User-selected video display system.
제19항에 있어서,
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는
사용자 선택 영상 표시 시스템.
20. The method of claim 19,
The display control unit
According to the user's selection of the displayed image information, to display the second selected image information as the remainder of the screen, excluding the image information and the location map information
User-selected video display system.
KR1020120146681A 2012-06-12 2012-12-14 Method and system of displaying user-selectable picture KR102055614B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/907,159 US9693108B2 (en) 2012-06-12 2013-05-31 Method and system for displaying user selectable picture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120062790 2012-06-12
KR20120062790 2012-06-12

Publications (2)

Publication Number Publication Date
KR20130139151A true KR20130139151A (en) 2013-12-20
KR102055614B1 KR102055614B1 (en) 2019-12-16

Family

ID=49984553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120146681A KR102055614B1 (en) 2012-06-12 2012-12-14 Method and system of displaying user-selectable picture

Country Status (1)

Country Link
KR (1) KR102055614B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134078A (en) * 2015-05-14 2016-11-23 금오공과대학교 산학협력단 System for positioning player using beacon, acquiring image data and providing screen of player of interest

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009016A (en) 2001-06-19 2003-01-10 Canon Inc Picture display equipment and method, control program, and computer readable storage medium
JP2008167127A (en) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp Video distributing method and video distributing device
JP5288928B2 (en) 2008-08-04 2013-09-11 キヤノン株式会社 Image processing apparatus and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134078A (en) * 2015-05-14 2016-11-23 금오공과대학교 산학협력단 System for positioning player using beacon, acquiring image data and providing screen of player of interest

Also Published As

Publication number Publication date
KR102055614B1 (en) 2019-12-16

Similar Documents

Publication Publication Date Title
US9693108B2 (en) Method and system for displaying user selectable picture
US10721439B1 (en) Systems and methods for directing content generation using a first-person point-of-view device
CN109326310B (en) Automatic editing method and device and electronic equipment
JP6621063B2 (en) Camera selection method and video distribution system
EP3238445B1 (en) Interactive binocular video display
US11006089B2 (en) Information processing apparatus and information processing method
ES2790885T3 (en) Real-time object tracking and motion capture at sporting events
US8547431B2 (en) Method and apparatus for generating an event log
US8922718B2 (en) Key generation through spatial detection of dynamic objects
JP7034666B2 (en) Virtual viewpoint image generator, generation method and program
CN105765959B (en) Method and system for producing video works
JP2018180655A (en) Image processing device, image generation method, and program
CN105933665B (en) A kind of method and device for having access to camera video
CN108337573A (en) A kind of implementation method that race explains in real time and medium
JP2020086983A (en) Image processing device, image processing method, and program
US9948999B2 (en) Video processing system and method
US20170201723A1 (en) Method of providing object image based on object tracking
JP2022105590A (en) Information processing device, information processing method, and program
Wu et al. Enhancing fan engagement in a 5G stadium with AI-based technologies and live streaming
KR102055614B1 (en) Method and system of displaying user-selectable picture
CN105979280A (en) Intelligent television program recognizing method and device
JP7282519B2 (en) Image processing device or image processing server
US10405065B2 (en) Video processing system and method
JP4270703B2 (en) Automatic person index generator
JP2020067716A (en) Information processing apparatus, control method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant