KR20130139151A - Method and system of displaying user-selectable picture - Google Patents
Method and system of displaying user-selectable picture Download PDFInfo
- Publication number
- KR20130139151A KR20130139151A KR1020120146681A KR20120146681A KR20130139151A KR 20130139151 A KR20130139151 A KR 20130139151A KR 1020120146681 A KR1020120146681 A KR 1020120146681A KR 20120146681 A KR20120146681 A KR 20120146681A KR 20130139151 A KR20130139151 A KR 20130139151A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image information
- location
- information
- displaying
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
본 발명의 일실시예들은 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체를 포함하여 촬영되는 영상을 시청자가 능동적으로 선택하여 시청할 수 있게 하는 사용자 선택 영상을 표시하는 방법 및 시스템에 관한 것이다.One embodiment of the present invention provides a method and system for displaying a user selected image that allows a viewer to actively select and view an image to be photographed including a selected object from an image of a camera relayed in real time, .
종래의 중계 방송은 다수의 카메라로부터 수집된 다수의 영상 정보를 방송국의 관제 센터에서 일괄 수집하고, 상기 다수의 영상 정보 중에서, 예컨대 프로듀서가 선택한 특정의 영상 정보(이하, '편집 영상 정보'라 함)를 각 시청자에게 일괄 방송하는 구조이다.Conventional broadcast broadcasts collectively collect a plurality of video information collected from a plurality of cameras in a control center of a broadcasting station, and among the plurality of video information, for example, specific video information selected by a producer (hereinafter referred to as 'edited video information'). ) Is broadcasted to each viewer collectively.
즉, 종래의 중계 방송은 방송국에서 송출하는 일방의 편집 영상 정보를 시청자가 수동적으로 시청하도록 하는 것이며, 시청자의 입장에서 화면에 대한 선택권이 없어 제한된 방송 서비스 만을 제공받게 되는 한계가 있어 왔다.In other words, the conventional broadcast broadcast is to allow the viewer to passively watch one of the edited video information transmitted from the broadcast station, and there is a limit in that only the limited broadcast service is provided because there is no option for the screen from the viewer's point of view.
따라서, 시청자가 특정 객체를 촬영한 다수의 방송 영상으로부터 원하는 영상을 능동적으로 선택하여 시청할 수 있는 기술의 등장이 절실히 요구되고 있다.Accordingly, there is an urgent need for a technology that enables a viewer to actively select and view a desired image from a plurality of broadcast images photographing a specific object.
본 발명의 일실시예는 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체가 포함되는 중계 영상을 사용자가 선택하여 시청하도록 하는 것을 그 목적으로 한다.One embodiment of the present invention is to select a specific object from the image of the camera relayed in real time, and to allow the user to select and watch the relay image including the selected object.
또한, 본 발명은, 영상에 포함되는 객체 각각에 대해 위치를 추적하고, 추적된 위치를 화면상에 실시간으로 표시 함으로써, 사용자가 보고자 하는 객체를 선택하고, 선택된 객체를 포함하는 영상의 선택이 원활히 이루어지게 하는 것을 목적으로 한다.In addition, the present invention, by tracking the position of each object included in the image, and displays the tracked position on the screen in real time, the user to select the object to view, and smoothly the selection of the image including the selected object It aims to be done.
또한, 본 발명은 방송국으로부터 일방적으로 송출되는 편집 영상 정보가 아닌, 사용자가 능동적으로 선택한 영상 정보를 시청할 수 있게 하여, 사용자의 화면 선택을 최대한 보장한다.In addition, the present invention enables the user to watch the video information actively selected by the user rather than the edited video information unilaterally transmitted from the broadcasting station, thereby ensuring the user's screen selection as much as possible.
상기의 목적을 이루기 위한, 사용자 선택 영상을 표시하는 방법은, 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 단계와, 상기 추출된 객체에 아이디를 부여하는 단계와, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하는 단계와, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 단계, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계를 포함할 수 있다.In order to achieve the above object, a method of displaying a user-selected image, the method comprising the steps of extracting an object from the image information generated by a plurality of cameras, assigning an ID to the extracted object, and Classifying the image information based on the reference, using the classified image information to track a location of the object, and displaying location map information mapping the tracked location on at least a portion of the screen. It may include a step.
또한, 본 발명의 따른 실시예에 따른, 사용자 선택 영상을 표시하는 방법은, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 단계와, 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 단계, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계를 포함하여 구현할 수 있다.In addition, the method for displaying a user-selected image according to an embodiment of the present invention, identifying the image information including the first selected object from the image information generated by the plurality of cameras, and the identified image And using the information, tracking the location of the first selected object, and displaying location map information for mapping the tracked location on at least a portion of the screen.
또한, 상기 목적을 달성하기 위한 기술적 구성으로서, 사용자 선택 영상 표시 시스템은, 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출하는 객체 추출부와, 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하며, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 위치 추적부, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부를 포함할 수 있다.In addition, as a technical configuration for achieving the above object, the user-selected video display system, the object extraction unit for extracting the object from the image information generated by a plurality of cameras, and the ID to the extracted object, the grant Classifying the image information based on the received ID, and using the classified image information, a location tracking unit for tracking a location of the object, and location map information for mapping the tracked location to at least a portion of a screen. It may include a display control unit displayed on.
또한, 다른 실시예에서, 사용자 선택 영상 표시 시스템은, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별하는 영상 추출부와, 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 위치 추적부, 및 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부를 포함할 수 있다.Also, in another embodiment, the user-selected image display system may include an image extractor that identifies image information including a first selected object among image information generated by a plurality of cameras, and using the identified image information. The display apparatus may include a location tracking unit that tracks a location of the first selected object, and a display controller that displays location map information that maps the tracked location on at least a portion of a screen.
본 발명의 일실시예에 따르면, 실시간으로 중계되는 카메라의 영상으로부터 특정 객체를 선택하고, 선택한 객체가 포함되는 중계 영상을 사용자가 선택하여 시청하도록 할 수 있다.According to an embodiment of the present invention, a specific object may be selected from an image of a camera relayed in real time, and a user may select and watch a relay image including the selected object.
또한, 본 발명에 의해서는, 영상에 포함되는 객체 각각에 대해 위치를 추적하고, 추적된 위치를 화면 상에 실시간으로 표시 함으로써, 사용자가 보고자 하는 객체를 선택하고, 선택된 객체를 포함하는 영상의 선택이 원활히 이루어지게 할 수 있다.In addition, according to the present invention, by tracking the position of each object included in the image, and displays the tracked position in real time on the screen, the user selects the object to be viewed, the selection of the image including the selected object This can be done smoothly.
또한, 본 발명에 따르면, 방송국으로부터 일방적으로 송출되는 편집 영상 정보가 아닌, 사용자가 능동적으로 선택한 영상 정보를 시청할 수 있게 하여, 사용자의 화면 선택을 최대한 보장할 수 있다.According to the present invention, it is possible to ensure the user's screen selection as much as possible by allowing the user to watch the video information actively selected by the user, rather than the edited video information unilaterally transmitted from the broadcasting station.
도 1은 본 발명의 일실시예에 따른 사용자 선택 영상 표시 시스템을 도시한 블록도이다.
도 2는 위치 맵 정보의 일례를 나타내는 도면이다.
도 3은 위치 맵 정보와 제1 선택된 객체를 포함하는 영상 정보를 화면 상에 표시하는 일례를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 선택 영상을 표시하는 방법을 구체적으로 도시한 작업 흐름도이다.1 is a block diagram illustrating a user-selected video display system according to an embodiment of the present invention.
2 is a diagram illustrating an example of location map information.
3 is a diagram illustrating an example of displaying location map information and image information including a first selected object on a screen.
4 is a flowchart illustrating a method of displaying a user selection image in detail according to an embodiment of the present invention.
이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.
본 명세서에서 지속적으로 사용하는, '객체(object)'는 촬영 대상체로서, 예컨대 사람, 동물 등의 유기체, 이동체 및 고정체 등 카메라의 시선 초점이 형성되는 외부체를 지칭할 수 있다. 특히, 본 명세서에서는 영상 정보에 포함되며, 정보 가치가 있는 물체를 의미할 수 있다. 예컨대, 축구 경기를 촬영하는 카메라에 의해 생성되는, 영상 정보에서의 객체는, 상기 축구 경기에 참여하는 운동 선수 일 수 있다.As used herein, the term 'object' may refer to an external object in which a gaze focus of a camera is formed, such as an object such as a human or an animal, a moving object, and a fixed object. In particular, in the present specification, it may mean an object included in the image information and having information value. For example, an object in the image information, which is generated by a camera shooting a soccer game, may be an athlete participating in the soccer game.
카메라를 통해 생성된 영상 정보에는, 주로 촬영 대상이 되는 주객체 이외에, 상기 주객체와 함께 촬영된 부객체 등을 포함할 수 있다.The image information generated by the camera may include, in addition to the main object to be mainly captured, a sub-object photographed together with the main object.
이에 따라, 본 발명의 사용자 선택 영상 시스템에서는, 주객체, 부객체를 막론하고, 개별 객체들을 고려하여 복수의 영상 정보를 분류 함으로써, 분류된 영상 정보들을 통해 임의의 객체가 이동하는 경로를 추적하는 환경을 조성할 수 있게 한다.Accordingly, in the user-selected video system of the present invention, by classifying a plurality of image information in consideration of individual objects regardless of the main object and sub-objects, a path for moving an arbitrary object through the classified image information is tracked. It helps to create an environment.
도 1은 본 발명의 일실시예에 따른 사용자 선택 영상 표시 시스템을 도시한 블록도이다.1 is a block diagram illustrating a user-selected video display system according to an embodiment of the present invention.
도 1을 참조하면, 사용자 선택 영상 표시 시스템(100)은 객체 추출부(110), 위치 추적부(120) 및 표시 제어부(130)를 포함하여 구성할 수 있다.Referring to FIG. 1, the user-selected
우선, 객체 추출부(110)는 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출한다. 즉, 객체 추출부(110)는 영상 정보에 포함되어 있는 객체를 식별하는 기능을 한다.First, the
예컨대, 축구 경기에서 공을 잡고 있는 A 선수를 중심으로 촬영되어 생성된 영상 정보로부터, 객체 추출부(110)는, 상기 A 선수와, 상기 A 선수를 수비하는 상대팀의 B 선수, 상기 A 선수로부터 공이 건네지길 대기하는 같은 팀의 C 선수 등을 객체로 추출할 수 있다.For example, from the video information generated by photographing the player A who is holding the ball in a soccer game, the
영상 정보로부터 객체를 추출하는 기법은, 객체의 윤곽선 정보를 이용한 추출 방식, 객체의 주요 특징 점을 이용한 추출 방식, 3D 모델 기반 또는 영역 기반 추출 방식 등을 예시할 수 있고, 본 발명의 객체 추출부(110)는 이러한 공지의 기법들을 유효 적절하게 활용하여 영상 정보로부터 객체를 추출하게 된다.The technique of extracting an object from image information may include an extraction method using contour information of the object, an extraction method using main feature points of the object, a 3D model-based or region-based extraction method, and the like. 110 effectively extracts the object from the image information by utilizing the known techniques effectively.
위치 추적부(120)는 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류한다. 즉, 위치 추적부(120)는 수집된 복수의 영상 정보에서 추출된 객체 정보를 바탕으로 전체 객체의 위치 정보를 정렬하여 통합 맵을 생성하는 기능을 한다.The
또한, 위치 추적부(120)는 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류할 수 있다.In addition, the
상기 영상 정보의 분류에 있어서, 위치 추적부(120)는 영상 정보가 생성된 생성 시간을 고려하여 정렬시켜 분류 처리할 수 있다.In the classification of the image information, the
또한 다른 실시예에서, 상기 위치 추적부(120)는 복수의 영상 정보에서 추출된 객체 정보에 개별 아이디를 부여할 수 있고, 상기 개별 아이디의 정보를 기준으로 정렬시켜 분류 처리할 수 있다.In another embodiment, the
예컨대, 앞서의 축구 경기에서, A 선수와 B 선수를 객체로 포함한 영상 정보 #1과, A 선수와 C 선수를 객체로 포함한 영상 정보 #2가 생성되는 조건에서, 위치 추적부(120)는 A 선수를 포함하는 영상 정보 #1 및 #2를, 생성 순서에 따라 정렬하여 분류하거나, A 선수, B 선수, C 선수 각각에 A, B, C라는 아이디를 부여하고 아이디 A 만 있는 영상만 별도로 관리할 수 있다.For example, in the above soccer game, under the condition that the image information # 1 including the A player and the B player as the object and the image information # 2 including the A player and the C player as the object are generated, the
또한, 위치 추적부(120)는, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적한다. 즉, 위치 추적부(120)는, 생성 시간별 또는 아이디별로 정렬하여 분류한 영상 정보에 대해, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하고, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 역할을 한다.In addition, the
예컨대, 앞서의 축구 경기와 관련하여, 객체 A 선수와 연관하여 정렬, 분류된 영상 정보 #1 및 #2에 대해, 위치 추적부(120)는 상대적으로 먼저 생성된 영상 정보 #1 내 A 선수의 위치를 (1024, 1024)로 결정하고, 이어서 영상 정보 #2 내 A 선수의 위치를 (-1024, -1024)를 결정할 수 있고, 이를 통해, A 선수가 좌표 (1024, 1024)에서 좌표 (-1024, -1024)로 이동 했음을 위치 추적할 수 있다.For example, in relation to the above soccer game, for the image information # 1 and # 2 aligned and classified in association with the player A, the
이때, 위치 추적부(120)는 영상 정보 마다, 예컨대 카메라의 촬영 지점 또는 기선정된 영상 정보 내 특이점(예, 랜드마크 등)을 원점으로 하는, 가상의 좌표계를 설정하고, 설정된 좌표계에서 객체 A 선수에 대한 좌표를 결정할 수 있다.In this case, the
다른 일례에서, 위치 추적부(120)는, 각 객체에 부착된 위치 추적 장치로부터 입력되는 위치 정보에 기초하여 상기 객체의 위치를 추적할 수 있다. 여기서, 위치 추적 장치는 무선통신을 이용한 위치추적 장치 일 수 있다.In another example, the
또한, 실시예에 따라, 위치 추적부(120)는 객체를 구분하여 객체의 위치를 추적한다. 예컨대, 위치 추적부(120)는 상기 객체가 속하는 그룹을 고려하여 결정된 컬러로 구분하여, 상기 객체의 위치를 추적할 수도 있다. 즉, 위치 추적부(120)는 복수의 객체를 그룹별로 분류하고, 각 그룹에 할당되는 색을 통해, 객체의 위치를 구별하여 추적할 수 있게 한다.Also, according to an embodiment, the
예컨대, 앞서의 축구 경기에서, 위치 추적부(120)는 객체 A 선수와 객체 C 선수를 같은 팀의 동일 그룹으로 분류할 수 있고, 객체 B 선수는 다른 그룹으로 분류할 수 있다. 더불어, 위치 추적부(120)는 객체 A 선수와 객체 C 선수가 분류된 그룹에 할당되는 레드(red)로, 상기 객체 A, C 선수에 대해 위치 추적하고, 반면 객체 B 선수가 분류된 그룹에 할당되는 옐로우(yellow)로, 상기 객체 B 선수에 대해 위치 추적을 수행할 수 있다.For example, in the above soccer game, the
표시 제어부(130)는 상기 추적된 객체의 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시한다. 즉, 표시 제어부(130)는 객체들의 실시간 위치 관계를 위치 맵 정보로서, 화면 상에 나타내는 기능을 한다.The
위치 맵 정보의 표시에 있어서, 표시 제어부(130)는, 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 분할된 화면(예, 화면 분할 형태)에 표시할 수 있다. 이를 통해, 표시 제어부(130)는 위치 맵 정보가, 화면 상에 표시되게 하고, 사용자로 하여금 객체들의 실시간 위치 관계가 지속적으로 인식될 수 있게 한다.In the display of the location map information, the
도 2는 위치 맵 정보의 일례를 나타내는 도면이다.2 is a diagram illustrating an example of location map information.
도 2에서는 축구 경기와 관련하여 생성된 영상 정보로부터 추출된 복수의 객체를, 소속되는 팀을 고려하여 3개의 그룹으로 분류하는 위치 맵 정보를 예시한다.2 illustrates location map information for classifying a plurality of objects extracted from image information generated in relation to a football game into three groups in consideration of a team to which the team belongs.
위치 추적부(120)는 먼저 그룹 Ⅰ로, 상술의 객체 C 선수를 포함하여 A 선수와 동일 팀에 속하는 객체를 분류하고, 레드를 할당할 수 있다.The
또한, 위치 추적부(120)는 그룹 Ⅱ로, 상기 A 선수와 다른 팀에 속하는, B 선수를 포함한 객체를 분류하고, 옐로우를 할당할 수 있다.In addition, the
또한, 위치 추적부(120)는 그룹 Ⅰ, Ⅱ에 속하지 않는 객체(예, 심판)를, 그룹 Ⅲ으로 분류하고, 화이트(white)를 할당할 수 있다.In addition, the
위치 추적부(120)는 각 그룹 속하는 객체 각각에 대해, 이동하는 위치에 대한 추적을 수행하여, 위치 좌표를 결정한다.The
이후, 표시 제어부(130)는 결정된 위치 좌표에 따라 객체의 위치를, 상기 그룹별 컬러로 구분하는, 도 2와 같은 위치 맵 정보를 작성할 수 있다.Subsequently, the
도 2의 위치 맵 정보는 예컨대 축구 경기에 참여하는 선수와 심판 각각을, 소속팀 별로 나눠 색구분 된 아이콘을 통해, 축구 경기장 내 위치를 식별할 수 있게 하는 것으로 예시하고 있다. 즉, 도 2에서는, 레드가 할당된 그룹 Ⅰ의 객체들이 공격을 위해 이동하고, 이에 대응하여 옐로우가 할당된 그룹 Ⅱ의 객체들이 수비를 위해 이동하며, 화이트가 할당된 그룹 Ⅲ의 객체가 심판을 보기 위해 이동하는 양태를, 추적하여 보여주는 위치 맵 정보를 나타낸다.For example, the location map information of FIG. 2 exemplifies that the players and the referees participating in the soccer game can be identified in the soccer stadium through color-coded icons divided by teams. That is, in FIG. 2, objects of group I assigned red are moved for attack, and objects of group II assigned yellow are moved for defense, and objects of group III assigned white are judged. Represents a location map that tracks and shows aspects of moving for viewing.
이에 따라, 본 발명에 의해서는, 객체의 현 위치에 관한 위치 맵 정보를 생성하여, 사용자가 시청하는 단말의 화면에 표시되도록 함으로써, 사용자가 모니터링하고자 하는 객체의 위치를 일목요연하게 보여지게 할 수 있다.Accordingly, according to the present invention, by generating the location map information on the current position of the object to be displayed on the screen of the terminal that the user is viewing, it is possible to see the position of the object to be monitored by the user at a glance. .
확장된 실시예에서, 표시 제어부(130)는 상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시할 수 있다. 즉, 표시 제어부(130)는, 위치 맵 정보 내 임의 객체를 사용자가 선택(이하, 제1 선택이라 함) 함에 따라, 제1 선택된 객체가 포함되는 것으로 분류된 적어도 하나의 영상 정보를, 단말 화면 상에 배치하여 사용자에게 보여 줄 수 있다.In an expanded embodiment, the
또한, 표시 제어부(130)는, 표시되는 영상 정보에 대한 사용자의 선택에 따라, 제2 선택된 영상 정보를, 화면의 전체로 표시할 수 있다. 즉, 표시 제어부(130)는 방송국에서 송출하는 편집 영상 정보와 별개로, 사용자 자신이 선택한 객체를 중심으로 촬영되는 영상 정보를 능동적으로 시청할 수 있게 한다.In addition, the
만약, 화면에 표시되는 영상 정보에 대한 사용자의 제2 선택이 선정된 시간 동안 없는 경우, 표시 제어부(130)는 방송국에서 송출되는 편집 영상 정보를 화면에 표시하게 할 수 있다. 즉, 표시 제어부(130)는, 상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 일방적으로 제공되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 화면의 나머지, 또는 화면 전체로 표시할 수 있다.If the user's second selection for the image information displayed on the screen is absent for a predetermined time, the
도 3은 위치 맵 정보와 제1 선택된 객체를 포함하는 영상 정보를 화면 상에 표시하는 일례를 나타내는 도면이다.3 is a diagram illustrating an example of displaying location map information and image information including a first selected object on a screen.
도 3에서는 레드로 구분되는 그룹 Ⅰ 소속의 객체 중에서, 객체 A 선수를 사용자가 선택하는 경우에, 화면 구성을 보여 준다.FIG. 3 shows a screen configuration when a user selects an object A player among objects belonging to group I divided by red.
도 3에 도시한 바와 같이, 단말 화면(300)은 방송국에서 송출되는 방송용 편집 영상 정보를 표시하여, 사용자가 편집 영상 정보를 시청 가능하도록 하는, 예컨대 TV의 디스플레이 장치 일 수 있다.As illustrated in FIG. 3, the
단말 화면(300)의 일측으로는 위치 맵 정보(310)가 표시되며, 또한 단말 화면(300)의 다른 일측으로는, 사용자의 제1 선택에 따른 영상 정보(320)가 표시된다. 예컨대, 위치 맵 정보(310) 내 객체 A 선수를 사용자가 선택하면, 표시 제어부(130)는 상기 객체 A 선수가 포함되는 영상 정보(320)를 모두 불러와, 단말 화면(300)에 표시한 후, 사용자의 선택(이하, 제2 선택이라 함)을 대기할 수 있다.The
객체 A 선수가 포함된 영상 정보(320)는, 위치 맵 정보(310)와 구분되게 표시될 수 있으며, 도 3에는 위치 맵 정보(310)가 표시된 화면 일측에 반대 측으로, 4개의 영상 정보(320)를 배열하여 표시하는 것이 예시되어 있다.The
표시된 영상 정보(320) 중 어느 하나에 대해 사용자의 제2 선택(예, 3번째 영상 정보)이 이루어지면, 표시 제어부(130)는 제2 선택된 영상 정보를, 단말 화면 전체, 또는 위치 맵 정보(310)와 영상 정보(320)가 배열된 영역을 제외한 단말 화면으로 표시할 수 있다.When a second selection (eg, third image information) of the user is made with respect to any one of the displayed
이를 통해, 본 발명에 의해서는, 사용자로 하여금 자신이 보고자 하는 객체의 영상 정보를 선택하여, 지속적으로 시청하도록 할 수 있다.In this way, according to the present invention, the user can select the image information of the object that he wants to see, so as to continuously watch.
본 발명의 사용자 선택 영상 표시 시스템(100)의 다른 실시예에서는, 사용자가 미리 선택한 객체를 포함하는 영상 정보를 식별하여, 단말 화면에 표시할 수 있다.According to another exemplary embodiment of the user-selected
이를 위해 사용자 선택 영상 표시 시스템(100)은 영상 추출부(140)를 더 포함하여 구현할 수 있다.To this end, the user-selected
영상 추출부(140)는 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별한다. 즉, 영상 추출부(140)는 사용자가 사전에 미리 선택한 특정 객체를 포함하는 영상 정보 만을 선별적으로 식별할 수 있다. 이때, 영상 추출부(140)는 영상 정보로부터 모든 객체를 추출하는 작업을 생략하여, 전체적인 처리 속도를 향상시킬 수 있다.The
이후, 위치 추적부(120)는 상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하여, 위치 맵 정보를 작성한다.Thereafter, the
또한, 표시 제어부(130)는 상기 위치 맵 정보를, 화면의 적어도 일부에 표시하고, 상기 식별된 영상 정보를 상기 위치 맵 정보와 함께 상기 화면에 표시할 수 있다. 만약, 상기 표시되는 영상 정보에 대한 상기 사용자의 제2 선택이 입력되면, 표시 제어부(130)는 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로, 상기 제2 선택된 영상 정보를 표시한다. 실시예에 따라, 표시 제어부(130)는 제2 선택된 영상 정보를, 화면 전체로 표시할 수도 있다.In addition, the
이와 관련한, 위치 추적부(120)와 표시 제어부(130)의 구체 동작 설명은 앞서 설명한 실시예의 것과 유사 또는 동일하며, 여기서는 반복을 피해 생략한다.In this regard, detailed operation descriptions of the
따라서, 본 발명에 따르면, 사용자가 미리 지정한 객체를 촬영하여 생성한 영상 정보를 선별하여 화면에 작게 표시하고, 사용자가 화면 선택을 통해 결정한 특정의 영상 정보가 화면에 크게 표시하여, 사용자의 영상 선택권이 최적하게 보장될 수 있게 한다.Accordingly, according to the present invention, image information generated by photographing an object designated by a user is selected and displayed on the screen in small size, and specific image information determined by the user's screen selection is displayed on the screen in large size, thereby allowing the user to select the image. This can be ensured optimally.
이하, 본 발명의 실시예에 따른 사용자 선택 영상 표시 시스템의 작업 흐름을 상세히 설명한다.Hereinafter, the workflow of the user-selected video display system according to an embodiment of the present invention will be described in detail.
도 4는 본 발명의 일실시예에 따른 사용자 선택 영상을 표시하는 방법을 구체적으로 도시한 작업 흐름도이다.4 is a flowchart illustrating a method of displaying a user selection image in detail according to an embodiment of the present invention.
본 실시예에 따른 사용자 선택 영상을 표시하는 방법은 상술한 사용자 선택 영상 표시 시스템에 의해 수행될 수 있다.The method for displaying a user selection image according to the present embodiment may be performed by the above-described user selection image display system.
사용자 선택 영상 표시 시스템(100)은 복수의 카메라에 의해 생성된 영상 정보로부터 객체를 추출한다(410). 본 단계(410)는 영상 정보에 포함되고 있는 객체를 식별하는 과정이다. 특히, 본 단계(410)의 사용자 선택 영상 표시 시스템(100)은 정보로서 가치가 있는 객체만을 영상 정보로부터 선별 추출 함으로써, 객체 추출에 따른 리소스의 불필요한 사용을 최대한 억제하게 한다.The user-selected
다른 실시예의 본 단계(410)에서는, 복수의 카메라에 의해 생성된 영상 정보 중에서, 제1 선택된 객체를 포함하는 영상 정보를 식별한다. 즉, 사용자 선택 영상 표시 시스템(100)은 사용자가 사전에 미리 선택한 특정 객체를 포함하는 영상 정보 만을 선별적으로 식별할 수 있다. 이 경우, 사용자 선택 영상 표시 시스템(100)은 영상 정보로부터 모든 객체를 추출하는 작업을 생략하여, 전체적인 처리 속도를 향상시킬 수 있다.In the
다음으로, 사용자 선택 영상 표시 시스템(100)은 상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류한다(420). 본 단계(420)는 생성된 복수의 영상 정보를, 포함하고 있는 객체 별로 재정렬하는 기능을 한다.Next, the user-selected
다른 실시예에서 본 단계(420)는 직접 식별된 영상 정보를 객체별로 분류할 수 있고, 상기 영상 정보의 분류에 있어서, 사용자 선택 영상 표시 시스템(100)은 영상 정보가 생성된 생성 시간을 고려하여 정렬시켜 분류 처리할 수 있다. 또한 복수의 영상 정보에서 추출된 객체 정보에 개별 아이디를 부여할 수 있고, 상기 개별 아이디의 정보를 기준으로 정렬시켜 분류 처리 할 수 있다.In another embodiment, the
계속해서, 사용자 선택 영상 표시 시스템(100)은, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적한다(430). 본 단계(430)는 생성 시간 별로 정렬하여 분류한 영상 정보 또는 개별 아이디별로 정렬하여 분류한 영상정보에 대해, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하고, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 과정이다. 본 단계(430)을 통해 사용자 선택 영상 표시 시스템(100)은 객체에 대한 위치에 관한 위치 맵 정보를 생성하게 된다.Subsequently, the user-selected
또한 본 단계(430)에서는 각 객체에 부착된 위치추적장치로부터 입력되는 위치 정보에 기초하여 상기 객체의 위치를 추적할 수 있다.In
실시예에 따라, 본 단계(430)에서의 사용자 선택 영상 표시 시스템(100)은, 상기 객체가 속하는 그룹을 고려하여 결정된 컬러로 구분하여, 상기 객체의 위치를 추적할 수도 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 복수의 객체를 그룹별로 분류하고, 각 그룹에 할당되는 색을 통해, 객체의 위치를 구별하여 추적할 수 있게 한다.According to an embodiment, the user-selected
또한, 사용자 선택 영상 표시 시스템(100)은, 상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시한다(440). 본 단계(440)는 객체들의 실시간 위치 관계를 위치 맵 정보로서, 화면 상에 표시하는 과정이다. 상기 위치 맵 정보는 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시될 수 있다.In addition, the user-selected
이에 따라, 본 발명에 의해서는, 객체의 현 위치에 관한 위치 맵 정보를 생성하여, 사용자가 시청하는 단말의 화면에 표시되도록 함으로써, 사용자가 모니터링하고자 하는 객체의 위치를 일목요연하게 보여지게 할 수 있다.Accordingly, according to the present invention, by generating the location map information on the current position of the object to be displayed on the screen of the terminal that the user is viewing, it is possible to see the position of the object to be monitored by the user at a glance. .
확장된 실시예에서, 사용자 선택 영상을 표시하는 방법은 상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 위치 맵 정보 내 임의 객체를 사용자가 제1 선택 함에 따라, 제1 선택된 객체가 포함되는 것으로 분류된 적어도 하나의 영상 정보를, 단말 화면 상에 배치하여 사용자에게 보여 줄 수 있다.In an extended embodiment, the method of displaying a user selection image may display image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information. . That is, the user-selected
또한, 사용자 선택 영상 표시 시스템(100)은, 표시되는 영상 정보에 대한 사용자의 선택에 따라, 제2 선택된 영상 정보를, 화면의 전체 또는 일부로 표시할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 방송국에서 송출하는 편집 영상 정보와 별개로, 사용자 자신이 선택한 객체를 중심으로 촬영되는 영상 정보를 능동적으로 시청할 수 있게 한다.In addition, the user-selected
만약, 화면에 표시되는 영상 정보에 대한 사용자의 제2 선택이 선정된 시간 동안 없는 경우, 사용자 선택 영상 표시 시스템(100)은, 방송국에서 송출되는 편집 영상 정보를 화면에 표시하게 할 수 있다. 즉, 사용자 선택 영상 표시 시스템(100)은, 상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 일방적으로 제공되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 화면의 나머지, 또는 화면 전체로 표시할 수 있다.If the user's second selection of the video information displayed on the screen is not present for a predetermined time, the user-selected
이를 통해, 본 발명에 의해서는, 사용자로 하여금 자신이 보고자 하는 객체의 영상 정보를 선택하여, 지속적으로 시청하도록 할 수 있다.In this way, according to the present invention, the user can select the image information of the object that he wants to see, so as to continuously watch.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
300 : 권한 부여 시스템
310 : 수신부 320 : 오브젝트 설정부
330 : 세션 제어부 340 : 처리부300: Authorization system
310: Receiving unit 320: Object setting unit
330: Session control unit 340:
Claims (20)
상기 추출된 객체에 아이디를 부여하는 단계;
상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하는 단계;
상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 단계; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.Extracting an object from image information generated by the plurality of cameras;
Assigning an ID to the extracted object;
Classifying the image information based on the assigned ID;
Tracking the location of the object using the classified image information; And
Displaying location map information for mapping the tracked location on at least part of a screen;
Method of displaying a user selection image comprising a.
상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.The method of claim 1,
Displaying image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information;
Method for displaying a user selection image further comprising.
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 화면의 전체로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.3. The method of claim 2,
Displaying second selected image information on the entire screen according to a user's selection of the displayed image information.
Method for displaying a user selection image further comprising.
상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 송출되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.3. The method of claim 2,
Displaying the edited video information transmitted from the broadcasting station as the rest of the screen except for the video information and the location map information until the user selects the displayed video information.
Method for displaying a user selection image further comprising.
상기 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계는,
상기 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.The method of claim 1,
Displaying the location map information on at least a portion of the screen,
Displaying the location map information in a picture in picture (PIP) form or a screen division form on the screen;
Method of displaying a user selection image comprising a.
상기 객체에 대한 위치를 추적하는 단계는,
상기 분류된 영상 정보를, 생성 시간 별 또는 객체에 부여된 아이디 별로 정렬하는 단계;
상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하는 단계; 및
상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.The method of claim 1,
Tracking the location for the object,
Sorting the classified image information by generation time or by IDs assigned to objects;
Specifying a position coordinate with respect to the object with respect to each of the aligned image information in consideration of a photographing point of the camera; And
Tracking the position of the object based on the specified position coordinates
Method of displaying a user selection image comprising a.
상기 객체의 위치를 추적하는 단계는,
상기 객체를 구분하여, 상기 객체의 위치를 추적하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.The method of claim 1,
Tracking the location of the object,
Classifying the object and tracking the location of the object
Method of displaying a user selection image comprising a.
상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 단계; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 단계
를 포함하는 사용자 선택 영상을 표시하는 방법.Identifying image information including a first selected object among image information generated by the plurality of cameras;
Tracking a location with respect to the first selected object using the identified image information; And
Displaying location map information for mapping the tracked location on at least part of a screen;
Method of displaying a user selection image comprising a.
상기 식별된 영상 정보를, 상기 위치 맵 정보와 함께 상기 화면에 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.9. The method of claim 8,
Displaying the identified image information on the screen together with the location map information.
Method for displaying a user selection image further comprising.
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는 단계
를 더 포함하는 사용자 선택 영상을 표시하는 방법.10. The method of claim 9,
Displaying second selected image information as the remainder of the screen except for the image information and the location map information according to the user's selection of the displayed image information.
Method for displaying a user selection image further comprising.
상기 추출된 객체에 아이디를 부여하고, 상기 부여된 아이디에 기준하여 상기 영상 정보를 분류하며, 상기 분류된 영상 정보를 이용하여, 상기 객체에 대한 위치를 추적하는 위치 추적부; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부
를 포함하는 사용자 선택 영상 표시 시스템.An object extracting unit which extracts an object from image information generated by a plurality of cameras;
A location tracking unit for assigning an ID to the extracted object, classifying the image information based on the assigned ID, and tracking a location of the object using the classified image information; And
A display control unit that displays location map information for mapping the tracked location on at least part of a screen.
User selected image display system comprising a.
상기 표시 제어부는,
상기 위치 맵 정보에 대한 사용자의 선택에 따라, 제1 선택된 객체와 연관되어 분류된 영상 정보를, 상기 화면의 적어도 다른 일부에 표시하는
사용자 선택 영상 표시 시스템.12. The method of claim 11,
The display control unit
Displaying image information classified in association with a first selected object on at least another part of the screen according to a user's selection of the location map information.
User-selected video display system.
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 화면의 전체로 표시하는
사용자 선택 영상 표시 시스템.The method of claim 12,
The display control unit
Displaying the second selected image information as the whole of the screen according to the user's selection of the displayed image information.
User-selected video display system.
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택이 있기 전까지, 방송국에서 송출되는 편집 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는
사용자 선택 영상 표시 시스템.The method of claim 12,
The display control unit
Until the user selects the displayed video information, edited video information transmitted from a broadcasting station is displayed on the remainder of the screen except for the video information and the location map information.
User-selected video display system.
상기 표시 제어부는,
상기 위치 맵 정보를, 상기 화면에서 PIP(picture in picture) 형태 또는 화면 분할 형태로 표시하는
사용자 선택 영상 표시 시스템.12. The method of claim 11,
The display control unit
Displaying the location map information in a picture in picture (PIP) form or a screen division form on the screen
User-selected video display system.
상기 위치 추적부는,
상기 분류된 영상 정보를, 생성 시간 별 또는 객체에 부여된 아이디 별로 정렬하고, 상기 카메라의 촬영지점을 고려하여, 상기 정렬된 영상 정보 각각에 대해 상기 객체에 대한 위치좌표를 특정하며, 상기 특정된 위치좌표에 기초하여 상기 객체의 위치를 추적하는
사용자 선택 영상 표시 시스템.12. The method of claim 11,
The position-
The classified image information is sorted by creation time or by ID given to an object, and the position coordinates of the object are specified for each of the sorted image information in consideration of the photographing location of the camera. To track the position of the object based on position coordinates
User-selected video display system.
상기 위치 추적부는,
상기 객체를 구분하여, 상기 객체의 위치를 추적하는 사용자 선택 영상 표시 시스템.12. The method of claim 11,
The position-
A user-selected video display system for classifying the object and tracking the location of the object.
상기 식별된 영상 정보를 이용하여, 상기 제1 선택된 객체에 대한 위치를 추적하는 위치 추적부; 및
상기 추적된 위치를 매핑하는 위치 맵 정보를, 화면의 적어도 일부에 표시하는 표시 제어부
를 포함하는 사용자 선택 영상 표시 시스템.An image extracting unit for identifying image information including a first selected object from among image information generated by a plurality of cameras;
A location tracker which tracks a location of the first selected object by using the identified image information; And
A display control unit that displays location map information for mapping the tracked location on at least part of a screen.
User selected image display system comprising a.
상기 표시 제어부는,
상기 식별된 영상 정보를, 상기 위치 맵 정보와 함께 상기 화면에 표시하는
사용자 선택 영상 표시 시스템.19. The method of claim 18,
The display control unit
Displaying the identified video information on the screen together with the location map information.
User-selected video display system.
상기 표시 제어부는,
상기 표시되는 영상 정보에 대한 상기 사용자의 선택에 따라, 제2 선택된 영상 정보를, 상기 영상 정보 및 상기 위치 맵 정보를 제외한, 상기 화면의 나머지로 표시하는
사용자 선택 영상 표시 시스템.20. The method of claim 19,
The display control unit
According to the user's selection of the displayed image information, to display the second selected image information as the remainder of the screen, excluding the image information and the location map information
User-selected video display system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/907,159 US9693108B2 (en) | 2012-06-12 | 2013-05-31 | Method and system for displaying user selectable picture |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120062790 | 2012-06-12 | ||
KR20120062790 | 2012-06-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130139151A true KR20130139151A (en) | 2013-12-20 |
KR102055614B1 KR102055614B1 (en) | 2019-12-16 |
Family
ID=49984553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120146681A KR102055614B1 (en) | 2012-06-12 | 2012-12-14 | Method and system of displaying user-selectable picture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102055614B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134078A (en) * | 2015-05-14 | 2016-11-23 | 금오공과대학교 산학협력단 | System for positioning player using beacon, acquiring image data and providing screen of player of interest |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003009016A (en) | 2001-06-19 | 2003-01-10 | Canon Inc | Picture display equipment and method, control program, and computer readable storage medium |
JP2008167127A (en) * | 2006-12-28 | 2008-07-17 | Mitsubishi Electric Corp | Video distributing method and video distributing device |
JP5288928B2 (en) | 2008-08-04 | 2013-09-11 | キヤノン株式会社 | Image processing apparatus and control method thereof |
-
2012
- 2012-12-14 KR KR1020120146681A patent/KR102055614B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134078A (en) * | 2015-05-14 | 2016-11-23 | 금오공과대학교 산학협력단 | System for positioning player using beacon, acquiring image data and providing screen of player of interest |
Also Published As
Publication number | Publication date |
---|---|
KR102055614B1 (en) | 2019-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9693108B2 (en) | Method and system for displaying user selectable picture | |
US10721439B1 (en) | Systems and methods for directing content generation using a first-person point-of-view device | |
CN109326310B (en) | Automatic editing method and device and electronic equipment | |
JP6621063B2 (en) | Camera selection method and video distribution system | |
EP3238445B1 (en) | Interactive binocular video display | |
US11006089B2 (en) | Information processing apparatus and information processing method | |
ES2790885T3 (en) | Real-time object tracking and motion capture at sporting events | |
US8547431B2 (en) | Method and apparatus for generating an event log | |
US8922718B2 (en) | Key generation through spatial detection of dynamic objects | |
JP7034666B2 (en) | Virtual viewpoint image generator, generation method and program | |
CN105765959B (en) | Method and system for producing video works | |
JP2018180655A (en) | Image processing device, image generation method, and program | |
CN105933665B (en) | A kind of method and device for having access to camera video | |
CN108337573A (en) | A kind of implementation method that race explains in real time and medium | |
JP2020086983A (en) | Image processing device, image processing method, and program | |
US9948999B2 (en) | Video processing system and method | |
US20170201723A1 (en) | Method of providing object image based on object tracking | |
JP2022105590A (en) | Information processing device, information processing method, and program | |
Wu et al. | Enhancing fan engagement in a 5G stadium with AI-based technologies and live streaming | |
KR102055614B1 (en) | Method and system of displaying user-selectable picture | |
CN105979280A (en) | Intelligent television program recognizing method and device | |
JP7282519B2 (en) | Image processing device or image processing server | |
US10405065B2 (en) | Video processing system and method | |
JP4270703B2 (en) | Automatic person index generator | |
JP2020067716A (en) | Information processing apparatus, control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |