KR20070111770A - Selecting method of the object in image using icon - Google Patents

Selecting method of the object in image using icon Download PDF

Info

Publication number
KR20070111770A
KR20070111770A KR1020060044976A KR20060044976A KR20070111770A KR 20070111770 A KR20070111770 A KR 20070111770A KR 1020060044976 A KR1020060044976 A KR 1020060044976A KR 20060044976 A KR20060044976 A KR 20060044976A KR 20070111770 A KR20070111770 A KR 20070111770A
Authority
KR
South Korea
Prior art keywords
icon
button
video
candidate
candidate direction
Prior art date
Application number
KR1020060044976A
Other languages
Korean (ko)
Other versions
KR100811624B1 (en
Inventor
장영규
Original Assignee
주식회사 코리아퍼스텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코리아퍼스텍 filed Critical 주식회사 코리아퍼스텍
Priority to KR1020060044976A priority Critical patent/KR100811624B1/en
Publication of KR20070111770A publication Critical patent/KR20070111770A/en
Application granted granted Critical
Publication of KR100811624B1 publication Critical patent/KR100811624B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key

Abstract

A method for selecting an object in a moving picture using an icon is provided to select directly a product within the moving picture by using a navigation button. A navigation button includes a central selection button and top/bottom/left/right buttons. The central selection button is pushed to form a user key input standby state through an objection selection processing unit. A pushing state of a directional button is determined according to a pushing state of the central selection button. A candidate direction is selected according to the pushing state of the directional button. An icon switch setting process is performed. When an icon(20) is set, the objection selection processing unit obtains object region information and generates the candidate direction. The icon is displayed in a moving picture(10).

Description

아이콘을 이용한 동영상 내 객체를 선택하는 방법{Selecting method of the object in image using icon}Selecting method of the object in image using icon}

도 1은 본 발명에 있어서, 동영상 내 객체선택을 위한 아이콘 표시방법 예시도.1 is a view illustrating an icon display method for object selection in a video according to the present invention.

도 2는 본 발명의 네비게이션 버튼 구성도.Figure 2 is a navigation button configuration of the present invention.

도 3은 본 발명의 시스템 흐름도.3 is a system flow diagram of the present invention.

도 4는 본 발명의 후보방향 생성을 설명하기 위한 예시도.4 is an exemplary view for explaining a candidate direction generation of the present invention.

도 5는 본 발명의 서비스 구성도. 5 is a service configuration diagram of the present invention.

도 6은 본 발명을 설명하기 위한 객체영역 샘플. 6 is an object region sample for explaining the present invention.

도 7은 본 발명의 흐름도. 7 is a flow chart of the present invention.

도 8은 본 발명을 설명하기 위한 객체3을 선택한 상태 예시도. 8 is an exemplary view illustrating a state in which object 3 is selected for explaining the present invention.

<도면의 주요부분에 대한 부호 설명><Description of Signs of Major Parts of Drawings>

1 : 객체 1 2 : 객체 21: Object 1 2: Object 2

3 : 객체 3 10 : 동영상 3: object 3 10: video

20 : 아이콘 30 : 네비게이션 버튼 20: icon 30: navigation button

31 : 중앙선택 버튼 32 : 상부방향 버튼 31: center selection button 32: upper direction button

33 : 하부방향 버튼 34 : 좌측방향 버튼 33: Down direction button 34: Left direction button

35 : 우측방향 버튼 30A : 네비게이션 버튼 입력처리부 35: right direction button 30A: navigation button input processing unit

40 : 후보방향 판단부 50 : 객체선택 처리부 40: candidate direction determination unit 50: object selection processing unit

60 : 화면표시부 70 : 동영상 디코더 60: screen display 70: video decoder

80 : 아이콘 생성부 90 : 후보방향 생성부 80: icon generation unit 90: candidate direction generation unit

100 : 객체영역 정보추출부 110 : 객체영역 DB100: object area information extraction unit 110: object area DB

120 : 방송/VOD 서비스 120: broadcast / VOD service

본 발명은 마우스 기능이 없는 TV나 휴대용 단말기 등에서 동영상 내의 관심객체(상품)를 사용자가 직접 선택할 수 있도록 하는 아이콘을 이용한 동영상 내 객체를 선택하는 방법에 관한 것으로, 특히 실시간 방송중인 이동방송에 맞는 빠른 객체 추적을 수행할 수 있도록 하는 것이다. The present invention relates to a method of selecting an object in a video using an icon that allows a user to directly select an object of interest (a product) in a video on a TV or a portable terminal without a mouse function. It allows you to perform object tracking.

디지털 TV의 보편화와 더불어서 가정에 양방향 TV의 기능이 적용되고 있고, 개인들은 DMB방송 및 와이브로 등과 같은 서비스를 통해 휴대용 단말기를 가지고, 양방향 동영상 서비스를 접하게 되고 있다. 양방향 동영상 서비스 중 대표적인 것으로 시청 중에 동영상 안의 객체(상품)를 사용자가 선택하면 그 상품을 판매하는 쇼핑 사이트에 연결해주는 서비스가 개발되고 있다. 이에 따라 단말기 상에서 사용자가 쉽게 동영상 내의 객체를 선택하는 방법이 필요하게 되었다. Along with the generalization of digital TV, the function of the interactive TV is being applied to the home, and individuals are getting interactive video services with portable terminals through services such as DMB broadcasting and WiBro. Among the interactive video services, a service that connects a shopping site that sells a product when a user selects an object (product) in the video while watching is being developed. Accordingly, there is a need for a method for a user to easily select an object in a video on a terminal.

PC와 같은 마우스 기능을 가지고 있는 기기에서는 동영상 내의 상품을 선택 하기 위해 마우스 커서를 이용할 수 있으나, TV나 휴대폰과 같은 기기에서는 마우스 기능이 없기 때문에 동영상 내의 상품을 직접 선택할 수 없다. In a device with a mouse function such as a PC, the mouse cursor can be used to select a product in the video. However, in a device such as a TV or a mobile phone, the mouse cursor cannot be used to directly select a product in the video.

유럽의 양방향 TV 서비스는 TV리모콘의 버튼에 색을 입혀 상품 설명과 색으로 매핑하는 방법으로 상품을 선택하는 방법을 사용하고, 휴대용 단말기에서는 상품의 ID를 숫자 버튼으로 선택하는 방법 등이 개발되고 있다. In Europe, interactive TV services use a method of selecting a product by coloring a button on a TV remote control and mapping a product description and a color. In a portable terminal, a method of selecting a product ID using a numeric button is being developed. .

본 발명은 동영상 내 객체를 선택하기 위한 방법 중 아이콘을 이용하는 것으로, 동영상 안의 객체 위에 아이콘을 올려 놓고 객체를 선택할 수 있도록 하고, 단말기의 네비게이션 버튼(상, 하, 좌, 우, 중앙선택 버튼)을 가지고 다른 객체를 선택할 수 있는 방법을 제공함을 특징으로 한다. The present invention uses an icon among methods for selecting an object in a video, and puts an icon on an object in the video so that an object can be selected, and a navigation button (up, down, left, right, center selection buttons) of the terminal is selected. It provides a way to select different objects with

상기 과제를 달성하기 위한 본 발명은 중앙의 선택버튼과 상/하/좌/우 버튼을 구비한 네비게이션 버튼을 이용하되, 중앙의 선택버튼을 눌러 객체 선택 처리부를 통해 사용자 키 입력 대기 상태로 하는 단계와, 상기 단계에서 중앙의 선택 버튼이 눌러지지 않으면 방향버튼이 눌러졌는지 여부를 판단하는 단계와, 방향버튼이 누른 상태이면 후보 방향을 선정하는 단계와, 후보방향이 선정되면 아이콘 스위치를 설정하는 단계와, 이이콘이 설정되면 객체영역 정보 추출부에서 시간별 객체 영역 정보를 얻어 후보방향을 생성하는 단계와, 후보방향이 생성되면 아이콘 모양을 생성하여 동영상 위에 생성된 아이콘을 표시하는 단계로 이루어짐을 특징으로 한다. In order to achieve the above object, the present invention uses a navigation button having a center selection button and an up / down / left / right button, and presses a center selection button to make a user key input wait state through an object selection processing unit. Determining whether the direction button is pressed if the center selection button is not pressed in the above step; selecting a candidate direction if the direction button is pressed; and setting an icon switch when the candidate direction is selected; When the icon is set, the object area information extracting unit obtains object area information for each time to generate candidate directions, and when the candidate direction is generated, an icon shape is generated to display the icon generated on the video. It is done.

도 1은 동영상내 객체 선택을 위한 아이콘 표시 예시도로서 동영상(10) 내에 객체(상품)(1)(2)(3)가 있고, 그중 2번째 객체(2) 위에 아이콘(20)이 올라가 있어서, 선택을 유도하고 있다. 아이콘(20)은 객체1(1)과 객체3(3)의 상대 위치를 표시하고 있어서, 네비게이션 버튼의 위와 오른쪽 버튼을 이용해 객체1(1)과 객체3(3)을 선택할 수 있도록 한다.FIG. 1 shows an example of displaying an icon for selecting an object in a video. There are objects (products) 1, 2 and 3 in the video 10, and an icon 20 is placed on the second object 2. To drive selection. The icon 20 displays the relative positions of the object 1 (1) and the object 3 (3), so that the object 1 (1) and the object 3 (3) can be selected using the up and right buttons of the navigation button.

상기에 있어서 네비게이션 버튼(30)은 도2에서와 같이 중앙 선택버튼(31), 상부 방향버튼(32), 하부방향버튼(33), 좌측방향버튼(34), 우측방향버튼(35)로 이루어져 있다. In the above, the navigation button 30 is composed of a center selection button 31, an upper direction button 32, a lower direction button 33, a left direction button 34, a right direction button 35 as shown in FIG. have.

도 3은 본 발명의 시스템 구성도이다. 3 is a system configuration diagram of the present invention.

네비게이션 버튼(30)에는 네비게이션 버튼 입력 처리부(30A)를 가지고 있고, 네비게이션 버튼 입력 처리부(30A)의 방향 버튼(32~35)은 후보방향 판단부(40)의 함수의 입력으로 처리하게 하며, 선택버튼(31)은 객체 선택 처리부(50)에서 처리하도록 전달하게 된다. The navigation button 30 has a navigation button input processing unit 30A, and the direction buttons 32 to 35 of the navigation button input processing unit 30A process the input as a function of the candidate direction determining unit 40, and selection. The button 31 is transferred to the object selection processing unit 50 for processing.

상기에 있어서, 후보방향판단부(40)는 사용자가 입력한 방향이 이전의 후보방향 생성부에서 계산해 낸 후보방향에 속하는지 여부를 판단하는 모듈이고, 객체선택 처리부(50)는 사용자가 객체(1)(2)(3)중 어느것을 선택했을 경우 처리하는 모듈로서, 전자 상거래 사이트로 연결될 수 있음과 동시에 객체에 대한 지식정보를 제공할 수 있다. In the above description, the candidate direction determining unit 40 is a module for determining whether the direction input by the user belongs to the candidate direction calculated by the previous candidate direction generating unit, and the object selection processing unit 50 determines that the user selects an object ( 1) (2) (3) is a module to process when any one is selected, it can be connected to an e-commerce site and can provide knowledge information about the object.

도면중 화면표시부(60)는 도1에서와 같이 동영상(10)과 아이콘(20)을 표시하게 하는 것이며, 동영상 디코더(70)는 방송/VOD 서비스되는 동영상을 디코딩 하게 된다. In the drawing, the screen display unit 60 displays the video 10 and the icon 20 as shown in FIG. 1, and the video decoder 70 decodes the video that is broadcast / VOD service.

그리고, 아이콘 생성부(80)는 화면표시부(60)에서 사용자에게 표시하는 아이콘(20)을 생성하는 부분으로서, 아이콘(20)의 위치와 아이콘(20)에 포함되는 후보방향을 생성하게 된다. 즉, 도 1에서와 같이 아이콘(20)은 그 위치가 객체2(2)의 중심 좌표이고, 후보방향은 상부측과 우측을 가리키고 있으며, 이이콘의 위치값은 후보방향 판단 모듈로부터 YES값이 들어올때 획득되고, 후보방향 생성부(90)으로부터 후보방향을 획득하게 된다. In addition, the icon generator 80 generates the icon 20 to be displayed to the user on the screen display unit 60, and generates a position of the icon 20 and a candidate direction included in the icon 20. That is, as shown in FIG. 1, the icon 20 is the coordinate of the center of the object 2 (2), the candidate direction points to the upper side and the right side, and the position value of the icon is determined by the YES value from the candidate direction determination module. Obtained when entering, the candidate direction is obtained from the candidate direction generation unit 90.

상기, 후보방향 생성부(90)는 사용자가 입력한 방향버튼(32~5)이 후보방향이면 아이콘 위치를 변경하고, 표시할 아이콘의 후보방향을 생성하는 기능을 수행한다. 현재의 아이콘의 위치가 수정되어서 후보방향이 갱신될 필요가 생기면 객체 영역 정보 추출부(100)로부터 현재 시간의 객체 들의 개수와 각각의 윤곽선 정보를 얻게 된다. 예시적으로, 현재 아이콘(20)의 위치각 객체2(2)에 있는 경우 도4의 객체2(2) 무게중심 좌표를 지나면서 기울기가 +1, -1인 선을 그어 동영상 화면을 4등분하고 다른 객체들의 윤곽선 무게중심 좌표가 속하는 영역을 후보 영역으로 결정한다. If the direction buttons 32 to 5 input by the user are candidate directions, the candidate direction generation unit 90 performs a function of changing an icon position and generating a candidate direction of an icon to be displayed. When the position of the current icon is modified and thus the candidate direction needs to be updated, the object area information extracting unit 100 obtains the number of objects at the current time and the respective contour information. For example, when the current position of the icon 20 is in the object angle 2 (2), a line having a slope of +1 and -1 while passing the center of gravity coordinates of the object 2 (2) of FIG. Then, the area to which the contour center of gravity coordinates of other objects belong is determined as a candidate area.

객체영역 DB안의 레코드에 명시된 영역정보는The area information specified in the record in the object area DB is

(영역정보 다각형좌표 ="

Figure 112006034928343-PAT00001
")(Area Information Polygonal Coordinate = "
Figure 112006034928343-PAT00001
")

형태로 다각형(폴리곤)을 정의하고 있고, 정의된 다각형의 무게중심을 구하는 방법은 무게 중심 좌표를 (xcyc)이라고 할 때,Defining a polygon (polygon) in the form, and the method of obtaining the center of gravity of the defined polygon is a center of gravity coordinate (x c y c ),

Figure 112006034928343-PAT00002
Figure 112006034928343-PAT00003
Figure 112006034928343-PAT00002
Figure 112006034928343-PAT00003

가 된다. Becomes

예컨대, 도6에 도시된 객체영역 샘플을 통해 예시적으로 설명하면, For example, by way of example through the object region sample shown in FIG.

(영역정보 다각형좌표 = "20,20 20,100 100,100 100,20")(Area information polygon coordinate = "20,20 20,100 100,100 100,20")

과 같은 사각형의 무게중심 좌표는

Figure 112006034928343-PAT00004
이며, The center of gravity coordinates of
Figure 112006034928343-PAT00004
Is,

Figure 112006034928343-PAT00005
Figure 112006034928343-PAT00006
Figure 112006034928343-PAT00005
Figure 112006034928343-PAT00006

로 구해진다. Obtained by

상기 객체영역 정보추출부(100)는 동영상이 재생되는 시간에 맞추어 객체의 출현 정보가 변경될때 마다, 그에 해당하는 객체 영역 정보를 객체 영역DB(110)로부터 획득하는 기능을 수행한다. The object region information extractor 100 performs a function of acquiring object region information corresponding to the object region information from the object region DB 110 whenever the appearance information of the object changes in accordance with the time at which the video is played.

상기와 같은 본 발명을 설명하기 위한 시스템 구성을 통한 시스템 작업을 설명하면 다음과 같다. Referring to the system operation through the system configuration for explaining the present invention as described above are as follows.

화면표시부(60)는 동영상 디코더(70)를 통해 수신한 동영상을 표시하고, 아이콘 생성부(80)를 통해 만들어진 아이콘(20)을 동영상 위에 표시한다. The screen display unit 60 displays the video received through the video decoder 70 and displays the icon 20 made through the icon generator 80 on the video.

주기적으로 객체영역 정보 추출부(100)에서, 미리 만들어 놓은 객체영역 DB(110)로부터 현재 재생되는 동영상과 동기화 되어 표시되어야 하는 객체영역정보를 추출한다. Periodically, the object region information extracting unit 100 extracts object region information that should be displayed in synchronization with the currently played video from the object region DB 110 that has been created in advance.

후보방향 생성부(90)에서는 추출된 현재 시간대 객체영역 정보와, 사용자의 방향 버튼 입력을 통해 얻어진 현재 아이콘 위치 정보를 가지고, 이후에 활성화되는 네비게이션 버튼(30) 방향인 후보방향을 생성한다. The candidate direction generation unit 90 generates the candidate direction which is the direction of the navigation button 30 which is activated after having the extracted current time zone object area information and the current icon position information obtained through the user's direction button input.

후보방향 생성부(90)에서 만들어진 후보방향 정보는 아이콘 생성부(80)에서 객체영역의 상대위치를 아이콘으로 표시하는데 사용되어지고, 사용자의 방향 버튼 입력 시에 그 값이 후보방향에 속하는지를 확인하는데 사용되어진다. The candidate direction information generated by the candidate direction generation unit 90 is used by the icon generation unit 80 to display the relative position of the object area as an icon, and check whether the value belongs to the candidate direction when the user presses the direction button. It is used to

만일 사용자가 객체를 중앙선택 버튼(31)을 누른 경우에는 객체 선택 처리부(50)에서 정해진 기능을 수행하고, 후보 방향들과 동일한 방향 버튼이 눌러진 경우 아이콘 생성부(80)에서 입력된 방향 버튼에 맞게 아이콘을 생성하고, 화면 표시부에서 선택되어진 객체 위에 아이콘을 표시하게 된다. If the user presses the center selection button 31 on the object, the object selection processing unit 50 performs a predetermined function, and when the same direction button as the candidate directions is pressed, the direction button input from the icon generator 80 Create an icon to fit the icon and display the icon on the selected object on the screen display.

또한, 후보 방향들과 동일한 방향 버튼이 눌러지지 않은 경우에는 아무 작동도 하지 않게 된다. Also, no operation is performed when the same direction button as the candidate directions is not pressed.

도5는 본 발명의 설명을 위한 서비스 구성도이다. 5 is a service configuration diagram for explaining the present invention.

방송/VOD 서비스(120)는 사용자에게 동영상 서비스를 제공하는 서버로서 방송 또는 VOD컨텐츠 제공한다. The broadcast / VOD service 120 is a server that provides a video service to a user and provides broadcast or VOD content.

영상 디코더(70)는 서버로부터 제공되는 압축된 동영상을 화면에 표시하기 위한 디코더 모듈(장치)이다. The image decoder 70 is a decoder module (device) for displaying a compressed video provided from a server on a screen.

객체영역 DB(110)는 방송/VOD 서비스에서 제공하는 동영상에 나타나는 객체(아이템)들의 정보를 저장하고 있는 DB로서 제공하는 동영상의 시간에 따라 객체(아이템)의 출현에 관한 정보, 객체와 대응되는 각각의 객체 설명정보와 그 객체의 영상내의 윤곽선(contour)정보를 포함한다. The object area DB 110 is a DB that stores information about objects (items) appearing in a video provided by a broadcast / VOD service. The object area DB 110 corresponds to information about an appearance of an object (items) according to the time of the video provided. Each object description information and contour information in the image of the object are included.

객체영역 DB안의 레코드 샘플예제(XML형식)를 도6을 통해 설명한다. A record sample example (XML format) in the object area DB will be described with reference to FIG.

동영상 0초에서 10초동안 아래의 사각형의 영역에 객체가 존재하고, 그 객체에 대한 설명은 1.htm에 존재한다. An object exists in the area of the rectangle below the video for 0 to 10 seconds, and a description of the object exists in 1.htm.

<영상시간정보 시작시간="0s" 종료시간="10s"><Video time information start time = "0s" end time = "10s">

<상품정보 상품아이디="1" 설명링크="1.htm"><Product Information Product ID = "1" Description Link = "1.htm">

<영역정보 다각형좌표="20,20,20,100 100,100 100,20"><Area information polygon coordinates = "20,20,20,100 100,100 100,20">

</상품정보></ Product Information>

</영상시간정보></ Video time information>

이와같이 하여 이루어지는 본 발명을 도7 흐름도를 통해 설명한다. The present invention thus achieved will be described with reference to the flowchart of FIG.

중앙의 선택버튼과 상/하/좌/우 버튼을 구비한 네비게이션 버튼을 이용하되, 중앙의 선택버튼을 눌러 객체 선택 처리부를 통해 사용자 키 입력 대기 상태로 하는 단계와, 상기 단계에서 중앙의 선택 버튼이 눌러지지 않으면 방향버튼이 눌러졌는지 여부를 판단하는 단계와, 방향버튼이 누른 상태이면 후보 방향을 선정하는 단계와, 후보방향이 선정되면 아이콘 스위치를 설정하는 단계와, 이이콘이 설정되면 객체영역 정보 추출부에서 시간별 객체 영역 정보를 얻어 후보방향을 생성하는 단계와, 후보방향이 생성되면 아이콘 모양을 생성하여 동영상 위에 생성된 아이콘을 표시하는 단계를 반복적으로 실행하여 마우스가 없는 기기에서 동영상 안의 객체를 네비게이션 버튼을 가지고 선택할 수 있게 되는 것이다. Using a navigation button having a center selection button and an up / down / left / right button, pressing the center selection button to make a user key input standby state through an object selection processing unit; If it is not pressed, determining whether the direction button is pressed; selecting a candidate direction if the direction button is pressed; setting an icon switch when the candidate direction is selected; and if the icon is set, the object area. The method extracts the object direction information by time from the information extracting unit and generates a candidate direction, and when the candidate direction is generated, repeatedly generates the icon shape and displays the created icon on the video. Can be selected with the navigation buttons.

예컨대, 도1은 동영상(10) 내의 객체(1)(2)(3)를 선택하기 위한 아이콘(20) 으로 객체2(2)를 가르키고 있다. 도 2의 네비게이션버튼(30)의 중앙선택 버튼(31)을 선택하면 객체2(2)를 선택하게 되고 아이콘(20)의 화살표는 객체1(1)와 객체3(3)의 상태위치를 표시한다. 즉, 객체2(2)의 위에 객체1(1)이 있고, 객체2(2)의 우측에 객체3(3)이 존재한다는 것을 표시한다. For example, FIG. 1 points to object 2 2 as an icon 20 for selecting objects 1, 2, 3 in video 10. When the center selection button 31 of the navigation button 30 of FIG. 2 is selected, the object 2 (2) is selected, and the arrow of the icon 20 indicates the position of the object 1 (1) and the object 3 (3). do. That is, it indicates that object 1 (1) is on the object 2 (2), and that object 3 (3) is on the right side of the object 2 (2).

이와같은 상태에서 네비게이션 버튼(3)의 우측버튼(35)을 누르면 도8과 같이 아이콘(20)이 객체3(3)위에 위치하여 아이콘(20)의 화살표는 객체1(1)을 가리키는 상부측과 객체2(2)를 가리키는 좌측이 활성화되게 된다. In this state, when the right button 35 of the navigation button 3 is pressed, the icon 20 is positioned on the object 3 (3) as shown in FIG. 8, and the arrow of the icon 20 indicates the upper side of the object 1 (1). And the left-hand side pointing to object 2 (2) are activated.

이와같은 방법의 반복적 실행을 통하여 마우스 없이도 네비게이션 버튼으로 동영상 내의 객체를 자유롭게 선택할 수 있게 되는 것이다. Through repeated execution of this method, it is possible to freely select an object in a video using a navigation button without a mouse.

이와같은 본 발명은 마우스 기능이 없는 TV리모콘이나 휴대용 단말기를 통해서 네비게이션 버튼을 이용하여 동영상 내의 다른 상품(객체)를 직접 선택할 수 있도록 하므로써, 실시간 방송중인 이동방송에 맞는 빠른 객체 추적을 수행할 수 있음과 동시에 수월한 조작에 의해 효율적으로 동영상 내의 객체를 선택할 수 있는 효과를 가진다. As such, the present invention enables a user to directly select another product (object) in a video using a navigation button through a TV remote control or a portable terminal without a mouse function, thereby enabling fast object tracking for mobile broadcasting in real time. At the same time, it has the effect of efficiently selecting objects in the video by easy operation.

Claims (1)

중앙의 선택버튼과 상/하/좌/우 버튼을 구비한 네비게이션 버튼을 이용하되, 중앙의 선택버튼을 눌러 객체 선택 처리부를 통해 사용자 키 입력 대기 상태로 하는 단계와, 상기 단계에서 중앙의 선택 버튼이 눌러지지 않으면 방향버튼이 눌러졌는지 여부를 판단하는 단계와, 방향버튼이 누른 상태이면 후보 방향을 선정하는 단계와, 후보방향이 선정되면 아이콘 스위치를 설정하는 단계와, 이이콘이 설정되면 객체영역 정보 추출부에서 시간별 객체 영역 정보를 얻어 후보방향을 생성하는 단계와, 후보방향이 생성되면 아이콘 모양을 생성하여 동영상 위에 생성된 아이콘을 표시하는 단계를 반복적으로 실행하여 마우스가 없는 기기에서 동영상 안의 객체를 네비게이션 버튼을 가지고 선택할 수 있게 함을 특징으로 하는 아이콘을 이용한 동영상 내 객체를 선택하는 방법. Using a navigation button having a center selection button and an up / down / left / right button, pressing the center selection button to make a user key input standby state through an object selection processing unit; If it is not pressed, determining whether the direction button is pressed; selecting a candidate direction if the direction button is pressed; setting an icon switch when the candidate direction is selected; and if the icon is set, the object area. The method extracts the object direction information by time from the information extracting unit and generates a candidate direction, and when the candidate direction is generated, repeatedly generates the icon shape and displays the created icon on the video. Object in a video using an icon How to choose.
KR1020060044976A 2006-05-19 2006-05-19 Selecting method of the object in image using icon KR100811624B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060044976A KR100811624B1 (en) 2006-05-19 2006-05-19 Selecting method of the object in image using icon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060044976A KR100811624B1 (en) 2006-05-19 2006-05-19 Selecting method of the object in image using icon

Publications (2)

Publication Number Publication Date
KR20070111770A true KR20070111770A (en) 2007-11-22
KR100811624B1 KR100811624B1 (en) 2008-03-11

Family

ID=39090529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060044976A KR100811624B1 (en) 2006-05-19 2006-05-19 Selecting method of the object in image using icon

Country Status (1)

Country Link
KR (1) KR100811624B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100278359B1 (en) * 1997-02-14 2001-01-15 윤종용 Computer device having screen magnification point input function and its control method
TW476903B (en) * 1999-11-12 2002-02-21 Ibm Method, system, and program for processing data from an input device
KR100443129B1 (en) * 2002-08-26 2004-08-04 주식회사 파인디지털 Pointer moving method using window scanning scheme
TW200622893A (en) 2004-07-09 2006-07-01 Nokia Corp Cute user interface
KR20060095658A (en) * 2005-02-28 2006-09-01 조용현 Key setting and inputing method for handphone shooting games

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US10896442B2 (en) 2011-10-19 2021-01-19 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US11551263B2 (en) 2011-10-19 2023-01-10 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input

Also Published As

Publication number Publication date
KR100811624B1 (en) 2008-03-11

Similar Documents

Publication Publication Date Title
CN109618206B (en) Method and display device for presenting user interface
WO2021088320A1 (en) Display device and content display method
US7614017B2 (en) Information processing apparatus, processing method therefor, program allowing computer to execute the method
US20110059759A1 (en) Method and apparatus for providing POI information in portable terminal
EP2755383A1 (en) Communication terminal, video display system, method of executing communication terminal processing, and program
US20210314668A1 (en) Display Device And Content Recommendation Method
KR100344582B1 (en) Additional Informations Service Method using Broadcasting Receiving Apparatus and Additional Informations Provider
CN103841430A (en) Electronic program guide displaying method
CN109960556B (en) Display device
CN109391848B (en) Interactive advertisement system
CN107765976B (en) Message pushing method, terminal and system
CN111327916B (en) Live broadcast management method, device and equipment based on geographic object and storage medium
CN103778549A (en) Mobile application popularizing system and method
CN113411656A (en) Information processing method, information processing device, computer equipment and storage medium
CN108401173B (en) Mobile live broadcast interactive terminal, method and computer readable storage medium
CN106658077B (en) Human screen interactive appreciation method
CN105867725A (en) Application interaction method and terminal
WO2018010338A1 (en) Display method and device
CN103596034A (en) Control method and control device for desktop display of intelligent television
KR100811624B1 (en) Selecting method of the object in image using icon
TW201235924A (en) System using a control device to control and display images of a controllable device and method thereof
CN113490064A (en) Video playing method and device and server
EP3029951A2 (en) Electronic apparatus and method for controlling electronic apparatus
CN114390329B (en) Display device and image recognition method
CN113230649A (en) Display control method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130228

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150303

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160302

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180405

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190304

Year of fee payment: 12