KR20080078217A - Method for indexing object in video, method for annexed service using index of object and apparatus for processing video - Google Patents

Method for indexing object in video, method for annexed service using index of object and apparatus for processing video Download PDF

Info

Publication number
KR20080078217A
KR20080078217A KR1020070017999A KR20070017999A KR20080078217A KR 20080078217 A KR20080078217 A KR 20080078217A KR 1020070017999 A KR1020070017999 A KR 1020070017999A KR 20070017999 A KR20070017999 A KR 20070017999A KR 20080078217 A KR20080078217 A KR 20080078217A
Authority
KR
South Korea
Prior art keywords
information
cell
image
frame
service
Prior art date
Application number
KR1020070017999A
Other languages
Korean (ko)
Inventor
정태우
정향숙
정태길
Original Assignee
정태우
정태길
정향숙
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정태우, 정태길, 정향숙 filed Critical 정태우
Priority to KR1020070017999A priority Critical patent/KR20080078217A/en
Publication of KR20080078217A publication Critical patent/KR20080078217A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2246Trees, e.g. B+trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2291User-Defined Types; Storage management thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24573Query processing with adaptation to user needs using data annotations, e.g. user-defined metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

A method for indexing an object in a video, an annexed service method using information of the object, and an apparatus for processing the video are provided to analyze a screen size of the video and frame information, to re-encode the video for a streaming service, and to set the uppermost cell split number and the maximum cell split number for judging the position of the object which is set by a user regardless of a resolution and a screen size. A method for seeking video information comprises the steps of: checking whether video information of an analysis object exists in a video information storage(S110); discriminating whether the video needs a format and a codec when the video exists, selecting a proper codec, and analyzing the video(S111,S120); checking a video header and key frame information(S121); analyzing a screen size of the video and the frame information(S122); judging whether an original video needs the encoding for the service codec(S130); converting or re-encoding the video for a streaming service(S131); setting the uppermost cell split number and the maximum cell split number(S140); and storing the uppermost cell split number and the maximum cell split number(S150).

Description

영상에 포함된 객체 색인 방법과 그 색인 정보를 이용한 부가 서비스 방법 및 그 영상 처리 장치{METHOD FOR INDEXING OBJECT IN VIDEO, METHOD FOR ANNEXED SERVICE USING INDEX OF OBJECT AND APPARATUS FOR PROCESSING VIDEO}OBJECT AND APPARATUS FOR PROCESSING VIDEO} METHOD FOR INDEXING OBJECT IN VIDEO, METHOD FOR ANNEXED SERVICE USING INDEX OF OBJECT AND APPARATUS FOR PROCESSING VIDEO}

도 1은 영상서버와 사용자 단말의 블록도이다.1 is a block diagram of an image server and a user terminal.

도 2는 프레임 및 객체 분석 데이터 테이블이다.2 is a frame and object analysis data table.

도 3은 객체 서비스 메타 데이터 테이블 및 자질 테이블이다.3 is an object service metadata table and a feature table.

도 4는 영상객체 데이터와 서비스 메타 데이터간의 관계도를 표현한 도면이다.4 is a diagram illustrating a relationship diagram between image object data and service metadata.

도 5는 본 발명의 처리 절차도이다.5 is a processing procedure diagram of the present invention.

도 6은 영상 정보 검색 및 처리에 대한 절차도이다.6 is a flowchart of image information retrieval and processing.

도 7은 영상 이미지 분석을 위한 처리 절차도이다.7 is a flowchart of a process for analyzing an image image.

도 8은 객체 식별결과 저장 처리 절차도이다.8 is a flowchart illustrating a process of storing an object identification result.

도 9는 객체 분석 예시도 이다.9 is an example of object analysis.

도 10은 객체의 서브 분석 셀 처리 예시도이다.10 is an exemplary diagram of a sub-analysis cell processing of an object.

도 11은 서버의 셀 분할 예시도이다.11 is an exemplary diagram of cell division of a server.

도 12는 객체 식별 및 폴리곤 인식 절차도이다.12 is an object identification and polygon recognition procedure.

도 13은 장면분할 처리 절차도이다.13 is a scene division processing procedure diagram.

도 14는 객체 자질 부여 절차도이다.14 is an object qualification procedure procedure diagram.

도 15는 객체 논리연관도이다.15 is an object logic association diagram.

도 16은 서비스 프로파일 생성 절차도이다.16 is a procedure for creating a service profile.

도 17은 서비스 검색 처리 및 절차도 이다.17 is a service search process and procedure diagram.

도 18은 바이너리 질의에 대한 처리 예시도이다.18 is an example of processing for a binary query.

도 19은 단말 제어 명령 생성 및 처리 예시도 이다.19 illustrates an example of generating and processing a terminal control command.

도 20는 메타데이터, 자질정보, 서비스 관리에 대한 서비스 편집기 예시도이다.20 is an exemplary view of a service editor for metadata, feature information, and service management.

도 21은 사용자 단말의 동영상 서비스 인터페이스의 일 실시예 이다.21 is a view illustrating a video service interface of a user terminal.

도 22은 휴대단말을 이용한 인터렉티브 영상 검색 단말의 서비스 실시예이다.22 illustrates a service embodiment of an interactive image retrieval terminal using a mobile terminal.

본 발명은 영상 처리 장치 및 그 방법에 관한 것으로서, 특히 영상에 포함된 객체를 색인하는 방법과 그 객체 정보를 이용하여 부가 서비스를 제공하는 방법 및 그 장치에 관한 것이다.The present invention relates to an image processing apparatus and a method thereof, and more particularly, to a method of indexing an object included in an image, and a method and apparatus for providing an additional service using the object information.

통신기술의 발달과 대중화로 인해 댁내에 까지 통신 선로가 구축되어 사용자가 필요한 경우에 언제든지 원하는 인터넷 사이트에 접속하여 필요한 정보를 얻을 수 있는 시대가 되었고 이에 따라 많은 사업자들이 인터넷을 통해 광고 등의 정보 를 전달함으로써 인터넷을 마켓팅의 도구로 이용하고 있다.Due to the development and popularization of communication technology, communication lines have been built up to the home, and users can access the desired internet site anytime and get the necessary information when they need it. By using it, the Internet is used as a marketing tool.

더욱이, 텔레비전과 같은 영상기기 상품도 자체적으로 통신기능을 구비하거나, 외부 장치(예컨대, 셋-톱 박스(set-top box) 등)를 통해 통신기능을 구비함으로써, 컴퓨터는 물론 영상기기도 양방향 통신이 가능해져, 사업자들은 영상기기도 하나의 마케팅 도구로 이용하게 되었다. 즉, 사업자들은 영상기기가 수신하는 방송신호에 상품 정보를 부가하여, 이 상품정보를 선택하게 함으로써, 원하는 상품의 마케팅에 활용하는 방안을 제시하고 있다.Moreover, a video device such as a television also has a communication function on its own or a communication function through an external device (eg, a set-top box, etc.), so that both a computer and a video device can communicate with each other. This enabled operators to use video equipment as a marketing tool. That is, operators have proposed a method of adding a product information to a broadcast signal received by a video device and selecting the product information to use for marketing a desired product.

이러한 종래의 방송신호를 이용한 상품 정보 제공 방법은 방송될 영상정보로부터 상품 대상이 될 객체를 인식한 사용자가 상품 정보를 별도로 입력한 후 그 상품 정보와 영상 정보를 함께 전송함으로써 영상정보에 포함된 상품 정보를 시청자에게 제공하는 방식을 사용하였다. 즉 종래에는 특정 영상에 포함된 객체들 중 상품 정보가 필요한 객체에 대한 인식을 위해 사람이 개입을 하여야 했다.In the conventional method for providing product information using a broadcast signal, a user who recognizes an object to be a product target from the image information to be broadcast separately inputs the product information, and then transmits the product information and the image information together, thereby including the product included in the image information. The method of providing information to the viewer was used. That is, in the related art, a person has to intervene to recognize an object requiring product information among objects included in a specific image.

이로 인해 특정 영상에 포함된 객체의 인식을 위해 사용자가 영상을 반복해서 청취해야 하는 번거로움이 있다. 또한 상품 정보를 입력하고자 하는 사람의 주관적인 판단에 따라 상품 대상이 결정됨으로써 영상에 대한 객관적인 분석이 어려웠다.As a result, in order to recognize an object included in a specific image, the user has to repeatedly listen to the image. In addition, it is difficult to objectively analyze the image because the product target is determined according to the subjective judgment of the person who wants to input the product information.

본 발명에서는 본 발명에서는 멀티미디어에 포함된 객체를 자동으로 인식하는 객체 색인 방법 및 그 장치를 제공하고자 한다. The present invention provides an object indexing method and apparatus for automatically recognizing an object included in a multimedia.

또한 본 발명은 영상에 포함된 객체의 상대적인 위치를 관리하고 저장하기 위한 가상의 프레임과 셀을 관리함으로써 해당 영상이 표시되는 장치의 해상도나, 화면 크기와 상관없이 상기 표시 장치 상에서 시청자가 지정한 위치의 객체를 정확하게 판단할 수 있도록 하는 방법 및 그 장치를 제공하고자 한다.In addition, the present invention manages the virtual frames and cells for managing and storing the relative position of the objects included in the image to manage the position of the position specified by the viewer on the display device regardless of the resolution or screen size of the device on which the image is displayed A method and an apparatus for accurately determining an object are provided.

또한 본 발명은 색인 된 객체정보에 객체가 가진 다양한 자질 속성값을 부여하고 속성값의 연산을 통한 다양하고 지능형의 객체 및 정보의 검색 방법 및 그 장치를 제공하고자 한다.Another object of the present invention is to provide a method and apparatus for retrieving various and intelligent objects and information through assigning various property attributes of an object to indexed object information and calculating the attribute values.

상기 목적을 달성하기 위해 본 발명에서 제공하는 객체 색인 방법은 영상에 대한 기본 화면 크기를 검출단계; 미리 설정된 분할 정보에 의거하여 화면을 다수의 가상 셀로 분할하고, 그 분할정보를 셀로 설정하는 단계; 상기 분할한 셀 각각의 이미지 정보를 분석하여 셀 맵핑 정보와 이미지 분석정보를 저장하는 단계; 이미지 분석 정보가 동일한 셀 중 인접한 셀들의 집합을 하나의 객체로 식별하는 단계; 객체 식별정보를 분석하여 객체로 색인하는 단계; 영상 프레임의 이미지 식별 정보를 이용하여 식별된 객체와 배경등의 분석정보를 이용하여 장면을 구분하는 단계;과 저장된 객체정보에 객체의 자질 속성정보를 부가하고 연관정보 검색 규칙을 부여하여 객체 프로파일을 생성하는 단계;와 서비스를 제공하는 방법에 있어서 다양한 동적 서비스 방법을 제공하기 위한 서비스 프로파일 생성 단계;를 포함한다.In order to achieve the above object, the object indexing method provided by the present invention includes: detecting a basic screen size for an image; Dividing the screen into a plurality of virtual cells based on preset split information, and setting the split information into cells; Analyzing image information of each of the divided cells and storing cell mapping information and image analysis information; Identifying a set of adjacent cells among cells having the same image analysis information as one object; Analyzing the object identification information and indexing the object as an object; Classifying a scene using analysis information such as an object and a background identified using image identification information of an image frame; and adding object property information of the object to stored object information and assigning an association information search rule to create an object profile. And generating a service profile for providing various dynamic service methods in a method of providing a service.

또한 상기 발명에서는 멀티미디어에서 다양한 부가서비스 및 검색 방법을 제공하는데 있어서 속성정보와 자질정보의 연산을 통한 검색 규칙 생성 단계;와 상기 색인 정보를 네트웍을 통하여 제공하는 단계;와 사용자의 검색정보를 입력하는 단계;와 입력된 검색정보를 해석하는 단계;와 입력 대응되는 서비스를 검색하고 전송하는 단계;를 포함하며 상기의 서비스를 제공하기 위한 멀티미디어 서버와 단말로 구성되는 장치;와 무선 및 유선 네트웍을 포함하는 다양한 네트워크상에서 동적 인터페이스를 제공하는 제어 명령 인터페이스 방법을 포함하는 것을 특징으로 한다.In the present invention, in the multimedia to provide a variety of additional services and search methods for generating a search rule through the operation of the attribution information and feature information; providing the index information through a network; and inputs the user's search information And; interpreting the input search information; and searching and transmitting the corresponding corresponding service; and comprising a multimedia server and a terminal for providing the service; and a wireless and wired network. It characterized in that it comprises a control command interface method for providing a dynamic interface on a variety of networks.

상기 검출 단계에 있어서 영상에서 프레임으로 추출된 이미지 화면의 픽셀정보를 확인하여 화면의 크기를 검출하고 미리 설정된 분할정보에 의거하여 화면의 너비와 높이로 이루어진 화면의 크기에서 분할 정보에 맞는 픽셀 단위를 추출하는 것을 포함하는 것을 특징으로 한다.In the detecting step, the pixel size of the image screen extracted from the image is checked to detect the size of the screen, and the pixel unit suitable for the split information is determined based on the screen width and the height of the screen based on the preset split information. Characterized in that it comprises the extraction.

상기 분할정보를 셀로 설정하는 단계에 있어서 화면의 크기에 따른 픽셀정보가 구해지면 상대적 분할정보를 셀로 설정하는 과정에 있어서 각각의 셀 영역에 할당되는 프레임에서의 픽셀 좌표값을 맵핑시키는 것으로 이때의 픽셀의 좌표와 셀의 맵핑정보는 상대적 위치값으로 설정하는 것을 특징으로 한다.If the pixel information according to the size of the screen is obtained in the step of setting the split information as a cell, the pixel coordinates in the frame allocated to each cell area are mapped in the process of setting the relative split information as the cell. The coordinate information of the cell and the mapping information of the cell is characterized by setting to a relative position value.

상기 분할 과정은 프레임을 계층적으로 분할하고 분할된 가상 셀의 갯수는 2의 배수로 하는 것이 바람직하다. In the dividing process, the frames are hierarchically divided and the number of divided virtual cells is a multiple of two.

또한 상기 분할과정은 이미지 프레임을 특정 갯수로 가상 셀로 분할하고 각각의 셀은 2의 배수로 서브셀을 분할하여 이러한 과정을 반복적으로 지정한 셀 분할 단계를 반복하는 것을 특징으로 한다.In addition, the dividing process divides the image frame into virtual cells by a specific number, and each cell divides the subcells by a multiple of 2 and repeats the cell dividing step, which is repeatedly designated.

상기 셀로 분할된 각각의 서브셀은 타겟 영상에서의 픽셀단위 좌표정보를 가상셀로 맵핑하는 규칙을 가지는 것이 바람직하다.Each subcell divided into the cells preferably has a rule for mapping pixel unit coordinate information in a target image to a virtual cell.

이때 상기 프레임에서 이미지를 분석하는 프레임은 시간 혹은 프레임 식별자에 의거한 일정 간격의 프레임을 분석하는 것이 바람직하다.In this case, it is preferable that the frame analyzing the image in the frame analyzes frames at a predetermined interval based on time or frame identifier.

상기 분할정보를 셀로 설정하는 단계에서의 분할 과정은 프레임의 영상 이미지의 분석과정과 동시에 진행되는데 이때 셀을 분할하는데 있어서 최상위 셀의 픽셀 정보 이미지 분석정보가 단일한 분석정보인지 복수의 분석정보를 가지는 지를 판단하여 셀에서 복수의 분석정보가 존재할 경우 해당셀을 2의 배수로 분할하는 것을 특징으로 한다.The dividing process in the step of setting the segmentation information to a cell is performed simultaneously with the process of analyzing the video image of the frame. In this case, the pixel information image analysis information of the highest cell has a single analysis information or a plurality of analysis information. If a plurality of pieces of analysis information exist in the cell is determined, the corresponding cell is divided into multiples of two.

상기 셀에 대응하는 좌표 영역의 픽셀을 분석하는 방법에 있어서 셀의 분석정보가 복수개이면 현재의 셀을 분할한다.In the method of analyzing a pixel of a coordinate region corresponding to the cell, if the analysis information of the cell is plural, the current cell is divided.

상기 분석정보를 저장하는 단계에서의 셀 이미지 정보 분석과정은 칼라, 텍스추어 및 외각선 판별등의 분석정보를 이용하여 분석을 하게되는데 분석과정에서 하나의 선택셀에 복수의 분석정보가 존재하면 셀을 서브셀로 2의 배수개 만큼 분할하여 가령 4개 혹은 8개로 분할하고 분할된 각각의 서브셀의 이미지를 같은 방법으로 분석하게 된다. The cell image information analysis process in the step of storing the analysis information is analyzed using analysis information such as color, texture, and outline detection. If a plurality of analysis information exist in one selected cell, the cell is analyzed. The subcell is divided into multiples of two, for example, divided into four or eight, and the divided images are analyzed in the same manner.

상기의 이미지 분석과정은 단일 이미지 분석 속성을 검출할 때까지 지정된 분할 깊이까지 분할하여 분석하는 것이 바람직하다.In the above-described image analysis process, it is preferable to divide and analyze up to a specified segmentation depth until a single image analysis property is detected.

상기 영상 이미지의 분석정보는 분할 서브셀과 이미지 분석정보를 같이 저장하는 것이 바람직하다. Preferably, the analysis information of the video image is stored together with the divided subcell and the image analysis information.

상기 객체 식별단계 에서는 분할한 셀 각각의 이미지 정보를 이용하여 분할된 셀 맵핑 정보를 이용하여 순차적으로 셀에 대응하는 인접 셀들을 선택하면서, 그 선택된 셀의 색상, 텍스쳐 정보등 이미지 정보의 분석 결과 그 분석정보가 단일한 경우 그 셀이 단일 객체에 포함되는 것으로 판단하는 것이 바람직하다.In the object identification step, the adjacent cells corresponding to the cells are sequentially selected using the divided cell mapping information by using the image information of each divided cell, and as a result of analyzing the image information such as the color and texture information of the selected cell, If the analysis information is single, it is preferable to determine that the cell is included in a single object.

또한 상기 셀 분석 과정은 상기 선택된 셀의 색상, 텍스쳐 및 경계선 정보등 분석 결과 하나 이상의 분석정보가 존재하는 경우 그 분석정보들 중 미리 설정된 단일객체 판단비율 즉 셀에 포함된 픽셀의 이미지 분석정보가 단일 분석정보 오차 범위내에 있으면 하나의 동일 정보로 해석하여 하나의 분석정보를 해당 셀의 대표 이미지 정보로 저장하는 것이 바람직하다.In addition, the cell analysis process may be performed when the one or more pieces of analysis information such as color, texture, and boundary information of the selected cell exist. If the analysis information is within the error range, it is preferable to interpret the same information and store one analysis information as representative image information of the corresponding cell.

또한 상기 셀 분석 과정은 상기 선택된 셀의 색상 및 텍스쳐 정보 분석 결과 하나 이상의 분석 정보가 존재하는 경우 상기 셀을 미리 설정된 개수의 서브 셀들로 분할한 후 그 서브 셀 각각의 이미지 정보를 분석하고, 단일분석정보를 갖는 서브 셀에 대하여 그 단일분석정보를 해당 서브 셀의 이미지 정보로 저장하는 것이 바람직하다.The cell analyzing process divides the cell into a predetermined number of subcells after analyzing color and texture information of the selected cell, and analyzes image information of each subcell, and then analyzes a single analysis. For a subcell having information, it is preferable to store the single analysis information as image information of the corresponding subcell.

또한 상기 셀 분석 과정은 상기 서브 셀의 이미지 정보 분석결과 하나 이상의 분석정보가 존재하는 경우 그 서브 셀을 미리 설정된 개수의 하위레벨 서브 셀들로 다시 분할하고 그 하위레벨 서브 셀 각각의 이미지 정보를 분석한 후, 단일분석정보를 갖는 하위레벨 서브 셀에 대하여 그 단일분석정보를 해당 서브 셀의 이미지 정보로 저장하는 과정을 반복 수행하는 것이 바람직하다. In addition, when the analysis result of the image information of the sub-cells, if the one or more analysis information is present, the sub-cell is subdivided into a predetermined number of lower-level sub-cells and the image information of each of the lower-level sub-cells is analyzed. Thereafter, it is preferable to repeat the process of storing the single analysis information as image information of the corresponding sub cell with respect to the lower level sub cell having the single analysis information.

또한 상기 셀 분석 과정은 미리 설정된 최대 레벨까지 상기 서브 셀의 분할 및 이미지 분석을 반복 수행하는 것이 바람직하다. In the cell analysis process, segmentation and image analysis of the subcells may be repeatedly performed up to a preset maximum level.

또한 상기 셀 분석 과정은 상기 최대 레벨 서브 셀의 이미지 분석 결과 하나 이상의 분석정보가 존재하는 경우 그 중 임의의 하나를 해당 셀의 이미지 정보로 저장하는 것이 바람직하다.In the cell analysis process, when one or more pieces of analysis information exist as a result of image analysis of the maximum level subcell, it is preferable to store any one of them as image information of the corresponding cell.

또한 상기 단순 객체정보 저장과정은 상기 객체들을 구성하는 셀 정보로 표현된 각각의 위치 및 이미지 정보를 포함하는 셀 정보를 저장하는 것이 바람직하다.In addition, the simple object information storing process may store cell information including each position and image information represented by cell information constituting the objects.

상기 객체 식별 단계에 있어서 분석된 셀들의 이미지 정보를 이용하여 객체를 식별하고 추출하기 위하여 인접하며 연속된 셀의 이미지 분석 정보가 동일한지를 판단하고 동일하면 동일한 정보의 셀을 표시하고 동일 객체로 표시한다.In order to identify and extract the object by using the image information of the analyzed cells in the object identification step, it is determined whether the image analysis information of adjacent and consecutive cells is the same, and if the same is displayed, the cells of the same information are displayed as the same object. .

상기 분석 셀을 판단함에 있어서 분석 대상 셀은 복수 개의 픽셀을 가지는 것을 특징으로 한다.In determining the analysis cell, the analysis target cell has a plurality of pixels.

또한 상기 영상의 분석정보에서 객체를 식별함에 있어서 상위셀은 최하위의 셀의 2의 배수 개로 구성된 상위 셀을 가지게 되고 동일한 분석정보일 경우 상위셀이 최하위 셀로 구분되지 않고 하나의 묶음으로 처리되는 것이 바람직하다.In addition, in identifying the object from the analysis information of the image, the upper cell has an upper cell composed of multiples of two of the lowest cells, and in the same analysis information, it is preferable that the upper cell is not classified as the lowest cell but processed as a bundle. Do.

상기 객체 색인 단계에서 분석정보에서 인접한 최하위 셀 혹은 상위셀들이 최소한 한 면이상의 셀과 연속된 인접면을 가지는 셀이면서 동일한 칼라, 텍스추어 혹은 연속된 외곽 구분 경계를 가지는 일련의 셀의 집합을 객체로 식별하는 것을 특징으로 한다.In the object indexing step, an object is identified as a set of cells having the same color, texture, or continuous outer division boundary while the adjacent lowermost cells or upper cells have adjacent surfaces consecutive to at least one cell in the analysis information. Characterized in that.

이 때 상기 객체 색인 과정은 상기 영상에 포함된 상대적인 위치에 대한 셀 정보로 표현하여 관리하고 저장하는 것을 특징으로 한다.At this time, the object indexing process is characterized by representing and managing and storing as cell information about the relative position included in the image.

상기 객체의 식별정보를 저장하는 방법에 있어서 지정된 셀은 동일 프레임으 로 구성하는 것을 특징으로 한다.In the method of storing the identification information of the object, the designated cell is configured in the same frame.

또한 프레임 단위의 객체 식별 정보를 관리함에 있어서 하나 프레임에서는 셀 위치에 객체의 포함 유무를 포함하여 이진 요약정보로 관리됨이 바람직하다.In addition, in managing object identification information in units of frames, it is preferable that one frame is managed as binary summary information including whether an object is included in a cell position.

이를 표로 표현하면 [표 1]과 같이 나타낼 수 있다.If this is expressed in a table, it can be expressed as shown in [Table 1].

0 0 0 0 0 0 00 00 00 00 00 0 0 00 00 00 00 00 00 00 0 0 00 00 00 1 (5,3)1 (5,3) 1One 00 00 0 0 00 00 00 1One 1One 00 00 0 0 00 00 00 00 00 00 00 0 0 00 00 00 00 00 00 00

상기 [표 1]에서 보여지는 표의 영역은 영상에서의 프레임 영역에 대응하는 가상 셀 영역을 표시하였다. 표 1에서 '0'과 '1'로 구분된의 셀 영역은 객체로 인식된 셀에 대하여 구분하기 위하여 표현하였다.The region of the table shown in [Table 1] represents a virtual cell region corresponding to the frame region in the image. In Table 1, the cell regions of '0' and '1' are expressed to distinguish the cells recognized as objects.

상기 표 1에서의 하나의 가상 셀은 프레임에서의 영상에서의 프레임을 2의 배수로 분할한 영역으로 이는 절대 픽셀좌표에 대응하는 픽셀의 집합이며 최대 레벨의 가상 분할 셀을 분할하여 나타낸 것이다.One virtual cell shown in Table 1 is a region obtained by dividing a frame in an image in a frame by a multiple of 2. This is a set of pixels corresponding to absolute pixel coordinates, and shows a virtual split cell of a maximum level.

상기 객체로 식별된 셀 영역을 표현 한 것이며 이와 같이 식별 객체를 표현하고 관리함을 특징으로 한다. The cell region identified as the object is expressed, and the identification object is represented and managed as described above.

또한 상기 셀을 16진수로 표현하면 하나의 프레임에 포함된 객체의 상대적 위치정보는 각각 프레임에 대한 객체 위치 식별정보로서 0x00000C0C0000와 같이 표현 할 수 있을 것이다.In addition, when the cell is expressed in hexadecimal, the relative position information of an object included in one frame may be expressed as 0x00000C0C0000 as object position identification information for each frame.

상기 가상셀에서 객체 위치의 식별정보를 저장 관리함에 있어서 최대레벨의 가상셀의 갯수와 표현방식은 셀의 가로 라인, 세로 라인 혹은 다각형 셀 집합등으로 다양하게 구성할 수 있다.In storing and managing the identification information of the object position in the virtual cell, the number and representation of virtual cells of the maximum level may be variously configured as horizontal lines, vertical lines, or polygonal cell sets.

00 00 00 1One 00 00 1One 1One 00 1One 1One 1One 1One 1One 1One 1One

표 2는 표 1에서 나타낸 최상위 셀 하나에 대하여 분할된 서브 셀에서의 객체 식별 영역을 나타낸 것이다.Table 2 shows the object identification region in the divided subcell with respect to one of the highest cells shown in Table 1.

표 1에서와 같이 8×6개의 최상위 레벨 셀은 각각 서브셀을 가질 수 있는데 표에서 좌상의 끝 셀을 기준 셀로 잡는다면 '1'로 표시된 좌상을 기점으로 한 셀 좌표 (5,3)에 위치한 서브셀의 객체 식별 및 색인 정보는 [표 2]와 같이 가상 서브셀 테이블로 나타내어질 수 있으며 이를 다시 2진수로 표현될 수 있다.As shown in Table 1, each 8x6 top-level cell can have a subcell. If the last cell in the table is taken as the reference cell, it is located at the cell coordinate (5,3) starting from the top left indicated by '1'. The object identification and index information of the subcell may be represented as a virtual subcell table as shown in [Table 2], and this may be represented in binary again.

또한 객체 식별을 위하여서 최하위 서브셀의 연속된 인접 셀간의 연결 각과 각의 변이가 발생하는 꼭지점 간의 상대적 거리를 계산하여 객체를 식별하기 위한 폴리곤을 추출하는 것을 특징으로 한다. In addition, to identify an object, a polygon for identifying an object is extracted by calculating a relative distance between a connection angle between consecutive adjacent cells of the lowest subcell and a vertex at which an angle variation occurs.

상기 객체 식별을 위하여 추출된 폴리곤은 폴리곤 데이터베이스의 샘플 데이터베이스의 유사도를 비교하여 대략적인 객체의 속성을 산출하게 된다.The polygon extracted for object identification compares the similarity of the sample database of the polygon database to yield an approximate object property.

또한 이진수로 표현되는 객체의 이미지 속성정보와 객체 패턴정보는 유사 프레임의 검색과 저작권등의 색인 대상 정보로 관리되는 것이 바람직하다.In addition, it is preferable that image attribute information and object pattern information of an object represented by a binary number are managed by index object information such as searching for a similar frame and copyright.

상기의 객체식별 과정과 절차를 통하여 프레임단위로 분석된 이미지 정보와 객체의 변이정보를 이용하여 프레임의 장면을 분할 하는 것이 바람직하다.It is preferable to segment the scene of the frame by using the image information analyzed by the frame unit and the variation information of the object through the object identification process and procedure.

상기 프레임 장면 분할과 객체 식별에 있어서 프레임 샘플링은 매 프레임으로 실시하는 것 보다 일정한 프레임 선택주기를 가지고 미리 지정된 앞뒤의 프레임 분석정보의 변이를 이용하여 처리하는 것이 바람직하다. In the frame scene segmentation and object identification, it is preferable to process the frame sampling by using the variation of the frame analysis information before and after having a predetermined frame selection period rather than performing every frame.

이는 통상적인 영상화면의 경우 29.97프레임/초인데 특정 수만큼의 프레임 카운트를 증가시키거나 혹은 일정 시간 간격으로 객체 및 이미지 분석을 처리하는 것이 바람직하다.This is 29.97 frames / second for a typical video screen, but it is desirable to increase the frame count by a certain number or to process the object and image analysis at regular time intervals.

상기 장면 구분 단계에서는 전후 프레임의 식별정보를 분석하여 프레임 식별정보의 변이정보가 허용 범위 이내 인지를 판단하는 것을 포함한다.The scene classification step includes analyzing identification information of front and rear frames to determine whether variation information of the frame identification information is within an allowable range.

이를 좀더 자세히 살펴보면 장면 분할에서 분석된 영상 이미지에서 배경화면의 변화, 검출된 객체 수의 가감 등을 비교하여 장면을 분할하는 것이 바람직하다.Looking at this in more detail, it is preferable to divide the scene by comparing the change of the background screen, the number of detected objects in the video image analyzed in the scene segmentation.

상기 장면 분할에서 장면 분할에서는 가중치를 부여 할수 있으며 이때 가중치는 배경에 가중치를 둔 경우와 객체의 변이정보에 가중치를 주는 경우가 있을 수 있다.In the scene segmentation, the scene segmentation may be assigned a weight. In this case, the weight may be weighted to the background and weighted to the variation information of the object.

상기 장면 분할에서 객체 식별의 경우 객체의 셀 집합정보에서 셀의 중심셀을 선정하고 중심셀의 프레임별 위상 변이정보를 확인하여 해당셀에서 객체의 유무에 따른 변화를 따라 일정 시간이내에 다양한 변화정보를 분석하여 처리함을 특징으로 한다. In the case of object identification in the scene division, the center cell of the cell is selected from the cell set information of the object, and the phase shift information for each frame of the center cell is checked. It is characterized by processing by analyzing.

이를 좀더 자세하게 살펴보면 동일 이미지정보와 객체 분석정보가 다양한 셀의 좌표에 존재할 수 있으며 프레임내 출현이 반복해서 나타날 수 있다. 이때 기준 프레임의 시작 범위 프레임내의 객체가 허용프레임 범위내에서 존재하지 않을때 해당 객체는 그 장면에서의 연관이 없다고 판정하며 이러한 객체 출현수의 변화가 지정한 범위 이내인지를 판단하여 분할하는 것이 바람직하다. In more detail, the same image information and the object analysis information may exist in coordinates of various cells, and the appearance in the frame may appear repeatedly. In this case, when an object in the start range frame of the reference frame does not exist within the allowable frame range, it is determined that the object is not related in the scene, and it is preferable to determine whether the change in the number of occurrences of the object falls within the specified range. .

상기 객체 프로파일 생성단계에서는 저장된 객체의 속성정보를 부가하기 위하여 객체의 속성 및 자질 집합 데이터베이스를 가지는 것을 특징으로 한다.In the object profile generation step, the attribute and feature set database of the object is added to add attribute information of the stored object.

이때 상기 자질 집합은 마크업 언어 가령 XML(eXtensible Markup Language)와 같은 형식으로도 표현되어 질 수 있다. In this case, the feature set may be expressed in a markup language such as XML (eXtensible Markup Language).

객체의 자질은 대표 객체 자질, 일반 속성자질, 관계 자질, 성분 속성자질 및 특수자질등을 가지는 것이 바람직하다. It is preferable that the feature of the object has a representative object feature, a general property feature, a relationship feature, a component property feature, and a special feature.

상기 식별된 객체에 부여하는 대표객체자질;은 사람, 건물, 산, 자동차 등 객체의 대표성을 가지는 것이 바람직하다.Representative object qualities assigned to the identified object; preferably has a representativeness of the object, such as people, buildings, mountains, cars.

상기 일반속성자질;에는 움직임, 자연발생, 인공적인 것, 생명체등에 대한 일반적 속성포함하는 것이 바람직하다.The general attribute qualities include, in general, attributes including movement, spontaneous generation, artificial things, and living things.

상기 성분속성자질;에는 부속속성, 조건 속성, 행위속성, 이벤트 속성, 시간-계절 속성, 장소 속성등을 포함하는 것이 바람직하다.The component attribute property; preferably includes an accessory attribute, a condition attribute, an action attribute, an event attribute, a time-season attribute, a place attribute, and the like.

상기 특수자질은 특정 동영상의 특정 제한 객체에만 사용되는 특수 목적 자질에 사용되며 또한 상기의 자질 이외의 추가 속성자질에 대한 확장성을 위한 자질 속성을 가지는 것이 특징이다.The special feature is used for a special purpose feature used only for a specific limited object of a specific video, and has a feature property for extensibility with respect to additional property features other than the feature.

또한 관계 속성 자질은 상하의 관계, 포함관계, 병렬 혹은 연관관계, 소유 혹은 소속관계등의 자질을 가지는 것이 바람직하다.In addition, it is desirable that the relationship attribute qualities have qualities such as upper and lower relations, inclusion relations, parallel or association relations, and ownership or belonging relations.

상기의 객체속성자질은 단일 혹은 자질집합 패턴으로 관리될 수 있으며 이때 자질의 속성값은 이진값으로 해당 자질속성을 가지면 "1", 가지지 못하면 "0"와 같이 표현하여 관리되는 것이 바람직하다.The object attribute feature may be managed in a single or feature set pattern. At this time, the attribute value of the feature is a binary value. If the attribute property has a corresponding attribute, it is preferable to express it as "1".

상기의 객체를 검출된 속성자질로 관리하게 되면 객체와 배경으로 이루어진 프레임과프레임의 집합으로 구성된 장면에서 자질간의 관계, 자질이 가지고 있는 속성자질의 연관을 분석하여 상황을 인식하고 다양한 부가서비스를 처리하는 것을 특징으로 한다. If the object is managed with the detected attribute quality, it analyzes the relationship between the quality of the object and the property quality of the feature in the scene consisting of the frame and the set of frames consisting of the object and the background to recognize the situation and process various additional services. Characterized in that.

이때 상기 객체는 객체의 부속관계인 서브 객체 즉 주객체와 서브 객체의 관계를 포함하여 가지는 것이 바람직하다.In this case, it is preferable that the object includes a relation between a sub object, that is, a main object and a sub object, which is a subordinate relationship of the object.

또한 객체와 객체는 다양한 관계를 형성 할 수 있는데 이러한 포함, 수속, 병렬, 의존등의 관계를 구성 것이 바람직하다.In addition, objects and objects can form a variety of relationships, it is desirable to configure such relationships, including procedures, parallelism, dependencies.

상기의 객체와 서브 객체의 속성 및 자질정보는 데이터베이스 혹은 XML과 같은 형식으로 표현되고 관리되는 것이 바람직하다.Attribute and feature information of the object and sub-object is preferably represented and managed in a format such as a database or XML.

또한 상기의 객체 자질의 연산을 통하여 다양한 상황 인식과 이벤트 발생을 인식하기위하여서는 객체 상황 및 이벤트 인식을 위한 조건과 처리 알고리즘을 포함한 규칙 베이스를 포함하는 것이 바람직하다.In addition, in order to recognize various situation recognition and event occurrence through the operation of the object feature, it is preferable to include a rule base including conditions and processing algorithms for object situation and event recognition.

상기 객체 상황 및 이벤트 인식을 위한 규칙 데이터베이스는 복수의 객체들의 자질 유무에 따른 조건을 연산하여 결과를 도출하여 상황이나 이벤트를 인식하게 되는 것을 특징으로 한다. The rule database for object situation and event recognition may recognize a situation or event by deriving a result by calculating a condition according to the presence or absence of a plurality of objects.

상기 서비스 프로파일 생성 과정은 상기 색인 과정에서 검출된 객체정보와 객체와 연관있는 동작정보 내지는 특정 컨텍스트를 호출하기 위한 것으로 서비스 프로파일은 각각의 조건에 대한 동작정보를 포함하는 것을 특징으로 한다.The service profile generation process is to call the object information detected in the indexing process and the operation information or the specific context associated with the object, and the service profile includes the operation information for each condition.

상기 서비스를 위하여 객체가 포함된 영상에서의 프레임이 가지는 프레임 식별자 혹은 해당 프레임 구간의 시간정보와 해당 장면에서의 상황정보, 객체의 위치정보를 포함하는 셀정보, 객체와 관련한 검색정보, 상품 구매정보, 동영상 플레이정보등과 객체와 프레임 장면 상황과 유관한 광고정보 등이 포함될 수 있다.The frame identifier of the frame in the image including the object for the service or the time information of the frame section and the situation information in the scene, the cell information including the location information of the object, the search information related to the object, the product purchase information , Video play information and the like, and advertisement information related to the object and frame scene situation.

이를 위하여 자질정보를 포함한 메타 데이터 부가 과정; 상기 요청에 응답하여 메타 데이터가 입력되면 그 메타데이터를 이용하여 객체들 각각에 규칙을 적용하여 상황 인식과 서비스 컨텍스트를 생성하는 과정;을 거쳐 사용자에게 요구되는 서비스 프로파일을 생성하는 과정; 상기 객체들의 자질 정보에서 다양한 속성정보와 관계정보등의 정보를 이용하여 객체들 간 계층구조를 생성하는 과정; 및 상기 계층 구조에 의해 생성된 논리 객체를 포함하는 계층 정보를 저장하는 과정;과 객체영역과 정보에 필요한 서비스의 연결을 생성하는 것을 포함하는 것이 바람직하다. For this purpose, a metadata addition process including quality information; Generating metadata based on context recognition and service context by applying a rule to each of the objects using the metadata when the metadata is input in response to the request; Generating a hierarchical structure between objects by using information such as attribute information and relationship information in the feature information of the objects; And storing hierarchical information including a logical object created by the hierarchical structure; and creating a connection between an object area and a service required for the information.

상기의 절차를 처리하기 위하여 아래의 표 3a, 3b, 3c, 3d는 영상 혹은 멀티미디어로 부터 객체 분석과 검출 및 서비스 분석이 요구되는 부속 작업을 표로 기술하여 설명하고자 한다.Tables 3a, 3b, 3c, and 3d below describe the sub-tasks required for object analysis, detection, and service analysis from video or multimedia.

[표 3a]는 영상의 프레임에서 추출된 객체와 부속정보들을 나타낸 표이다. [Table 3a] is a table showing the objects and sub information extracted from the frame of the image.

미디어 제목Media title AA 프레임 색인Frame index BB 항목Item 객체 1Object 1 객체 2Object 2 객체 3Object 3 객체 4Object 4 객체 5Object 5 객체 6Object 6 셀 벡터Cell vector CC DD EE FF GG HH 부가문서/자막Additional Documents / Subtitles II 언어 분석 색인Linguistic analysis index JJ

상기 테이블을 이용하여 동영상을 분석하고 처리되는 과정과 절차는 위에서 설명을 하였으므로 본 표에 의거하여 바람직한 처리 절차를 보이고자 한다. 하나의 동영상을 분석하면 먼저 [표 3a]의 테이블에 분석된 초기데이터를 적재하게 되는데 미디어 제목은 동영상일 경우 동영상의 제목을 의미한다. Processes and procedures for analyzing and processing moving images using the table have been described above, and thus, a preferred processing procedure will be shown based on this table. When analyzing a single video, the analyzed initial data is loaded into the table of [Table 3a]. The media title means the title of the video when the video is a video.

상기 프레임색인은 동영상에서 현재 분석되고 있는 프레임의 식별자 혹은 동영상 상영시간등의 현재 대상 프레임의 위치를 표현할 수 있는 식별자를 의미한다. 객체 1, 객체2 등의 객체는 하나의 프레임에 검출된 객체들의 셀 좌표의 집합을 의미한다. The frame index refers to an identifier capable of expressing a position of a current target frame, such as an identifier of a frame currently being analyzed in a video or a video showing time. Objects such as object 1 and object 2 mean a set of cell coordinates of objects detected in one frame.

이때 셀좌표는 상기 [표 1]과 [표 2]에서 설명한 바와 같이 해당 기준 좌표에서 (X, Y)좌표를 정하고 각각 셀은 이진수로 표현하여 객체의 영역셀을 나타내는 것이 바람직하다. 이때 하나의 프레임에는 검출된 객체와 객체가 아닌 배경 또는 환경 객체로 구분하여 검출하는 것이 바람직하다. In this case, as described in Tables 1 and 2, the cell coordinates define (X, Y) coordinates in the corresponding reference coordinates, and each cell is represented by a binary number to represent an area cell of the object. In this case, it is preferable to detect one frame by dividing the detected object into a background or environment object instead of the object.

상기 분석 동영상이 해당 미디어에 대한 부가 설명 문서나 자막(I)이 존재할 경우 프레임 영역과 혹은 문서의 프레임 영역과 동기화 시켜 별도의 언어분석 과정을 포함하는 것이 바람직하다. If the analysis video includes an additional description document or subtitle I for the media, it is preferable to include a separate language analysis process by synchronizing with the frame region or the frame region of the document.

상기 언어분석과정을 통한 색인 정보는 언어분석 색인(J)을 포함하는 것이 바람직하다.Index information through the language analysis process preferably includes a language analysis index (J).

[표 3b]는 객체 자질 분석 규칙 데이터 테이블이다.Table 3b is an object feature analysis rule data table.

항 목 Item 자질 벡터Qualities vector 상황 및 이벤트 유형 Situations and event types 자질 패턴Qualities pattern 자질 패턴Qualities pattern 자질 패턴Qualities pattern 규칙 1Rule 1 규칙 2Rule 2

[표 3b]는 [표 3a]의 분석정보를 지정한 객체들을 분석하여 핵심객체와 주요객체등을 판별하기 위한 규칙 데이터베이스를 표로 도시한 것이다.[Table 3b] shows the rules database for identifying the core objects and the main objects by analyzing the objects that specify the analysis information in [Table 3a].

상기 규칙은 객체가 자질 값을 분석하여 요구되는 정보나 연관을 분석하여 원하는 결과를 추출해 내기위한 목적이다. The rule is for the purpose of extracting the desired result by analyzing the information or association required by the object to analyze the feature value.

이를 상세하게 보면, 객체와 객체가 특정 자질을 공통으로 가지고 있는지 어떻게 다른 자질 여부를 판단하여 객체의 자잘 비트 패턴에 맞는 데이터베이스에서 객체들의 상황이나 이벤트를 추출하는 것을 특징으로 한다.In detail, it is characterized by extracting the situation or event of the object from the database that matches the object bit pattern by determining whether the object and the object have a certain feature in common or not.

객체 1Object 1 객체 2Object 2 객체 3Object 3 객체 4Object 4 대표 객체 자질Representative Object Qualities 일반 속성 자질General property qualities 성분 속성 자질Ingredient Property Qualities 관계 속성 자질Relationship attribute qualities 형태/칼라 속성Type / color attribute

상기 [표 3a]에서 검출된 객체에 대하여 [표 3b]의 규칙을 이용하여 프레임과 객체에 대한 자질 정보를 포함한 메타데이터를 분석하기 하여 객체간의 연관관계, 프레임의 컨텍스트 추출등을 수행하게 된다. By analyzing the metadata including the feature information of the frame and the object using the rules of [Table 3b] for the object detected in the [Table 3a], the association between the objects, the context extraction of the frame is performed.

상기 [표 3c]에 부가되고 분석된 메타데이터는 사용자 서비스를 위하여 아래 도면에서 설명하는 자질 테이블에 저장되는 것이 바람직하다.Metadata added to and analyzed in Table 3c is preferably stored in a feature table described below for user service.

항목Item 프레임 구간Frame section 의미 자질 Meaning qualities 객체 식별자Object identifier 색인어 1Index word 1 색인어 2Index word 2

상기 [표 3d]는 본 발명에서 다루는 동영상 혹은 멀티미디어에서 음성 인식,텍스트 정보 혹은 자막정보를 포함하고 있을 경우 이를 장면 혹은 프레임에서 추출된 의미자질(Semantic Feature) 정보와 어휘자질(Lexical Feature)정보를 상호 연산하여 다양한 지능형 서비스를 제공하는 것이 바람직하다.[Table 3d] shows semantic feature information and lexical feature information extracted from a scene or a frame when it includes voice recognition, text information or subtitle information in a video or multimedia according to the present invention. It is desirable to provide a variety of intelligent services by mutual operation.

이는 특정 프레임 구간 A에서 추출된 복수의 색인어를 형태소분석과 구분 분석을 통한 의미자질을 분석하고 프레임의 상황 즉 컨텍스트에 매치되는 객체가 잇다면 객체에 연결하여 해당 색인어를 객체와 연관 연결하는 것이다. This is to analyze the semantic qualities through morphological analysis and segmentation analysis of a plurality of index words extracted in a specific frame section A, and if there is an object that matches the situation of the frame, that is, the context, the index word is associated with the object.

또한 상기 판단과정에서 입력방법으로는 객체를 선택 포인팅; 음성 및 키워드를 포함한 자연어 입력방법 중 어느 하나인 것이 바람직하다.In addition, in the determination process, the input method may include: selecting and pointing an object; It is preferable to use any one of natural language input methods including voice and keywords.

상기 프레임에서 객체선택정보는 프레임 식별자와 셀의 식별자를 포함하는 것을 특징으로 한다.The object selection information in the frame may include a frame identifier and an identifier of a cell.

이때 화면의 픽셀 좌표와 객체의 상대좌표를 맵핑하기 위한 기능 혹은 절차를 두는 것을 특징으로 한다.In this case, a function or procedure for mapping the pixel coordinates of the screen and the relative coordinates of the object is provided.

이때 검색을 위한 입력정보는 입력된 객체 선택 포인팅, 음성, 혹은 키워드를 입력이 일어난 시점 프레임 전후의 관련 서비스를 검색하는 것을 우선으로 수행하는 것이 바람직하다.In this case, the input information for the search is preferably performed to search the related service before and after the time frame at which the input object selection pointing, voice, or keyword is input.

또한 상기 서비스제공과정은 상기 서비스 프로파일 생성 과정에서 생성된 서비스 프로파일 정보에 의거하여 대응된 객체 정보를 표시하는 것이 바람직하다. In the service providing process, it is preferable to display corresponding object information based on the service profile information generated in the service profile generation process.

또한 상기 서비스제공과정은 상기 서비스 프로파일 생성 과정에서 생성된 서비스 프로파일 정보에 의거하여 대응된 객체에 링크된 화면으로 이동하는 것이 바람직하다.In addition, the service providing process is preferably moved to the screen linked to the corresponding object based on the service profile information generated in the service profile generation process.

상기 목적을 달성하기 위해 본 발명에서 제공하는 영상 처리 장치는 영상 서버와 영상 표시 단말로 구성되어 이동 통신, 무선 혹은 유선 통신 네트워크중에 하나 이상의 방법으로 연결되는것이 바람직하다.In order to achieve the above object, it is preferable that the image processing apparatus provided by the present invention is composed of an image server and an image display terminal and connected by one or more methods of mobile communication, wireless or wired communication network.

상기 영상서버는 상기 객체 정보를 포함하는 영상정보들 및 각 영상의 화면분할 정보인 셀 정보를 저장하는 영상정보 저장부; 영상정보를 입력받는 입력부; 입력된 영상정보를 엔코딩하여 상기 영상정보 저장부에 저장하는 엔코딩부; 상기 저장된 영상정보로부터 객체정보를 검출하여 상기 영상정보 저장부의 영상정보에 매칭시켜 저장하는 색인부; 상기 객체정보들 각각의 메타 데이터 및 상기 객체정보들간의 계층관계를 관리하는 객체정보 관리부; 요청 정보에 의거하여 상기 영상정보 저장부를 검색하는 검색부; 사용자와의 인터페이싱을 제공하는 사용자 인터페이스부; 통신망과의 인터페이싱을 제공하는 통신 인터페이스부; 및 상기 저장부, 입력부, 엔코딩부, 색인부, 객체정보 관리부, 사용자 인터페이스부 및 상기 통신 인터페이스부의 동작을 제어하는 제어부를 포함하는 것이 바람직하다.The image server comprises: an image information storage unit which stores image information including the object information and cell information which is screen division information of each image; An input unit for receiving image information; An encoder for encoding the input image information and storing the image information in the image information storage unit; An index unit which detects object information from the stored image information and matches the image information with the image information storage unit and stores the object information; An object information manager configured to manage the meta data of each of the object information and the hierarchical relationship between the object information; A search unit for searching the image information storage unit based on the request information; A user interface for providing interfacing with a user; A communication interface unit for providing an interface with a communication network; And a control unit for controlling operations of the storage unit, the input unit, the encoding unit, the index unit, the object information management unit, the user interface unit, and the communication interface unit.

객체 정보를 포함하는 영상정보들 및 각 영상의 화면분할정보인 셀 정보를 저장하고, 영상정보 요청에 응답하여 대응된 영상정보와 그 영상의 화면분할 정보인 셀 정보를 함께 제공하는 영상 서버; 및 상기 영상 서버로부터 표시영상정보 및 대응된 셀 정보를 전달받아 상기 셀 정보에 의거하여 표시화면을 셀 단위로 분할한 후 상기 표시화면에 상기 표시영상정보를 출력하는 표시 단말;을 포함하는 것이 바람직하다.An image server configured to store image information including object information and cell information, which is screen division information of each image, and to provide corresponding image information and cell information, which is screen division information of the image, in response to the image information request; And a display terminal receiving display image information and corresponding cell information from the image server, dividing the display screen into cell units based on the cell information, and outputting the display image information on the display screen. Do.

상기 영상서버를 보다 자세하게 설명하면 상기 객체 정보를 포함하는 이미지 정보들 및 각 영상의 화면분할 정보인 셀 정보와 객체가 포함하는 자질 속성 및 서비스 링크 정보등을 저장하는 영상정보 저장부; 영상정보를 입력받는 입력부; 입력된 영상정보를 엔코딩 혹은 적절한 포맷으로 변환하여 상기 영상정보 저장부에 저장하는 동영상 변환부; 상기 저장된 영상정보로부터 객체정보를 검출하여 상기 영상정보 저장부의 영상정보의 프레임과 프레임내 객체 영역과 연결정보를 매칭시켜 저장하는 정보 색인부; 상기 객체정보들 각각의 메타 데이터 및 상기 객체정보들간의 계층관계를 관리하는 색인 정보 관리부; 객체정보의 자질과 속성값을 관리하고 부여하며 처리를 위한 객체 자질 등록부; 객체 자질 정보관리 데이터베이스부; 색인 및 서비스 정보 데이터베이스 관리부; 영상에 다양한 서비스를 연결하고 맵핑을 관리하는 서비스 등록부; 다양한 요청 정보에 의거하여 상기 영상정보 저장부를 검색하는 검색 제공부; 사용자와 단말로 부터의 서비스 요청을 해석하고 처리하기위한 서비스 요청 해석부; 검색 결과를 단말에 전송하기 위하여 결과를 추출하여 처리하는 결과 출력부;및 통신망과의 인터페이싱을 제공하는 네트워크연결부;를 포함하고 상기 저장부, 입력부, 동영상변환부, 정보색인부, 객체 색인 정보 관리부, 서비스 관리부, 검색제공부, 서비스 요청 해석부, 결과 출력부 및 상기 통신 네트워크 연결부의 동작을 제어하는 제어부를 포함하는 것이 바람직하다. In more detail, the image server may include image information including the object information, cell information which is screen division information of each image, and feature attributes and service link information included in the object; An input unit for receiving image information; A video converting unit for converting the input image information into an encoding or an appropriate format and storing the image information in the image information storage unit; An information indexing unit for detecting object information from the stored image information and matching and storing a frame of the image information of the image information storage unit and an object area and connection information in the frame; An index information manager configured to manage the meta data of each of the object information and the hierarchical relationship between the object information; An object feature register for managing and assigning features and property values of object information; Object feature information management database unit; Index and service information database manager; A service register for connecting various services to an image and managing mapping; A search provider for searching the video information storage based on various request information; A service request interpreter for interpreting and processing service requests from a user and a terminal; A result output unit for extracting and processing a result to transmit a search result to a terminal; and a network connection unit providing an interface with a communication network; and including the storage unit, an input unit, a video conversion unit, an information index unit, and an object index information management unit. , A service manager, a search provider, a service request interpreter, a result outputter, and a controller for controlling operations of the communication network connection unit.

또한 상기 색인부는 상기 영상에 포함된 객체들의 상대적인 위치를 검출하고, 해당 객체의 이미지 정보를 분석하여 상기 객체들을 구성하는 셀 정보로 표현된 객체들 각각의 위치 및 이미지 정보를 포함하는 단순객체정보를 상기 영상정보 저장부에 저장하는 것이 바람직하다. In addition, the index unit detects the relative position of the objects included in the image, and analyzes the image information of the object to analyze the simple object information including the position and image information of each of the objects represented by the cell information constituting the object It is preferable to store in the image information storage unit.

또한 상기 색인부는 상기 영상에 대한 기본 화면 크기를 검출한 후 미리 설정된 분할정보에 의거하여 상기 화면을 다수의 가상 셀로 분할하고, 상기 분할한 셀들 각각의 이미지 정보를 분석하여 상기 분석 정보가 동일한 셀 중 인접한 셀들의 집합을 하나의 객체로 인식하고, 그 객체들 각각의 단순객체정보를 저장하는 것이 바람직하다.In addition, the index unit detects a basic screen size for the image, and divides the screen into a plurality of virtual cells based on preset split information, and analyzes image information of each of the divided cells, and among the cells having the same analysis information. It is preferable to recognize a set of adjacent cells as one object and to store simple object information of each of the objects.

또한 상기 영상정보 저장부는 객체식별정보, 그 객체가 포함된 영상 식별정보, 그 객체를 구성하는 분할 셀들 각각의 식별정보를 포함하는 구성셀 정보, 그 객체의 면적, 그 객체의 중심점좌표, 그 객체의 위상전이 정보 및 이미지 속성을 포함하는 단순객체 정보를 저장하는 것이 바람직하다.The image information storage unit may further include object identification information, image identification information including the object, configuration cell information including identification information of each of the divided cells constituting the object, area of the object, center point coordinates of the object, and the object. It is preferable to store the simple object information including the phase transition information and the image property of.

이때 영상정보 저장부는 객체의 자질 및 속성정보와 객체와 연결된 서비스 연결 정보를 포함하는 것이 바람직하다.In this case, the image information storage unit preferably includes feature and property information of the object and service connection information connected to the object.

또한 상기 색인 정보 관리부는 상기 색인부에서 검출된 단순객체들 각각에 대한 메타데이터를 입력받아 상기 메타데이터를 이용한 단순객체들 각각에 대한 서비스 프로파일을 생성하고, 상기 단순객체들 간 연관정보를 입력받아 단순객체들 간 계층구조를 생성한 후 상기 계층 구조에 의해 생성된 가상의 논리 객체를 포함하는 계층 정보를 저장하는 것이 바람직하다.In addition, the index information management unit receives metadata about each of the simple objects detected by the index unit, generates a service profile for each of the simple objects using the metadata, and receives the related information between the simple objects. After generating a hierarchical structure between simple objects, it is preferable to store hierarchical information including a virtual logical object generated by the hierarchical structure.

상기 가상의 논리 객체 혹은 서브객체가 가지는 계층정보는 객체의 자질정보에 정의하여 처리하는것을 특징으로 한다.The hierarchical information of the virtual logical object or sub-object is defined in the feature information of the object and processed.

상기 메타메이타는 객체의 가상셀에 대한 화면의 픽셀 위치 맵핑정보와 객체의 속성 및 자질정보를 포함하여 객체와 객체간의 연관 관계 정보 추출에 필요한 자질 속성를 포함하는 것이 바람직하다.The metadata may include feature attributes necessary for extracting association information between the object, including pixel position mapping information of the screen with respect to the virtual cell of the object, and attribute and feature information of the object.

또한 상기 영상정보 저장부는 객체식별정보, 그 객체가 포함된 영상식별정보, 그 객체의 분류정보, 링크정보, 객체 상세정보 및 이벤트에 따른 동작정보를 포함하는 단순 객체별 메타데이터 정보를 저장하는 것이 바람직하다. 이 때 상기 이벤트에 따른 동작정보는 객체의 선택 혹은 음성인력, 키워드 입력에 따른 동작정보로서, 대응된 링크위치로의 이동, 해당 관련정보 검색 또는 상품의 경우 구매 결정 및 이후 동작 처리 대기 동작 중 적어도 하나를 포함하는 것이 바람직하다. The image information storage unit may store simple object-specific metadata information including object identification information, image identification information including the object, classification information of the object, link information, object detail information, and operation information according to an event. desirable. At this time, the motion information according to the event is motion information according to selection of an object or voice human input or a keyword, and includes at least one of moving to a corresponding link location, searching for related information or purchasing a product, and waiting for a subsequent operation. It is preferable to include one.

또한 상기 영상정보 저장부는 논리 객체 식별정보, 그 논리객체가 포함된 영상식별정보, 그 논리객체의 분류정보, 상기 논리객체에 포함된 단순객체들에 대한 식별정보 및 이벤트에 따른 동작정보를 포함하는 논리객체정보를 저장하는 것이 바람직하다. 이 때 상기 논리객체정보는 하위 논리객체 정보 식별정보를 더 포함하는 것이 바람직하다. 또한 상기 이벤트에 따른 동작정보는 상기 논리객체의 선택에 따른 동작정보로서, 대응된 링크로의 이동, 구매 결정 및 이후 동작 처리 대기 동작 및 상기 논리객체에 포함된 단순객체 리스트 표시 중 적어도 하나를 포함하는 것이 바람직하다. The image information storage unit may include logical object identification information, image identification information including the logical object, classification information of the logical object, identification information about simple objects included in the logical object, and motion information according to an event. It is desirable to store logical object information. In this case, the logical object information may further include lower logical object information identification information. In addition, the motion information according to the event is motion information according to the selection of the logical object, and includes at least one of a movement to a corresponding link, a purchase decision, a waiting operation for a subsequent operation, and a display of a list of simple objects included in the logical object. It is desirable to.

또한 상기 제어부는 상기 객체정보 관리부에서 생성된 서비스 프로파일 정보에 의거하여 대응된 객체 정보를 표시하거나, 대응된 객체에 링크된 화면으로 이동하도록 제어하는 것이 바람직하다. The controller may be configured to display corresponding object information or move to a screen linked to the corresponding object based on the service profile information generated by the object information manager.

또한 상기 영상정보 저장부는 영상식별정보, 그 영상에 대한 화면분할단위인 셀의 식별정보, 대응된 셀의 시작좌표 및 끝 좌표를 포함하는 셀 분할 정보를 대응된 영상정보와 함께 저장하는 것이 바람직하다. In addition, the image information storage unit preferably stores the image identification information, the identification information of the cell as the screen division unit for the image, the cell division information including the start coordinates and the end coordinates of the corresponding cell with the corresponding image information. .

또한 상기 영상정보 저장부는 영상식별정보, 그 영상에 대한 화면분할단위인 셀의 식별정보, 대응된 셀의 분할 레벨 정보, 그 셀의 최상위 셀 식별정보 및 이미지 분석정보를 포함하는 셀 분석 결과 정보를 대응된 영상정보와 함께 저장하는 것이 바람직하다. The image information storage unit may include image analysis information including image identification information, identification information of a cell which is a screen division unit for the image, division level information of a corresponding cell, identification information of the highest cell of the cell, and image analysis information. It is preferable to store the corresponding image information together.

또한 상기 영상서버는 사용자 단말로 통신망을 통한 서비스 제공시 제어명령을 제공하기 위하여 제어 명령셋을 저장부에 관리하며 매 장면의 시작시 스트리밍정보와 함께 전송하는 것이 바람직하다. 이때 제어명령은 사용자에게 검색 수행시 혹은 사용자 의도 요청시 추가적인 입력을 요청하는 것으로 좀더 자세하게는 출력화면에 다양한 검색 옵션을 제공하는 것을 목적으로 한다. 이는 사용자 입력수단을 영상정보 표시영역으로 통합하여 영상 표시화면 위에 표시하여 다양한 사용자 입력 인터페이스를 제공하기 위함이다. In addition, the video server manages a control command set in a storage unit to provide a control command when providing a service through a communication network to a user terminal, and transmits the streaming information together at the start of every scene. At this time, the control command is for requesting additional input to the user when performing a search or requesting user intention, and more specifically, to provide various search options on the output screen. This is to provide various user input interfaces by integrating the user input means into the image information display area and displaying it on the image display screen.

이를 위하여 영상 서버는 장면 공통의 입력 제어명령셋과 각 프레임 영역에 맞는 제어 명령셋을 객체 및 색인정보와 연동하여 관리하고 이를 데이터베이스에서 관리하는것을 특징으로 한다.To this end, the video server manages a common input control command set and a control command set suitable for each frame area in association with an object and index information and manages it in a database.

상기 표시 단말은 상기 화면에 표시 중인 영상에 포함된 객체 선택 정보를 입력받아 그 객체 선택 정보를 상기 영상 서버로 전달하고, 상기 영상 서버는 상기 객체 선택정보에 의거하여 대응된 객체에 대하여 미리 설정된 동작 정보에 의거하여 상기 객체 선택에 따른 부가서비스를 제공하는 것을 특징으로 한다. The display terminal receives the object selection information included in the image being displayed on the screen and transfers the object selection information to the image server, and the image server preset operation for the corresponding object based on the object selection information. It is characterized by providing an additional service according to the object selection based on the information.

또한 상기 표시 단말은 상기 셀 단위로 분할된 표시 화면을 포함하고 상기 표시 영상정보를 출력하는 표시부; 사용자가 객체 선택, 키워드 입력 혹은 음성 입력등의 다양한 수단의 입력방법을 제공하는 검색정보 입력부; 입력된 정보를 판단하여 추가적인 사용자 입력이 필요한지에 대해서 판단하는 입력정보 해석부; 입력된 질의가 검색을 수행하기에 충분한지 혹은 사용자의 질의 의도를 보완하기 위한 추가 입력 인터페이스를 제공하는 입력정보 생성부, 통신망과의 인터페이싱을 제공하는 네트워크 연결부; 및 영상서버로 부터 전송된 결과를 출력하는 결과출력부를 포함하는 것이 바람직하다.The display terminal may further include a display unit including a display screen divided in units of cells and outputting the display image information; A search information input unit for providing a user input method of various means such as object selection, keyword input, or voice input; An input information analysis unit to determine whether the additional information is required by determining the input information; An input information generation unit for providing an additional input interface for supplementing the user's intention of whether the input query is sufficient to perform a search, or a network connection unit for providing an interface with a communication network; And a result output unit for outputting a result transmitted from the video server.

이때 입력정보 생성을 위하여 가령 사용자가 어떤 객체를 선택하였을 경우 선택 객체에 대한 정보를 검색할 것인지 관련 동영상을 검색할 것인지, 링크정보를 연결할 것인지등에 대한 검색 조건을 추가로 선택하는 수단을 제공하는 것을 특징으로 한다.In this case, for the purpose of generating input information, for example, when a user selects an object, it provides a means for additionally selecting a search condition for searching for information on the selected object, searching for related videos, or linking link information. It features.

상기 입력정보는 영상 식별자; 프레임 식별자 혹은 시간 정보; 객체 위치의 셀정보; 제어명령 선택정보등을 포함하는 것을 특징으로 한다.The input information may include an image identifier; Frame identifier or time information; Cell information of the object location; Control command selection information, and the like.

상기 입력정보 생성을 위하여 영상서버에서는 프레임 혹은 장면 식별자를 확인하여 해당 장면에서 공통으로 제공할 명령제어 정보와 특정 프레임에서 제공할 명령제어정보를 각각 구분하여 단말의 영상정보와 동기화하여 전송하는 것이 바람직하다.In order to generate the input information, the video server checks a frame or scene identifier and distinguishes command control information to be provided in common from the corresponding scene and command control information to be provided in a specific frame and transmits them in synchronization with the video information of the terminal. Do.

상기의 명령제어 정보는 영상서버에서 데이터베이스 혹은 테이블의 형태로 관리하는 것이 바람직하다.The command control information is preferably managed in the form of a database or a table in the video server.

이때 서버에서 관리되는 동기화정보는 장면 혹은 프레임 식별자 정보와 네트웍의 전송상태를 감안하여 적절한 시간간격을 두어 전송하는 것이 바람직하다.At this time, the synchronization information managed by the server is preferably transmitted at an appropriate time interval in consideration of the scene or frame identifier information and the transmission status of the network.

단말에서 다양한 입력정보 생성에 있어서 객체 선택 셀의 영역을 확인하여 객체선택정보가 위치한 셀 위치정보와 대응하여 가장 식별성이 좋은 위치에 할당하는 것이 바람직하다.In generating various input information, it is preferable that the terminal identifies the area of the object selection cell and allocates it to the most identifiable position corresponding to the cell location information where the object selection information is located.

상기 표시화면의 좌표 정보와 상기 셀 분할정보의 매핑 정보를 저장하고, 사용자의 입력정보에 의거하여 객체 선택정보를 인식하여 상기 영상서버로 전달하도록 제어하는 벡터맵핑정보를 포함하는 것이 바람직하다. Preferably, the display apparatus includes vector mapping information that stores mapping information of the coordinate information of the display screen and the cell division information, and controls object recognition information to be transmitted to the image server based on user input information.

또한 상기 영상 서버와 상기 표시 단말은 일체의 장치로 구성된 것이 바람직하다. In addition, the video server and the display terminal is preferably configured as an integrated device.

또한 상기 영상 서버와 상기 표시 단말은 통신망을 통해 데이터를 송/수신하는 것이 바람직하다.In addition, the video server and the display terminal preferably transmits / receives data through a communication network.

이하, 본 발명의 바람직한 실시 예들을 첨부한 도면을 참조하여 상세히 설명한다. 이 때 첨부한 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same elements in the accompanying drawings are represented by the same reference numerals wherever possible. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

도 1은 본 발명의 일 실시 예에 따른 영상서버와 사용자 단말의 블록도이다. 본 발명은 동영상 서버와 표시 단말로 구성되고 네트웍에 연결에 연결되어 다양한 부가서비스를 제공하는 영상 처리장치와 처리방법에 대한 전체적인 블록도이다. 1 is a block diagram of an image server and a user terminal according to an exemplary embodiment. The present invention is an overall block diagram of an image processing apparatus and processing method including a video server and a display terminal and connected to a network to provide various additional services.

도 1에서 영상 서비스 서버(100)는 서비스 대상 동영상을 찾고 서비스를 위한 색인 등록 요청을 하며 네트웍 상에서 서비스를 위한 포맷에 맞게 변환 혹은 엔코딩 단계를 수행하는 동영상 변환부(110);와 동영상의 기본 화면 크기를 검출하고 분할 셀정보를 맵핑하며 셀당 기본화면의 맵핑 픽셀 좌표 영역을 구분하여 셀 영역에 해당하는 프레임의 화면정보를 분석하여 객체의 셀 영역을 검출하고 검출된 셀 객체 영역에 대하여 폴리곤 추출을 통한 객체 식별정보를 생성하는 정보색인부(120);가 있다. In FIG. 1, the video service server 100 searches for a service target video, requests an index registration for the service, and converts or encodes the video according to a format for the service on the network; and a basic screen of the video. Detects size, maps divided cell information, maps pixel coordinate area of base screen per cell, analyzes screen information of frame corresponding to cell area, detects cell area of object, and extracts polygons from detected cell object area. There is an information index unit 120 for generating object identification information through.

이때 상기 정보색인부에서는 분석 대상 영상이 자막 혹은 관련 문서정보가 존재하는 경우 언어분석 처리 절차를 거쳐 프레임에 대한 언어 처리절차를 수행한다. 상기 언어분석 절차는 형태소분석과 구문 분석을 포함한 의미분석을 포함한 절차를 포함하는 것이 바람직하다.색인 키워드의 경우 동영상 프레임과 객체정보와 연결하여 그 셀을 포함한 객체 자질 정보와 의미정보를 같이 포함하여 관리하는 것을 특징으로 한다. 식별된 객체에 대하여 객제 자질정보를 입력 및 확인하여 객체 색인정보 및 자질 부여등을 포함한 메타데이터 입력 절차를 거치게되는 색인정보 관리부(130);이 있으며 이를 통하여 관리되는 메타데이터에서 자질 정보를 이용하여 해당 프레임의 컨텍스트 정보와 객체 관계정보, 행위정보등을 포함하여 상기의 절차에서 설명한 바와 같이 처리되는 것이 바람직하다. In this case, the information index unit performs a language processing procedure for a frame through a language analysis process when a caption or related document information exists in the analysis target image. The linguistic analysis procedure preferably includes a procedure including semantic analysis including morphological analysis and syntax analysis. In the case of an index keyword, an object feature information and semantic information including a cell are included together with a video frame and object information. It is characterized by managing. An index information management unit 130 for inputting and confirming object feature information on an identified object and undergoing a metadata input procedure including object index information and feature assignment; and using the feature information in the metadata managed therefrom. It is preferably processed as described in the above procedure, including context information, object relationship information, behavior information, etc. of the corresponding frame.

서비스 등록부(140)은 분석된 이미지 객체와 객체가 위치하는 가상의 셀정보인 상대좌표정보를 이용하여 검출된 객체정보와 그 객체의 폴리곤 정보, 대응되는 객체의 자질정보등을 규칙에 의하여 연산하고 처리하여 메타데이터를 생성하고 객체와 프레임 및 장면의 컨텍스트를 추출된 결과는 영상정보 저장부(190)에 저장되어 관리된다. The service register 140 calculates the detected object information, the polygon information of the object, the feature information of the corresponding object, and the like by using the analyzed image object and the relative coordinate information which is the virtual cell information where the object is located. The metadata generated by the processing and the extracted context of objects, frames, and scenes are stored and managed in the image information storage unit 190.

이때 상기 영상정보 저장부에 메타데이터 및 자질정보가 저장 관리되기 위하여서는 [표 3]에서와 같이 객체자질 데이터베이스와 처리규칙 데이터베이스등을 사전 구축하여 처리한다. In this case, in order to store and manage metadata and feature information in the image information storage unit, an object feature database, a processing rule database, and the like are pre-built and processed as shown in [Table 3].

상기 서비스등록부(140)는 상기 정보색인부(120), 색인정보관리부(130)의 방법과 절차를 거쳐 생성된 메타데이터를 이용하여 객체, 프레임 및 상황에 대한 다양한 방법의 서비스를 제공할 수 있으며 이를 위하여 서비스를 등록하는 것을 담당하게된다. 메타 데이터는 색인 및 서비스 정보관리 DB(192)에 저장되며 이러한 메타데이터가 생성되고 관리되기 위한 다양한 연산 규칙 DB, 자질 분석 DB 및 언어 분석 DB 를 포함하여 자질정보 관리 DB(191)에 저장되고 처리된다. The service registration unit 140 may provide services of various methods for objects, frames, and situations by using metadata generated through the methods and procedures of the information index unit 120 and the index information management unit 130. To do this, it is responsible for registering a service. Metadata is stored in the index and service information management DB (192) and stored and processed in the feature information management DB (191), including various calculation rule DBs, feature analysis DB, and language analysis DB for generating and managing such metadata. do.

또한 상기 서비스 등록부에서는 사용자 단말에서 요구되는 입력 제어 정보와 객체 셀 맵핑 정보를 효과적으로 관리하기 위하여 단말정보와 인터랙티브 명령정보를 처리하기 위한 규칙과 단말에 표시하기 위한 제어 명령 코드를 서비스 등록부에 등록함과 동시에 서비스를 처리한다.In addition, the service register registers a rule for processing terminal information and interactive command information and a control command code for displaying on the terminal to the terminal to effectively manage input control information and object cell mapping information required by the user terminal. At the same time handle the service.

단말로 부터 서비스 요청이 오면 서비스 요청 해석부(160)에서는 요청 질의에 대하여 해석을 하게 되는데 먼저 서비스 요청 타입에 대해서 분석하고, 분석된 결과를 세부적으로 해석하여 적절한 검색이 이루어 질수 있도록 판단하는 것이 바람직하다.When the service request comes from the terminal, the service request interpreter 160 interprets the request query. First, it is preferable to analyze the service request type, and to analyze the analyzed result in detail so that an appropriate search can be made. Do.

상기의 질의 요청 서비스 타입의 분석은 객체 선택인지 질의어 입력인지 음성입력인지를 해석하고 결과에 따라 포인팅, 질의어 및 음성인식의 절차를 수행한다. The above-described analysis of the query request service type analyzes whether an object is selected, a query input or a voice input, and performs a procedure of pointing, query and voice recognition according to the result.

상기 서비스 요청 해석부(160)에서 해석된 질의는 검색 제공부(150)를 통하여 색인 데이터 베이스와 서비스 정보 관리 데이터베이스에서 검색되어 결과 출력부(170)을 통하여 단말 출력 포맷에 맞게 포맷팅되어 네트워크 연결부(180)와 연결된 이동통신 혹은 유 무선 네트워크중 하나 이상의 망을 통하여 사용자 단말에 서비스된다.The query interpreted by the service request interpreter 160 is searched in the index database and the service information management database through the search provider 150, and is formatted according to the terminal output format through the result output unit 170 and then connected to the network connection unit ( 180 is serviced to the user terminal through one or more networks of mobile communication or wired and wireless networks.

사용자 단말(200)은 영상 표시부(210),검색정보 입력부(220), 입력정보 해석부(230), 입력정보 생성부(240), 벡터맵핑정보 테이블(270), 제어명령정보 코드(280)와 네트워크 연결부(250) 및 결과출력부(260)로 구성될 수 있다.The user terminal 200 includes an image display unit 210, a search information input unit 220, an input information analyzer 230, an input information generator 240, a vector mapping information table 270, and a control command information code 280. And a network connection unit 250 and a result output unit 260.

영상정보 표시부(210)은 네트워크로 연결된 영상서버로 부터 전송받은 영상을 표시하게 된다.The image information display unit 210 displays the image received from the image server connected to the network.

검색정보입력부(220)은 영상이 표시되는 단말에서 입력 장치를 이용한 예컨데 마우스 혹은 기타 포인팅 장치를 이용한 좌표 입력입력, 자연어 혹은 키워드를 입력하기 위한 키보드등과 음성입력을 위한 마이크 등의 입력방법이 제공될 수 있다.The search information input unit 220 is provided using an input device such as a coordinate input input using a mouse or other pointing device, a keyboard for inputting a natural language or a keyword, a keyboard for inputting a natural language or a keyword, and a microphone for voice input. Can be.

입력정보 해석부(230)은 상기 검색정보입력부(220)에서 입력된 다양한 입력장치와 방법들을 해석하게 된다. The input information analyzer 230 interprets various input devices and methods input by the search information input unit 220.

이때 사용자가 입력한 방식에 따라 화면에 대응하는 셀의 식별자를 추출하고 질의 입력시점에서의 프레임과 객체에 연동되는 다양한 인터페이스를 제공하기 위하여 벡터맵핑정보(270) 테이블을 참조하게 된다.At this time, the identifier of the cell corresponding to the screen is extracted according to the method input by the user, and the vector mapping information 270 table is referred to in order to provide various interfaces linked to the frame and the object at the point of query input.

입력정보 해석부(230)에서 해석된 질의는 영상서버(100)으로 입력정보를 질의하기 위하여 판단하는 과정을 거치게 되는데 이때 추가적인 사용자 질의정보가 필요한지를 판단하여 제어 명령정보(280)에서 사용자 화면에 다양한 추가입력을 요청하게 된다.The query interpreted by the input information interpreter 230 undergoes a process of determining to query the input information to the image server 100. At this time, it is determined whether additional user query information is required and the control command information 280 is displayed on the user screen. You will be asked for various additional inputs.

상기의 과정을 거쳐 단말에서는 영상서버(100)에 보내기 위하여 입력정보 생성부(240)에서 입력질의정보를 생성하게 된다. 이때 생성되는 질의정보의 포맷은 아래 [표 4]와 같이 될 수 있다. Through the above process, the terminal generates input query information in the input information generator 240 to send to the image server 100. At this time, the format of the generated query information may be as shown in [Table 4] below.

프로토콜 식별자Protocol identifier 세션 IDSession id 메세지 타입Message type ReservedReserved 동영상 IDVideo ID 프레임 IDFrame ID 셀 IDCell ID Payload LengthPayload Length PayloadPayload

상기 [표 4]와 같이 생성된 데이터 포맷은 통신 네트워크에서의 패킷 규칙을 따름으로 이하 패킷으로 부른다. 상기 패킷의 공통 헤더 부분인 프로토콜 식별자, 세션아이디, 메세지 타입, 리저브드 필드, 동영상 아이디, 프레임 아이디, 셀 아이디 및 Payload 길이 필드를 가진다. Payload에는 사용자 식별자(ID)와 자연어 질의 텍스트 혹은 음성 질의용 데이터 및 인증을 위한 코드 등이 포함될 수 있다.The data format generated as shown in [Table 4] is referred to as a packet according to the packet rule in the communication network. It has a protocol identifier, a session ID, a message type, a reserved field, a video ID, a frame ID, a cell ID, and a payload length field which are common header parts of the packet. The payload may include a user identifier (ID), natural language query text or voice query data, and a code for authentication.

상기 메세지타입은 영상에서의 셀 포인팅, 제어 명령 처리, 질의어 입력 혹은 음성 입력인지에 대한 다양한 입력 메세지에 대한 타입을 정의하는 것이다. The message type defines various types of input messages for cell pointing in a video, control command processing, query input or voice input.

단말 질의 패킷이 영상서버(100)로 단말 네트워크연결부(250)를 통하여 보내지면 영상서버에서 처리된 결과는 단말의 결과출력부(260)를 통하여 출력된다.When the terminal query packet is sent to the image server 100 through the terminal network connection unit 250, the result processed by the image server is output through the result output unit 260 of the terminal.

도 2는 영상 색인을 위한 데이터 테이블이다. 영상색인을 위한 메인 테이블은 영상정보를 분석하고 처리한 여러가지 데이터를 생성 관리하는 데이터 베이스 테이블이다. 상세하게는 영상메인테이블(10), 장면분할테이블(20), 프레임 테이블(30), 객체테이블(40), 서브객체테이블(50) 및 역프레임 객체 집합 테이블(60)을 가진다.2 is a data table for an image index. The main table for the image index is a database table for generating and managing various data obtained by analyzing and processing image information. In detail, the image main table 10 includes a video main table 10, a scene division table 20, a frame table 30, an object table 40, a sub object table 50, and an inverse frame object set table 60.

상기 영상 메인테이블(10)은 대상 동영상에 대한 개괄적인 영상 정보 테이블이다. Video_ID(11)는 영상서버에서 대상 동영상을 식별하기 위한 식별자이다. Disp_Size(12)는 해당 동영상의 화면 크기인데 이는 화면의 엔코딩시의 화면크기를 의미한다. Run_Time(13)은 동영상의 플레이 시간이다. Cell_No_Depth(14)는 동영상을 분할하는 서브셀의 반복 분할 횟수이다.Video_Title(15)은 동영상의 타이틀(제목)이다. Idx_Term(16)은 동영상에서 프레임을 추출하여 색인하는 간격을 의미하는데 이는 동적으로 색인하는 방법과 특정 주기 즉 시간간격이나 프레임 간격등의 방식으로 처리할 수 있다. No_Scenes(17)은 동영상내 분할장면의 수를 나타낸다. No_Frames(18)은 영상내 총프레임수이다. Cate_Class_Id(19)는 해당 영상의 카테고리 분류체계를 나타낸다.The video main table 10 is a general video information table for a target video. Video_ID 11 is an identifier for identifying a target video in the video server. Disp_Size (12) is the screen size of the video, which means the screen size when encoding the screen. Run_Time 13 is a play time of a video. Cell_No_Depth 14 is the number of repeated divisions of the subcell for dividing the video. Video_Title 15 is the title (title) of the video. Idx_Term (16) refers to an interval for extracting and indexing frames from a video, which can be dynamically indexed and processed in a specific cycle, that is, a time interval or a frame interval. No_Scenes (17) represents the number of split scenes in the video. No_Frames 18 is the total number of frames in the image. Cate_Class_Id 19 indicates a category classification system of the corresponding video.

장면분할 테이블(20)은 영상에서 장면 분할 영역을 관리하기 위한 정보 관리테이블이다. Scene_Id(21)은 장면 구분 식별자이며 장면 시작프레임 Start Frame(22), 장면 종료 프레임 End_Frame(23)을 가진다. 장면 분할된 시간 Scene Time(24)와 장면에서의 핵심객체 Key Object(71), 객체 집합(71), 제어명령(72)와 장면 상황 인식 식별자인 Scene Context Id(28)을 가지게 된다. The scene division table 20 is an information management table for managing a scene division area in an image. Scene_Id 21 is a scene identification identifier and has a scene start frame Start Frame 22 and a scene end frame End_Frame 23. The scene segmented time has a scene time 24, a key object key object 71 in the scene, an object set 71, a control command 72, and a scene context ID 28, which is a scene context recognition identifier.

이때 핵심객체(25)와 객체집합(71)은 장면 분할한 프레임구간에서의 객체들을 말하는 것으로 특정 장면에서 어떤 객체들로 이루어져 있는가를 관리하기 위함이다.At this time, the core object 25 and the object set 71 refer to the objects in the frame section divided into scenes, and are for managing which objects are composed in a particular scene.

프레임테이블(30)은 프레임 식별자 Frame ID(31), 프레임 인덱스 Frame Index(32), 프레임 시간 Frame Time(33), 프레임 객체 집합 Object Set(71), 제어 명령 Control Command (72), 프레임 상황 식별 코드Frame Context ID(34)와 서비스를 처리하기 위하여 Service Anchor(73)을 가진다. The frame table 30 includes a frame identifier Frame ID 31, a frame index Frame Index 32, a frame time Frame Time 33, a frame object set Object Set 71, a control command Control Command 72, and a frame status identification. Code Context ID 34 and Service Anchor 73 to process the service.

상기 프레임 식별자(31)는 영상에서 특정한 프레임 영역을 식별하기 위한 것이며 프레임 인덱스(32)는 프레임에서 셀로 분할된 영역에서 객체의 상대좌표를 관리하고 단말로 부터 전송되어온 포인팅 좌표에 대응하는 객체 셀 영역에 대하여 해당 포인팅 좌표 영역셀에 대한 객체 유무 판별과 객체 검색을 위해 관리되는 인덱스이다.The frame identifier 31 is for identifying a specific frame region in the image, and the frame index 32 manages the relative coordinates of the object in the region divided into cells in the frame, and corresponds to the object cell region corresponding to the pointing coordinates transmitted from the terminal. Is an index managed for object detection and object search for the corresponding pointing coordinate area cell.

이를 좀더 상세하게 보면 [표 1]에서 보여진 바와 같이 셀이 분할되고 분할된 셀에 각각 '가', '나', '다', '라'라고 마스킹된 객체에 대한 프레임내 객체 인덱스값은 그 각각을 비트로 표현하여 16진수로 변환하였을 경우 아래와 같다. {0xC000, 0x8000, 0x0010, 0x2310, 0x7390, 0x21B8, 0x0038, 0x0078, 0x007C}이와 같은 프레임 색인을 하여 관리한다.In more detail, as shown in [Table 1], the in-frame object index values for the objects masked with 'ga', 'me', 'da', and 'la' are divided into cells. When each is expressed in bits and converted to hexadecimal, it is as follows. {0xC000, 0x8000, 0x0010, 0x2310, 0x7390, 0x21B8, 0x0038, 0x0078, 0x007C} are managed by the same frame index.

상기 프레임 시간(33)은 해당 색인 프레임이 위치한 시간 위치를 나타낸다. 프레임 객체집합(71)은 [표 1]의 경우 '1'로 표시된 4개 cell 집합 정보이다.The frame time 33 represents the time position at which the corresponding index frame is located. The frame object set 71 is four cell set information indicated by '1' in the case of [Table 1].

제어명령 Control Command(72)는 단말에서 추가적인 검색 옵션을 위하여 사용자에게 제공하는 기능으로서 서버에서는 각 영상, 장면, 프레임, 객체에 대하여 다양한 검색 옵션 및 기능을 제공 할 수 있으며 제어명령을 영상 화면에 통합시키는 가장큰 장점은 제한된 화면과 영상 스크리밍 플레이어의 제한된 기능에 대한 유연성을 확보하는데 의미가 크다.Control Command Control Command 72 is a function provided to the user for additional search options in the terminal. The server can provide various search options and functions for each image, scene, frame, and object, and integrates control commands into the video screen. The biggest advantage of this is that it has great flexibility in the limited screen and limited functionality of the video screening player.

단말용 영상 플레이어에 다양한 검색 옵션이나 기능을 제공하려면 제공 플레이어의 기능이 복잡하고 모든 단말에 적용하여 처리하려면 어려움이 있었으나 이를 플레이어의 화면 영역의 셀에 원하는 제어명령을 겹쳐 표시하고 해당 제어 명령을 선택하면 오버레이된 셀의 영역값을 서버로 전송하고 이를 해석하여 특정기능을 요청한 것으로 해석할 수 있도록 하는 기능을 지원하기 위함이다.To provide various search options or functions to the terminal video player The function of the player is complex and it is difficult to apply and process it to all terminals, but the desired control command is superimposed on the cell of the screen area of the player and the corresponding control command is selected. This is to support the function to transmit the region value of the overlaid cell to the server and interpret it to interpret the request as a specific function.

상기 프레임 컨텍스트 아이디(34)는 해당 프레임의 컨텍스 식별정보를 관리하는 키이다.The frame context ID 34 is a key for managing context identification information of a corresponding frame.

서비스 앵커(73)는 해당 프레임의 객체와 프레임 영역에 제공하는 서비스 정보를 참조하여 처리하기 위한 서비스 참조 키(Service Reference Key)이다.The service anchor 73 is a service reference key for referencing and processing service information provided to the object of the frame and the frame area.

상기 객체 테이블(40)은 객체 식별자(41), 객체 기술명(42), 프레임 식별자(31), 객체 색인(43), 객체 패턴(44), 폴리곤 추출 타입(45), 제어 명령(72), 객체 컨텍스트(45) 자질 집합(75)와 서비스 앵커(73)을 가진다. The object table 40 includes an object identifier 41, an object description name 42, a frame identifier 31, an object index 43, an object pattern 44, a polygon extraction type 45, a control command 72, The object context 45 has a feature set 75 and a service anchor 73.

상기 객체 식별자(41)은 프레임에서 추출 및 식별된 모든 객체에 대하여 부여하는 유일한 식별자이다.The object identifier 41 is a unique identifier given to all objects extracted and identified in the frame.

상기 객체기술명(42)은 객체 이름이며 객체 색인 Object Index(43)는 객체 서브셀의 좌표를 포함한 폴리곤과 이미지 색상속성등을 색인한 것을 나타낸다. The object description name 42 is an object name, and the object index 43 represents an index of polygons and image color attributes including the coordinates of the object subcells.

또한 상기 객체패턴 Object Pattern(44)는 객체 검출 서브셀의 패턴을 이진 비트로 표현하여 추출한 것이다. In addition, the object pattern (44) is extracted by representing the pattern of the object detection subcell in binary bits.

상기 폴리곤 추출 타입 Polygon Ext. Type(45)은 객체별 추출 셀 영역이 가지는 형태 요소를 분석하여 추출된 폴리곤의 꼭지점과 면 및 요소의 비율에 근거한 객체의 특징을 추출해 낼 수 있다.The polygon extraction type Polygon Ext. The type 45 may extract a feature of an object based on a ratio of vertices, faces, and elements of the extracted polygon by analyzing the shape elements of the extracted cell regions for each object.

객체 컨텍스트 Object Context(45)는 객체의 프레임내의 컨텍스에 대한 정보를 포함한다.Object Context Object Context 45 contains information about the context within a frame of an object.

자질 셋 Feature Set(75)는 객체가 가지고 있는 여러가지 속성 정보를 포함하는 집합이다. Feature Set Feature Set 75 is a set that includes various attribute information of an object.

이때 상기 자질셋(75)는 하나의 객체에 포함된 서브 객체들에 대한 자질 집합까지 모두 표현하여 집합의 집합의 개념으로 처리하는 것이 바람직 하다.In this case, the feature set 75 may express all the feature sets of sub-objects included in one object and process the set of sets.

서브 객체 테이블(50)은 객체의 서브 객체이며 객체식별자(41), 서브객체 색별자(51), 서브객체 셀 좌표영역(52), 제어 명령(72), 자질셋(75)과 서비스 앵커(73)을 가진다.The sub object table 50 is a sub object of the object and is an object identifier 41, a sub object color identifier 51, a sub object cell coordinate region 52, a control command 72, a feature set 75, and a service anchor ( 73).

이때 상기 서브객체셀 좌표영역(52)은 객체영역에서 서브객체 위치 좌표 정보이다.In this case, the sub-object cell coordinate area 52 is sub-object position coordinate information in the object area.

역프레임 객체 집합테이블(60)은 프레임테이블에 대한 역(reversed) 매핑 테이블이다. 이는 프레임에서 해당 좌표에 위치한 객체의 정보를 관리하고 검색할 수 있도록 하기 위함이다.The inverse frame object set table 60 is a reversed mapping table for the frame table. This is to manage and retrieve the information of the object located at the corresponding coordinate in the frame.

상기의 역프레임 객체 집합 테이블(60)은 프레임식별자(31), 제어 명령(72), 프레임 컨텍스트(34), 객체 요약 옵셋(61), 객체 검출수(62)와 객체식별자와 그 좌표(63)을 가진다.The inverse frame object set table 60 includes a frame identifier 31, a control instruction 72, a frame context 34, an object summary offset 61, an object detection number 62, an object identifier and its coordinates 63. )

상기 객체 요약옵셋은 특정 프레임에서의 전체적인 객체 구성과 배경 및 이미지 분석정보를 요약하여 동일 및 유사한 정보를 검색과 해당 프레임등에 대한 저작권등에 대한 관리 목적으로 사용되어 질 수 있다. The object summary offset may be used for the purpose of searching for the same and similar information and managing the copyright of the corresponding frame by summarizing the overall object composition and background and image analysis information in a specific frame.

도 3은 서비스 프로파일과 자질 집합정보를 관리하기 위한 테이블들이다. 카테고리 테이블(F10), 제어명령 테이블(F20), 컨텍스트 DB(F30), 객체색인 DB(F40), 자질 집합 DB(F50), 서비스 DB(F60) 및 폴리곤 DB(F70)을 가진다.3 is a table for managing a service profile and feature set information. And a category table F10, a control command table F20, a context DB F30, an object index DB F40, a feature set DB F50, a service DB F60, and a polygon DB F70.

상기 카테고리 테이블(F10)은 동영상 기반 서비스를 제공함에 있어서 요구되는 해당 서비스 분류체계를 관리하는 테이블이다.The category table F10 is a table for managing a corresponding service classification system required for providing a video based service.

상기 제어명령(F20)은 단말에 인터페이스를 제공하기 위하여 사용되는데 이는 장면이나 프레임 혹은 객체에서 선택한 좌표 혹은 해당 프레임에서 제공해야할 기능 옵션을 화면에 제공한다. 이를 위하여 각각의 제어명령은 고유의 식별자를 가지며 제어명령은 장면 혹은 프레임에서의 제공하는 제어 인터페이스는 각각 다르게 정의 할 수 있다.The control command F20 is used to provide an interface to the terminal, which provides the screen with the coordinates selected from the scene, the frame or the object, or the function options to be provided in the frame. For this purpose, each control command has a unique identifier, and the control interface provided in the scene or frame can be defined differently.

상기 제어 명령에서 이를 위하여 제어 명령을 사용자 화면에 나타내기 위한 명령문과 제어 명령이 실행되는데 필요한 파라미터 값을 포함한 옵션들을 가질 수 있다.For this purpose, the control command may include a command for displaying the control command on a user screen and options including parameter values necessary for executing the control command.

컨텍스트 DB(F30)은 컨텍스에 대한 분류 식별자;와 컨텍스트 추출을 위한 자질 매칭 규칙;과 해당 컨텍스트로 해석되기 위한 매칭 조건;과 핵심 컨텍스트; 보조 컨텍스트;로 구분되어 질 수 있다.The context DB F30 may include a classification identifier for a context, a feature matching rule for extracting a context, a matching condition to be interpreted as a corresponding context, and a core context; Secondary context;

상기 객체색인 DB(F40)는 프레임 식별 객체에 대한 객체 정보;와 해당 객체가 가지게 되는 조건 정보;, 객체에 연결된 서비스 식별자; 및 영상의 자막 혹은 부가 문서정보에 대한 색인어; 및 객체 연결 정보;를 포함하게 된다.The object color DB (F40) is the object information for the frame identification object; and the condition information that the object has, a service identifier connected to the object; And index words for subtitles or additional document information of the video; And object connection information.

객체색인 자질 DB(F50)은 객체별 자질 분류체계에 따른 자질셋을 관리하는 객체색인 자질사전이다. 대표 객체에 대한 자질 사전으로 객체 식별자와 일반자질; 관계자질; 속성자질; 특수자질을 가지게 된다.The object index feature DB (F50) is an object index feature dictionary that manages feature sets according to the feature classification system for each object. Feature dictionary for representative objects; object identifiers and general features; Relationship quality; Attribute qualities; Have special qualities.

상기 자질 DB 자질 속성은 예컨데 각각 자질 속성별로 32bit를 할당하면 하나의 대표 객체에 대하여 128bit의 자질 표현력을 가지게 된다. 이는 객체 자질 분류별 해당 자질에 대하여 자질을 가지고 있으면 '1'로 해당 자질이 없으면 '0'으로 설정해두고 관리하는 것이 바람직하다.For example, if the 32-bit feature is allocated to each feature property, the feature DB feature has 128-bit feature representation for one representative object. It is preferable to set and manage '1' if there is a feature for the corresponding feature by object feature classification.

이를 통하여 어떤 컨텍스트를 검색하거나 연관을 검색하려면 두 관련 객체에 대한 부울연산을 통하여 객체의 특정 자질 값에 대한 비교 연산을 통하여 영상에서의 프레임 및 객체에 대한 지능적인 검색과 관리하는 것이 바람직하다. In order to search for a context or search for an association through this, it is desirable to perform intelligent search and management of frames and objects in an image through a comparison operation on specific feature values of the object through Boolean operations on two related objects.

상기 서비스 DB(F60)는 [도 2]에서 서비스 앵커 값이 서비스 DB의 식별자로 쓰이는 것이 바람직하며 식별자에는 해당 서비스 호출 시 처리가능한 파라미터 값이 조건으로 쓰여지며 서비스는 해당 제어명령으로 통하여 객체 혹은 프레임에서 어떤 입력값에 대한 해석으로 서비스 DB에 정의된 서비스를 호출하는 개념이다.  In the service DB (F60), the service anchor value is preferably used as an identifier of the service DB in FIG. 2, and a parameter value that can be processed when the service is called is used as a condition, and the service is an object or a frame through a corresponding control command. The concept of calling a service defined in service DB by interpreting any input value in.

폴리곤 DB(F70)은 객체 식별한 결과 검출값의 다각형의 값을 꼭지점의 수;와 인접각의 특징, 면의 비율의 특징을 추출한 폴리곤 정보로 구축하여 일정한 값에 이르면 이를 해당 객체의 근사치로 추정 할 수 있는 참고(Reference) 데이터베이스이다.Polygon DB (F70) constructs the polygon value of the detected value as the number of vertices, the feature of the adjacent angle, and the ratio of the face ratio, and estimates it as an approximation of the object when it reaches a certain value. It is a reference database.

색인어 DB(F80)는 영상에 포함된 문서 및 자막에 대한 언어 분석 및 이벤트 처리를 위하여 형태소 분석 및 구문 분석을 통한 컨텍스트 식별과 해당 컨텍스트 및 이벤트를 프레임 내 객체와 매핑 시키기 위한 언어 분석 참조 사전 데이터베이스 이다.Index word DB (F80) is a language analysis reference dictionary database for context identification through morphological analysis and parsing and mapping of relevant contexts and events with objects in frames for language analysis and event processing of documents and subtitles included in the image. .

도 4는 상기 도 2 및 도 3에서 상술한 데이터 베이스 테이블간의 관계도이다. 하나의 동영상 혹은 멀티미디어는 영상정보 관리를 위하여 영상 메인 테이블(10)을 가지며 영상은 여러개의 장면들로 이루어진 장면 테이블(20)을 가질 수 있다.또한 장면 테이블은 복수개의 프레임 테이블(30)으로 구성되어 있으며 프레임은 각각 이미지 속성정보와 객체들로 이루어진 객체테이블(40)을 가지고 객체테이블은 다수의 서브 객체 테이블(50)을 가질 수 있다.4 is a relationship diagram between the database table described above with reference to FIGS. 2 and 3. One video or multimedia may have an image main table 10 for managing image information, and an image may have a scene table 20 composed of several scenes. The scene table may include a plurality of frame tables 30. Each frame has an object table 40 composed of image attribute information and objects, and the object table may have a plurality of sub object tables 50.

상기 프레임 테이블(30)에서 단말로 부터 셀 영역에 대한 포인팅 정보가 선택되면 역프레임 객체집합 테이블(60)에서 프레임의 포인팅 정보에 대한 객체정보와 프레임의 객체요약정보를 확인하여 처리하게 된다.When the pointing information for the cell area is selected from the terminal in the frame table 30, the inverse frame object set table 60 checks and processes object information about the pointing information of the frame and object summary information of the frame.

또한 장면테이블(20), 프레임 테이블(30), 객체 테이블(40) 및 서브객체테이블(50)은 정보를 분석하고 장면, 객체 및 서브객체를 추출하기 위하여 폴리곤 테이블(F70)을 참조하는 것이 바람직하다.In addition, the scene table 20, the frame table 30, the object table 40 and the sub-object table 50 preferably refer to the polygon table F70 in order to analyze information and extract scenes, objects and sub-objects. Do.

카테고리테이블(F10)은 영상 메인테이블과 서비스 제공을 위한 서비스테이블(F60)에서 카테고리 및 분류 체계를 관리하기 위하여 참조한다.The category table F10 refers to managing categories and classification schemes in the image main table and the service table F60 for providing a service.

서비스테이블(F60)은 프레임 테이블(30), 객체 테이블(40) 및 서브 객체테이블(50)에 서비스를 정의하고 링크정보를 가지고 있다. The service table F60 defines a service in the frame table 30, the object table 40, and the sub object table 50 and has link information.

명령제어(F20)은 장면, 프레임에서 사용자에게 제공할 인터페이스 제어 명령 정보를 관리하고 객체나 서브 객체의 선택 혹은 프레임에서 검색, 음성입력을 통한 제어 명령 발생시에 대응하는 사용자 인터페이스를 생성하고 관리하는 데이터와 규칙을 관리하며 장면, 프레임, 객체 및 서브 객체와 서비스를 제공하기 위한 사용자 인터페이스를 제공하기 위하여 활용되는 것을 특징으로 한다. Command control (F20) manages interface control command information to be provided to a user in a scene or a frame, and generates and manages a user interface corresponding to a selection of an object or sub-object or a control command through search or voice input in a frame. It manages and rules, and is used to provide a user interface for providing scenes, frames, objects, and sub-objects and services.

컨텍스트 테이블(F30)은 장면, 프레임, 객체 및 서브 객체의 컨텍스트를 인식하고 관리하기 위하여 사용되는데 컨텍스트와 객체 관련 정보 및 자질의 연산을 통한 다양한 컨텍스트 인식 기반 동영상 서비스가 가능해진다.The context table F30 is used to recognize and manage the context of scenes, frames, objects, and sub-objects. Various context-aware video services are possible through the calculation of context and object-related information and features.

객체 색인 테이블(F40)은 프레임내 추출 객체에 대한 셀 좌표정보와 서비스정보 및 객체의 자질 셋정보의 식별정보를 관리하는데 이를 통하여 장면, 프레임에서 특정 포인팅 좌표에 해당하는 객체를 추출하여 관련 서비스를 검색하고 제공하는 핵심 테이블이다.The object index table (F40) manages cell coordinate information, service information, and identification information of object feature set information of an extracted object in a frame. Through this, an object corresponding to a specific pointing coordinate in a scene or a frame is extracted and related services are managed. Core table for searching and serving.

색인어 DB(F80)는 동영상 정보에 부가 문서정보나 자막정보가 존재할 경우 형태소 분석 및 구문 분석을 통한 추출 색인 DB를 객체 색인 정보와 매핑하여 관련 정보에 대한 자연어 혹은 키워드 검색이 가능하도록 색인 추출 DB이다.Index word DB (F80) is an index extraction DB that enables natural language or keyword search for relevant information by mapping the extraction index DB through morphological analysis and parsing when there is additional document information or subtitle information in video information. .

자질 테이블(F50)은 객체분석과 언어 분석에서 요구되는 속성 자질 정보를 객체 자질과 언어처리 및 구문분석용 자질 DB를 가지는 것을 특징으로 한다.The feature table F50 is characterized by having property feature information required for object analysis and language analysis as having an object feature, and a feature DB for language processing and parsing.

도 5는 본 발명의 전체적인 절차도이다. 본 절차도에 따르면 신규 등록된 영상정보가 있는지를 확인하는 영상정보검색(S100); 신규 대상 영상정보에 대하여 동영상 포맷, 화면정보등을 분석하는 영상정보분석(S200); 분석된 원본 영상정보보 부터 영상정보를 분석하여 셀 영역으로 추출정보를 색인하는 영상정보색인(S300); 객체식별(S400); 자질부여(S500); 서비스프로파일 생성(S600);하고 동영상 서비스 검색(S700)을 제공한다.5 is a general procedure of the present invention. According to this procedure, the image information search for confirming whether there is newly registered image information (S100); Image information analysis (S200) for analyzing a video format, screen information, etc. with respect to the new target image information; An image information index (S300) for analyzing the image information from the analyzed original image information beam and indexing the extraction information into the cell area; Object identification S400; Endowment (S500); Service profile generation (S600); and provides a video service search (S700).

도 6은 영상 정보 검색에 대한 절차도이다. 영상정보 저장소에 분석대상 영상정보가 있는지를 확인(S110)하여 색인대상 동영상이 존재하는지(S111)을 확인하여 색인대상 동영상이 있으면 동영상의 포맷과 코덱 지원여부를 판별하고 적절한 코덱을 선택하여(S120) 동영상을 분석한다. 6 is a flowchart illustrating image information retrieval. By checking whether there is an analysis target video information in the image information storage (S110) and checking whether an index target video exists (S111), if there is an index target video, it is determined whether the video format and codec support are supported and an appropriate codec is selected (S120). ) Analyze the video.

이때 먼저 동영상 헤더 및 키프레임정보를 확인(S121)하는 단계와 동영상의 화면 사이즈 및 프레임정보등을 분석하는 단계(S122)를 분석하고 원본 동영상이 서비스용 코덱으로 엔코딩이 필요한지를 판단(S130)하여 동영상을 스트리밍 서비스를 위한 변환 혹은 재엔코딩(S131)을 거친후 최상위 셀 분할수와 최대 셀 분할수를 정한다(S140). At this time, the first step is to check the video header and key frame information (S121) and the screen size and frame information analysis step (S122) of the video and determine whether the original video is required to encode the codec for the service (S130) After converting or re-encoding the video for the streaming service (S131), the highest cell division number and the maximum cell division number are determined (S140).

상기 최상위 셀 분할수와 최대 셀 분할수(S140)를 정하는 단계는 원본 영상으로 부터 분석된 화면 크기와 픽셀정보에 대한 이미지 분석을 위한 가상 분할 셀의 분할 단계 즉 분할 깊이(Depth)를 결정하는 단계를 의미한다. 여기서 최상위 셀 분할수는 프레임으로부터 셀을 분할하는 분할 수를 의미하며 셀은 2의 배수로 분할 한다.The determining of the highest cell division number and the maximum cell division number S140 may include determining a division step, that is, a division depth, of a virtual division cell for image analysis of a screen size and pixel information analyzed from an original image. Means. Here, the highest cell division number means a division number for dividing a cell from a frame, and the cell is divided into multiples of two.

상기 셀 분할에서 분할 깊이(depth)란 최상위 분할 셀을 2의 배수로 반복해서 분할하는 횟수를 의미하며 최대 셀 분할수는 최상위 분할셀에서 반복 분할된 가장 작은 셀의 총 분할 갯수를 의미한다.In the cell division, the depth of division refers to the number of times the highest division cell is repeatedly divided by a multiple of 2. The maximum cell division number refers to the total number of divisions of the smallest cell repeatedly divided in the highest division cell.

상기와 같이 분석된 프레임 분석 셀 정보를 저장하고(S150) 복귀한다.The frame analysis cell information analyzed as described above is stored (S150) and returned.

도 7은 영상 이미지 분석을 위한 처리 절차도이다. 프레임의 사이즈와 화질을 분석하여 셀의 분할과 분할 깊이(Depth)를 정하여(S210). 프레임 이미지로 부터 셀로 분할한 셀의 이미지 크기를 구한다(S220). 분할 셀로부터 순서대로 이미지를 분석하여(S230) 셀의 이미지 분석정보가 단일한지 복수의 분석 속성을 가지는지 판단한다(S240).7 is a flowchart of a process for analyzing an image image. By analyzing the size and image quality of the frame, the division and the depth of division of cells are determined (S210). The image size of the cell divided into cells is obtained from the frame image (S220). The image is analyzed in order from the divided cells (S230) to determine whether the image analysis information of the cell is single or has a plurality of analysis attributes (S240).

이때 이미지 분석정보는 셀 영역에 대응하는 영상의 픽셀좌표영역이내의 이미지 정보들이다. 또한 분석대상정보는 칼라, 텍스추어, 이미지 경계선등을 포함하는 것이 바람직하다.In this case, the image analysis information is image information within the pixel coordinate region of the image corresponding to the cell region. In addition, the information to be analyzed preferably includes a color, texture, image boundary, and the like.

셀 이미지 분석정보 판단(S240)에서 단일 이미지 속성정보를 가졌으면 셀에 대응하는 이미지 속성정보를 저장하고 In the cell image analysis information determination (S240), if the single image attribute information is included, the image attribute information corresponding to the cell is stored.

도 8은 객체 식별결과 저장 처리 절차도이다. 프레임 이미지를 분석하기위하여 프레임 사이즈와 화질을 분석하여 셀분할과 분할 깊이(Depth)를 결정하고(S210) 프레임이미지로 부터 셀로 분할한 셀의 이미지 크기를 구한다(S220). 분할된 셀을 순서대로 이미지를 분석(S230)하여 셀의 이미지 분석정보가 단일 정보인지 분석(S240)하여 단일 객체 판단비율 이내이면 이미지 속성정보를 셀좌표에 대응시켜 결과를 저장(S250)한다. 셀의 분석 결과값을 결과 테이블에 '1'로 설정(S260)한다. 이때 현재의 셀분할 깊이(Depth)가 설정 최대 깊이인지 판단(S270)하여 최대깊이이면 인접 다음셀이 존재하고 인접셀이 마지막셀이 아닌지를 판단한다(S280).8 is a flowchart illustrating a process of storing an object identification result. In order to analyze the frame image, the cell size and the image quality are determined by analyzing the frame size and the image quality (S210), and the image size of the cell divided into cells is obtained from the frame image (S220). The image is analyzed in order of the divided cells (S230), and whether the image analysis information of the cell is single information (S240). If the single object is within the determination ratio of the single object, the image attribute information corresponds to the cell coordinate and the result is stored (S250). The analysis result value of the cell is set to '1' in the result table (S260). At this time, it is determined whether the current cell division depth (Depth) is the set maximum depth (S270), and if the maximum depth is determined, the next adjacent cell exists and the adjacent cell is not the last cell (S280).

상기 셀의 이미지 분석정보가 단일 정보인지 분석(S240) 단계에서 복수의 분석정보가 존재하고 분석정보가 단일 객체 판단비율 이내인지 판단(S251)이면 셀의 분석 결과값을 결과 테이블에 '1'로 설정(S260)하고 객체판단비율 밖이면 현재의 셀의 셀의 깊이가 최대분할깊이가 아닌지를 판단(S270)하여 아니면 한단계 더하고(S252) 2의 배수로 분할(S290)하여 셀의 순서대로 이미지를 분석(S230)한다.If it is determined whether image analysis information of the cell is single information (S240) and whether a plurality of pieces of analysis information exist and the analysis information is within a single object determination ratio (S251), the analysis result value of the cell is set to '1' in the result table. If it is set (S260) and outside the object judgment ratio, it is determined whether or not the depth of the cell of the current cell is not the maximum division depth (S270). (S230).

상기 과정에서 객체판단비율 밖이고 현재의 분할 깊이가 최대이면 현재 분석셀이 마지막셀인지 판단(S270)하여 마지막(S280)이면 분석단계를 종료하고 아니면 다음셀을 선택하여 이미지를 분석(S230)한다.In the above process, if the object determination ratio is outside and the current segmentation depth is maximum, it is determined whether the current analysis cell is the last cell (S270). If it is the last step (S280), the analysis step is terminated or the next cell is selected to analyze the image (S230). .

도 9는 객체 분석 예시도 이다. 객체 색인(S300)은 프레임에서 가상셀 대응 영역에서 셀 식별 영역 값이 '1'인 셀을 검색하여(S310)하여 객체 영역을 탐색(S320)하고 검색된 객체의 색인정보를 저장(S330)한다.9 is an example of object analysis. The object index S300 searches for a cell having a cell identification area value of '1' in a virtual cell corresponding area in a frame (S310), searches for an object area (S320), and stores index information of the found object (S330).

상기 저장된 탐색 셀 영역의 객체 이미지 영역 분석 정보에서 경계를 분석(S340)하고 경게가 존재하면 객체의 서브셀 경계를 탐색하여 경계는 '1'로 나머지는 '0'으로 세팅(S350)한다.In the object image region analysis information of the stored search cell region, the boundary is analyzed (S340), and if there is a warning, the boundary of the subcell of the object is searched and the boundary is set to '1' and the rest to '0' (S350).

상기 탐색 서브 객체의 연속셀에서 경계를 가진 서브 객체를 추출(S360)하여 추출된 서브 객체의 정보를 저장한다. The sub-object having a boundary is extracted from the continuous cell of the search sub-object (S360) to store the extracted sub-object information.

상기의 과정은 미식별 셀의 영역값이 '1'인 서브셀이 남아있지 않을때까지 반복해서 수행(S380)하고 추출된 객체 식별정보를 프레임 테이블(30)에 저장하고 마친다. The above process is repeatedly performed until there is no subcell having a region value of '1' in the gourmet cell (S380), and the extracted object identification information is stored in the frame table 30 and finished.

상기 셀 식별을 위한 전체 분할 셀의 영역은 영상의 프레임 영역의 실제 픽셀좌표에 대응하는 영역이다. 각 셀 영역에서의 이미지 분석정보를 판단하여 객체 식별을 하는데 색상, 텍스추어 및 경계선 검출 단계를 수행한다. 검출한 객체 영역 셀의 식별값을 '1'로 설정하고 며 이며 각 셀은 최대분할 셀 영역이다. 프레임의 셀 분할 가상 기술 영역 대응 셀(C01)에는 4개의 서브객체로 이루어진 삼각형 객체(C02)와 직육면체 객체(C03)가 있다.The area of the whole divided cell for cell identification is an area corresponding to the actual pixel coordinates of the frame area of the image. In order to identify objects by determining image analysis information in each cell area, color, texture, and boundary line detection steps are performed. The identification value of the detected object region cell is set to '1', and each cell is the maximum divided cell region. In the cell division virtual description region corresponding cell C01 of the frame, there are a triangular object C02 and a cuboid object C03 composed of four sub-objects.

프레임 영역에 대응하는 전체 셀 영역은 '0'으로 설정되며 색인 식별 셀 혹은 대상 셀 영역은 '1'로 설정된다. 좌상의 화살표 '1번','2번','3번','4번'영역의 셀의 합이 최대 분할 셀 영역이라 설정하면 각 화살표가 있는 영역은 제1 분할 깊이의 영역이며 각 '1'은 2의 배수배 분할에서 4개의 분할을 하게된다. 즉 이렇게 분할 과정을 거쳐 상기 도면에서는 12개의 최상위 셀을 가지며 각 셀은 64개의 서브셀을 가지게 됨을 보인다.The entire cell area corresponding to the frame area is set to '0' and the index identification cell or the target cell area is set to '1'. If the sum of the cells in the top left arrows' 1 ',' 2 ',' 3 'and' 4 'is set as the maximum divided cell area, the area with each arrow is the area of the first divided depth and each' 1 'is divided into 4 multiples of 2 multiples. In other words, this division process shows that the top 12 cells have 12 subcells and 64 subcells.

따라서 상기 도 10에서 셀의 좌표 기술 방식은 화면의 x축 길이를 'X', x축 분할 개수를 'n', 화면의 y축 길이를 'Y', y축 분할 개수를 'm'이라 할 때 상기 가상 셀의 셀 식별정보는 [수학식 1]에 예시된 바와 같이 표현하는 것이 바람직하다.Accordingly, in the method of describing a cell in FIG. 10, the x-axis length of the screen is referred to as 'X', the x-axis division number is 'n', the y-axis length of the screen is 'Y', and the y-axis division number is 'm'. In this case, the cell identification information of the virtual cell is preferably expressed as illustrated in [Equation 1].

Figure 112007015773903-PAT00001
Figure 112007015773903-PAT00001

[수학식 1]에 예시된 바와 같이 셀 식별 정보를 설정하였으면 도 11에 예시된 바와 같이 상기 j 및 i 값을 변화시키면서, 상기 분할된 모든 가상셀 들에 대한 분석 과정을 수행한다. When the cell identification information is set as illustrated in Equation 1, as shown in FIG. 11, the j and i values are changed, and an analysis process is performed on all the divided virtual cells.

Figure 112007015773903-PAT00002
Figure 112007015773903-PAT00002

Figure 112007015773903-PAT00003
: 'O'는 객체 식별자이며 객체를 포함하는 셀의 좌표(i,j)에 위치한 객체의 셀 분석 색인 값
Figure 112007015773903-PAT00003
'O' is the object identifier and the cell analysis index value of the object located at the coordinate (i, j) of the cell containing the object

Figure 112007015773903-PAT00004
: 셀 좌표 C의 (i,j)에서 대상 객체를 포함하는 식별 영역에서의 셀 분할 방법과 깊이를 정의.
Figure 112007015773903-PAT00004
: Define cell division method and depth in the identification area containing the target object at (i, j) of cell coordinate C.

X : 최상위 기준 셀에서 x 좌표 셀의 길이  X: the length of the x coordinate cell in the highest base cell

Y : 최상위 기준 셀을 포함한 y 좌표 셀의 길이  Y: the length of the y coordinate cell, including the topmost base cell

n : 상위 셀에서의 서브 셀 분할 갯수  n: number of subcell divisions in the upper cell

m : 서브 셀의 분할 깊이(Depth)  m: Depth of sub cell

I : I는 셀의 비트 색인 값. I: I is the bit index value of the cell.

도 10은 본 발명의 일 실시 예에 따른 영상 처리를 위한 화면 분할 예를 도시한 도면이다.10 is a diagram illustrating an example of screen division for image processing, according to an exemplary embodiment.

이때

Figure 112007015773903-PAT00005
내의 객체의 분석 색인정보는 도 11의 예시도에서 자세한 처리과정을 살펴보고자 한다. At this time
Figure 112007015773903-PAT00005
The analysis index information of the object in the example will be described in detail with reference to FIG. 11.

도 11은 서브 셀 분할 정보 처리 예시 도면이다. 도면에서

Figure 112007015773903-PAT00006
는 4개의 '1','2','3','4' 영역에 위치한 객체의 좌표이며 이때 셀 좌표 'C'는 도 9에서 보여지는 프레임 영역 기준 셀로부터 (i,j)에 위치한 최상위 셀을 의미한다.11 is an exemplary diagram of subcell division information processing. In the drawing
Figure 112007015773903-PAT00006
Is the coordinate of the object located in four '1', '2', '3', '4' areas, where the cell coordinate 'C' is the highest position at (i, j) from the frame area reference cell shown in FIG. It means a cell.

이때 상기 객체는

Figure 112007015773903-PAT00007
에 존재하며 이때 객체의 서브셀내의 분포는 영역을 포함하고 256개 셀은 서브셀을 나타내고 의미한다. In this case, the object
Figure 112007015773903-PAT00007
In this case, the distribution in the subcell of the object includes an area and 256 cells represent and mean the subcell.

Figure 112007015773903-PAT00008
Figure 112007015773903-PAT00008

객체 분할 색인 정보 'I'는 상기 수학식 3과 같이 나타내어질 수 있다. The object partition index information 'I' may be represented as in Equation 3 above.

도 11의

Figure 112007015773903-PAT00009
객체 색인정보를 표현하면 수학식 4와 같이 나타날 수 있다. 이를 수학식 4를 통하여 객체 색인 방법을 상세하게 설명하면 Of FIG.
Figure 112007015773903-PAT00009
When the object index information is expressed, it may appear as shown in Equation 4. If the object index method is described in detail through Equation 4

Figure 112007015773903-PAT00010
Figure 112007015773903-PAT00010

으로 표현할 수 있는데 이는 도 11에서 최상위 셀 '2'는 4개의 서브 셀로 즉 'A', 'B', 'C', 'D'로 2의 배수 분할 되며다시 각각의 서브셀 'A', 'B', 'C', 'D' 는 4개로 분할된다.In FIG. 11, the most significant cell '2' is divided into four subcells, that is, a multiple of two into 'A', 'B', 'C', and 'D', and each subcell 'A', ' B ',' C 'and' D 'are divided into four.

이때 상기 셀 '2'의 'C'인 서브셀(C04)에서 4분할된 영역에서 객체와 기타 배경정보와의 이미지 분석을 통하여 연속된 인접 동일 분석 유사 정보에 의거하여 분석정보의 셀을 추출하면 서브셀 (C04)와 같이 나올 수 있다.In this case, when the cell of the analysis information is extracted based on the similar adjacent analysis similar information through the image analysis of the object and other background information in the subdivided region C04, which is the 'C' of the cell '2' It may come out like a subcell C04.

이는 상기 수학식 'I' 에서 분할 깊이(depth) d = '3'이며 이를 서브셀 단위의 행렬 색인값으로 나타내면 수학식 4와 같다. 이때 서브셀 C04의 식별 값은 {0,1,1,1}, {0,0,1,0}, {1,1,1,1}, {1,0,1,1}으로 표현된다. 이들 각각의 d ='3'인 서브 셀의 비트값을 16진수로 나타내었을 때 '0x72FB'이며 인접 셀들 또한 상기 [수학식 4]와 같은 형식으로 나타날 수 있다.This is represented by Equation 4 when the partition depth d = '3' in Equation 'I' and expressed as a matrix index value in units of subcells. At this time, the identification value of the subcell C04 is represented by {0,1,1,1}, {0,0,1,0}, {1,1,1,1}, and {1,0,1,1}. . In the hexadecimal representation of the bit value of each of the sub-cells d = '3', '0x72FB' and adjacent cells may also be represented in the form of [Equation 4].

도 12는 객체 식별 및 폴리곤 인식 절차도이다. 도 8에서 저장된 추출 객체 식별정보에서 배경과 객체의 식별정보 및 이미지 속성정보를 읽어(S390) 객체를 포함하는

Figure 112007015773903-PAT00011
객체 분할셀의 기준 좌표를 구한다(S401). 기준좌표에서 연속인접셀을 분석(S410)하여 분석 셀의 비트 값이 '1'인 서브셀을 판단(S420)하여 인접한 동실 속성의 서브셀들의 구성 빗면각과 거리를 삼각함수를 이용하여 구한다(S421). 상기 S421단계에서 기준셀과 인접셀이 이루는 각(∠)의 변이를 판단(S422)하여 기준값을 분석하여 꼭지점의 셀 좌표를 저장한다(S430).12 is an object identification and polygon recognition procedure. In the extracted object identification information stored in FIG. 8, the background and the object identification information and the image attribute information are read (S390).
Figure 112007015773903-PAT00011
The reference coordinate of the object division cell is obtained (S401). A continuous adjacent cell is analyzed in reference coordinates (S410), a subcell having a bit value of '1' of the analyzed cell is determined (S420), and a configuration of oblique angles and distances of adjacent subcells of a same room attribute is obtained using a trigonometric function (S421). ). In step S421, the difference between the angle formed by the reference cell and the adjacent cell is determined (S422), the reference value is analyzed, and cell coordinates of the vertices are stored (S430).

상기 변이각의 기준값이란 두 셀 혹은 복수개의 인접셀이 최장 거리를 이루는 셀의 변이각이 일정 이내 혹은 이상의 값 이를테면 150도 이상이면 이를 직선으로 간주하고 150도이내의 각 셀의 인접면을 꼭지점으로 색인하는 것을 의미한다.The reference value of the shift angle means that if the shift angle of a cell where two cells or a plurality of adjacent cells form the longest distance is within or above a certain value, such as 150 degrees or more, it is regarded as a straight line and the adjacent surface of each cell within 150 degrees is indexed as a vertex. I mean.

인접셀간의 분석이 끝나면 결과를 저장후 연속한 인접 셀을 검색(S440)하여 더이상 분석대상 셀이 없으면 객체 식별 폴리곤을 저장하고 객체의 중심좌표셀을 구한다(S450). 검출된 폴리곤이 폴리곤 DB(F70)에서 유사한지를 판단(S460)하여 유사 폴리곤 모형이 검색되면 대표객체 식별자를 부여하여 객체 테이블(40)에 저장(S470)하고 아니면 미등록 객체 테이블에 저장(S480)한다.After the analysis between neighboring cells, the result is stored and searched for successive neighboring cells (S440). If there is no analysis target cell, the object identification polygon is stored and the center coordinate cell of the object is obtained (S450). If the detected polygon is found to be similar in the polygon DB (F70) (S460), if a similar polygon model is found, a representative object identifier is assigned and stored in the object table 40 (S470), or otherwise stored in the unregistered object table (S480). .

도 13은 장면분할 처리 절차도이다. 저장된 프레임정보에서 시작 분할된 객체와 배경 분석정보를 추출(S390)하여 인접 색인 분석 프레임의 정보를 장면 분할 버퍼에 저장(S491)한다.13 is a scene division processing procedure diagram. The first segmented object and the background analysis information are extracted from the stored frame information (S390), and the information of the adjacent index analysis frame is stored in the scene segmentation buffer (S491).

상기 장면 분할 버퍼에 저장된 프레임 색인 정보를 비교(S492)하여 기준 프레임과 분석 정보간의 변이정보 및 유사성을 판단(S493) 한다. 유사성이 있으면 다음 프레임을 읽어 분석하고 유사성이 미흡하면 이를 장면이 변환된 것로 하여 직접 프레임까지로 장면을 분할 하고 분할 정보를 장면 구간 정보로 장면 분할 테이블(20)에 저장(S495)하고 영상 프레임을 모두 분석(S495)할 때까지 반복한다.The frame index information stored in the scene division buffer is compared (S492) to determine the variation information and similarity between the reference frame and the analysis information (S493). If similarity is found, the next frame is read and analyzed. If similarity is insufficient, the scene is transformed, and the scene is divided into frames directly, and the segmentation information is stored in the scene division table 20 as scene section information (S495). Repeat until all analyzes (S495).

도 14는 객체 자질 부여 절차도(S500)이다. 도 12에서 식별된 객체와 폴리곤정보를 이용하여 객체자질 값을 부여(S510)하고 부여된 자질 값이 적절한지 미등록 객체인지를 판단(S511)하여 미등록 객체이거나 부적절한 객체이면 분석 객체정보에 대표 객체 자질값을 부여(S520), 일반속성자질(S530), 성분 및 관계자질(S531)을 부여하고 해당 객체를 위한 특수자질이 필요한지 확인하여 특수자질을 부여(S532)한다. 14 is a procedure of granting object qualities (S500). Using the object identified in FIG. 12 and the polygon information, an object feature value is assigned (S510), and whether the assigned feature value is appropriate or unregistered object is determined (S511). Values are given (S520), general attribute quality (S530), the component and the relationship quality (S531) is given and the special features for the object is confirmed by granting special features (S532).

프레임내 추출된 자질 값을 부여하고 난후 동일 프레임 내 객체를 검색하여 추가 자질 부여 객체가 있는 지 판단(S540)하고 모든 검출 객체에 대한 자질 값이 부여되었으면 백그라운드 객체에 대한 자질값을 부여(S550)한다.After assigning the extracted feature value in the frame, search for an object in the same frame to determine whether there are additional feature grant objects (S540), and if the feature values for all the detected objects are given, grant the feature values for the background object (S550). do.

자막이나 영상관련 부가 설명문서가 존재하는 지를 판단(S560)하여 추가적인 문서 파일이 존재하면 문서파일에 대하여 텍스트를 추출하여 색인어 DB를 참조하여 언어 분석 및 처리절차를 거쳐 자질 벡터를 생성(S561)한다. 분석된 자질벡터와 프레임 객체 자질 정보를 분석하여 이벤트 및 상황정보를 맵핑(S569)한다.If there is an additional document file, it is determined whether there is a subtitle or additional description document related to the image (S560), and text is extracted from the document file to generate a feature vector through language analysis and processing procedure by referring to the index word DB (S561). . The event and situation information is mapped by analyzing the analyzed feature vector and frame object feature information (S569).

객체간의 자질연산을 통하여 해당 프레임내 이벤트 및 상황정보를 생성(S570)하고 분석된 결과를 저장(S580)한다.Event and situation information in the frame is generated through feature computation between objects (S570), and the analyzed result is stored (S580).

도 15는 본 발명의 일실시 예에 따라 검출된 객체 정보들 간에 논리적인 연관관계를 설명하기 위한 도면이다. 굵은선으로 표시된 것이 논리객체이고, 나머지 것은 단순객체를 나타낸다. FIG. 15 is a diagram illustrating a logical association between detected object information according to an embodiment of the present invention. The bold lines represent logical objects and the rest represent simple objects.

도 16은 서비스 프로파일 생성 단계(S600) 처리 순서도이다. 서비스 프로파일은 도 15에서 보여지는 바와 같이 객체들의 논리적 연관성 및 관계를 포함하여 객체간의 연관 정보를 생성하는 단계(S630)와 객체 및 서브 객체에 대한 각종 서비스정보를 생성하는 단계(S650)및 서비스 제공을 위한 제어 명령 생성(S670)와 생성된 서비스 프로파일을 저장하는 단계((S680)으로 나누어진다.16 is a flowchart of a service profile generation step (S600). The service profile includes the steps of generating association information between objects including logical associations and relationships of the objects as shown in FIG. 15 (S630), generating various service information on the objects and sub-objects (S650), and providing a service. The control command generation for the operation (S670) and the step of storing the generated service profile (S680).

도 17은 서비스 검색 과정 및 순서를 나타내는 도면이다. 영상기반의 단말 검색을 위하여 입력값에 대한 판단의 단계(S720, S721)와 입력된 질의 데이터 포맷(표 4)을 생성하는 단계와 질의 데이터 포맷을 해석하는 단계(S740, S751)와 질의를 해석하는 단계에 있어서 부가적인 사용자 의도 및 검색 옵션을 파악하기 위하 여 제어 명령 코드를 단말에 생성하는 단계(S760, S770)와 사용자로 부터 추가적인 입력을 받는 단계(S780)가 포함될 수 있으며 이를 통하여 질의 검색을 수행하는 단계(S790, S791)와 결과를 전송하여 디스플레이 하는 단계(S800)가 있다.17 is a diagram illustrating a service search process and sequence. Determining the input values (S720, S721) and generating the input query data format (Table 4), analyzing the query data format (S740, S751) and analyzing the query for image-based terminal search In the step of generating a control command code to determine the additional user intention and search options in the terminal (S760, S770) and the step of receiving additional input from the user (S780) may be included through this query search There is a step (S790, S791) to perform the operation and transmitting and displaying the result (S800).

상기 입력값은 좌표에 의한 셀 ID(S720), 바이너리 입력(S721)이 있는데 바이너리 질의 데이터의 종류에는 텍스트, 음성, 이미지 혹은 동영상 등이 있을수 있다.The input value includes a cell ID (S720) and a binary input (S721) based on coordinates, and the type of binary query data may be text, voice, image, or video.

이때 상기 바이너리 입력에서 데이터 타입의 분석(S721)에서는 도 18의 'A' 이하의 처리 과정을 호출하게 된다.At this time, in the analysis of the data type in the binary input (S721), a process of 'A' or lower in FIG. 18 is called.

상기 질의 데이터 포맷의 해석 단계(S740, S751)는 표 4의 메세지 데이터 포맷의 메세지 타입과 셀 아이디 및 패이로더등의 전달 값을 해석하여 입력값에 따른 처리 절차를 따른다.In the analyzing of the query data format (S740, S751), the message type of the message data format of Table 4 and the transfer values such as the cell ID and the payloader are analyzed to follow the processing procedure according to the input value.

상기 질의 검색 데이터에서 프레임 테이블(30)에서 색인값에서 특정 영역에 위치한 객체 정보를 검색하여 대응하는 객체테이블(40)과 서브객체테이블(50)에서 수학식 3b의 객체 색인 값에 대응하는 서비스 앵커(73)를 검색하여 서비스 코드를 생성(S760, S761)한다.The service anchor corresponding to the object index value of Equation 3b in the corresponding object table 40 and the sub-object table 50 by searching the object information located in a specific region in the index value in the frame search table 30 in the query search data. (73), the service code is generated (S760, S761).

이때 상기 서비스 코드를 검색하는데 있어서 추가적인 입력이 요구되는 지를 판단하고 단말로부터 추가적인 제어 명령 옵션 입력(S780)을 받고 검색 색인 DB(F40)에서 필요한 조건정보의 값과 비교하여 서비스 코드를 검색하고 검색된 서비스 코드를 이용하여 서비스 DB(F60)의 해당 서비스를 제어명령정보 입력 조건에 따라 검색 절차(S790)를 수행하게 된다.At this time, it is determined whether an additional input is required to search the service code, and receives an additional control command option input (S780) from the terminal, compares the value of the condition information necessary in the search index DB (F40), and searches for the service code. The search procedure (S790) is performed on the corresponding service of the service DB F60 according to the control command information input condition using the code.

도 18은 바이너리 질의에 대한 처리 절차를 설명한 일 실시예이다. 바이너리 질의 입력에 대한 처리를 위하여 먼저 바이너리 질의 데이터를 분석(S722, S723, S724)하게 된다.18 is a diagram for explaining a processing procedure for a binary query. In order to process the binary query input, binary query data is first analyzed (S722, S723, and S724).

이때 상기 질의 데이터의 타입이 이미지 기반의 질의이면 영상정보 분석(S200)과 영상정보 색인(S300)을 통하여 객체 패턴을 추출하고 검색 질의를 생성(S291)하게 된다.In this case, if the query data type is an image-based query, an object pattern is extracted through image information analysis (S200) and image information index (S300), and a search query is generated (S291).

여기서 이미지 혹은 동영상을 통한 질의는 유사한 이미지나 동영상의 컨텍스트를 검색 혹은 추출하는 것이다. 가령 특정 이미지를 서버로 질의하여 그 이미지와 비슷한 장면 혹은 프레임을 검색하기 위한 것으로 이때 이미지 혹은 장면에서 특정 객체등을 지정하여 질의 할 수 있다.In this case, the query through the image or the video is to search or extract the context of the similar image or the video. For example, to search a server for a specific image and search for a scene or frame similar to the image. At this time, a specific object can be specified in the image or scene.

또한 상기 바이너리 질의에서 음성을 통한 검색(S723)이면 음성인식(S275)을 수행하게 되는데 이때 HMI DB(70 Human-Machine Interface Data Base)를 참조하여 단말로 부터 전송된 음성인식을 수행하고 추출된 음성 키워드를 추출(S276)하게 된다.In addition, if the search is performed through voice (S723) in the binary query, voice recognition (S275) is performed. At this time, voice recognition transmitted from the terminal is performed by referring to HMI Human Human Machine Interface Data Base (MIB) and extracted voice. The keyword is extracted (S276).

상기 바이너리 질의 데이터 속성분석 분석하는 단계에 있어서 텍스크 기반의 검색 질의이면 입력 질의 텍스트 전처리 과정(S278)을 거치게 된다.In the analyzing of the binary query data property analysis, if the text is a search-based search query, the input query text preprocessing process (S278) is performed.

상기 텍스트 전처리(S278)는 입력 질의문의 어절 구분, 어간-어미 구분등을 포함한다.The text preprocessing S278 includes word division, stem-mother division, and the like of the input query statement.

어휘사전과 규칙사전을 참조하여 어휘 분석 및 핵심어 추출(S279)을 하는데 이때 추출된 어휘 성분 및 속성자질 값과 단말에서 질의 생성시 근접 프레임의 컨 텍스트와 프레임의 객체 속성에 대한 자질 값을 참조하여 유사성이 있는 어휘 성분에 대하여 가중치를 부여하는 것을 특징으로 한다.The lexical analysis and key word extraction (S279) are performed by referring to the lexical dictionary and the rule dictionary. Weighting is given to similar lexical components.

상기 텍스트 검색에서의 가중치 부여의 과정은 단말에서 텍스트 기반의 질의어 생성시 최 근접 프레임의 객체 자질 정보를 검색하여 사용자가 질의한 텍스트 질의어 내에 존재하는 어휘성분의 자질을 핵심어로 추출하는 규칙을 가지게됨을 의미한다.The weighting process in the text search has a rule of extracting the feature of the lexical component existing in the text query that the user queries by searching the object feature information of the nearest frame when generating the text based query. it means.

상기 핵심어와 부속어를 추출하는 단계에 있어서 텍스트 질의시점의 근접 프레임 객체의 자질 성분과의 유사성을 따져 검색 질의문을 생성(S291)하기 위하여 장면 분할 테이블(20)의 장면 컨텍스트(28)과 프레임 테이블(30)의 프레임 컨텍스트(34)를 참조하여 포함 객체의 자질을 비교하여 추출하는 것이 바람직하다.In the extracting of the key word and the appended word, the scene context 28 and the frame of the scene partition table 20 are generated in order to generate a search query based on the similarity between the feature elements of the proximity frame object at the text query point (S291). It is preferable to extract and compare the features of the containing object with reference to the frame context 34 of the table 30.

상기 생성된 검색을 위한 질의결과는 도 17의 'B'를 통하여 질의 요청정보를 해석하여 검색을 수행(S790)하게 된다.The generated query result for the search is performed by analyzing the query request information through 'B' of FIG. 17 (S790).

상기 바이너리 검색에서 이미지 혹은 동영상, 음성 및 텍스트 검색 어느 질의에도 포함되지 않는 인식 불가한 질의 발생시 요청 질의에 대하여 에러 코드를 생성(S795)하고 도 17의 'C'를 통하여 결과를 단말에 전송하게 된다.In the binary search, when an unrecognized query that is not included in any query of image, video, voice, and text is generated, an error code is generated for the requested query (S795) and the result is transmitted to the terminal through 'C' of FIG. 17. .

도 19는 도 16의 단말 제어 명령 생성 및 처리 과정을 상술한 처리 예시 도면이다. 제어명령이란 통상적으로 동영상 혹은 이미지에서 다양한 검색 옵션을 동적으로 제공하기 위한 목적이다.19 is a diagram illustrating the above-described process of generating and processing a terminal control command of FIG. 16. Control commands are typically for the purpose of dynamically providing various search options in a video or image.

상기 동적 검색 옵션의 제공을 위하여 장면, 프레임 혹은 객체에 대하여 제공할 검색 옵션 정보를 테이블에 저장하는 단계; 저장된 제어 명령 옵션정보를 검 색 및 확인하는 단계(S671); 해당 동영상에 필요한 제어 명령을 추출하여 전송하는 단계(S680, S681); 단말에 제어 명령을 표시하는 단계(S770); 제어 명령 정보를 프레임 혹은 객체 검색에서 선택하는 단계(S780); 선택된 제어 명령 셀 혹은 프레임 정보를 해석하여 질의 데이터 포맷을 생성하는 단계(S900);로 이루어 지는 것이 바람직하다.Storing search option information to be provided for a scene, a frame, or an object in a table to provide the dynamic search option; Searching and confirming the stored control command option information (S671); Extracting and transmitting control commands required for the corresponding video (S680 and S681); Displaying a control command on the terminal (S770); Selecting control command information in a frame or object search (S780); And generating a query data format by interpreting the selected control command cell or frame information (S900).

상기 검색 옵션정보를 테이블에 저장하는 단계는 도 2의 장면 분할 테이블(20), 프레임 테이블(30), 객체 및 서브객체 테이블(40, 50) 에 각각 정의되며 정의된 세부 제어 명령의 파라미터나 동작 조건등은 도 3의 제어명령(F20), 객체 색인DB(F40), 서비스 DB(F60)에 정의되어 있다. The storing of the search option information in the table may be defined in the scene partition table 20, the frame table 30, the object and the sub-object table 40 and 50 of FIG. Conditions and the like are defined in the control command F20, the object index DB F40, and the service DB F60 in FIG.

상기 저장된 제어 명령 옵션정보를 검색 및 확인하는 단계는 정의된 제어명령 정보의 제공 조건 및 옵션 설정정보를 확인(S671)하여 제공할 프레임에 따른 제어 명령 코드를 제공하기 위하여 환경 분석(S672)을 하게된다.The searching and confirming of the stored control command option information may include an environment analysis (S672) in order to check a provision condition of the defined control command information and option setting information (S671) and provide a control command code according to a frame to be provided. do.

이를 통하여 제어 명령 코드를 생성(S680)하게 되는데 이때, 생성된 제어 명령은 동영상의 경우 서버에서 단말로 영상정보가 제공될 때 특정한 주기로 혹은 일반 제어 명령 코드를 전송(S681)하게 된다.In this case, the control command code is generated (S680). In this case, the generated control command transmits the general control command code at a specific period or when the image information is provided from the server to the terminal (S681).

단말로 전송된 제어 명령 코드는 동영상이 플레이중에 포인팅 디바이스나 검색어 입력 혹은 바이너리 검색 방법을 이용한 검색 요청(S720)이 있으면 프레임과 셀 좌표를 식별(S682)하여 해당 프레임 혹은 셀 대응 제어 명령 데이터를 확인(S683)하여 제어 명령 옵션 정보를 표시할 영역을 설정하게 되는데 이는 사용자에게 단말에서 제공 정보의 영역 혹은 임의의 영역을 동적으로 할당하기 위함이다.The control command code transmitted to the terminal identifies the frame and cell coordinate control command data by identifying the frame and the cell coordinates (S682) when a search request using a pointing device or a search word input or a binary search method is performed while the video is being played (S720). In operation S683, an area for displaying control command option information is set. This is for dynamically allocating an area of the provision information or an arbitrary area to the user.

도 20는 서비스 편집기 예시도이다. 서비스 편집기는 영상 디스플레이 표시 영역(810); 프레임 및 객체 속성 및 자질 관리 영역(820); 장면 분할 표시 영역(830); 영상 서비스 미리보기 및 편집 관리 영역(840); 객체 및 내용 검색 영역(850); 속성, 자질 및 서비스 편집 및 관리 영역(860, 870); 제어 명령 코드 관리 영역(880)으로 나뉘어 진다.20 is an exemplary view of a service editor. The service editor includes an image display display area 810; Frame and object property and feature management area 820; A scene division display area 830; A video service preview and edit management area 840; Object and content search area 850; Attributes, qualities, and service editing and management areas 860 and 870; The control command code management area 880 is divided.

영상 디스플레이 표시영역(810)은 프레임 셀 분할 영역에서 객체 식별 영역이 표시되며 셀의 영역에 식별된 객체는 속성 및 자질 관리 영역(820)에서 자질의 입력 수정 삭제등이 가능하다.In the image display display area 810, an object identification area is displayed in the frame cell division area, and an object identified in the cell area may be modified, inputted, and deleted in the property and property management area 820.

상기 장면 분할 표시 영역(830)은 영상의 장면 분할된 분할 부분을 각각 장면 시작으로 나타내어준다. 장면을 선택하여 각각 장면에 대한 자질 이나 속정을 지정하고 전체적인 서비스 연결 편집에 사용될 수 있다.The scene division display area 830 indicates a scene divided division part of an image as a scene start. Each scene can be selected to specify its attributes or attributes and used to edit the overall service connection.

상기 서비스 미리보기 및 편집영역(840)은 편집된 영상의 서비스 혹은 자질 부여의 적합성을 확인하기 위한 인터페이스 화면이다.The service preview and editing area 840 is an interface screen for confirming the suitability of service or feature assignment of the edited video.

객체 및 프레임 검색(850)은 객체의 대표 객체 혹은 타이틀, 컨텍스트 및 자막 색인에 대한 프레임, 객체 매칭 정보 검색 영역이다. The object and frame search 850 is a frame, object matching information search area for a representative object or title, context, and subtitle index of the object.

상기 자질 및 서비스 편집 및 관리 영역(860, 870)은 상기 영상 디스플레이 표시 영역(810); 프레임 및 객체 속성 및 자질 관리 영역(820)에서 편집되고 수정된 프레임의 자질 속성 정보, 객체 자질에 대한 정보 및 서비스 연결 정보에 대한 내용을 새로 등록, 수정, 삭제 및 서비스 통계등을 확인하고 생성된 자질, 속성정보 및 서비스 맵핑정보에 대한 마크업 언어 예컨데 XML(xXtensible Markup Language)등으로 표현된 생성정보를 관리하는 것이 바람직하다.The feature and service editing and management areas 860 and 870 may include a video display display area 810; In the frame and object property and property management area 820, newly registered, modified, deleted, service statistics, etc. of the property property information, the object property information, and the service connection information of the edited and modified frame are checked. It is desirable to manage the markup language for the feature, the attribute information and the service mapping information, for example, the generated information expressed in XML (xXtensible Markup Language).

제어 명령 코드 관리 영역(880)은 서비스를 제공하는 데 필요한 각종 정보 혹은 인터페이스를 화면 혹은 이미지 상에 제공하기 위한 편집화면이다.The control command code management area 880 is an edit screen for providing a variety of information or an interface required to provide a service on a screen or an image.

도 21은 사용자 단말의 동영상 서비스 인터페이스의 일 실시예 이다.21 is a view illustrating a video service interface of a user terminal.

영상 표시 영역(910)과 제어 명령 표시 인터페이스(920), 객체 선택 인터페이스(930), 동영상 제어 기능 인터페이스(940), 검색 카테고리 선택부(950) 및 검색 창을 포함한다.The image display area 910, a control command display interface 920, an object selection interface 930, a video control function interface 940, a search category selection unit 950, and a search window are included.

상기 제어명령 표시 인터페이스(920)은 고정 영역에 표시되기보다는 다양한 영역에 즉 사용자 단말의 설정에 의해 혹은 객체 선택 영역 위치를 고려한 다양한 영역에 설정할 수 있는 것이 바람직하다.The control command display interface 920 may be set in various areas, i.e., by setting the user terminal or in various areas in consideration of the object selection area location, rather than being displayed in the fixed area.

도 22은 이동 휴대단말 검색 단말의 서비스 실시예이다. 이동 휴대 단말 전화기에서는 영상 표시부(970), 제어 명령 표시부(971), 포인팅 디바이스(972) 및 숫자 패드와 셀 영역 맵핑 표시부(973)이 있다. 휴대 단말에서는 영상이나 이미지 정보에서 영역을 선택하는데 필요한 포인팅 디바이스 예컨데 마우스등의 장치가 제한적이거나 어려움이 있을 수 있다. 이러한 이유로 표시 영상에 대한 가상의 셀 영역에 대하여 숫자 패드와의 영역 맵핑을 설정 할 수 있고 이를 통하여 다양한 기능 인터페이스를 통합 제공 할 수 있다.22 is a service embodiment of a mobile terminal search terminal. In the mobile portable telephone, there is an image display unit 970, a control command display unit 971, a pointing device 972, and a numeric pad and cell region mapping display unit 973. In a portable terminal, a device, such as a mouse, required for selecting an area in an image or image information may be limited or difficult. For this reason, region mapping with the numeric pad can be set for the virtual cell region of the display image, thereby providing various functional interfaces.

상기 영상 표시부(970)에 제공되는 영상 혹은 이미지에 대하여 키패드의 대응 숫자를 입력하면 가령 키패드 '3'을 입력하면 표시 영상부의 우상의 3번 영역을 선택한 것으로 식별하여 해당 영역에 있는 객체 혹은 서비스를 검색하여 제공하는 방법을 의미한다. 또한 터치스크린 기능을 제공하는 휴대 단말의 경우 해당 영역을 포인팅 할 경우 상기와 같은 검색 요청이 가능하다.When a corresponding number of a keypad is input to an image or an image provided to the image display unit 970, for example, when a keypad '3' is inputted, an object or service in the corresponding region is identified by selecting the area 3 of the upper right of the display image unit. Means search and provide. In addition, in the case of a mobile terminal providing a touch screen function, the above search request is possible when the corresponding area is pointed.

상기 제어명령 표시부의 경우는 다양한 제어 명령 인터페이스 기능을 제공하기 위하여 부가적으로 "*" "0" "#"키를 할애하여 제공하는 것이 가능할 것이다. In the case of the control command display unit, it is possible to additionally provide a "*" "0" "#" key to provide various control command interface functions.

상기와 같이 본 발명은 영상에 대한 객관적인 분석이 용이한 장점이 있다. 또한 본 발명은 영상에 포함된 객체의 상대적인 위치를 결정함으로써 해당 영상이 표시되는 장치의 해상도나, 화면 크기와 상관없이 표시 장치 상에서 시청자가 지정한 위치의 객체를 정확하게 판단할 수 있도록 하는 효과가 있다.As described above, the present invention has an advantage of easy objective analysis of an image. In addition, the present invention has an effect of accurately determining the object of the position specified by the viewer on the display device regardless of the resolution or the screen size of the device on which the image is displayed by determining the relative position of the object included in the image.

Claims (106)

동영상 기반의 브라우징과 서비스 검색기능을 제공하기 위하여To provide video based browsing and service search 객체 색인 단계;Object indexing step; 메타 데이터 생성 및 관리 단계;Generating and managing metadata; 서비스 프로파일 생성 단계;Creating a service profile; 검색 및 서비스 제공 단계;와Searching and providing service; and 이를 위한 영상 처리장치를 포함하는 컴퓨터 시스템 및 구현 방법.Computer system and implementation method comprising an image processing apparatus for this. 제 1항에 있어서,The method of claim 1, 객체 색인 단계는The object index step 영상으로 부터 추출된 프레임의 이미지를 분석하는 과정;Analyzing an image of a frame extracted from the image; 이미지 픽셀정보를 가상 셀의 영역에 맵핑하는 과정;Mapping image pixel information to an area of a virtual cell; 가상 셀에 할당된 영상 픽셀 이미지 정보를 분석하는 과정;Analyzing image pixel image information allocated to the virtual cell; 이미지 분석 정보가 동일한 셀 중 인접한 셀들의 집합을 하나의 객체로 식별하는 과정;Identifying a set of adjacent cells among cells having the same image analysis information as one object; 객체 식별정보를 분석하여 객체로 색인하는 과정;Analyzing the object identification information and indexing the object as an object; 영상 프레임의 이미지 식별 정보를 이용하여 식별된 객체와 배경등의 분석정보를 이용하여 장면을 구분하는 과정;Classifying a scene using analysis information such as an object and a background identified using image identification information of an image frame; 분석 결과를 저장 테이블에 저장하는 과정;을 포함하는 것을 특징으로 하는 객체 색인 방법.And storing the analysis result in a storage table. 제 1항에 있어서,The method of claim 1, 메타데이터를 생성 관리하는 방법은How to create and manage metadata 객체 식별정보 데이터 테이블에 메타 데이터를 부가하는 과정; Adding meta data to the object identification data table; 객체의 입력 메타데이터에서 부가된 자질, 속성정보를 검증하는 과정;Verifying an added feature and attribute information in the input metadata of the object; 부가된 메터데이터의 속성정보와 자질정보의 연산을 통한 검색 규칙 생성 단계;Creating a search rule by calculating attribute information and feature information of added metadata; 메타데이터의 자질정보를 이용하여 객체들 간 계층구조를 생성하는 과정; Creating a hierarchical structure between objects using feature information of metadata; 상기 계층 구조에 의해 생성된 논리 객체를 포함하는 계층 정보를 저장하는 과정; Storing hierarchical information including a logical object created by the hierarchical structure; 객체영역과 정보에 필요한 서비스의 연관관계를 생성하는 과정; Creating an association between an object area and a service required for information; 프레임내 복수의 객체 메타데이터를 분석하여 서비스 컨텍스트를 생성하는 과정;을 포함하며And generating a service context by analyzing a plurality of object metadata in a frame. 객체의 속성정보 및 메타데이터를 관리하는 객체의 속성 및 자질을 포함하는 메타 데이터베이스를 가지는 것을 특징으로 하는 메타데이터 생성 및 관리 방법.And a meta database including attributes and qualities of an object managing attribute information and metadata of the object. 제 1항에 있어서,The method of claim 1, 서비스를 위한 프로파일 생성은Creating a profile for the service 서비스 메타데이터 입력 과정;Service metadata input process; 객체들의 논리적 연관성 및 관계를 포함하여 객체간의 연결 정보를 생성하는 과정;Generating connection information between objects, including logical associations and relationships of the objects; 객체 및 서브 객체에 대한 각종 서비스정보를 생성하는 과정;Generating various service information about the object and the sub-object; 서비스 제공을 위한 제어 명령 생성 과정;과Generating a control command for providing a service; and 생성된 서비스 프로파일을 저장하는 과정;과 Storing the created service profile; and 원할한 메타데이터의 입력 및 관리를 위한 서비스 편집 기능을 수행하는 프로그램에 따라 동작하는 컴퓨터를 구비하는 것를 포함하는 것을 특징으로 하는 데이터 프로세싱 시스템.And a computer operating according to a program for performing a service editing function for inputting and managing desired metadata. 제 1항에 있어서,The method of claim 1, 검색 및 서비스를 제공하기위하여To provide search and service 영상 정보를 제공하는 단계;Providing image information; 검색 질의 정보를 입력하는 단계;Inputting search query information; 검색 질의 입력에 대한 판단의 단계;Determining a search query input; 입력된 질의 데이터 포맷을 생성하는 단계;Generating an input query data format; 질의 요청 데이터를 영상 서버로 전송하는 단계;Transmitting query request data to an image server; 질의 데이터를 해석하는 단계;Interpreting the query data; 질의 데이터의 서비스 정보를 검색하는 단계;Retrieving service information of the query data; 검색 결과를 단말에 제공하는 단계;를 포함하는 것을 특징으로 하는 검색 서비스 시스템 구현 방법.And providing a search result to the terminal. 제 1항에 있어서,The method of claim 1, 영상 처리 장치는Image processing unit 영상 정보를 제공하는 영상 서버;A video server providing video information; 서비스를 제공하기 위한 메타데이터를 관리하는 데이터베이스 관리 시스템;A database management system for managing metadata for providing a service; 영상 표기 단말;을 포함하되,Including a video display terminal; 상기 표시 단말은 그 객체 선택 정보에 대한 제어 명령 정보를 동적으로 생성하기 위한 제어 명령 코드 와 셀정보와 픽셀 맵핑정보를 관리하는 관리 저장 방법 및 장치;를 포함하며The display terminal includes a control command code for dynamically generating control command information on the object selection information, and a management storage method and apparatus for managing cell information and pixel mapping information. 상기 화면에 표시 중인 영상에 포함된 객체 선택 정보를 입력받아 상기 영상 서버로 전달하고,Receives object selection information included in the image displayed on the screen and transmits the object selection information to the image server; 상기 영상 서버는The video server 상기 객체 선택정보에 의거하여 대응된 객체에 대하여 미리 설정된 서비스 연결 정보를 제공하기 위한 데이터베이스 관리 시스템의 검색 결과에 의거하여 상기 객체 선택에 따른 부가서비스를 제공하는 것을 특징으로 하는 영상처리장치.And an additional service according to the object selection based on a search result of a database management system for providing preset service connection information for the corresponding object based on the object selection information. 제 2항에 있어서,The method of claim 2, 영상 프레임에서 추출된 이미지로 부터 영상 정보를 분석하는 방법은The method of analyzing the image information from the image extracted from the image frame 이미지 화면의 픽셀정보를 확인하여 화면의 크기를 검출하는 과정;Detecting a size of a screen by checking pixel information of an image screen; 미리 설정된 분할정보에 의거하여 화면의 너비와 높이로 이루어진 화면의 크기에서 분할 정보에 맞는 픽셀 단위를 추출하는 과정;Extracting a pixel unit suitable for the split information from the screen size having the width and the height of the screen based on the preset split information; 영상 분석 정보를 관리하기 위하여 가상 분석 테이블의 셀 영역을 할당하는 과정;Allocating a cell area of the virtual analysis table to manage image analysis information; 영상 이미지의 픽셀 분할 정보를 셀 정보에 맵핑하는 과정;Mapping pixel segmentation information of an image to cell information; 프레임에 대응하는 가상셀의 분할 갯수는 정수의 배수인 것을 특징으로 하는 영상 정보 분석 방법.And the number of divisions of the virtual cell corresponding to the frame is a multiple of an integer. 제 2항에 있어서,The method of claim 2, 셀에 맵핑된 영상 이미지 정보 픽셀을 분석하는 방법으로서A method of analyzing video image information pixels mapped to cells. 일정 규칙으로 영상 분석용 프레임을 추출하는 과정;Extracting a frame for image analysis with a predetermined rule; 추출된 프레임으로 부터 셀 맵핑 정보을 이용하여 분할된 픽셀 좌표 영역을 칼라, 텍스추어 및 경계선등의 분석 정보를 이용하여 분석하는 과정;Analyzing the pixel coordinate region divided from the extracted frame by using cell mapping information using analysis information such as color, texture, and boundary lines; 석택된 하나의 셀에 복수의 분석정보가 존재하면 셀을 서브셀로 2의 배수개 만큼 분할하는 과정;Dividing a cell by a multiple of two into subcells when a plurality of analysis information exists in one selected cell; 단일 이미지 분석 속성이 검출될 때까지 지정된 분할 깊이로 분할 하여 분석하는 과정;Dividing and analyzing at a predetermined depth of division until a single image analysis property is detected; 영상 이미지 분석의 결과는 칼라, 텍스추어 정보, 경계선 정보등의 이미지 분석 정보와 단일 분석 판단 정보를 저장하는 과정;The result of the video image analysis may include storing image analysis information such as color, texture information, and boundary information and single analysis determination information; 상기의 저장과정에서 최하위 서브셀의 분석정보중 단일 객체 판단 비율에 근접할 경우 복수의 분석정보가 존재해도 단일 분석 정보로 판단하는 것을 특징으로 하는 셀 분석 방법. And when the analysis information of the lowest subcell approaches a single object determination ratio in the storing process, a plurality of analysis information are determined as single analysis information. 제 2항에 있어서, The method of claim 2, 상기 객체 식별 과정은The object identification process 프레임 이미지 분석 정보에서 임의의 셀 정보를 분석하는 과정;Analyzing arbitrary cell information in the frame image analysis information; 연속 인접면을 가진 셀이면서 동일한 이미지 분석 속성정보를 가지는 지를 판단하는 과정;Determining whether the cells have consecutive adjacent surfaces and have the same image analysis attribute information; 셀 판단 정보로 부터 폴리곤을 추출하는 과정;Extracting polygons from cell determination information; 추출된 폴리곤으로 부터 객체 속성을 분석하여 단순 객체를 판단하는 과정; Determining a simple object by analyzing object properties from the extracted polygons; 프레임 단위의 객체 식별정보를 관리함에 있어 가상의 셀 영역에 객체 식별정보를 이진 요약정보로 저장하며In managing the object identification information in the frame unit, the object identification information is stored as binary summary information in the virtual cell area. 연속된 인접 셀간의 연결 각과 각의 변이가 발생하는 꼭지점 간의 상대적 거리를 계산하여 객체를 식별하기 위한 폴리곤 추출을 위한 폴리곤 데이터베이스를 구비하는 것을 특징으로 하는 객체 식별 및 관리 방법.And a polygon database for polygon extraction for identifying an object by calculating a relative distance between a connection angle between consecutive adjacent cells and a vertex at which an angle variation occurs. 제2항 및 9항에 있어서, 상기 단순 객체 색인 관리 방법은The method of claim 2 or 9, wherein the simple object index management method is 프레임에 대응하는 셀 생성 과정;A cell generation process corresponding to the frame; 이미지 정보 분석에 의한 셀 영역의 식별정보 할당;Identification information allocation in a cell region by analyzing image information; 셀의 좌표와 영역에서의 식별 정보로 표현되며Expressed as cell coordinates and identifying information in the area 이는
Figure 112007015773903-PAT00012
으로 나타내어지며
this is
Figure 112007015773903-PAT00012
Represented by
Figure 112007015773903-PAT00013
는 객체 최상위 셀에서의 객체 'O'의 색인 정보;
Figure 112007015773903-PAT00013
Is index information of the object 'O' in the object top cell;
Figure 112007015773903-PAT00014
는 객체 'O'의 분할 서브셀 영역의 기준 좌표;
Figure 112007015773903-PAT00014
Is the reference coordinate of the divided subcell area of the object 'O';
Figure 112007015773903-PAT00015
은 서브셀 분할수,
Figure 112007015773903-PAT00016
은 서브셀의 분할깊이;
Figure 112007015773903-PAT00015
Is the subcell division number,
Figure 112007015773903-PAT00016
Is the division depth of the subcell;
Figure 112007015773903-PAT00017
는 객체가 위치한 최상위 셀의 영역 좌표;
Figure 112007015773903-PAT00017
Is the area coordinate of the highest cell where the object is located;
Figure 112007015773903-PAT00018
는 객체 색인 요약 데이터;를 특징으로 하는 객체 색인 관리 방법.
Figure 112007015773903-PAT00018
The object index summary data; object index management method characterized in that.
제 1항 2항 10항에 있어서 객체 색인을 위한 구조는The structure of claim 1, wherein the structure for object indexing is 대상 프레임 영역에 대하여 할당된 가상셀에 대하여 For virtual cell assigned to target frame area 객체 식별 정보 설정하는 과정;Setting object identification information; 식별정보에 의거 객체를 포함하는 셀 영역 좌표 생성 과정; A cell area coordinate generation process including an object based on the identification information; 셀 영역 식별 객체에 대한 객체 식별자 부여 과정;과Assigning an object identifier to the cell region identification object; and 식별 객체에 대한 객체 색인 데이터 테이블 생성;을 포함하는 것을 특징으로하는 객체 색인 방법.Creating an object index data table for the identified object. 제 7항에 있어서 영상정보 분석에서의 셀 분할은The method of claim 7, wherein the cell segmentation in the image information analysis
Figure 112007015773903-PAT00019
의 수학식으로 나타내어지며 셀이 위치한 좌표
Figure 112007015773903-PAT00020
에서 대상 객체를 포함하는 셀의 면적(x,y)에서의 단위 셀당 분할의 수 n와 분할 깊이 m을 가지며 이때 X는 기준 셀을 포함한 x 좌표 셀의 수, Y는 기준 셀을 포함한 y 좌표 셀의 수, n은 상위 셀에서의 서브 셀 분할 갯수 및 m은 서브 셀의 분할 깊 이(Depth)나타내며 포함하는 것을 특징으로 하는 셀 분할 방법.
Figure 112007015773903-PAT00019
The coordinate at which the cell is represented by
Figure 112007015773903-PAT00020
Has a number n of divisions per unit cell and a partition depth m in the area (x, y) of the cell containing the target object, where X is the number of x coordinate cells including the reference cell, and Y is the y coordinate cell containing the reference cell Wherein n is the number of subcell divisions in the upper cell and m is the division depth of the subcells.
제 1항, 2항 7항에 있어서, 이미지 분석 정보의 셀 영역 맵핑은The method of claim 1, 2, 7, wherein the cell region mapping of the image analysis information is 동영상의 프레임 픽셀 좌표의 시작점 좌표에서 끝점 좌표 영역에 대한 분할 셀정보를 맵핑하여 셀당 맵핑 픽셀 좌표 영역을 관리하여,By mapping the segmentation cell information of the end point coordinate area from the start point coordinate of the frame pixel coordinate of the video, the mapping pixel coordinate area per cell is managed. 화면의 픽셀 좌표와 객체의 상대좌표를 맵핑하기 위한 기능 혹은 절차를 두는 것을 특징으로 하는 이미지 정보의 셀 영역 맵핑 방법.A cell area mapping method of image information, characterized by having a function or procedure for mapping a pixel coordinate of a screen and a relative coordinate of an object. 제 7항, 12항에 있어서, 셀의 분할 과정은13. The method of claim 7, wherein the dividing process of the cell 상기 셀의 이미지 정보 분석결과 하나 이상의 분석정보가 존재하는 경우 When one or more pieces of analysis information exist as a result of analyzing image information of the cell 그 서브 셀을 미리 설정된 개수의 하위레벨 서브 셀들로 분할하고 그 하위레벨 서브 셀 각각의 이미지 정보를 분석한 후, 단일분석정보를 갖는 하위레벨 서브 셀에 대하여 해당 서브 셀의 이미지 정보 분석 과정을 반복 수행하는 것을 특징으로 하는 서브셀 분할 방법.After dividing the subcell into a predetermined number of lower-level subcells, analyzing the image information of each of the lower-level subcells, and repeating the analysis of the image information of the subcell with respect to the lower-level subcell having the single analysis information. Sub-cell division method characterized in that performing. 제 12항에 있어서, 상위 셀 분할수는 The method of claim 12, wherein the upper cell division number is 프레임으로 부터 셀을 분할하는 분할 수를 의미하며 셀은 정수의 배수로 분 할하는 셀 분할 방법.Cell division method that divides a cell from a frame and divides the cell into multiples of integers. 제15항에 있어서, 상위 셀 분할수는 The method of claim 15, wherein the upper cell division number 셀은 분할 깊이에 따른 4 분할 하는 것을 특징으로 하는 셀 분할 방법.Cell division method characterized in that divided into four according to the depth of division. 제 8항에 있어서, The method of claim 8, 상기 셀 분석 방법은The cell analysis method is 상기 최대 레벨 서브 셀의 이미지 분석 결과 하나 이상의 분석정보가 존재하는 경우 그 중 임의의 하나를 해당 셀의 이미지 정보로 저장하는 것을 특징으로 하는 셀 분석 방법.And when at least one analysis information exists as a result of the image analysis of the maximum level sub-cell, storing any one of the image information of the corresponding cell as the image information of the corresponding cell. 제8항에 있어서, 상기 셀 분석 과정은The method of claim 8, wherein the cell analysis process 상기 선택된 셀의 색상, 텍스쳐 정보 및 경계선 정보 분석 결과 하나 이상의 분석정보가 존재하는 경우 그 분석정보들 중 미리 설정된 단일객체판단비율 이상인 하나의 분석정보를 해당 셀의 이미지 정보로 처리하는 것을 특징으로 하는 영상에 객체 색인을 위한 셀 분석 과정When one or more pieces of analysis information exist as a result of analyzing the color, texture information, and boundary information of the selected cell, one piece of analysis information that is greater than or equal to a predetermined single object determination ratio among the pieces of analysis information is processed as image information of the corresponding cell. Cell Analysis Process for Object Indexing on Images .. 제 8항, 17항 및 18항에 있어서,The method according to claim 8, 17 and 18, 이미지 분석 처리 절차는Image analysis processing procedure 프레임의 사이즈와 화질을 분석하여 셀의 분할과 분할 깊이(Depth)를 정하는 단계;Analyzing the size and image quality of the frame to determine cell division and division depth; 프레임 이미지로 부터 셀로 분할한 셀의 이미지 크기를 구하는 단계;Obtaining an image size of a cell divided into cells from the frame image; 분할 셀로부터 순서대로 이미지를 분석하여 셀의 이미지 분석정보가 단일한지 복수의 분석 속성을 가지는지 판단하는 단계;Analyzing images from the divided cells in order to determine whether the image analysis information of the cell is single or has a plurality of analysis attributes; 대상 이미지 분석정보가 객체 판단 비율 임계치 이하이면 정수의 배수로 셀을 분할설정하는 단계;Dividing the cell into multiples of an integer if the target image analysis information is less than or equal to an object determination ratio threshold; 셀 이미지 분석정보를 판단하여 셀에 대응하는 이미지 속성정보를 저장하는 단계;Determining cell image analysis information and storing image attribute information corresponding to the cell; 서브셀의 분석결과값을 결과 테이블에 저장하는 단계;Storing the analysis result of the subcell in a result table; 상기의 과정을 마지막 서브셀을 찾을 때까지 반복하는 것을 포함하는 것을 특징으로 하는 셀 분할 이미지 분석 방법.And repeating the above process until the last subcell is found. 제 9항에 있어서 단순 객체 판단 과정은The method of claim 9, wherein the simple object determination process 객체를 식별함에 있어서 상위셀은 하위의 셀의 2의 배수 개로 구성하는 과정;In identifying the object, the upper cell comprises a multiple of two of the lower cell; 선택된 셀의 이미지 분석 정보를 판단 하는 과정; Determining image analysis information of the selected cell; 이미지 분석 결과에 따른 셀을 미리 설정된 정수의 배수 개의 서브 셀들로 분할하는 과정;Dividing a cell according to an image analysis result into a plurality of sub-cells of a predetermined integer; 인접한 셀의 분석 정보의 근사치에 의하여 일련의 셀의 집합을 객체로 식별하는 단계;Identifying a set of cells as an object based on an approximation of analysis information of adjacent cells; 분할된 셀의 단일 이미지 분석 정보 이미지 정보로 저장하는 단계;Storing the single image analysis information image information of the divided cell; 영상에서 색인 프레임을 추출하는 단계;를 가지는 것을 특징으로 하는 단순 객체 판단 방법.And extracting an index frame from an image. 제 20항에 있어서,The method of claim 20, 이미지 분석정보는Image analysis information 색상, 텍스추어 또는 외곽 경계선 분석 결과 하나 이상의 분석 정보의 존재 여부를 확인하고,A color, texture, or border boundary analysis checks for the presence of one or more pieces of analysis information. 상위셀들이 최소한 한 면이상의 연속된 인접셀을 가지는 동일 칼라, 텍스추어 혹은 연속된 외곽 경계선을 가질 때,When upper cells have the same color, texture, or continuous outer border with at least one contiguous adjacent cell on one side, 해당 셀은 동일한 이미지 분석정보를 가지는 것으로 간주하여 프레임내 객체 영역으로 판단하는 것을 특징으로 하는 이미지 분석 정보 판단 방법. And determining that the corresponding cell has the same image analysis information as the object area within the frame. 제 20항에 있어서The method of claim 20 객체 식별은 상기 분석정보에서 인접한 최하위 셀 혹은 상위셀들이 최소한 한 면이상의 셀과 연속된 인접면을 가지는 셀이면서 동일한 칼라, 텍스추어 혹은 연속된 외곽 구분 경계를 가지는 일련의 셀의 집합을 객체로 식별하는 것을 특징으로 하는 객체 식별 방법.Object identification refers to an object identifying a set of cells in which the adjacent lowest or upper cells are adjacent cells having at least one surface and a contiguous surface, and having a same color, texture, or a series of cells having a continuous outer division boundary. Object identification method, characterized in that. 제 9항 20항에 있어서,The method of claim 9 wherein 객체 식별정보 저장과정은 상기 영상에 포함된 상대적인 위치에 대한 셀 정보로 관리하는 단계,The object identification information storing process may include managing cell information about relative positions included in the image; 객체 식별정보 저장 방법에 있어서 지정된 셀은 동일 프레임으로 구성하는 단계와In the method of storing the object identification information, the step of configuring the designated cell in the same frame 프레임에서 셀 위치에 객체의 포함 유무를 이진 요약정보로 저장하는 단계중 하나 이상을 구비하는 것을 특징으로 하는 객체 식별정보 저장 방법.And storing at least one object in a cell at a frame as binary summary information. 제 9항에 있어서, 폴리곤 추출은10. The method of claim 9, wherein the polygon extraction is 폴리곤 모형을 저장 관리하는 폴리곤 모형 데이터베이스;와A polygon model database for storing and managing polygon models; and 색인 셀의 좌표에 의한 셀에 의한 상기 저장 폴리곤 색인 정보 데이터베이스를 더 포함하며, 추출 단순 객체 폴리곤에 대하여 폴리곤 데이터베이스의 유사도를 비교하여 객체의 포리곤을 추출하는 것을 특징으로 하는 폴리곤 추출 방법.The method of claim 1, further comprising: storing the polygon index information of the object by comparing the similarity of the polygon database with respect to the extracted simple object polygon. 제 24항에 있어서, 폴리곤 좌표 관리는The method of claim 24, wherein the polygon coordinate management is 기준좌표에서 연속인접셀을 분석하는 단계;Analyzing a continuous adjacent cell at a reference coordinate; 분석 셀의 서브셀을 판단하여 인접한 동일 속성의 서브셀들의 구성 빗면각과 거리를 삼각함수를 이용하여 구하는 단계;Determining subcells of the analysis cell and obtaining the constructed oblique angles and distances of adjacent subcells having the same attribute by using a trigonometric function; 상기 단계에서 기준셀과 인접셀이 이루는 각(∠)의 변이를 판단하는 단계;와Determining a variation of an angle formed by the reference cell and an adjacent cell in the step; and 꼭지점의 셀 좌표와 폴리곤 면의 비율정보를 저장하는 단계를 포함하는 것을 특징으로 하는 폴리곤 좌표 관리 방법.And storing ratio information of the cell coordinates of the vertices and the polygon planes. 제 9항, 24항에 있어서, 객체 식별 및 폴리곤 인식은25. The method of claim 9, 24, wherein object identification and polygon recognition are 저장된 추출 객체 식별정보에서 배경과 객체의 식별정보 및 이미지 속성정보로부터 객체를 포함하는 객체 분할셀의 기준 좌표를 구하는 단계;와 Obtaining reference coordinates of the object division cell including the object from the background and the object identification information and the image attribute information from the stored object identification information; and 임계 변이각 이내의 각 셀의 인접면을 꼭지점으로 색인하는 단계를 포함하는 것을 특징으로 하는 폴리곤 판단 방법. And indexing an adjacent surface of each cell within a critical transition angle to a vertex. 제 26항에 있어서, 임계변이각은27. The method of claim 26, wherein the critical shift angle is 식별대상 복수개의 인접셀이 시작점을 기준으로 이루는 각의 변이에 대하여 직선인지 판단하는 기준 값을 두어 변이각에 대한 판단을 하는 것을 특징으로 하는 폴리곤에 있어서 각과 면을 식별하는 폴로곤 판단 방법.2. A method of determining a polygon according to a polygon, characterized in that a decision is made on a transition angle by a reference value for determining whether the plurality of adjacent cells to be identified is a straight line with respect to an angle transition formed from a starting point. 제 9항과 24항에 있어서, 폴리곤 추출결과 저장은25. The method of claim 9 and 24, wherein storing the polygon extraction results is 인접셀간 폴리곤 분석이 끝나면 객체 식별 폴리곤을 저장하고 객체의 중심좌표셀을 구하는 과정;과After the polygon analysis between adjacent cells is completed, storing the object identification polygon and obtaining the center coordinate cell of the object; and 검출된 폴리곤이 폴리곤 데이터베이스에서 유사 폴리곤에 대한 판단 과정;과Determination process for similar polygons in the polygon database detected; and 식별 폴리곤 객체에 대하여 대표객체 식별자를 부여하는 단계;와 Assigning a representative object identifier to the identification polygon object; and 객체 테이블에 식별 결과를 저장하는 단계를 포함하는 것을 특징으로 하는 폴리곤 추출결과 관리 방법.And storing the identification result in the object table. 제 8항에서의 객체 식별 및 추출을 위한 프레임을 추출하는 방법에 있어서In the method of extracting a frame for object identification and extraction in claim 8 프레임 샘플링을 위한 처리 옵션을 지정하는 단계와Specifying processing options for frame sampling, and 미리 지정된 프레임의 변이정보에 기반하여 일정한 프레임 선택주기를 가지고 미리 지정된 앞뒤의 프레임 분석정보의 변이를 이용하여 프레임의 샘플링 하는 방법.A method of sampling a frame by using a variation of predetermined frame analysis information before and after a predetermined frame selection period based on variation information of a predetermined frame. 제 2항 9항에 있어서 장면 분할은The scene division according to claim 2, 기준 프레임을 설정하여 상기 각 프레임의 전후 프레임의 변이 정보를 선별하는 단계;Selecting a reference frame to select transition information of the front and rear frames of each frame; 객체 식별정보의 기준 분석 정보를 설정하는 단계;Setting reference analysis information of the object identification information; 프레임의 변이정보가 허용 범위 이내인지를 판단하는 단계;와Determining whether the variation information of the frame is within an allowable range; and 분석 결과 정보를 이용하여 장면을 분할하는 단계를 가지는 것을 특징으로 하는 장면분할 방법.And dividing the scene by using the analysis result information. 제 30항에 있어서 프레임 변이정보 분석은The method of claim 30, wherein the frame variation information analysis 인접 프레임에서의 검출 색인 객체를 확인하는 과정;Identifying a detection index object in an adjacent frame; 프레임내 객체의 변이정보 분석 과정을 포함하는 것을 특징으로 하는 변이 정보 분석 방법.Disparity information analysis method comprising the process of analyzing the disparity information of the object in the frame. 제 31항에 있어서, 샘플링된 프레임에서 인접 프레임내에서의 객체 변이 정보를 판단하기 위하여32. The method of claim 31, further comprising: determining object variation information in an adjacent frame in a sampled frame. 프레임 객체 중심셀의 위상 변화, 프레임내 객체수의 가감, 이미지 속성정보의 변화, 배경 객체를 포함하는 것으로 This includes the phase change of the center cell of the frame object, the change of the number of objects in the frame, the change of image property information, and the background object. 상기 하나 이상의 분석정보를 이용하여 장면 분할을 위한 프레임 객체 변이정보 판단 방법.Frame object variation information determination method for scene segmentation using the at least one analysis information. 제 9항 30항에 있어서, 장면 분할은31. The method of claim 9 wherein the scene segmentation is 기준 프레임과 대상 프레임의 분석 정보간의 변이정보 유사성을 판단하여 프레임의 장면 분할 구간을 설정하는 것을 특징으로 하는 장면 분할 방법.And determining a scene segmentation period of the frame by determining similarity of disparity information between the analysis information of the reference frame and the target frame. 제 2항 10항에 있어서 셀의 생성 방법은The method of claim 2 wherein the cell generation method 프레임의 픽셀영역에 대응하는 2의 배수개의 최상위 셀로 할당하는 과정;Allocating to the most significant cell of multiple of two corresponding to the pixel area of the frame; 최상위 각 셀에 해당하는 프레임내 픽셀 영역에서의 이미지 분석 정보 판단에 의한 서브셀 분할과정;을 포함하는 것을 특징으로 하는 셀 생성 방법.And sub-cell dividing by determining image analysis information in a pixel area of a frame corresponding to each of the top-most cells. 제 34항에 있어서 서브셀 분할은35. The method of claim 34 wherein the subcell partitioning is 이미지 분석정보가 단순객체 판단 비율에 의한 셀 분할 과정;과Cell segmentation process based on the ratio of simple object determination to image analysis information; and 서브셀은 분석대상셀의 2의배수개로 분할하는 것을 특징으로 하는 서브셀 분할 방법.A subcell division method comprising dividing the subcell into two multiples of the cell to be analyzed. 제 35항에 있어서 셀 분할 과정에서36. The method of claim 35, wherein 서브셀로 분할에 있어서 지정된 분할 깊이(Depth)만큼 서브셀을 분할하는 분할 깊이를 가지는 것을 특징으로 하는 셀 분할 방법.And a dividing depth for dividing the subcell by a specified dividing depth in dividing into subcells. 제 10항에 있어서, 가상셀의 관리 방법은The method of claim 10, wherein the virtual cell management method 정수의 배수로 분할 된 셀 분할 영역에 객체의 식별 유무를 이진으로 표현하여 관리되며 이는 Managed by binary representation of object identification in cell partitions divided by multiples of integers.
Figure 112007015773903-PAT00021
와 같이 각각의 상위 셀좌표
Figure 112007015773903-PAT00022
에 대하여 객체식별 유무를 이진수인 '0', '1'로 표현 관리하는 것을 특징으로 하는 객체 식별 정보 관리 방법.
Figure 112007015773903-PAT00021
Each parent cell coordinate
Figure 112007015773903-PAT00022
The object identification information management method, characterized in that for managing the presence or absence of the object identification as a binary '0', '1'.
제 37항에 있어서 객체 분석 결과 처리는38. The method of claim 37 wherein object analysis result processing is 상위 셀과 서브셀의 (X, Y) 좌표 영역에 의한 객체 색인정보를 관리하는 것을 특징으로 하는 객체분석 결과 처리 방법.An object analysis result processing method characterized by managing the object index information by the (X, Y) coordinate region of the upper cell and the subcell. 제38항에 있어서, 상기 셀의 객체 분할 색인 정보는39. The method of claim 38, wherein the object partition index information of the cell is 상위셀과 대응되는 매트릭스 좌표 영역에 서브 셀의 분할 수 만큼의 이진 비트로 표현되는 객체 색인 정보를 관리하는 것으로By managing object index information represented by binary bits equal to the number of divisions of a subcell in a matrix coordinate region corresponding to an upper cell. 최상위셀의 색인 정보는 최상위 셀의 객체 검출 유무에 대하여 The index information of the top cell indicates whether or not the object of the top cell is detected.
Figure 112007015773903-PAT00023
와 같이 표현하는 객체 검출 상위셀 표현 방법;과
Figure 112007015773903-PAT00023
Object detection upper cell expression method expressed as
Figure 112007015773903-PAT00024
와 같이 표현되는 서브셀 표현 방법을 특징으로 하는 객체 분할 색인 정보 관리 방법.
Figure 112007015773903-PAT00024
Object sub-index information management method characterized in that the sub-cell representation method expressed as.
제23항에 있어서 객체의 식별 셀 정보는The method of claim 23, wherein the identification cell information of the object 바이너리 객체 패턴정보이며 이를 통하여 유사 프레임 객체 검색, 이미지 저작권정보 색인 대상 정보로 관리됨을 특징으로 하는 식별 객체 관리 방법.Identification object management method characterized in that it is binary object pattern information and managed through similar frame object search, image copyright information index target information through this. 제10항 또는 제35항에 있어서, 셀의 색인정보 처리는36. The index information processing of a cell according to claim 10 or 35, wherein 상위 셀의 객체 검출 색인정보는 하위 셀의 서브 셀 영역 중 어느 한 셀이라도 객체 색인 정보를 포함하면 상위셀은 이를 나타내는 것을 특징으로 하는 셀 정보 처리 방법.And if the object detection index information of the upper cell includes the object index information in any cell of the subcell area of the lower cell, the upper cell indicates this. 제 11항에 있어서, 객체 색인 데이터 구조는12. The object index data structure of claim 11, wherein the object index data structure is 프레임 객체 추출 데이터 테이블; 영상메인테이블; 장면분할테이블;프레임 테이블; 객체 테이블; 서브객체테이블; 역프레임 객체 집합 테이블;을 이용하여 영상 프레임 분석 정보를 저장 관리하기 위한 것으로,A frame object extraction data table; Image main table; Scene dividing table; frame table; Object table; Sub-object table; Inverse frame object set table; to store and manage the image frame analysis information, 이때 상기 영상 분석는 마크업 언어 가령 XML(eXtensible Markup Language)와 같은 형식을 포함하는 영상정보를 분석, 관리하기 위한 복수의 데이터를 생성 관리하는 데이터베이스 구성 및 구현방법.In this case, the image analysis is a database configuration and implementation method for generating and managing a plurality of data for analyzing and managing the image information including a markup language such as XML (eXtensible Markup Language) format. 제 42항에 있어서 프레임객체 추출 데이터 테이블은43. The method of claim 42 wherein the frame object extraction data table 영상 타이틀 제목, 프레임 색인 식별자, 객체 식별자, 객체 식별 셀 벡터, 문서 자막 정보와 언어분석 색인 정보를 포함하는 영상 분석용 데이터 관리 방법.And a video title title, frame index identifier, object identifier, object identification cell vector, document caption information, and language analysis index information. 제42항에 있어서, 상기 영상 메인 테이블은43. The method of claim 42 wherein the video main table is 영상 주정보 테이블로 Video_ID 영상서버에서 대상 동영상을 식별하기 위한 식별자, Disp_Size 해당 동영상의 화면 크기, Run_Time 영상의 상영 시간, Cell_No_Depth 동영상을 분할하는 서브셀의 반복 분할 깊이, Video_Title 동영상의 타이틀, Idx_Term 동영상에서 프레임을 추출하여 색인하는 간격, No_Scenes 동영상내 분할장면의 수, No_Frames 영상내 총프레임수와 Cate_Class_Id 해당 영상의 카테고리 분류체계를 포함하는 영상 메인 테이블 구성 및 처리 방법.Video main information table is used to identify the target video in the Video_ID video server, Disp_Size Screen size of the video, Run_Time video running time, Cell_No_Depth Repetition split depth of the subcell that divides the video, Video_Title video title, Idx_Term video A method of constructing and processing a video main table including an interval for extracting and indexing frames, a number of divided scenes in a No_Scenes video, a total number of frames in a No_Frames video, and a category classification system for the corresponding video. 제42항에 있어서, 장면 분할 테이블은43. The system of claim 42, wherein the scene partition table is 영상에서 장면 분할 영역 정보 관리 테이블로 Scene_Id 장면 구분 식별자, 장면 시작프레임 Start Frame, 장면 종료 프레임 End_Frame, 장면 분할된 시간 Scene Time, 장면에서의 핵심객체 Key Object, 객체 집합 Object Set, 제어명령 Control Command, 장면 상황 인식 식별자인 Scene Context Id로 이루어 지며 상기 정보 중 적어도 다수를 포함하는 것을 특징으로 하는 장면 분할 테이블 구성 방법.Scene_Id Scene Classification Identifier, Scene Start Frame Start Frame, Scene End Frame End_Frame, Scene Partitioned Time Scene Time, Key Objects in the Scene, Object Set Object Set, Control Command Control Command, And a scene context identification identifier, Scene Context Id, and including at least a plurality of the information. 제42항에 있어서, 프레임 테이블은43. The method of claim 42 wherein the frame table is 프레임 식별자 Frame ID, 프레임 인덱스 Frame Index, 프레임 시간 Frame Time, 프레임 객체 집합 Object Set, 제어 명령 Control Command , 프레임 상황 식별 코드Frame Context ID와 서비스를 처리하기 위하여 Service Anchor를 가지며Frame ID, Frame Index, Frame Index, Frame Time Frame Time, Frame Object Set Object Set, Control Command Control Command, Frame Context ID Code Frame Context ID and Service Anchor to handle the service. 상기 프레임 식별자는 영상에서 특정한 프레임 영역을 식별,The frame identifier identifies a specific frame area in the image, 상기 프레임 인덱스는 프레임에서 셀로 분할된 영역에서 객체의 상대좌표를 관리,The frame index manages the relative coordinates of the object in the region divided into cells in the frame. 상기 프레임 시간은 해당 색인 프레임이 위치한 시간 정보,The frame time is time information where the corresponding index frame is located, 상기 프레임 객체집합은 셀에서의 객체 검출 셀의 집합,The frame object set is a set of object detection cells in a cell, 상기 제어명령은 단말에서 다양한 검색 옵션 및 기능을 동적으로 관리,The control command dynamically manages various search options and functions in the terminal, 상기 프레임 컨텍스트 아이디는 해당 프레임의 컨텍스 식별정보 관리 키,The frame context ID is a context identification information management key of a corresponding frame; 상기 서비스 앵커는 해당 프레임의 객체와 프레임 영역에 제공하는 서비스 정보를 참조하여 처리하기 위한 서비스 참조 키(Service Reference Key)이며 The service anchor is a service reference key for processing by referring to object information of the frame and service information provided to the frame area. 상기 정보 중 적어도 다수를 포함하는 것을 특징으로 하는 프레임 테이블 구성 방법.And a frame table comprising at least a plurality of the information. 제42항에 있어서, 상기 객체 테이블은43. The method of claim 42 wherein the object table is 객체 식별자, 객체 기술명, 프레임 식별자, 객체 색인, 객체 패턴, 폴리곤 추출 타입, 제어 명령, 객체 컨텍스트, 자질 집합과 서비스 앵커를 포함하며 It includes object identifiers, object description names, frame identifiers, object indexes, object patterns, polygon extraction types, control commands, object contexts, feature sets and service anchors. 상기 객체 식별자는 프레임에서 추출 및 식별된 모든 객체에 대하여 부여,The object identifier is assigned to all objects extracted and identified in the frame. 상기 객체기술명은 객체 이름, 객체 색인 Object Index는 객체 서브셀의 좌표를 포함한 폴리곤과 이미지 색상 속성 등의 색인 정보, The object description name is an object name, the object index is an object index, index information such as polygon and image color attributes including coordinates of an object subcell, 상기 객체패턴 Object Pattern은 객체 검출 서브셀의 패턴을 이진 비트로 표현한 추출 정보, The object pattern Object Pattern is extraction information representing the pattern of the object detection subcell in binary bits, 상기 폴리곤 추출 타입 Polygon Ext. Type은 객체별 추출 셀 영역이 가지는 형태 요소를 분석하여 추출된 폴리곤의 꼭지점과 면 및 요소의 비율에 근거한 객체의 특징 추출 정보,The polygon extraction type Polygon Ext. Type is the object feature extraction information based on the ratio of vertices, faces, and elements of the extracted polygons by analyzing the shape elements of the extracted cell area for each object, 객체 컨텍스트 Object Context는 객체의 프레임내의 컨텍스에 대한 정보,Object Context Object Context is information about the context within an object's frame, 자질 셋 Feature Set은 객체가 가지고 있는 여러가지 속성 정보를 포함하는 집합 정보이며 이때 상기 자질셋은 하나의 객체에 포함된 서브 객체들에 대한 자질 집합까지 모두 표현하여 집합의 개념으로 처리하며Feature set Feature set is set information including various property information of object. At this time, feature set expresses all feature sets of sub-objects included in one object and processes them as concept of set. 상기 정보 중 적어도 다수를 포함하는 것을 특징으로 하는 객체 테이블 구성 방법.Object table configuration method comprising at least a plurality of the information. 제42항에 있어서, 서브객체 테이블은43. The method of claim 42, wherein the subobject table is 객체의 서브 구성 객체이며 객체식별자, 서브객체 색별자, 서브객체 셀 좌표영역, 제어 명령, 자질셋과 서비스 앵커을 포함하는A subconstructing object of an object, including object identifiers, subobject color identifiers, subobject cell coordinate areas, control commands, feature sets, and service anchors. 상기 정보 중 적어도 다수를 포함하는 것을 특징으로 하는 서브 객체 테이블 구성 방법.And configuring at least a plurality of the information. 제42항에 있어서, 상기 역프레임 객체 집합 테이블은43. The method of claim 42, wherein the inverse frame object set table 상기 프레임테이블에 대한 역(reversed) 매핑 테이블로 해당 좌표에 위치한 객체의 정보를 관리하고 검색하기 위하여In order to manage and retrieve the information of the object located at the corresponding coordinates with a reversed mapping table for the frame table. 프레임식별자, 제어 명령, 프레임 컨텍스트, 객체 요약 옵셋, 객체 검출 갯수, 객체식별자 및 객체 식별 좌표를 포함하며It includes frame identifier, control command, frame context, object summary offset, number of object detection, object identifier and object identification coordinate. 상기 객체 요약옵셋은 특정 프레임에서의 전체적인 객체 구성과 배경 및 이미지 분석정보를 요약하여 동일 및 유사한 정보를 검색과 해당 프레임등에 대한 저작권등에 대한 관리 목적으로 사용되는 것을 특징으로 하는The object summary offset is used for the purpose of searching for the same and similar information and managing the copyright of the corresponding frame by summarizing the overall object composition and background and image analysis information in a specific frame. 상기 정보 중 적어도 다수를 포함하는 것을 특징으로 하는 역프레임 객체 집합 테이블 구성 방법. And configuring at least a plurality of pieces of information. 제3항에 있어서, 상기 메타데이터에서 객체 자질 속성은The method of claim 3, wherein the object feature property in the metadata is 객체 고유의 대표적인 속성분류를 포함하는 대표객체자질;Representative object qualities including the object-specific representative attribute classification; 대표객체가 가지는 일반속성자질;General attribute of representative object; 객체와 객체 및 서브 객체간의 관계 속성 자질;Attribute properties of relationships between objects and objects and subobjects; 객체의 행위, 시간, 장소, 부속, 조건 성분등을 포함하는 성분속성자질;Component attributes including the object's behavior, time, place, parts, conditional components, etc .; 객체의 특수한 내지는 유일한 속성값을 정의하기위한 특수자질;을 포함하는 것을 특징으로 하는 데이터 자질 속성 분류 방법.And a special feature for defining a special or unique property value of the object. 제3항 또는 제50항에 있어서, 상기 분류 자질 속성 부여 방법은51. The method of claim 3 or 50, wherein the classification feature attribution method 프레임내 추출된 객체에 대하여 분석 객체정보에 먼저 대표 객체 자질값, 일반속성자질, 성분 및 관계자질을 부여하고 해당 객체에 특수자질이 필요하면 특수자질 순으로 자질을 부여하는 단계;Assigning representative object feature values, general attribute properties, components, and related qualities to the analysis object information on the extracted objects in the frame; 이미지 분석 정보와 폴리곤의 색인 유사도에 따른 자질 값을 부여하는 절차;Assigning a feature value according to the index similarity of the image analysis information and the polygon; 동일 프레임 내 모든 검출 객체에 대한 자질 값이 부여되었으면 백그라운드 객체에 대한 자질값을 부여하는 단계;Assigning a feature value to a background object if the feature values of all detection objects in the same frame are given; 부여된 자질 값이 적절한지 미등록 객체인지를 판단하는 절차;를 통하여Through the process of determining whether the given feature value is appropriate or unregistered object; 상기의 객체속성자질은 자질집합 패턴으로 관리하는 과정;과Managing the object attribute by the feature set pattern; and 자질 속성값은 해당 자질 분류항목에 대하여 세부 항목의 자질 속성 유무를 처리하는 방법; 및 상기 세부 항목 자질 속성 유무는 이진 값으로 자질 속성 관리하는 방법을 포함하는 것을 특징으로 하는 자질 속성 부여 방법.The feature attribute value is a method for processing the presence or absence of a feature attribute of a detailed item with respect to a corresponding feature category; And the feature detail attribute presence or absence includes a method of managing a feature attribute with a binary value. 제51항에 있어서, 상기 51항의 자질 기반의 연산방법은52. The method of claim 51, wherein the feature-based calculation method of claim 51 객체의 자질분류별 세부 자질 항목들의 유무를 판단하는 과정;Determining the presence or absence of detailed feature items for each feature classification of the object; 객체와 객체 혹은 객체의 부속 서브 객체와의 연관 처리 규칙을 적용하는 과정;Applying an association processing rule between the object and the object or the sub-objects of the object; 복수의 객체와 복수의 객체 자질의 연관 규칙 처리 과정;An association rule processing process of a plurality of objects and a plurality of object features; 복수의 객체간의 자질 패턴에 대한 패턴 매칭 연산 규칙에 의한 상황 및 이벤트 식별 과정;을 통하여 Through the process of identifying the situation and event by the pattern matching operation rule for the feature pattern between the plurality of objects; 자질들의 속성 값을 연산하고 결과를 도출하는 것을 특징으로 하는 방법.Computing a property value of the qualities and producing a result. 제 52항에 있어서 자질 기반의 연산을 위한 처리 규칙 데이터베이스는53. The processing rule database of claim 52, wherein the processing rule database for feature-based operations 복수의 객체들 간의 자질 패턴 추출 조건 설정 과정;Setting a feature pattern extraction condition between the plurality of objects; 자질간의 관계, 자질이 가지고 있는 속성자질의 연관을 분석하여 상황을 인식하고 다양한 부가서비스를 처리하기 위하여 추출 자질 패턴에 따른 처리 알고리즘 적용 과정;A process of applying a processing algorithm according to an extracted feature pattern to recognize a situation and process various additional services by analyzing a relationship between feature and an attribute feature of a feature; 자질 패턴 조건에 따른 알고리즘 처리 생성 규칙을 정의한 데이터베이스;A database defining an algorithm processing generation rule according to the feature pattern condition; 상기 객체 상황 및 이벤트 인식을 위한 규칙 데이터베이스는 복수의 객체들의 자질 유무에 따른 조건을 규칙으로 연산하여 결과를 도출하여 상황이나 이벤트 를 인식하게 되는 것을 특징으로 하는 연산 규칙 데이터베이스 생성 방법.The rule database for object situation and event recognition is a calculation rule database generation method, characterized in that to calculate a condition according to the presence or absence of a plurality of objects as a rule to derive a result to recognize the situation or event. 제3항에 있어서, 영상에 대한 부가적인 텍스트 문서 혹은 자막에 대한 처리 방법은The method of claim 3, wherein the additional text document or subtitle processing method for the image is performed. 자막이나 영상관련 부가 설명 텍스트 문서가 존재하는 지를 판단하는 과정;Determining whether a subtitle or video-related additional explanatory text document exists; 문서 혹은 자막으로 부터 텍스트를 추출하는 과정;Extracting text from documents or subtitles; 언어 분석 및 처리절차를 거쳐 자질 벡터를 생성하는 과정;Generating feature vectors through linguistic analysis and processing; 영상 프레임에서 추출된 의미자질(Semantic Feature)정보와 어휘자질(Lexical Feature)정보를 상호 연산하는 과정;Interoperating the semantic feature information and the lexical feature information extracted from the image frame; 분석된 자질벡터와 프레임 객체 자질 정보를 분석하여 이벤트 및 상황정보를 맵핑하는 과정;Mapping event and situation information by analyzing the analyzed feature vectors and the feature information of the frame object; 상기 객체 자질정보 분석과정은 복수의 색인어의 의미자질을 분석하는 과정;과The object feature information analyzing process includes: analyzing semantic features of a plurality of index words; and 프레임의 상황 즉 컨텍스트에 매치되는 객체에 해당 색인어를 객체와 연관 연결하는 과정;을 통하여 Associating the index word with the object to the object that matches the context of the frame, that is, the context; 객체간의 자질연산을 통하여 해당 프레임내 이벤트 및 상황정보를 생성하는 과정;과Generating an event and context information in a corresponding frame through feature computation between objects; and 분석된 결과를 저장하는 과정을 포함하는 것을 특징으로 하는 영상에 대한 텍스트 문서정보 처리 방법.A text document information processing method for an image comprising the step of storing the analyzed result. 제 4항에서의 서비스 편집기는 The service editor in claim 4 프레임 셀 분할 영역에서 객체 식별 영역이 표시되는 영상 디스플레이 표시부; An image display display unit displaying an object identification area in the frame cell division area; 셀의 영역에 식별된 프레임 및 객체 자질 속성 관리부; A frame and object feature attribute management unit identified in an area of the cell; 영상의 장면 분할 표시부;A scene division display unit of an image; 장면, 프레임 및 객체에 대한 컨텍스트 및 자질 속성을 지정, 영상 서비스 미리보기(Preview) 편집 관리부; Designating a context and feature property of a scene, a frame, and an object, and a video service preview editing management unit; 대표 객체, 타이틀, 컨텍스트 및 텍스트 색인에 대한 서비스 정보 검색부;A service information retrieval unit for a representative object, title, context, and text index; 등록 서비스 메타정보 편집 관리부; A registration service meta information editing management unit; 서비스를 제공하는 데 필요한 제어 명령 인터페이스를 설정을 위한 제어 명령 코드 관리부;를 포함하는 것을 특징으로 하는 서비스 편집 장치.And a control command code manager for setting a control command interface required to provide a service. 제 4항에 있어서 객체 연관정보는The object association information of claim 4, wherein 서비스 컨텍스트를 생성하는 과정;Creating a service context; 사용자에게 요구되는 서비스 프로파일을 생성하는 과정; Creating a service profile required by the user; 상기 객체들의 자질 정보에서 다양한 속성정보와 관계정보등의 정보를 이용하여 객체들 간 계층구조를 생성하는 과정; Generating a hierarchical structure between objects by using information such as attribute information and relationship information in the feature information of the objects; 상기 계층 구조에 의해 생성된 논리 객체를 포함하는 계층 정보를 저장하는 과정;과 Storing hierarchical information including a logical object generated by the hierarchical structure; and 객체영역셀 선택 정보에 의한 서비스 연관정보 관리 방법.Service association information management method using object area cell selection information. 제 4항에 있어서, 서비스 프로파일 생성 과정은 The method of claim 4, wherein the service profile generation process 상기 색인 과정에서 검출된 객체 연관있는 서비스 호출 결과 처리 정보,Object-related service call result processing information detected in the indexing process, 동작정보 내지는 특정 컨텍스트를 호출하기 위한 것으로 To call motion information or a specific context 서비스 프로파일은 각각의 조건에 대한 동작정보를 포함하는 것을 특징으로 한다.The service profile is characterized by including operation information for each condition. 제 2항 또는 제 5항에 있어서 검색 및 서비스를 위한 영상 검색 서비스 정보를 제공하기 위하여The method according to claim 2 or 5, to provide image retrieval service information for retrieval and service. 객체 색인 데이터 자료구조;와 Object index data structure; and 객체 자질 및 서비스 정보 관리 자료구조;Object qualities and service information management data structures; 서비스 속성 정보 관리 자료구조를 가지는 것을 특징으로 한다.It has a service attribute information management data structure. 제 5항 또는 58항에 있어서 서비스에 필요한 자질 및 속성정보는The quality and attribute information required for service according to claim 5 or 58 동영상 분류체계와 서비스 카테고리를 관리하는 카테고리 테이블,A category table that manages video taxonomy and service categories, 해당 객체 혹은 프레임에 제공하는 연결 서비스에 대한 동작 정보와 규칙들을 정의하여 관리하는 서비스 테이블, Service table that defines and manages motion information and rules for connection service provided in the object or frame, 상기 영상 프레임에서 객체 선택 혹은 장면에 따른 사용자 검색 옵션을 화면상에 동적으로 제공하기 위한 제어 명령, A control command for dynamically providing an object selection or a user search option according to a scene on the image frame; 상기 영상 프레임 혹은 객체의 식별을 통하여 장면 혹은 프레엠에서의 상황정보를 저장 관리하는 컨텍스트 테이블, A context table for storing and managing contextual information in a scene or frame through identification of the image frame or object; 상기 프레임에서 객체의 식별 색인정보와 해당 객체의 셀 좌표 정보 연결 동작 정보 객체 색인 테이블, Identification index information of the object in the frame and cell coordinate information linking operation information object index table of the object; 상기 장면 혹은 프레임에 연관 문서 자막정보에 대한 언어처리 색인어 DB, A language processing index DB for document subtitle information related to the scene or frame, 상기 객체 속성과 자질정보 관리를 위한 자질 테이블을 포함하는 서비스를 위하여 상기 정보 중 다수의 정보를 포함하는 것을 특징으로 하는 서비스 자질 및 속성정보 관리 자료구조.And a plurality of pieces of information of the information for the service including the object attribute and the feature table for managing the feature information. 제 59항에 있어서 제어명령 테이블은60. The control command table of claim 59 wherein 서비스 검색 혹은 영상 서버에 다양한 명령 입력 인터페이스를 제공하기 위한 해당 정보 관리 테이블로서,Applicable information management table to provide various command input interfaces to service search or video server. 프레임의 셀 선택에 따른 동작 설정정보, 프레임 영역내 제어명령 인터페이 스 셀 영역 설정 정보, 셀 선택 혹은 음성 입력등을 통한 제어명령 인터페이스 관리 규칙중 하나 이상을 포함하는 것을 특징으로 하는 데이터 구성 방법.And at least one of operation setting information according to cell selection of a frame, control command interface in a frame area, cell area setting information, control command interface management rules through cell selection, or voice input. 제 59항에 있어서 컨텍스트 테이블은60. The context table of claim 59 wherein 상기 장면, 프레임 및 객체의 상황정보를 관리하여 객체의 자질정보 연산을 통한 상황인식 서비스를 위한 것으로It is for the situation recognition service through the operation of the feature information of the object by managing the situation information of the scene, frame and object 컨텍스트 분류 식별자, 자질매칭규칙, 매칭 조건과 주컨텍스트 보조 컨텍스트중 다수의 정보를 포함하는 것을 특징으로 하는 컨텍스트 데이터 구성 방법. And a plurality of pieces of information of a context classification identifier, a feature matching rule, a matching condition, and a primary context assist context. 제 59항에 있어서 객체 색인 테이블은60. The method of claim 59 wherein the object index table 영상에서 특정 영역 셀 선택정보에 따른 객체 색인정보에 연결된 동작정보를 관리하는 데이터테이블로서,A data table for managing motion information linked to object index information according to specific region cell selection information in an image. 추출 객체에 대한 셀 좌표정보와 서비스정보 및 객체의 자질 셋정보의 식별정보를 관리하는데 이를 통하여 장면, 프레임에서 특정 포인팅 좌표에 해당하는 객체를 추출하여 관련 서비스를 검색하고 제공하며,It manages cell coordinate information and service information of extracted object and identification information of feature set information of object. Through this, object corresponding to specific pointing coordinate is extracted from scene and frame to search and provide related services. 프레임 식별 객체 정보, 해당 객체가 가지게 되는 조건 정보, 객체에 연결된 서비스 식별자, 및 영상의 자막 혹은 부가 문서정보에 대한 색인어, 및 객체 연결 정보를 포함하는 것을 특징으로 하는 객체 색인 테이블 구성 방법.A method of constructing an object index table comprising frame identification object information, condition information that the object has, a service identifier connected to the object, an index word for subtitles or additional document information of an image, and object connection information. 제 58항 혹은 59항에 있어서 객체 자질은60. The method of claim 58 or 59, wherein the object qualities 자질 분류체계에 따른 자질을 관리하는 자질사전으로As a dictionary to manage the qualities according to the classification system 대표 객체에 대한 자질 사전으로 객체 식별자와 일반자질, 관계자질, 속성자질, 특수자질을 가지는 것을 특징으로 하는 객체에 자질 관리 방법.A feature dictionary for a representative object, characterized by having an object identifier, a general feature, a related feature, an attribute feature, and a special feature. 제 58항 제 59항 혹은 63항에 있어서 객체 자질 테이블은 64. The object feature table of claim 58, wherein 상기 자질 분류별 세부 자질 값을 가지며 자질 값은 이진 값으로 구성되어 영상에서 복수 객체에 대한 부울연산과 검색을 이진연산을 통해 처리되는 것을 을 특징으로 하는 객체 자질 연산 관리방법. And a detailed feature value for each feature classification, wherein the feature value is configured as a binary value to process Boolean and search for a plurality of objects in the image through binary operation. 제 64항에 있어서 자질 테이블은 The feature table of claim 64, wherein 객체분석과 언어 분석에서 요구되는 속성 자질 정보를 객체 자질과 언어분석 자질 데이터 테이블 복수로 구성하여 처리하는 것을 특징으로 하는 영상 객체 자질 테이블 구성 방법.A method for constructing an image object feature table comprising: processing attribute property information required for object analysis and language analysis by configuring a plurality of object features and language analysis feature data tables. 제 1항 혹은 5항에 있어서 영상정보 기반의 서비스는The video information based service according to claim 1 or 5 영상에서 객체 혹은 관련 정보를 입력 수단을 통하여 전송된 정보를 제공하 는 것을 특징으로 하는 영상정보 검색 서비스 방법.An image information retrieval service method comprising providing information transmitted through an input means to an object or related information in an image. 제 5항 혹은 66항에서 객체 혹은 관련 정보의 입력 수단은The means for inputting the object or related information in claim 5 or 66 객체에 맵핑되는 셀 영역을 할당하고 할당된 셀에 대하여 포인팅을 입력 수단으로 하는 영상 객체 서비스 방법An image object service method comprising allocating a cell region mapped to an object and pointing to the allocated cell as an input means 제 66항 혹은 67항에 있어서, 서비스 데이터 테이블은68. The service data table of claim 66 or 67 wherein the service data table is 서비스 식별자, 서비스 조건정보와 조건에 따른 다양한 서비스제공을 위한 서비스 동작정보를 포함하는 것을 특징으로 하는 서비스 데이터 테이블 구성 방법. And a service identifier, service condition information and service operation information for providing various services according to the condition. 제 59항에 있어서 폴리곤 데이터 테이블은60. The polygon data table of claim 59, wherein 객체 식별을 위한 결과 샘플 데이터 테이블로서 꼭지점의 갯수, 인접각의 특징, 면의 비율등에 대한 특징을 포함하는 것을 특징으로 하는 참조 폴리곤 데이터 테이블 구성 방법.A resultant sample data table for object identification, comprising a number of vertices, features of adjacent angles, aspect ratios, and the like. 제 69항에 있어서 폴리곤 참조 테이블은70. The polygon reference table of claim 69 영상으로부터 추출된 객체 폴리곤 정보의 값의 근사치를 비교하여 객체의 속성 참조값을 추출하는 것을 특징으로 하는 폴리곤 검출 방법.And extracting an attribute reference value of an object by comparing an approximation of values of object polygon information extracted from an image. 제 59항에 있어서 영상관련 텍스트 정보 혹은 자막정보는60. The method of claim 59, wherein the image-related text information or subtitle information is 영상에서 추출 객체의 컨텍스트 정보, 객체 색인 정보와 맵핑하는 것을 특징으로 하는 영상 텍스트 정보 처리 방법.Image text information processing method characterized in that the mapping with the context information, object index information of the extracted object in the image. 제 71항에 있어서 텍스트를 처리하기 위하여72. The method of claim 71 for processing text. 언어분석 처리 절차를 통하여 생성된 키워드, 이벤트 및 컨텍스트 정보를 프레임, 객체, 장면등에 맵핑시키기 위하여 언어분석 참조 사전을 구비하는 것을 특징으로 하는 언어분석 및 색인어 사전 데이터 베이스 및 그 구성 방법.And a linguistic analysis reference dictionary for mapping keyword, event, and context information generated through linguistic analysis processing to a frame, an object, a scene, and the like. 제 59항에 있어서 제어명령 처리 단계는60. The method of claim 59 wherein the control command processing step is 영상 식별정보에 따른 제어 명령 생성 단계;와Generating a control command according to the image identification information; and 영상 스트리밍의 진행에 따른 제어 명령정보 전송 단계;Transmitting control command information according to video streaming; 영상 프레임에서의 제어명령정보 셀 맵핑 정보 생성 단계;Generating control command information cell mapping information in an image frame; 제어 명령정보 선택정보 생성 단계;Generating control command information selection information; 전송 제어명령정보 해석 단계를 가지는 것을 특징으로 하는 제어명령 처리 방법.A control command processing method comprising the step of interpreting transmission control command information. 제 73항에 있어서, 제어명령 정보 표시는74. The method of claim 73, wherein the control command information display is 단말로 전송된 제어 명령 코드를 표시할 영역을 설정하는데 있어서,In setting the area to display the control command code transmitted to the terminal, 단말에서 제공 정보의 영역 혹은 객체 표시 셀 영역에 대하여 동적으로 표시 표시영역을 할당하는 것을 특징으로 하는 제어 명령 표시방법.A control command display method, characterized in that the terminal dynamically allocates a display display area to an area of information provided or an object display cell area. 제 2항에 있어서 영상 이미지 픽셀정보를 셀 영역에 맵핑하는 방법은The method of claim 2, wherein the image image pixel information is mapped to a cell region. 영상 이미지의 픽셀정보를 추출하는 단계;Extracting pixel information of a video image; 영상 프레임에서 셀 분할 및 분할 깊이를 결정하는 단계;Determining cell division and division depth in an image frame; 영상 픽셀에 대응하는 셀의 상대적 위치를 분석하는 단계;Analyzing a relative position of a cell corresponding to the image pixel; 단말 화면의 영상 픽셀 좌표와 셀의 위치 맵핑 정보를 추출하는 단계;와Extracting image pixel coordinates of the terminal screen and position mapping information of the cells; and 사용자의 셀 선택 정보로 부터 객체좌표를 검출하는 셀 영역 맵핑 및 처리 방법.Cell region mapping and processing method for detecting object coordinates from user cell selection information. 제 1항 혹은 제 5항에 있어서, 영상정보 서비스 프로파일 생성은The method according to claim 1 or 5, wherein the video information service profile is generated. 객체간의 연관정보를 생성하는 단계;Generating association information between objects; 객체 및 서브 객체에 대한 각종 서비스정보를 생성하는 단계;Generating various service information about the object and the sub-object; 서비스 제공을 위한 제어 명령 생성 단계;와Generating a control command for providing a service; and 생성된 서비스 프로파일을 저장하는 단계를 포함하는 것을 특징으로 하는 서비스 프로파일 생성 방법.And storing the generated service profile. 제 1항 혹은 제 5항에 있어서 영상 검색 서비스는 The image retrieval service of claim 1 or 5, 단말 검색을 위하여 입력값에 대한 판단의 단계;Determining the input value for the terminal search; 입력된 질의 데이터 포맷을 생성하는 단계;Generating an input query data format; 질의 데이터 포맷을 해석하는 단계;Interpreting the query data format; 제어 명령 코드를 단말에 생성하는 단계;Generating a control command code to the terminal; 질의 검색을 수행 단계;Performing a query search; 결과 전송 및 디스플레이 단계 중 다수의 단계를 포함하여 처리하는 영상 서비스 검색 방법. A video service searching method comprising a plurality of steps of transmitting and displaying results. 제 1항 혹은 5항에서 영상 검색 서비스 입력은The image search service input of claim 1 or 5 is 영상 이미지에 포함된 객체 식별정보 검출에 의한 셀 분할 영역 선택에 따른 셀 ID와 텍스트, 음성정보, 이미지 영상 정보 입력을 포함하는 바이너리 입력 방식을 포함하는 것을 특징으로 하는 영상 질의 입력 방법.And a binary input method including inputting a cell ID, text, voice information, and image image information according to selection of a cell partition by detecting object identification information included in the image image. 제 1항 제 5항 혹은 제77항에 있어서 검색 질의를 위한 데이터 포맷은78. The method of claim 1 wherein the data format for a search query is 생성된 데이터 포맷은 통신 네트워크에서의 패킷 규칙을 따르며,The generated data format follows the packet rules in the communication network, 상기 패킷의 공통 헤더 부분인 프로토콜 식별자, 세션아이디, 메세지 타입, 리저브드 필드, 동영상 아이디, 프레임 아이디, 셀 아이디 및 Payload 길이 필드와 Payload에는 사용자 식별자(ID)와 자연어 질의 텍스트 혹은 음성 질의용 데이터 및 인증을 위한 코드 등의 복수의 데이터 포맷을 특징으로 하는 질의용 데이터 포맷 생성 방법.The protocol identifier, session ID, message type, reserved field, video ID, frame ID, cell ID, and payload length fields and payload, which are common header parts of the packet, include a user identifier (ID), natural language query text or voice query data, A method of generating a data format for a query, characterized by a plurality of data formats such as codes for authentication. 제 79항에 있어서 영상 프레임에서 검색 질의 데이터는80. The method of claim 79, wherein the search query data in the image frame is 영상의 픽셀에 대응하는 가상 셀 정보와 그 부속정보를 특징으로 하는 영상 질의 데이터 포맷 생성 방법.A method for generating an image query data format characterized by virtual cell information corresponding to pixels of an image and subsidiary information thereof. 제 79항에 있어서 메세지 타입은80. The method of claim 79 wherein the message type is 상기 영상에서의 셀 포인팅, 제어 명령 처리, 질의어 입력 혹은 음성 입력인지에 대한 다양한 입력 메세지에 대한 타입을 정의하는 것을 특징으로 하는 메세지 타입 설정 방법. And defining types of various input messages regarding cell pointing, control command processing, query input or voice input in the video. 제1항 혹은 5항에서 영상 서비스에서의 객체 질의 정보는The object query information in the video service according to claim 1 or 5 is 상기 프레임에서 객체선택정보는 프레임 식별자와 셀의 식별자를 포함하는 것을 특징으로 하는 질의 객체 선택 방법.The object selection information in the frame includes a frame identifier and a cell identifier. 제 82항에 있어서 83. The method of claim 82 영상 프레임의 픽셀 좌표와 객체의 상대 좌표를 맵핑하기 위한 기능 혹은 절차를 두며 특히 객체의 좌표정보를 셀로 관리하는 것을 특징으로 하는 객체 정보 관리 방법.An object information management method comprising a function or procedure for mapping pixel coordinates of an image frame and relative coordinates of an object, and in particular, managing coordinate information of an object as a cell. 제 5항에 있어서 서비스 검색은6. The service search of claim 5 wherein 검색 입력정보 즉 객체 선택 포인팅, 음성, 혹은 키워드를 입력이 일어난 시점 프레임 전후의 서비스를 검색하는 것을 우선으로 수행하는 것을 특징으로 하는 서비스 검색 방법.A service search method comprising searching for a service before and after a frame at which a search input information, that is, object selection pointing, voice, or a keyword occurs. 제 78항에 있어서 텍스트 입력 전처리를 위하여 79. The method of claim 78 for preprocessing of text input. 입력 질의문의 어절 구분, 어간-어미 구분 등을 포함하는 과정;과A process including word division, stem-mother division, etc. of the input query statement; and 어휘사전과 규칙사전을 참조하여 어휘 분석 및 핵심어 추출 과정;Lexical analysis and key word extraction process with reference to lexical dictionaries and rule dictionaries; 추출된 어휘 성분 및 속성자질 값과 단말에서 질의 생성시 근접 프레임의 컨텍스트와 프레임의 객체 속성에 대한 자질 값을 참조하여 유사성이 있는 어휘 성분에 대하여 가중치를 부여하는 단계를 포함하는 것을 특징으로 텍스트 검색에서의 가중치 부여의 과정은 단말에서 텍스트 기반의 질의어 생성시 최 근접 프레임의 객체 자질 정보를 검색하여 사용자가 질의한 텍스트 질의어 내에 존재하는 어휘성분의 자질을 핵심어로 추출하는 규칙을 가지는 검색 질의 텍스트 입력 전처리 방법.And weighting the lexical components having similarities by referring to the extracted lexical component and attribute feature values and the feature value of the object attribute of the frame and the context of the proximity frame when generating a query in the terminal. In the weighting process in, the search query text input has a rule for extracting the feature of the lexical component existing in the text query query by the user by searching the object feature information of the nearest frame when generating the text-based query in the terminal. Pretreatment method. 제 85항에 있어서 검색 질의문 생성을 위하여86. The method of claim 85, for generating a search query 장면 분할 테이블의 장면 컨텍스트와 프레임 테이블 프레임 컨텍스트를 참조하여 포함 객체의 자질을 비교하여 추출하는 것을 특징으로 하는 검색 질의문 생성 방법.A search query generation method, characterized in that the feature of the included object is compared and extracted by referring to the scene context of the scene partition table and the frame table frame context. 바이너리 질의 입력에 대하여About binary query input 질의 데이터를 분석 단계;Analyzing the query data; 검색 질의 생성 단계;를 포함하는 것을 특징으로 하는 바이너리 질의입력 및 처리 방법.Generating a search query; binary query input and processing method comprising a. 제 5항에 있어서 영상 서비스 검색은   The method of claim 5, wherein the video service search 메세지 데이터 포맷의 메세지 타입과 셀 아이디 및 패이로더등의 전달 값을 해석하여 입력값에 따른 처리 절차를 가지는 질의 데이터 포맷의 해석 단계;Parsing a query data format having a processing procedure according to an input value by analyzing a message type of a message data format and a transfer value such as a cell ID and a payloader; 질의 검색 데이터에서 프레임 테이블에서 색인값에서 특정 영역에 위치한 객체 정보를 검색하는 단계;Retrieving object information located in a specific area from an index value in a frame table in the query search data; 대응하는 객체테이블과 서브객체테이블에서 객체 색인 값에 대응하는 서비스 앵커(73)를 검색하여 서비스 코드를 생성 단계; Generating a service code by searching the service anchor 73 corresponding to the object index value in the corresponding object table and the sub object table; 검색 수행을 위한 입력정보 해석단계; Input information analysis step for performing a search; 검색 색인 DB에서 필요한 조건정보에 해당하는 서비스 코드를 검색하고 검색된 서비스 코드를 이용하는 단계;Searching for a service code corresponding to necessary condition information in a search index DB and using the searched service code; 서비스 DB의 해당 서비스를 제어명령정보 입력 조건에 따라 검색 절차(S790)를 수행하는 것을 특징으로 하는 서비스 검색 시스템.The service search system, characterized in that for performing the search procedure (S790) for the corresponding service of the service DB according to the control command information input conditions. 제 6항에 있어서 상기 영상서버는The method of claim 6, wherein the video server 영상정보를 입력받는 입력부; An input unit for receiving image information; 입력된 영상정보를 엔코딩 혹은 적절한 포맷으로 변환하여 상기 영상정보 저장부에 저장하는 동영상 변환부; A video converting unit for converting the input image information into an encoding or an appropriate format and storing the image information in the image information storage unit; 상기 저장된 영상정보로부터 객체정보를 검출하여 상기 영상정보 저장부의 영상정보의 프레임과 프레임내 객체 영역과 연결정보를 매칭시켜 저장하는 정보 색인부; An information indexing unit for detecting object information from the stored image information and matching and storing a frame of the image information of the image information storage unit and an object area and connection information in the frame; 상기 객체 정보를 포함하는 이미지 정보들 및 각 영상의 화면분할 정보인 셀 정보와 객체가 포함하는 자질 속성 및 서비스 링크 정보등을 저장하는 영상정보 저장부; An image information storage unit configured to store image information including the object information, cell information which is screen division information of each image, and quality property and service link information included in the object; 상기 객체정보들 각각의 메타 데이터 및 상기 객체정보들간의 계층관계를 관리하는 색인 정보 관리부; An index information manager configured to manage the meta data of each of the object information and the hierarchical relationship between the object information; 객체정보의 자질과 속성값을 관리하고 부여하며 처리를 위한 객체 자질 등록부; An object feature register for managing and assigning features and property values of object information; 객체 자질 정보관리 데이터베이스부; Object feature information management database unit; 색인 및 서비스 정보 데이터베이스 관리부; Index and service information database manager; 영상에 다양한 서비스를 연결하고 맵핑을 관리하는 서비스 등록부; A service register for connecting various services to an image and managing mapping; 다양한 요청 정보에 의거하여 상기 영상정보 저장부를 검색하는 검색 제공부; A search provider for searching the video information storage based on various request information; 서비스 요청을 해석하고 처리하기위한 서비스 요청 해석부; A service request interpreter for interpreting and processing a service request; 검색 결과를 단말에 전송하기 위하여 결과를 추출하여 처리하는 결과 출력부;및 A result output unit for extracting and processing the result to transmit the search result to the terminal; and 통신망과의 인터페이싱을 제공하는 네트워크연결부;를 포함하고 And a network connection unit for providing an interface with a communication network. 상기 각부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 영상서버 처리 장치.And a control unit for controlling the operation of each unit. 제 89항에 있어서 상기 영상정보 저장부는 90. The apparatus of claim 89, wherein the image information storage unit 객체식별정보, 해당 객체가 포함된 영상 식별정보, 해당 객체를 구성하는 분할 셀 각각의 식별정보를 포함하는 구성셀 정보, 그 객체의 면적, 그 객체의 중심점좌표, 그 객체의 위상전이 정보 및 이미지 속성을 포함하는 단순객체 정보를 저장하는 영상정보 저장 방법.Object identification information, image identification information containing the object, configuration cell information including identification information of each divided cell constituting the object, area of the object, coordinates of the center point of the object, phase transition information and image of the object Image information storage method for storing a simple object information including a property. 제 89항 혹은 제90항에 있어서 영상정보 메타데이터를 저장 관리하기 위하여91. A method according to claim 89 or 90 for storing and managing image information metadata. 객체자질 데이터베이스와 처리규칙 데이터베이스를 전자 사전으로 구축하여 Constructing object feature database and processing rule database as electronic dictionary 객체식별정보, 그 객체가 포함된 영상식별정보, 그 객체의 분류정보, 링크정보, 객체 상세정보 및 이벤트에 따른 동작정보를 포함하는 단순 객체별 메타데이터 정보를 저장하여 처리하는 것을 특징으로 하는 메타데이터 저장 및 관리 방법. Meta data characterized by storing and processing simple object-specific metadata including object identification information, image identification information including the object, classification information of the object, link information, object detail information and operation information according to the event. How data is stored and managed. 제 89항에 있어서 상기 영상정보 저장부는 90. The apparatus of claim 89, wherein the image information storage unit 영상식별정보, 그 영상에 대한 화면분할단위인 셀의 식별정보, 대응된 셀의 시작좌표 및 끝 좌표를 포함하는 셀 분할 정보를 대응된 영상정보와 함께 저장하는 것을 특징으로 하는 영상 색인 정보 저장 방법. And storing cell identification information including image identification information, identification information of a cell which is a screen division unit for the image, and start coordinates and end coordinates of the corresponding cell together with the corresponding image information. . 제 89항에 있어서 영상정보 저장부는 90. The apparatus of claim 89, wherein the image information storage unit 논리 객체 식별정보, 그 논리객체가 포함된 영상식별정보, 그 논리객체의 분류정보, 상기 논리객체에 포함된 단순객체들에 대한 식별정보 및 이벤트에 따른 동작정보를 포함하는 논리객체정보를 저장하는 영상 서비스 색인 정보 저장 관리 방법.Storing logical object information including logical object identification information, image identification information including the logical object, classification information of the logical object, identification information about simple objects included in the logical object, and motion information according to an event How to manage video service index information storage. 제 1항 제 6항 혹은 제 89항에 있어서 색인부는  90. The index unit according to claim 1, wherein the index unit 영상에 포함된 객체들의 상대적인 위치를 검출하는 단계, 셀 정보로 표현된 객체들 각각의 위치 및 이미지 정보를 포함하는 단순객체정보를 상기 영상정보 저장부에 저장하는 단계를 포함하는 것을 특징으로 하는 정보 색인부 시스템.Detecting a relative position of objects included in the image, and storing simple object information including the position and image information of each of the objects represented by cell information in the image information storage unit. Indexing system. 제 94항에 있어서 정보 색인부는 95. The apparatus of claim 94, wherein the information index unit 영상에 대한 기본 화면 크기를 검출하는 단계;Detecting a base screen size for an image; 미리 설정된 분할정보에 의거하여 상기 화면을 다수의 가상 셀로 분할하는 단계;Dividing the screen into a plurality of virtual cells based on preset split information; 분할한 셀들 각각의 이미지 정보를 분석하여 상기 분석 정보가 동일한 셀 중 인접한 셀들의 집합을 하나의 객체로 인식하는 단계;Analyzing image information of each of the divided cells and recognizing a set of adjacent cells among cells having the same analysis information as one object; 인식된 각각의 단순객체정보를 저장하는 단계를 포함하는 영상 정보 색인시스템.And storing each of the recognized simple object information. 제 1항 제 6항 혹은 제 89항에 있어서 영상 정보 색인에 있어서 자막 혹은 관련 문서정보는90. A subtitle or related document information in an image information index according to claim 1, 언어 처리 및 분석 절차를 통하여 추출된 색인 키워드를 동영상 프레임과 객체정보와 연결하고, 해당 셀을 포함한 객체 자질 정보와 의미정보를 같이 포함하는 것을 특징으로 하는 영상 정보에서의 텍스트정보 색인 방법.A method of indexing text information in video information comprising linking index keywords extracted through language processing and analysis with video frames and object information, and including object feature information and semantic information including corresponding cells. 제 89항에 있어서 색인 정보 관리부는90. The system of claim 89, wherein the index information management unit 단순객체 각각에 대한 메타데이터로 부터 단순객체 연관정보를 입력받는 수단;과 단순객체들 계층구조에 의해 생성된 가상의 논리 객체를 포함하는 계층 정보를 저장하는 것을 특징으로 하는 색인 정보 관리 시스템.Means for receiving simple object association information from metadata for each of the simple objects; and storing hierarchical information including virtual logical objects created by the simple objects hierarchy. 제 89항에 있어서 논리 객체 메타데이타는 90. The logical object metadata of claim 89, wherein 객체의 가상셀에 대한 화면의 픽셀 위치 맵핑정보와 객체의 속성 및 자질정보를 포함하는 과정과 객체와 객체간의 연관 관계 정보 추출에 필요한 자질 속성을 포함하는 것을 특징으로 하는 논리 객체 메타 데이터 관리 방법.And a process of including pixel position mapping information of the screen with respect to the virtual cell of the object, attributes and feature information of the object, and feature properties necessary for extracting association information between the object and the object. 제 89항에 있어서 서비스 등록부는90. The apparatus of claim 89 wherein the service register is 영상 프레임 분석 이미지 정보, 검출된 객체 셀정보, 폴리곤 정보, 객체 대응 자질정보를 이용하여 메타데이터를 생성하는 단계;와Generating metadata using image frame analysis image information, detected object cell information, polygon information, and object corresponding feature information; and 객체와 프레임 및 장면의 컨텍스트를 추출된 결과를 영상정보 저장부에 저장하는 서비스 등록 시스템. A service registration system for storing the extracted results of the object, frame and scene context in the image information storage unit. 제 89항 99항에 있어서 서비스 메타 데이터의 생성, 관리를 위하여99. The method of claim 99, for generating and managing service metadata. 연산 규칙 DB, 자질 분석 DB 및 언어 분석 DB 를 포함하여 자질정보 관리 DB 를 포함하는 것을 특징으로 하는 서비스 메타 데이터 관리 시스템. A service metadata management system comprising a feature information management DB including an operation rule DB, a feature analysis DB, and a language analysis DB. 제 89항에 있어서 서비스 요청 해석부는 90. The apparatus of claim 89, wherein the service request interpreter 객체 선택, 질의어 입력, 음성입력등의 수단을 가지는 입력 요청 정보 타입을 해석하고 해석 결과에 따른 포인팅, 질의어 및 음성인식의 절차를 수행하는 서비스 요청 해석 시스템.A service request parsing system for parsing an input request information type having means such as object selection, query input, and voice input, and performing procedures of pointing, query and speech recognition according to the analysis result. 제 89항에 있어서 검색 결과는90. The method of claim 89, wherein the search results are 색인 데이터 베이스와 서비스 정보 관리 데이터베이스에서 검색하는 과정;Searching in an index database and a service information management database; 결과 출력부를 통하여 단말 출력 포맷에 맞게 포맷팅되는 과정;Formatting the terminal output format through the result output unit; 네트워크 연결부와 연결된 이동통신 혹은 유 무선 네트워크중 하나 이상의 망을 통하여 사용자 단말에 서비스되는 결과 출력 방법 및 시스템.A method and system for outputting a result serviced to a user terminal through at least one of a mobile communication network and a wireless network connected to a network connection unit. 제 6항에 있어서 영상처리 장치의 단말은The method of claim 6, wherein the terminal of the image processing apparatus 셀 단위로 분할된 표시 화면을 포함하고 상기 표시 영상정보 출력 표시부; A display image information output display unit including a display screen divided in cell units; 복수의 입력 수단을 제공하는 검색정보 입력부; A search information input unit providing a plurality of input means; 입력된 정보에 대하여 메세지 데이터 포맷을 생성을 위한 입력정보 해석부; An input information analyzer for generating a message data format with respect to the input information; 입력된 질의 의도 입력에 대한 질의 데이터를 생성하는 입력정보 생성부; An input information generator for generating query data for the input query intent input; 통신망과의 인터페이싱을 제공하는 네트워크 연결부; 및 A network connection for providing interfacing with a communication network; And 영상서버로 부터 전송된 결과를 출력하는 결과출력부로 구성되는 단말 시스템 장치 및 그 구현 방법.Terminal system device and an implementation method comprising a result output unit for outputting a result transmitted from the video server. 제 103항에 있어서 입력정보 생성부는103. The apparatus of claim 103, wherein the input information generator 입력정보는 영상 식별자; 프레임 식별자 혹은 시간 정보; 객체 위치의 셀정보; 제어명령 선택정보, 키워드, 음성 및 이미지등을 포함하는 바이너리 질의 입력정보등을 포함하는 것을 특징으로 하는 입력정보 생성 시스템.The input information includes an image identifier; Frame identifier or time information; Cell information of the object location; An input information generation system comprising binary query input information including control command selection information, keywords, voice and images, and the like. 제 104항에 있어서 입력정보 생성은107. The method of claim 104, wherein the input information generation is 프레임 혹은 장면 식별자를 확인하는 단계;Identifying a frame or scene identifier; 공통으로 제공할 명령제어 정보와 특정 프레임에서 제공할 명령제어정보를 각각 구분하여 단말의 영상정보와 동기화하여 전송하는 것을 특징으로 하는 입력정보 생성 방법.A method for generating input information, characterized in that the command control information to be provided in common and the command control information to be provided in a specific frame are divided and transmitted in synchronization with the video information of the terminal. 제 104항에 있어서 입력정보 생성은107. The method of claim 104, wherein the input information generation is 선택 객체에 대한 정보를 검색, 관련 동영상을 검색, 링크정보를 연결등에 대한 검색 조건을 추가로 선택하는 수단을 제공하는 것을 특징으로 하는 입력정보 생성 방법.And a means for additionally selecting a search condition for searching for information on a selected object, searching for a related video, and linking link information.
KR1020070017999A 2007-02-22 2007-02-22 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video KR20080078217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070017999A KR20080078217A (en) 2007-02-22 2007-02-22 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070017999A KR20080078217A (en) 2007-02-22 2007-02-22 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video

Related Child Applications (3)

Application Number Title Priority Date Filing Date
KR1020090078861A Division KR20090096400A (en) 2009-08-25 2009-08-25 Method for indexing object in video
KR1020090078868A Division KR20090096401A (en) 2009-08-25 2009-08-25 Method for providing annexed service by indexing object in video
KR1020090078865A Division KR20090096679A (en) 2009-08-25 2009-08-25 Method for giving an attribute on object in video

Publications (1)

Publication Number Publication Date
KR20080078217A true KR20080078217A (en) 2008-08-27

Family

ID=39880440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070017999A KR20080078217A (en) 2007-02-22 2007-02-22 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video

Country Status (1)

Country Link
KR (1) KR20080078217A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010042703A2 (en) * 2008-10-09 2010-04-15 Hillcrest Laboratories, Inc. Methods and systems for analyzing parts of an electronic file
WO2011087249A2 (en) * 2010-01-12 2011-07-21 키위플 주식회사 Object recognition system and object recognition method using same
WO2011093669A2 (en) * 2010-01-29 2011-08-04 키위플 주식회사 Object recognition system and object recognition method using same
WO2011053076A3 (en) * 2009-11-02 2011-10-13 Samsung Electronics Co., Ltd. Display apparatus for supporting search service, user terminal for performing search of object, and methods thereof
WO2012099315A1 (en) * 2011-01-20 2012-07-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling device
WO2013074060A1 (en) * 2011-11-14 2013-05-23 Intel Corporation Video analytic encoding
KR101359286B1 (en) * 2012-05-31 2014-02-06 삼성에스디에스 주식회사 Method and Server for Providing Video-Related Information
KR101362851B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Apparatus for updating video database
KR101362847B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Method for updating video database
WO2016017961A1 (en) * 2014-07-29 2016-02-04 엘지전자 주식회사 Method and device for transmitting and receiving broadcast signal
KR20160064813A (en) * 2014-11-28 2016-06-08 삼성전자주식회사 Image display apparatus and information providing method thereof
KR20170029319A (en) * 2015-09-07 2017-03-15 엘지전자 주식회사 Display device and method for controlling the same
WO2018004734A1 (en) * 2016-06-29 2018-01-04 Google Llc Using an image matching system to improve the quality of service of a video matching system
KR20180019874A (en) * 2016-08-17 2018-02-27 한화테크윈 주식회사 The Apparatus And System For Searching
CN107977929A (en) * 2016-10-21 2018-05-01 中国电信股份有限公司 Image Super Resolution Processing method and apparatus
US9990762B2 (en) 2014-12-15 2018-06-05 Samsung Electronic Co., Ltd. Image processing apparatus and method
KR20180086023A (en) * 2017-01-20 2018-07-30 한국전자통신연구원 Apparatus for processing image and method for the same
KR20180112590A (en) * 2017-04-04 2018-10-12 한국전자통신연구원 System and method for generating multimedia knowledge base
KR20190038053A (en) * 2017-09-29 2019-04-08 삼성전자주식회사 Electronic device for providing image associated with input information and operating method thereof
KR20190060320A (en) * 2017-11-24 2019-06-03 정수경 Related information providing device
KR20190103533A (en) * 2018-02-14 2019-09-05 (주)디비스쿨 Learning content providing system and method using the internet moving picture
US10419718B2 (en) 2014-07-11 2019-09-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
WO2019208864A1 (en) * 2018-04-23 2019-10-31 Kim Bong Gyun Method for generating unique id of object
US10582269B2 (en) 2014-07-11 2020-03-03 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
CN110866133A (en) * 2018-08-27 2020-03-06 阿里巴巴集团控股有限公司 Information search method, page display method, system and equipment
WO2020091568A1 (en) * 2018-11-02 2020-05-07 서울대학교 산학협력단 Method for predicting intention of user and apparatus for performing same
KR20200087306A (en) * 2018-12-28 2020-07-21 비비트리 주식회사 Image crowd sourcing system and distribution method of creative commons
KR20210074755A (en) * 2019-12-12 2021-06-22 김도연 Monitoring system by generating context information of object in image data
KR102398668B1 (en) 2021-09-24 2022-05-16 주식회사 에프엠케이 Apparatus for providing object information based on video object recognition
KR102484939B1 (en) * 2021-12-13 2023-01-04 세종대학교산학협력단 Identification information allocation method for virtual space and virtual space search method
CN117201873A (en) * 2023-11-07 2023-12-08 湖南博远翔电子科技有限公司 Intelligent analysis method and device for video image
KR102659218B1 (en) * 2023-12-22 2024-04-19 주식회사 인시퀀스 System for converting images to HTML based on artificial intelligence

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010042703A3 (en) * 2008-10-09 2010-07-08 Hillcrest Laboratories, Inc. Methods and systems for analyzing parts of an electronic file
WO2010042703A2 (en) * 2008-10-09 2010-04-15 Hillcrest Laboratories, Inc. Methods and systems for analyzing parts of an electronic file
US9946731B2 (en) 2008-10-09 2018-04-17 Idhl Holdings, Inc. Methods and systems for analyzing parts of an electronic file
US9007396B2 (en) 2008-10-09 2015-04-14 Hillcrest Laboratories, Inc. Methods and systems for analyzing parts of an electronic file
WO2011053076A3 (en) * 2009-11-02 2011-10-13 Samsung Electronics Co., Ltd. Display apparatus for supporting search service, user terminal for performing search of object, and methods thereof
US9760942B2 (en) 2009-11-02 2017-09-12 Samsung Electronics Co., Ltd Display apparatus for supporting search service, user terminal for performing search of object, and methods thereof
US8917912B2 (en) 2010-01-12 2014-12-23 Kiwiple Co., Ltd. Object identification system and method of identifying an object using the same
WO2011087249A2 (en) * 2010-01-12 2011-07-21 키위플 주식회사 Object recognition system and object recognition method using same
WO2011087249A3 (en) * 2010-01-12 2011-11-10 키위플 주식회사 Object recognition system and object recognition method using same
KR101117239B1 (en) * 2010-01-12 2012-03-20 키위플 주식회사 Object identification system and method of identifying an object using the same
WO2011093669A2 (en) * 2010-01-29 2011-08-04 키위플 주식회사 Object recognition system and object recognition method using same
WO2011093669A3 (en) * 2010-01-29 2011-11-17 키위플 주식회사 Object recognition system and object recognition method using same
US10855899B2 (en) 2011-01-20 2020-12-01 Samsung Electronics Co., Ltd. Method and apparatus for identifying a device from a camera input
US9871958B2 (en) 2011-01-20 2018-01-16 Samsung Electronics Co., Ltd Method and apparatus for controlling a device identified from a screen input by a camera
WO2012099315A1 (en) * 2011-01-20 2012-07-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling device
US10362208B2 (en) 2011-01-20 2019-07-23 Samsung Electronics Co., Ltd Method and apparatus for controlling a device identified from a screen input by a camera
WO2013074060A1 (en) * 2011-11-14 2013-05-23 Intel Corporation Video analytic encoding
KR20140075791A (en) * 2011-11-14 2014-06-19 인텔 코오퍼레이션 Video analytic encoding
KR101359286B1 (en) * 2012-05-31 2014-02-06 삼성에스디에스 주식회사 Method and Server for Providing Video-Related Information
KR101362847B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Method for updating video database
KR101362851B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Apparatus for updating video database
US10419718B2 (en) 2014-07-11 2019-09-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
US10582269B2 (en) 2014-07-11 2020-03-03 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
US10368144B2 (en) 2014-07-29 2019-07-30 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
WO2016017961A1 (en) * 2014-07-29 2016-02-04 엘지전자 주식회사 Method and device for transmitting and receiving broadcast signal
KR20160064813A (en) * 2014-11-28 2016-06-08 삼성전자주식회사 Image display apparatus and information providing method thereof
US9990762B2 (en) 2014-12-15 2018-06-05 Samsung Electronic Co., Ltd. Image processing apparatus and method
KR20170029319A (en) * 2015-09-07 2017-03-15 엘지전자 주식회사 Display device and method for controlling the same
US10013614B2 (en) 2016-06-29 2018-07-03 Google Llc Using an image matching system to improve the quality of service of a video matching system
WO2018004734A1 (en) * 2016-06-29 2018-01-04 Google Llc Using an image matching system to improve the quality of service of a video matching system
KR20180019874A (en) * 2016-08-17 2018-02-27 한화테크윈 주식회사 The Apparatus And System For Searching
CN107977929A (en) * 2016-10-21 2018-05-01 中国电信股份有限公司 Image Super Resolution Processing method and apparatus
CN107977929B (en) * 2016-10-21 2021-02-23 中国电信股份有限公司 Image super-resolution processing method and device
KR20180086023A (en) * 2017-01-20 2018-07-30 한국전자통신연구원 Apparatus for processing image and method for the same
KR20180112590A (en) * 2017-04-04 2018-10-12 한국전자통신연구원 System and method for generating multimedia knowledge base
KR20190038053A (en) * 2017-09-29 2019-04-08 삼성전자주식회사 Electronic device for providing image associated with input information and operating method thereof
KR20190060320A (en) * 2017-11-24 2019-06-03 정수경 Related information providing device
KR20190103533A (en) * 2018-02-14 2019-09-05 (주)디비스쿨 Learning content providing system and method using the internet moving picture
WO2019208864A1 (en) * 2018-04-23 2019-10-31 Kim Bong Gyun Method for generating unique id of object
KR20190122966A (en) * 2018-04-23 2019-10-31 김봉균 Method for producing unique ID of object
CN110866133B (en) * 2018-08-27 2024-04-02 阿里巴巴集团控股有限公司 Information searching method, page display method, system and equipment
CN110866133A (en) * 2018-08-27 2020-03-06 阿里巴巴集团控股有限公司 Information search method, page display method, system and equipment
WO2020091568A1 (en) * 2018-11-02 2020-05-07 서울대학교 산학협력단 Method for predicting intention of user and apparatus for performing same
KR20200087306A (en) * 2018-12-28 2020-07-21 비비트리 주식회사 Image crowd sourcing system and distribution method of creative commons
KR20210074755A (en) * 2019-12-12 2021-06-22 김도연 Monitoring system by generating context information of object in image data
KR102398668B1 (en) 2021-09-24 2022-05-16 주식회사 에프엠케이 Apparatus for providing object information based on video object recognition
KR102484939B1 (en) * 2021-12-13 2023-01-04 세종대학교산학협력단 Identification information allocation method for virtual space and virtual space search method
CN117201873A (en) * 2023-11-07 2023-12-08 湖南博远翔电子科技有限公司 Intelligent analysis method and device for video image
CN117201873B (en) * 2023-11-07 2024-01-02 湖南博远翔电子科技有限公司 Intelligent analysis method and device for video image
KR102659218B1 (en) * 2023-12-22 2024-04-19 주식회사 인시퀀스 System for converting images to HTML based on artificial intelligence

Similar Documents

Publication Publication Date Title
KR101380783B1 (en) Method for providing annexed service by indexing object in video
KR20080078217A (en) Method for indexing object in video, method for annexed service using index of object and apparatus for processing video
WO2022116888A1 (en) Method and device for video data processing, equipment, and medium
WO2014092446A1 (en) Searching system and searching method for object-based images
US7853582B2 (en) Method and system for providing information services related to multimodal inputs
US8232996B2 (en) Image learning, automatic annotation, retrieval method, and device
US20090263014A1 (en) Content fingerprinting for video and/or image
JP2001155169A (en) Method and system for dividing, classifying and summarizing video image
CN111400607A (en) Search content output method and device, computer equipment and readable storage medium
Zhuang et al. Multichannel attention refinement for video question answering
US8370323B2 (en) Providing information services related to multimodal inputs
CN110058838A (en) Sound control method, device, computer readable storage medium and computer equipment
KR20090096401A (en) Method for providing annexed service by indexing object in video
CN113449066B (en) Method, processor and storage medium for storing cultural relic data by using knowledge graph
JP2008217701A (en) Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program
KR20090096400A (en) Method for indexing object in video
KR102122918B1 (en) Interactive question-anwering apparatus and method thereof
KR100761417B1 (en) Indexing and searching method for multimedia database using dominant color descriptor modified to vector expression
CN116955707A (en) Content tag determination method, device, equipment, medium and program product
CN107491814B (en) Construction method of process case layered knowledge model for knowledge push
KR20090096679A (en) Method for giving an attribute on object in video
CN107544978A (en) A kind of content based video retrieval system method
JP2008181515A (en) Method of describing object area information, method of processing video information, and information processor
Srividhya et al. Deep Learning based Telugu Video Text Detection using Video Coding Over Digital Transmission
CN117808923B (en) Image generation method, system, electronic device and readable storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
WITN Withdrawal due to no request for examination