KR101025651B1 - Apparatus and method for identifying video object - Google Patents

Apparatus and method for identifying video object Download PDF

Info

Publication number
KR101025651B1
KR101025651B1 KR1020080112961A KR20080112961A KR101025651B1 KR 101025651 B1 KR101025651 B1 KR 101025651B1 KR 1020080112961 A KR1020080112961 A KR 1020080112961A KR 20080112961 A KR20080112961 A KR 20080112961A KR 101025651 B1 KR101025651 B1 KR 101025651B1
Authority
KR
South Korea
Prior art keywords
weight
image
area
recognition method
pixels
Prior art date
Application number
KR1020080112961A
Other languages
Korean (ko)
Other versions
KR20100054034A (en
Inventor
김윤현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080112961A priority Critical patent/KR101025651B1/en
Publication of KR20100054034A publication Critical patent/KR20100054034A/en
Application granted granted Critical
Publication of KR101025651B1 publication Critical patent/KR101025651B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 중에서 특정 대상을 나타내는 정보를 저장하여, 다른 영상의 대상을 식별하기 위한 영상 객체 인식 장치 및 방법에 관한 것이다.The present invention relates to an image object recognition apparatus and method for identifying information of another image by storing information representing a specific object in an image.

본 발명은 상기 대상의 특정 영역의 픽셀에 대한 Y-weight을 저장해 놓고, 현재 비교하고자 하는 대상의 특정영역의 픽셀의 Y-weight를 구하여, 서로 비교를 통해, 대상을 확인하는 것이다..The present invention stores the Y-weights of the pixels of the specific area of the object, obtains the Y-weights of the pixels of the specific area of the object to be compared, and compares them with each other to identify the object.

따라서 본 발명에 의하면, 영화를 감상하는 경우등에 있어서, “저 주인공 어디서 나왔더라” 또는 전에 보았던 장면들이 궁금할 때, 바로 확인이 가능하다. Therefore, according to the present invention, when watching a movie, such as "where the main character came from" or when you are curious about the scenes you have seen before, you can check immediately.

영상, 픽셀, Weight, 비교        Image, Pixel, Weight, Comparison

Description

영상 객체 인식 장치 및 방법 {Apparatus and method for identifying video object}Apparatus and method for identifying video object}

도 1은 본 발명이 구현되는 디스플레이 수단의 구성의 하나의 실시예 블럭도1 is a block diagram of one embodiment of the configuration of a display means in which the present invention is implemented;

도 2는 본 발명에 따른 하나의 동작 실시예 흐름도2 is a flow diagram of one operational embodiment according to the present invention.

도 3은 본 발명의 다른 실시예 흐름도3 is a flowchart of another embodiment of the present invention.

도 4는 본 발명의 영상 객체 인식을 수행하는 것을 나타낸 다른 흐름도4 is another flowchart illustrating performing image object recognition according to the present invention.

도 5는 상기 도 4의 S 405단계에서의 영역의 픽셀 Y-weight를 구하여 저장하는 것을 나타내는 흐름도FIG. 5 is a flowchart illustrating obtaining and storing the pixel Y-weight of a region in step S405 of FIG. 4.

도 6은 사용자가 선정한 특정객체/영역의 각 픽셀의 Y-weight와, 그에 관련된 프로그램 정보가 메모리에 저장된 상태를 나타낸 도면FIG. 6 is a diagram illustrating a state in which a Y-weight of each pixel of a specific object / area selected by a user and program information related thereto are stored in a memory; FIG.

도 7은 새로운 영상을 보다가 사용자의 선택에 의거 해당 객체/영역의 Y-weight가 계산되고, 상기 도 6과 같이 저장된 데이터와의 비교를 통해 출력되는 형태의 하나의 실시예 도면.FIG. 7 is a diagram illustrating an example in which a Y-weight of a corresponding object / area is calculated based on a user's selection while viewing a new image, and is output through comparison with data stored as shown in FIG. 6.

본 발명은 영상 중에서 특정 대상을 나타내는 정보를 저장하여, 다른 영상의 대상을 식별하기 위한 영상 객체 인식 장치 및 방법에 관한 것이다.The present invention relates to an image object recognition apparatus and method for identifying information of another image by storing information representing a specific object in an image.

더욱 구체적으로는, 상기 대상의 특정 영역의 픽셀에 대한 Y-weight을 저장해 놓고, 현재 비교하고자 하는 대상의 특정영역의 픽셀의 Y-weight를 구하여, 서로 비교를 통해, 대상을 확인하는 것이다..More specifically, the Y-weight of the pixel of the specific area of the object is stored, the Y-weight of the pixel of the specific area of the object to be compared is obtained, and the object is identified by comparison with each other.

이하 본 발명과 관련된 기술(related art)을 설명한다.Hereinafter, related art will be described.

일반적으로 티비등에서 영화 또는 프로그램을 보는 중에, 어떤 대상(사람, 사물등)에 대한 기억이 명확하지 않을 때가 자주 발생하는데, 이 경우에 생각을 하다가 생각이 나지 않는 경우 이를 해소하기 위한 별다른 수단이 없었다.In general, while watching a movie or a program on TV, the memory of a certain object (person, object, etc.) is often not clear, in which case there was no means to solve the problem when thinking about it. .

또한 방송 또는 DVD, Blue-Ray, Divx등의 영화에 출연한 인물들이 어떤 영화에 출연했었는지 기억이 나질 않을 때, 바로 알아낼 방법이 없는 상태이다.There is no way to find out immediately if you can't remember which movie appeared on the air or on a DVD, Blue-Ray or Divx movie.

본 발명은 출력수단인 티비등에서 영화 또는 프로그램을 보는 중에, 어떤 대상(사람, 사물등)에 대한 기억이 명확하지 않을 경우, 이를 해소하는 것을 목적으로 한다.An object of the present invention is to solve a problem when a movie or a program is watched on an output means such as TV, when the memory of a certain object (person, object, etc.) is not clear.

예를 들어, 영화등을 감상하다 보면, “저 주인공이 어디서 나왔더라?” 하고 궁금한 경우등을 대비하여 영화 또는 방송에 출연한 인물들을 Data format으로 memory해 두었다가, 궁금할 때 비교하고 찾아내서 사용자에게 편의를 제공하기 위 한 것이다. 즉 그 인물이 누구인지, 또는 다른 어떤 영화나 드라마에 출연하였는지 등을 궁금할 때 바로 찾아 볼 수 있도록 한다.For example, if you are watching a movie, etc., in case you are wondering, "Where did the main character come from?" It is intended to provide convenience to them. That is, when you are curious about who the person is or what other movie or drama you have, you can find it immediately.

Video Stream이 Display되는 중에, 영상화면을 Pixel 단위(1024x1080)로 분할하고, 특정 대상의 영역(예를 들어 인물의 얼굴 중에서 항상 일정한 색(color)과 모양을 유지하는 block(예를 들어 눈동자 또는 얼굴의 외곽선)의 Pixel을 선택하고, 상기 선택된 Pixel의 Y(Luminance)-weight값을 메모리에 저장한 상태에서, 다른 미디어 또는 방송에서 어디서 본 듯한 대상에 대해 확인을 하고자 하는 경우, 상기 저장된 Y-weight값을 불러와 현재 대상 stream의 Y-weight값을 서로 비교하여 객체(대상)을 인식하는 것을 제안한다.While the video stream is being displayed, the video screen is divided into pixel units (1024x1080), and a block (for example, a pupil or a face) that maintains a certain color and shape at all times (for example, a face of a person) In the case of selecting a pixel of the outline) and storing the Y (Luminance) -weight value of the selected pixel in a memory, and wanting to check an object as seen from other media or broadcasting, the stored Y-weight It is proposed to recognize the object (target) by reading the values and comparing the Y-weight values of the current target stream with each other.

상기한 바와 같은 목적을 달성하기 위하여 본 발명에 따른 영상 객체 인식 장치는, 영상이 디스플레이 되는 출력부; 상기 출력부에서 출력되는 영상과 관련된 Y-weight가 저장되는 메모리부; 상기 Y-weight를 도출하기 위한 사용자 명령을 입력하는 입력부; 상기 영상에 대응되는 다른 영상의 Y-weight 도출하여 상기 저장된 Y-weight와 비교를 통해 대상을 인식하는 것을 수행하는 제어부;를 포함하여 동작한다.In order to achieve the above object, the image object recognition apparatus according to the present invention includes an output unit for displaying an image; A memory unit for storing a Y-weight associated with an image output from the output unit; An input unit for inputting a user command for deriving the Y-weight; And a controller for deriving a Y-weight of another image corresponding to the image and recognizing an object through comparison with the stored Y-weight.

또한 본 발명에 따른 영상 객체 인식 방법은, 영상이 출력되는 단계; 출력되는 영상에서 대상을 선택하는 단계; 상기 대상에서 영역을 선택하는 단계 ; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; 및 상기 Y-weight 및 상기 영상에 관련된 정보를 저장하는 단계; 를 포함하여 동작한다.In addition, the image object recognition method according to the present invention, the step of outputting an image; Selecting a target from an output image; Selecting an area in the object; Calculating a Y-weight of a plurality of pixels constituting the area; Storing information related to the Y-weight and the image; It works including.

또한 본 발명에 따른 영상 객체 인식 방법은, 제 1영상이 출력되는 단계; 출력되는 영상에서 대상을 선택하는 단계; 상기 대상에서 영역을 선택하는 단계 ; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; 상기 Y-weight 및 상기 영상에 관련된 정보를 저장하는 단계; 제 2 영상의 대상을 선택하는 단계; 상기 대상에서 영역을 선택하는 단계 ; 상기 제 2영상의 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; 상기 제 1 영상의 Y-weight와 상기 제 2영상의 Y-weight를 비교하는 단계; 및 상기 비교를 통해 객체를 인식하는 단계; 를 포함하여 동작한다.In addition, the image object recognition method according to the present invention, the step of outputting the first image; Selecting a target from an output image; Selecting an area in the object; Calculating a Y-weight of a plurality of pixels constituting the area; Storing information related to the Y-weight and the image; Selecting a target of the second image; Selecting an area in the object; Calculating a Y-weight of a plurality of pixels constituting the area of the second image; Comparing the Y-weight of the first image with the Y-weight of the second image; And recognizing an object through the comparison; It works including.

이하에서는 도면을 참조하여 본 발명에 따른 영상 객체 인식 장치와 방법에 대하여 보다 상세히 설명하기로 한다.Hereinafter, an image object recognition apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

먼저, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이는 해당되는 발명의 설명부분에서 상세히 그 동작 및 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 동작/의미로서 본 발명을 파악 하여야 됨을 밝혀두고자 한다.First, the terms used in the present invention were selected as general terms widely used at present, but in some cases, the terms arbitrarily selected by the applicant, which are described in detail in the description of the corresponding invention, the simple terms, It is to be noted that the present invention should be understood as an operation / meaning of a term other than a name of a.

예를 들어, 본 발명에서 언급하고 있는 Y-weight는, Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현, Y(휘도신호,휘도레벨) = KrR + KgG + KbB), 하는데 있어서, 각 K Factor의 절대값의 합을 Y-weight라고 정의한다. For example, the Y-weight referred to in the present invention represents Luminance (color signal) as a combination of R, G and B as follows, Y (luminance signal, luminance level) = KrR + KgG + KbB), In this case, the sum of absolute values of each K factor is defined as Y-weight.

또한 상기 Kr, Kg, Kb 값들은 각각의 RGB 신호에 대한 weight factor를 나타 내며, 각 픽셀에서 상기 Weighting factor들이 달라지는 이유는 각 픽셀의 Y(Luminance)값이 틀리기 때문에 그 Y값을 R,G,B를 이용하여 표현하기 위해서는 상기 R,G,B앞에 붙는 계수(Kr, Kg, Kb)가 서로 달라져야만 한다. In addition, the Kr, Kg, and Kb values represent weight factors for the respective RGB signals, and the reason why the weighting factors in each pixel are different is because the Y (Luminance) value of each pixel is different. In order to express using B, the coefficients Kr, Kg, and Kb before R, G, and B must be different from each other.

또한 본 발명의 실시예를 디스플레이 수단에서 출력되는 영상을 기준으로 설명하였으나, 종이, 사진등에 있는 대상에 대해서도 적용가능하다. In addition, although the embodiment of the present invention has been described with reference to the image output from the display means, it is also applicable to an object on paper, a photograph, and the like.

또한 본 발명에서 언급되는 객체 또는 대상은 같은 의미라 할 수 있다.In addition, the object or object referred to in the present invention may have the same meaning.

도 1은 본 발명이 구현되는 디스플레이 수단의 구성의 하나의 실시예 블럭도(100)이다.1 is a block diagram 100 of an embodiment of a configuration of a display means in which the present invention is implemented.

도 1에 나타난 바와 같이, 스트림 영상(video)이 디스플레이되는 출력부(110와, 상기 출력부에서 출력되는 영상에 대해 사용자 선택/또는 객체인식기능설정에 따라 자동동작으로 Y-weight가 저장되는 메모리부 (120)와, 상기 영상 및 다른 영상을 시청중에 상기 선택된 또는 선택될 대상의 Y-weight를 각각 도출하기 위한 사용자 명령을 입력하는 입력부와, 상기 도출된 각 Y-weight를 비교하여 대상을 인식하도록 제어하는 제어부(130);를 포함하여 동작한다.As shown in FIG. 1, an output unit 110 on which a stream video is displayed, and a memory in which the Y-weight is automatically stored according to a user selection / or object recognition function setting for the image output from the output unit. The unit 120 and an input unit for inputting a user command for deriving the Y-weight of the selected or selected object, respectively, while viewing the video and other images, and comparing the derived Y-weights to recognize the object. And a control unit 130 to control to operate.

상기 구성 이외에도, 데이터를 처리하는 처리부(140)와, 리모콘 명령 또는 내/외부 신호를 수신하기 위한 수신부(170) 및 내/외부에 신호를 송신하기 위한 송신부(150)를 포함한다. In addition to the above configuration, a processing unit 140 for processing data, a receiving unit 170 for receiving a remote control command or an internal / external signal, and a transmitting unit 150 for transmitting a signal inside / outside are included.

도 2는 본 발명에 따른 하나의 동작 실시예 흐름도이다. 2 is a flow diagram of one operational embodiment according to the present invention.

도면 2(a)에서 보는 바와 같이, 미리 정한 해상도(픽셀)를 가진 출력수단(미도시)에서 출력되는 스트림 영상중 사람의 얼굴(200)을 객체로써 선택하고, 상기 선택된 객체 중에서, 특정영역으로써 눈(210)을 선택하였다. (필요시 눈동자를 선택할 수 있다). As shown in FIG. 2 (a), a face 200 of a human is selected as an object among stream images output from an output means (not shown) having a predetermined resolution (pixel), and among the selected objects, as a specific region. Eye 210 was selected. (You can choose your pupil if needed).

즉, Stream중에서 사람 눈(Eye)를 객체/대상(Object)로 설정하고 해당 Pixel의 Y-weight값을 계산한다. (S 201). That is, in the stream, the human eye is set as an object / object and the Y-weight value of the corresponding pixel is calculated. (S 201).

상기 계산된 Y-weight값을 도 1의 메모리부(120)에 저장한다. (S 203).The calculated Y-weight value is stored in the memory unit 120 of FIG. 1. (S 203).

상기 저장되는 Y-weight값에 인물의 이름, 출연 작품들을 도 6과 같이 mapping 시킨다. (S 205). The name and appearances of the person are mapped to the stored Y-weight value as shown in FIG. 6. (S 205).

그리고 만약 미래에 다른 영화, 방송, 프로그램에서도 Y-weight값을 계산한 경우, 상기 저장된 data와 비교하여 같은 객체(인물)인지를 확인한다. (S 207). If the Y-weight value is calculated in other movies, broadcasts, and programs in the future, it is checked whether the same object (person) is compared with the stored data. (S 207).

한편, 상기 도 2(a)와 같은 방법에 의거 도출된 Y-weight값만에 의해서는 비교가 어려울 경우에는, 도 2(b)에 나타난 바와 같이, 상기 도 2(a)에 의거 정해진 object의 pixel을 x2, x4, x8등으로 키워서(220) 그 변별력을 높여, 다시 Y-weight 값을 계산할 수 있다. (S 209, S 211). 이후 단계는 S 205 및 S 207와 같다. On the other hand, when it is difficult to compare only by the Y-weight value derived based on the method as shown in FIG. 2 (a), as shown in FIG. 2 (b), the pixel of the object determined according to FIG. 2 (a) It can be raised to x2, x4, x8, etc. (220) to increase the discrimination power, it is possible to calculate the Y-weight value again. (S 209, S 211). The subsequent steps are the same as S 205 and S 207.

또한 상기 도 2 (a),(b)에 의해서도 비교의 정확도가 떨어질 경우에는 두 눈의(210,230) Y-weight값을 모두 계산하여, 두개 값을 평균값 data로써 저장한다.2 (a) and 2 (b), when the accuracy of comparison is inferior, both Y-weight values of the two eyes 210 and 230 are calculated, and the two values are stored as average data.

따라서 두 개 data의 평균값이니만큼 정확도가 높아질 수 있다. (S 213).Therefore, accuracy can be improved as it is the average value of two data. (S 213).

이후 단계는 S 205 및 S 207와 같다. The subsequent steps are the same as S 205 and S 207.

본 발명의 이해를 확실히 하기 위해 상기와 같은 본 발명의 실시에 따른 관련 내용을 아래에 같이 기술한다.In order to clarify the understanding of the present invention, related contents according to the implementation of the present invention as described above are described as follows.

상기한 바와 같이 각 대상의 영역을 구분하기 위해 Y-weight를 이용한다.As described above, the Y-weight is used to distinguish the area of each object.

일반적으로, 모든 Luminance(color 신호)는 R,G,B의 조합으로 표현이 가능하다.In general, any luminance (color signal) can be represented by a combination of R, G, and B.

Y=KrR + KgG + KbB, 여기서 Kr, Kg, Kb 값들이 각각의 RGB 신호에 대한 weight factor이며, 각 K Factor의 절대값의 합을 Y-weight라고 한다. Y = KrR + KgG + KbB, where Kr, Kg, and Kb values are weight factors for each RGB signal, and the sum of the absolute values of each K factor is called Y-weight.

또한 1 frame의 video stream에서 모든 pixel에 대한 Y-weight값을 도 1의 처리부(비디오 처리부)에서 구할 수 있다. 즉 각 pixel들에 각각의 고유의 Y-weight값을 메길(부여) 수 있다. In addition, the Y-weight values for all pixels in a video stream of one frame may be obtained by the processor (video processor) of FIG. 1. That is, each pixel can be assigned a unique Y-weight value.

따라서 특정 블록 영역의 pixel을 잡아서 (예를 들어, 8x8 개의 pixel 단위로 블록을 잡아서 총 64개의 pixel에 대한 Y-weight값을 구할 수Therefore, you can get the Y-weight value for a total of 64 pixels by catching pixels in a specific block area

있으며, 상기 값을 이용하여 그 블록의 전체 pixel에 대한 Y-weight값의 합을 구할 수 있다. 따라서 고유의 특정한 값이 산출될 것이기에, 상기 고유한 Y-weight값으로 구분 또는 판별이 가능할 수 있다.The sum of the Y-weight values for all the pixels of the block can be obtained using the above values. Therefore, since a unique value will be calculated, it may be possible to distinguish or determine the unique Y-weight value.

부연하면, display되는 화면의 해상도가 1024x1080p라고 할 때,전체 픽셀(화소)의 개수는 1024X1080개가 된다. 전체 픽셀의 각각의 Y-weight값을 구할 수도 있다. In other words, when the resolution of the displayed screen is 1024x1080p, the total number of pixels (pixels) is 1024x1080. Each Y-weight value of all pixels may be obtained.

그러나 너무나 많은 픽셀에 대해 계산을 하게 되므로, 사용자가 임으로 정하게 하거나, 펌웨어 상에서 아예 처음부터 8x8(8by8), 16x16(16by16) 이렇게 정하여 계산을 할 수도 있다. 예를 들어 8by8로 정했다고 하면, 64개의 픽셀이 포함된다.However, because it calculates for too many pixels, it can be decided by the user, or it can be calculated from the beginning at 8x8 (8by8), 16x16 (16by16). For example, if 8by8 is set, 64 pixels are included.

이때, (1)각각의 픽셀에 대하여 Y-weight값을 구할 수 있을 것이고, 그 후에 각 64개의 각 Y-weight값을 구하여 더하면 8by8로 지정한 블록의 전체 Y-weight값을 구하게 된다.(64개 픽셀값 각각의 전체 또는 평균으로 비교하여 대상을 인식함)At this time, (1) the Y-weight value can be obtained for each pixel, and after that, each of the 64 Y-weight values is added and the total Y-weight value of the block designated by 8by8 is obtained. Recognizes the object by comparing the total or average of each pixel value)

한편, (2) 각 64개의 Y-weight값을 구해서 순서대로 읽어서 그 값들은 순차적으로 기억할 수도 있다. 그래서 다음에 비교할 새로운 8by8 블록과 차례대로 비교를 해서 찾을 수도 있다. (64개 각 픽셀값의 순서에 의거 대상을 인식함)Meanwhile, (2) each of the 64 Y-weight values can be obtained and read in order, and the values can be stored sequentially. So you can find the new 8by8 block in turn and compare it next. (The object is recognized based on the order of each 64 pixel values)

상기의 본 발명에서 비교 대상을 눈으로 선정한 이유는 다음과 같다.The reason for selecting the comparison target in the present invention described above is as follows.

결론부터 기술하면 사람의 형체 중에서 변별력이 높은 부분들 중 하나를 선택한 것으로 써, 사용자마다 달라질 수 있을 것이다. In conclusion, one of the most discriminating parts of the human form is selected, which may vary from user to user.

다만 예를 든 경우로 써, 인물 중에서 그래도 가장 unique한 상태를 유지하는 부분이 눈이라고 생각했기 때문이다. 사람마다 눈동자는 다르게 생겼고 color도 다르기 때문에 unique 하다고 생각한다. 눈동자만 해도 pixel블록으로 잡으면 매우 큰 범위 이기 때문에 Y-weight값은 대게 같은 값으로 수렴할 것이다. However, for example, I thought that the most unique part of the character was the eye. I think it is unique because each person looks different and the color is different. Because the pupil alone is a very large range when captured with pixel blocks, the Y-weight values will usually converge to the same value.

다른 예로써 사람마다 얼굴의 외곽선도 모두 다르기 때문에, 얼굴의 외곽선에 해당하는 pixel만 뽑아서 Y-weight값을 구한다면, 이 또한 unique한 값을 가질 것이다. As another example, each person's face outline is also different, so if you only get the Y-weight value by drawing the pixel that corresponds to the face outline, it will also be unique.

좀 더 대상을 확실하게 구분할 수 있도록 부연하면, 조명, 화장등에 의한 문제점을 최소화 하기 위해서 그 화면에서 color 신호 성분을 모두 제거하면, 휘도(Y) 신호 성분만 남는다. Color가 모두 제거되었기 때문에 화장 등에 의한 color구분은 없어지고,눈모양 자체만 남게 된다. 이때 Y-weight값을 구하면 좀더 확실한 구분 방법이 될 것이다. If you want to be able to distinguish the objects more clearly, if you remove all color signal components from the screen to minimize the problems caused by lighting and makeup, only the luminance (Y) signal components remain. Since all the colors have been removed, the color classification due to makeup, etc. disappears, leaving only the eye shape itself. Finding the Y-weight value will be a more reliable way to distinguish.

눈/눈동자의 경우 해상도가 떨어지는 display의 경우에는 구분하기가 어려울 수 있는데, 얼굴 외곽선의 경우는 구분이 확실히 되며, 얼굴칼라와 非얼굴칼라 사이의 chrominance값이 확연히 틀리기 때문에 구분이 확실할 수 있다.In the case of eyes / eyes, it may be difficult to distinguish between displays with low resolution, but in case of face outlines, the distinction is clearly distinguished, and the distinction may be clear because the chrominance value between the face color and the non-face color is clearly different.

따라서 대상을 선정시, 머리카락등으로 눈옆, 귀옆 라인은 가려지기도 하기 때문에, 코를 기준으로 코보다 낮은 부위인 얼굴 외곽선의 Y-weight를 이용하여 비교하는 것도 하나의 좋은 방법이라 생각한다.Therefore, when selecting an object, the side of the eye and the side of the ear may be covered by hair, etc., so it is a good way to compare it using the Y-weight of the face outline, which is lower than the nose.

한편, 본 발명의 다른 실시예로써, 각 셀들을 수백배 줌인해서 보면 인접한 셀끼리는 거의 색이 똑같다. 따라서 weighting factor마저도 비슷한 값이 나온다면 Y-weight가 구별되지 않는다. 이 경우에는 각각의 픽셀로 비교하지 않고, 예를 들어 10개 픽셀마다 한 픽셀씩만 골라내어 비교한다면 더 변별력이 생길 수도 있을 것이다. Meanwhile, as another embodiment of the present invention, when the cells are zoomed in hundreds of times, adjacent cells are almost the same color. So even if the weighting factor gives similar values, the Y-weight is not distinguished. In this case, if you do not compare with each pixel, but select and compare only one pixel every 10 pixels, it may be more discriminating.

도 3은 본 발명의 다른 실시예 흐름도이다.3 is a flowchart of another embodiment of the present invention.

화면 Frame 전체를 기준이 되는 단위 Pixel로 구분한다. (S 301).The whole screen frame is divided into pixel units. (S 301).

상기 수학식 1에 의거 단위 pixel의 각 Y-weight 값을 계산한다. (S 303).The Y-weight value of each unit pixel is calculated based on Equation 1 above. (S 303).

Stream중에서 사람 눈(Eye)를 Object로 설정하여, Eye 블록에 대한 Y-weight 를 Memory부에 저장한다. (S 305, S 307). 만약 User가 다른 대상에 대해서도 Y-weight 을 저장하기를 원하는 경우, 반복적으로 계산하여 저장한다. (S 309).Set the human eye as an object in the stream and store the Y-weight for the eye block in the memory. (S 305, S 307). If the user wants to save the Y-weight for another object, it is calculated and stored repeatedly. (S 309).

상기와 같은 동작 이후에, User가 다른 방송에서 같은 인물을 발견한 경우, Object로 선정된 stream pixel 블록의 Y-weight값을 계산하고, 상기 단계에서 저장 된 Y-weight값과 비교하여, 가장 가까운 Y-weight값 또는 가까운 복수의 Y-weight값에 해당하는 data를 제시하여, 사용자가 최종 판단하도록 한다. (S 311-S 319).After the above operation, when the user finds the same person in different broadcasts, the Y-weight value of the stream pixel block selected as the Object is calculated and compared with the Y-weight value stored in the above step, Present the data corresponding to the Y-weight value or a plurality of close Y-weight value, so that the user can make a final decision. (S 311-S 319).

물론 해당 대상을 직접 디스플레이 할 수도 있다.Of course, you can also display the target directly.

도 4는 본 발명의 영상 객체 인식을 수행하는 것을 나타낸 다른 흐름도이다.4 is another flowchart illustrating performing image object recognition according to the present invention.

미리 정한 해상도가 출력되는 디스플레이 수단(도 110)에서 제 1 영상이 출력된다. (S 401). The first image is output from the display means (FIG. 110) outputting a predetermined resolution. (S 401).

상기 영상중에서 특정 대상(예를 들어 사람)의 특정 영역 (예를 들어, 눈/얼굴 외곽선)을 선택한다. (S 403). 상기 특정영역의 전체 또는 미리 정한 부분(8by8)의 픽셀의 각 Y-weight를 상기 수학식 1에 의거 계산한다. (S 405). In the image, a specific region (eg, an eye / face outline) of a specific object (eg, a person) is selected. (S 403). Each Y-weight of the pixels of the whole or predetermined portion 8by8 of the specific region is calculated based on Equation 1 above. (S 405).

상기 도출된 Y-weight 및 상기 값의 영상에 관련된 정보(출연프로그램내용,배우이름등)를 도 1의 메모리부에 저장한다. (S 407). The derived Y-weight and information related to the image of the value (cast program content, actor name, etc.) are stored in the memory unit of FIG. (S 407).

이후 상기 제 1 영상과 다른 제 2영상에서 특정영역을 선택한 경우(S 409), 상기 S 405단계의 동작을 수행하여 상기 제 2 영상의 특정영역의 Y-weight를 구하여 상기 저장된 제 1영상의 Y-weight와 비교한다. (S 411). 사용자가 미리 설정한 오차 이내에 해당하는 제 1 영상의 객체 정보를 디스플레이 한다. (S 413).Then, when a specific region is selected from the second image different from the first image (S 409), the operation of step S 405 is performed to obtain the Y-weight of the specific region of the second image to obtain Y of the stored first image. Compare to -weight. (S 411). The object information of the first image corresponding to the error preset by the user is displayed. (S 413).

이후 User가 판단한다. (S 415). The user then decides. (S 415).

도 5는 상기 도 4의 S 405단계에서의 영역의 픽셀 Y-weight를 구하여 저장하는 것을 나타내는 흐름도이다. FIG. 5 is a flowchart illustrating obtaining and storing the pixel Y-weight of the area in step S405 of FIG. 4.

상기 영역 중, 사용자가 선택한 일부 픽셀의 각 Y-weight를 구하여 더하여 구하거나 (S 501), 각 픽셀의 Y-weight를 구하여 모두 합해 영역 전체에 대한 Y- weight를 구할 수도 있을 것이다. (S 503). 상기 구해진 합을 합으로써 비교하거나, 하나하나 값을 순서대로 저장하여 그 순서에 의거 두개의 영상에서의 각 대상을 비교할 수도 있다. Among the above areas, the Y-weights of some pixels selected by the user may be obtained and added (S501), or the Y-weights of each pixel may be obtained and summed to obtain Y-weights for the entire area. (S 503). The sums obtained may be compared, or values may be stored in order one by one, and each object in two images may be compared based on the order.

도 6은 사용자가 선정한 특정객체/영역의 각 픽셀의 Y-weight와, 그에 관련된 프로그램 정보가 메모리에 저장된 상태를 나타낸 도면이다. FIG. 6 is a diagram illustrating a state in which a Y-weight of each pixel of a specific object / region selected by a user and program information related thereto are stored in a memory.

도 7은 새로운 영상을 보다가 사용자의 선택에 의거 해당 객체/영역의 Y-weight가 계산되고, 상기 도 6과 같이 저장된 데이터와의 비교를 통해 출력되는 형태의 하나의 실시예이다. 여기에서 바로 해당 대상을 보여 줄 수도 있고, 오차 범위내의 여러 대상을 보여주어 사용자가 선택할 수도 있을 것이다.FIG. 7 illustrates an embodiment in which a Y-weight of a corresponding object / area is calculated based on a user's selection while viewing a new image, and is output through comparison with data stored as shown in FIG. 6. Here, the object may be displayed immediately, or the object may be selected by the user by showing several objects within an error range.

상기한 바와 같이, 본 발명에 의하면, Video Stream이 Display되는 중에, 영상화면을 Pixel 단위(1024x1080)로 분할하고, 특정 대상의 영역(예를 들어 인물의 얼굴 중에서 항상 일정한 색(color)과 모양을 유지하는 block(예를 들어 눈동자 또는 얼굴의 외곽선)의 Pixel을 선택하고, 상기 선택된 Pixel의 Y(Luminance)-weight값을 메모리에 저장한 상태에서, 다른 미디어 또는 방송에서 어디서 본 듯한 대상에 대해 확인을 하고자 하는 경우, 상기 저장된 Y-weight값을 불러와 현재 대상 stream의 Y-weight값을 서로 비교하여 객체(대상)을 인식할 수 있다.As described above, according to the present invention, while the video stream is being displayed, the video screen is divided into pixel units (1024x1080), and an area of a specific object (for example, a constant color and shape among faces of a person is always present). Select the pixel of the block (e.g., the outline of the eyes or face) to keep, and check the object that seems to be seen from other media or broadcasting while storing the Y (Luminance) -weight value of the selected pixel in memory. In order to recognize the object (target), the stored Y-weight value is called and the Y-weight value of the current target stream is compared with each other.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.As mentioned above, preferred embodiments of the present invention described above are disclosed for the purpose of illustration, and those skilled in the art can improve other various embodiments within the spirit and technical scope of the present invention disclosed in the appended claims below. Changes, substitutions or additions will be possible.

본 발명에 의하면, 영화를 감상하는 경우등에 있어서, “저 주인공 어디서 나왔더라?” 또는 전에 보았던 장면들이 궁금할 때, 바로 확인이 가능하다. According to the present invention, when watching a movie, such as, "Where did the main character come from?" Or when you are curious about the scenes you have seen before, you can check immediately.

이로 인해 사용자의 지식을 높일 수 있고, 출력되는 영상을 효과적으로 즐길 수 있다. As a result, the user's knowledge can be improved and the output image can be effectively enjoyed.

Claims (14)

출력부에 영상이 출력되는 단계; Outputting an image to an output unit; 상기 출력되는 영상에서 적어도 하나 이상의 대상을 선택하는 단계; Selecting at least one object from the output image; 상기 대상에서 적어도 하나 이상의 영역을 선택하는 단계 ; Selecting at least one area of the object; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; 및 Calculating a Y-weight of a plurality of pixels constituting the area; And 상기 Y-weight 및 상기 영상을 나타내는 정보를 저장하는 단계; 를 포함하며, Storing information representing the Y-weight and the image; Including; 모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 방법.In the following formula, all Luminance (color signals) are represented by a combination of R, G, and B, where Y = KrR + KgG + KbB and Y-weight is the same as the sum of the absolute values of each K Factor. A video object recognition method, characterized in that defined as weight. 출력부에 제 1영상이 출력되는 단계; Outputting a first image to an output unit; 상기 출력되는 영상에서 적어도 하나 이상의 대상을 선택하는 단계; Selecting at least one object from the output image; 상기 대상에서 적어도 하나 이상의 영역을 선택하는 단계 ; Selecting at least one area of the object; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of a plurality of pixels constituting the area; 상기 Y-weight 및 상기 영상을 나타내는 정보를 저장하는 단계; Storing information representing the Y-weight and the image; 출력부에 출력된 제 2 영상에서 상기 제 1 영상의 대상에 대응되는 대상을 선택하는 단계;Selecting an object corresponding to the object of the first image from the second image output to the output unit; 상기 대상에서 상기 제 1 영상의 대상 영역에 대응되는 영역을 선택하는 단계 ; Selecting an area corresponding to a target area of the first image from the target; 상기 제 2영상의 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of a plurality of pixels constituting the area of the second image; 상기 제 1 영상의 Y-weight와 상기 제 2영상의 Y-weight를 비교하는 단계; 및Comparing the Y-weight of the first image with the Y-weight of the second image; And 상기 비교를 통해 객체를 인식하는 단계; 를 포함하며,      Recognizing an object through the comparison; Including; 모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 방법.In the following formula, all Luminance (color signals) are represented by a combination of R, G, and B, where Y = KrR + KgG + KbB and Y-weight is the same as the sum of the absolute values of each K Factor. A video object recognition method, characterized in that defined as weight. 제 1항 또는 제 2항에 있어서, 상기 영역을 구성하는 픽셀들의 Y-weight 계산은 상기 영역의 전체 픽셀에 대해 수행하는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method according to claim 1 or 2, wherein the Y-weight calculation of the pixels constituting the area is performed for all pixels of the area. 제 1항 또는 제 2항에 있어서, 상기 영역을 구성하는 픽셀들의 Y-weight 계산은 상기 영역의 전체 픽셀 중 적어도 하나 이상의 픽셀에 대해 수행하는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method according to claim 1 or 2, wherein the Y-weight calculation of the pixels constituting the area is performed on at least one or more pixels of all pixels in the area. 제 2항에 있어서, 계산 및 저장된 Y-weight로 인식이 어려운 경우에는, 해당 대상 또는 픽셀을 미리 정한 배수로 확대하여 Y-weight를 도출하여 인식을 수행하는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method according to claim 2, wherein when the calculated and stored Y-weight is difficult to recognize, the object or pixel is enlarged by a predetermined multiple to derive the Y-weight to perform recognition. 제 2항에 있어서, 계산 및 저장된 Y-weight로 인식이 어려운 경우에는, 해당 대상 또는 픽셀에 대응하는 다른 대상/픽셀의 Y-weight를 도출한 것을 이용하여인식을 수행하는 것을 특징으로 하는 영상 객체 인식 방법.The image object according to claim 2, wherein when it is difficult to recognize the calculated and stored Y-weight, the image object is performed by using the derived Y-weight of another object / pixel corresponding to the object or pixel. Recognition method. 삭제delete 제 1항에 있어서, 상기 Kr, Kg, Kb 값들은 각각의 RGB 신호에 대한 weight factor인 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method of claim 1, wherein the Kr, Kg, and Kb values are weight factors for respective RGB signals. 제 8항에 있어서, 각 픽셀에서 상기 Weight factor들이 달라지는 이유는각 픽셀의 Y(Luminance)값이 틀리기 때문에 그 Y값을 R,G,B를 이용하여 표현하기 위해서는 상기 R,G,B앞에 붙는 계수가 서로 달라지게 되는 것을 특징으로 하는 영상 객체 인식 방법.The method of claim 8, wherein the weight factors in each pixel are different because the Y (Luminance) value of each pixel is different. Image object recognition method characterized in that the coefficients are different from each other. 제 1항 또는 제 2항에 있어서, 상기 영상을 나타내는 정보의 저장은 출연자 이름 또는 출연 작품의 정보가 적어도 하나 이상 포함되는 것을 특징으로 하는 영상 객체 인식 방법. The image object recognition method according to claim 1 or 2, wherein the storing of the information representing the image includes at least one of a performer's name or information on the work to be performed. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교하여, 복수개의 대상 정보를 디스플레이하여 사용자가 선택할 수 있는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method of claim 2, wherein the user is able to select a plurality of pieces of target information by comparing the Y-weight of the first image with the Y-weight of the second image. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교시, 해당 픽셀의 총합을 비교하여 대상 정보를 디스플레이하는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition method of claim 2, wherein when comparing the Y-weight of the first image and the Y-weight of the second image, the target information is displayed by comparing the total sum of the corresponding pixels. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교시, 해당 픽셀들의 Y-weight 순서에 의거 비교하여 대상 정보를 디스플레이하는 것을 특징으로 하는 영상 객체 인식 방법.The image object recognition of claim 2, wherein when comparing the Y-weight of the first image and the Y-weight of the second image, target information is displayed based on the Y-weight order of the corresponding pixels. Way. 영상이 디스플레이 되는 출력부;An output unit for displaying an image; 상기 출력부에서 출력되는 영상을 나타내는 Y-weight가 저장되는 메모리부; A memory unit for storing a Y-weight indicating an image output from the output unit; 상기 Y-weight를 도출하기 위한 사용자 명령을 입력하는 입력부;An input unit for inputting a user command for deriving the Y-weight; 상기 영상에 대응되는 다른 영상의 Y-weight를 도출하여 상기 저장된 Y-weight와 비교를 통해 대상을 인식하는 것을 수행하는 제어부;를 포함하며, And a controller configured to derive a Y-weight of another image corresponding to the image and to recognize an object through comparison with the stored Y-weight. 모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 장치.In the following expressions, all Luminance (color signals) are a combination of R, G, and B, where Y = KrR + KgG + KbB and Y-weight is the same as the sum of the absolute values of each K Factor. A video object recognition device, characterized in that defined as weight.
KR1020080112961A 2008-11-13 2008-11-13 Apparatus and method for identifying video object KR101025651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Publications (2)

Publication Number Publication Date
KR20100054034A KR20100054034A (en) 2010-05-24
KR101025651B1 true KR101025651B1 (en) 2011-03-31

Family

ID=42278873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Country Status (1)

Country Link
KR (1) KR101025651B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102440041B1 (en) 2020-06-11 2022-09-06 주식회사 에이아이프로 Object recognition apparatus with customized object detection model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program

Also Published As

Publication number Publication date
KR20100054034A (en) 2010-05-24

Similar Documents

Publication Publication Date Title
CN100556078C (en) Camera head, image processing apparatus and image processing method
US9105122B2 (en) Image processing apparatus and image processing method
CN110933331B (en) Teaching video synthesis method and system
EP2782326A2 (en) Method and apparatus for processing an image based on an image property and ambient environment information
US9635286B2 (en) Image processing apparatus and method for image processing
CN102103754A (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP7223079B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP6574878B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
US8368764B2 (en) Digital photographing apparatus and method for controlling the same
US20210067689A1 (en) Image processing apparatus, image processing method, and program
JP6253007B2 (en) Display device
JP2010200295A (en) Method and device for maintaining image background by using multiple gaussian distribution models
JP4029316B2 (en) Image type identification method and apparatus and image processing program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
US10499047B2 (en) Image processing apparatus, image processing system, and non-transitory computer readable medium
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
KR101025651B1 (en) Apparatus and method for identifying video object
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN100534136C (en) Image pick-up device
JP2013038591A (en) Imaging apparatus, and control method and program therefor
KR20190088688A (en) Method of searching crime using video synopsis
KR20100069501A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
US9135687B2 (en) Threshold setting apparatus, threshold setting method and recording medium in which program for threshold setting method is stored
JP7022949B2 (en) Image processing methods, image processing equipment and programs
US20210029306A1 (en) Magnification enhancement of video for visually impaired viewers

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160224

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee