KR101025651B1 - Apparatus and method for identifying video object - Google Patents

Apparatus and method for identifying video object Download PDF

Info

Publication number
KR101025651B1
KR101025651B1 KR20080112961A KR20080112961A KR101025651B1 KR 101025651 B1 KR101025651 B1 KR 101025651B1 KR 20080112961 A KR20080112961 A KR 20080112961A KR 20080112961 A KR20080112961 A KR 20080112961A KR 101025651 B1 KR101025651 B1 KR 101025651B1
Authority
KR
Grant status
Grant
Patent type
Prior art keywords
weight
image
method
target
output
Prior art date
Application number
KR20080112961A
Other languages
Korean (ko)
Other versions
KR20100054034A (en )
Inventor
김윤현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Abstract

본 발명은 영상 중에서 특정 대상을 나타내는 정보를 저장하여, 다른 영상의 대상을 식별하기 위한 영상 객체 인식 장치 및 방법에 관한 것이다. The present invention stores the information for a specific target in the image relates to an image object recognition device and method for identifying the destination of the other image.
본 발명은 상기 대상의 특정 영역의 픽셀에 대한 Y-weight을 저장해 놓고, 현재 비교하고자 하는 대상의 특정영역의 픽셀의 Y-weight를 구하여, 서로 비교를 통해, 대상을 확인하는 것이다.. The present invention is to place the stored Y-weight for a pixel of a specific region of the subject, through a, they are compared with each other to obtain Y-weight of a particular region of a target pixel to be compared to the current, check the destination.
따라서 본 발명에 의하면, 영화를 감상하는 경우등에 있어서, “저 주인공 어디서 나왔더라” 또는 전에 보았던 장면들이 궁금할 때, 바로 확인이 가능하다. Therefore, in accordance with the present invention, there is provided, for example, if you are watching a movie, "he came where that character," or when you saw the scene before you were wondering, it is possible to see it immediately.
영상, 픽셀, Weight, 비교 Image, pixels, Weight, comparison

Description

영상 객체 인식 장치 및 방법 {Apparatus and method for identifying video object} Video object recognition apparatus and method {Apparatus and method for identifying video object}

도 1은 본 발명이 구현되는 디스플레이 수단의 구성의 하나의 실시예 블럭도 1 is a block diagram of one embodiment of a structure of the display device to which the present invention is implemented

도 2는 본 발명에 따른 하나의 동작 실시예 흐름도 Figure 2 is a flow chart of an operation example according to the invention

도 3은 본 발명의 다른 실시예 흐름도 3 is a flowchart illustrating another embodiment of the present invention

도 4는 본 발명의 영상 객체 인식을 수행하는 것을 나타낸 다른 흐름도 Figure 4 is another flow diagram illustrating performing the image recognition of the object, the present invention

도 5는 상기 도 4의 S 405단계에서의 영역의 픽셀 Y-weight를 구하여 저장하는 것을 나타내는 흐름도 Figure 5 is a flow chart showing storing obtain the pixel Y-weight of the region in the step S 405 of FIG. 4

도 6은 사용자가 선정한 특정객체/영역의 각 픽셀의 Y-weight와, 그에 관련된 프로그램 정보가 메모리에 저장된 상태를 나타낸 도면 Figure 6 is a view of the state and the user Y-weight of each pixel in the selection of a particular object / area, the program information associated with it stored in the memory

도 7은 새로운 영상을 보다가 사용자의 선택에 의거 해당 객체/영역의 Y-weight가 계산되고, 상기 도 6과 같이 저장된 데이터와의 비교를 통해 출력되는 형태의 하나의 실시예 도면. Figure 7 is a more new images and the Y-basis weight of the object / area calculation to the user's selection, one embodiment of a form that is output via a comparison between the data and stored as the Figure 6 example, the drawing.

본 발명은 영상 중에서 특정 대상을 나타내는 정보를 저장하여, 다른 영상의 대상을 식별하기 위한 영상 객체 인식 장치 및 방법에 관한 것이다. The present invention stores the information for a specific target in the image relates to an image object recognition device and method for identifying the destination of the other image.

더욱 구체적으로는, 상기 대상의 특정 영역의 픽셀에 대한 Y-weight을 저장해 놓고, 현재 비교하고자 하는 대상의 특정영역의 픽셀의 Y-weight를 구하여, 서로 비교를 통해, 대상을 확인하는 것이다.. More specifically, to the Y-weight, saved it for a particular area of ​​the target pixel, obtaining a Y-weight of a pixel of a specific region of the target that are compared, by comparing with each other, determine the destination.

이하 본 발명과 관련된 기술(related art)을 설명한다. Hereinafter technology (related art) relevant to the present invention.

일반적으로 티비등에서 영화 또는 프로그램을 보는 중에, 어떤 대상(사람, 사물등)에 대한 기억이 명확하지 않을 때가 자주 발생하는데, 이 경우에 생각을 하다가 생각이 나지 않는 경우 이를 해소하기 위한 별다른 수단이 없었다. If in general, seeing a movie or program, etc. TV, in time frequently remembered for some targets (people, things, etc.) is not clear, and I think that is born while to think in this case there was little means to resolve them .

또한 방송 또는 DVD, Blue-Ray, Divx등의 영화에 출연한 인물들이 어떤 영화에 출연했었는지 기억이 나질 않을 때, 바로 알아낼 방법이 없는 상태이다. Is also broadcast or DVD, Blue-Ray, there is no method to figure out just what a person when they appeared in the film had appeared on some films such as Divx remember not najil state.

본 발명은 출력수단인 티비등에서 영화 또는 프로그램을 보는 중에, 어떤 대상(사람, 사물등)에 대한 기억이 명확하지 않을 경우, 이를 해소하는 것을 목적으로 한다. The present invention, if the watching the movie or television program, etc. of the output means, is not clear the memory of an object (person, thing, etc.), and an object thereof is to eliminate them.

예를 들어, 영화등을 감상하다 보면, “저 주인공이 어디서 나왔더라?” 하고 궁금한 경우등을 대비하여 영화 또는 방송에 출연한 인물들을 Data format으로 memory해 두었다가, 궁금할 때 비교하고 찾아내서 사용자에게 편의를 제공하기 위 한 것이다. For example, when you are watching a movie, such as "low-hero he came from?" And Save a memory of a figure appeared in the film or broadcast by contrast, etc. If you have any questions in the Data format, take compared to wonder and find your to be one in order to provide convenience. 즉 그 인물이 누구인지, 또는 다른 어떤 영화나 드라마에 출연하였는지 등을 궁금할 때 바로 찾아 볼 수 있도록 한다. That is so that you can see to the right place when you wonder that such a person who is, or whether what appeared in other movies or dramas.

Video Stream이 Display되는 중에, 영상화면을 Pixel 단위(1024x1080)로 분할하고, 특정 대상의 영역(예를 들어 인물의 얼굴 중에서 항상 일정한 색(color)과 모양을 유지하는 block(예를 들어 눈동자 또는 얼굴의 외곽선)의 Pixel을 선택하고, 상기 선택된 Pixel의 Y(Luminance)-weight값을 메모리에 저장한 상태에서, 다른 미디어 또는 방송에서 어디서 본 듯한 대상에 대해 확인을 하고자 하는 경우, 상기 저장된 Y-weight값을 불러와 현재 대상 stream의 Y-weight값을 서로 비교하여 객체(대상)을 인식하는 것을 제안한다. During a Video Stream is Display, dividing the picture screen into Pixel unit (1024x1080), and the area of ​​a particular target (for example, block (e.g. eye or face to always maintain a constant color (color) and shape from the person's face, If the selection of the outline of the Pixel) and, in a store the Y (Luminance) -weight value of the selected Pixel the memory state to be OK for where the animated object in another media or broadcasting, the stored Y-weight to bring up the value and comparing the weight value of the current Y-target stream we propose to recognize the object (target).

상기한 바와 같은 목적을 달성하기 위하여 본 발명에 따른 영상 객체 인식 장치는, 영상이 디스플레이 되는 출력부; Image object recognition apparatus according to the present invention in order to achieve the object described above, in which an image is display output unit; 상기 출력부에서 출력되는 영상과 관련된 Y-weight가 저장되는 메모리부; A memory unit which is Y-weight related to the image that is output from the output unit is stored; 상기 Y-weight를 도출하기 위한 사용자 명령을 입력하는 입력부; Input unit for inputting a user instruction to derive the Y-weight; 상기 영상에 대응되는 다른 영상의 Y-weight 도출하여 상기 저장된 Y-weight와 비교를 통해 대상을 인식하는 것을 수행하는 제어부;를 포함하여 동작한다. It operates, including; a controller for performing that by comparison with the Y-Y-derived weight to weight of the different image stored in the image corresponding to the recognition target.

또한 본 발명에 따른 영상 객체 인식 방법은, 영상이 출력되는 단계; In addition, the image object recognition process according to the invention, the method in which an image is output; 출력되는 영상에서 대상을 선택하는 단계; Selecting a destination in the output image; 상기 대상에서 영역을 선택하는 단계 ; Selecting a region in the subject; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting the region; 및 상기 Y-weight 및 상기 영상에 관련된 정보를 저장하는 단계; And storing the Y-weight, and information associated with the image; 를 포함하여 동작한다. It operates to include.

또한 본 발명에 따른 영상 객체 인식 방법은, 제 1영상이 출력되는 단계; In addition, the image object recognition process according to the invention comprises the steps in which the first picture is output; 출력되는 영상에서 대상을 선택하는 단계; Selecting a destination in the output image; 상기 대상에서 영역을 선택하는 단계 ; Selecting a region in the subject; 상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting the region; 상기 Y-weight 및 상기 영상에 관련된 정보를 저장하는 단계; Storing the Y-weight, and information associated with the image; 제 2 영상의 대상을 선택하는 단계; The step of selecting the destination of the second image; 상기 대상에서 영역을 선택하는 단계 ; Selecting a region in the subject; 상기 제 2영상의 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting an area of ​​the second image; 상기 제 1 영상의 Y-weight와 상기 제 2영상의 Y-weight를 비교하는 단계; Comparing the Y-weight of the second image and the Y-weight of the first image; 및 상기 비교를 통해 객체를 인식하는 단계; And a step of recognizing an object with the comparison; 를 포함하여 동작한다. It operates to include.

이하에서는 도면을 참조하여 본 발명에 따른 영상 객체 인식 장치와 방법에 대하여 보다 상세히 설명하기로 한다. Hereinafter will be described in more detail with respect to the image object recognition apparatus and method according to the present invention with reference to the drawings.

먼저, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이는 해당되는 발명의 설명부분에서 상세히 그 동작 및 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 동작/의미로서 본 발명을 파악 하여야 됨을 밝혀두고자 한다. First of all, although terms used in the present invention may select a generic term used currently available widely, since in certain cases the applicant, and is also optionally selected terms which describe the detailed operation thereof, and means in the context of which the invention, the simple term a motion / meaning of the term will be non-title characters leave out that the present invention be identified.

예를 들어, 본 발명에서 언급하고 있는 Y-weight는, Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현, Y(휘도신호,휘도레벨) = KrR + KgG + KbB), 하는데 있어서, 각 K Factor의 절대값의 합을 Y-weight라고 정의한다. For example, the present invention Y-weight that is referred to is expressed as the Luminance (color signal) of a combination of R, G, B, Y (luminance signal, the luminance level) = KrR + KgG + KbB), according to, the sum of the absolute value of each K Factor is defined as Y-weight.

또한 상기 Kr, Kg, Kb 값들은 각각의 RGB 신호에 대한 weight factor를 나타 내며, 각 픽셀에서 상기 Weighting factor들이 달라지는 이유는 각 픽셀의 Y(Luminance)값이 틀리기 때문에 그 Y값을 R,G,B를 이용하여 표현하기 위해서는 상기 R,G,B앞에 붙는 계수(Kr, Kg, Kb)가 서로 달라져야만 한다. Further, the Kr, Kg, Kb values ​​are the Y values ​​because naemyeo receive a weight factor, the reason that the Weighting factor varies in each pixel teulrigi the Y (Luminance) values ​​for each pixel for each of the RGB signals R, G, in order to express by using the B and only the dalrajyeoya each other coefficients (Kr, Kg, Kb) preceded by the R, G, B.

또한 본 발명의 실시예를 디스플레이 수단에서 출력되는 영상을 기준으로 설명하였으나, 종이, 사진등에 있는 대상에 대해서도 적용가능하다. Also it has been described based on the image that is output to an embodiment of the present invention in the display means, and is applicable also to the destination, etc. Paper, Photo.

또한 본 발명에서 언급되는 객체 또는 대상은 같은 의미라 할 수 있다. In addition, it the object or target to be referred to in the present invention are interchangeable.

도 1은 본 발명이 구현되는 디스플레이 수단의 구성의 하나의 실시예 블럭도(100)이다. 1 is a block diagram of one embodiment 100 of a structure of the display device to which the present invention is implemented.

도 1에 나타난 바와 같이, 스트림 영상(video)이 디스플레이되는 출력부(110와, 상기 출력부에서 출력되는 영상에 대해 사용자 선택/또는 객체인식기능설정에 따라 자동동작으로 Y-weight가 저장되는 메모리부 (120)와, 상기 영상 및 다른 영상을 시청중에 상기 선택된 또는 선택될 대상의 Y-weight를 각각 도출하기 위한 사용자 명령을 입력하는 입력부와, 상기 도출된 각 Y-weight를 비교하여 대상을 인식하도록 제어하는 제어부(130);를 포함하여 동작한다. As shown in Fig. 1, the stream image memory (video) is a Y-weight saving automatic operation according to a user selection / or object recognition function set for the output unit (110 being displayed, an image that is output from the output section recognizing the target by comparing the portion 120, the video and the other said selected or the Y-weight of the object to be selected and input unit for inputting a user command for deriving each of the obtained respective Y-weight of the image in the viewer It operates, including; the control unit 130 for controlling to.

상기 구성 이외에도, 데이터를 처리하는 처리부(140)와, 리모콘 명령 또는 내/외부 신호를 수신하기 위한 수신부(170) 및 내/외부에 신호를 송신하기 위한 송신부(150)를 포함한다. In addition to the above configuration, a processing unit 140, a remote control command or transmitting section 150 for transmitting a signal to the receiving unit 170 and the inside / outside for receiving the internal / external signal processes the data.

도 2는 본 발명에 따른 하나의 동작 실시예 흐름도이다. Figure 2 is a flow chart of an operation example according to the present invention.

도면 2(a)에서 보는 바와 같이, 미리 정한 해상도(픽셀)를 가진 출력수단(미도시)에서 출력되는 스트림 영상중 사람의 얼굴(200)을 객체로써 선택하고, 상기 선택된 객체 중에서, 특정영역으로써 눈(210)을 선택하였다. In the figure 2 (a) to view, select as the object face 200 of the person of the stream image being output on the output means (not shown) having a predetermined resolution pixels, as described in, and the selected object, as the specific area eyes 210 were selected. (필요시 눈동자를 선택할 수 있다). (You can choose the eye if necessary).

즉, Stream중에서 사람 눈(Eye)를 객체/대상(Object)로 설정하고 해당 Pixel의 Y-weight값을 계산한다. In other words, setting the human eye (Eye) in a Stream to the object / subject (Object), and calculates the Y-weight value of the Pixel. (S 201). (S 201).

상기 계산된 Y-weight값을 도 1의 메모리부(120)에 저장한다. And the calculated Y-weight value is also stored in the memory unit 120 of FIG. (S 203). (S 203).

상기 저장되는 Y-weight값에 인물의 이름, 출연 작품들을 도 6과 같이 mapping 시킨다. Thereby mapping as shown in Figure 6 the storage of names, appearance of the person works on Y-weight value. (S 205). (S 205).

그리고 만약 미래에 다른 영화, 방송, 프로그램에서도 Y-weight값을 계산한 경우, 상기 저장된 data와 비교하여 같은 객체(인물)인지를 확인한다. And if the calculated weight of Y-value in the other film, broadcast, programs in the future, it is checked whether the object (person), as compared with the stored data. (S 207). (S 207).

한편, 상기 도 2(a)와 같은 방법에 의거 도출된 Y-weight값만에 의해서는 비교가 어려울 경우에는, 도 2(b)에 나타난 바와 같이, 상기 도 2(a)에 의거 정해진 object의 pixel을 x2, x4, x8등으로 키워서(220) 그 변별력을 높여, 다시 Y-weight 값을 계산할 수 있다. On the other hand, FIG. 2 (a) and in the case difficult to compare due to the Y-weight value derived based on the same way, Fig. 2 (b), wherein Fig. 2 (a) pixel in accordance with given object in, as shown in the x2, x4, x8, such as increasing the discrimination by kiwoseo 220, may again calculate the Y-weight value. (S 209, S 211). (S 209, S 211). 이후 단계는 S 205 및 S 207와 같다. After step S 205, and S is equal to 207.

또한 상기 도 2 (a),(b)에 의해서도 비교의 정확도가 떨어질 경우에는 두 눈의(210,230) Y-weight값을 모두 계산하여, 두개 값을 평균값 data로써 저장한다. In addition, the Figure 2 (a), if reduce the accuracy of the comparison by the (b), all of the (210,230) Y-weight values ​​of the eyes calculated, and stores the two values ​​as the average value data.

따라서 두 개 data의 평균값이니만큼 정확도가 높아질 수 있다. Therefore, the accuracy can be increased by the average of the two am data. (S 213). (S 213).

이후 단계는 S 205 및 S 207와 같다. After step S 205, and S is equal to 207.

본 발명의 이해를 확실히 하기 위해 상기와 같은 본 발명의 실시에 따른 관련 내용을 아래에 같이 기술한다. To assure the understanding of the present invention will be described as below the relevant information according to the embodiment of the present invention as described above.

상기한 바와 같이 각 대상의 영역을 구분하기 위해 Y-weight를 이용한다. Use a Y-weight to separate the area of ​​each target, as described above.

일반적으로, 모든 Luminance(color 신호)는 R,G,B의 조합으로 표현이 가능하다. In general, all Luminance (color signals) R, G, can be expressed as a combination of B.

Y=KrR + KgG + KbB, 여기서 Kr, Kg, Kb 값들이 각각의 RGB 신호에 대한 weight factor이며, 각 K Factor의 절대값의 합을 Y-weight라고 한다. Y = KrR KgG + + KbB, wherein a Kr, Kg, Kb values ​​are weight factor for each of the RGB signals, the sum of the absolute value of each K Factor is referred to as Y-weight.

또한 1 frame의 video stream에서 모든 pixel에 대한 Y-weight값을 도 1의 처리부(비디오 처리부)에서 구할 수 있다. Also it can be obtained from the processing unit (video processor) of Figure 1 the Y-weight value for every pixel in the video stream of the first frame. 즉 각 pixel들에 각각의 고유의 Y-weight값을 메길(부여) 수 있다. I.e. can megil (grant) for each unique Y-weight values ​​of the respective pixel.

따라서 특정 블록 영역의 pixel을 잡아서 (예를 들어, 8x8 개의 pixel 단위로 블록을 잡아서 총 64개의 pixel에 대한 Y-weight값을 구할 수 Therefore, the catch of a particular pixel block areas (for example, grasp the block of 8x8 pixel units to be determined the Y-weight value for the total of 64 pixel

있으며, 상기 값을 이용하여 그 블록의 전체 pixel에 대한 Y-weight값의 합을 구할 수 있다. And, using the value can be calculated the sum of the Y-weight value for the whole pixel of the block. 따라서 고유의 특정한 값이 산출될 것이기에, 상기 고유한 Y-weight값으로 구분 또는 판별이 가능할 수 있다. Thus geotyigie a specific value unique to be generated, there is a break or be possible to determine the unique Y-weight value.

부연하면, display되는 화면의 해상도가 1024x1080p라고 할 때,전체 픽셀(화소)의 개수는 1024X1080개가 된다. When words, when that of the display screen, a resolution of 1024x1080p, the total number of pixels (pixel) is a dog 1024X1080. 전체 픽셀의 각각의 Y-weight값을 구할 수도 있다. It may be obtained for each Y-weight values ​​for the entire pixels.

그러나 너무나 많은 픽셀에 대해 계산을 하게 되므로, 사용자가 임으로 정하게 하거나, 펌웨어 상에서 아예 처음부터 8x8(8by8), 16x16(16by16) 이렇게 정하여 계산을 할 수도 있다. But so too will the calculations for the number of pixels, the user may arbitrarily be cleansed, or even from the beginning on the firmware 8x8 (8by8), 16x16 (16by16) so appointed calculations. 예를 들어 8by8로 정했다고 하면, 64개의 픽셀이 포함된다. For example, that defined as 8by8, it includes 64 pixels.

이때, (1)각각의 픽셀에 대하여 Y-weight값을 구할 수 있을 것이고, 그 후에 각 64개의 각 Y-weight값을 구하여 더하면 8by8로 지정한 블록의 전체 Y-weight값을 구하게 된다.(64개 픽셀값 각각의 전체 또는 평균으로 비교하여 대상을 인식함) In this case, (1) will be able to obtain the Y-weight value for each pixel, and then adding obtain each 64 each Y-weight value is rescued the entire Y-weight values ​​of the block specified by the 8by8. (64 gae compared to the average of all or each of the pixel values ​​must recognize the target)

한편, (2) 각 64개의 Y-weight값을 구해서 순서대로 읽어서 그 값들은 순차적으로 기억할 수도 있다. On the other hand, (2) obtain the respective 64 Y-weight value read in the order the values ​​may be stored in sequential order. 그래서 다음에 비교할 새로운 8by8 블록과 차례대로 비교를 해서 찾을 수도 있다. So, as can be found by comparing the new block and 8by8 times compared to the next. (64개 각 픽셀값의 순서에 의거 대상을 인식함) (Also 64 recognizes the destination on the basis of order of the pixel value)

상기의 본 발명에서 비교 대상을 눈으로 선정한 이유는 다음과 같다. The reason the selected comparison target in the eyes of the present invention are as follows.

결론부터 기술하면 사람의 형체 중에서 변별력이 높은 부분들 중 하나를 선택한 것으로 써, 사용자마다 달라질 수 있을 것이다. If the conclusion from technical writing to the selected one of the high discrimination part from the shape of the person, will be different for each user.

다만 예를 든 경우로 써, 인물 중에서 그래도 가장 unique한 상태를 유지하는 부분이 눈이라고 생각했기 때문이다. For just written in either case, but among people is because I think part of the eye that maintains the most unique state. 사람마다 눈동자는 다르게 생겼고 color도 다르기 때문에 unique 하다고 생각한다. Each person thinks differently is unique because the eye color also looked different. 눈동자만 해도 pixel블록으로 잡으면 매우 큰 범위 이기 때문에 Y-weight값은 대게 같은 값으로 수렴할 것이다. Since the eye alone, Holding the pixel block is very large range Y-weight value will usually converge to the same value.

다른 예로써 사람마다 얼굴의 외곽선도 모두 다르기 때문에, 얼굴의 외곽선에 해당하는 pixel만 뽑아서 Y-weight값을 구한다면, 이 또한 unique한 값을 가질 것이다. Because everyone is different even the outline of each person's face as another example, if only pulling pixel corresponding to the outline of the face, the old Y-weight value, this will also have a unique value.

좀 더 대상을 확실하게 구분할 수 있도록 부연하면, 조명, 화장등에 의한 문제점을 최소화 하기 위해서 그 화면에서 color 신호 성분을 모두 제거하면, 휘도(Y) 신호 성분만 남는다. When a more elaborate to reliably distinguish between a target, removing all of the color signal component from the screen to minimize the problems caused by light, make-up, the luminance (Y) signal component only remains. Color가 모두 제거되었기 때문에 화장 등에 의한 color구분은 없어지고,눈모양 자체만 남게 된다. Color has been removed because all color cosmetic ninth such disappears, leaving only the eye itself. 이때 Y-weight값을 구하면 좀더 확실한 구분 방법이 될 것이다. In this case ask the Y-weight value will be more obvious way nine minutes.

눈/눈동자의 경우 해상도가 떨어지는 display의 경우에는 구분하기가 어려울 수 있는데, 얼굴 외곽선의 경우는 구분이 확실히 되며, 얼굴칼라와 非얼굴칼라 사이의 chrominance값이 확연히 틀리기 때문에 구분이 확실할 수 있다. For the eyes / eye if the falling display resolution, may be difficult to distinguish, in the case of the face outline is distinction can certainly be, to separate reliably because the chrominance values ​​between the face color and 非 face color teulrigi significantly.

따라서 대상을 선정시, 머리카락등으로 눈옆, 귀옆 라인은 가려지기도 하기 때문에, 코를 기준으로 코보다 낮은 부위인 얼굴 외곽선의 Y-weight를 이용하여 비교하는 것도 하나의 좋은 방법이라 생각한다. Therefore, due to accentuated nunyeop, gwiyeop line is obscured by selecting a destination city, hair, and think it a good idea to compare based on the co-use of the Y-weight of the lower part of the face outline than the nose.

한편, 본 발명의 다른 실시예로써, 각 셀들을 수백배 줌인해서 보면 인접한 셀끼리는 거의 색이 똑같다. On the other hand, as another embodiment of the present invention, almost the same color with each other by looking at hundreds of times zoom-in adjacent cells of each cell. 따라서 weighting factor마저도 비슷한 값이 나온다면 Y-weight가 구별되지 않는다. Therefore, weighting factor does not even distinguish between the Y-weight if similar values ​​shown. 이 경우에는 각각의 픽셀로 비교하지 않고, 예를 들어 10개 픽셀마다 한 픽셀씩만 골라내어 비교한다면 더 변별력이 생길 수도 있을 것이다. In this case, if the comparison does not compare to each of the pixels, for example, every ten pixels ssikman pick out a pixel might lead to better discrimination.

도 3은 본 발명의 다른 실시예 흐름도이다. 3 is a flowchart illustrating another embodiment of the present invention.

화면 Frame 전체를 기준이 되는 단위 Pixel로 구분한다. It divides the entire screen into Frame Pixel unit as a reference. (S 301). (S 301).

상기 수학식 1에 의거 단위 pixel의 각 Y-weight 값을 계산한다. Calculate the weight of each Y-value of the unit pixel according to Equation (1). (S 303). (S 303).

Stream중에서 사람 눈(Eye)를 Object로 설정하여, Eye 블록에 대한 Y-weight 를 Memory부에 저장한다. Setting the human eye (Eye) in a Stream, Object to be stored in the Y-weight for Eye blocks on the Memory section. (S 305, S 307). (S 305, S 307). 만약 User가 다른 대상에 대해서도 Y-weight 을 저장하기를 원하는 경우, 반복적으로 계산하여 저장한다. If the User wishes to store the Y-weight for the other destination, and stores the calculated repeatedly. (S 309). (S 309).

상기와 같은 동작 이후에, User가 다른 방송에서 같은 인물을 발견한 경우, Object로 선정된 stream pixel 블록의 Y-weight값을 계산하고, 상기 단계에서 저장 된 Y-weight값과 비교하여, 가장 가까운 Y-weight값 또는 가까운 복수의 Y-weight값에 해당하는 data를 제시하여, 사용자가 최종 판단하도록 한다. After the operation described above, if the User is found, the person in another broadcast, by calculating the Y-weight value of the stream pixel block selected as the Object, and compared to the Y-weight value is stored in the above step, the closest to present a Y-weight value or data corresponding to the plurality of Y-weight value close to, and to the end-user is determined. (S 311-S 319). (S 311-S 319).

물론 해당 대상을 직접 디스플레이 할 수도 있다. Of course, you can directly display its target.

도 4는 본 발명의 영상 객체 인식을 수행하는 것을 나타낸 다른 흐름도이다. Figure 4 is a flow diagram illustrating another to perform image recognition object of the present invention.

미리 정한 해상도가 출력되는 디스플레이 수단(도 110)에서 제 1 영상이 출력된다. A first image on the display means (Fig. 110) where the predetermined output resolution is output. (S 401). (S 401).

상기 영상중에서 특정 대상(예를 들어 사람)의 특정 영역 (예를 들어, 눈/얼굴 외곽선)을 선택한다. The image (for example man) in a particular subject selects a particular region (e. G., Eye / face outline) of. (S 403). (S 403). 상기 특정영역의 전체 또는 미리 정한 부분(8by8)의 픽셀의 각 Y-weight를 상기 수학식 1에 의거 계산한다. The Y-weight for each pixel of the full or partial (8by8) determined in advance of the specific region is calculated based on the equation (1). (S 405). (S 405).

상기 도출된 Y-weight 및 상기 값의 영상에 관련된 정보(출연프로그램내용,배우이름등)를 도 1의 메모리부에 저장한다. Information (starring program contents, actor's name, etc.) associated with the image of said derived weight and the Y-value is stored in the memory portion of Fig. (S 407). (S 407).

이후 상기 제 1 영상과 다른 제 2영상에서 특정영역을 선택한 경우(S 409), 상기 S 405단계의 동작을 수행하여 상기 제 2 영상의 특정영역의 Y-weight를 구하여 상기 저장된 제 1영상의 Y-weight와 비교한다. If after in the first image and a second, different image to select a specific area (S 409), the S to perform the operations of step 405, obtain the Y-weight of a particular region of the second image Y of the first image of the stored compared with -weight. (S 411). (S 411). 사용자가 미리 설정한 오차 이내에 해당하는 제 1 영상의 객체 정보를 디스플레이 한다. It displays the object information of the first image that corresponds within a preset tolerance. (S 413). (S 413).

이후 User가 판단한다. After the User is determined. (S 415). (S 415).

도 5는 상기 도 4의 S 405단계에서의 영역의 픽셀 Y-weight를 구하여 저장하는 것을 나타내는 흐름도이다. 5 is a flow chart showing storing obtain the pixel Y-weight of the region in step S 405 illustrated in FIG.

상기 영역 중, 사용자가 선택한 일부 픽셀의 각 Y-weight를 구하여 더하여 구하거나 (S 501), 각 픽셀의 Y-weight를 구하여 모두 합해 영역 전체에 대한 Y- weight를 구할 수도 있을 것이다. The area will be of, a user can obtain the Y- weight of the entire sphere is obtained by adding the weight of each Y-select some of the pixels, or (S 501), all in conjunction obtain the Y-weight of each pixel region. (S 503). (S 503). 상기 구해진 합을 합으로써 비교하거나, 하나하나 값을 순서대로 저장하여 그 순서에 의거 두개의 영상에서의 각 대상을 비교할 수도 있다. Comparing the sum calculated as the sum of the, or one by one in order to store the value may be compared to each target in the two images based on the order.

도 6은 사용자가 선정한 특정객체/영역의 각 픽셀의 Y-weight와, 그에 관련된 프로그램 정보가 메모리에 저장된 상태를 나타낸 도면이다. 6 is a view showing the state with the user and Y-weight of each pixel in the selection of a particular object / area, the program information associated with it stored in memory.

도 7은 새로운 영상을 보다가 사용자의 선택에 의거 해당 객체/영역의 Y-weight가 계산되고, 상기 도 6과 같이 저장된 데이터와의 비교를 통해 출력되는 형태의 하나의 실시예이다. Figure 7 is one embodiment of a form that is output via a comparison between the data and stored as a more new images according to the user's selection is Y-weight of the object / area is calculated, and the FIG. 여기에서 바로 해당 대상을 보여 줄 수도 있고, 오차 범위내의 여러 대상을 보여주어 사용자가 선택할 수도 있을 것이다. Here may give the right to show its target, it will give the user can select to show multiple targets within the tolerance range.

상기한 바와 같이, 본 발명에 의하면, Video Stream이 Display되는 중에, 영상화면을 Pixel 단위(1024x1080)로 분할하고, 특정 대상의 영역(예를 들어 인물의 얼굴 중에서 항상 일정한 색(color)과 모양을 유지하는 block(예를 들어 눈동자 또는 얼굴의 외곽선)의 Pixel을 선택하고, 상기 선택된 Pixel의 Y(Luminance)-weight값을 메모리에 저장한 상태에서, 다른 미디어 또는 방송에서 어디서 본 듯한 대상에 대해 확인을 하고자 하는 경우, 상기 저장된 Y-weight값을 불러와 현재 대상 stream의 Y-weight값을 서로 비교하여 객체(대상)을 인식할 수 있다. As it described above, according to the present invention, in which the Video Stream Display, dividing the picture screen into Pixel unit (1024x1080), and the specific subject region (e.g., always constant color (color) and shape from the person's face, in the selection of the Pixel holding block (for example, outlines of the eyes or face) to and saved the Y (Luminance) -weight value of the selected Pixel the memory status, check for where the animated object in another media or broadcast , the stored Y-weight value can be loaded and recognize the object (target) as compared to each other, the Y-weight value for the current target stream if you want to.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다. Above, a preferred embodiment of the present invention described above is, as disclosed for illustrative purposes, those skilled in the art, the following improvements of within the technical idea and the technical scope of the present invention, other various embodiments disclosed in the accompanying claims It will be possible to change, replace or add, etc.

본 발명에 의하면, 영화를 감상하는 경우등에 있어서, “저 주인공 어디서 나왔더라?” 또는 전에 보았던 장면들이 궁금할 때, 바로 확인이 가능하다. According to the present invention, there is provided, for example, if you are watching a movie, "he came where that character?" Or, it is possible to see it immediately when they saw curious scene before.

이로 인해 사용자의 지식을 높일 수 있고, 출력되는 영상을 효과적으로 즐길 수 있다. This can increase the user's knowledge, it is effective to enjoy the video output.

Claims (14)

  1. 출력부에 영상이 출력되는 단계; Step in which an image is output to the output unit;
    상기 출력되는 영상에서 적어도 하나 이상의 대상을 선택하는 단계; The method comprising at least a select one or more target images in the output;
    상기 대상에서 적어도 하나 이상의 영역을 선택하는 단계 ; The method comprising at least a select one or more regions in the target;
    상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting the region; And
    상기 Y-weight 및 상기 영상을 나타내는 정보를 저장하는 단계; The Y-weight, and storing the information representing the image; 를 포함하며, It includes,
    모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 방법. According to represent all Luminance (color signal) of a combination of R, G, B, as follows, Y = KrR KgG + + KbB, Y-weight is the sum of the absolute values ​​in the equation, each K Factor as described above Y- video object recognition method comprising defined as the weight.
  2. 출력부에 제 1영상이 출력되는 단계; To the output step in which the first picture is output;
    상기 출력되는 영상에서 적어도 하나 이상의 대상을 선택하는 단계; The method comprising at least a select one or more target images in the output;
    상기 대상에서 적어도 하나 이상의 영역을 선택하는 단계 ; The method comprising at least a select one or more regions in the target;
    상기 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting the region;
    상기 Y-weight 및 상기 영상을 나타내는 정보를 저장하는 단계; The Y-weight, and storing the information representing the image;
    출력부에 출력된 제 2 영상에서 상기 제 1 영상의 대상에 대응되는 대상을 선택하는 단계; In the second image output to the output unit selecting a destination corresponding to the destination of the first image;
    상기 대상에서 상기 제 1 영상의 대상 영역에 대응되는 영역을 선택하는 단계 ; Selecting a region corresponding to the region of the first image from the target;
    상기 제 2영상의 영역을 구성하는 복수개의 픽셀들의 Y-weight를 계산하는 단계; Calculating a Y-weight of the plurality of pixels constituting an area of ​​the second image;
    상기 제 1 영상의 Y-weight와 상기 제 2영상의 Y-weight를 비교하는 단계; Comparing the Y-weight of the second image and the Y-weight of the first image; And
    상기 비교를 통해 객체를 인식하는 단계; Recognizing an object with the comparison; 를 포함하며, It includes,
    모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 방법. According to represent all Luminance (color signal) of a combination of R, G, B, as follows, Y = KrR KgG + + KbB, Y-weight is the sum of the absolute values ​​in the equation, each K Factor as described above Y- video object recognition method comprising defined as the weight.
  3. 제 1항 또는 제 2항에 있어서, 상기 영역을 구성하는 픽셀들의 Y-weight 계산은 상기 영역의 전체 픽셀에 대해 수행하는 것을 특징으로 하는 영상 객체 인식 방법. The process of any of the preceding claims, Y-weight calculation of the pixels constituting the image area is an object recognition method, characterized in that for performing the entire pixels of the region.
  4. 제 1항 또는 제 2항에 있어서, 상기 영역을 구성하는 픽셀들의 Y-weight 계산은 상기 영역의 전체 픽셀 중 적어도 하나 이상의 픽셀에 대해 수행하는 것을 특징으로 하는 영상 객체 인식 방법. The process of any of the preceding claims, Y-weight calculation of the pixels constituting the image area is an object recognition method, characterized in that to perform for at least one or more pixels of the total pixels in the zone.
  5. 제 2항에 있어서, 계산 및 저장된 Y-weight로 인식이 어려운 경우에는, 해당 대상 또는 픽셀을 미리 정한 배수로 확대하여 Y-weight를 도출하여 인식을 수행하는 것을 특징으로 하는 영상 객체 인식 방법. The method of claim 2, wherein in the case where recognition is difficult to calculate and the stored Y-weight, image object recognition method, characterized in that to derive the Y-weight set-up in advance by a multiple of the target pixels or to perform recognition.
  6. 제 2항에 있어서, 계산 및 저장된 Y-weight로 인식이 어려운 경우에는, 해당 대상 또는 픽셀에 대응하는 다른 대상/픽셀의 Y-weight를 도출한 것을 이용하여인식을 수행하는 것을 특징으로 하는 영상 객체 인식 방법. The method of claim 2, wherein the calculated and stored when Y-weight recognition is difficult, the video objects, characterized in that using the one deriving a Y-weight of other target / pixel corresponding to the target or the pixel to perform a recognition how to recognize.
  7. 삭제 delete
  8. 제 1항에 있어서, 상기 Kr, Kg, Kb 값들은 각각의 RGB 신호에 대한 weight factor인 것을 특징으로 하는 영상 객체 인식 방법. 2. The method of claim 1, wherein Kr, Kg, Kb values ​​are video object recognition method, characterized in that the weight factor for each of the RGB signals.
  9. 제 8항에 있어서, 각 픽셀에서 상기 Weight factor들이 달라지는 이유는각 픽셀의 Y(Luminance)값이 틀리기 때문에 그 Y값을 R,G,B를 이용하여 표현하기 위해서는 상기 R,G,B앞에 붙는 계수가 서로 달라지게 되는 것을 특징으로 하는 영상 객체 인식 방법. 10. The method of claim 8, wherein in each pixel the Weight factor are varied reasons attached to express by using the Y value of the R, G, B due teulrigi the Y (Luminance) values ​​of each pixel in front of the R, G, B image object recognition method characterized in that the coefficient becomes to stick together.
  10. 제 1항 또는 제 2항에 있어서, 상기 영상을 나타내는 정보의 저장은 출연자 이름 또는 출연 작품의 정보가 적어도 하나 이상 포함되는 것을 특징으로 하는 영상 객체 인식 방법. According to claim 1 or 2, wherein the storage of the information representing the video image object recognition method characterized in that the information on the cast or names that have at least one of the work appeared.
  11. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교하여, 복수개의 대상 정보를 디스플레이하여 사용자가 선택할 수 있는 것을 특징으로 하는 영상 객체 인식 방법. The method of claim 2, wherein the first image of the Y-weight and image object recognition method by comparing the Y-weight of the second image, characterized in that to display a plurality of destinations for a user-selectable.
  12. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교시, 해당 픽셀의 총합을 비교하여 대상 정보를 디스플레이하는 것을 특징으로 하는 영상 객체 인식 방법. The method of claim 2, wherein the image object recognition method that is characterized in that to the Y-weight of the second image and the Y-weight of the first video image compared to the comparison, the total sum of the pixel displaying the target information.
  13. 제 2항에 있어서, 상기 제 1 영상의 Y-weight와 상기 제 2 영상의 Y-weight를 비교시, 해당 픽셀들의 Y-weight 순서에 의거 비교하여 대상 정보를 디스플레이하는 것을 특징으로 하는 영상 객체 인식 방법. The method of claim 2, wherein the image object recognition, characterized in that the second after the first compares the Y-weight and Y-weight of the second image of the video, as compared based on Y-weight order of the pixels displaying the destination information Way.
  14. 영상이 디스플레이 되는 출력부; Where the image is displayed output;
    상기 출력부에서 출력되는 영상을 나타내는 Y-weight가 저장되는 메모리부; A memory unit which is Y-weight that represents the image output from the output unit is stored;
    상기 Y-weight를 도출하기 위한 사용자 명령을 입력하는 입력부; Input unit for inputting a user instruction to derive the Y-weight;
    상기 영상에 대응되는 다른 영상의 Y-weight를 도출하여 상기 저장된 Y-weight와 비교를 통해 대상을 인식하는 것을 수행하는 제어부;를 포함하며, Includes; a controller for performing that to derive the Y-weight of the other image corresponding to the image by comparison with the stored Y-weight the recognition target
    모든 Luminance(color 신호)를 R,G,B의 조합으로 다음과 같이 표현하는데 있어서, Y=KrR + KgG + KbB, Y-weight는 상기와 같은 식에서, 각 K Factor의 절대값의 합을 Y-weight라고 정의하는 것을 특징으로 하는 영상 객체 인식 장치. According to represent all Luminance (color signal) of a combination of R, G, B, as follows, Y = KrR KgG + + KbB, Y-weight is the sum of the absolute values ​​in the equation, each K Factor as described above Y- image object recognition apparatus characterized in that it is defined as weight.
KR20080112961A 2008-11-13 2008-11-13 Apparatus and method for identifying video object KR101025651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Publications (2)

Publication Number Publication Date
KR20100054034A true KR20100054034A (en) 2010-05-24
KR101025651B1 true KR101025651B1 (en) 2011-03-31

Family

ID=42278873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080112961A KR101025651B1 (en) 2008-11-13 2008-11-13 Apparatus and method for identifying video object

Country Status (1)

Country Link
KR (1) KR101025651B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program

Also Published As

Publication number Publication date Type
KR20100054034A (en) 2010-05-24 application

Similar Documents

Publication Publication Date Title
US6163621A (en) Histogram equalization method and device in contrast enhancement apparatus for image processing system
US20080273765A1 (en) Image storage device, imaging device, image storage method, and program
US20110221920A1 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
US20080117307A1 (en) Image capture apparatus, image display method, and program
US7129980B1 (en) Image capturing apparatus and automatic exposure control correcting method
US20080131109A1 (en) Imaging Device
US20060232681A1 (en) Image recording/reproducing apparatus, image pick-up apparatus, and color aberration correcting method
US20080002028A1 (en) Imaging apparatus and computer readable recording medium
US20090161982A1 (en) Restoring images
US20120236162A1 (en) Image processing apparatus with function for specifying image quality, and method and storage medium
US20050151884A1 (en) Automatic zoom apparatus and method for playing dynamic images
US20100080464A1 (en) Image controller and image control method
US20120019563A1 (en) Information display apparatus, information display method and recording medium
US7796827B2 (en) Face enhancement in a digital video
JP2010028608A (en) Image processor, image sensing device, reproducer and method for processing image
US20090252379A1 (en) Information processing apparatus, information processing method, program, and recording medium
US20060228102A1 (en) Photographing apparatus and method for compensating brightness of an image
US20050168614A1 (en) Image pickup device and chromatic aberration correction method
US20110145883A1 (en) Television receiver and method
CN103986874A (en) Image acquiring device, method and terminal
US20070165115A1 (en) Target detecting apparatus, image file recording apparatus and methods of controlling same
JP2007274207A (en) Image display device, image pickup device, and image display method
US20100318941A1 (en) Electronic device
JP2008193342A (en) Imaging apparatus and program thereof
US20100110235A1 (en) Apparatus, method and software stored on a computer-readable storage medium, for reducing noise in an image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160224

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee