KR20040011903A - A motion picture encoding method based on human recognition capability and scenario or image similarity - Google Patents

A motion picture encoding method based on human recognition capability and scenario or image similarity Download PDF

Info

Publication number
KR20040011903A
KR20040011903A KR1020020045203A KR20020045203A KR20040011903A KR 20040011903 A KR20040011903 A KR 20040011903A KR 1020020045203 A KR1020020045203 A KR 1020020045203A KR 20020045203 A KR20020045203 A KR 20020045203A KR 20040011903 A KR20040011903 A KR 20040011903A
Authority
KR
South Korea
Prior art keywords
frames
video
frame
information
similarity
Prior art date
Application number
KR1020020045203A
Other languages
Korean (ko)
Inventor
최두현
Original Assignee
최두현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최두현 filed Critical 최두현
Priority to KR1020020045203A priority Critical patent/KR20040011903A/en
Publication of KR20040011903A publication Critical patent/KR20040011903A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Abstract

PURPOSE: A method for encoding moving picture files considering the similarity of a script or video, and the recognition ability of a human being is provided to compress frame by frame, and use index vectors as recognition ability and similarity information, thereby preventing pictures from being broken. CONSTITUTION: Pictures of 0th to 10th frames are moving pictures processed by 30 frames per second and it is assumed that 6th to 10th frames are the same as 0th to 5th frames. If only 15 frames are encoded per second, the pictures of 0th, 2nd, 4th, 6th, 8th, and 10th frames are extracted. The 0th frame has the similarity with the 6th frame, the 2nd with the 8th frame, and the 4th frame with the 10th frame, thereby finally necessary picture information are the 0th, 2nd, and 10th frames.

Description

대본 혹은 영상의 유사성과 사람의 인지 능력을 고려한 동영상 파일 인코딩 방법 {A motion picture encoding method based on human recognition capability and scenario or image similarity}A motion picture encoding method based on human recognition capability and scenario or image similarity}

일반적으로 동영상은 순차적인 여러 장의 정지 영상으로 구성되어 있는데, 이때 각각의 영상은 프레임(frame)이라고 부른다. 즉, 동영상은 순차적인 프레임들로 구성되어 있는 것이다. 동영상의 인코딩 방법에 대해서는 많은 연구들이 진행되어 왔고, 현재도 다양한 연구가 진행 중이다. 이러한 연구는 국내외에서 개인 혹은 개별 기업에 의해 연구가 진행되기도 하고, 다양한 형태로 범 국가적인 연구단체를 결성하여 이를 중심으로 연구 및 개발이 진행되기도 한다. 그 중 가장 대표적인 단체는 MPEG (Moving Picture Experts Group)이다. MPEG을 중심으로 동영상 분야의개인 전문가 및 회사들이 모여서 전세계적인 동영상 파일의 표준을 정하였는데, 이 단체에서 발표한 표준으로는 Mpeg, Mpeg-2, Mpeg-4, Mpeg-7 등이 있다. 현재는 주로 Mpeg-4 혹은 이를 일부 수정하여 제작된 동영상 파일들이 주로 인터넷에서는 이용되고 있고, 방송용 혹은 일반 미디어 용(DVD)으로는 Mpeg-2가 사용되고 있다. 이외에 다양한 개발자 혹은 개별 회사에 의해 다양한 형태의 인코딩 기법들이 발표되고 사용되어지고 있다. 형태는 다양하지만, 기술적으로 대부분의 동영상 파일 인코딩(encoding) 방법은 1) 중간 중간의 정지 영상 압축, 2) 정지 영상 사이의 보간을 통한 영상 압축, 3) 배경과 물체 혹은 배경 내의 물체 (object)를 분리하여 각 물체 자체 및 물체의 움직임 정보를 이용 (모션 추정)하여 압축하는 방법들을 이용하고 있다. 즉, 대부분의 동영상 파일 인코딩 방법은 크게 보면 나열한 세가지 기술 중 일부 혹은 전부를 “정보는 최대한 보존하고 동영상 파일의 크기는 최소로 줄이자”라는 목표를 위해 다양한 형태로 적용하고 있는 것이다. 인터넷의 보급이 대중화 되어 있는 현 상황에서는 네트웍을 통한 전송의 효율성을 위해서 부가적으로 파일이나 외부의 요소들(주로 스트리밍 서버가 이 일을 담당한다.)을 추가하게 된다. 동영상 파일 자체에 전송속도 등과 같은 네트웍 정보를 이용하여 전송할 수 있게 하기위한 정보들이 제공되면 네트웍 환경에서 동영상 파일을 사용하는데 유리한데, 일부 인코딩 기법들은 이러한 정보를 실제로 제공한다.In general, a video is composed of several sequential still images, each of which is called a frame. That is, the video is composed of sequential frames. Many researches have been conducted on the video encoding method, and various researches are still underway. Such research may be conducted by individuals or individual companies at home and abroad, and research and development may be carried out by forming a national research organization in various forms. The most representative of them is the Moving Picture Experts Group (MPEG). Specialists and companies in the video field gathered around MPEG to set the standard for global video files. The standards announced by the organization include Mpeg, Mpeg-2, Mpeg-4, and Mpeg-7. Currently, Mpeg-4 or video files produced by modifying some of them are mainly used on the Internet, and Mpeg-2 is used for broadcasting or general media (DVD). In addition, various types of encoding techniques have been announced and used by various developers or individual companies. Although various forms exist, technically, most video file encoding methods are 1) intermediate still image compression, 2) image compression through interpolation between still images, and 3) background and objects or objects within the background. Are separated and compressed using motion information (motion estimation) of each object itself. In other words, most video file encoding methods are applied in various forms to achieve the goal of "preserving the information as much as possible and reducing the size of the video file to the minimum" of the three techniques listed. In the current popularization of the Internet, additional files or external elements (mostly streaming servers do this) add to the efficiency of transmission over the network. If the video file itself is provided with information for transmission using network information such as transmission speed, it is advantageous to use the video file in a network environment. Some encoding techniques actually provide such information.

본 발명에서 이루고자 하는 과제는 크게 1) 정보를 유지하면서도 기존 동영상 파일보다 사이즈가 작고, 2) 사람의 인지 능력을 고려하며, 3) 네트웍 환경에유연하게 적용될 수 있는 새로운 동영상 인코딩 방법을 제안하고자 하는 것이다. 아울러 주로 Mpeg 계열에서 사용하는 프레임 간의 변화 혹은 프레임 간의 물체의 이동 정보를 이용하는 것은 피하고, 각 프레임 자체에 충실한 동영상 파일을 만들고자 하는 것이다. 이는 프레임간의 정보를 추출하는 것이 그렇게 용이하지도 않고, 또 각 프레임 사이의 변화 분에 대한 정보를 이용할 경우, 심하게 다이나믹한 (영상의 변화가 심한) 동영상의 경우는 오히려 정보량이 많아져서, 단순히 단일 프레임을 압축하는 것보다 오히려 파일의 크기는 커지고 인코딩과 디코딩에 더 많은 계산이 소요될 수도 있기 때문이다. 그래서 본 발명에서 사용하는 큰 틀은 모션 추정(motion estimation)이나 프레임 간의 보간(interpolation) 정보는 사용하지 않고, 각 프레임 자체를 있는 그대로 인코딩하여 심한 변화가 있는 동영상의 경우에도 전혀 동영상 정보의 손실 없이 인코딩하는 방법을 제시하고자 한다. 이는 Jpeg 영상을 순차적으로 합쳐 놓은 Mjpeg 이나 Jpeg2000 영상을 순차적으로 합쳐 놓은 Mjpeg2000 에서 취하는 방법이다. 여기에 부가적으로 프레임들 간의 전체 유사성 정보 (인덱스 벡터)와 인간의 인지 능력을 고려한 프레임 율 (frame rate; 초당 디스플레이 프레임 수)을 사용한다.The problem to be achieved in the present invention is largely 1) smaller than the existing video file while maintaining the information, 2) considering the human cognitive ability, 3) to propose a new video encoding method that can be flexibly applied to the network environment will be. In addition, it is to avoid using change information between frames or movement of objects between frames, which are mainly used in the Mpeg series, and to create a video file faithful to each frame itself. This is not so easy to extract information between frames, and when using information on changes between frames, the amount of information is increased in the case of a severely dynamic (high video change) video, so a single frame Rather than compressing the file, the file grows in size and may require more computation to encode and decode. Therefore, the large frame used in the present invention does not use motion estimation or interpolation information between frames, and encodes each frame as it is, so that even if there is a severe change in the video, there is no loss of video information at all. We will present a method of encoding. This is a method to be taken in Mjpeg 2000 in which Jpeg images are sequentially merged or Mjpeg2000 in which Jpeg2000 images are sequentially merged. In addition to this, the total similarity information between the frames (index vector) and the frame rate (frame rate per second) in consideration of the human cognitive ability are used.

(도 1) 인덱스 벡터를 추출하는 과정(Figure 1) Process of extracting index vector

(도 2) 고안된 동영상의 인코딩 방법을 나타낸 블록 다이어그램(Figure 2) Block diagram showing the encoding method of the proposed video

(도 3) (도 2)의 방법으로 제작된 동영상의 디코딩 순서 (Sequence)(Figure 3) Decoding sequence of the video produced by the method of (Figure 2)

(도 4) 실시간 동영상 송수신(Figure 4) Real-time video transmission and reception

본 발명은 동영상의 인코딩 방법에 대한 것이다. 본 발명의 방법으로 인코딩 된 파일은 크게 실제 영상 정보와 인덱스 벡터의 두 부분으로 나눌 수 있다.실제 영상 정보는 말 그대로 프레임을 그대로 Jpeg, Jpeg2000, 혹은 여타의 방법으로 압축한 것이다. 그리고 영상 인덱스 정보는 겹치는 영상이나 유사 영상 혹은 사람의인지 능력을 고려하여 실제 사용하는 영상의 인덱스가 되는 것이다. 본 발명에서 제안하는 동영상의 초당 프레임 수 (frame rate; 프레임 율)는 최대 18 프레임을 넘지 않는 것으로 하고 보통의 경우는 15 프레임 정도를 프레임 율로 한다. 사람의 인지 능력이 실제로 초당 18 프레임을 넘어서는 경우는 대부분 인식이 안되고, 실제적인 차이를 느끼기는 힘들기 때문에, 이를 기준으로 하여 더 이상 초당 프레임 수를 증가 시키지는 않는다. 예를 들어, 1 ~ 30 번 프레임의 영상을 동영상으로 만들려 하고, 원래의 프레임 율이 30 이라면 이 영상은 1초간의 동영상이다. 정상적인 인코딩 이라면 1 ~ 30 번 모두의 영상이 필요하지만, 인간의 인지능력을 고려하여 15 프레임만 사용한다면, 1, 3, 5, …, 29번 프레임의 15장 만으로 1초짜리 동영상을 만든다는 것을 의미한다. 사실상 이 차이는 인간의 지각으로 인지하기는 쉽지 않는 일이다. 영상 인덱스 벡터는 이런 정보를 보관하는 것이다. 영상에 따라서는 시간적으로 인접한 혹은 시간적으론 멀리 떨어져 있지만 유사한 영상이 있을 수 있다. 영화에서 과거를 회상하는 장면의 경우 이러한 영상의 중복으로 나타나게 된다. 본 발명에서는 이러한 정보도 인코딩에 이용하는데, 인덱스 벡터에 그러한 정보를 기술하게 된다. 예를 들어, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10번 영상이 초당 30 프레임으로 처리되는 동영상이고, 6 ~ 10 번 프레임이 0 ~ 5번 프레임 과 같다고 가정하자. 제안한 인코딩 방법에서는 초당 15 프레임 만을 인코딩 한다면, 우선 인지 능력을 고려해서 0, 2, 4, 6, 8, 10 의 영상이 추출되고, 추출된 영상들의 유사성은 0번과 6번, 2번과 8번, 4번과 10번 프레임이 같은 정보를 가지게 된다. 그러면, 최종적으로 필요한 영상 정보는 0, 2, 4번 프레임이고, 나머지는 해당 인덱스만 유지하면 된다. 만약 각 프레임이 10kbytes 라면, 110 kbyes 영상이 30 kbytes 로 압축되는 효과가 있는 것이다. 물론 부가적인 인덱스 정보는 있지만, 그 크기는 영상 자체의 크기에 비해서는 무시될 정도이다. 예에서는 인접한 영상을 예로 들었는데, 실제로는 시간적으로 많이 떨어져 있는 경우도 전혀 문제가 되지 않는다. 이것은 Mpeg 에서 얘기하는 보간 영상과는 의미가 다른 것으로 Mpeg에서 시간적으로 인접한 것에 대한 유사 정보를 사용한다면, 본 발명에서는 시간과는 사실상 무관한 개념으로, 전체 동영상에서 프레임 간의 유사성을 비교하는 것이다. 인덱스 벡터가 추출되는 과정을 (도 1)에 나타내었다. 두번째 처리 과정에서 앞쪽의 사각형 안의 문자는 유사한 영상임을 나타내기 위한 표시이다. 프레임간의 유사도를 표현하는 방법은 여러 가지가 있겠지만, 본 발명에서는 프레임 간의 SNR(signal-to-noise ratio)을 사용하였다. 그리고, 동영상의 경우에는 대본(시나리오)에서 대략적인 유사도 정보를 추출할 수 있으므로 시나리오 정보를 이용하는 것도 효율적일 것이다. 영상의 유사도를 직접 비교하는 경우에는 사용하는 계산이 간단하므로 쉽게 하드웨어로 구현할 수 있다.The present invention relates to a video encoding method. A file encoded by the method of the present invention can be largely divided into two parts, actual image information and an index vector. The actual image information is literally compressed with a Jpeg, Jpeg2000, or other method as it is. The image index information is an index of an image that is actually used in consideration of overlapping images, similar images, or human cognitive ability. The frame rate (frame rate) per second of the video proposed by the present invention does not exceed 18 frames at most, and in the general case, the frame rate is about 15 frames. If human cognitive ability actually exceeds 18 frames per second, it is almost unrecognizable and it is hard to notice a real difference, so it does not increase the number of frames per second anymore. For example, if you want to make a video of frames 1-30, and the original frame rate is 30, this video is 1 second video. Normal encoding requires 1 to 30 images. However, if only 15 frames are used in consideration of human cognition, 1, 3, 5,... This means that you can make a one second video with only 15 frames of frame 29. In fact, this difference is not easy to perceive by human perception. The image index vector holds this information. Depending on the image, there may be similar images that are adjacent in time or far apart in time. Scenes that recall the past in the film appear as duplicates of these images. In the present invention, such information is also used for encoding, and such information is described in an index vector. For example, if 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, and 10 images are processed at 30 frames per second, and frames 6 to 10 are the same as frames 0 to 5, Suppose In the proposed encoding method, if only 15 frames per second are encoded, images of 0, 2, 4, 6, 8, and 10 are extracted in consideration of cognitive ability, and the similarities of the extracted images are 0, 6, 2 and 8 Frames 4, 10 and 10 have the same information. Then, the last necessary image information is frames 0, 2, and 4, and only the remaining indexes need to be maintained. If each frame is 10 kbytes, the 110 kbyes video is compressed to 30 kbytes. Of course, there is additional index information, but the size is negligible compared to the size of the image itself. In the example, the adjacent video is taken as an example. In fact, even if the time is far apart, it does not matter at all. This is a different meaning from the interpolated video described in Mpeg. If similar information about a temporal neighbor is used in Mpeg, the present invention is virtually irrelevant to time, and compares similarity between frames in the entire video. The process of extracting the index vector is shown in FIG. 1. In the second process, the text in the front square is an indication that the image is similar. Although there are various methods for expressing the similarity between frames, the present invention uses a signal-to-noise ratio (SNR) between frames. In the case of a video, roughness similarity information can be extracted from a script, so using scenario information may be efficient. When comparing the similarity of images directly, it is easy to implement in hardware because the calculation is simple.

(도 2)에는 전체적인 인코딩 방법을 블록 다이어그램(block diagram)으로 간단히 도시하였다. 먼저, 프레임 간의 유사도를 측정하기 위해 대본 정보 혹은 프레임 간의 직접적인 비교로 인덱스 벡터(index vector)를 추출하고, 인덱스 벡터에서 필요로 하는 프레임은 전체를 그대로 압축한다. 그러면, 최종적으로 영상정보와 인덱스 정보로 동영상을 표현하게 된다. (도 1)의 그림에서는 0, 2, 4번 프레임 만을 압축하여 영상정보를 만들고, 인덱스 벡터 정보와 같이 동영상을 표현하게 되는 것이다. (도 3)에는 인코딩 된 파일을 디코딩 하는 과정을 나타낸 것이다. 그림에 보인 바와 같이, 디코딩은 인코딩의 역순으로 진행된다.In Figure 2, the overall encoding method is simply shown in a block diagram. First, in order to measure the similarity between frames, an index vector is extracted by script information or a direct comparison between frames, and a frame required by the index vector is compressed as it is. Then, the video is finally expressed by the image information and the index information. In FIG. 1, image information is generated by compressing only frames 0, 2, and 4, and a video is expressed like index vector information. Figure 3 shows the process of decoding the encoded file. As shown in the figure, decoding proceeds in the reverse order of encoding.

본 발명의 인코딩 방법은 카메라를 이용한 실시간의 영상 전송에도 사용될 수 있다. 만약, 수신자와 송신자 사이에 영상 뿐만 아니라 인덱스 정보를 같이 주고 받으면 (도 1)과 (도 2)의 방법을 그대로 적용할 수가 있을 것이다. 즉, 새로운 영상이 전송 될 때 마다, 인덱스를 부여하고 인덱스 정보를 같이 보내준다면, 수신측에서는 수신 영상을 보여주고 인덱스와 함께 보관하게 된다. 그 후 송신측에서 보내는 영상이 인덱스가 부여된 영상이라면, 송신측에서는 영상을 보내는 것이 아니라 인덱스만을 보내면 수신측에서는 마치 정상적인 정보가 오는 것처럼 보여지게 되는 것이다. 아울러, 네트웍을 통한 실시간 전송을 위해서는 통신 환경에 따라 프레임 율을 재조정할 수 있어야 하는데, 이는 통신 프레임 율을 재조정하거나 각 프레임의 압축율을 달리하여 구현할 수 있다. 송신자와 수신자 사이에 고화질에 다소 끊기는 영상 혹은 끊기지 않는 다소 낮은 화질은 선택도 가능하다. (도 4)는 실시간 화상 전송 상황에서 제안된 인코딩 방법을 사용한 정보 전달 내용을 보여 주는 것이다. 아울러 인덱스에 대한 개념은 단순히 인접 영상에 대한 정보만을 사용하는 Mpeg 계열의 동영상 압축 방법에서도 적용할 수 있을 것이다.The encoding method of the present invention can also be used for real-time image transmission using a camera. If not only the image but also the index information is exchanged between the receiver and the sender, the methods of FIG. 1 and FIG. 2 may be applied as it is. That is, each time a new video is transmitted, if an index is assigned and index information is sent together, the receiving side shows the received video and keeps it with the index. After that, if the image sent from the transmitting side is the image with the index, the transmitting side does not send the image, but only the index, the receiving side appears as if the normal information comes. In addition, for real-time transmission through the network, it is necessary to readjust the frame rate according to the communication environment, which can be implemented by adjusting the communication frame rate or changing the compression rate of each frame. Between the sender and the receiver, you can choose between high quality, high quality video or low quality video quality. 4 shows information transmission contents using the proposed encoding method in a real-time image transmission situation. In addition, the concept of the index can be applied to the video compression method of the Mpeg series that uses only the information of the adjacent video.

본 발명에서 제안하는 동영상 인코딩 기법은 대부분의 고압축 동영상 인코딩 기법에서 사용하는 모션 추정이나 프레임 간의 보간을 전혀 사용하지 않고, 단지 각 프레임을 하나하나 압축하는 것이다. 모션 추정이나 프레임 간의 보간도 인접프레임간의 변화가 심한 영상의 경우에는 압축의 효과를 기대하기 힘들다. 대부분의 동영상 인코딩 기법들은 시간적으로 큰 차이가 나는 동일 프레임의 압축에 대해서는 무관심하다. 본 발명에서는 시간적인 차이와는 상관없이 프레임간의 단순 유사도 정보만을 사용하였다. 이렇게 하면 상대적으로 간단한 하드웨어로 적은 사이즈의 동영상 파일을 만들 수 있고 화상 통신과 같은 실시간에도 응용될 수 있다. 근본적으로는 각 프레임을 하나하나 압축하는 것이므로 시간적으로 어떤 부분은 고화질로 처리하고 어떤 부분은 저화질로 처리하는 것도 가능하고, 일반적으로 mpeg-4와 같이 모션 추정과 같은 알고리듬을 사용하는 동영상 파일에서 나타나는 심하게 다이나믹한 화면에 대해서 영상이 깨어지는 것과 같은 현상은 근본적으로 나타나지 않는다. 물론 영화에서 종종 등장하는 회상과 같은 부분은 아예 인덱스만을 보관하는 것이므로 압축의 효과가 자연스럽게 나타난다.The video encoding scheme proposed by the present invention is to compress each frame one by one without using any motion estimation or interpolation between frames used in most high compression video encoding techniques. Motion estimation or interpolation between frames is hard to expect the effects of compression in the case of images with a large change between adjacent frames. Most video encoding techniques are indifferent to compression of the same frame, which makes a big difference in time. In the present invention, only similarity information between frames is used regardless of time difference. This makes it possible to create smaller size video files with relatively simple hardware and can be applied to real time applications such as video communication. Basically, each frame is compressed one by one, so it is possible to process some parts in high quality and some parts in low quality in time, and it is generally shown in video files using algorithms such as motion estimation such as mpeg-4. The phenomenon of a broken image on a severely dynamic screen does not appear fundamentally. Of course, the often reminiscent part of a movie is just an index, so the effect of compression is natural.

Claims (1)

대본 혹은 영상의 유사성과 사람의 인지 능력을 고려한 동영상 파일 인코딩 방법Video file encoding method considering script or video similarity and human cognition ability
KR1020020045203A 2002-07-31 2002-07-31 A motion picture encoding method based on human recognition capability and scenario or image similarity KR20040011903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020045203A KR20040011903A (en) 2002-07-31 2002-07-31 A motion picture encoding method based on human recognition capability and scenario or image similarity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020045203A KR20040011903A (en) 2002-07-31 2002-07-31 A motion picture encoding method based on human recognition capability and scenario or image similarity

Publications (1)

Publication Number Publication Date
KR20040011903A true KR20040011903A (en) 2004-02-11

Family

ID=37319940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020045203A KR20040011903A (en) 2002-07-31 2002-07-31 A motion picture encoding method based on human recognition capability and scenario or image similarity

Country Status (1)

Country Link
KR (1) KR20040011903A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013794B1 (en) * 2008-11-26 2011-02-14 (주)예건테크 Firestop screen with built in exit door

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320558A (en) * 1991-04-19 1992-11-11 Toshiba Corp Data transmission equipment
JPH07222173A (en) * 1994-01-31 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH089382A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image information transfer system
US20010040700A1 (en) * 2000-05-15 2001-11-15 Miska Hannuksela Video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320558A (en) * 1991-04-19 1992-11-11 Toshiba Corp Data transmission equipment
JPH07222173A (en) * 1994-01-31 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH089382A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image information transfer system
US20010040700A1 (en) * 2000-05-15 2001-11-15 Miska Hannuksela Video coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013794B1 (en) * 2008-11-26 2011-02-14 (주)예건테크 Firestop screen with built in exit door

Similar Documents

Publication Publication Date Title
US7885340B2 (en) System and method for generating multiple synchronized encoded representations of media data
CN101889447B (en) Extension of the AVC standard to encode high resolution digital still pictures in series with video
US6055274A (en) Method and apparatus for compressing multi-view video
US11770510B2 (en) Video information compression using sketch-video
US20060197777A1 (en) Color space scalable video coding and decoding method and apparatus for the same
JP6573673B2 (en) High frame rate-low frame rate transmission technology
KR20060043051A (en) Method for encoding and decoding video signal
KR100878809B1 (en) Method of decoding for a video signal and apparatus thereof
Al-Ani et al. Video compression algorithm based on frame difference approaches
WO2006024077A2 (en) System and method for encoding and decoding video
CN112235606A (en) Multi-layer video processing method, system and readable storage medium
US20060209947A1 (en) Video compression
FI105634B (en) Procedure for transferring video images, data transfer systems and multimedia data terminal
KR20060043118A (en) Method for encoding and decoding video signal
KR20050091278A (en) Streaming method of a panorama video
KR20040011903A (en) A motion picture encoding method based on human recognition capability and scenario or image similarity
KR20060043050A (en) Method for encoding and decoding video signal
RU2681360C1 (en) Transmission technique of an image by communication line
Sundari et al. H. 264 encoder using Gstreamer
US8312499B2 (en) Tunneling information in compressed audio and/or video bit streams
US20230362385A1 (en) Method and device for video data decoding and encoding
KR20060043120A (en) Method for encoding and decoding video signal
Lohar et al. Effective compression of digital video
WO2023059689A1 (en) Systems and methods for predictive coding
Bodne et al. Design and Analysis of Quantization Based Low Bit Rate Encoding System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application