KR20030029442A - 특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및특수 효과 데이터 편집 방법 - Google Patents

특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및특수 효과 데이터 편집 방법 Download PDF

Info

Publication number
KR20030029442A
KR20030029442A KR1020020008681A KR20020008681A KR20030029442A KR 20030029442 A KR20030029442 A KR 20030029442A KR 1020020008681 A KR1020020008681 A KR 1020020008681A KR 20020008681 A KR20020008681 A KR 20020008681A KR 20030029442 A KR20030029442 A KR 20030029442A
Authority
KR
South Korea
Prior art keywords
data
image
special effect
motion
pattern
Prior art date
Application number
KR1020020008681A
Other languages
English (en)
Inventor
스즈끼요시노리
Original Assignee
가부시키가이샤 히타치세이사쿠쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 히타치세이사쿠쇼 filed Critical 가부시키가이샤 히타치세이사쿠쇼
Publication of KR20030029442A publication Critical patent/KR20030029442A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Abstract

특수 효과용 마스크 데이터만을 코드화하는 방법에서는 이동을 수반하는 특수 효과 순서를 데이터로서 라이브러리화할 수 없었다. 그 때문에, 마스크 패턴과 운동 패턴(motion pattern)을 나타내는 데이터를 부호화하고, 1개의 데이터로 다중화함으로써, 화상 변형을 수반하는 특수 효과 패턴의 라이브러리화를 행한다. 또한, 특수 효과를 실현하기 위한 압축 데이터를 배신할 수도 있고, 나아가, 확대 운동 벡터(motion vectors)에 의해 형상 데이터를 확대시킴으로써, 특수 효과용 마스크 데이터의 데이터량을 삭감시킬 수 있다.

Description

특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및 특수 효과 데이터 편집 방법{METHOD FOR CODING DATA OF SPECIAL EFFECT, METHOD FOR DISPLAYING SPECIAL EFFECT, AND METHOD FOR EDITING DATA OF SPECIAL EFFECT}
본 발명은 동화상 처리에 관한 것으로, 특히 특수 효과 패턴의 부호화 및 장면 합성 처리에 관한 것이다.
종래, 영상 신호에 특수 효과를 실시함으로써, 예를 들면 영상과 영상과의 연결을 자연스럽게 전환하는 것이 행해져 왔다. 특수 효과에는 와이프, 디졸브, 페이드인·페이드아웃 등이 알려져 있다.
특개평7-143399호 공보에는 특수 효과 처리 장치 상에서 특수 효과를 행하기 위한 마스크 데이터를 코드화함으로써, 특수 효과를 위한 데이터를 경감시키는 기술이 개시되어 있다.
또한, 특개2000-341584호 공보에는 장면 전환 시의 효과를 스크립트로서 기록함으로써, 재생측에서 특수 효과를 표시에 반영시키는 화상 기록 장치가 개시되어 있다.
종래의 특수 효과용 마스크 데이터만을 코드화하는 방법이나, 장면 기술 데이터 또는 재생 화상 레벨로 화상 변형을 행하는 방법에서는 대상이 되는 장면 기술 데이터에, 그 때마다, 변형 정보를 매립할 필요가 생긴다. 그 때문에, 특수 효과 패턴의 라이브러리화는 곤란하다고 하는 문제가 있었다.
도 1은 특수 효과 데이터 생성 처리의 구성예.
도 2는 글로벌 이동 보상 처리의 예.
도 3은 시스템 데이터 생성 처리의 구성예.
도 4는 특수 효과 데이터의 구조예.
도 5는 특수 효과 데이터에 있어서의 프레임 헤더의 구조예.
도 6은 특수 효과 데이터에 있어서의 운동 패턴 데이터의 구조예.
도 7은 운동 패턴 데이터를 포함하는 비디오 데이터의 구조예.
도 8은 사각 패치를 사용한 프레임 화상의 예.
도 9는 삼각 패치를 사용한 프레임 화상의 예.
도 10은 매크로 블록 분할의 예.
도 11은 매크로 블록의 구조도.
도 12는 특수 효과 데이터에 있어서의 MB 데이터의 구조예.
도 13은 슬라이드인을 상정한 특수 효과 운동 벡터 및 이동 보상의 예.
도 14는 형상 데이터의 사이즈 확대를 상정한 특수 효과 운동 벡터 및 이동보상의 예.
도 15는 시스템 데이터 복호 및 특수 효과를 포함하는 장면의 합성 처리 구성예.
도 16은 특수 효과 데이터와 비디오 데이터를 통합한 데이터에 있어서의 MB 데이터의 구조예.
도 17은 특수 효과 데이터와 비디오 데이터를 통합한 시스템 데이터 생성 처리의 구성예.
도 18은 슬라이드인을 상정한 특수 효과 처리예.
도 19는 형상 데이터의 사이즈 확대를 상정한 특수 효과 처리예.
〈도면의 주요 부분에 대한 부호의 설명〉
201 : 편집 정보 해석부
202 : 마스크 패턴 메모리
203 : 운동 패턴 메모리
204 : 형상 인코더
205 : 특수 효과 운동 벡터 인코더
206 : 다중화
207 : 배경 인코더
그래서, 본 발명에서는 특수 효과용 마스크 패턴과 임의의 재생 화상을 변형하기 위한 운동 패턴을 나타내는 데이터를 부호화하여, 1개의 데이터로 다중화함으로써, 화상의 변형을 수반하는 특수 효과 패턴의 라이브러리화를 가능하게 한다.
본 발명의 기타 목적, 특징 및 장점은 첨부 도면과 관련지어 이하의 바람직한 실시예의 상세한 설명을 통해 더욱 명백해질 것이다.
〈실시예〉
우선, 본 발명에서 다루는 운동 패턴에 대하여 설명한다. 특수 효과 중, 디졸브와 같이 2개의 장면을 서서히 교체하는 특수 효과에서는 2개의 장면 자체는 변화하지 않기 때문에, 마스크 데이터만으로 효과 패턴을 표현할 수 있다. 그 때문에, 특수 효과 패턴의 라이브러리화도 마스크 패턴의 부호화만으로 실현할 수 있다. 그러나, 슬라이드인과 같이 교체하는 장면 자체가 이동을 수반하는 효과나, 마스크 패턴 자체가 이동을 수반하는 효과를 라이브러리화하기 위해서는 마스크 패턴 외에, 장면의 운동 패턴도 동시에 부호화할 필요가 있다.
이 운동 패턴은 운동 모델(motion model)의 종류와 그 적용 범위로 규정된다. 운동 모델의 종류로서는 예를 들면
로 나타내는 선형 내·외삽(아핀 변환) 모델이나,
로 나타냄과 함께 1차 내·외삽 모델이 생각된다.
상기 두 개의 식에서는 (ug(x, y), vg(x, y))가 화상 내의 화소(x, y)의 운동 벡터, a0∼a5, b0∼b7이 운동 파라미터(motion parameter)를 나타내고 있다. 한편, 적용 범위로서는 화상 전체를 하나의 운동 파라미터로서 변형시키는 방법과, 화상을 몇 개인가의 부분으로 나누어, 부분마다 다른 운동 파라미터로 변형시키는 방법을 생각할 수 있다. 어느 경우라도, 수학식 1이나 수학식 2에 나타낸 바와 같은 운동 파라미터를 각 적용 범위에 대하여 각각 부호화함으로써, 운동 패턴을 라이브러리화할 수 있다. 운동 파라미터의 부호화 방법으로서는 a0∼a5또는 b0∼b7의 값을 직접 부호화해도 되지만, 대신에 몇 개의 대표점의 운동 벡터를 부호화하는 방법도 있다. 지금, 운동 모델을 수학식 1의 아핀 변환, 적용 범위를 화상 전체로 하고, 화상의 좌측 상단, 우측 상단, 좌측 하단, 우측 하단의 화소의 좌표가 각각 (O, O), (r, O), (O, s), (r, s)로 표현된다고 상정한다(단, r과 s는 플러스의 정수). 이 때, 대표점 (O, O), (r, O), (O, s)의 운동 벡터의 수평·수직 성분을 각각 (ua, va), (ub, vb), (uc, vc)로 하면, 수학식 1은
로 다시 쓸 수 있다. 이는 a0∼a5를 전송하는 대신에, ua, va, ub, vb, uc, vc를 전송해도 마찬가지의 기능을 실현할 수 있는 것을 의미한다. 마찬가지로, 운동 모델을 수학식 2의 1차 변환, 적용 범위를 화상 전체로 하면, 4개의 대표점 (0, O), (r, O), (O, s), (r, s)의 운동 벡터의 수평·수직 성분 (ua, va), (ub, vb), (uc, vc), (ud, vd)를 이용하여 수학식 2는
로 다시 쓸 수 있다. 이는 b0∼b7을 전송하는 대신에, ua, va, ub, vb, uc, vc, ud, vd를 전송해도 마찬가지의 기능을 실현할 수 있는 것을 의미한다. 또, 여기서는 아핀 변환과 함께 1차 변환을 예로 들어 설명했지만, 본 발명에 적용되는 변환 모델은 이 두 가지 모델에 한정되지 않는다. 예를 들면, 글로벌 이동 보상을 다루는 MPEG-4에서 취급되고 있는 평행 이동, 등방 변환, 아핀 변환, 투시 변환에 기초한 운동 모델 등도 사용할 수 있다. 이들 운동 모델이라도, 운동 파라미터를 운동 벡터로서 표현할 수 있다.
여기서, 화상 변형의 예로서, 아핀 변환 모델에 의해 도 2의 원 화상(302)을특수 효과 화상(301)으로 변형하기 위한 순서를 나타낸다. 부호화측에서는 우선, 원 화상(302)과 특수 효과 화상(301) 사이에서 운동 파라미터를 추정한다. 다음으로, 이 운동 파라미터에 기초하여 특수 효과 화상(301)의 좌측 상단, 우측 상단, 좌측 하단에 위치하는 대표점(305, 306, 307)에 있어서의 운동 벡터를 구한다. 이들 운동 벡터는 특수 효과 화상(301)의 좌측 상단, 우측 상단, 좌측 하단에 위치하는 대표점이 원 화상 상에서 어떤 위치에 상당하는가를 나타내고 있다. 본 예에서는 참조 부호(303)가 이동 보상 화상, 참조 부호(308, 309, 310)가 이동 보상 후의 대표점이 된다. 그리고, 운동 벡터 또는 운동 파라미터를 부호화한다. 한편, 복호측에서는 우선, 운동 파라미터를 복호한다. 이 때, 수신 데이터가 운동 벡터인 경우에는 수학식 3이나 수학식 4에 도시한 바와 같은 관계를 이용하여 운동 파라미터를 산출한다. 그리고, 산출한 운동 파라미터를 이용하여, 원 화상 상의 각 화소의 운동 벡터(311, 312, 313)를 구하고, 특수 효과 화상을 합성한다. 산출된 각 화소의 운동 벡터가 실수값을 나타내는 경우에는 예를 들면, 인접 샘플값에 의한 선형 내삽 처리 등을 이용하여, 특수 화상 상의 화소값을 결정한다. 이 때, 실수의 벡터값을 각 종횡 성분에 대하여, 1/2 화소 정밀도, 1/4 화소 정밀도 등에 양자화하는 알고리즘을 규정해 두면, 부호화측과 복호측에서 동일한 값을 산출할 수 있다. 또, 여기서 나타낸 예는 일반적인 화상에 있어서의 운동 파라미터의 산출 방법을 나타낸 것이다. 특수 효과인 경우에는 효과의 종류에 따라 운동 파라미터가 일의적으로 결정되어 있으며, 부호화되어 데이터 베이스화되어 있다(신규의 특수 효과 패턴을 작성하는 경우도, 한번만 파라미터 추정을 행하고, 데이터 베이스화하면 된다). 따라서, 일반적으로 부호화 시의 운동 파라미터의 추정은 필요로 하지 않는다. 또한, 도 2는 적용 범위가 화상 전체인 경우의 예이지만, 적용 범위가 몇 개의 부분으로 분할되는 경우에 있어서도, 화상 전체에 적용하는 경우와 마찬가지의 방법을 이용할 수 있다. 예를 들면, 도 8에 도시한 바와 같은 사각 패치를 사용한 프레임(601: 투시 변환 모델)이나 도 9에 도시한 바와 같은 삼각 패치를 사용한 프레임(602: 아핀 변환 모델)을 구성함으로써, 패치 단위에서의 운동 벡터 또는 운동 패턴의 부호화 및 화상의 변형 처리를 할 수 있다. 이 방법이면, 국소적으로 변화하는 운동 패턴에도 대응할 수 있다. 또한, 여기서 나타낸 예에서는 변형 전과 변형 후의 화상 사이즈가 동일하지만, 화상 사이즈가 변화하는 경우라도, 두 개의 화상의 공간적인 위치만 규정해 두면, 그대로 적용할 수 있다.
여기서, 또한 MPEG-4 비디오 부호화 방식의 기능인 형상 부호화와 글로벌 운동 벡터의 부호화를 이용하여, 마스크 패턴과 운동 패턴의 부호화에 의한 특수 효과 데이터를 생성하는 방법과, 특수 효과 처리 방법에 대하여 설명한다. 또, MPEG-4 비디오 부호화 기능 및 데이터 포맷의 상세에 대해서는 ISO/IEC JTC1/SC29 14496-2:2001(E)에 규정되어 있다. 본 실시예에서는 형상 부호화·복호화와 글로벌 운동 벡터의 부호화·복호화 기능을 이용하는 구조에 대하여 설명한다.
도 1에, 특수 효과 데이터 생성 처리의 구성예를 나타낸다. 마스크 패턴 메모리(202)와 운동 패턴 메모리(203)에는 각 특수 효과를 실현하기 위한 마스크 데이터 및 운동 파라미터가 저장되어 있다. 편집 정보 해석부(201)는 특수 효과의 종류, 특수 효과를 발생하는 기간, 프레임 레이트, 비트 레이트, 화상 사이즈 등의편집 정보를 해석하고, 특수 효과 데이터의 각 프레임을 구성하는데 필요한 정보를 마스크 패턴 메모리(202)와 운동 패턴 메모리(203)에 통지한다. 해석에 의해 필요하다고 판단된 마스크 데이터 및 운동 파라미터는 각각 형상 인코더(204) 및 특수 효과 운동 벡터 인코더(205)로 부호화되고, 다중화부(206)에서 1개의 특수 효과 데이터로서 다중화된다. 이 특수 효과 운동 벡터 인코더(205)와 형상 인코더(204)의 각 기능은 일반적인 비디오 인코더에도 포함되어 있기 때문에, MPEG-4 비디오 인코더에도 대용할 수 있다. 또, MPEG-4에서 다루는 형상 데이터는 제1 장면의 영상에 대하여, 제2 장면의 영상을 어떠한 비율로 정합시키는 가를 나타내는 것이다. 그 때문에, 페이드아웃, 페이드인과 같이 장면 체인지 시에 2개의 데이터가 중첩되지 않는 경우에는 중첩하는 대상이 필요하게 된다. 이러한 케이스에서는 편집 정보 해석부(201)의 명령에 의해 배경 데이터 인코더(207)가 기동되고, 중첩하는 대상이 되는 배경 데이터의 색 패턴(배경 데이터 레벨)이 동시에 부호화된다. 이 배경 데이터 레벨도 다중화부(206)로 전달되어 특수 효과 데이터로서 다중화된다.
특수 효과 데이터를 생성하는 다른 형태로서, 각 특수 효과용 특수 효과 데이터를 사전에 준비해 두고, 편집 정보에 따라 편집하는 방법이 있다. 구체적인 편집 방법은 예를 들면, 프레임 레이트에 따른 시각 정보의 수정, 프레임 데이터의 삭제나, 화상 사이즈(구체적인 방법은 도 14에서 설명)의 수정 등이 있다. 이 때, 데이터량의 변경에 따른 바이트 얼라인 처리 등도 필요하게 된다.
도 3에, 시스템 데이터 생성 처리의 구성예를 나타낸다. 시스템 데이터는, 도 1의 특수 효과 데이터 생성 처리로서 생성된 특수 효과 데이터, 특수 효과가 적용되는 피편집 데이터, 오디오 데이터 등을 다중화한 데이터를 의미한다. 여기서는, 각종 미디어 데이터를 통합한 파일 포맷이나 통신용 패킷 데이터 등의 통합 데이터의 총칭이라고 생각한다. 이 시스템 데이터를 수신한 단말기에서는 시스템 디코더와 통합된 각종 데이터를 복원하는 디코더를 이용하여, 특수 효과 데이터가 해독되고, 특수 효과를 포함하는 장면이 재현된다. 참조 부호(211)는 특수 효과 데이터 작성부로서, 도 1의 마스크 패턴 메모리(202), 운동 패턴 메모리(203), 형상 인코더(204), 특수 효과 운동 벡터 인코더(205), 다중화부(206), 배경 데이터 인코더(207)로 구성되어 있는 것으로 한다. 메모리(210)에는 피편집 데이터가 축적되어 있다. 편집 정보에 따라, 편집 정보 해석부(201)는 메모리(210)에, 필요한 피편집 데이터를 지시한다. 또한, 편집 정보 해석부(201)는 특수 효과 데이터 작성부(211)에, 특수 효과 데이터의 생성에 필요한 정보를 통지한다. 시스템 인코더(212)에서는 편집 정보에 따라, 피편집 데이터(오디오 데이터도 포함함)와 특수 효과 데이터를 합성하여 시스템 데이터를 작성한다.
다음으로, 도 1의 특수 효과 운동 벡터 인코더, 형상 인코더 및 합성부에서 생성되는 특수 효과 데이터의 구조예에 대하여 진술한다.
도 4에, 특수 효과 데이터의 구조예를 나타낸다. 시퀀스 헤더(410)에는 입력 데이터의 형상 타입 등, 장면 전체에 관한 파라미터가 포함된다. MPEG-4 비디오 부호화에서는 형상 타입으로서 「구형 화상(rectangular)」, 「2치 임의 형상부 화상(binary)」, 「그레이스케일 임의 형상부 화상(grayscale)」, 「임의 형상만(형상 데이터는 2치 표현, binary only)」의 4종류를 다루고 있다. 여기서는 휘도신호나 색차 신호의 부호화를 수반하지 않는 「임의 형상만」의 모드 기능을 이용하여 마스크 패턴을 형상 부호화하는 것으로 하지만, 특수 효과용 형상 타입을 별도로 설치해도 된다. 또한, 본 발명에서는 마스크 패턴 이외에 운동 패턴을 부호화할 필요가 있다. 그래서, 다음으로, 이 운동 패턴에 관련한 시퀀스 헤더의 데이터를 생각한다. 우선, 본 발명의 경우, 운동 패턴은 반드시 마스크 데이터에만 한하지 않고, 몇 개의 케이스가 생각된다. 지금, 현재의 장면을 장면 A, 특수 효과에 의해 나타나는 장면을 장면 B로 가정한 경우, 즉, 마스크 데이터에 따라, 장면 B를 장면 A에 중첩하는 경우를 생각한다. 이 때, 변형 처리를 행하는 대상으로서 이하의 경우를 상정할 수 있다.
1) 마스크 데이터,
2) 장면 B,
3) 장면 B와 마스크 데이터,
4) 장면 A와 장면 B를 마스크한 후의 화상,
5) 장면 A.
따라서, 본 발명에서는 운동 파라미터를 적용하는 화상을 지정하는 정보(변형 화상 정보)를 부호화측과 복호측에서 정보를 공유하지 않는 경우에는 이를 준비할 필요가 있다. 또한, 운동 파라미터의 성질을 결정하는 적용 범위(범위 화상 전체의 변형 또는 국소적인 변형, 또는 그 양방을 적용)를 나타내는 변형 선택 정보(양방의 변형을 적용하는 경우에는 그 순서도 포함함)와, 사용하는 운동 모델의 종류(적용 범위가 화면 전체인 경우)나 패치의 크기나 수에 관한 정보(적용 범위가국소적인 경우, 예를 들면, 패치 형상, 종횡의 격자점 수)에 대해서도, 부호화측과 복호측에서 정보를 공유하지 않는 경우에는 시퀀스 헤더 내에 포함시킬 필요가 있다.
프레임 헤더(420)에는 각 프레임의 부호화에 관한 파라미터가 포함되고, 형상 데이터(430)에는 마스크 화상의 실제의 부호화 데이터가 포함되며, 그리고 운동 패턴 데이터(440)에는 운동 파라미터의 부호화 데이터가 포함된다.
도 5에, 프레임 헤더(420)에 포함되는 파라미터의 일부를 나타낸다. 프레임 타입(421)은 프레임내 부호화, 예측 부호화 등 그 프레임의 부호화 타입을 나타내는 파라미터이다. 시각 정보(422)는 그 프레임을 재생해야 할 시각을 나타내는 파라미터이다. 사이즈 위치 정보(423)는 재생 오브젝트의 위치와 사이즈를 나타내는 파라미터이고, 형상 타입이 「형상」을 포함하는 경우에만 발생한다. 이 파라미터에 의해, 비디오 오브젝트의 배치를 지정할 수 있다. 특수 효과를 목적으로 하는 마스크 데이터에서는 기본적으로, 표시 위치는 화면의 좌단 (0, 0), 사이즈는 화면과 동일 사이즈로 하면 되지만, 운동 패턴과의 조합에 따라서는, 이 파라미터를 유효하게 이용함으로써 데이터 사이즈의 삭감 등을 도모할 수 있는 가능성이 있다. 형상 데이터 레벨(424)도, 형상 타입이 「형상」을 포함하는 경우에만 발생하는 파라미터이고, 화상 전체의 형상 신호의 투명도 레벨을 동일한 비율로 변경하는 역할을 한다. 예를 들면, 마스크 데이터가 2치이어도, 이 파라미터를 이용함으로써, 마스크 데이터 전체의 투명도를 변경할 수 있다. 따라서, 이 형상 타입 정보만(형상 데이터의 부호화를 하지 않고)으로 디졸브(두 개의 장면을 서서히 교체함)를 표현할 수도 있다. 배경 데이터 레벨(4242)은 페이드아웃·페이드인과 같이 두 개의 장면이 중첩되지 않는 특수 효과인 경우에 대해서, 중첩하는 대상이 되는 배경 데이터의 색 패턴(배경 데이터 레벨)을 편집 데이터에 가하는 역할을 한다.
도 6에, 운동 패턴 데이터(440)의 데이터 포맷을 나타낸다. 시퀀스 헤더의 변형 화상 정보, 변형 선택 정보, 운동 모델 및 패치 정보를 이용하는 경우, 즉, 모든 특수 효과 프레임에 대하여, 동일한 조건에서 화상의 변형을 행하는 경우에는 사이즈 위치 정보(4232)와, 글로벌 운동 벡터(425) 또는 패치 운동 벡터(426) 중 어느 하나, 또는 글로벌 운동 벡터(425)와 패치 운동 벡터(426)의 양방의 데이터가 운동 패턴 데이터(440)에 포함된다. 어떤 데이터가 포함될지는 변형 선택 정보 또는 사전에 정해진 규칙(변형 선택 정보를 사용하지 않는 경우)에 의해 결정된다. 사이즈 위치 정보(4232)는 변형 처리 후의 화상 사이즈와 화면 상에서의 그 표시 위치를 나타낸다. 이 정보는 변형 처리가 화상 사이즈를 변경하지 않는 경우나, 변형 처리 후의 화상 사이즈가 사전에 정해져 있는 경우에는 필요없다. 글로벌 운동 벡터(425)는 화상 전체에 대한 운동 파라미터를 생성하기 위한 파라미터이다. MPEG-4 비디오 부호화에서는 수학식 3, 수학식 4에 도시한 바와 같이 화상의 일부분의 운동 벡터로서 운동 파라미터를 생성한다. 그래서, 본 실시예에서도, 운동 파라미터를 부호화하는 대신에, 운동 벡터를 부호화하는 구조를 적용하지만, 운동 파라미터를 그대로 부호화하는 방법도, 당연히 본 발명에 포함된다. 패치 운동 벡터(427)는 도 8, 9와 같이 프레임에 패치를 사용하여, 국소적으로 운동 파라미터를 생성하기 위한 파라미터이다. 여기서는, 프레임 헤더로서 프레임 내의 모든 격자점의 운동 벡터를 부호화하는 것을 상정하고 있다. 한편, 시퀀스 헤더 내의 변형 화상 정보, 변형 선택 정보, 운동 모델 및 패치 정보를 이 운동 파라미터 데이터로 이동한 경우, 프레임 단위로, 운동 패턴의 종별을 변경할 수 있고. 또한 미세한 움직임에 대응할 수 있게 된다. 또, 장면 A, 장면 B, 마스크 데이터용으로, 다른 운동 파라미터를 적용하는 경우에는 이 운동 패턴 데이터(440)를 반복하여 발생시키면 된다.
다음으로, 도 4의 형상 데이터(430)의 데이터 포맷에 대하여 나타낸다. MPEG-4 비디오 규격에서는 동화상의 각 프레임을 도 10에 도시한 바와 같은 소 블록(501, 502, 503)으로 분할하고, 매크로 블록이라 불리는 블록 단위로 재생 처리를 행한다. 도 11에 매크로 블록의 구조를 나타낸다. 매크로 블록은 16×16 화소의 1개의 Y 신호 블록(511)과, 그것과 공간적으로 일치하는 8×8 화소의 Cr 신호 블록(512) 및 Cb 신호 블록(513)으로 구성되어 있다. 또, Y 신호 블록은 매크로 블록의 복원 과정에서는 다시, 4개의 8×8 화소 블록(514, 515, 516, 517)으로 분할하여 처리되는 경우가 있다. 따라서, 2치 표현의 마스크 데이터에서는 도 12의 2치 MB 데이터(431)가 화상의 좌측 상단의 MB로부터 우측 하단의 MB를 향하여 순서대로 부호화되고, 형상 데이터(430)로서 배치된다. 한편, 그레이스케일 표현의 마스크 데이터에 대해서는 도 12의 MB의 데이터 포맷은 2치 MB 데이터 후에 그레이스케일 MB 데이터(433)가 이어지는 구성이 된다. 단, MPEG-4에서는 그레이스케일 데이터만을 취급하는 형상 타입을 취급하고 있지 않기 때문에, 별도의 「그레이스케일 임의 형상만」이라는 모드를 설치할 필요가 있다. 그레이스케일 데이터의 부호화 방법에 대해서는 MPEG-4의 「그레이스케일 형상부 화상」 형상 타입과 같이 그레이스케일 데이터를 휘도 신호의 부호화와 유사한 방법으로 다루면 된다. 또, MB 데이터 포맷의 확장으로서, 매크로 블록의 사이즈와 도 8, 9의 패치 사이즈를 일치시킴에 따라, 격자점의 패치 운동 벡터(432)를 MB 데이터 내에 배치하는 방법을 생각할 수 있다. 이 경우에는 프레임 헤더로서 패치 수에 관한 정보를 전부 부호화할 필요는 없다. 단, 부호화 블록 수와 격자점 수는 일치하지 않기 때문에, 예를 들면, 프레임의 상단과 좌단에 위치하는 격자점의 운동 벡터를 프레임 헤더 내에서 부호화하고, 각 MB 데이터로서, 패치 우측 하단 격자점의 운동 벡터를 부호화하는 구성을 취할 필요가 있다. 또, 이 포맷에 있어서도, MB 데이터 내에서 이 패치 운동 벡터를 반복함으로써 장면 A, 장면 B, 마스크 데이터용으로, 개개에 운동 파라미터를 갖는 방법을 적용할 수 있게 된다.
도 4의 예에서는 마스크 데이터 이외의 특수 효과 대상 화상에 대한 변형을 특수 효과 데이터 내에서 취급하고 있다. 이에 대하여 도 7과 같이 특수 효과 대상 화상에 대한 운동 패턴을 그 비디오 데이터(450) 내에서 취급할 수도 있다. 이 경우에는 특수 효과 데이터 내에서는 마스크 데이터로의 운동 패턴만을 취급하고, 원래의 비디오 데이터(450)에 대하여, 각각, 운동 패턴에 관련된 정보를 추가하게 된다. 이 경우에는 변형 화상의 대상은 일의적으로 결정되기 때문에, 기본적으로 변형 화상 정보는 필요없다. 단, 비디오 데이터의 알고리즘으로서, 이동 보상 시에 운동 파라미터를 이용하는 경우에는 운동 패턴에 의한 변형을 실시하는 화상이 표시 전의 재생 화상인지 이동 예측에 이용하는 이전 프레임인지의 식별 정보를 변형 화상 정보로서 부가할 필요가 있다.
다음으로, 생성한 특수 효과 데이터로부터 특수 효과 장면을 합성하는 방법에 대하여 진술한다. 간단하게 하기 위해서, 장면 합성에 이용하는 특수 효과가 1종류인 경우를 예로 들어 설명한다. 변형 처리를 수반하지 않는 특수 효과에서는 특수 효과 발생 전부터 재생되어 있는 제1 장면, 특수 효과 후에 나타나는 제2 장면 및 특수 효과 데이터를 프레임마다 복호한 후, 제2 장면의 각 프레임을 대응하는 마스크 데이터의 마스크 처리에 의해, 제1 장면의 대응 프레임과 합성하게 된다. 한편, 변형 처리를 수반한 특수 효과에서는 데이터 복호 후의 특수 효과 장면 합성 방법은 변형 처리를 실시하는 대상의 종류에 따라 다르다. 시퀀스 헤더의 설명 부분에서 진술한 바와 같이 장면 합성에 이용하는 특수 효과가 1종류인 경우에 대해서는 이하의 5종류를 생각할 수 있다.
1) 마스크 데이터,
2) 장면 B,
3) 장면 B와 마스크 데이터,
4) 장면 A와 장면 B를 마스크한 후의 화상,
5) 장면 A.
다음으로, 각 케이스에 대하여, 1프레임의 합성 방법을 나타낸다.
상기 1)의 케이스에서는 우선, 운동 파라미터에 따라 마스크 데이터를 변형한다. 그리고, 제2 장면의 프레임을, 변형한 마스크 데이터의 마스크 처리에 의해 제1 장면의 프레임과 합성한다.
2)의 케이스에서는 우선, 운동 파라미터에 따라 제2 장면의 프레임을 변형한다. 그리고, 변형한 제2 장면의 프레임을, 마스크 데이터의 마스크 처리에 의해 제1 장면의 프레임과 합성한다.
3)의 케이스에서는 우선, 운동 파라미터에 따라 제2 장면의 프레임과 마스크 데이터를 각각 변형한다. 변형한 제2 장면의 프레임을, 변형한 마스크 데이터의 마스크 처리에 의해 제1 장면의 프레임과 합성한다.
4)의 케이스에서는 우선, 제2 장면의 프레임을, 마스크 데이터의 마스크 처리에 의해 제1 장면의 프레임과 합성한다. 그리고, 합성된 데이터를 운동 파라미터에 따라 변형한다.
5)의 케이스에서는 우선, 운동 파라미터에 따라 제1 장면의 프레임을 변형한다. 그리고, 제2 장면의 프레임을, 마스크 데이터의 마스크 처리에 의해 변형한 제1 장면의 프레임과 합성한다.
또, 여기서 말하는 운동 파라미터의 의미는 글로벌 운동 벡터와 패치 운동 벡터 중 어느 하나, 또는 그 조합을 포함하는 것으로 한다. 1매의 프레임을 2종류 이상의 운동 파라미터를 이용하여 합성하는 경우도, 기본적인 방법은 동일하다. 즉, 제1 장면의 프레임과 제2 장면의 프레임을 마스크 데이터로서 합성하는 과정에서, 변형 처리를 실시하는 대상에 대하여 각각 변형 처리를 실시하면 된다.
여기서, 상기한 케이스 1)과 케이스 2)의 화상 변형 처리에 대하여, 운동 파라미터의 적용 범위가 화상 전체인 경우의 예에 대하여 설명한다.
도 13은 케이스 2)에 관하여, 슬라이드인을 상정한 특수 효과 운동 벡터 및이동 보상의 예를 나타낸 도면이다. 도 13의 구성은 도 3과 동일하다. 단, 도 13에서는 특수 효과 화상(301)의 대표점(305, 306, 307)을 제공한 도면을 생략하고 있다. 또한, 운동 모델을 평행 이동으로 하고, 화면의 좌측 상단에만 대표점을 설치하고 있다. 이 케이스에서는 제2 장면이 화면의 우단부터 슬라이드인함으로써, 제1 장면과 교체하는 효과를 상정하고 있다. 따라서, 변형 전의 원 화상(302)이 항상 화면 전체에 표시되는 화상이 되고, 특수 효과 화상(301)이 원 화상(302)을 평행 이동시킨 화상이 된다. 그리고, 이 평행 이동의 크기를 서서히 줄임으로써, 슬라이드인의 특수 효과를 실현할 수 있다. 이 때, 마스크 데이터는 표시 위치를 화면의 좌단 (0, 0), 사이즈를 화면과 동일 사이즈로 하고, 제1 장면의 프레임이 표시되는 부분의 화소값을 "0"(제1 장면을 표시), 제2 장면의 프레임이 표시되는 부분의 화소값을 "1"(제2 장면을 표시)로 한다. 도 3과 마찬가지로 참조 부호(303)가 특수 효과 화상(301)의 좌측 상단에 위치하는 대표점이 원 화상 상에서 어떤 위치에 상당하는 가를 보상한 이동 보상 화상을 나타내고 있으며, 참조 부호(308)가 이동 보상 후의 대표점, 참조 부호(311)가 글로벌 운동 벡터를 나타내고 있다. 이 글로벌 운동 벡터(311)에 따라, 특수 효과 후의 프레임 내의 화소값을 산출한다. 그러나, 본 예에서는 운동 벡터가 원 화상의 밖을 가리키는 화소가 존재한다. 이러한 경우, 일반적으로는 각 화소에 대한 운동 벡터를 세로, 가로 성분마다, 화면 사이즈 내에 클립핑하고, 화상 사이즈 화상단의 데이터를 보상 화소로서 대용하는 방법을 적용한다. 단, 이 케이스 2)에서는 원 화상의 밖을 가리키고 있는 화소는 마스크 데이터의 "0" 값에 해당하므로, 실제로는 보상하지 않아도 지장이 없다. 또, 이 슬라이드인 효과는 복잡한 변형을 수반하지 않는 단순한 평행 이동이기 때문에, 운동 파라미터를 사용하지 않고, 화상 사이즈와 표시 위치만을 지정하는 방법에도 대응할 수 있다.
도 18에, 슬라이드인을 상정한 특수 효과 처리의 예를 나타낸다. 참조 부호(710)가 특수 효과 발생 전부터 재생되어 있는 제1 장면의 프레임, 참조 부호(720)가 특수 효과 후에 나타나는 제2 장면의 프레임, 참조 부호(730)가 마스크 데이터를 나타내고 있다. 제2 장면의 프레임(720)은 평행 이동의 운동 파라미터에 의해 721과 같이 변형된다. 이 변형된 제2 장면의 프레임(721)과 제1 장면의 프레임을 마스크 데이터로서 합성함으로써, 특수 효과 처리를 실시한 합성 프레임(740)이 생성된다.
도 14는 케이스 1)에 관하여, 마스크 데이터의 사이즈 확대를 상정한 특수 효과 운동 벡터 및 이동 보상의 예를 나타낸 도면이다. 도 14의 구성은 도 3과 동일하다. 단, 도 14에서는 특수 효과 화상(301)의 대표점(305, 306, 307)을 제공한 도면을 생략하고 있다. 또한, 운동 모델을 투시 변환으로 하고, 화면의 우측 하단에도 대표점을 설치하고 있다. 이 케이스에서는 화면 사이즈의 마스크 데이터를 부호화하는 대신에, 작은 사이즈의 마스크 데이터와 그 사이즈를 확대하기 위한 운동 파라미터를 부호화함으로써, 부호량을 삭감하는 것을 상정하고 있다. 따라서, 변형 전의 원 화상(302)이 화면 사이즈에 대하여 축소된 화상, 특수 효과 화상(301)이 화면 사이즈까지 줌 업한 화상으로 되어 있다. 도 3과 마찬가지로 참조 부호(303)가 특수 효과 화상(301)의 좌측 상단, 우측 상단, 좌측 하단, 우측 하단에 위치하는 대표점이 원 화상 상에서 어떤 위치에 상당하는 가를 보상한 이동 보상 화상을 나타내고 있으며, 참조 부호(308, 309, 310, 314)는 이동 보상 후의 대표점, 참조 부호(312, 313, 315)는 글로벌 운동 벡터를 나타내고 있다. 이 글로벌 운동 벡터로부터 산출되는 투시 변환 모델의 운동 파라미터를 이용하여 각 화소의 운동 벡터를 산출하고, 특수 효과 후의 마스크 데이터 내의 화소값을 도출한다.
도 19는 형상 데이터의 사이즈 확대를 상정한 특수 효과 처리의 예를 나타내고 있다. 도 18과 마찬가지로, 참조 부호(710)는 특수 효과 발생 전부터 재생되어 있는 제1 장면의 프레임, 참조 부호(720)는 특수 효과 후에 나타나는 제2 장면의 프레임, 참조 부호(730)는 마스크 데이터를 나타내고 있다. 마스크 데이터(730)가 확대 운동 파라미터에 의해 731과 같이 변형된다. 이 변형된 마스크 데이터(731)에 기초하여 제2 장면의 프레임과 제1 장면의 프레임을 합성함으로써, 특수 효과 처리를 실시한 합성 프레임(740)이 생성된다.
다음으로, 도 3의 시스템 데이터 생성 처리에 의해 작성한 데이터로부터 특수 효과를 포함한 영상을 합성하는 방법에 대하여, 도 15를 예로 들어 설명한다. 우선, 입력된 시스템 데이터는 시스템 디코더(101)에 의해, 오디오 데이터, 비디오 데이터(특수 효과 발생 전부터 재생되어 있는 제1 장면과 특수 효과 후에 나타나는 제2 장면), 특수 효과 데이터로 분리된다. 분리된 오디오 데이터는 각각 오디오 디코더(102)에 의해 복호 처리되고, 시스템 데이터 또는 오디오 데이터에 포함되어 있는 시각 정보에 따라 스피커로부터 재생된다. 분리된 특수 효과 데이터는 비디오 디코더(105)에 입력된다. 특수 효과 비디오 디코더(105)에서는 첫째로, 도 5,도 6, 도 7에 도시한 이동 타입 정보(패치 정보, 운동 모델 정보)나 변형 타입 정보(변형 선택 정보, 변형 화상 정보)가 복원된다. 둘째로, 특수 효과 데이터로부터 추출된 글로벌 운동 벡터 또는 패치 운동 벡터가 이동 타입 정보에 기초하여 파라미터 디코더(152)에 의해 복원되어, 운동 파라미터가 산출된다. 셋째로, 형상 데이터가 특수 효과 데이터로부터 추출되어 형상 디코더(151)에 의해 복원되어, 마스크 데이터가 얻어진다. 분리된 비디오 데이터는 이동·모양 디코더(103: 비디오 데이터가 형상 신호를 갖는 경우에는 형상 디코더, 비디오 데이터가 글로벌한 운동 벡터 보상을 수반하는 경우에는 파라미터 디코더와 화상 변형부도 이용)에 의해, 제1 장면 및 제2 장면의 각 프레임으로 복호된다. 이들 비디오 디코더로 복원된 마스크 데이터, 제1 장면 및 제2 장면의 프레임 화상 중, 변형 선택 정보로서 지정된 화상, 또는 알고리즘 상 사전에 규정되어 있는 화상은 화상 변형부(153)에 입력되어, 복호된 운동 파라미터에 따라 변형 처리된다. 그 후, 마스크 데이터, 제1 장면 및 제2 장면의 프레임 화상은 합성부(106)에 입력되고, 특수 효과 화상으로서 합성된다. 또, 도 15에서는 설명 상, 파라미터 디코더와 화상 변형부를 이동·모양 디코더와는 별도의 처리 유닛으로서 기재하고 있지만, 일반적으로는 파라미터 디코더와 화상 변형부는 이동·모양 디코더의 기능으로서 취급된다.
도 15에서는 수신한 시스템 데이터로부터, 특수 효과 장면을 재현하는 방법에 대하여 도시하였다. 그러나, 특수 효과 화상의 합성 작업으로서는 단순하게, 축적되어 있는 데이터로부터 특수 효과 데이터와 피편집용 비디오 데이터를 선택하고, 특수 효과 데이터의 수정 등을 행하면서 장면을 합성하는 방법 등도 생각된다.
상기한 특수 효과 처리의 설명에서는 특수 효과 데이터와 비디오 데이터를 별도의 비트 스트림으로 다루는 것을 생각해 왔다. 그러나, 특수 효과 데이터와 특수 효과 후에 나타나는 제2 장면의 비디오 데이터를 통합하여 취급할 수도 있다. 구체적으로는 통합 데이터용 형상 타입을 별도 준비하고, 2종류의 데이터를 통합하여 취급하기 위한 시퀀스 헤더, 프레임 헤더의 포맷을 규정한다. 그리고, 또한, 2데이터의 통합 MB 데이터 포맷을 도 16에 도시한 바와 같이 규정한다. 통합 MB 데이터는 마스크 MB 데이터(434)와 비디오 MB 데이터(435)로 구성되어 있으며, 상호 의존 관계는 갖지 않는다. 도 17은, 각각 도 3의 시스템 데이터 생성 처리를 통합 데이터용으로 확장한 도면이다. 도 17이 도 3과 다른 점은 데이터 합성부(213)가 추가되어 있다는 점이다. 이 데이터 합성부(213)는 특수 효과 데이터 작성부(211)에서 생성되는 특수 효과 데이터와, 메모리(210)로부터 출력되는 피편집 비디오 데이터를 통합하는 역할을 갖는다. 또, 데이터 합성부(213)는 합성 대상이 되는 특수 효과 데이터가 없는 경우(제1 비디오 장면의 데이터, 오디오 데이터 등)에는 입력 데이터를 그대로 출력한다. 또, 이 통합 데이터는 도 15에 도시한 요소 요소로 재생 처리할 수 있다.
본 발명에는 이하의 변형도 포함된다. 본 실시예에서는 MPEG-4의 기능을 사용한 예로서 본 발명을 설명했지만, 본 발명의 적용 범위는 MPEG-4에는 한정되지 않는다. 마스크 데이터와 운동 벡터(운동 파라미터)를 다루는 기능을 갖는 장치 및 처리 방법이면, 적응할 수 있다. 또한, 마스크 패턴과 운동 패턴의 부호화 방법도 MPEG-4의 알고리즘에는 한정되지 않는다.
또한, 본 실시예에서는 특수 효과 데이터의 포맷을 도 5∼도 7, 도 12, 도 16과 같이 도시했지만, 포맷 내에서의 각 요소의 배치는 이에 한정되지 않는다. 형상 데이터, 운동 벡터 등, 도면에 기재되어 있는 요소가 포함되어 있는 데이터를 다루는 데이터 및 데이터 생성 처리 방법은 전부 포함된다.
또한, 본 발명에서는 특수 효과를 실시하는 대상이 되는 비디오 데이터의 형상 타입은 한정되지 않는다. 임의 오브젝트에도 적용할 수 있다. 예를 들면, 장면에 등장하는 오브젝트에 대하여, 특수 효과를 실시할 때에도 사용할 수 있다. 그 경우에는 오브젝트가 갖는 형상 데이터마다 특수 효과를 적용하면 충분하다.
또한, 본 실시예에서는 특수 효과의 대상이 되는 장면을 단일 오브젝트로 한정하여 설명해 왔지만, 복수의 오브젝트로서 구성되는 장면에도 적용할 수 있다. 이 경우에는 오브젝트 장면의 합성을 행하고, 합성 화상에 대하여 특수 효과 처리를 실시하면 충분하다.
본 발명에 의해, 화상의 변형을 수반하는 특수 효과 패턴의 라이브러리화가 가능하다. 또, 특수 효과를 실현하기 위한 압축 데이터를 배신할 수도 있다. 또한, 확대의 운동 벡터에 의해 형상 데이터를 확대시킴으로써, 특수 효과용 마스크 데이터의 데이터량을 삭감시킬 수 있다.
이상 설명한 바와 같이, 본 발명을 실시예를 통해 설명했지만, 본 기술 분야에 숙련된 자는 첨부한 청구 범위에 한정된 발명의 영역 및 정신 내에서 상술한 실시에에 대한 각종의 변형을 실시할 수 있을 것이다.

Claims (15)

  1. 특수 효과용 마스크 패턴과, 임의의 재생 화상을 변형하기 위한 운동 패턴을 부호화하여, 1개의 데이터로 다중화하는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  2. 제1항에 있어서,
    상기 다중화된 1개의 데이터에는 운동 패턴에 기초하여 변형시키는 화상의 종류를 나타내는 정보(변형 화상 정보)가 부호화되어 더 포함되는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  3. 제1항에 있어서,
    상기 운동 패턴의 적용 범위는 화면 전체인 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  4. 제1항에 있어서,
    상기 운동 패턴의 적용 범위는 국소 화면이며, 복수의 운동 파라미터군으로 구성되어 있는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  5. 제1항에 있어서,
    상기 운동 패턴이 변형 후의 화상 사이즈 및 표시 위치를 나타내는 정보를 포함하는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  6. 제1항에 있어서,
    상기 운동 패턴이 1 프레임 데이터에 대하여 복수개 포함되는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  7. 제1항에 있어서,
    상기 마스크 패턴이 2치 데이터와 투명도의 레벨로 구성되어 있는 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  8. 제1항에 있어서,
    상기 마스크 패턴이 그레이스케일 데이터인 것을 특징으로 하는 특수 효과 데이터 부호화 방법.
  9. 마스크 패턴과 운동 패턴을 포함하는 부호화 데이터를 복호하는 복호 처리와, 복호한 마스크 데이터와 운동 파라미터에 기초하여 특수 효과 처리 대상의 입력 화상 또는 복호 화상에 대하여 연산을 행하는 연산 처리를 포함하는 것을 특징으로 하는 특수 효과 표시 방법.
  10. 제9항에 있어서,
    상기 부호화 데이터는, 변형하는 화상의 종류를 나타내는 변형 화상 정보를 더 포함하고, 상기 연산 처리는, 상기 변형 화상 정보에 기초하여 연산을 행하는 것을 특징으로 하는 특수 효과 표시 방법.
  11. 제9항에 있어서,
    상기 특수 효과 처리 대상의 입력 화상 또는 복호 화상에 대하여 연산을 행하는 연산 처리에, 마스크 데이터를 운동 파라미터에 기초하여 변형하는 처리를 포함하는 것을 특징으로 하는 특수 효과 표시 방법.
  12. 제9항에 있어서,
    상기 특수 효과 처리 대상의 입력 화상 또는 복호 화상에 대하여 연산을 행하는 연산 처리에, 하나의 입력 화상 또는 복호 화상을 운동 파라미터에 기초하여 변형하는 처리를 포함하는 것을 특징으로 하는 특수 효과 표시 방법.
  13. 제9항에 있어서,
    특수 효과 처리 대상의 입력 화상 또는 복호 화상에 대하여 연산을 행하는 연산 처리에, 특수 효과 처리 대상이 되는 두 개의 입력 화상 또는 복호 화상을 합성한 화상을 운동 파라미터에 기초하여 변형하는 처리를 포함하는 것을 특징으로 하는 특수 효과 표시 방법.
  14. 저장된 부호화 비디오 데이터에 대하여, 화상을 변형하기 위한 운동 패턴의 부호화 데이터를 상기 저장된 비디오 데이터에 추가하는 것을 특징으로 하는 특수 효과 데이터 편집 방법.
  15. 제14항에 있어서,
    상기 특수 효과 데이터 편집 방법은, 또한 운동 패턴에 기초하여 변형시키는 화상이 표시 전의 재생 화상인지, 이동 보상용 참조 화상인지를 나타내는 정보를 부호화한 데이터를 다중화하는 것을 특징으로 하는 특수 효과 데이터 편집 방법.
KR1020020008681A 2001-10-05 2002-02-19 특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및특수 효과 데이터 편집 방법 KR20030029442A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00309385 2001-10-05
JP2001309385A JP2003116053A (ja) 2001-10-05 2001-10-05 特殊効果データ符号化方法及び特殊効果表示方法及び特殊効果データ編集方法

Publications (1)

Publication Number Publication Date
KR20030029442A true KR20030029442A (ko) 2003-04-14

Family

ID=19128545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020008681A KR20030029442A (ko) 2001-10-05 2002-02-19 특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및특수 효과 데이터 편집 방법

Country Status (5)

Country Link
US (1) US20030067560A1 (ko)
EP (1) EP1301042A3 (ko)
JP (1) JP2003116053A (ko)
KR (1) KR20030029442A (ko)
CN (1) CN1413017A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200094769A (ko) * 2018-02-07 2020-08-07 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 변형 특수 효과 프로그램 파일 패키지의 생성 및 변형 특수 효과 생성 방법과 장치

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4036328B2 (ja) * 2002-09-30 2008-01-23 株式会社Kddi研究所 動画像データのシーン分類装置
CN1810039B (zh) * 2003-06-23 2010-06-16 Nxp股份有限公司 用于组合情景的方法和译码器
JP4424590B2 (ja) * 2004-03-05 2010-03-03 株式会社Kddi研究所 スポーツ映像の分類装置
JP4312246B2 (ja) 2005-03-18 2009-08-12 富士通株式会社 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
KR101100212B1 (ko) * 2006-04-21 2011-12-28 엘지전자 주식회사 방송 신호 전송 방법, 방송 신호 재생 방법, 방송 신호전송 장치 및 방송 신호 수신 장치
US7631253B2 (en) * 2006-05-05 2009-12-08 Google Inc. Selective image editing in a browser
US7631252B2 (en) * 2006-05-05 2009-12-08 Google Inc. Distributed processing when editing an image in a browser
WO2007131233A2 (en) * 2006-05-05 2007-11-15 Google Inc. Browser image manipulation
US8212805B1 (en) 2007-01-05 2012-07-03 Kenneth Banschick System and method for parametric display of modular aesthetic designs
US20110084982A1 (en) * 2009-10-12 2011-04-14 Sony Corporation Apparatus and Method for Displaying Image Data With Memory Reduction
US8411750B2 (en) * 2009-10-30 2013-04-02 Qualcomm Incorporated Global motion parameter estimation using block-based motion vectors
JP5801104B2 (ja) * 2011-06-06 2015-10-28 アビックス株式会社 Html文書に基づく短編動画作品の自動制作
WO2013061549A1 (ja) 2011-10-28 2013-05-02 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
MX2013012223A (es) 2011-10-28 2013-11-01 Panasonic Corp Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen y aparato de decodificacion de imagen.
US9690334B2 (en) 2012-08-22 2017-06-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
US9438910B1 (en) * 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
US20170078703A1 (en) * 2015-09-10 2017-03-16 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69334277D1 (de) * 1992-11-05 2009-05-28 Canon Kk Vorrichtung und Verfahren zur Verarbeitung von Bewegtbildern
JPH07143399A (ja) * 1993-11-19 1995-06-02 Matsushita Electric Ind Co Ltd 特殊効果処理装置
US5699120A (en) * 1995-10-13 1997-12-16 Tektronix, Inc. Motion vector using a transform function identification signal
JP4049280B2 (ja) * 1996-09-24 2008-02-20 株式会社ハイニックスセミコンダクター グレースケール形状情報符号化/復号化装置及び方法
US5978034A (en) * 1997-02-20 1999-11-02 Sony Corporation Moving picture encoding method and apparatus, moving picture decoding method and apparatus and recording medium
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6546052B1 (en) * 1998-05-29 2003-04-08 Canon Kabushiki Kaisha Image processing apparatus and method, and computer-readable memory
US6483874B1 (en) * 1999-01-27 2002-11-19 General Instrument Corporation Efficient motion estimation for an arbitrarily-shaped object
US20020041339A1 (en) * 2000-10-10 2002-04-11 Klaus Diepold Graphical representation of motion in still video images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200094769A (ko) * 2018-02-07 2020-08-07 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 변형 특수 효과 프로그램 파일 패키지의 생성 및 변형 특수 효과 생성 방법과 장치

Also Published As

Publication number Publication date
EP1301042A2 (en) 2003-04-09
CN1413017A (zh) 2003-04-23
US20030067560A1 (en) 2003-04-10
EP1301042A3 (en) 2005-03-16
JP2003116053A (ja) 2003-04-18

Similar Documents

Publication Publication Date Title
KR20030029442A (ko) 특수 효과 데이터 부호화 방법, 특수 효과 표시 방법, 및특수 효과 데이터 편집 방법
US6754269B1 (en) Video encoding apparatus and video decoding apparatus
KR102453512B1 (ko) 투영 기반 프레임을 프로세싱하기 위한 방법
EP0880286B1 (en) Moving image encoding and decoding device
JP2001507541A (ja) スプライトベースによるビデオ符号化システム
KR20000075603A (ko) 고해상도 정지 화상의 생성 방법 및 장치
TW201545545A (zh) 用於次世代視訊編碼之投射式內插預測產生之技術
JP2003533101A (ja) 予測符号化オブジェクトベース画像信号を予測符号化ブロックベース画像信号にトランスコーディングするトランスコーディング方法およびトランスコーダ
JPH10503358A (ja) 対話型画像操作
KR100320052B1 (ko) 동화상 부호화 장치 및 동화상 복호화 장치
KR20030014689A (ko) 스프라이트 생성을 위한 글로벌 동작추정
JPH09214970A (ja) 画像符号変換方式
JP2000050305A (ja) 映像の色差信号フィルタリング方法及び装置
KR20060135736A (ko) 스크린상에 디스플레이될 영상들의 종횡비의 변경
KR100265720B1 (ko) 2차원삼각형선격자모델을이용한동영상의움직임보상방법
JP2018067751A (ja) 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
JP2003198936A (ja) 特殊効果データ符号化方法及び特殊効果処理方法、特殊効果データ編集方法
JP2000341587A (ja) 画像処理装置及び方法
Yokoyama et al. Very low bit-rate video coding with object-based motion compensation and orthogonal transform
JPH08149461A (ja) 動画像処理装置とその方法
JP2008245311A (ja) 画像復号化方法及び装置
JP4136403B2 (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JPH08307877A (ja) 動画像構造化の符号化および復号化方法
EP1696678A1 (en) Moving image reproducing method, apparatus and program
KR100568532B1 (ko) 동영상부호화 및 복호화에 있어서의 윤곽선충진방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid