KR19990088476A - 편집방법및편집장치 - Google Patents

편집방법및편집장치 Download PDF

Info

Publication number
KR19990088476A
KR19990088476A KR1019990018434A KR19990018434A KR19990088476A KR 19990088476 A KR19990088476 A KR 19990088476A KR 1019990018434 A KR1019990018434 A KR 1019990018434A KR 19990018434 A KR19990018434 A KR 19990018434A KR 19990088476 A KR19990088476 A KR 19990088476A
Authority
KR
South Korea
Prior art keywords
picture
edit point
encoded
predictive
stream
Prior art date
Application number
KR1019990018434A
Other languages
English (en)
Other versions
KR100615340B1 (ko
Inventor
이기노부히로
오바타코지
카토모토키
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR19990088476A publication Critical patent/KR19990088476A/ko
Application granted granted Critical
Publication of KR100615340B1 publication Critical patent/KR100615340B1/ko

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/007Transform coding, e.g. discrete cosine transform
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

앞선 GOP1의 편집점이 I 화상(22)의 뒤에 위치한다. 또한, 상기 편집점은 I 또는 P 화상 직후에 위치하지 않는다. 따라서, GOP1이 디코딩된다. 편집점(P 화상 및 뒤의 화상들) 뒤에 위치한 스트림은 파기된다. P 화상(P25) 뒤에 위치한 B 화상(B26 및 B27)은 순방향 움직임 벡터(FW)로 재인코딩(re-encoding)된다. B 화상(B26 및 B27) 외의 나머지 화상들은 디코딩 처리에서 사용되는 인코딩 정보로 재인코딩된다. 뒤진 GOP2의 편집점이 I 화상(I2) 전에 위치하지 않기 때문에, GOP2는 디코딩된다. 편집점 전에 위치한 스트림(화상 B0 내지 P5)은 파기된다. 제1 P 화상(P8)은 I 화상으로 변한다. 그 후, 재인코딩 처리가 행해진다. I 화상으로부터 변경된 P 화상(P8)은 예측 참조 화상으로 사용된다. P 화상(P8)으로, 역방향 움직임 벡터(Bk)가 얻어진다. 단지 움직임 벡터(Bk)만으로, P 화상(P8) 전에 위치한 P 화상(B6 및 B7)이 재인코딩된다.

Description

편집 방법 및 편집 장치{Editing method and editing apparatus}
본 발명은 예를 들어 MPEG 방식으로 압축 인코드된 화상 신호를 편집하는 편집 방법 및 편집 장치에 관한 것이다.
최근까지, MPEG(동화상 전문가 그룹) 방식이 화상간 압축 인코딩 방법으로서 널리 사용되어 왔다. MPEG 방식 등의 압축 인코딩 방법을 이용하여, 기록 매체가 효과적으로 사용될 수 있다. MPEG 방식에 의해 인코드된 화상 신호가 편집 시스템에 의해 편집될 때, 디코드된 화상 신호와 외부 화상 신호가 접속된다. 그 결과의 신호는 MPEG 방식으로 인코드되어 기록 매체에 기록된다. 다른 기록 매체에 기록된 비디오 신호가 기록기에 의해 더빙될 때, 기록 매체의 재생 신호가 디코드되고 재인코드된다.
MPEG 방식에는, I, P, B 화상이라 불리는 3가지의 화상 유형이 있다. I 화상(내부 부호화 화상)이 인코드될 때, 그의 정보만이 사용된다. 그러므로, I 화상은 그의 정보만으로 디코드될 수 있다. P 화상(예측 부호화 화상)이 인코드될 때, 예측 부호화 화상(차(difference)를 얻기 위한 참조 화상)과 같이, 디코드되는 I 화상과 P 화상이 사용된다. 현재의 P 화상과 움직임 보상된 예측 화상간의 차가 인코드된다. 또는, 현재의 P 화상은 차이를 얻지 않고 인코드된다. 더 높은 효과가 얻어지도록 각 매크로 블록에 대해 이들 방법들중 하나가 선택된다. B 화상(양방향 예측 부호화 화상)이 인코드될 때, 3가지 유형의 예측 화상(참조 화상)이 사용된다. 제1 예측 화상은 현재의 B 화상 전에 디코드되는 I 화상 또는 P 화상이다. 제2 예측 화상은 현재의 B 화상후에 디코드되는 I 화상 또는 P 화상이다. 제3 예측 화상은 제1 예측 화상과 제2 예측 화상에 의해 만들어진 보간된 화상이다. 현재의 B 화상과 움직임 보상되는 각 예측 화상간의 차가 인코드된다. 또는, 현재의 B 화상은 내부 인코드된다. 또는, 더 높은 효과가 얻어지도록 각 매크로 블록에 대해 2가지 방법중 하나가 선택된다.
따라서, 내부 프레임 인코드된 매크로 블록, (과거 매크로 블록으로 미래 매크로 블록을 예측하기 위한) 순방향 프레임간 예측 매크로 블록, (미래 매크로 블록으로 과거 매크로 블록을 예측하기 위한) 역방향 프레임간 매크로 블록, (미래 매크로 블록과 과거 매크로 블록으로 현재의 매크로 블록을 예측하기 위한) 양방향 매크로 블록인 4가지의 매크로 블록 유형이 있다. I 화상은 단지 내부 프레임 인코드된 매크로 블록을 포함한다. P 화상은 내부 프레임 인코드된 매크로 블록과 순방향 내부 프레임 예측 매크로 블록을 포함한다. B 화상은 4가지 유형의 매크로 블록을 모두 포함한다.
MPEG 방식에는, 랜덤 액세스 동작을 실행하도록 복수의 화상들의 그룹인 GOP(Group Of Pictures) 구조가 정의되어 있다. MPEG 방식에는, GOP의 제1 화상이 I 화상이 되어야 하고 그의 최종 화상이 I 화상 또는 P 화상이 되어햐 한다는 것이 정의되어 있다. 더욱이, MPEG 방식에는, 앞선 GOP의 최종 I 또는 P 화상으로 예측을 필요로 하는 구조가 허용되는 것도 정의되어 있다. 앞선 GOP를 사용할 필요없이 디코드될 수 있는 GOP는 폐 GOP라 불린다. 화상들의 편집 겨과가 정확학 될 때, 폐 GOP 구조가 종종 사용된다.
MPEG 방식에서, 화상들이 각 GOP의 프레임 보정으로 인코드되기 때문에, MPEG 비트 스트림이 편집될 때, 제한이 있다. 바꾸어 말하면, 폐 GOP의 끝이 편집점과 매치할 때, 아무런 문제가 일어나지 않는다. 그러나, 하나의 GOP의 길이는 편집점으로서는 너무 긴 보통 0.5초이다. 따라서, 하나의 프레임(화상)의 정확도로 스트림을 편집하는 것이 바람직하다.
2개의 MPEG 비디오 스트림중 하나가 프레임에 위치된 편집점에서 다른 하나로 전환될 때, 접속된 2개의 스트림의 위상은 알 수 없다. 편집점 없이 GOP 구조를 완전히 기억하는 GOP의 경우에서는, 화상들은 편집점 처리를 실행할 필요없이 직접 디코드될 수 있다.
편집점의 존재로 인해 GOP 구조가 기억되지 않을 때, 문제가 발생할 것이다. 편집점 이전에 위치된 스트림에서, GOP의 편집점 이후에 위치된 데이터는 폐기된다. 편집점 이후에 위치된 스트림에서, 편집점 이전에 위치된 데이터는 폐기된다. 편집점을 갖는 나머지 2개의 스트림이 디코드될 때, 2개의 스트림의 편집점 부근의 데이터는 새로운 GOP로서 취급된다. 따라서, 새로운 GOP가 예측 참조 화상으로서 I 화상을 포함하지 않을 때, GOP는 디코드될 수 없다. 이 경우에, 편집된 비트 스트림이 디코드되는 것을 허용하기 위해서, 비트 스트림은 베이스 밴드 신호로 MPEG 디코드되고 비트 스트림으로 재인코드된다.
새로운 GOP의 제1 화상의 화상 유형은 I 화상으로 변경된다. I 화상을 참조하여, 다른 화상의 화상 유형이 결정될 수 있다. 바꾸어 말하면, 편집안된 GOP가 디코드될 때, GOP의 제1 화상의 화상 유형은 I 화상으로 변경된다. I 화상과 함께, 다른 화상의 화상 유형이 재정의되고 재인코드된다. 그 결과로서, 새로운 GOP가 형성된다.
그러나, 그와 같은 편집점 처리 방법으로, 편집점의 위상에 따라, B 화상이 I 화상으로 변경될 수 있다. 일반적으로, B 화상의 데이터량이 I 화상의 것보다 작을지라도, 이전의 디코드된 화상의 화질이 나중의 것보다 더 낮다. 그러므로, 화질 저하된 화상이 I 화상으로서 사용되는 재인코딩 처리에서는, 재인코드된 화상의 화질이 원 화상의 화질보다 열등하다.
또한, 재인코드된 스트림의 화상 유형의 시퀀스가 원 스트림의 것과 상이하므로, 원 스트림의 디코딩 처리에 사용된 인코딩 정보가 사용될 수 없다. 일반적으로, 스위칭 동작을 포함하는 편집 처리가 실행될 때마다, 편집 처리 및 디코딩 처리가 반복된다. 보통은, 디코딩 처리와 인코딩 처리가 베이스 밴드 신호와 비트 스트림간에 실행될 때, 결과의 화상의 화질은 크게 저하된다. 스트림의 디코딩 처리에 포함된 인코딩 정보를 사용하여, 디코딩 처리 및 인코딩 처리로 인한 편집점 부근에서의 화질의 저하가 최소화될 수 있다. 인코딩 정보는 화상 유형, 움직임 벡터, 양자화 축적을 포함한다. 편집점 처리 이전의 화상 유형이 편집점 처리가 실행된 후의 화상 유형으로부터 실행될 때, 인코딩 정보는 재인코딩 처리를 위해 사용될 수 없다. 그러므로, 화질은 크게 저하한다.
따라서, 본 발명의 목적은 인코드된 데이터(스트림)가 편집되는 경우에 화질이 저하되는 것을 방지하는 편집 방법 및 편집 장치를 제공하는데 있다.
본 발명의 제1 특징은 편집점을 지정하는 지정 수단과,
적어도 화상이 편집되기 전에 예측 참조 화상으로서 인코딩된 화상을, 상기 화상이 편집된 후 예측 참조 화상으로서 인코딩되도록 제어하는 제어 수단과,
상기 제어 수단의 제어 하에, 상기 편집점의 전 또는 후에 위치한 상기 예측 참조 화상이 아닌 화상의 예측 구조(predictive structure)를 변경시키는 변경 수단을 포함하는 화상 편집 장치이다.
본 발명의 제2 특징은 (a) 편집점 지정 단계와,
(b) 적어도 화상이 편집되기 전에 예측 참조 화상으로서 인코딩된 화상을, 상기 화상이 편집된 후 예측 참조 화상으로서 인코딩되도록 제어하는 단계와,
(c) 상기 제어 단계(b)의 제어 하에, 상기 편집점의 전 또는 후에 위치한 상기 예측 참조 화상이 아닌 화상의 예측 구조를 변경시키는 단계를 포함하는, 화상 편집 방법이다.
편집점 처리가 실행되는 전후에, 인코드된 데이터의 예측 참조 화상의 간격은 변경되지 않는다. 그러므로, 디코딩 처리 및 재인코딩 처리가 실행될 때, 계산 횟수가 줄어들 수 있다. 또한, 디코딩 처리에 사용된 인코딩 정보는 재사용될 수 있다. 그러므로, 편집된 화상의 화질이 개선될 수 있다.
본 발명의 이러한 그리고 다른 목적, 특징, 이점등은 첨부된 도면에 도시된 바와 같이, 다음의 본 발명의 최고 형태의 실시예의 상세한 설명을 통해 보다 명확해질 것이다.
도 1은 본 발명의 일실시예에 따른 편집점 처리 방법을 설명하기 위한 흐름도의 제1 부분도.
도 2는 도 1에 도시된 흐름도의 제1 부분도.
도 3은 본 발명의 상기 실시예에 따른 편집점 처리 방법을 설명하기 위한 타이밍도.
도 4는 본 발명의 상기 실시예에 따른 편집점 처리 방법과 함께 사용하기 위한 재인코딩 처리를 설명하기 위한 타이밍도.
도 5는 본 발명을 설명하는데 참조한 다른 편집점 처리 방법을 설명하기 위한 흐름도.
도 6은 본 발명에 따른 편집점 처리를 설명하기 위한 광 디스크상의 기록 상태의 일예를 도시하는 개략도.
도 7은 본 발명에 따른 편집점 처리의 일례를 설명하기 위한 개략도.
도 8은 본 발명에 따른 광 기록기의 구조의 일례를 도시하는 블록도.
도 9는 본 발명의 일실시예에 따른 편집점 처리 장치의 구조를 도시하는 블록도.
도 10은 본 발명의 조합에 있어서 편집점 처리 방법을 설명하기 위한 흐름도.
도 11은 본 발명의 조합에 있어서 편집점 처리 방법을 설명하기 위한 흐름도.
* 도면의 주요 부분에 대한 부호의 설명 *
53 : 제어부 54 : 비트 스트림 편집부
57 : MPEG 디코더 58 : 화상 편집부
59 : MPEG 인코더
이어서, 첨부된 도면을 참조하여, 본 발명의 일실시예를 설명한다. 도 1 및 도 2는 본 발명의 실시예에 따른 편집점처리 방법을 도시하는 흐름도의 제1 부분 및 제2 부분이다. 단계(ST1)에서, 편집점 처리가 개시된다. 단계(ST2)에서, 접속될 2개의 비트 스트림중 앞선 것의 편집점(OUT 점)을 포함하는 GOP(GOP1)에 대한 처리가 개시된다. 편집점 처리는 GOP1 이전의 GOP에 대해서는 실행되지 않는다.
단계(ST3)에서, 편집점이 GOP1의 I 화상 이전에 위치하는지 여부가 결정된다. 단계(ST3)에서 결정된 결과가 NO(즉, 편집점이 I 화상 이후에 위치함)일 때, 단계(ST4)로 흐름이 나아간다. 단계(ST4)에서, 편집점이 I 화상 또는 P 화상 직후에 위치하는지 위치하지 않는지 여부가 결정된다. 단계(ST4)에서 결정된 결과가 예(YES)(즉, 편집점이 I 화상 또는 P 화상 직후에 위치함)일 때, 단계(ST5)로 흐름이 나아간다. 단계(ST5)에서 편집점 이후에 위치한 비트 스트림이 파기된다. 그 후, 흐름은 단계(ST6)로 나아간다. 단계(ST6)에서, GOP1의 나머지 부분이 현재 상태로 출력된다. 바꾸어 말하면, 편집점 이전에 위치한 스트림이 예측 참조 화상인 I 화상 또는 P 화상을 포함하므로, 이 부분의 스트림은 특정 처리를 실행할 필요없이 디코드될 수 있다.
단계(ST4)에서 결정된 결과가 아니오(NO)(즉, 편집점이 I 화상 또는 P 화상 직후에 위치하지 않음)일 때, 흐름은 단계(ST7)로 나아간다. 단계(ST7)에서, GOP1은 임시로 디코드된다. 단계(ST8)에서, 편집점 이후에 위치한 화상들은 파기된다. 단계(ST9)에서, 제1 재인코딩 처리가 실행된다. 제1 재인코딩 처리에서, I 화상 또는 P 화상과 편집점 사이에 위치한 B 화상은 I 화상 또는 P 화상이 예측 참조 화상인 순방향 움직임 벡터(Fw)만으로 재인코드된다.
상술한 바와 같이, B 화상은 내부 프레임 인코드된 매크로 블록, (과거 매크로 블록으로 미래 매크로 블록을 예측하기 위한) 순방향 프레임간 예측 매크로 블록, (미래 매크로 블록으로 과거 매크로 블록을 예측하기 위한) 역방향 프레임간 매크로 블록, (미래 매크로 블록과 과거 매크로 블록으로 현재의 매크로 블록을 예측하기 위한) 양방향 매크로 블록을 포함한다. 그러므로, 순방향 프레임간 예측 매크로 블록과 양방향 매크로 블록의 경우, 재인코딩 처리가 순방향 움직임 벡터(Fw)만으로 실행될 때, 디코딩 처리에 사용된 움직임 벡터(Fw)가 재사용될 수 있다. 바꾸어 말하면, 역방향 프레임간 예측 매크로 블록의 경우, 순방향 움직임 벡터(Fw)는 재계산되어야 한다.
움직임 벡터에 대응하는 매크로 블록 유형이 각 매크로 블록에 대해 검출될 수 있다. 움직임 벡터를 갖지 않는 매크로 블록은 내부 프레임 인코드된 매크로 블록이다. 순방향 움직임 벡터만을 가지는 매크로 블록은 순방향 프레임간 예측 매크로 블록이다. 역방향 움직임 벡터만을 가지는 매크로 블록을 역방향 프레임간 예측 매크로 블록이다. 순방향 움직임 벡터와 역방향 움직임 벡터 모두를 가지는 매크로 블록은 양방향 매크로 블록이다. 움직임 벡터 뿐만 아니라, 매크로 블록 유형도 스트림에 위치한 정보로 직접 검출될 수 있다.
단계(ST3)에서 검출된 결과 YES(즉, 편집점이 I 화상 이전에 위치함)일 때, 편집점 이후에 위치된 스트림이 파기되면, I 화상은 남지 않는다. 그러므로, GOP1이 임시로 디코드되고 편집점 이후에 위치한 화상이 파기된다. 그 결과의 화상이 재인코드된다. 재인코딩 처리는 GOP1(GOP1을 포함하는 비트 스트림)가 클로즈드 GOP(closed GOP)인지 아닌지 여부에 의존한다. 그러므로, 단계(ST10)에서, GOP1이 클로즈드 GOP인지 아닌지 여부가 결정된다. 스트림내의 GOP 헤더는 인코딩 처리에서 설정된 클로즈드 GOP 플래그를 포함한다. 그러므로, GOP1이 상기 플래그에 대응하는 클로즈드 GOP인지 아닌지 여부가 결정된다. 플래그가 클로즈드 GOP를 나타낼 때, 현재 GOP의 시작시의 복수의 B 화상은 앞선 GOP에 의존하지 않는다.
단계(ST10)에서 결정된 결과가 YES(즉, GOP1이 클로즈드 GOP임)일 때, 흐름은 단계(ST11)로 나아간다. 단계(ST11)에서, GOP1이 임시로 디코드된다. 단계(ST12)에서, 편집점 이후에 위치한 화상들이 파기된다. 단계(ST13)에서, 제2 재인코드된 처리가 실행된다. 제2 재인코딩 처리에서, 제1 B 화상은 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 다른 B 화상이 있으면, 예측 참조 화상(I 화상)으로서 사용된다. 순방향 움직임 벡터(Fw)만을 이용하여, 다른 B 화상이 재인코드된다. 순방향 움직임 벡터(Fw)는 디코드된 화상으로부터 얻어진다.
단계(ST10)에서 결정된 결과가 NO(즉, GOP1이 클로즈드 GOP가 아님)일 때, 단계(ST14)로 흐름이 나아간다. 단계(ST14)에서, GOP1이 디코드된다. 단계(ST15)에서, 편집점 이후에 위치한 화상들이 파기된다. 단계(ST16)에서, 제3 재인코딩 처리가 실행된다. 바꾸어 말하면, GOP1이 클로즈드 GOP가 아니므로, 인접하여 앞선 GOP의 최종 P 화상은 예측 참조 화상으로서 사용된다. 순방향 움직임 벡터(Fw)만으로 I 화상이 인코드된다. 순방향 움직임 벡터(Fw)로서, 디코딩 처리에 사용된 순방향 움직임 벡터(Fw)가 재사용될 수 있다.
그 후, 단계(ST17)로 흐름이 나아간다(도 2 참조). 단계(ST17)에서, 접속될 2개의 스트림중 나중의 것의 편집점(IN 점)을 포함하는 GOP(GOP2)에 대한 처리가 개시된다. GOP2 이후에 위치한 GOP는 특정 처리를 실행할 필요없이 비트 스트림으로서 직접 출력된다.
단계(ST18)에서, 편집점이 I 화상 이전에 위치하는지 위치하지 않는지 여부가 결정된다. 단계(ST18)에서 결정된 결과가 NO(즉, 편집점이 I 화상 이후에 위치함)일 때, 편집점 이전에 위치한 스트림이 파기되면, I 화상은 잃게 된다. 그러므로, GOP2가 임시로 디코드된다. 그 후, 편집점 이전에 위치한 스트림이 파기되고 그 다음에 나머지 스트림이 재인코드된다. 단계(ST19)에서, GOP1에 대한 경우에서와 같이, GOP2가 클로즈드 GOP인지 아닌지 여부가 결정된다. 재인코딩 처리는 GOP2가 클로즈드 GOP인지 아닌지 여부에 의존한다.
단계(ST19)에서 결정된 결과가 YES(즉, GOP2가 클로즈드 GOP임)일 때, 흐름은 단계(ST20)로 나아간다. 단계(ST20)에서, GOP2가 디코드된다. 단계(ST21)에서, 편집점 이전에 위치한 스트림이 파기된다. 단계(ST22)에서, 제2 재인코딩 처리가 실행된다. 제4 재인코딩 처리에서, 제1 P 화상은 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. B 화상이 P 화상과 편집점 사이에 위치할 때, P 화상은 예측 참조 화상으로서 사용된다. 역방향 예측(즉, 역방향 움직임 벡터(Fw))만으로, 재인코딩 처리가 실행된다. P 화상 이전에 위치한 스트림은 화상 유형을 변경하지 않고 재인코드된다. 그러므로, P 화상은 I 화상으로 변경된다. 단계(ST20)의 디코딩 처리에서 사용된 인코딩 정보(예를 들어, 움직임 벡터)를 이용하여, 재인코딩 처리가 실행된다. 재인코드된 스트림이 출력된다. 단계(ST29)에서, 편집점 처리가 종료된다.
단계(ST19)에서 결정된 결과가 NO(즉, GOP2가 클로즈드 GOP가 아님)일 때, 흐름은 단계(ST23)로 나아간다. 단계(ST23)에서, GOP2가 디코드된다. 단계(ST24)에서, 편집점 이전에 위치한 스트림은 파기된다. 단계(ST25)에서, 다음 GOP의 I 화상 이전에 위치한 부분은 디코드된다. 단계(ST26)에서, 제5 재인코딩 처리가 실행된다.
제4 재인코딩 처리와 같이, 단계(ST26)의 제5 재인코딩 처리에서는, 제1 P 화상이 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 제1 P 화상 이후에 위치한 화상들은 그들의 화상 유형을 변경하지 않고 재인코드된다. B 화상은 제4 재인코딩 처리와는 상이한 방법으로 재인코드된다. 바꾸어 말하면, GOP2의 최종 P 화상과 다음 GOP의 I 화상과 함께, I 화상 이전에 위치한 B 화상이 재인코드되고 출력된다. B 화상을 재인코드하기 위해서, 단계(ST23, ST25)의 디코딩 처리에서 사용된 순방향 움직임 벡터 및 역방향 움직임 벡터가 사용될 수 있으며, 재인코드된 스트림이 출력된다. 단계(ST29)에서, 편집점 처리가 종료된다.
단계(ST18)에서 결정된 결과가 YES(즉, 편집점이 I 화상 이전에 위치함)일 때, 흐름은 단계(ST27)로 나아간다. 단계(ST27)에서, 편집점 이전에 위치한 비트 스트림은 파기된다. 그 결과의 비트 스트림에서, I 화상이 남는다. 단계(ST28)에서, GOP2의 나머지 비트 스트림이 출력된다. 단계(ST29)에서, 편집점 처리가 종료된다.
이어서, 도 3을 참조하여, 도 1 및 도 2에 도시된 편집점 처리를 상세히 설명한다. 도 3은 앞선 스트림의 GOP1과 나중 스트림의 GOP2가 GOP1 및 GOP2의 편집점에서 전환되는 경우를 도시하고 있다. GOP1 및 GOP2의 각 화상의 수는 15(N = 15)이다. 예측 참조 화상(I 또는 P 화상)의 간격은 3(M = 3)이다. 본 예에서는, GOP1 및 GOP2가 클로즈드 GOP인 경우를 설명한다. 그러나, GOP1 및 GOP2가 클로즈드 GOP인지 아닌지 여부에 상관없이, 유사한 처리가 재인코딩 처리를 제외하고 실행된다. 도 3에 도시된 화상들의 시퀀스는 재생된 화상들의 시퀀스와 매치한다. 재싱된 화상드르이 시퀀스는 원 화상들의 시퀀스와 디코드된 화상들의 시퀀스와 매치한다.
우선, 편집점 처리는 GOP1에 대해 실행된다. 편집점이 I 화상(I22) 이후에 위치하고 I 화상 또는 P 화상 직후에 위치하지 않으므로, GOP1은 단계(ST3 및 ST4)의 결정을 거쳐 단계(ST7)에서 디코드된다. 디코딩 처리에 사용된 인코딩 정보는 기억된다. 기억될 인코딩 정보는 화상 유형(필수), 움직임 벡터, 각 화상에 대한 양자화 축적이다.
단계(ST8)에서, 편집점 이후에 위치한 스트림(P 화상(P28) 및 나중 화상들)은 파기된다. 그 후, 단계(ST9)에서, 제1 재인코딩 처리가 실행된다. 바꾸어 말하면, P 화상(P25) 이후에 위치한 B 화상(B26, B27)은 순방향 움직임 벡터(Fw)만으로 재인코드된다. 순방향 움직임 벡터(Fw)로서, 디코딩 처리에 기억된 순방향 움직임 벡터 또는 재계산 처리에서 얻은 순방향 움직임 벡터가 매크로 블록 유형에 대응하여 선택된다. B 화상(B26, B27)과는 다른 GOP1의 나머지 화상들은 디코딩 처리에서 사용된 인코딩 정보로 단계(ST7)에서 재인코드된다.
B 화상(B26, B27) 각각은 내부 프레임 인코드된 매크로 블록, (과거 매크로 블록으로 미래 매크로 블록을 예측하기 위한) 순방향 프레임간 예측 매크로 블록, (미래 매크로 블록으로 과거 매크로 블록을 예측하기 위한) 역방향 프레임간 매크로 블록, (미래 매크로 블록과 과거 매크로 블록으로 현재의 매크로 블록을 예측하기 위한) 양방향 매크로 블록을 포함한다. 그러므로, 순방향 프레임간 예측 매크로 블록 및 양방향 매크로 블록의 경우에는, 디코딩 처리가 순방향 움직임 벡터(Fw)만으로 실행될 때, 디코딩 처리에 사용된 움직임 벡터(Fw)가 재사용될 수 있다. 한편, 역방향 프레임간 예측 매크로 블록의 경우에는, 순방향 움직임 벡터(Fw)는 재계산되어야 한다.
그 후, GOP1 이후에 위치되는 GOP2(B0 내지 P14)에 대한 처리가 개시된다. GOP2의 편집점이 I 화상(I2) 이전에 위치하지 않으므로, 편집점 이전에 위치한 스트림이 파기되면, I 화상(I2)은 잃게 된다. 그것을 방지하기 위해서, 단계(ST18, ST19, ST20, ST21)에서 GOP2가 디코드되고 편집점 이전에 위치한 스트림(화상(B0 내지 P5)은 파기된다. 이어서, 단계(ST22)에서, 제4 재인코딩 처리가 실행된다. 바꾸어 말하면, 제1 P 화상(P8)이 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 다른 화상들은 화상 유형을 변경하지 않고 재인코드된다. I 화상으로 변경된 P 화상(P8)은 역방향 움직임 벡터(Fw)를 얻도록 예측 참조 화상으로서 사용된다. 역방향 움직임 벡터(Fw)를 이용하여, P 화상(P8) 이전에 위치한 B 화상(B6, B7)이 재인코드된다.
B 화상(B26, B27)의 경우와 같이, B 화상(B6, B7) 각각의 역방향 프레임간 예측 매크로 블록 및 양방향 매크로 블록의 경우, 디코딩 처리에 사용된 움직임 벡터(Fw)가 재사용될 수 있다. 한편, 순방향 프레임간 예측 매크로 블록의 경우, 역방향 움직임 벡터(Fw)는 재계산되어야 한다.
이어서, 도 4를 참조하여, 도 3에 도시된 바와 같은 편집된 비트 스트림을 디코딩하고 디코드된 비트 스트림을 재인코딩하기 위한 처리를 설명한다. MPEG 인코더의 화상 시퀀스 변경 처리에서는, 도 4에 도시된 바와 같이, 편집된 비트 스트림의 시퀀스는 I 화상과 P 화상이 우선 인코드되고 그 후 B 화상이 인코드되도록 변경된다.
GOP1의 편집점 이전에 위치한 스트림에서, I 화상(I22)은 예측 참조 화상으로서 사용된다. I 화상을 사용하는 순방향 예측으로, P 화상(P25)이 인코드된다. 다음에, I 화상(I22)이 예측 참조 화상으로서 사용된다. I 화상(I22)을 사용하는 역방향 예측으로, B 화상(B20, B21)이 인코드된다. B 화상(B20, B21)이 인코드될 때, I 화상(I22)에 대응하는 역방향 벡터(Fw)만이 사용된다. 또한, I 화상(I22)과 P 화상(P25)이 예측 참조 화상으로서 사용된다. I 화상(I22)과 P 화상(P25)과 함께, B 화상(B23, B24)이 인코드된다. B 화상(B23, B24)이 인코드될 때, 순방향 움직임 벡터(Fw)와 역방향 움직임 벡터(Fw)가 사용된다. 또한, 예측 참조 화상으로서의 P 화상(P25)과 함께, B 화상(B26, B27)이 인코드된다. B 화상(B26, B27)이 인코드된다. B 화상(B26, B27)은 P 화상(P25)에 대응하는 순방향 움직임 벡터(Fw)만으로 인코드된다.
GOP1의 편집점 이후에 위치한 스트림에서, P 화상으로부터 변경된 I 화상(I8)은 예측 참조 화상으로서 사용된다. I 화상(I8)을 사용하는 순방향 예측으로, P 화상(P11)이 인코드된다. P 화상(P11)은 예측 참조 화상으로서 사용된다. P 화상(P11)을 사용하는 순방향 예측으로, P 화상(P14)이 인코드된다. I 화상(I8)은 예측 참조 화상으로서 사용된다. 역방향 움직임 벡터만으로, B 화상(B6, B7)이 인코드된다. B 화상(B9, B10)은 예측 참조 화상으로서 I 화상(I8)을 사용하는 순방향 예측과 P 화상(P11)을 사용하는 역방향 예측의 조합인 양방향 예측으로 인코드된다. 또한, B 화상(B12, B13)은 예측 참조 화상으로서 P 화상(P11)을 사용하는 순방향 예측과 예측 참조 화상으로서 P 화상(P14)을 사용하는 역방향 예측의 조합인 양방향 예측으로 인코드된다.
도 3 및 도 4에 도시된 예에서, B 화상(B6, B7)에 대해 예측 참조 화상으로서 P 화상(P25)을 사용하는 순방향 벡터는 사용되지 않는다. 또한, B 화상(B26, B27)에 대한 예측 참조 화상으로서 I 화상을 사용하는 역방향 벡터는 사용되지 않는다. 이는 편집점 이전에 위치한 화상이 편집점 이후에 위치한 화상과 상관되지 않기 때문이다.
다음에, 편집점이 도 3에 도시된 위치에 위치하지 않는 경우를 설명한다. GOP1의 편집점이 I 화상(I22) 이전의 위치(예를 들어, B 화상(B21)과 I 화상(I22) 사이)에 위치할 때, 편집점 이후에 위치한 스트림이 파기되면, B 화상(B20, B21)의 예측 참조 화상으로서의 I 화상(I22)은 잃게 된다. 그러므로, 단계(ST11)에서, GOP1이 디코드된다. 단계(ST12)에서, 편집점 이후에 위치한 화상들은 파기된다. 그 후, 제2 재인코딩 처리가 실행된다. 바꾸어 말하면, 제1 B 화상(B20)이 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 그러므로, 단계(ST13)에서, 다른 B 화상(B21)이 B 화상(B20)(I 화상으로 변경됨)에 대응하는 순방향 움직임 벡터(Fw)만으로 재인코드된다.
더욱이, GOP1에 대한 처리에서, 편집점이 I 화상(I22) 이후 그리고 B 화상(B23) 직후에 위치할 때, 편집점 이후에 위치한 스트림이 파기된다(단계(ST5)에서). 바꾸어 말하면, B 화상(B20, B21)의 예측 참조 화상으로서 I 화상(I22)이 남아있으므로, GOP1을 디코드할 필요가 없다.
이어서, 도 3에 도시된 것과는 다른 위치에 GOP2의 편집점이 위치하는 경우를 설명한다. GOP2의 편집점이 I 화상(I2) 이전에 위치할 때(예를 들어, B 화상(B1)과 I 화상(I2) 사이), 단계(ST7)에서, 편집점 이전에 위치한 B 화상(B0, B1)은 파기된다. 이 경우, B 화상(B0, B1)이 파기된 후에, I 화상(I2)은 남아있으므로, GOP2를 디코드할 필요가 없다.
상기한 예에서, GOP1에 대한 편집점 처리가 실행된 후에, GOP2에 대한 편집점 처리가 실행된다. GOP2에 대한 편집점 처리가 실행된 후에, GOP1에 대한 편집점 처리가 실행될 수 있다는 것에 주목한다. 다른 대안의 방법으로서, GOP1에 대한 편집점 처리와 GOP2에 대한 편집점가 동시에 처리될 수 있다.
상기한 바와 같이, 본 발명의 실시예에 따르면, 앞선 스트림의 GOP1의 편집점이 I 화상 이전에 위치할 때, GOP1이 디코드된다. 제1 B 화상은 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 나중 스트림의 GOP2의 편집점이 I 화상 이전에 위치할 때, 제1 P 화상은 I 화상으로 변경된다. 그 후, 재인코딩 처리가 실행된다. 그러므로, 제1 P 화상의 화상 유형을 제외하고는, 편집점 이전에 위치한 스트림 및 편집점 이후에 위치한 스트림의 다른 화상들의 화상 유형은 변경되지 않는다. 그러므로, 재인코딩 처리가 실행될 때, 디코딩 처리에 사용된 인코딩 정보(움직임 벡터와 양자화 축적)가 사용될 수 있다. 또한, B 화상의 디코드된 화상의 화질보다 더 우수한 화질을 가진 P 화상이 I 화상으로서 사용되므로, 재인코딩 처리에서의 화질의 저하가 억제될 수 있다.
본 발명의 개념을 용이하게 이해하기 위해서, 도 5를 참조하여, 원 스트림의 화상 유형 정보를 사용하지 않는 편집점 처리를 설명한다. 도 3에 도시된 경우와 같이, 도 5는 앞선 스트림의 GOP1과 나중 스트림의 GOP2가 GOP1 및 GOP2의 편집점에서 전환되는 경우를 도시한다. 본 예에서는, GOP1과 GOP2 각각의 화상의 수는 15(I = 15)이다. GOP1과 GOP2 각각의 I 또는 P 화상의 간격은 3(M = 3)이다.
GOP1의 편집점 이후에 위치한 스트림(P 화상(P28)과 나중 화상들)이 필요하지 않으므로, 상기 스트림은 파기된다. GOP2의 편집점 이전에 위치한 스트림(P 화상(P5)과 앞선 화상들)이 필요하지 않으므로, 상기 스트림은 파기된다. 편집점에서, GOP1은 GOP2로 전환된다. 그러므로, 도 5의 중간부로서 표시된 편집된 스트림이 얻어진다.
편집된 신호가 재인코드될 때, 편집점 직전에 위치한 B 화상(B26, B27)은 나중 화상들과 상관하지 않으므로, B 화상(B26, B27)에 포함된 역방향 프레임간 예측 매크로 블록에 대해, 순방향 움직임 벡터(Fw)가 재계산된다. 얻어진 순방향 움직임 벡터(Fw)만으로, 재인코딩 처리가 실행된다.
GOP2에 관해서는, 편집점 직후에 위치한 B 화상(B6)으로부터 다음 GOP 직전에 위치한 P 화상(P14)까지의 스트림이 새로운 GOP로서 처리된다. 그러므로, 도 5에 도시된 바와 같이, 화상(B6, P8, B9, P11, B12, P14)은 화상(I6, B8, P9, B11, P12, B14)으로 각각 변경된다. 그 후, 재인코딩 처리가 실행된다. 그러므로, 새로운 GOP의 화상들의 수는 9(N = 9)가 된다. 새로운 GOP의 I 또는 P 화상의 간격은 3(M = 3)이 된다. 그러나, 다음 GOP의 화상들의 수는 15(N = 15)이다. 다음 GOP의 I 또는 P 화상의 간격은 3(M = 3)이다. 그러므로, 예측 참조 화상이 변경되므로, 재인코딩 처리를 실행하기 위해, 예측될 모든 화상들에 대한 움직임 벡터는 재계산되어야 한다.
도 5에 도시된 편집점 처리에서, 편집된 비디오 신호를 재인코드하기 위해서, I 화상(I6) 이후에 위치한 모든 화상(B7 내지 B14)에 대한 움직임 벡터가 얻어져야 한다. 그러므로, 상기 스트림은 상기 스트림에 대한 디코딩 처리에 사용된 인코딩 정보로 재인코드될 수 없다. 따라서, 움직임 벡터를 얻는데 필요한 계산 횟수가 많아진다. 또한, (화질이 I 화상보다 더 나쁜) B 화상의 디코드된 화상이 I 화상으로 변경되고 그 후 재인코딩 처리가 실행되므로, 화질이 크게 저하된다. 그러나, 본 발명에 따르면, 그와 같은 문제가 해결될 수 있다.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따르면, P 화상(P8)은 I 화상(I8)으로 변경되고, 이어서 재인코딩 처리가 실행된다. 이 처리에서, 계산 횟수를 더 줄이기 위해서, P 화상(P8)은 P 화상(P8)의 화질 저하가 최소가 되는 방식으로 I 화상(I8)으로 변경된다. 화상(B6, B7, B26, B27, P8)만이 재인코드된다. 화상 유형과 예측 참조 화상이 변경되지 않는 다른 화상들은 재인코드되지 않는다. 이러한 방법에서는, P 화상(P8)과 I 화상(I8) 사이의 차가 작게 되는 방식으로 I 화상(I8)을 재인코드하는 것이 중요하다. 그러나, 이와 같은 방법에서는, 계산 횟수가 줄어들지라도, 속도가 제어될 수 없으므로, 편집점의 부근에서의 GOP당 속도가 정확히 일정하게 유지될 수 없다.
GOP당 속도(발생된 데이터의 양)가 일정할 때, 편집되는 새로운 GOP에 사용된 비트의 수는 다음 수학식에 의해 얻어진다.
(Pgop/ N) × Pn
여기서, N은 원 GOP의 프레임의 수이고, Pgop는 GOP당 비트의 수이고, Pn는 새로운 GOP의 프레임의 수이다 (도 3에 도시된 예에서 Pn= 9).
그러므로, GOP당 속도가 정확히 일정하게 유지될 때, 새로운 GOP의 프레임의 수는 편집 처리로 인해 감소하므로, I 화상에 대해 사용된 비트의 수는 감소한다.
다음, 편집점 처리에 대한 또다른 실시예를 설명한다. 도 6에 도시된 바와 같이, MPEG 비트 스트림(ST1, ST2)이 재기록가능한 광디스크(20) 상에 기록된다고 가정한다. 예를 들어, 스트림(ST1)의 OUT 점이 스트림(ST2)의 IN 점에 접속된 편집점 처리를 행한다. 스트림(ST3)은, IN 점 및 OUT 점 근처가 처리되는 방법으로, 편집점 처리 장치에 의해 발생된다. 스트림(ST3)은 광디스크(20) 상에 기록된다. 스트림(ST1, ST3 및 ST2)이 연속해서 광디스크(20)로부터 재생될 때, 편집된 스트림이 재생될 수 있다. 따라서, 기록된 스트림이 편집되어, 광고 등의 불필요한 부분이 제거될 수 있다.
광디스크(20)는 임의로 접근할 수 있는 매체이다. 도 6에 도시된 바와 같이, 원래의(original) 스트림(ST1 및 ST2)과, 편집된 스트림(ST3)은 빈 영역에 기록된다. 따라서, 상기 스트림을 연속적으로 기록할 필요는 없다. 연결 정보는 광 디스크(20)의 최내부의 주변 영역에 위치한 관리 영역에 기록된다. 예를 들어, 연결 정보는, 스트림(ST3)가 스트림(ST1) 직후에 접속되고, 스트림(ST2)이 스트림(ST3) 직후에 접속되는 것을 나타낸다. 따라서, 편집된 스트림이 재생될 수 있다. 연결 정보는 스트림에 기록될 수 있다. 또한, 스트림(ST3) 없이, 스트림(ST1 및 ST2)이 편집점 처리용 소정의 방법에 대응해서 재생될 수 있다.
도 7은 일련의 처리를 도시한다. 스트림(ST1)의 GOP1에 대한 편집점 처리가 행해진다. 그 결과 스트림은 스트림(ST3) 직전에 위치한 스트림으로 기록된다. 이어서, 스트림(ST2)의 GOP2에 대한 편집점 처리가 행해진다. 그 결과 스트림이 스트림(ST3) 직후에 위치한 스트림으로 기록된다. 필요하다면, GOP1 직전에 위치한 스트림(ST1)의 일부와, GOP2의 직후에 위치한 스트림(ST2)의 일부가, 스트림(ST3)으로 기록될 수 있다. 도 7의 세 번째 부분에 도시된 바와 같이, 스트림(ST1, ST3 및 ST2)이 연속적으로 재생되면, 스트림(ST1)이 스트림(ST2)으로 바뀐 재생된 비트 스트림을 얻을 수 있다.
도 6 및 도 7은 편집 처리의 일례를 도시한다. 따라서, 본 발명은 다른 편집 처리에 응용할 수 있다. 예를 들어, 광디스크에 기록된 비트 스트림은 외부 비트 스트림으로 바뀔 수 있다. 상기 바뀐 비트 스트림은 광디스크 상에 기록될 수 있다. 또한, 두 비트 스트림이 바뀐 스트림이 광디스크 상에 기록될 수 있다.
도 8은 MPEG 비트 스트림을 광디스크(20)에 기록하고 광디스크로부터 MPEG 비트 스트림을 재생하는 디스크 기록기의 구조의 일례를 도시한다. 도 8에서, 디지털 화상 신호는 입력 단자(21)에 직접 제공된다. 아날로그 화상 신호는, 촬영된 화상 신호, 안테나를 통해 수신된 방송 화상 신호 등이다. 아날로그 화상 신호는 A/D 변환부(23)에 제공된다. A/D 변환부(23)는 아날로그 화상 신호를 디지털 화상 신호로 변환시킨다. 입력 단자(21)로부터 수신된 디지털 화상 신호나, A/D 변환부(23)로부터 수신된 디지털 화상 신호는, 입력 선택 스위치(24)에 의해 선택된다. 선택된 디지털 화상 신호는 MPEG 인코더(25)에 제공된다.
MPEG 인코더(25)는 MPEG 표준에 따라 디지털 화상 신호를 압축 인코딩한다. MPEG 인코더(25)의 출력 신호는 스위치 회로(26)의 제1 입력 단자에 제공된다. MPGE 비트 스트림은 단자(27)로부터 스위치 회로(26)의 제2 입력 단자로 제공된다. MPEG 인코더(25)로부터 수신된 비트 스트림이나 외부 비트 스트림은 버스를 통해 집적 버퍼 메모리(28)의 기록측 버퍼 메모리 부분(28a)에 기억된다. 집적 버퍼 메모리(28)의 어드레스는 시스템 제어기(37)에 의해 제어되는 메모리 제어부(29)에 의해 지정된다.
MPEG 인코더(25)는 움직임 예측부와, 화상 시퀀스 변경부와, 감산부와, DCT부와, 양자화부와, 가변 길이 코드 인코딩부와, 버퍼 메모리부로 구성된다. 움직임 예측부는 움직임 벡터를 검출한다. 감산부는 입력 화상 신호와 로컬 디코딩된 화상 신호 사이의 예측 오차를 형성한다. DCT부는 감산부의 출력 신호에 대해 DCT 처리를 행한다. 양자화부는 DCT부의 출력 신호를 양자화한다. 가변 길이 코드 인코딩부는 양자화부의 출력 신호에 대해 가변 길이 코드 인코딩 처리를 행한다. 버퍼 메모리는 일정 속도로 인코딩된 데이터를 출력한다. 화상 시퀀스 변경부는 인코딩 처리에 대응하는 화상의 시퀀스를 변경시킨다. 다시 말해, 화상 시퀀스 변경부는, I 및 P 화상이 인코딩된 후, B 화상이 인코딩되는 방법으로, 화상의 시퀀스를 변경시킨다. 로컬 디코딩부는, 역양자화부와, 역 DCT부와, 부가부와, 프레임 메모리와, 움직임 보상부로 구성된다. 움직임 보상부는 순방향 예측, 역방향 예측, 양방향 예측을 실행한다. 인트라 인코딩 처리가 행해지면, 감산부는 감산 처리를 행하기보다 데이터를 간단히 통과시킨다.
기록측 버퍼 메모리 부분(28a)에 기록된 비트 스트림은, 버스를 통해 광디스크에 제공되고, 데이터 처리부(30) 및 기록/재생 모드 선택 스위치(31)에 제공된다. 데이터 처리부(30)는 기록 신호 처리부(30a)와 재생 신호 처리부(30b)로 구성된다. 기록 신호 처리부(30a)는, 오차 정정 코드 인코딩 처리, 디지털 변조 처리 등을 행한다. 재생 신호 처리부(30b)는, 오차 정정 코드 디코딩 처리, 디지털 복조 처리 등을 행한다.
광디스크 드라이브는 광 헤드(32)와 스핀들 모터(33)를 갖는다. 광 헤드(32)는 광디스크(20)에 기록 레이저광을 조사하여 광디스크(20)에 신호를 기록한다. 또한, 광 헤드(32)는 광디스크(20)에 재생 레이저광을 조사하여 광디스크(20)로부터 신호를 재생한다. 스핀들 모터(33)는 광디스크(20)를 회전시키고 구동한다. 광 헤드(32) 및 스핀들 모터(33)는 디스크/헤드 제어부(34)에 의해 제어된다. 광 헤드(32)는 기록 신호 처리부(30a)의 출력 신호를 광헤드(20)에 기록한다. 광디스크(20)는 MO(magneto-optical) 디스크, 위상 변경 유형 디스크 등의 재기록가능한 디스크이다.
시스템 제어기(37)는 디스크/헤드 제어부(34)를 통해 광디스크 드라이브를 제어한다. 또한, 시스템 제어기(37)는 광디스크 드라이브의 상태를 제어한다. 시스템 제어기(37)는 디스크/헤드 제어부(34)로부터 수신된 정보를 메모리 제어부(29)로 출력하여, 집적 버퍼 메모리(28)로부터 제공된 데이터를 제어한다.
다음, 재생 처리 시스템을 설명한다. 집적 버퍼 메모리(28)의 재생측 버퍼 메모리 부분(28b)으로부터 수신한 재생된 비트 스트림은 스위치 회로(38)로 제공된다. 스위치 회로(38)는 재생된 비트 스트림을 MPEG 디코더(39)나 단자(40)로 선택적으로 출력한다. MPEG 디코더(39)는 재생된 비트 스트림을 디코딩한다. 디코딩된 화상 신호는 D/A 변환부(41)에 제공된다. D/A 변환부(41)는 디코딩된 화상 신호를 아날로그 화상 신호로 변환시킨다. 아날로그 화상 신호는 아날로그 출력 단자(42)로부터 얻어진다. 또한, 디코딩된 디지털 화상 신호는 디지털 출력 단자(43)로부터 얻어진다.
MPEG 디코더(39)는, 버퍼 메모리와, 가변 길이 코드 디코딩부와, 역 DCT부와, 역양자화부와, 부가부와, 화상 시퀀스 변경부와, 프레임 메모리와, 움직임 보상부로 구성된 로컬 디코딩부이다. 상기 가산부는 역양자화부의 출력 신호와 로컬 디코딩된 출력 신호를 가산한다. 인트라 디코딩 처리가 행해지면, 가산부는 가산 처리를 행하기 보다, 간단히 데이터를 통과시킨다. 화상 시퀀스 변경부는 가산부로부터 수신된 디코딩된 데이터의 원래의 화상 시퀀스를 복구시킨다.
재생 모드에서, 광디스크 드라이브의 디스크/헤드 제어부(34)는 서보, 헤드 트래블링 등을 제어하고, 재생 신호를 데이터 처리부(30)의 재생 신호 처리부(30b) 및 버스를 통해 재생측 버퍼 메모리 부분(28b)에 제공한다. 재생측 버퍼 메모리 부분(28b)은, 재생 신호의 기록 동작 및 판독 동작이 균형을 이루는 방법으로, 재생된 비트 스트림을 스위치 회로(38)에 제공한다. 스위치 회로(38)에 의해 선택된 비트 스트림은, MPEG 디코더(39)에 의해 디코딩되거나 출력 단자(40)로부터 얻어진다. MPEG 디코더(39)로부터 수신된 디코딩된 화상 신호는 D/A 변환부(41) 또는 출력 단자(43)에 제공된다. D/A 변환부(41)는 디지털 화상 신호를 아날로그 화상 신호로 변환시킨다. 아날로그 화상 신호는 출력 단자(42)로부터 얻어진다.
상기 설명한 디스크 기록기는 집적 버퍼 메모리(28) 및 시스템 제어기(37)에 의해 제어된다. 집적 버퍼 메모리(28)는 기록측 기억 영역과 재생측 기억 영역의 할당을 변경시킨다. 시스템 제어기(37)는 현재 모드가 기록 모드인지 재생 모드인지에 따라 집적 버퍼 메모리(28)의 기억 영역을 할당한다. 다시 말해, 기록측 버퍼 메모리 부분(28a) 및 재생측 버퍼 메모리 부분(28b)의 기억 영역은, 메모리 제어부(29)를 통해 시스템 제어기(37)의 제어 하에 변경된다. 예를 들어, 기록 모드에서, 기록측 버퍼 메모리 부분(28a)은 집적 버퍼 메모리(28)의 기억 영역 모두를 사용한다. 반대로, 재생 모드에서, 재생측 버퍼 메모리 부분(28b)은 집적 버퍼 메모리(28)의 기억 영역 모두를 사용한다. 동시 기록/재생 모드에서, 집적 버퍼 메모리(28)는 기록측 버퍼 메모리 부분(28a)과 재생측 버퍼 메모리 부분(28b)으로 동일하게 분할된다.
다음, 도 9를 참고로, 본 발명의 실시예에 따른 편집점 처리 장치를 설명한다. 편집점 처리 장치는, 상기 설명한 디스크 기록기에 접속되고, 본 발명에 따른 편집점 처리를 실행한다. 디스크 기록기로부터 재생되고, 출력 단자(40)로부터 수신된 MPEG 비트 스트림은, 입력 단자(51)로 제공된다. 편집점(OUT 점 및 IN 점)은 소정의 수단에 의해 입력 스트림으로 설정된다. 예를 들어, 편집점의 위치를 나타내는 정보는 비트 스트림에 위치한다. 편집점의 위치 정보는, 비트 스트림을 동기시키는 신호 경로를 통해 전송된다.
입력 비트 스트림은, 스위치 회로(52) 및 제어부(53)의 입력 단자에 제공된다. 제어부(53)는 MPEG 비트 스트림에 포함된 인코딩 정보 및 편집점 정보(화상 유형, 움직임 벡터, 양자화 크기)로 상기 설명한 편집점 처리(도 1 및 도 2 참조)를 실행한다. 다시 말해, 제어부(53)는, 편집점의 위치에 대응하는 스트림을 디코딩할 것인지 아닌지를 결정하고, 결정된 결과에 따른 제어 신호(S1, S2)를 발생한다.
제어 신호(S1)는 입력측 스위치 회로(52)를 제어한다. 제어 신호(S2)는 출력측 스위치 회로(55)를 제어한다. 제어부(53)가 스트림을 디코딩하는 것으로 결정하면, 입력 스트림은 스위치 회로(52)의 입력 단자(a)와 출력 단자(b)를 통해 비트 스트림 편집부(54)로 제공된다. 비트 스트림 편집부(54)의 출력 신호는, 스위치 회로(55)의 입력 단자(b)와 출력 단자(f)를 통해 출력 단자(56)로부터 얻어진다.
제어부(53)가 비트 스트림을 디코딩하지 않는 것으로 결정하면, 입력 스트림은, 스위치 회로(52)의 입력 단자(a)와 출력 단자(c)를 통해 MPEG 디코더(57)에 제공된다. MPEG 디코더(57)는 화상 신호를 편집하는 화상 편집부(58)에 접속된다. 화상 편집부(58)로부터 출력되는 편집된 신호는 MPEG 인코더(59)에 제공된다. MPEG 인코더(59)는 편집된 화상 신호를 재인코딩(re-encode)한다. MPEG 인코더(59)의 출력 신호(비트 스트림)은, 스위치 회로(55)의 입력 단자(e)와 출력 단자(f)를 통해 출력 단자(56)로부터 얻어진다.
도 1을 참고로 설명한 바와 같이, 예를 들어, 편집점과 I 화상의 위치 사이의 관계에 따라 GOP1을 디코딩할 것인지 아닌지(단계 ST3)와, 편집점의 위치를 I/P 화상의 직후에 위치시킬 것인지 아닌지(단계 ST4)를 결정한다. GOP1을 디코딩할 필요가 없으면, 편집점 뒤에 위치한 스트림은 파기한다(단계 ST5). 결과 비트 스트림을 출력한다(단계 ST6). 비트 스트림 편점부(54)는 제어부(53)로부터 수신된 제어 신호(S3)에 대응하는 비트 스트림을 파기한다.
GOP1을 디코딩할 필요가 있으면, MPEG 디코더(57)는 비트 스트림을 디코딩한다(단계 ST7, ST11, 또는 ST14). 화상 편집부(58)는 MPEG 디코더(57)로부터 디코딩된 신호를 수신하고, 불필요한 화상 신호를 파기한다(단계 ST8, ST12, 또는 ST15). MPEG 인코더(59)는 제1, 제2, 또는 제3 재인코딩 처리를 행한다(단계 ST9, ST13, 또는 ST16). 제어부(53)는 편집점 위치 정보에 대응하는 제어 신호9S4)를 화상 편집부(58)에 제공한다. 화상 편집부(58)는 제어 신호에 대응하는 화상 신호를 파기한다.
MPEG 디코더(57)의 디코딩 처리에 사용되는 인코딩 정보는 화상 편집부(58)에 제공된다. 화상 편집부(58)는 인코딩 정보를 MPEG 인코더(59)에 제공한다. 따라서, 화상 편집부(58)는 제어 신호(S4)에 대응하는 화상 유형을 변경시킬 수 있다. 계속해서, MPEG 인코더(59)는 인코딩 정보를 재사용할 수 있다. GOP1와 같이, GOP2를 동일한 방법으로 처리할 수 있다.
도 6 및 도 7을 참고로 설명한 편집점 처리의 경우에서, 디스크 기록기는 광디스크(20)로부터 스트림(ST1)을 재생하고, 스트림(ST1)의 편집점(OUT 점) 부근의 스트림을 편집점 처리 장치의 입력 단자(51)에 제공한다. 편집점 처리 장치는, 도 1에 도시된 흐름도에 의해 나타나는 편집점을 포함하는 GOP1에 대한 처리를 행한다. 디스크 기록기는 결과 스트림을 스트림(ST3)의 앞선 부분으로 광디스크(20)에 기록한다.
다음, 디스크 기록기는 광디스크(20)로부터 스트림(ST2)를 재생하고, 스트림(ST2)의 편집점(IN 점) 부근의 스트림을 편집점 처리 장치의 입력 단자(51)에 제공한다. 편집점 처리 장치는 도 2에 도시된 흐름도에 의해 나타난 편집점을 포함하는 GOP2에 대한 처리를 행한다. 디스크 기록기는 결과 스트림을 스트림(ST3)의 뒤진 부분으로 광디스크(20)에 기록한다. 스트림(ST1, ST3, ST2)은 광디스크(20)에 기록되는 연결 정보에 대응하여, 광디스크(20)로부터 편집된 스트림으로 연속해서 재생된다.
상기 설명한 실시예에서, 디스크 기록기 및 편집점 처리 장치는 분리해서 구성된다. 그러나, 편집점 처리 장치를 디스크 기록기에 내장시킬 수 있다. 이 경우, 디스크 기록기의 MPEG 디코더 및 MPEG 인코더는 편집점 처리를 위해 사용될 수 있다.
상기 설명한 바와 같이, 본 발명의 실시예에 따라, 편집점 처리는 디코딩 처리 및 재인코딩 처리를 포함한다. 또한, 상기 설명한 편집점 처리 및 디코딩 처리 및 재인코딩 처리를 포함하지 않는 또다른 편집점 처리의 조합인 하이브리드 편집점 처리를 실행할 수 있다.
다음, 도 10 및 도 11을 참고로, 디코딩 처리 및 재인코딩 처리를 포함하지 않는 편집점 처리의 실시예를 설명한다. 도 10은 편집점 처리 방법을 도시하는 흐름도이다. 단계 ST31에서, 편집점 처리가 시작한다. 단계 ST32에서, 접속될 두 비트 스트림 중 보다 빠른 비트 스트림의 GOP(GOP1)에 대한 처리가 시작한다. GOP1은 편집점(OUT 점)을 포함한다.
단계 ST33에서, 결정 결과가 예(YES) 이면(즉, 편집점이 I 또는 P 화상의 직후에 위치하면), 흐름은 단계 34로 진행한다. 단계 ST34에서, 편집점 뒤에 위치한 비트 스트림은 파기한다. 단계 ST35에서, GOP1 전에 위치한 스트림은 그대로 출력된다. 다시 말해, 편집점 전에 위치한 스트림이 예측 참조 화상으로 I 또는 P 화상을 포함하기 때문에, 편집된 부분은 특정 처리를 행할 필요없이 디코딩될 수 있다.
단계 ST33에서 결정 결과가 아니오(NO) 이면(즉, 편집점이 I 또는 P 화상 직후에 위치하면), 흐름은 단계 ST36으로 진행한다. 단계 ST36에서, 편집점 뒤에 위치한 화상(편집점 직후에 위치한 I 또는 P 화상 제외)은 파기한다. 단계 ST37에서, 편집점 전에 위치한 화상과 편집점 직후에 위치한 I 또는 P 화상은 출력된다.
단계 ST38에서, 접속된 두 스트림 중 뒤의 스트림의 GOP(GOP2)에 대한 처리가 시작된다. GOP2는 편집점(IN 점)을 갖는다. 단계 ST39에서, 편집점 전에 위치한 모든 B 화상을 파기한다. 단계 ST40에서, 편집점 앞에 위치한 I 및 P 화상과 편집점 뒤에 위치한 화상은 출력된다. 단계 ST41에서, 편집점 처리가 종료된다. 편집점 앞에 위치한 I 및 P 화상은 디스플레이하지 않고, 단지 기억한다.
다음, 도 11을 참고로, 상기 설명한 편집점 처리를 보다 실질적으로 설명한다. 도 11은 보다 앞선 스트림의 GOP1과 보다 뒤진 스트림의 GOP2가 GOP1 및 GOP2의 편집점으로 바뀐 예를 나타낸다. GOP1 및 GOP2 각각에서, 화상의 수는 15(N=15)이고, 예측 참조 화상(I 또는 P 화상)의 수는 3(M=3)이다. 도 11에 도시된 화상의 시퀀스는 재생된 화상의 시퀀스와 일치한다. 재생된 화상의 시퀀스는 원래의 화상의 시퀀스 및 디코딩된 화상의 시퀀스와 일치한다.
먼저, GOP1에 대한 편집점 처리를 행한다. 편집점이 I 화상(I22) 또는 P 화상(P25, P28, P31, 또는 P34) 직후에 위치하지 않기 때문에(단계 ST33), 편집점 직후에 위치한 P 화상(P28)을 제외한 편집점 직후에 위치한 화상은 출력된다(단계 ST36). 편집점 앞에 위치한 화상과 편집점 직후에 위치한 P 화상(P28)은 출력된다(단계 ST37). 편집된 스트림에 포함된 B 화상(B26 및 B27)이 예측 참조 화상으로서 P 화상(P28)으로 디코딩되기 때문에, P 화상(P28)이 기억된다.
다음, 뒤의 스트림의 GOP2(B0 내지 P14)에 대한 처리가 시작한다(단계 ST38). 편집점 전에 위치한 모든 B 화상(B0, B1 및 B4)는 파기한다(단계 ST39). 편집점 전에 위치한 I 화상(I2) 및 P 화상(P5)과, 편집점 뒤에 위치한 화상이 출력된다(단계 ST40). 그 후, 편집점 처리는 종료된다(단계 ST41). P 화상(P5)이 예측 참조 화상으로서 P 화상(I2)으로 디코딩되고, 편집된 스트림에 포함된 B 화상(B6 및 B7)이 예측 참조 화상으로서 P 화상(P5)으로 디코딩되기 때문에, I 화상(I2) 및 P 화상(P5)은 기억된다.
상기 설명한 편집점 처리에서, 기억된 I 또는 P 화상은, 편집된 스트림에 포함된 B 화상을 디코딩하기 위해 필요하다. 그러나, 기억된 I 또는 P 화상은 편집된 스트림의 디코딩된 화상으로 처리되지는 않는다. 다시 말해, 기억된 I 또는 P 화상은 편집된 화상 신호로 디스플레이되지 않는다. 예를 들어, I 또는 P 화상은 기록 매체의 특정 영역에 기억된다.
GOP1의 편집점이 I 또는 P 화상의 직후이면, 어떤 화상도 기억할 필요가 없다. 반대로, 편집점이 I 또는 P 화상 직후에 위치하지 않으면, 하나의 I 또는 P 화상이 기억되어야 한다. GOP2의 경우, 기억될 화상의 수는 편집점의 위치에 따른다. 편집점이 GOP2의 뒤의 위치에 위치하면, 기억할 화상의 수가 증가한다. P 화상(P14) 외의 네 화상(I2, P5, P8 및 P11)까지 기억하여야 한다. 하나의 편집점에 대해 다섯 화상까지 기억할 수 있기 때문에, 기록 매체 상의 여분이 증가한다. 또한, GOP 당 발생하는 데이터의 양이 일정할 수 없다.
상기 설명한 바와 같이, 디코딩 처리 및 재인코딩 처리를 포함하지 않는 편집점 처리 방법에서, 편집된 비트 스트림을 디코딩하기에 필요한 예측 참조 화상(I 또는 P 화상)이 기억되면, 디코딩된 데이터에 대한 새로운 GOP 및 재인코딩 처리를 행하기 위한 디코딩 처리를 생략할 수 있다. 따라서, 디코딩 처리 및 재인코딩 처리에 따른 화상 악화를 방지할 수 있다. 따라서, 디코딩 처리 및 재인코딩 처리를 포함하지 않는 편집점 처리와 본 발명의 실시예에 따른 편집점 처리의 조합의 하이브리드 편집 방법이 실행될 수 있다.
하이브리드 편집 방법의 예로서, 앞선 스트림(GOP1)은 편집 처리 및 재인코딩 처리를 포함하지 않는 방법에 의해 처리되지만, 뒤진 스트림(GOP2)은 편집 처리 및 재인코딩 처리를 포함하는 방법에 의해 처리된다. 뒤진 GOP2의 편집점 뒤에 위치한 화상의 수가 크면, 디스플레이되지 않지만 기억되는 화상의 수가 적어진다. 따라서, 이 경우, 디코딩 처리 및 재인코딩 처리를 포함하지 않는 방법이 사용된다. GOP2의 편집점 후에 위치한 화상의 수가 적으면, 디스플레이 되지 않지만 기억되는 화상의 수가 많아진다. 따라서, 이 경우, 디코딩 처리 및 재인코딩 처리를 포함하는 방법이 사용된다. 계속해서, 디스플레이되지 않지만 기억되는 화상의 수에 대응해서, 편집 처리 방법이 선택된다. 또한, 편집된 스트림의 디코딩된 화상의 화상 품질에 대응하는 편집 방법을 선택하는 하이브리드 편집 방법을 사용할 수 있다.
본 발명에 따르면, 편집점 부근의 비트 스트림이 디코딩되고 재인코딩될 때, 편집 처리 전의 예측 참조 화상의 간격이 편집 처리 후의 것과 일치하기 때문에, 재인코딩 처리에서 움직임 벡터를 얻기 위한 계산의 수를 줄일 수 있다. 또한, 재인코딩 처리로 인한 화상 열화를 억제할 수 있다.
비록 본 발명을 양호한 실시예를 참고로 설명하였지만, 당업자라면 교체, 삭제, 부가 등을 통해, 본 발명의 관점 및 정신을 벗어나지 않는 다양한 변경이 가능함을 알 수 있을 것이다.

Claims (10)

  1. 편집점을 지정하는 지정 수단과,
    적어도 화상이 편집되기 전에 예측 참조 화상으로서 인코딩된 화상을, 상기 화상이 편집된 후 예측 참조 화상으로서 인코딩되도록 제어하는 제어 수단과,
    상기 제어 수단의 제어 하에, 상기 편집점의 전 또는 후에 위치한 상기 예측 참조 화상이 아닌 화상의 예측 구조(predictive structure)를 변경시키는 변경 수단을 포함하는 화상 편집 장치.
  2. 제1 항에 있어서, 상기 변경 수단은,
    상기 예측 참조 화상이 아닌 화상의 예측 방향을 변경시키는 예측 방향 변경 수단을 포함하는 화상 편집 장치.
  3. 제2 항에 있어서, 상기 예측 방향 변경 수단은,
    외부(OUT) 편집점이 GOP(Group Of Picture)의 예측 참조 화상 후에 위치한 양방향 예측 인코딩된 화상의 직후에 위치할 때, 상기 양방향 예측 인코딩된 화상을 순방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 수단을 포함하는 화상 편집 장치.
  4. 제2 항에 있어서, 상기 예측 방향 변경 수단은,
    외부(OUT) 편집점이, GOP의 화상간 예측 인코딩된 화상 전에 위치한 양방향 예측 인코딩된 화상의 직후에 위치할 때, 상기 양방향 예측 인코딩된 화상을, 앞선 GOP의 예측 참조 화상으로부터 순방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 수단을 포함하는 화상 편집 장치.
  5. 제2 항에 있어서, 상기 예측 방향 변경 수단은,
    내부(IN) 편집점이, GOP의 화상간 예측 인코딩된 화상 후에 위치한 양방향 예측 인코딩된 화상의 직전에 위치할 때, 상기 양방향 예측 인코딩된 화상을, 상기 양방향 예측 인코딩된 화상 후에 위치한 예측 참조 화상으로부터 역방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 변경 수단을 포함하는 화상 편집 장치.
  6. (a) 편집점 지정 단계와,
    (b) 적어도 화상이 편집되기 전에 예측 참조 화상으로서 인코딩된 화상을, 상기 화상이 편집된 후 예측 참조 화상으로서 인코딩되도록 제어하는 단계와,
    (c) 상기 제어 단계(b)의 제어 하에, 상기 편집점의 전 또는 후에 위치한 상기 예측 참조 화상이 아닌 화상의 예측 구조를 변경시키는 단계를 포함하는 화상 편집 방법.
  7. 제 6 항에 있어서, 상기 단계(c)는,
    (d) 상기 예측 참조 화상이 아닌 화상의 예측 방향을 변경시키는 단계를 포함하는 화상 편집 방법.
  8. 제 7 항에 있어서, 상기 단계(d)는,
    (e) 외부(OUT) 편집점이 GOP(Group Of Picture)의 예측 참조 화상 후에 위치한 양방향 예측 인코딩된 화상의 직후에 위치할 때, 상기 양방향 예측 인코딩된 화상을 순방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 단계를 포함하는 화상 편집 방법.
  9. 제 7 항에 있어서, 상기 단계 (d)는,
    (f) 외부(OUT) 편집점이, GOP의 화상간 예측 인코딩된 화상 전에 위치한 양방향 예측 인코딩된 화상의 직후에 위치할 때, 상기 양방향 예측 인코딩된 화상을, 앞선 GOP의 예측 참조 화상으로부터 순방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 단계를 포함하는 화상 편집 방법.
  10. 제 7 항에 있어서, 상기 단계 (d)는,
    (g) 내부(IN) 편집점이, GOP의 화상간 예측 인코딩된 화상 후에 위치한 양방향 예측 인코딩된 화상의 직전에 위치할 때, 상기 양방향 예측 인코딩된 화상을, 상기 양방향 예측 인코딩된 화상 후에 위치한 예측 참조 화상으로부터 역방향 움직임 벡터를 갖는 인코딩된 화상으로 변경시키는 단계를 포함하는 화상 편집 방법
KR1019990018434A 1998-05-22 1999-05-21 편집 방법 및 편집 장치 KR100615340B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP14115098A JPH11341435A (ja) 1998-05-22 1998-05-22 編集方法および編集装置
JP98-141150 1998-05-22

Publications (2)

Publication Number Publication Date
KR19990088476A true KR19990088476A (ko) 1999-12-27
KR100615340B1 KR100615340B1 (ko) 2006-08-25

Family

ID=15285314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990018434A KR100615340B1 (ko) 1998-05-22 1999-05-21 편집 방법 및 편집 장치

Country Status (4)

Country Link
US (1) US6414999B1 (ko)
JP (1) JPH11341435A (ko)
KR (1) KR100615340B1 (ko)
CN (1) CN1169369C (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2795272B1 (fr) * 1999-06-18 2001-07-20 Thomson Multimedia Sa Procede de commutation de flux mpeg
US6704357B1 (en) * 1999-09-28 2004-03-09 3Com Corporation Method and apparatus for reconstruction of low frame rate video conferencing data
US6587506B1 (en) * 1999-11-02 2003-07-01 Matsushita Electric Industrial Co., Ltd. Video editing apparatus, video editing method, and data storage medium for a video editing program
JP2001285792A (ja) * 2000-03-30 2001-10-12 Matsushita Electric Ind Co Ltd 再生装置、媒体、情報集合体、伝送媒体及び記録媒体
US20020122491A1 (en) * 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
US6765963B2 (en) * 2001-01-03 2004-07-20 Nokia Corporation Video decoder architecture and method for using same
US20020133486A1 (en) * 2001-03-15 2002-09-19 Kddi Corporation Video retrieval and browsing apparatus, video retrieval, browsing and editing apparatus, and recording medium
CN101494791B (zh) * 2001-10-17 2010-12-29 松下电器产业株式会社 动态图像解码方法及装置
US7693220B2 (en) * 2002-01-03 2010-04-06 Nokia Corporation Transmission of video information
KR100543453B1 (ko) 2003-04-24 2006-01-23 삼성전자주식회사 디지털 비디오 스트림의 역재생시 비트율을 제어하기 위한 장치 및 그 방법
JP4232588B2 (ja) * 2003-09-19 2009-03-04 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
US7564974B2 (en) * 2004-04-30 2009-07-21 Microsoft Corporation Frame-accurate editing methods and systems
US8295347B2 (en) 2004-08-25 2012-10-23 Sony Corporation Information processing apparatus and information processing method, recording medium, and program
JP4791129B2 (ja) * 2005-10-03 2011-10-12 ルネサスエレクトロニクス株式会社 画像符号化装置、画像符号化方法及び画像編集装置
JP4810298B2 (ja) * 2006-05-09 2011-11-09 キヤノン株式会社 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法
JP4221676B2 (ja) * 2006-09-05 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP2008066851A (ja) * 2006-09-05 2008-03-21 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
US8194741B2 (en) 2007-10-12 2012-06-05 Broadcom Corporation Method and system for processing B pictures with missing or invalid forward reference pictures
CN102484718B (zh) * 2009-09-03 2014-11-12 日本电气株式会社 视频编码设备、视频编码方法和视频编码程序
JP2010252394A (ja) * 2010-07-23 2010-11-04 Renesas Electronics Corp 画像符号化装置、画像符号化方法及び画像編集装置
US10721487B2 (en) * 2012-04-17 2020-07-21 Texas Instruments Incorporated Converting a bi-predicted merging candidate in a merging candidate list for a prediction unit of a picture
KR101606121B1 (ko) * 2014-12-26 2016-03-24 주식회사 솔박스 동영상 파일 조각화 방법 및 그 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3275423B2 (ja) * 1993-03-04 2002-04-15 キヤノン株式会社 記録装置
JP3019912B2 (ja) * 1994-07-22 2000-03-15 日本ビクター株式会社 画像データ編集装置
US5917988A (en) * 1995-04-07 1999-06-29 Sony Corporation Editing apparatus, editing method and decoding apparatus for compressed video signal
JP3493872B2 (ja) * 1996-02-29 2004-02-03 ソニー株式会社 画像データ処理方法およびその装置
US6285361B1 (en) * 1996-11-15 2001-09-04 Futuretel, Inc. Method and apparatus for clipping video segments from an audiovisual file

Also Published As

Publication number Publication date
CN1239856A (zh) 1999-12-29
CN1169369C (zh) 2004-09-29
US6414999B1 (en) 2002-07-02
KR100615340B1 (ko) 2006-08-25
JPH11341435A (ja) 1999-12-10

Similar Documents

Publication Publication Date Title
KR100615340B1 (ko) 편집 방법 및 편집 장치
JP3019912B2 (ja) 画像データ編集装置
KR0145260B1 (ko) 전송장치
US5991502A (en) Optical recording device which calculates distances between I-frames and records I-frame addresses in a sector
KR100954036B1 (ko) 기록 비디오의 트릭 모드 재생
CA2168416C (en) Method and apparatus for reproducing encoded data
US5802240A (en) Video editing apparatus
US6341192B1 (en) Decoding method and decoding player and recording medium
JPH11285002A (ja) 動画像符号化装置及び動画像符号化方法
KR19990072461A (ko) 동화상부호화방법및장치및기록매체
US5793894A (en) Image data editing apparatus and decoding apparatus
US20080152313A1 (en) Image processing apparatus
JP3496604B2 (ja) 圧縮画像データ再生装置および圧縮画像データ再生方法
JP2776212B2 (ja) 符号記録装置
JP3356004B2 (ja) 可変レート符号化装置及び方法
JP3253530B2 (ja) 動画像記録装置
JP3879252B2 (ja) 編集方法および編集装置
JPH11220694A (ja) 信号伝送方法、信号伝送装置及び信号記録媒体
JPH0918830A (ja) 映像編集装置
JP4291185B2 (ja) トランスコーディング方法、トランスコーダ及びプログラム
JPH08149410A (ja) 画像記録再生装置
JP3384563B2 (ja) 光ディスク、再生装置および再生方法
JP3384562B2 (ja) 記録装置および記録方法
JP3370659B1 (ja) 再生装置および再生方法
JPH11285003A (ja) 動画像符号化装置及び動画像符号化方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120813

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130809

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140808

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee