KR19990013774A - 기록/재생 장치, 기록/재생 방법 및 기록 매체 - Google Patents

기록/재생 장치, 기록/재생 방법 및 기록 매체 Download PDF

Info

Publication number
KR19990013774A
KR19990013774A KR1019980027861A KR19980027861A KR19990013774A KR 19990013774 A KR19990013774 A KR 19990013774A KR 1019980027861 A KR1019980027861 A KR 1019980027861A KR 19980027861 A KR19980027861 A KR 19980027861A KR 19990013774 A KR19990013774 A KR 19990013774A
Authority
KR
South Korea
Prior art keywords
recording
information
time
index
encoding
Prior art date
Application number
KR1019980027861A
Other languages
English (en)
Other versions
KR100571072B1 (ko
Inventor
아오따께히데노리
Original Assignee
이데이노부유끼
소니가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=16431553&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR19990013774(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 이데이노부유끼, 소니가부시끼가이샤 filed Critical 이데이노부유끼
Publication of KR19990013774A publication Critical patent/KR19990013774A/ko
Application granted granted Critical
Publication of KR100571072B1 publication Critical patent/KR100571072B1/ko

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/215Recordable discs
    • G11B2220/218Write-once discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2516Hard disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

퍼스널 컴퓨터는 기록을 중단하지 않고 기록 및 다른 처리를 동시에 수행할 수 있는 기록 장치로서 이용되고 있다. 이러한 퍼스널 컴퓨터는 엔코더 보드, 마이크로프로세서 및 하드 디스크를 구비하고 있다. 프로그램을 기록하기 위한 기록 시간과 프로그램의 엔코딩 결과로서 엔코더 보드에 의해서 생성된 MPEG 시스템 스트림의 비트 레이트가 설정되어 있다. 마이크로컴퓨터는 기록 시간 및 비트 레이트에 근거해서 기록 용량을 산출한다. 산출된 기록 용량과 동일한 사이즈를 갖고 있는 프리 영역이 하드 디스크에 할당된다. 이 프리 영역은 통상적으로 엔코더 보드에서 이용되는 TV 튜너에 의해서 수신된 프로그램의 MPEG 사스템 스트림을 저장하는데 이용된다.

Description

기록/재생 장치, 기록/재생 방법 및 기록 매체
본 발명은 일반적으로 기록/재생 장치, 기록/재생 방법 및 기록 매체에 관한 것이다. 본 발명은 특히, 기록 장치 및 방법이 화상을 포함하는 정보를 하드 디스크와 같은 기록 매체에 기록하기에 매우 적합한 기록/재생 장치, 기록/재생 방법 및 기록 매체에 관한 것이다.
최근에 볼 수 있는 CPU와 기록 및 저장 매체를 포함한 하드웨어의 가격 감소와 더불어, 메모리, 하드 디스크 또는 다른 기록 및 저장 매체의 저장 용량이 증가할 뿐만 아니라, CPU(중앙 처리 유닛)의 속도 및 기능이 증가함에 따라, 사용자가 구입가능한 가격으로 고성능의 컴퓨터가 구현될 수 있다.
그러한 가격의 고성능의 컴퓨터가 보편화됨에 따라, 화상과 같은 대량의 데이터를 갖는 처리 대상에 대해 기록, 재생 및 편집과 같은 각종 처리를 수행하는 컴퓨터 기능에 대한 사용자의 요구가 증가되었다.
따라서, 전술된 문제점을 해결하고자 하는 본 발명의 목적은 사용자가 요구하는 각종 처리가 간단한 동작을 통해 수행되도록 하는 것이다.
청구항 1에 따른 기록/재생 장치는, 기록 수단이 정보를 정보 기록 매체에 기록하는 동안 재생 수단이 정보 매체에 사전에 기록되어 있는 정보를 임의의 위치로부터 재생하는 것을 특징으로 한다.
청구항 10에 따른 기록/재생 방법은, 정보 기록 매체에 정보가 기록되는 동안 정보 매체에 사전에 기록되어 있는 정보를 임의의 위치로부터 재생하는 것을 특징으로 한다.
청구항 11에 따른 기록 매체는, 컴퓨터로 하여금 정보를 기록 및 재생하도록 프로그램이 기록되어 있으며, 이 정보가 정보 기록 매체에 기록되는 동안 정보 매체에 사전에 기록되어 있는 정보가 임의의 위치로부터 재생된다는 것을 특징으로 한다.
청구항 1에 따른 기록/재생 장치에서, 기록 수단이 정보 기록 매체에 기록되는 동안 재생 수단은 정보 매체에 사전에 기록되어 있는 정보를 임의의 위치로부터 재생한다.
청구항 10에 따른 기록/재생 방법에 따르면, 정보가 정보 기록 매체에 기록되는 동안 정보 매체에 사전에 기록되어 있는 정보가 임의의 위치로부터 재생된다.
청구항 11에 따른 기록 매체에서, 컴퓨터로 하여금 정보를 기록 및 재생하도록 프로그램이 기록되어 있으며, 정보가 정보 기록 매체에 기록되는 동안 정보 매체에 사전에 기록되어 있는 정보가 임의의 위치로부터 재생된다.
도 1은 본 발명이 적용된 퍼스널 컴퓨터를 구현하는 한 실시예의 통상 구성의 사시도를 도시한 도면.
도 2는 본 발명이 적용된 퍼스널 컴퓨터를 구현하는 한 실시예의 통상 구성의 사시도를 도시한 도면.
도 3은 도 1 및 도 2에 도시된 퍼스널 컴퓨터의 본체(31)의 전면도를 도시한 도면.
도 4는 도 3에 도시된 본체(31)의 배면도를 도시한 도면.
도 5는 도 1 및 도 2에 도시된 퍼스널 컴퓨터의 통상의 전기적 구성을 도시한 도면.
도 6은 도 5에 도시된 퍼스널 컴퓨터에서 사용되는 MPEG1 리얼 타임 엔코더 보드의 통상 구성을 도시한 도면.
도 7은 슬립 레코더 메인 윈도우를 도시한 도면.
도 8은 테이프 설정 다이알로그 박스(321)를 도시한 도면.
도 9a 및 도 9b는 노멀 및 엔드리스 테이프를 설명하는데 사용되는 도면.
도 10은 각종 녹화 모드에 대한 사양을 나타낸 표.
도 11은 녹화 처리시에 사용되는 테이프로서 노멀 테이프가 설정되는 녹화 처리를 나타내는 흐름도.
도 12는 녹화 처리시에 사용되는 테이프로서 엔드리스 테이프가 설정되는 녹화 처리를 나타내는 흐름도.
도 13은 인덱스 파일에 인덱스 데이터를 기록하기 위한 인덱스 녹화 처리를 나타내는 흐름도.
도 14는 인덱스 데이터의 통상의 포맷을 도시한 도면.
도 15는 재생 윈도우(341)을 도시한 도면.
도 16은 경과 시간, 잔여 시간 및 기록 시간을 설명하는데 사용되는 도면.
도 17은 슬립 재생 처리를 나타내는 흐름도.
도 18은 슬립 레코더 응용 프로그램의 실행에 의해 수행되는 처리를 설명하는데 사용되는 블럭도.
도 19는 시간 경과에 따른 씬 변화 파라미터의 변경을 도시한 도면.
도 20은 제어기(133)에 의해 수행되는 처리를 나타내는 흐름도.
도 21은 클립 에디터 메인 윈도우(361)를 도시한 도면.
도 22는 인덱스 표시 레벨 설정 다이알로그 박스(381)를 도시한 도면.
도 23은 소스 윈도우(362) 상에 인덱스 화면을 표시하는 인덱스 화면 표시 처리를 나타내는 흐름도.
도 24는 클립 뷰어 메인 윈도우(401)를 도시한 도면.
도면의 주요 부분에 대한 부호의 설명
131 : 씬 변화 검출 회로
201 : 마이크로프로세서
201A : MPEG1 소프트웨어 디코더
213 : 리얼 타임 엔코더 보드
303 : 씬 변화 인디케이터
321 : 테이프 설정 다이얼로그 박스
341 : 재생 윈도우
342 : 화상 표시란
344 : 재생 시간 표시란
353 : 재생 시간 표시 변경 버튼
이제, 첨부된 도면을 참조한 몇몇 양호한 실시예에 대한 다음의 상세한 설명으로부터 본 발명을 알 수 있을 것이다. 설명하기에 앞서, 본 명세서 및 실시예의 청구 범위에 기재되어 있는 각종 수단 사이의 관계를 명확히 하기 위해, 다음과 같이 괄호안에 실시예에 의해 통상 구현됨 형태로 표현된 구문으로서 실시예에 대응하는 각 수단에 실시예를 부가함으로써, 본 발명의 특징들이 설명된다.
청구항 1에 따른 기록/재생 장치는 정보 기록 매체에 정보를 기록하기 위한 기록 수단(도 11에 도시된 프로그램의 처리 단계(S5) 및 도 12에 도시된 프로그램의 처리 단계(S15)와 같은 실시예에 의해 통상 구현됨), 및 상기 정보 기록 매체에 기록된 정보를 재생하기 위한 재생 수단(도 17에 도시된 프로그램의 처리 단계(S40)과 같은 실시예에 의해 통상 구현됨)을 포함하며, 상기 기록 수단이 상기 정보 기록 매체에 정보를 기록하는 동안, 상기 재생 수단은 상기 정보 매체에 사전에 기록되어 있는 상기 정보를 임의의 위치로부터 재생하는 것을 특징으로 한다.
청구항 2에 따르면, 청구항 1의 기록/재생 장치는 시간에 대한 시간 정보와 더불어 상기 재생 수단에 의해 재생되는 정보를 표시하기 위한 표시 수단(도 15에 도시된 재생 윈도우(341)와 같은 실시예에 의해 통상 구현됨)을 갖는 것을 특징으로 한다.
청구항 4에 따르면, 청구항 3의 기록/재생 장치는 경과 시간, 잔여 시간 또는 상기 정보가 표시될 시간 정보로서 재생되는 시점을 선택하기 위한 선택 수단(도 15에 도시된 재생 시간 표시 변경 버튼(TIME;353)과 같은 실시예에 의해 통상 구현됨)을 갖는 것을 특징으로 한다.
청구항 5에 따르면, 청구항 3의 기록/재생 장치는 상기 재생 수단에 의해 수행될 재생 동작의 재생 위치를 변경하기 위한 변경 수단(도 15에 도시된 슬라이더(354)와 같은 실시예에 의해 통상 구현됨)을 가지며, 상기 표시 수단은 상기 변경 수단에 의해 변경된 상기 재생 위치에 따라 상기 시간 정보를 변경하는 것을 특징으로 한다.
청구항 6에 따르면, 청구항 1의 기록/재생 장치는 상기 정보를 기록하는데 필요한 기록 시간을 설정하고 상기 정보의 비트 레이트로 비트 레이트 정보를 설정하기 위한 설정 수단(도 8에 도시된 테이프 설정 다이알로그 박스(321)와 같은 실시예에 의해 통상 구현됨), 상기 설정 수단에 의해 설정된 상기 기록 시간 및 상기 비트 레이트 정보로부터 필요 용량, 즉 상기 정보를 기록하는데 필요한 기록 용량을 계산하기 위한 계산 수단(도 11에 도시된 프로그램의 처리 단계(S1) 및 도 12에 도시된 프로그램의 처리 단계(S11)와 같은 실시예에 의해 통상 구현됨), 및 상기 정보를 기록하는 정보 기록 매체에 정보 필요 영역, 즉 적어도 상기 필요 용량과 동일한 크기를 갖는 기록 영역을 할당하기 위한 할당 수단(도 8에 도시된 테이프 설정 다이알로그 박스(321)와 같은 실시예에 의해 통상 구현됨)을 포함하며, 상기 기록 수단은 상기 필요 영역에 상기 정보를 기록하는 것을 특징으로 한다.
청구항 8에 따르면, 청구항 1의 기록/재생 장치는 상기 기록 수단에 의해 상기 정보 기록 매체에 기록되는 상기 정보를 엔코딩하기 위한 엔코딩 수단(도 5에 도시된 MPEG1 리얼 타임 엔코더 보드(213)와 같은 실시예에 의해 통상 구현됨) 및 상기 엔코딩 수단에 의해 엔코드된 상기 정보를 디코딩하기 위한 디코딩 수단(도 18에 MPEG1 소프트웨어 디코더(201A)와 같은 실시예에 의해 통상 구현됨)을 포함하는 것을 특징으로 한다.
청구항 9에 따르면, 청구항 8의 기록/재생 장치는 상기 엔코딩 수단이 상기 정보를 엔코딩한 결과를 일시적으로 저장하며 상기 저장 수단에 저장된 상기 결과 데이터의 양에 따라 처리를 중지하는 저장 수단(도 6에 도시된 출력 버퍼(118)와 같은 실시예에 의해 통상 구현됨)을 포함하는 것을 특징으로 한다.
실시예와 연관된 수단에 첨부된 실시예는 한정적으로 구성되는 것은 물론 아니다. 즉, 수단의 구현은 그 수단에 첨부된 실시예에 한정되지 않는다.
도 1 및 도 2는 본 발명이 적용된 퍼스널 컴퓨터를 구현하는 한 실시예의 통상의 구성을 도시한 도면이다.
도면에 도시된 바와 같이, 퍼스널 컴퓨터는 본체(31), 명령을 본체(31)에 입력시키기 위해 사용자에 의해 조작되는 마우스(22)와 같은 키보드(21), 및 화상을 표시하는 표시 장치(51)를 포함한다.
본체(31)는 폭이 통상 225㎜이며 높이가 통상 367.9 ㎜이며 깊이가 통상 451.5 ㎜인 소위 소형의 타워형이다. 우측 전면 코너면(32)이 전면과 우측 측면 사이의 코너를 가로질러 비스듬히 전면과 우측 측면 사이에 제공된다. 그 위에, 좌측 전면 코너면(33)이 전면과 좌측 측면 사이의 코너를 가로질러 비스듬히 전면과 좌측 측면 사이에 제공된다. 우측 전면 코너면(32)의 상부에는, 전원 버튼(34)이 제공된다. 전원 버튼(34)은 본체(31)의 전원을 온/오프시키도록 동작된다.
오목부(35)는 장착된 본체(31)에 접속된 주변부의 다리와 만나는 위치에서 본체(31)의 상부면 상에 제공된다. 주변부가 본체(31) 상에 장착되면, 주변부의 다리는 그것이 안정한 상태로 본체의 오목부(31)와 결합되도록 오목부(35)에 배치된다.
본체(31)의 전면은 하부 패널(36) 및 상부 패널(37)을 포함한다. 하부 패널(36)은 도면에는 도시되지 않은 스프링의 힘에 의해 외부쪽으로 돌출되도록, 통상 외부 방향으로 눌러진다. 사용자는 스프링의 힘에 대항하여 외부로 돌출되는 상태로부터 본체(31)의 내부쪽 방향으로 오목한 상태로 하부 패널(36)을 누룰 수 있다. 상부 패널(37)은 우측 및 좌측 가이드(45)를 따라 자유롭게 상부 및 하부로 이동될 수 있다. 돌출 상태의 하부 패널(36)로 인해, 상부 패널(37)의 하부 방향으로의 이동이 하부 패널(36)에 의해 차단된다.
본체(31)를 사용할 때, 사용자는 스프링의 힘에 대항하여 외부로 돌출하는 상태로부터 본체(31)의 내부쪽 방향으로 오목한 상태로 하부 패널(36)을 누른다. 하부 패널(36)이 오목한 상태이기 때문에, 상부 패널(37)의 하부 방향으로의 이동이 제한되지 않으므로, 상부 패널(37)이 가이드(45)를 따라 하부 방향으로 이동될 수 있다. 그 결과, 도 2에 도시된 바와 같이, 본체(31)내에 장착되어 있는 FDD(플로피 디스크 드라이브; 41), CD-ROM(콤팩트 디스크 판독 전용 메모리)/CD-R(콤팩트 디스크 기록가능) 드라이브(42) 및 AV(Audio Visual) 단자부(43)가 사용자에 노출된 상태로 된다. CD-ROM/CD-R 드라이브(42)는 이하 간단히 CD 드라이브라 칭하기로 한다.
본체(31)는 다른 소정의 장치를 설치시킬 수 있도록 하는 확장부(44)를 구비한다.
퍼스널 컴퓨터 사용을 완료하면, 사용자는 상부 패널(37)의 상부 상에 생성되어 있는 오목부(38) 상에 손가락을 올려 놓고 상부쪽 방향으로 패널(37)을 이동시킨다. 상부 패널(37)은 가이드를 따라 상부 방향으로 이동하여 소정 위치에 다다르면, 하부 패널(36)은 스프링의 힘에 의해 외부쪽으로 돌출하는 상태로 복귀된다. 이 상태에서, 상부 패널(37)의 하부 방향으로의 이동은 하부 패널(36)에 의해 다시 차단된다.
상술된 바와 같이, 테이퍼 형태를 갖는 우측 전면 코너면(32) 및 좌측 전면 코너면(33)은 본체(31)의 폭이 좁게 보이도록 우측 측면과 전면 사이, 그리고 좌측 측면과 전면 사이의 코너에 각각 제공된다. 게다가, 본체(31)의 전면의 일부로서 제공된 상부 패널(37)은 자유롭게 이동될 수 있으며 본체(31)에 설치되어 있는 디바이스의 보호기로서 작용한다. 퍼스널 컴퓨터가 사용되지 않는 경우, 노출되지 않은 상태로 둠으로써 상부 패널(37)은 설치 장치가 감춰져 있는 상태로 된다. 그 결과, 평면의 단순한 설계 이미지가 실현될 수 있다.
장래의 AV 장비에 가능한 응용을 취하면, 상부 패널(37)은 인출형(drawer) 또는 회전식으로 변화될 수 있도록 설계된다.
기본적으로, 표시 장치(51)는 베이스(52) 및 베이스(52)에 대해 수평 방향(팬 방향) 및 수직 방향(틸트 방향)으로 자유롭게 이동될 수 있는 방식으로 제공되어 있는 표시부(53)를 포함한다. 베이스(52)의 전면부에는 오목부(54)가 제공된다.
표시부(53)의 전면으로서, CRT(음극관 튜브;55)가 제공된다. CRT(55)는 통상적으로 고도로 정밀한 17 인치 트리니트론 모니터로서 작용한다. 표시부(53)의 우측 측면과 CRT(55) 사이의 우측 전면 코너 상에는 테이퍼 형태를 갖는 우측 전면 코너면(56)이 제공된다. 우측 전면 코너면(56)의 내측상에는 하부 스피커(59) 및 상부 스피커(60)가 제공된다. 그 위에, 표시부(53)의 우측면과 CRT(55) 사이의 좌측 전면 코너상에는 테이퍼 형태를 갖는 좌측 전면 코너면(56)이 제공되고, 좌측 전면 코너면(57)의 내측상에는 하부 스피커(59) 및 상부 스피커(60)가 또한 제공된다. 이러한 소자가 제공되기 때문에, 고 품질의 화상 및 고성의 고 품질의 스테레오 음향의 재생이 실현될 수 있다.
표시부(53)의 상부의 전면부상에는 마이크로폰(24)이 제공된다. 마이크로폰(24)은 사용자의 음성을 입력하는데 사용된다. 스피커(59 및 60)와 함께, 마이크로폰(24)은 예를 들어, 핸드 프리폰을 실현하는데 사용될 수 있다.
표시부(53)의 상부의 중앙에는 홈(58)이 제공된다. 홈(58)은 마이크로폰(24)의 코드를 설치하는데 사용된다. 텔레비젼 전화의 텔레비젼 카메라가 표시 장치(51) 상에 장착될 때, 텔레비젼 카메라의 코드는 또한 홈(58) 내에 설치될 수 있다.
도 3은 본체(31)의 전면의 통상의 상세한 구성을 도시한 도면이다.
도면에 도시된 바와 같이, 전원 램프(61)는 전술된 전원 버튼(34) 상에 제공된다. 전원 램프(61)는 전원이 온되었다는 것을 나타내기 위해 점등된다. 반면에, 전원이 오프되면 전원 램프(61)는 소등된다. 전원 버튼(34)의 하부에는 하드 디스크 액세스 램프(63)가 제공된다. 후술되는 바와 같이, 본체(31)는 도 5에 도시된 바와 같이 내장형 하드 디스크(212)를 구비한다. 하드 디스크(212)로 액세스가 진행중이면, 하드 디스크 액세스 램프(63)가 점등된다. 통상적으로, 하드 디스크 액세스 램프(63)는 주황색이다.
FDD(41)은 통상적으로 저장 용량이 1.44 MB(메가바이트), 1.2 MB 또는 720 KB(킬로바이트)인 3.5 인치 FD용의 드라이버이다. FDD(41)의 전면상에는 플로피 디스크 드라이브 액세스 램프(64) 및 플로피 디스크 인젝트 버튼(66)이 제공된다. FDD(41) 상에 장착된 FD로 액세스가 진행중이면 플로피 디스크 드라이브 액세스 램프(64)가 점등된다. 사용자는 FDD(41)로부터 FD를 꺼내기 위해 플로피 디스크 인젝트 버튼(66)을 누른다.
CD 드라이브(42)는 도면에는 도시되지 않은 CD-ROM 디스크로부터 데이터를 판독하며 도 5에 도시된 CD-R(CD-R FS;211)로부터 데이터를 판독하거나 CD-R에 데이터를 기록한다. CD 드라이브(42)는 통상적으로 8배속으로 데이터를 판독하며 2배속으로 데이터를 기록한다는 것을 주목한다.
CD 드라이브(42)의 전면상에는 이젝트 버튼(68), 이젝트 홀(69) 및 액세스 램프(70)가 제공된다. 이젝트 버튼(68)은 CD 드라이브(42)의 트레이를 인출하도록 동작된다. 이젝트 홀(69)은 이젝트 버튼(68)을 누름으로써 트레이를 인출할 수 없는 경우에 동작된다. 즉, 트레이를 인출하기 위해 뾰족한 단부를 갖는 스틱이 이젝트 홀(69)로 도입된다. CD 드라이브(42) 상에 장착된 CD-ROM 또는 CD-R 디스크(211)로 액세스가 진행중이면, 액세스 램프(70)가 점등된다.
AV 단자부(43)는 S 영상 입력 단자, 복합 신호용의 비디오 입력 단자, 및 L(좌측) R(우측) 채널용의 2 오디오 입력 단자(핀 잭)를 포함한다. 퍼스널 컴퓨터에 의해 편집될 비디오 카메라 또는 VTR(비디오 테이프 레코더)에 의해 기록된 화상 및 음향은 AV 단자부(43)의 단자들을 통해 입력된다.
도 4는 본체(31)의 배면의 통상의 상세한 구성을 도시한 도면이다.
본체(31)의 배면의 우측 상부 코너에는 전원 입력 단자(71)가 제공된다. 도면에는 도시되지 않은 전원 코드가 전원 입력 단자(71)에 접속되어 본체(31)에 전원을 공급한다.
본체(31)의 배면의 좌측 상부 코너에는 키보드 단자(72) 및 마우스 단자(73)가 제공된다. 키보드 단자(72) 및 마우스 단자(73)는 키보드(21) 및 마우스(22)에 각각 접속된다. 마우스 단자(73)의 하부에는 USB(범용 시리얼 버스) 단자(74)가 제공된다. USB 단자(74)는 USB 사양에 맞추는 장치를 본체(31)에 접속하는데 사용된다. USB 단자(74)의 하부에는 프린터 단자(75) 및 2개의 시리얼 단자(76)가 제공된다. 프린터 단자(75)는 프린터 또는 화상 스캐너에 접속된다. 통상적으로, 적외선 통신 어뎁터가 시리얼 단자(76)들 중 하나에 접속된다. 즉, 본 실시예에서는, 시리얼 단자(76)들 중 하나를 적외선 통신 인터페이스로 작용하는 적외선 어뎁터에 접속함으로써, 본체(31)와 다른 장치들간에 적외선 통신이 실현될 수 있다.
프린터 단자(75)의 하부에는 게임 단자(77)가 제공된다. 게임 단자(77)는 통상적으로 조이 스틱 또는 MIDI(Musical Instrument Digital Interface) 장치에 접속된다.
시리얼 단자(76)의 하부에는 헤드폰 단자(78), 라인 입력 단자(79) 및 마이크로폰 단자(80)가 열거된 순서대로 차례로 제공된다. 통상적으로, 헤드폰 단자(78), 라인 입력 단자(79) 및 마이크로폰 단자(80)는 도 1 및 2에 도시된 외부 스피커, 오디오 장치 및 마이크로폰(24)에 각각 접속된다. 상술된 단자들 각각의 우측상에는 어떤 디바이스 또는 장치가 단자에 접속되었는지를 나타내는 화상이 도시된다.
마이크로폰 단자(80)의 하부에는 복합 신호용의 영상 출력 단자(81), S 영상 출력 단자(82) 및 모니터 단자(83)가 제공된다. 복합 비디오 신호 및 S 영상 신호는 복합 신호용의 영상 출력 단자(81) 및 S 영상 출력 단자(82)로부터 각각 출력된다. 모니터 단자(83)는 표시 장치(51)에 접속된다.
복합 신호용의 영상 출력 단자(81), S 영상 출력 단자(82) 및 모니터 단자(83)의 하부에는 AV 단자부(84)가 제공된다. 전면 상의 AV 단자부(43)와 같이, AV 단자부(84)는 S 영상 입력 단자, 복합 신호용의 비디오 입력 단자 및 L 및 R 채널용의 오디오 입력 단자를 포함한다.
AV 단자부(84)의 우측상에는 안테나 단자(85)가 제공되어 있으므로, VHF(Very High frequency) 대역 및 UHF(Ultra High Frequency) 대역의 텔레비젼 신호를 수신할 수 있다.
본체(31)의 배면의 또 다른 하부상에는 라인 잭(86) 및 텔레폰 잭(87)이 제공된다. 라인 잭(86)은 전화선에 접속되며, 텔레폰 잭(87)은 통상적으로 전화기 또는 팩시밀리 장치에 접속된다.
도 5는 도 1 및 2에 도시된 퍼스널 컴퓨터의 통상의 전기적 구성을 도시한 도면이다.
본 실시예에서, 퍼스널 컴퓨터는 내장형 TV 튜너(213A)를 갖춘 내장형 MPEG1 리얼 타임 엔코더 보드(213)를 구비한다. 퍼스널 컴퓨터는 화상의 MPEG 디코딩 및 다른 화상 처리뿐만 아니라, 편집, 기록, 재생을 수행하기 위한 표준으로서 응용 프로그램을 구비한다. MPEG1 리얼 타임 엔코더 보드(213) 및 응용 프로그램으로 인해 비디오 카메라(214)에 의해 얻어진 화상 및 음향의 편집, 편집 결과로서 얻어진 화상 및 음향을 기록하기 위한 비디오 CD의 생성 및 용이하게 수행되는 다른 처리가 가능하다. 게다가, TV 튜너(213A)에 의해 수신된 텔레비젼 방송 프로그램이 용이하게 기록될 수 있으며, 또한 다른 처리가 용이하게 수행될 수 있다. 그 위에, TV 튜너(213A)에 의해 수신된 텔레비젼 방송 프로그램이 기록되는 중에 사전에 기록되어 있는 비디오 신호 또는 화상의 임의의 씬(scene)이 용이하게 재생될 수 있다.
상세히 설명하면, 마이크로프로세서(201)는 하드 디스크(212)에 저장되어 있는, 마이크로 소프트사에 의해 개발된 윈도우 95와 같은 오퍼레이팅 시스템의 제어하에서, 하드 디스크(212)에 저장된 각종 응용 프로그램을 실행하여 화상의 MPEG 엔코딩 및 다른 소정의 화상 처리뿐만 아니라 편집, 기록, 재생을 수행한다. 마이크로프로세서(201), 도면에는 도시되어 있지 않은, 주파수가 266 MHz이며 512 KB의 내장형 2차 캐시 메모리를 갖는 인텔사의 펜티엄 II 프로세서가 사용된다. 펜티엄 II 프로세서는 추가된 최적의 16 비트 코드를 발생시키기 위해 MMX 기술 및 설비로 인텔사에 의해 개발되었다. 그러한 프로세서가 제공되면, 퍼스널 컴퓨터는 대량의 화상 및 음향 데이터를 처리할 때에도 고성능으로 표시할 수 있다.
메인 메모리부(202)는 마이크로프로세서(201)에 의해 실행되는 프로그램 및 마이크로프로세서(201)에 의해 수행되는 동작시에 필요한 데이터를 저장하는데 사용된다. 표준으로서, 메인 메모리 유닛(202)은 예를 들어 고속으로 수행될 대량의 데이터를 갖는 화상의 처리를 가능케하는 통상 32KB의 저장 용량을 갖는다. 메인 메모리부(202)의 저장 용량은 메모리 확장에 의해 통상 128 MB까지 증가될 수 있다는 것을 주목한다.
버스 브릿지(204)는 내부 버스와 PCI(Peripheral Component Interconnect)버스 또는 ISA(Industry Standard Architecture) 버스와 같은 확장 버스간의 데이터 교환을 제어한다.
마이크로프로세서(201), 메인 메모리부(202) 및 버스 브릿지(204)는 내부 버스에 의해 서로 접속된다. 반면에, 나머지 블럭들은 확장 버스에 의해 서로 접속된다. 버스 브릿지(204)가 내부 버스 및 확장 버스에 접속되어 있다는 것을 주목한다.
모뎀(206)으로서, 33.6 Kbps DSVD/DATA/FAX 모뎀이 사용된다. 모뎀(206)은 전화선을 통해 통신을 제어한다. 모뎀(206)은 인터넷과 같은 소스로부터 화상 및 음향을 수신하여 엔코딩 및 편집과 같은 처리가 수행된다. 반면에, 모뎀(206)은 또한 엔코딩 및 편집과 같은 처리를 완료한 화상 및 음향을 외부 목적지에 전송할 수도 있다. 게다가, 모뎀(206)은 마이크로폰(24)를 통해 음향 입력을 송신하며 입력 음향을 수신하여, 스피커(59 및 60)에 출력함으로써, 핸드프리 폰이 실현될 수있다. FAX 모뎀으로서 모뎀(206)이 사용되면 전송 속도는 14.4 Kbps로 설정된다.
I/O 인터페이스부(207)는 키보드(21) 또는 마우스(22)에 대한 사용자에 의해 수행되는 동작을 나타내는 동작 신호를 발생한다. 게다가, I/O 인터페이스부(207)는 마이크로폰(24)에 의해 출력된 오디오 신호로서 전기 신호를 수신하는 인터페이스로서 기능한다.
보조 기억 인터페이스부(210)는 CD-R 디스크(211), 도면에는 도시되지 않은 CD-ROM 디스크, HD(하드 디스크;212) 및 도면에는 도시되지 않은 FD와 같은 기록 매체로부터 데이터를 판독하고 이들 기록 매체에 데이터를 기록하는 인터페이스로서 기능한다.
CD-R 디스크(211) 상에는, MPEG1 리얼 타임 엔코더 보드(213)에 의해 엔코드된 화상 및 음향이 저장됨으로써, 유저 오리지널 비디오 CD가 제작한다. CD 드라이브(42)가 CD-R FS 디스크를 처리할 수 있다는 것을 주목한다. CD-R 디스크에는 약 650 MB의 데이터가 저장될 수 있으나, CD-R FS 디스크는 약 520 MB의 데이터만을 저장할 수 있다.
하드 디스크(212)는 고속 버스 마스터 IDE(Integrated Drive Electronics) 전송을 유지할 수 있는 4.3 GB의 통상의 저장 용량을 갖는다. 하드 디스크(212)는 MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행된 압축 및 엔코딩 결과로서 얻어진 데이터 및 마이크로프로세서(201)에 의해 수행된 처리시에 필요한 데이터를 저장하는데 사용된다. 본체(31)는 SCSI(Small Computer System Interface) 보드가 내부에 설치되도록 설계된다는 것을 주목한다. SCSI 보드가 설치되기 때문에, SCSI 인터페이스를 구비한 하드 디스크 드라이브가 추가될 수 있다.
게다가, 하드 디스크(212)는 화상의 기록, 재생, 편집 및 디코딩과 같은 처리를 수행하도록 마이크로프로세서(201)에 의해 실행되는 응용 프로그램을 포함하는 소프트웨어뿐만 아니라 오퍼레이팅 시스템을 저장하는데 사용될 수 있다.
화상의 기록, 재생 및 편집과 같은 처리를 통해 소위, 비디오 생성용의 응용 프로그램으로서, 슬립클립(Slipclip)이라 불리는 소프트웨어가 설치된다.
슬립클립 소프트웨어는 슬립 레코더, 클립 편집기, 클립 뷰어, 비디오 생성기 및 비디오 CD 복사 툴이라 불리는 5개의 응용 프로그램을 포함한다.
슬립 레코더는 화상 및 음향을 기록하거나 기록된 화상 및 음향을 재생하도록 실행된다. 클립 편집기는 기록된 화상 및 해당 음향을 편집하도록 실행된다. 클립 뷰어는 기록된 화상 및 음향을 처리하도록 실행된다. 비디오 CD 생성기는 편집된 화상 또는 다른 데이터를 CD-R 디스크(211)에 기록하여 비디오 CD를 제작하도록 실행된다. 비디오 CD 복사 툴은 사전에 제작된 비디오 CD의 복사 비디오 CD를 제작하도록 실행된다.
본 실시예에서, 소위, 해적판 디스크(pirate disk)가 불법적으로 제작되는 것을 방지하기 위해, 본체(31)에서 수행된 편집 동작의 결과로서 얻어진 화상만이 복사될 수 있다.
슬립 레코더, 클립 편집기, 클립 뷰어, 비디오 CD 생성기 및 비디오 CD 복사 툴중에서, 슬립 레코더, 클립 편집기 및 클립 뷰어만이 특히 화상 기록, 재생 및 편집에 관련되며, 이하 차례로 후술될 것이다.
하드 디스크(212)에는, 통상 MPEG1 사양에 따라 MPEG1 리얼 타임 엔코더 보드(213)에 의해 엔코드된 데이터를 디코드하도록 마이크로프로세서(201)에 의해 실행되는 응용 프로그램이 저장된다. 따라서, 이 경우 화상은 하드웨어에 의해 엔코드되고 소프트웨어에 의해 디코드된다. 화상은 또한 소프트웨어에 의해 엔코드되고 하드웨어에 의해 디코드될 수 있다는 것을 주목한다.
엔코더 보드(213), 정확히 말해, MPEG1 리얼 타임 엔코더 보드(213)는 MPEG1 사양에 따라 리얼 타임 방식으로 화상 및 음향을 엔코드한다. 특히, MPEG1 리얼 타임 엔코더 보드(213)은 화상 및 음향을 고 품질의 화상 기록을 위해 고속 비트로 엔코딩하는 모드 및 전송의 경우 저속 비트 레이트로 엔코딩하는 모드를 포함하는 4개의 상이한 녹화 모드로 화상 및 음향을 엔코딩할 수 있다. 후술되는 바와 같이, 비트 레이트가 감소되는 순서로 열거하면, 녹화 모드는 High, Normal, Long 및 Network이다. 통상 녹화 모드는 비디오 CD 사양에 낮춰진다는 것을 주목한다. 화상 및 음향이 녹화 모드에서 엔코드될 때, 1GB당 약 100분의 기록이 수행될 수 있다.
상술된 바와 같이, MPEG1 리얼 타임 엔코더 보드(213)는 텔레비젼 방송 프로그램을 수신하기 위한 내장형 TV 튜너(213A)를 구비하고 있다. TV 튜너(213A)에 의해 수신된 프로그램은 MPEG1 리얼 타임 엔코더 보드(213)에서 MPEG 엔코딩이 수행된다. 게다가, MPEG1 리얼 타임 엔코더 보드(213)는 또한 확장 버스에 의해 제공된 데이터, AV 처리 회로(215)에 의해 제공되는 데이터 및 비디오 카메라(214)와 같은 외부 장치로부터 제공되는 데이터를 엔코딩할 수 있다. AV 처리 회로(215)에 의해 제공되는 데이터의 한 예는 VTR(216)에 의해 재생된 화상이다.
TV 튜너(213A)는 통상 채널 1부터 채널 62까지의 62개의 채널을 선택할 수 있다는 것을 주목한다. 오디오 장비의 경우, 스테레오 및 바이링궐(bilingual) 프로그램이 수신될 수 있다.
비디오 카메라(214)는 MPEG1 리얼 타임 엔코더 보드(213)에 제공되는 화상을 찍는데 통상 사용된다. MPEG1 리얼 타임 엔코더 보드(213)는 비디오 카메라(214)와 인터페이스하는 기능을 또한 가지므로, 비디오 카메라(214)에 의해 취득된 화상 및 음향이 MPEG1 리얼 타임 엔코더 보드(213)에 제공될 수 있다는 것을 주목한다.
AV 처리 회로(215)는 도면에는 도시되지 않은 VGA(비디오 그래픽 어레이) 및 3차원 가속기를 포함하는 소자를 포함한다. AV 처리 회로(215)는 표시 장치(51) 상에 그래픽 및 또 다른 정보를 표시하는데 필요한 처리를 수행한다. 게다가, AV 처리 회로(215)는 스피커(59및 60)에 음향을 출력하는데 필요한 처리를 수행한다. AV 처리 회로(215)는 화상을 VTR(216)에 출력하기 전에 화상을 NTSC 시스템에 맞는 것으로 변환하는데 사용되는 내장형 NTSC 엔코더(215A)를 구비한다.
AV 처리 회로(215)는 AMC 버스에 의해 MPEG1 리얼 타임 엔코더 보드(213)에 접속된다. MPEG1 리얼 타임 엔코더 보드(213)는 MPEG 엔코딩을 수행하는 화상이 도 6에 도시된 프레임 메모리부(110)에 일단 저장되도록 설계된다. 프레임 메모리부(110)에 대해서는 상세히 후술될 것이다. MPEG 엔코딩이 수행되는 화상을 모니터하는 명령이 수신되면, 그 화상은 프레임 메모리(110)로부터 판독되어 AMC 버스에 의해 MPEG1 리얼 타임 엔코더 보드(213)로부터 AV 처리 회로(215)로 제공된다.
상세히 설명하면, AV 처리 회로(215)는 VRAM(비디오 RAM)부(203)에 그림을 그리며 표시 장치(51)에 그 그림을 출력한다.
VTR(216)은 필요한 경우 AV 처리 회로(215)에 의해 출력된 화상 및 음향을 기록한다.
도 6은 도 5에 도시된 퍼스널 컴퓨터에서 사용된 MPEG1 리얼 타임 엔코더 보드(213)의 통상의 구성을 도시한 도면이다. 도 6은 MPEG 엔코딩과 관련된 블럭만을 도시한다는 것을 주목한다. TV 튜너(213A)를 구성하는 블럭과 같은 다른 블럭들은 본 도면에서는 생략되었다. 보다 엄밀히 말해, 도 6은 화상의 MPEG 엔코딩과 관련된 블럭만을 도시한다. 음향의 MPEG 엔코딩과 관련된 블럭들은 본 도면에서는 생략되었다.
소정수의 화소로 구성된 한개의 프레임의 디지탈 화상 데이터는 초당 약 30 프레임의 통상의 전송 속도로 입력 단자(10)에 제공된다.
입력 단자(101)를 통해 제공된 화상은 복수 프레임의 화상 데이터, 통상 27 프레임의 화상 데이터를 저장할 수 있는 메모리 프레임부(110)에 일시적으로 저장되어, 프레임들이 소정 순서로 재정렬될 수 있다. 그 후, 화상 데이터는 블럭 분할기(111) 및 모션 검출기(120)에 제공된다. 블럭 분할기(111)는 메모리 프레임부(110)로부터 제공된 화상 데이터의 프레임을 통상 8 × 8 화소의 휘도 성분 및 크로마 성분(Cb 및 Cr)의 블럭으로 분할한다. 매크로블럭(MB)은 총 6개의 블럭, 즉, 4개의 휘도 성분 블럭 및 이 4개의 휘도 성분 블럭에 대응하는 1개의 Cr 크로마 성분 블럭 이외에 1개의 Cb 크로마 성분 블럭을 포함한다.
블럭 분할기(111)는 매크로블럭부 내의 차분기(subtractor;112)에 화상 데이터를 제공한다. 차분기(112)는 블럭 분할기(111)에 의해 제공된 화상 데이터와 후술될 인터프레임 예측 화상 데이터 사이의 차분을 계산하여 이 차분을 후술될 인터프레임 예측 엔코딩(interframe prediction encoding)을 수행한 프레임의 데이터로서 전환 스위치(113)의 전환 단자(b)에 제공한다. 반면에, 블럭 분할기(111)에 의해 출력된 화상 데이터는 후술될 인트라프레임 예측 엔코딩(intraframe prediction encoding)을 수행한 프레임의 데이터로서 전환 스위치(113)의 전환 단자(a)에 제공된다.
전환 스위치(113)는 전환 단자(a 또는 b)중 하나를 선택하고, 선택된 전환 단자에 제공된 화상 데이터는 블럭 유닛에서 DCT(discrete cosign transformation) 회로(114)에 전달된다. DCT 회로(114)는 전달된 화상 데이터에 대해 DCT 처리를 수행하여, DCT 처리 결과로서 얻어진 DCT 계수를 양자화기(115)에 출력한다. 양자화기(115)는 DCT 회로(114)에 의해 제공된 DCT 계수를 소정의 양자화 스텝으로 양자화하여, 양자화 결과로서 얻어진 양자화 계수를 지그재그 스캔 회로(116)에 출력한다.
지그재그 스캔 회로(116)는 각 블럭의 양자화 계수에 대해 지그재그 스캐닝을 수행하여, 이렇게 스캔된 계수를 VLC(Variable Length Code) 회로(117)에 스캐닝 순서로 출력한다. VLC 회로(117)는 지그재그 스캔 회로(116)에 의해 제공된 양자화 계수에 대해 VLC 처리를 수행하여, VLC 처리 결과로서 얻어진 가변 길이 엔코드 데이터를 출력 버퍼(118)에 제공한다. 출력 버퍼(118)는 통상 160 KB의 저장 용량을 갖는다. VLC 회로(117)로부터 수신된 가변 길이 엔코드 데이터를 일시적으로 저장함으로써, 출력 버퍼(118)는 출력 단자(102)에 출력될 데이터 양을 대부분 평활화(smoothing)시키는 기능을 수행한다. 출력 단자(102)에 나타나는 데이터는 일반적으로 하드 디스크(212)에 공급되어 거기에 저장된다.
또한, 출력 버퍼(118)는 거기에 임시로 저장되어 있는 데이터 양에 대한 정보를 양자화 스탭 제어기(119)에 공급한다. 양자화 스탭 제어기(119)는 출력 버퍼(118)에서 오버플로우나 언더플로우가 발생하지 않는 값으로 양자화 스탭를 세팅하고 양자화 스탭의 값을 양자화기(115)에 출력한다. 상술한 바와 같이, 양자화기(115)는 미리 지정된 양자화 스탭, 즉, 양자화 스탭 제어기(119)에 의해 제공된 양자화 스탭으로 DCT 회로(114)에 의해 제공된 DCT 계수를 양자화한다.
한편, 양자화기(115)는 또한 양자화 계수를 역 양자화기(126)에 그리고 상술한 지그재그 스캔 회로(116)에 공급한다. 역 양자화기(126)는 양자화기(115)에 의해 공급된 양자화된 계수에 대해 역 양자화를 수행하고 역 양자화의 결과로서 얻은 DCT 계수를 역 DCT 회로(125)에 공급한다. 역 DCT 회로(125)는 DCT 계수에 대해 역 DCT 프로세스를 수행하고 역 DCT 프로세스의 결과로서 얻은 데이터를 가산기(124)에 출력한다. 또한, 인터프레임 예측 엔코딩을 받는 프레임이 처리될 때 턴온되는 전환 스위치(123)에 의해서 모션 보상기 (121)에 의해 공급된 인터프레임 예측 화상 데이터가 가산기(124)에 공급된다. 가산기(124)는 역 DCT 회로(125)에 의해 출력된 데이터를 모션 보상기(121)에 의해 공급된 인터프레임 예측 화상 데이터와 가산하고 그 합을 프레임 메모리부(122)에 출력한다,
모션 보상기(121)는 모션 디코더(120)에 의해 출력된 모션 백터에 따른 모션을 위해 프레임 메모리부(122)에 저장된 데이터를 보상한다. 인터프레임 예측 보상 결과로 얻은 화상 데이터는 상술한 차분기(112)와 전환 스위치(123)에 공급된다.
엔코딩되는 화상, 더 엄격히 말해서, 동화상은 디스플레이 순서에 따라 헤드로부터 시작하여 다음과 같이 배열된다: I0, B1, B2, P3, B4, B5, P6, B7, B8, I9, B10, B11, B12, ---. 기호 I, P, 및 B는 그것에 의해 표시된 프레임들이 각각 I 화상, P 화상 및 B 화상을 나타내고 그 기호에 붙은 번호는 디스플레이 순서 상의 위치를 나타낸다.
MPEG 시스템에 있어서, 우선, 화상 I0이 엔코딩된다. 그런 다음, 화상 P3이 엔코딩되는 것으로 가정한다. 그러나, 이런 경우, 화상 P3 자체를 엔코딩 하는 대신, 화상 P3과 I0 사이의 차가 엔코딩된다. 이어서, 화상 B1이 엔코딩된다고 가정한다. 그러나 B1 자체가 엔코딩되는 것이 아니라 화상 B1과 I0 또는 P3 사이의 차가 엔코딩되거나, 또는 화상 B1과 화상들 I0와 P3의 평균 사이의 차가 엔코딩된다. 이 경우에, 엔코딩 결과로 얻어지는 소위 예측 오차가 최소가 되도록 화상 I0, 화상 P3, 그리고 화상들 I0와 P3의 평균 가운데 하나가 선택된다. 즉, 화상 B1과 상기 선택된 것 사이의 엔코딩의 차는 최소량의 데이터로 된다.
화상 B1을 엔코딩한 후에, 화상 B2가 엔코딩된다고 가정된다. 그러나, 화상 B2 자체가 엔코딩되는 것이 아니라 화상 B2와 I0 또는 P3 사이의 차나 또는 화상 B2와 화상들 I0와 P3의 평균 사이의 차가 엔코딩된다. 이 경우에, 화상 B2와 선택된 것 사이의 차를 엔코딩한 결과로 얻어지는 소위 예측 오차가 최소량의 데이터가 되도록 화상 I0, 화상 P3, 그리고 화상들 I0와 P3의 평균 가운데 하나가 선택된다.
이어서, 화상 P6가 엔코딩된다고 가정한다. 그러나, 화상 P6 자체가 엔코딩되는 대신에, 화상들 P6와 P3 사이의 차가 엔코딩된다. 이후, 엔코딩은 다음의 과정에 의해 수행된다.
엔코딩이 가정되는 화상과 이 화상과의 차가 실재로 엔코딩되는 파트너 화상이 쌍을 이룬다. 이러한 쌍들이 엔코딩 순서대로 아래의 표에 열거된다.
엔코딩 순서 엔코딩될 화상 파트너 화상
1 I0 -
2 P3 I0 또는 P3
3 B1 I0 또는 P3
4 B2 I0 또는 P3
5 P6 P3
6 B4 P3 또는 P6
7 B5 P3 또는 P6
8 P9 P6
9 B7 P6 또는 P9
10 B8 P6 또는 P9
11 I9 -
12 P12 I9
13 B10 I9 또는 P12
14 B11 I9 또는 P12
-
-
-
상기 표에 나타낸 바와 같이, 엔코딩 순서는 I0, P3, B1, B2, P6, B4, B5, P9, B7, B8, I9, P12, B10, B11, -, -, - 이고, 이에 따라, 디스플레이 순서와 다르다. 엔코딩 후 데이터는 이 순서대로 출력된다.
상술한 바와 같이, P 화상 또는 B 화상의 경우에, P 화상 또는 B 화상과 또 다른 화상 사이의 차를 엔코딩하는 것이 보통이라는 것을 주목한다. 만일 화상 자체를 엔코딩한 결과로 얻는 데이터의 양이 차를 엔코딩한 결과로 얻는 데이터의 양보다 적은 경우에는, 화상 자체가 엔코딩된다.
도 6에 도시된 MPEG 리얼 타임 엔코더 보드(213)에서, 엔코딩은 상술한 바와 같이 수행된다.
이에 따라, 제1 화상 I0를 엔코딩하는 동작에서, 그 화상의 데이터가 프레임 메모리부(11)로부터 독출되고, 블럭 분할기(111)에 공급되어 블럭들로 분할된다. 더 구체적으로는, 화상 데이터가 블럭 분할기(111)에 의해 블럭화 프로세스에서 4개의 휘도 블럭들 및 Cb 와 Cr의 색차 블럭들로 분할되는데 이 블럭들은 한 블럭씩 연속적으로 출력된다. I 화상을 엔코딩하는 동작에서, 전환 스위치(113)는 단자 a에 스위칭되게 세팅된다. 이에 따라, 블럭 분할기(111)에 의해 출력된 화상 데이터는 전환 스위치(113)에 의해 DCT 회로(114)에 공급된다. DCT 회로(114)에서, 블럭 단위로 공급된 데이터는 수직 수평 2차원 DCT 프로세싱을 받게 된다. 그 결과, 시간 축 상의 화상 데이터는 주파수 축 상의 데이터의 DCT 계수로 변환된다.
양자화기(115)는 DCT 회로(114)에 의해 공급된 DCT 계수를 양자화 스탭 제어기(119)에 의해 결정된 양자화 스탭으로 양자화하고, 양자화의 결과로 얻은 양자화된 계수를 지그재그 스캔 회로(116)에 출력한다. 지그재그 스캔 회로(116)는 각 블럭의 양자화된 계수들에 대해 지그재그로 스캐닝을 수행하고, 스캔된 계수들을 스캐닝 순서대로 VLC 회로(117)에 출력한다.
VLC 회로(117)는 지그재그 스캔 회로(116)에 의해 공급된 양자화된 계수들에 대해 Huffman 코딩과 같은 가변 길이 코딩 프로세싱을 수행하고 가변 길이 코딩 프로세싱의 결과로 얻은 가변적 길이의 엔코딩된 데이터를 출력 버퍼(118)에 임시로 저장되게 공급한다. 그런 다음, 가변적 길이의 엔코드된 데이터는 버퍼(118)에 의해 고정된 비트 레이트(bit rate)로 출력된다.
상술한 바와 같이, I(intra) 화상인, 화상 I0는 엔코딩시에 다른 화상들의 개입없이 단독으로 엔코딩된다. 다른 화상들의 개입없이 화상을 단독으로 엔코딩하는 것을 이하 인트라프레임 엔코딩이라 지칭한다. 인트라프레임 엔코딩이 완료된 화상은 상술한 과정과 반대인 역 과정에 따라 디코딩된다.
그 다음으로, 제2 화상 P3의 엔코딩이 설명된다. 제2 및 연속된 화상들도 I 화상으로서 엔코딩될 수 있다. 그러나, 그렇게 함으로써, 엔코딩의 압축율이 낮아질 것이다. 이 문제를 해결하기 위해, 연속된 화상들 사이에 상관성이 존재한다는 사실을 활용하여, 제2 및 연속된 화상들이 다음과 같이 엔코딩된다.
모션 검출기(120)는 제2 화상 P3를 구성하는 매크로블럭들 중 하나와 잘 닮은 제1 화상 I0의 부분을 각 매크로블럭에 대해 검출한다. 매크로블럭과 이 매크로블럭을 잘 닮은 부분 사이의 위치 관계 상의 이동을 나타내는 백터가 모션 백터로서 검출된다. ISO/ISC 11172-2 부록 D.6.2와 같은 문서에 설명된, 모션 백터를 검출하는 방법은 본 명세서에서 설명되지 않을 것이다.
제2 화상 P3에 대해, 그의 블럭들을 그대로 DCT 회로(114)에 공급하는 대신, 그 블럭의 모션 백터에 따라 모션 보상기(121)에 의해 수행된 모션 보상의 결과로서 P3 블럭과 제1 화상 I0로부터 얻은 블럭 사이의 차가 각 블럭별로 차분기(112)에 의해 계산되고 전환 스위치(113)를 경유하여 DCT 회로(114)에 공급된다.
이런 경우, 만일 모션 백터에 따라 제1 화상 I0의 모션 보상 결과로 얻은 블럭과 제2 화상 P3의 블럭 사이의 상관 관계가 좋다면, 그 블럭들 사이의 차는 작을 것이다. 이 경우, 차를 엔코딩한 결과로서 얻은 데이터의 양이 제2 화상 P3의 블럭을 인트라프레임 엔코딩한 결과로 얻는 데이터의 양보다 더 적을 것이다.
블럭들 사이의 차를 엔코딩하는 기술은 이하, 인터프레임 엔코딩이라 지칭된다.
그러나, 2개 블럭들 사이의 차를 인터프레임 엔코딩한 결과로 얻은 데이터의 양이 인트라프레임 엔코딩의 결과로 얻은 데이터의 양보다 항상 더 적은 것은 아니다. 엔코딩되는 화상의 복잡성 및 프레임과 바로 직전의 프레임 사이의 상관 정도에 따라, 2개 블럭들 사이의 차를 인터프레임 엔코딩한 결과로 얻은 데이터의 양이 인트라프레임 엔코딩의 결과로 얻은 데이터의 양보다 반대로 더 클수도 있고, 후자의 엔코딩에 대한 압축율이 더 높게 된다. 이러한 경우, 인트라프레임 엔코딩이 바람직하고 대신 구현된다. 인터프레임 엔코딩이 수행될 것인지 인트라프레임 엔코딩이 수행될 것인지에 대한 결정은 각각의 매크로블럭에 대해서 만들어진다.
그런데, 인터프레임 엔코딩을 수행하기 위해, 즉, 현재의 화상과 현재의 화상 바로 직전의 화상 사이의 차를 구하기 위해, 아래에 설명되는 바와 같이, 바로 직전에 엔코드되었던 바로 직전 화상의 엔코딩된 데이터를 부분적으로 디코딩함으로써 얻은 지엽적으로 디코딩된 바로 직전의 화상을 미리 구하는 것이 필요하다.
이러한 이유 때문에, MPEG1 리얼 타임 엔코더 보드(213)는 모션 보상기(121), 프레임 메모리부(122), 전환 스위치(123), 가산기(124) 역 DCT 회로(125) 및 역 양자화기(126)를 포함한 소위 로컬 디코더가 제공된다. 프레임 메모리부(122) 내에 저장된 데이터는 지엽적으로 디코드된 화상 또는 지엽적으로 디코드된 데이터로 지칭된다. 반면에, 코딩 전의 화상 데이터는 원시 화상 또는 원시 데이터로 지칭된다.
제1 화상 I0를 엔코딩하는 동작에서, 양자화기(115)에 의해 출력된 데이터는 또한 역 DCT 회로(125)와 역 양자화기(126)에 의해 지엽적으로 디코딩된다. 이 경우, 전환 스위치(123)는 턴-오프되어, 지엽적으로 디코딩된 데이터가 프레임 메모리부(122)로 갈때 가산기(124)를 그냥 통과하도록 한다. 즉, 전환 스위치(123)가 턴-오프됨으로써, 가산기(124)는 본질적으로 지엽적으로 디코드된 데이터에 가산을 수행하지 않는다.
프레임 메모리부(122)에 저장된 화상 데이터는 원시 화상이 아니고 원시 화상을 엔코딩하고 원시 화상을 엔코딩한 결과로 얻은 데이터를 지엽적으로 디코딩한 결과로 얻은 화상이다. 이에 따라, 프레임 메모리부(122)에 저장된 화상 데이터는 데이터 디코딩 장치에 의해 수행된 디코딩의 결과로 얻은 화상과 같다. 원시 화상을 엔코딩하고 그런 다음 원시 화상을 엔코딩한 결과로 얻은 데이터를 지엽적으로 디코딩함으로써 얻었기 때문에, 프레임 메모리부(122)에 저장된 화상 데이터는 원시 데이터보다 어느 정도 화질이 떨어진다.
프레임 메모리부(122)에 제1 화상 I0의 지엽적으로 디코드된 데이터가 저장되고, 프레임 메모리부(110)로부터 제2 화상 P3가 블럭 분할기(111)를 경유하여 블럭 단위로 차분기(112)에 공급된다. 이 시점까지, 모션 검출기(120)에 의해 수행된 화상 P3의 모션 백터 검출이 종료될 필요가 있다.
한편, 모션 검출기(120)는 제2 화상 P3의 각 매크로블럭에 대해 검출된 모션 백터를 모션 보상기(121)에 공급한다. 모션 보상기(121)는 모션 검출기(120)에 의해 공급된 모션 백터에 따라 프레임 메모리부(122)에 저장된 이미 지엽적으로 디코드된 화상 I0에 대해 MC(motion compensation, 모션 보상)를 수행한다. 모션 보상의 결과로 얻은 1개 매크로블럭의 MC 데이터는 인터프레임 예측 화상 데이터로서 차분기(112)에 공급된다.
차분기(112)는 블럭 분할기(111)를 통해 공급된 화상 P3의 각 화소의 원시 데이터와 각 화소에 대해 모션 보상기(121)에 의해 공급된 인터프레임 예측 화상 데이터의 대응하는 화소 사이의 차를 계산한다. 차분기(112)에 의해 계산된 차는 전환 스위치(113)를 경유하여 DCT 회로(114)에 공급된다. 그후, 이 차는 I 화상과 같은 방법으로 엔코딩을 받게 된다. 이에 따라, 이 경우에, 전환 스위치(113)가 단자 b로 스위치되게 지정된다.
상술한 바와 같이, P(예측된) 화상의 경우에, 즉, 상기 예에서 화상 P3의 경우에, 기본적으로, 바로 직전에 엔코드된 I 또는 P 화상이 예측 화상을 생성하기 위한 모션 보상이 적용될 기준 화상으로서 사용되고, 그런 다음 예측 화상과 P 화상 사이의 차가 엔코딩된다.
즉, P 화상의 경우, 매크로블럭, 엄격히 말하면, 인터프레임 매크로블럭에 대해, 인터프레임 엔코딩의 결과로 얻은 데이터의 양이 인트라프레임의 결과로 얻은 것보다 더 적기 때문에, 인터프레임 엔코딩을 수행하기 위해 전환 스위치(113)가 단자 b로 스위치되도록 지정된다. 반면에, 매크로블럭, 엄격히 말해서, 인트라프레임 매크로블럭에 대해서는, 인트라프레임 엔코딩 결과로 얻은 데이터의 양이 인터프레임 엔코딩의 결과로 얻은 것보다 더 적기 때문에, 인트라프레임 엔코딩을 수행하기 위해 전환 스위치(113)가 단자 a로 스위치되게 지정된다. 인트라프레임 엔코딩이 완료된 P 화상의 매크로블럭은 지엽적으로 디코딩되고, 지엽적으로 디코딩된 데이터는 I 화상과 같은 방법으로 프레임 메모리부(122)에 저장된다. 반면에, 인터프레임 엔코딩이 완료된 P 화상의 매크로블럭은 역 양자화기(126) 및 역 DCT 회로(125)를 통과한 데이터를 턴온된 전환 스위치(123)를 경유한 모션 보상기(121)로부터의 인터프레임 예측 화상 데이터와 가산기(124)로 가산함으로써 지엽적으로 디코딩된다. 그런 다음, 가산기(124)로부터 출력된 지엽적으로 디코딩된 데이터는 프레임 메모리부(122)에 저장된다.
그 다음으로, 제3 화상 B1의 엔코딩이 설명된다.
B 화상을, 즉, 이 경우 화상 B1을 엔코딩하는 동작에서, 모션 검출기(120)는 바로 직전에 디스플레이된 I 또는 P 화상과 바로 직후에 디스플레이된 I 또는 P 화상에 대한 2개의 모션 백터들을 검출한다. 이에 따라, 본 예에서는, 화상 B1의 화상들 I0 및 P3에 대한 2개의 모션 백터들이 검출된다. 화상 B1 직전에 디스플레이된 I 화상인, 화상 I0에 대한 모션 백터는 순방향 백터로서 참조된다. 반면에, 화상 B1 직후에 디스플레이되는 P 화상인, 화상 P3에 대한 모션 백터는 역방향 백터로서 참조된다.
화상 B1은 다음 4개의 데이터들 중 가장 적은 양의 엔코딩된 데이터를 초래할 선택된 하나를 엔코딩함으로써 엔코딩된다. 4개의 데이터들은 다음과 같다:
1. 화상 B1과 지엽적으로 디코딩된 화상 I0를 순방향 백터에 따라 모션 보상한 결과로 얻은 인터프레임 예측 화상 데이터 사이의 차.
2. 화상 B1과 지엽적으로 디코딩된 화상 P3를 역방향 백터에 따라 모션 보상한 결과로 얻은 인터프레임 예측 화상 데이터 사이의 차.
3. 화상 B1과 상기 1, 2 항에 있는 2개의 예측 화상 데이터의 평균 사이의 차.
4. 화상 B1 자체.
상기 1, 2, 또는 3 항의 차가 엔코딩되는 경우, 즉, 인터프레임 엔코딩이 수행되는 경우, 필요한 모션 백터들이 모션 검출기(120)에 의해 모션 보상기(121)에 공급된다. 모션 백터에 따라 모션 보상기(121)에 의해 수행된 모션 보상의 결과로 얻은 인터프레임 예측 화상 데이터는 차분기(112)에 공급되고, 차분기(112)는 화상 B1의 원시 데이터와 모션 보상기(121)에 의해 공급된 인터프레임 예측 화상 데이터 사이의 차를 계산한다. 이 차는 전환 스위치(113)를 경유하여 DCT 회로(114)에 공급된다. 이에 따라, 이 경우에, 전환 스위치(113)는 단자 b로 스위치되게 지정된다. 반면에, 상기 4 항의 화상 B1 자체가 엔코딩되는 경우, 즉 인트라프레임이 수행되는 경우에는, 데이터, 즉 화상 B1의 원시 데이터가 전환 스위치(113)를 경유하여 DCT 회로(114)에 공급된다. 이에 따라, 이 경우, 전환 스위치(113)는 단자 a로 스위치되게 지정된다.
B 화상인, 화상 B1을 엔코딩하는 동작에서, 이미 엔코딩된 화상들 I0 및 P3가 지엽적으로 디코딩되어 최종적으로 프레임 메모리부(122)에 저장된다. 이에 따라, 엔코딩이 구현될 수 있다.
제4 화상 B2가 화상 B1과 같은 방법으로 엔코딩된다. 즉, 이제껏 주어진 화상 B1을 엔코딩하는 설명은 설명 중의 부호 B1을 부호 B2로 대체한다면 화상 B2에 대한 설명으로 적용될 수 있다.
제5 화상 P6는 화상 P3와 같은 방법으로 엔코딩된다. 즉, 상기 주어진 화상 P3를 엔코딩하는 설명은 설명 중의 부호들 P3 및 I0을 부호들 P6 및 P3로 각각 대체한다면 화상 P6에 대한 설명으로 적용될 수 있다.
제6 및 후속되는 화상들은 상술한 엔코딩 프로세스를 반복함으로써 엔코딩된다. 따라서 그 설명을 반복할 필요는 없다.
한편, MPEG1 리얼 타임 엔코더 보드(213)는 엔코딩될 각 화면 화상의 화상 타입을, 즉, 엔코딩될 화상이 I 화상인지, P 또는 B 화상인지를 결정하고, 상술한 엔코딩의 결과로 얻게 될 데이터의 양에 따라 엔코딩될 각 화상의 매크로블럭의 매크로블럭 타입을 결정한다. 그러나, 데이터의 양은 엔코딩될 화상에 따라 결정되고 실제로 엔코딩이 수행되지 않는다면 정확히 알지 못한다.
한편, 기본적으로 MPEG 엔코딩의 결과로 얻은 비트 스트림의 비트 레이트를 고정된 값으로 지정하는 것이 필요하다. 비트 레이트를 고정된 값으로 유지하는 방법으로서, 양자화기(115)에 사용된 양자화 스텝(양자화 스케일)을 제어하는 기술이 있다. 상세히 설명하면, 큰 양자화 스텝으로는 데이터가 성기게 양자화되고, 그 결과 생성된 데이터 또는 생성된 코드의 양이 적다. 반면에, 작은 양자화 스텝으로는, 데이터가 미세하게 양자화되고 그 결과 생성된 데이터 또는 생성된 코드의 양이 많다.
양자화 스텝은 구체적으로 다음과 같이 제어된다.
MPEG1 리얼 타임 엔코더 보드(213)의 출력단에, 출력 버퍼(118)가 제공된다. 출력 버퍼(118)는 생성된 데이터 양의 변화를 어느 정도 감안하기(absorb) 위해 엔코딩된 데이터를 임시로 저장하는데 사용된다. 그 결과, 출력 비트 스트림의 비트 레이트가 일정하게 만들어질 수 있다.
그러나, 만일 엔코딩된 데이터, 엄격히 말해서 가변적인 길이로 엔코딩된 데이터의 발생이 미리 설정된 값 이상의 비트 레이트로 계속된다면, 출력 버퍼(118)에 저장되는 데이터의 양은 계속 증가될 것이고, 결국 오버플로우가 발생할 것이다. 반면에, 만일 엔코딩된 데이터, 엄격히 말해서 가변적인 길이로 엔코딩된 데이터의 발생이 미리 설정된 값 이하의 비트 레이트로 계속된다면, 출력 버퍼(118)에 저장되는 데이터의 양은 계속 감소될 것이고, 결국 언더플로우가 발생할 것이다.
상술한 문제를 해결하기 위해, 출력 버퍼(118)에 저장된 데이터 또는 코드의 양이 양자화 스텝 제어기(119)에 공급되는데, 양자화 스텝 제어기(119)는 공급되는 데이터 또는 코드의 양에 따라 출력 버퍼(118)에 오버플로우와 언더플로우가 발생하는 것을 방지하기 위해 양자화 스텝을 제어한다.
상세히 설명하면, 출력 버퍼(118)에 저장된 데이터 또는 코드의 양이 출력 버퍼(118)의 저장 용량에 근접하게 되면, 오버플로우가 임박하게 발생하려는 상태로 되어, 양자화기(115)에 의해 생성되는 데이터의 양을 감소시키기 위해 양자화 스텝 제어기(119)가 양자화 스텝을 증가한다.
한편, 생성된 코드의 양은 또한 화상이 인트라프레임 엔코딩 방법을 사용하여 엔코딩되는지 또는 인터프레임 엔코딩 방법을 사용하여 엔코딩되는지에 따라 변화한다.
일반적으로, 인트라프레임 엔코딩은 생성된 코드의 양이 비교적 크기 때문에, 출력 버퍼(118)에 저장된 데이터의 양이 큰 경우에는 양자화 스텝을 매우 큰 값으로 지정하는 것이 필요하다. 이 경우, 양자화 스텝이 최대값으로 증가되었음에도 불구하고, 출력 버퍼(118)에 오버플로우가 발생할 수 있다. 또한, 양자화가 큰 양자화 스탭으로 수행되는 경우에는, 기본적으로 디코딩된 화상의 질이 저하되고 기준 화상으로서 상기 디코드된 화상과 함께 엔코딩되고 디코딩되는 화상의 질 또한 저하될 것이다. 이에 따라, 인트라프레임이 수행되는 경우에는, 출력 버퍼(118)에 오버플로우가 발생하는 것을 방지하고, 디코딩된 화상의 질이 나빠지는 것을 방지하기 위해, 출력 버퍼(118)에 충분히 많은 가용 영역을 확보하는 것이 필요하다.
이러한 이유 때문에, 양자화 스텝 제어기(119)는 미리 압축 방법 선택 회로(132)에 의해 공급되는 신호로부터 인트라프레임이 수행될 것인지 또는 인터프레임이 수행될 것인지에 관한 명령(order)을 인식한다. 양자화 스텝 제어기(119)는 인트라프레임 엔코딩의 경우에 출력 버퍼(118) 내에 충분히 큰 가용 영역을 확보하기 위해 양자화 스텝을 제어한다.
한편, 디코딩된 화상의 질에 대한 관점에서, 복잡한 화상에 대해서는 양자화가 작은 양자화 스텝으로 수행되는 것이 필요하고, 간단한 화상의 경우에는 큰 양자화 스텝으로 수행되는 것이 필요하다. 그러나, 출력 버퍼(118)로부터 공급되는 정보에 의해서만 양자화 스텝이 정해진다면, 이러한 양자화 조건들이 고려되지 않는다. 만일, 양자화 스텝이 화상의 복잡성의 면에서 부적합하게 지정된 경우라면, 너무 크거나 또는 적은 수의 비트들이 할당될 것이다. 부적합한 수의 비트들이 어떤 화상에 할당되는 경우에는, 다른 화상에 할당되는 비트 수도 영향을 받게 되어, 바람직하지 않은 상태를 초래하게 된다.
이러한 문제를 해결하기 위해, 양자화 스텝 제어기(119)는 버퍼 피드백 제어에서 출력 버퍼(118)에 저장된 데이터의 피드백되는 양 뿐만 아니라, 엔코딩될 화상의 복잡성을 근거로 양자화 스텝을 지정한다.
상세히 설명하면, MPEG1 리얼 타임 엔코더 보드(213)에 사용된 화상 평가 회로(130)는 엔코딩될 화상의 데이터를 프레임 메모리부(110)로부터 독출하고, 화상의 복잡성에 대한 표시자로 사용될 평가치를 계산한다. 그런 다음 화상 평가 회로(130)는 평가치를 씬 변화 검출 회로(131), 압축 방법 선택 회로(132) 및 양자화 스텝 제어기(119)에 출력한다.
양자화 스텝 제어기(119)는 화상을 엔코딩하는데 실제로 사용되는 양자화 스텝과, 그 양자화 스텝으로 수행된 양자화의 결과로 얻은 데이터 또는 코드의 양과, 화상 평가 회로(130)로부터의 화상 복잡성을 나타내는 평가치 사이의 관계를 학습하고, 학습 프로세스의 결과로부터 다음 양자화 스텝을 지정하기 위한 기본으로서 사용되는 기본 양자화 스텝을 구한다.
상세히 설명하면, 양자화 스텝 제어기(119)는 화상을 엔코딩하는데 실재로 사용되는 양자화 스텝, 이 양자화 스텝으로 수행되는 양자화의 결과로 얻은 데이터 또는 코드의 양, 그리고 화상의 복잡성을 나타내는 평가치를 사용하여 회귀분석을 수행하고, 이 분석의 결과를 나타내는 그래프로부터 그들 사이의 관계를 학습한다. 이어서, 엔코딩될 다음 화상의 복잡성을 나타내는 평가치를 파라미터로서 사용하여 다음 화상의 엔코딩을 위한 최적의 기본 양자화 스텝이 그래프로부터 예측된다.
그런 다음, 양자화 스텝 제어기(119)는 출력 버퍼(118)로부터 공급된 정보에 따라 기본 양자화 스탭을 변화시키고 이 변경된 값을 양자화 스탭으로서 지정한다.
기본 양자화 스탭은 화상의 복잡성을 고려함으로써 학습 프로세스로부터 매우 정확한 수준으로 예측될 수 있다. 따라서, 이러한 기본 양자화 스탭으로부터 양자화 스탭을 구함으로써, 디코드된 화상의 질이 출력 버퍼(118)로부터 공급된 정보만을 근거로 양자화 스탭을 제어한 결과로 얻은 화상과 비교해서 향상될 수 있다.
씬 변화 검출 회로(131)가 화상 평가 회로(130)에 의해 공급된 평가치로부터 씬이 변화하는지의 여부를 검출한다는 것을 주목한다. 검출 결과는 압축 방법 선택 회로(132)에 공급된다. 압축 방법 선택 회로(132)는 화상 평가 회로(130)에 의해 공급된 평가치와, 필요하다면 씬 변화 검출 회로(131)에 의해 출력된 검출 결과에 따라 화상을 압축하는 방법을 선택한다. 상세히 설명하면, 예를 들어 압축 방법 선택 회로(132)에 의해 선택된 압축 방법은 I, P 또는 B 화상을 엔코딩될 화상으로서 결정하고, GOP를 구성하는 화상들의 수를 결정하고, 매크로블럭 타입, 즉, 매크로블럭이 인트라프레임 엔코딩을 받을 것인지 또는 인터프레임 엔코딩을 받을 것인지를 결정한다.
압축 방법을 선택한 후, 압축 방법 선택 회로(132)는 현재 매크로블럭이 인트라프레임 엔코딩을 받는지 또는 인터프레임 엔코딩을 받는지에 따라 전환 스위치들(113 및 123)을 제어한다. 더 구체적으로는, 인트라프레임 엔코딩을 받는 매크로블럭의 경우에, 전환 스위치(113)는 단자 a로 스위치되게 지정되고 전환 스위치(123)는 턴오프된다. 반면에 인터프레임 엔코딩을 받는 매크로블럭의 경우에, 전환 스위치(113)는 단자 b로 스위치되게 지정되고 전환 스위치(123)는 턴온된다.
또한, 압축 방법 선택 회로(132)는 인트라프레임 엔코딩이 선택되었는지 또는 인터프레임 엔코딩이 선택되었는지를 양자화 스탭 제어기(119)에 알린다. 엔코딩 기술은 인트라프레임 엔코딩 및 인터프레임 엔코딩이 수행되는지의 명령을 인식하기 위해 양자화 스탭 제어기(119)에 의해 사용된다.
만일 압축 방법 선택 회로(132)가 연속적으로 P 또는 B 화상을 엔코딩될 연속적인 화상들의 타입으로서 오랫동안 선택하여 왔다면, 씬 변화에 의해 유발된 프레임들 사이의 상관 관계가 낮은 화상이 도달한 경우, 생성된 데이터의 양이 증가하고 디코딩된 화상의 질이 저하되게 되는데, 그 이유는 P 또는 B 화상이 인터프레임 기술을 사용하여 기본적으로 엔코딩되기 때문이다.
상술한 문제를 해결하기 위해, 씬 변화 검출 회로(131)는 씬 변화의 검출 결과를 압축 방법 선택 회로(132)에 공급한다. 압축 방법 선택 회로(132)가 씬 변화에 대해 알게 되면, 강제 선택이라 불리는 프로세스에서 I 화상 타입이 씬 변화 다음의 화상의 타입으로서 선택된다.
기본 양자화 스탭이 학습 프로세스로부터 추론되고 양자화 스탭이 상술한 학습된 기본 양자화 스탭으로부터 지정되는 방법은 본 출원인에 의해 먼저 제출된 일본 특허 공개 공보 제 8-102951호와 같은 문헌에 더 상세히 설명되어 있다.
화상 평가 회로(130)는 프레임 메모리부(110)를 참조함으로써 엔코딩되는 화상을 평가하는데 사용되는 평가치들로서 화상의 복잡성을 나타내는 다음 2개의 파라미터들을 계산한다.
상세히 설명하면, 제1 파라미터로서, 화상 자체의 정보량을 나타내는 평가치가 계산된다. 제1 파라미터를 사용하여, 상기 화상을 인트라프레임 엔코딩한 결과로 얻은 코드의 양, 즉, I 화상으로서 화상을 엔코딩한 결과로 얻은 코드의 양이 예측(또는 추론)될 수 있다. 구체적으로, 전형적인 제1 파라미터로서는, 화상의 블럭을 DCT 프로세싱하여 각각 얻은 DCT 계수들의 합 또는 또 다른 통계적 양이 사용될 수 있다. 택일적인 양으로서 전형적으로, 블럭에 대한 화소 값들의 평균이 계산된다. 그런 다음, 그 평균과 화소 값들 사이의 차의 절대값들의 합이 구해진다. 이 합은 편의상 평균 절대 편차로서 참조된다. 그러면, 모든 블럭들에 대한 평균 절대 편차들의 합이 역시 또 다른 전형적인 제1 파라미터로서 사용될 수 있다. 평균 절대 편차들의 합을 계산함으로써 구한 다른 전형적인 제1 파라미터의 경우, 화상 평가 회로(130)의 크기는 비교적 작게 만들어질 수 있어서, DCT 계수의 합을 계산함으로써 구한 전형적인 제1 파라미터와 비교하여 그 부하가 상대적으로 작게 감소될 수 있다.
상술한 이유 때문에, 화상 평가 회로(130)에서는, 모든 블럭들에 대한 평균 절대 편차들의 합이 다음과 같이 제1 파라미터로서 구해진다.
상세히 살펴보면, 예를 들어 엔코딩되는 화상의 블럭 S를 살펴본다. Si,j는 블럭 S의 좌측 최상단으로부터 우측으로 i번째 열에서 아래로 j번째 열에 있는 화소의 화소값이라고 한다. 블럭 S에 대한 MAD(Mean Absolute Difference평균 절대 편차)가 아래 주어진 수학식 1에 의해 구해진다. 비록 이 수학식은 모든 휘도 및 색차 블럭들에 적용될 수 있지만, MAD는 전형적으로 각 휘도 블럭에 대해서만 계산된다.
여기서 수학식 1에 사용된 SAVE는 블럭 F에 대한 화소값들의 평균이다.
그런 다음, 모든 블럭들에 대한 평균 절대 편차들 MADs의 합 SMAD이 다음의 수학식 2를 사용하여 제1 파라미터로서 계산된다.
여기서, 수학식 2에 사용된 기호 ∑는 화상을 구성하는 모든 블럭들에 대한 평균 절대 편차들 MADs의 합산을 나타낸다.
화상 평가 회로(130)에서, 수학식 1에 의해 표현된 평균 절대 편차 MAD는 블럭 대신에 매크로블럭에 대한 합으로서 구해질 수도 있다. 그러한 평균 절대 편차는 전형적으로 압축 방법 선택 회로(132)에 의해 매크로블럭이 인트라프레임 엔코딩될 것인지 또는 인터프레임 엔코딩될 것인지를 결정할 때와, 인터프레임 엔코딩의 경우에, 순방향 예측 엔코딩, 역방향 예측 엔코딩 또는 순방향 및 역방향 모두의 예측 엔코딩 중 선택시에 사용될 수 있다.
제2 파라미터로서는, 인터프레임 엔코딩에 사용된 화상과 기준 화상 사이의 차에 대한 정보의 양을 나타내는 평가치가 계산된다. 제2 파라미터를 사용하여, 상기 화상의 인터프레임 엔코딩의 결과로 얻은 코드의 양이 예측될 수 있다. 구체적으로, 제2 파라미터로서, 예를 들어 화상과 예측된 화상 사이의 차들에 대한 절대치들의 합이 각 블럭에 대해 구해진다. 이 합은 편의상 평균 절대 편차로서 참조된다. 예측된 화상은 기준 화상의 모션 보상으로부터 얻은 화상이다. 그런 다음, 모든 블럭들에 대한 평균 절대 편차들의 합이 제2 파라미터로서 사용된다.
모션 백터가 모션 검출기(120)에 의해 검출되면 평균 절대 편차가 구해진다. 그런 다음, 모션 검출기(120)에 의해 수행된 모션 검출의 결과를 사용하여 화상 평가 회로(130)에서, 제2 파라미터로서, 평균 절대 편차들의 합이 전형적으로 구해진다.
상세하게, 예를 들어 기준 화상의 블럭을 살펴본다. 이 블럭은 8 × 8 화소들을 포함한다. Ri,j를 블럭의 좌측 최상부 코너에서부터 우측으로 i번째 열과 그 코너로부터 아래로 j번째 행에 있는 화소의 화소값이라고 한다. 또한 엔코드된 화상에 대한 수평 방향의 x축과 수직 방향의 y축을 고려한다. 좌측 최상부 화소가 포인트(x,y)에 해당하는 블럭에 있어서, Sx+i, y+j를 그 블럭의 좌측 최상부 코너로부터 우측으로 i번째 열 및 그 코너로부터 아래로 j번째 행에 위치한 화소의 화소값이라고 한다.
모션 검출기(120)에서, 수학식 3에 의해 나타낸 화소값들 Sx+i, y+j와 Ri+j사이의 차들의 절대값들의 합 d(x,y)은 첨자 i 및 j를 한번에 1씩 증가시키면서 구해질 수 있다.
모션 검출기(120)에서, 수학식 3의 합 d(x,y)을 최소화하는 좌표(x,y)는 모션 백터로서 검출되고 최소값 d(x,y)은 절대 편차 AD로서 구해진다.
그런 다음, 화상 평가 회로(130)에서, 블럭에 대해 모션 검출기(120)에서 각각 구해진 절대 편차들 ADs의 합 SAD가 다음과 같이 모든 블럭들에 대한 합으로 표현되는 수학식 4을 사용하여 제2 파라미터로서 계산된다.
여기서, 수학식 4에 사용된 부호 ∑는 그 화상을 구성하는 모든 블럭들에 대한 절대 편차들 ADs의 합을 나타낸다.
화상 평가 회로(130)에서, 수학식 3에 의해 표현된 절대 편차 AD는 블럭 대신에 매크로블럭에 대한 합으로서도 구해질 수 있다. 그러한 절대 편차는 매크로블럭이 인트라프레임 엔코딩을 사용하여 엔코딩될 것인지 또는 인터프레임 엔코딩을 사용하여 엔코딩될 것인지를 결정할 때, 그리고 인터프레임 엔코딩 방법의 경우에, 순방향 예측 엔코딩, 역방향 예측 엔코딩 또는 순방향 및 역방향 예측 엔코딩 모두 가운데 선택할 때 압축 방법 선택 회로(132)에 의해 전형적으로 사용된다.
화상 평가 회로(130)에 의해 구해진 제1 파라미터 SMAD 및 제2 파라미터 SAD는 씬 변화 검출 회로(131), 압축 방법 선택 회로(132) 및 양자화 스탭 제어기(119)에 공급된다.
상술한 바와 같이, 씬 검출 회로(131)는 화상 평가 회로(130)에 의해 출력된 평가치들을 근거로 씬 변화의 발생을 검출한다. 압축 방법 선택 회로(132)는 화상 평가 회로(130)에 의해 공급된 평가치들과, 만일 필요하다면, 씬 변화 검출 회로(131)에 의해 출력된 검출 결과에 따라 화상을 압축할 방법을 선택한다. 양자화 스탭 제어기(119)는 양자화 스탭을 아래에 설명되는 바와 같이 지정한다.
(KHM)시작
씬 변화 검출 회로(131)에서, 화상이 바로 이어지는 화상의 제2 파라미터 SAD에 대한 화상의 제2 파라미터 SAD의 비율이 발견된다는 것에 유의하여야만 한다. 이 비율의 사이즈는 씬이 바뀌었는지의 여부에 대한 기준으로서 사용된다.
또한, 씬 변화 검출 회로(131)는 또한 후술될 인덱스 데이터를 생성한다. 이 인덱스 데이터는 후술될 생성 인덱스 파일 내에 저장되도록 마이크로프로세서(201)에 공급된다.
압축 방법 선택 회로(132)에 있어서, 예를 들면 P 또는 B 화상에 대하여, 화상 평가 회로(130)에 의해 공급된 매크로블럭용 전체 평균 절대차 MAD와 전체 절대차 AD는 서로 비교되고 그 비교의 결과는 인트라프레임(intraframe) 또는 인터프레임(interframe) 엔코딩 기술을 사용함으로써 매크로블럭이 엔코드될 것인지에 대한 판정을 하는데 이용된다. 이를 상세히 설명하면, 매크로블럭용 전체 평균 절대차 MAD가 매크로블럭용 전체 평균차 AD 보다 작은 것이 발견되면, 즉, 인트라프레임 엔코딩의 결과로서 얻어진 코드량이 인터프레임 엔코딩의 결과로서 얻어진 코드량 보다 작게 될 것이라고 예측되면, 인트라프레임 엔코딩이 선택된다. 매크로블럭용 평균 절대차 AD가 매크로블럭용 전체 평균 절대차 MAD 보다 작다는 것이 발견되면, 즉, 인터프레임 엔코딩의 결과로서 얻어진 코드량이 인트라프레임 엔코딩의 결과로서 얻어진 코드량 보다 작게 될 것이라고 예측되면, 인터프레임 엔코딩이 선택된다.
도 6에 나타난 MPEG1 리얼 타임 엔코더 보드(213)에서, 제어기(133)는 후술되는 바와 같이, 출력 버퍼(118)에 저장된 데이터량을 모니터하고 데이터량에 따라 MPEG1 리얼 타임 엔코더 보드(213)의 엔코딩 프로세스를 제어함에 유의하여야만 한다.
슬립클립(slipclip)과, 비디오 생성 작업용 하드 디스크(212) 내에 저장된 한 세트의 5개의 응용 프로그램들이 다음에 나타난다.
메인 유닛(31)의 전원 공급은 사용자가 전원 버튼(34)을 작동시킴으로써 턴온될 때, 하드 디스크(212)에 저장된 동작 시스템, 즉, 서두에 언급된 창(95)이 활성화된다. 업무 바(task bar)의 시작 버튼이 클릭되는 경우 시작 메뉴가 표시된다.
본 실시예에 있어서, 시작 메뉴의 아이템으로서는, 통상적으로 VAIO가 표시된다. 이 VAIO 아이템에 있어서, 슬립클립을 포함하는 선정된 응용 프로그램이 분류된다.
전술된 바와 같이, 클립 소프트웨어는 슬립 레코더, 클립 편집기, 클립 뷰어(viewer), 비디오 CD 생성기 및 VAIO의 슬립클립의 모든 것들이 목록화되는 비디오 CD 복사 툴을 포함한다. 따라서, 슬립클립 아이템이 마우스(22)의 작동에 의해 클릭될 때, 5개의 응용 프로그램들을 나타내는 5개의 아이템들, 즉, 슬립 레코더, 클립 편집기, 클립 뷰어, 비디오 CD 생성기 및 비디오 CD 복사 툴이 스크린 상에 표시된다.
다음으로, 사용자는 작업의 목적에 따라 아이템들 중 하나를 클릭하여 이 클릭된 아이템에 해당되는 응용 프로그램을 불러낸다.
비디오 CD의 생성에 사용될 사진 재료가 비디오 카메라(214)에 의하여 선택되고 기록 매체 상에 기록될 때, 슬립 레코더는 VTR(216)과 같은 녹화 장치를 사용하여 텔레비젼 방송 프로그램을 녹화하는 경우에서와 같이 간단한 방식으로 사진 재료가 녹화되는 경우에 구동된다. 이 경우, 도 7에 나타난 것과 같은 슬립 레코더 메인 윈도우(301)이 표시된다.
도면에 나타난 바와 같이, 슬립 레코더 메인 윈도우(301)은 다양한 인디케이터와 표시 필드들 및 버튼들을 포함한다.
상세하게 설명하면, 녹화 인디케이터 필드(302) 상에는, 녹화 상태가 표시된다. 구체적으로 나타내기 위하여, 녹화 예약 후 녹화 동작의 시작 대기 상태에 대해서는, 통상적으로 단어 타이머(TIMER)가 녹화 인디케이터 필드(302) 상에 표시된다. 예약 녹화 동작을 수행하는 상태에 대해서는, 통상적으로 단어 타이머 녹화(TIMER REC)가 녹화 인디케이터 필드(302) 상에 표시된다. 녹화 버튼(309)을 작동시킴으로써 녹화 동작이 시작된다면, 통상적으로 단어 REC가 녹화 인디케이터 필드(302) 상에 표시된다. 이 녹화 동작이 중지 버튼(310)을 작동시킴으로써 일시적으로 중단되는 경우 또는 정지 버튼(308)을 작동시킴으로써 정지되는 경우에는, 통상적으로 단어 일시 정지(PAUSE) 또는 단어 정지(STOP)가 각기 녹화 인디케이터 필드(302) 상에 표시된다.
형태가 유사한 플래그를 가지는 씬 변화 인디케이터 필드(303)는 녹화된 화상 상의 씬 변화의 발생이 검출될 때에만 표시된다. 바꾸어 말하자면, 통상적으로, 씬 변화 인디케이터 필드(303)는 표시되지 않는다. 씬 변화가 검출되는 경우, 씬 변화 인디케이터 필드(303)에 고정된 주기의 시간 동안 표시하여 사용자에게 씬 변화의 발생을 알린다.
현재 시각 표시 필드(304) 상에는, 일명 24 시간에 기초하여 현재 시간이 표시된다. 현재 시각 표시 필드(304)는 실제로 창(95)의 제어 판넬의 날짜와 시간에 의해 제어된 시간을 통상 표시한다.
녹화 시간 표시 필드(305) 상에는, 녹화 동작의 시작 이후의 시간 경과, 녹화 동작의 종료 까지의 잔여 시간 또는 후술될 테이프가 끝날 때까지의 잔여 시간 간격과 같은 시간 정보가 표시된다. 시간 버튼(311), 즉 녹화 시간 표시 변화 버튼을 동작시킴으로써, 사용자는 녹화 시간 표시 필드(304) 상에 시간 정보가 표시되도록 선택할 수 있다. 만약 녹화 동작이 수행되지 않는 경우에는, 통상적으로 녹화 시간 표시 필드(305) 상에 00 : 00 : 00이 표시됨에 유의하여야 한다.
타이머 대기 인디케이터 필드(306) 상에는, 예약 녹화 동작의 상태가 표시된다. 이 녹화 예약이 행해질 때, 예약 녹화 동작의 시작을 대기하는 상태의 상황이 놓여지면, 예를 들면, 예약 녹화 동작의 시작 시간은 타이머 대기 인디케이터 필드(306) 상에 표시되어 예약 녹화 동작의 시작을 대기하는 상태를 가리키게 된다. 구체적으로 설명하면, 14 : 55에 시작하게 될 예약 녹화 동작의 대기 상태가 현재의 상태인 경우, 예를 들면, 예약 녹화 동작의 대기 상태를 가리키는 단어 온(ON)이 표시되고 도 7에 나타난 바와 같이 예약 녹화 동작이 14 : 55에 시작하게 될 것이라는 것을 가리키는 시간 14 : 55이 표시된다. 예약 녹화 동작을 즉시 수행하는 상황 또한 예약 녹화 동작의 종료 시간에 따라 표시된다. 구체적으로 설명하면, 예를 들면, 21 : 43에 종료하게 될 예약 녹화 동작을 즉시 수행하는 상황은 단어 오프(OFF)로 표시되고 타이머 대기 인디케이터 필드(306) 상에 시간 21 : 43이 표시된다.
편의상 통상의 녹화와 같이 간단하게 이하에 언급되는 예약 녹화 동작 이외의 녹화 동작의 경우에, 통상의 녹화가 진행중임을 나타내는 것과 동일한 메세지는 종료 시간이 설정된다고 할지라도 표시된다.
종료 시간이 설정되지 않은 통상의 녹화 동작을 수행하는 상황은 예를 들면, 타이머 대기 인디케이터 필드(306) 상에 -- : --로 표시된다.
예약 이외의 동작과 통상의 녹화 동작에 대해서는, 타이머 대기 인디케이터 필드(306) 상에 어떠한 것도 표시되지 않는다.
엔드리스 녹화 표시 필드(307A) 상에는, 후술될 테이프의 형태를 가리키는 메세지가 표시된다. 엔드리스(endless) 테이프 형태의 경우에, 도 7에 나타난 바와 같이 엔드리스 녹화 표시 필드(307A) 상에 문자 E가 표시된다. 한편, 노멀(normal) 테이프 형태의 경우에, 엔드리스 녹화 표시 필드(307A) 상에 아무것도 표시되지 않는다.
입력 소오스 표시 필드(307B) 상에는, 선택된 녹화 대상을 가리키는 메세지가 표시된다. 보다 구체적으로 설명하면, 본체(31)의 후면 상의 AV 단자부(84)로부터의 입력 또는 본체(31)의 정면 상의 AV 단자부(43)로부터의 입력이 선택되는 경우, 입력 소오스 표시 필드(307B) 상에는 단어 Video 1 또는 Video 2가 각각 표시된다. TV 튜너(213A)의 출력이 선택되는 경우, 입력 소오스 표시 필드(307B) 상에는 메세지 TV-O가 표시된다. 메세지의 O 표시부 상에는, TV 튜너(213A)에 의해 선택된 채널의 수가 표시됨에 유의하여야 한다. 도 7에 나타난 윈도우 상에서, 입력 소오스 표시 필드(307B) 상에 메세지 TV-1이 표시되는데, 이는 채널 1을 통하여 방송되는 프로그램이 녹화 대상으로서 선택된 것을 나타낸다.
정지 버튼(308), 녹화 버튼(309) 또는 일시 정지 버튼(310)은 동작 시켜서, 각기 녹화 동작을 정지시키거나, 녹화 동작을 시작하거나, 녹화 동작을 일시적으로 정지시킨다. 일시 정지 버튼(310)을 작동(또는 클릭)함으로써 녹화 동작이 일시적으로 중지되는 경우, 중지 버튼(310)을 한번 더 작동함으로써 녹화 동작이 다시 시작될 수 있다.
전술한 바와 같이, 녹화 시간 표시 변화 버튼(311)을 작동하여 녹화 시간 표시 필드(305) 상에 표시된 메세지가 변화된다. 보다 구체적으로 설명하면, 녹화 시간 표시 변화 버튼(311)이 작동될 때 마다, 녹화 시간 표시 필드(305) 상에 표시된 메세지는 시간 경과로부터 잔여 시간 간격으로 돌아가면서 스위치된다.
입력 스위치 버튼(입력 버튼, 312)을 작동하여 녹화 대상으로서 선택된 입력을 변화한다. 보다 구체적으로 설명하면, 입력 스위치 버튼(312)이 동작될 때 마다, 본체(31)의 후면 상의 AV 단자부(84)로부터의 입력, 본체(31)의 정면 상의 AV 단자부(43)로부터의 입력, 및 TV 튜너(213A)의 출력 중 하나가 순환에 기초하여 선택된다. 입력 스위치 버튼(312)이 작동되는 경우, 입력 소오스 표시 필드(307B) 상에 표시된 메세지가 그에 따라 변화된다.
녹화 동작에 대한 입력으로서 선택된 TV 튜너(213A)의 출력을 이용하여, 예를 들면, 2개의 업 및 다운 버튼(313) 중 하나를 작동하여 현재 선택된 채널로부터 채널 버튼(314) 상에 나타난 다음 또는 이전 채널로 TV 튜너(213A)에 의해 선택된 채널의 수를 변화시킨다. 녹화 동작에 대한 입력으로서 선택된 TV 튜너(213A)의 출력을 이용하여, 채널 버튼(314)들 중 하나를 작동하여 TV 튜너(213A)에 의해 선택될 채널을 선택한다. 채널 버튼(314)들에 의해 표시된 채널의 수는 슬립 레코더 메인 윈도우(301) 상의 선택적인 메뉴의 채널 설정 아이템을 사용함으로써 1 내지 62의 범위내의 임의의 값으로 설정될 수 있음에 유의하여야 한다.
상기 표시된 구성을 가지는 슬립 레코더 메인 윈도우(301)을 이용하여, 입력 스위치 버트(312)을 작동하여 녹화 동작에 대한 입력을 선택한다고 가정한 상태에서, TV 튜너(213A)의 출력이 입력으로서 선택되는 경우, 업 또는 다운 버튼(313) 또는 채널 버튼(314)들 중 하나를 작동하여 입력 채널을 선택한다. 그리고 나서, 녹화 버튼(309)을 작동하여 선택된 입력에 첨부된 음향과 함께 화상을 녹화하기 위한 동작을 시작한다. 녹화 동작이 슬립 레코더에 의해 수행되는 경우, 녹화 동작에 사용될 테이프를 설정할 필요가 있다.
상세하게 설명하면, 전술된 바와 같이 녹화 버튼(309) 등을 작동시킴으로써 녹화 동작이 요구되는 경우, 녹화 대상의 화상은 MPEG1 리얼 타임 엔코더 보드(213)에 의해 엔코드되고 이 엔코딩 동작의 결과로서 얻어진 엔코드 데이터는 하드 디스크(212)에 저장된다. 그러나, 이 엔코드 데이터가 하드 디스크(212)에 간단하게 저장되는 경우, 하드 디스크의 여유 공간이 불충분하여 녹화 동작을 수행하기가 불가능할 수도 있다.
그런데, 예를 들면 VTR과 같은 장치에 의하여 비디오 테이프 상에 데이터를 녹화하는 녹화 동작이 수행되면, 어떠한 제약없이 비디오 테이프의 시작과 마지막 사이의 공간 내에 데이터가 녹화될 수 있다. 이는 비디오 테이프가 미리 할당된 기록 용량을 가지도록 고려되어 있기 때문이다.
슬립클립 유용성을 이용하여, 노멀 녹화 동작을 수행하는데 필요한 기록 용량 보다 큰 녹화 영역이 하드 디스크(212) 내에 할당되고 나서 엔코드된 코드를 포함하는 데이터가 녹화 영역에 녹화된다. 기록 용량은 하드 디스크(212)의 여유 공간이 없어서 녹화 중에 이 동작을 중지함없이 녹화 동작을 수행하는데 필요한 최소 기록 사이즈이다. 편의상, 녹화에 필요한 기록 용량과 기록 면적은 각기 필수 용량과 필수 면적으로서 이하에 참조된다.
상세히 설명하기 위하여, 본 실시예에서 실행된 화상을 녹화하는 동작에 있어서,
MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행된 MPEG 엔코딩의 결과로서 얻어진 MPEG 시스템 흐름을 녹화하는데 필요한 커다른 파일과 후술될 인덱스와 같은 정보를 녹화하는데 필요한 큰 파일이 생성된다. 전자 및 후자 파일들은 편의상 이하에 각기 MPEG 파일과 인텍스 파일로서 참조된다. 이 파일들은 하드 디스크(212)에 저장되기 때문에, 엔코드된 코드를 포함하는 데이터를 녹화하는데 필요한 영역, 즉 MPEG 시스템 스트림(stream)을 미리 하드 디스크(212) 내에 할당하는데 필요하다.
결국, 필요한 용량과 동일하거나 그 이상인 전체 사이즈를 가진 MPEG 및 인덱스 파일들은 하드 디스크(212)의 여유 공간에 할당된다.
하드 디스크(212)에 할당 직후의 MPEG 및 인덱스 파일들의 내용들은 특히 의미없는 정보이다. 파일들의 할당은 VTR에 의한 녹화 동작에서 새로운 비디오 테이프의 준비에 해당한다. 이로 인해, 파일들은 슬립 레코더에서 테이프로서 참조된다.
통상적으로, 도 8에 나타난 것과 같은 테이프 설정 다이알로그 박스(321)를 사용함으로써 테이프가 설정될 수 있다.
테이프 설정 다이알로그 박스(321)는 도 7에 나타난 슬립 레코더 메인 윈도우(301)의 상부에 나타난 편집(edit) 메뉴의 아이템인 메세지 표준 테이프 설정(standard tape setting)을 클릭함으로써 표시된다.
사용자는 테이프에 첨부될 제목을 테이프 설정 다이알로그 박스(321) 상의 제목 필드(322)에 등록한다. 도 8에 나타난 실시예에 있어서, 제목 Tape가 등록된다. 제목 필드(322)에 등록된 제목은 설정될 테이프를 구성하는 MPEG 및 인덱스 파일에 공통되는 파일 제목이다. MPEG 및 인덱스 파일들을 서로 구별하기 위해서는, 통상적으로 파일 제목 확장자 MPG와 SCX가 MPEG 및 인덱스 파일들에 각기 부여된다. 따라서, 제목 필드(322)에 파일 제목으로서 등록된 제목 Tape와 함께, 테이프를 구성하는 MPEG 및 인덱스 파일들의 전체 파일 제목은 각기 Tape.MPG와 Tape.SCX가 된다.
기입 금지 박스(323)를 통해 테이프가 기입 금지 상태인지 체크한다. 형태 필드(324)는 후술된 테이프의 형태를 설정하는데 이용된다.
슬립 레코더의 경우에, 2가지 형태의 테이프, 즉 normal과 endless는 도 9a와 도 9b에 각기 도시된 노멀 테이프와 엔드리스 테이프를 가리키기 위해 제공된다.
노멀 테이프가 특정화되는 경우, MPEG 및 인덱스 파일들은 생성하여 후술된 녹화 시간 필드(325)에 설정된 녹화 시간과 적어도 동일한 최소 필수 기록 용량을 가진 테이프를 형성한다. 1시간의 녹화 시간이 녹화 시간 필드(325)에 설정되면, 예를 들어, 도 9a에 나타난 1 시간의 기록 용량을 가진 테이프가 생성된다.
한편, 엔드리스 테이프가 특정화되는 경우, 통상적으로 15분의 고정된 기록 용량을 가진 테이프들이 생성되어 도 9b에 나타난 것과 같은 엔드리스 테이프를 형성한다. 이러한 테이프들은 편의상 이하에 고정된 테이프로서 참조된다. 녹화 시간 필드(325)에 설정된 녹화 시간에 대응되는 값과 적어도 동일한 기록 용량을 가진 엔드리스 테이프를 형성하는데 필요한 것과 같은 많은 고정된 테이프들이 생성된다. 부연하자면, 15분의 기록 용량을 가진 고정된 테이프들의 수는 녹화 시간 필드(325)에 설정된 녹화 시간을 15분 만큼 분할하고 나서, 분할의 결과로서 얻어진 몫에 1을 더함으로써 얻어진다. 이 실시예에 있어서, 각 고정 테이프의 녹화 시간은 후술되는 바와 같이 15분의 통상적인 값으로 설정된다. 구체적으로 설명하면, 예를 들어 1 시간의 녹화 시간이 녹화 시간 필드(325)에 설정된다고 가정하자. 이 경우, 도 9b에 나타난 바와 같이 엔드리스 테이프로부터 5개의 고정 테이프들이 생성된다. 1 시간을 15분으로 나눈 몫 4와 이 몫에 1을 더함으로써 5라는 숫자가 얻어지기 때문에, 5개의 고정 테이프들로 구성된 엔드리스 테이프는 1시간 15분까지의 주기 동안 데이터를 녹화하는데 사용될 수 있다.
전술한 바와 같이, 노멀 테이프는 1개의 MPEG와 1개의 인덱스 파일을 포함한다. 그러나, 엔드리스 테이프는 MPEG 파일과 인덱스 파일을 각기 포함하는 복수개의 고정 테이프들을 포함할 수 있다는 것은 상기 실시예로부터 명백하다. 엔드리스 테이프의 MPEG 파일들과 인덱스 파일들을 서로 구별하기 위하여, 각 MPEG 파일 또는 각 인덱스 파일의 제목은 파일의 일련 번호에 덧붙여진 부호 #을 포함한다.
도 9b에 실시예로서 나타난 엔드리스 테이프를 고려하자. 엔드리스 테이프는 5개의 MPEG 파일들과 5개의 인덱스 파일들을 포함한다. 이들의 파일 명칭은 Tape#1.MPG, Tape#1.SCX, Tape#2.MPG, Tape#2.SCX, Tape#3.MPG, Tape#3.SCX, Tape#4.MPG, Tape#4.SCX, Tape#5.MPG 및 Tape#5.SCX이다.
노멀 테이프에 데이터를 녹화하는 동작은 테이프의 초기에 시작하여, 테이프의 마지막에 도달되는 시점에서 그 동작을 종료한다. 동작을 중지하기 위한 명령이 테이프 마지막에 도달되기 전에 내려지면, 그 동작은 명령이 내려진 시점에서 종료된다는 것에 유의하여야 한다. 이 경우, 녹화 동작시 사용되지 않았던 MPEG 및 인덱스 파일들의 부분은 프리(free)하게 된다. 부연하자면, 이들은 여유 공간으로서 릴리즈(release)된다.
한편, 이 엔드리스 테이프가 복수 개의 고정 테이프들을 포함하는 경우에 엔드리스 테이프 상에 데이터를 녹화하는 동작이 제1 고정 테이프의 시작점에서 시작된다. 제1 고정 테이프의 최종점에 도달될 때, 제1 고정 테이프 상에 데이터를 녹화하는 동작이 종료되고 제2 고정 테이프 상에 데이터를 녹화하는 동작이 시작된다. 이후, 제3, 제4, . . . , 최종 고정 테이프들 상에 데이터를 녹화하는 동작이 순차적으로 수행된다. 최종 고정 테이프의 최종점에 도달될 때, 엄밀히 말하자면, 제1 고정 테이프 상에 데이터를 덮어쓰게 하기 위한 녹화 동작이 재수행된다.
부연하자면, 도 9b에 나타난 실시예에 있어서, 제1 내지 제5 고정 테이프들 전체 상에 데이터를 녹화하는 동작이 종료될 때, 엄밀히 말하자면, 제1 고정 테이프 상에 데이터를 덮어쓰게 하기 위한 녹화 동작이 시작된다. 동작을 끝내기 위한 명령이 내려질 때 통상적으로 정지 버튼(308)이 동작될 때 까지 회전 방식으로 녹화 동작이 수행된다. 회전 방식에 대한 녹화 동작은 끊임없이 계속된다.
그리고 나서, 녹화 동작을 종료하기 위한 명령이 내려질 때, 동작은 그 시점에서 즉시 종료된다. 이 경우, 슬립클립에서, 녹화 동작이 종료되는 시점으로부터 시작하는 엔드리스 테이프에서 녹화 시간 필드(325)에 특정화된 길이를 가진 소급(retroactive) 영역이 재생 범위를 형성한다.
구체적으로 설명하면, 도 9b에 나타난 엔드리스 테이프를 예로서 고려하자. 제5 고정 테이프 상에 녹화하는 10분의 시점에서 녹화 동작을 종료하기 위한 명령이 내려진다고 가정하자. 제1 고정 테이프 상의 10분 위치에서 시작하고 제5 고정 테이프 상에서 10분 위치에서 종료하는 도면에 나타난 10분 길이의 사선 영역은 재생 범위를 형성한다.
이 경우, 제1 고정 테이프의 시작 위치로부터 그 10분 위치 까지의 영역과 제5 고정 테이프의 10분 위치로부터 그 종료 위치 까지의 영역은 재생 범위가 아님에 유의하여야 한다. 따라서, 하드 디스크(212)의 이용 효율 관점에서 보았을 때, 이들 영역들은 둘다 프리하게 되어야 한다. 그러나, 이 경우 제5 고정 테이프의 10분 위치로부터 그 종료 위치까지의 영역은 프리하게 되지만, 제1 고정 테이프의 시작 위치로부터 10분 위치 까지의 영역은 다음과 같은 이유로 프리하지 않다.
고정 테이프의 MPEG 파일의 헤드(head)에서, MPEG 엔코딩된 데이터를 디코딩하는 동작시 필요한 시스템 헤더 및 정보가 녹화된다. 그러한 영역을 버리면, 디코딩 동작을 수행하기 곤란하게 될 것이다.
따라서, 제1 고정 테이프의 시작 위치로부터 10분 위치까지의 영역에 녹화된 데이터는 제1 고정 테이프의 MPEG 파일을 직접 억세싱함으로써 재생될 수 있다.
전술된 복수개의 고정 테이프들 대신에 노멀 테이프를 가지는 경우에는 엔드리스 테이프로 1개의 고정 테이프만을 포함할 수도 있음에 유의하여야 한다. 그러한 엔드리스 테이프가 생성되는 경우, 엔드리스 테이프는 한가지 형태의 테이프로서 특정화된다. 이 경우, 고정 테이프의 시작점에서 녹화 동작을 시작하고, 그 종료점에 도달될 때, 데이터를 녹화하는 동작, 엄밀히 말하자면, 덮어쓰기 동작이 고정 테이프의 동일 시작점으로부터 반복되는 녹화 기술이 고려될 수 있다. 그러나, 전술한 바와 같이, 시스템 헤더를 포함하는 정보는 고정 테이프의 MPEG 파일의 헤드에 녹화된다. 따라서, 그러한 정보가 덮어쓰기 되면, 디코딩 동작을 수행하기 곤란하게 될 것이다. 따라서, 복수개의 고정 테이프들로부터 엔드리스 테이프를 생성하는 것이 바람직하다.
도 8을 재참조하자. 사용자가 녹화 시간, 즉 녹화하는데 필요한 시간 간격을 녹화 시간 필드(325)에 등록한다. 15분의 해상도를 가진 12 시간까지의 녹화 시간은 이 필드에 등록될 수 있다. 녹화 시간은 시간과 분의 관점에서 등록됨에 유의하여야 한다.
자동 인덱스 체크 박스(326)를 체크하여, 화상의 씬 변화의 위치를 나타내기 위한 표시로서 제공되는 인덱스가 녹화 동작시 자동적으로 첨부되도록 요구한다. 이 자동 인덱스 체크 박스(326)가 체크되지 않으면, 후술될 씬 변화 포인터 및 씬 변화 파라미터와 같은 정보는 인덱스 파일에 기록되지 않는다.
녹화 모드 필드(327)에서는, 비트 레이트 정보를 가리키는 녹화 모드가 설정된다. 4개의 녹화 모드는 4 비트 레이트, 즉 High, Normal, Long 및 Network의 내림차순으로 나타나도록 제공된다.
도 10은 프레임의 사이즈, 시스템 비트 레이트, 비디오 비트 레이트, 프레임 레이트, 오디오 비트 레이트, 설정 가능한 녹음 모드 및 각 녹음 모드용 1-GB 테이프의 녹화 시간을 나타낸 테이프이다. 프레임의 사이즈는 수평 방향으로의 화소수 × 수직 방향으로의 화소수이다. 시스템 비트 레이트는 화상을 MPEG 엔코딩한 결과로서 얻어진 시스템 스트림의 비트 레이트이다. 비디오 비트 레이트는 MPEG 엔코딩의 결과로서 얻어진 코드의 비트 레이트이다. 프레임 레이트는 초 당 프레임들의 수이다. 오디오 비트 레이트는 음향의 MPEG 엔코딩의 결과로서 얻어진 시스템 스트림의 비트 레이트이다. 1-GB 테이트의 녹화 시간은 1 GB의 저장 용량을 가진 테이프 상에 데이터가 녹화될 수 있는 시간 간격이다.
테이블에 나타난 바와 같이, High 녹화 모드용 1-GB 테이프의 녹화 시간이 가장 짧다고 할지라도, 최고의 해상도를 가진 디코드된 화상을 얻을 수 있다. Normal 녹화 모드시, 비디오 CD(VCD) 명세를 확인하는 시스템 스트림은 전술한 바와 같이 얻어질 수 있다. Long 녹화 모드는 비교적 긴 녹화 시간을 가진 애플리케이션에 적합하지만 고해상도로 디코드된 화상을 얻지 못한다. Network 녹화 모드용 비트 레이트는 ISDN(Integrated Service Digital Network)을 통하여 리얼 타임 전송을 허용하는 값으로 설정된다. 따라서, Network 녹화 모드는 그러한 전송을 포함하는 애플리케이션에 적합하다.
Long 녹화 모드시, 프레임을 구성하는 화소들의 수는 High 및 Normal 녹화 모드의 화소 수의 약 1/4임에 유의하여야 한다. Network 녹화 모드용 화소들의 수는 훨씬 더 적다. 프레임 레이트, 즉 초 당 프레임들의 수는 High, Normal 및 Long 녹화 모드용으로는 30이고 Network 녹화 모드용으로는 30의 1/3인 10이다.
도 8을 재참조하면, 녹음 모드 필드(328)에서는 녹음 모드가 설정된다. 3개의 녹음 모드들, 즉 2개의 채널들(듀얼), 스테레오 및 모노포닉(단일)이 제공된다.
High 및 Long 녹화 모드에서, 도 10의 테이블에 나타난 바와 같이 2개의 채널 녹음 또는 스테레오 녹음 모드 중 한 모드가 선택될 수 있음에 유의하여야 한다. 그러나, Normal 녹화에서는, 녹음 모드가 2개의 채널 모드로 고정되지만, Network 녹화에서는, 녹음 모드가 모노포닉 모드로 고정된다.
클립 생성 폴더의 자동 체크 박스(329)를 체크하여 폴더가 클립을 생성하는 폴더로서 이용되도록 미리 설정하는 요구를 행한다. 클립은 한 쌍의 MPEG 및 인덱스 파일들이다. 슬립 레코더에 있어서는, 한 쌍은 테이프로서 참조된다. 그러나, 클립 편집기 및 클립 뷰어에서는, 한 쌍을 클립으로 칭한다. 따라서, 노멀 테이프는 클립과 같은 것으로 고려된다. 그러나, 복수개의 한 쌍의 MPEG 및 인덱스 파일들을 조합하면, 하나의 엔드리스 테이프는 복수개의 클립들에 해당한다.
클립 생성 폴더의 참조 버튼(330)을 작동하여 클립을 생성하는 폴더를 특정화한다.
정보 필드(331) 상에는, 비디오 녹화 모드 필드(327)에 설정된 녹화 모드시 엔코딩 결과로서 얻어진 디코드된 화상의 사이즈, 프레임 레이트, 비디오 비트 레이트 및 오디오 비트 레이트가 표시된다. 부연하자면, 특정화된 녹화 모드용 도 19의 테이블에 나타난 사이즈와 같은 정보가 정보 필드(331) 상에 표시된다.
또한, 정보 필드(331) 상에 표시되는 것은 하드 디스크(212) 상에 할당된 테이프의 사이즈 또는 기록 용량, 즉 녹화 시간 필드(325)에 녹화 시간을 설정하기 위한 녹화 모드 필드(327)에 설정된 녹화 모드시 엔코딩 동작의 결과로서 얻어진 MPEG 시스템 스트림을 녹화하기 위한 테이프에 할당된 디스크 영역의 사이즈이다.
테이프의 사이즈는 통상적으로 다음과 같이 계산된다.
녹화 모드 필드(327)에 설정된 녹화 모드용 시스템 비트 레이트는 녹화 시간 필드(325)에 설정된 녹화 시간을 곱하여 테이프의 MPEG 파일의 사이즈를 찾는다. 테이프의 인덱스 파일의 사이즈는 통상 MPEG 파일 사이즈의 0.1%가 될 것이라고 추정된다. 최종적으로, 테이프의 사이즈는 MPEG 파일의 사이즈에 인덱스 파일 사이즈를 부가함으로써 얻어진다.
녹화 모드용 시스템 비트 레이트는 기본적으로 도 10의 테이블에 나타난 값을 가지는 것에 유의하여야 한다. 그러나, Normal 녹화 모드 동안에는, 도 10의 테이블에 나타난 1,411,200 bps의 시스템 비트 레이트 이하의 값이 다음과 같은 이유로 사용된다. Normal 녹화 모드용으로 도 10의 테이블에 나타난 시스템 비트 레이트는 비디오 CD 상에 MPEG 시스템 스트림을 녹화하기 위한 동작에 적용 가능한 값이다. 이 값은 한 팩(pack)의 MPEG 시스템 스트림에 비디오 CD 명세서에 기술된 싱크 및 헤더와 같은 정보를 부가함으로써 얻어진 비트 스트림의 비트 레이트를 나타낸다. 부연하자면, 도 10의 테이블에 나타난 시스템 비트 레이트는 비디오 CD 명세서에서 확인된 비트 레이트이다. 하드 디스크(212) 상에 MPEG 시스템 스트림을 녹화하는 동작에 있어서, 싱크(sink) 및 헤더를 포함하는 정보는 필요치 않다. 또한, 하드 디스크(212)의 이용 효율의 관점에서 보았을 때, 하드 디스크(212) 내에는 불필요한 데이터가 녹화되지 말아야 한다.
따라서, 한 팩을 구성하는 MPEG 시스템 스트림의 비트 레이트가 1,394,400 bps라고 가정함으로써 Normal 녹화 모드용 테이프의 사이즈가 계산된다.
구체적으로 설명하면, Normal 녹화 모드가 선택되고 1시간의 녹화 시간이 설정된 도 8에 나타난 실시예를 고려하자. 노멀 테이프가 테이프의 형태로써 특정되는 경우, 테이프의 사이즈는 시스템 비트 레이트 1,394,400 bps에 1시간의 녹화 시간을 곱하고, 이 곱에 곱셈의 결과로서 얻어진 곱의 0.1%를 부가함으로써 계산될 것이다. 그러나, 도 8에 나타난 실시예에 있어서, 엔드리스 테이프는 테이프 형태로서 특정화된다. 전술된 것에 따르면, 엔드리스 테이프의 기록 용량은 녹화 시간 필드(325)에 특정화된 1시간의 녹화 시간 보다 15분의 차 만큼 더 길다. 748.76 MB의 엔드리스 테이프 사이즈는 시스템 비트 레이트 1,394,400 bps에 녹화 시간(1 시간 + 15분)을 곱하고 이 곱에 곱셈의 결과로서 얻어진 곱의 0.1%를 부가함으로써 얻어진다. 엔드리스 테이프의 사이즈 748.76 MB는 도 8에 나타난 테이프 설정 다이알로그 박스(321)의 정보 필드(331) 상에 표시된다.
OK 버튼(332)은 테이프 설정 다이알로그 박스(321)의 새로 설정된 아이템들을 확인하고 이 다이알로그 박스(321)를 클로우즈 한다. 취소(cancel) 버튼(333)은 테이프 설정 다이알로그 박스(321)에 미리 설정된 아이템들을 유지하고 이 다이알로그 박스(321)를 클로우즈한다. 헬프(help) 버튼(334)은 테이프 설정 다이알로그 박스(321)를 사용자가 이해하는데 도움을 주기 위한 설명을 표시하는 동작을 한다.
다음으로, 슬립 레코더에 의하여 수행된 녹화 프로세스는 도 11과 도 12에 나타난 플로우차트를 참조하여 설명된다.
녹화 동작을 수행하기 위하여, 우선, 사용자는 전술한 바와 같이 테이프를 설정용의 도 8에 나타난 테이프 설정 다이알로그 박스(321)를 오픈한다.
다음으로, 텔레비젼 방송 프로그램이 녹화되는 것을 예로서 가정한다. 이 경우, 도 7에 나타난 슬립 레코더 메인 윈도우(301)의 입력 스위치 버튼(312)을 작동하여 도 5에 나타난 TV 튜너(213A)의 출력을 녹화 프로세스에 대한 입력으로서 선택한다. 그리고 나서, 업 및 다운 버튼(313)들 중 하나 또는 채널 버튼(314)들 중 하나를 작동하여 녹화될 프로그램의 채널을 선택한다.
비디오 카메라(214)에 의하여 녹화되었던 화상과 음향을 녹화 또는 더빙할 때, 도면에 도시되지 않은 비디오 카메라(214)의 비디오 및 오디오 출력 단자들은 본체(31)의 후면 상의 AV 단자부(84)에 접속되거나, 본체 정면 상의 AV 단자부(43)에 접속된다. 다음으로, 입력 스위치 버튼(312)을 작동하여 AV 단자부(84) 또는 (43)을 녹화 프로세스에 대한 입력으로서 선택한다.
사용자가 전술된 동작을 설정한 후 슬립 레코더 메인 윈도우(301)의 녹화 버튼(309)을 작동할 때, 마이크로프로세서(201)는 도 11 또는 도 12에 나타난 플로우차트에 따라 녹화 프로세스를 수행한다.
도 11에 나타난 플로우차트는 녹화 프로세스를 나타내고 여기서 노멀 테이프는 녹화 프로세스시 사용된 테이프로서 설정된다. 도면에 나타난 바와 같이, 플로우차트는 단계 S1에서 시작하여 테이프가 생성될 수 있는지의 여부에 대한 판단을 한다.
녹화 프로세스에 필요한 하드 디스크(212)의 영역은 테이프 설정 다이알로그 박스(321)를 통하여 테이프를 주로 설정함으로써 특정 테이프에 할당되지 않는다. 부연하자면, 하드 디스크(212)에 테이프가 할당되도록 녹화 버튼(309)를 작동시킬 때 까지는 할당되지 않는다. 이는 하드 디스크(212)의 이용 효율의 관점에서 보았을 때, 녹화 프로세스의 시작 전에 테이프를 할당하는 것은 바람직하지 않기 때문이다.
단계 S1에서 판단할 시, 특정 테이프의 사이즈는 전술된 방식으로 계산된다. 이 판단은 계산된 사이즈를 가진 영역이 하드 디스크(212)에 할당될 수 있는지의 여부에 대한 확인에 기초한다.
단계 S1에서 수행된 판단의 결과가 특정 테이프에서는 수행될 수 없다는 것을 가리키면, 즉, 그 결과가 하드 디스크(212)의 계산된 테이프 사이즈와 적어도 동일한 사이즈를 가진 여유 영역이 특정 테이프에 할당될 수 없다는 것을 가리키면, 통상적으로 이 문제를 가리키는 메세지가 표시되고 녹화 프로세스를 종료한다. 이 경우, 어떠한 녹화도 수행되지 않는다.
한편, 단계 S1에서의 판단 결과가 특정 테이프에서 수행될 수 있다는 것을 가리키는 경우, 즉 그 결과가 특정 테이프의 MPEG 파일 및 인덱스 파일이 하드 디스크(212)에 저장될 수 있다는 것을 가리키는 경우, 프로세스의 흐름은 MPEG 및 인덱스 파일들이 하드 디스크(212)에 할당되는 단계 S2로 진행한다. 현 단계에서는, 전술된 바와 같이 MPEG 및 인덱스 파일들이 특정의 의미있는 정보를 포함하고 있지 않다는 점에 유의하여야 한다. 부연하자면, 하드 디스크(212)의 여유 영역은 MPEG 및 인덱스 파일들에 주로 할당된다.
다음으로, 이 프로세서의 흐름은 테이프의 MPEG 파일이 오픈되는 단계 S3로 진행한다. 그리고 나서, 프로세스의 흐름은 MPEG1 리얼 타임 엔코더 보드(213)를 제어하여 MPEG 프로세싱을 수행하는 단계 S4로 진행하는데, 여기서 입력은 입력 스위치 버튼(312)을 작동함으로써 선택된다.
이어서, 프로세스의 흐름은 MPEG 엔코딩의 결과로서 얻어진 MPEG 시스템 스트림이 하드 디스크(212)에 전송되어 단계 S2에서 할당된 MPEG 파일 내에 녹화되는 단계 S5로 진행된다. 그리고 나서, 프로세스의 흐름은 녹화 중인 MPEG 시스템 스트림이 MPEG 파일의 최종점에 도달되었는지의 여부와 정지 버튼(308)을 작동하여 녹화 프로세스가 종료되도록 요구하였는지의 여부에 대해 판단하는 단계 S6으로 진행한다. 판단의 결과가 녹화 중인 MPEG 시스템 스트림이 MPEG 파일의 최종점에 도달되지 않았고 정지 버튼(308)이 작동하지 않았다는 것을 가리키면, 프로세스의 흐름은 단계 S4로 복귀하여 대상 화상의 엔코딩 및 녹화를 계속한다.
한편, 판단의 결과가 녹화 중인 MPEG 시스템 스트림이 MPEG 파일의 최종점에 도달되거나 정지 버튼(308)이 작동되었다는 것을 가리키는 경우, 프로세스의 흐름은 MPEG 파일을 클로우즈하여 녹화 프로세스를 종료하는 단계 S7로 진행된다.
엔드리스 테이프가 도 12의 플로우차트에 따라 수행된 녹화 프로세스에 사용된 테이프로서 설정되는 녹화 프로세스에 대하여 설명된다.
도면에 나타난 바와 같이, 플로우차트는 각기 단계 S11에서 시작하여 도 11에 나타난 플로우차트의 단계들 S1, S2와 기본적으로 동일한 단계 S12가 이어진다. 그러나, 단계 S12에서, 전술된 도 9b에 나타난 것과 같은 복수개의 고정 테이프를 포함하는 엔드리스 테이프가 생성된다.
단계 S12의 프로세싱을 완료한 후, 이 프로세스의 흐름은 헤드 고정 테이프의 MPEG 파일, 즉 엔드리스 테이프의 제1 고정 테이프가 오픈되는 단계 S13으로 진행된다. 그리고 나서, 프로세스의 흐름은 MPEG1 리얼 타임 엔코더 보드(213)를 제어하여 MPEG 프로세싱을 수행하는 단계 S14로 진행되는데, 여기서 입력은 입력 스위치 버튼(312)을 작동함으로써 선택된다.
이어서, 이 프로세스의 흐름은 MPEG 엔코딩의 결과로서 얻어진 MPEG 시스템 스트림이 하드 디스크(212)에 전송되어 MPEG 파일 내에 녹화되는 단계 S15로 진행된다. 그 후, 프로세스의 흐름은 정지 버튼(308)을 작동함으로써 녹화 프로세스를 종료하는 요구가 있었는지의 여부에 대한 판단을 수행하는 단계 S16으로 진행한다. 단계 S16에서 행해진 판단의 결과가 녹화 프로세스를 종료하는 요구가 없었다는 것을 가리키면, 프로세스의 흐름은 녹화중인 MPEG 시스템 스트림이 고정 테이프의 MPEG 파일의 최종점에 도달되었는지의 여부에 대한 판단을 행하는 단계 S17로 진행한다. 단계 S17에서 행해진 판단의 결과가 녹화중인 MPEG 시스템 스트림이 고정 테이프의 MPEG 파일의 최종점에 도달되지 않았다는 것을 가리키면, 프로세스의 흐름은 단계 S14로 복귀하여 대상 화상의 엔코딩 및 녹화를 계속한다.
한편, 단계 S17에서 행해진 판단의 결과가 녹화중인 MPEG 시스템 스트림이 고정 테이프의 MPEG 파일의 최종점에 도달되었다는 것을 가리키면, 프로세스의 흐름은 MPEG 파일이 클로우즈되는 단계 S18로 진행한다. 다음으로, 프로세스의 흐름은 다음 고정 테이프의 MPEG 파일이 오픈되는 단계 S19로 진행한다. 그리고 나서, 이 흐름은 단계 S14로 복귀한다. 그 결과, MPEG 시스템 스트림은 다음 고정 테이프의 MPEG 파일 상에 녹화된다.
녹화중인 MPEG 시스템 스트림이 최종 고정 테이프의 MPEG 파일의 최종점에 도달될 때, 단계 S19에서, 제1 고정 테이프의 MPEG 파일이 다시 오픈된다. 다음으로, MPEG 시스템 스트림은 제1 고정 테이프 상에 이미 녹화된 데이터에 덮어쓰기하여 녹화된다. 그 결과, MPEG 시스템 스트림은 단계 S16에서 행해진 판단의 결과가 녹화 프로세스를 종료하는 요구가 있었다고 가리킬 때 까지 연속적으로 녹화된다.
예를 들면, 정지 버튼(308)이 작동되는 경우, 단계 S16에서 행해진 판단의 결과는 녹화 프로세스를 종료하는 요구가 있었다는 것을 가리킨다.
(SCY)시작
이 경우, 처리의 흐름은 스텝 S20으로 진행하며, 거기서 오픈된 MPEG 파일이 클로우즈되어 기록 처리가 종료된다.
기록 처리시, 상술한 바와 같이 테이프의 MPEG 파일 상에 MPEG 시스템 스트림이 기록되고, 동시에, 동일한 테이프의 인덱스 파일 내에 소정의 데이터가 저장된다.
도 13은 인덱스 파일 내에 데이터를 기록하는 인덱스 기록 처리를 나타내는 플로우차트이다.
도시되어 있는 바와 같이, 플로우차트는 스텝 S30에서 시작하며, 거기서 인덱스 파일이 오픈되고 이 인덱스 파일 내에 헤더가 기록된다. 이 헤더는, 여러 정보 중에서, 도 8에 도시된 테이프 설정 다이얼로그 박스(321) 상에 설정된 기록 모드 및 개시 시간을 포함한다. 개시 시간은, 엄밀히 말하자면, 기록이 개시되는 현재 시간이다. 그 후, 처리의 흐름은 스텝 S31로 진행하며, 거기서 마이크로프로세서(201)는 도 6에 도시된 MPEG1 리얼 타임 엔코더 보드(213)에 채용된 씬 변화 검출 회로(131)에 의해 인덱스 데이터가 전송되었는지 여부에 대한 판정을 형성한다. 만일 인덱스 데이터가 수신되지 않았으면, 처리의 흐름은 스텝 S32 내지 S38을 건너뛰어 스텝 S39로 진행한다.
한편, 스텝 S31에서 형성된 판정의 결과를 볼 때 도 6에 도시된 씬 변화 검출 회로(131)에 의해 인덱스 데이터가 전송되었다면, 마이크로프로세서(201)는 이 인덱스 데이터를 수신한다.
도 14는 씬 변화 검출 회로(131)에 의해 전송되는 인덱스 데이터의 전형적인 포맷을 도시하는 도면이다.
도시되어 있는 바와 같이, 인덱스 데이터는, 각종 플래그들을 저장하기 위한 4-비트 영역과 그 다음에 상술한 수학식 4를 이용하여 계산된 제2 파라미터 SAD를 저장하기 위한 28-비트 영역을 포함하여, 총 32 비트 길이가 된다. 4-비트 영역은 통상 화상 타입 플래그(picture type flag) 및 씬 변화 플래그(scene change flag)를 포함한다. 화상 타입 플래그는 제2 파라미터 SAD가 계산된 프레임의 화상 타입을 나타내고 씬 변화 플래그는 씬 변화 검출 회로(131)가 씬 변화를 검출하였는지 여부를 나타낸다.
다시 도 13을 참조하면, 스텝 S32에서, 마이크로프로세서(201)는 씬 변화 검출 회로(131)로부터 수신된 인덱스 데이터를 검사하여 이 인덱스 데이터가 I 화상인지 P 화상인지에 대한 판정을 형성한다. 이 판정은 통상 인덱스 데이터에 포함된 화상 타입 플래그를 참조하여 수행된다.
만일 스텝 S32에서 형성된 판정의 결과를 볼 때 인덱스 데이터가 화상 타입이 I 화상도 P 화상도 아니라면, 즉 화상 타입이 B 화상이라면, 처리의 흐름은 스텝 S33 내지 S38을 건너뛰어 스텝 S39로 진행한다. 한편, 만일 스텝 S32에서 형성된 판정의 결과를 볼 때 인덱스 데이터가 화상 타입이 I 화상 또는 P 화상이라면, 처리의 흐름은 스텝 S33으로 진행하고, 거기서 마이크로프로세서(201)는 I 화상 또는 P 화상에서 씬 변화가 검출되었는지 여부에 대한 판정을 형성한다. 이 판정은 통상 인덱스 데이터에 포함된 씬 변화 플래그를 참조하여 형성된다.
만일 스텝 S33에서 형성된 판정의 결과를 볼 때 씬 변화가 검출되지 않았다면, 처리의 흐름은 스텝 S34 내지 S37을 건너뛰어 스텝 S38로 진행한다. 한편, 만일 스텝 S33에서 형성된 판정의 결과를 볼 때 씬 변화가 검출되었다면, 처리의 흐름은 스텝 S34로 진행하고, 거기서 마이크로프로세서(201)는 씬 변화 파라미터를 계산한다. 보다 구체적으로는, 마이크로프로세서(201)는 이번에 수신된 인덱스 파라미터에 포함된 SAD를 후술되는 스텝 S38에서 저장되는 이전 SAD로 나누고, 이 나누기의 결과를 씬 변화 파라미터로서 사용한다.
씬 변화 파라미터는 씬 변화의 크기, 즉 씬 변화의 정도를 나타낸다. 이 크기가 크면 클수록, 씬 변화 파라미터의 값이 커진다. 씬 변화 파라미터는 상술한 나누기에 의해 구해진 양에 한정되지 않는다. 씬 변화 파라미터는 씬 변화의 크기 또는 정도를 나타내는 한 어떠한 물리량이라도 좋다.
씬 변화 파라미터가 계산된 후에, 처리의 흐름은 스텝 S35로 진행하고, 거기서 마이크로프로세서(201)는 씬 변화 파라미터가 통상 3인 소정의 임계치 ε보다 큰지 여부에 대한 판정을 형성한다. 만일 스텝 S35에서 형성된 판정의 결과롤 볼 때 씬 변화 파라미터가 소정의 임계치 ε보다 크지 않다면, 처리의 흐름은 스텝 S36 내지 S37을 건너뛰어 스텝 S38로 진행한다.
한편, 만일 스텝 S35에서 형성된 판정의 결과롤 볼 때 씬 변화 파라미터가 소정의 임계치 ε보다 크다면, 처리의 흐름은 스텝 S36으로 진행하고, 거기서 씬 변화 포인터가 얻어져서 씬 변화 파라미터와 결합된다. 씬 변화 포인터는 씬 변화 파라미터에 의해 씬 변화가 표현된 프레임의 엔코딩된 데이터를 저장하기 위한 MPEG 파일 내의 위치에 대한 정보이다. 그 후, 후술되는 식별 플래그가 씬 변화 포인터와 씬 변화 파라미터에 부가된다. 최종적으로, 식별 플래그, 씬 변화 포인터 및 씬 변화 파라미터가 인덱스 파일에 저장된다.
씬 변화 포인터는 통상 MPEG 파일의 헤드로부터 바이트로 표현되는 특정 위치의 오프셋으로서, 이 특정 위치에서 엔코딩된 데이터를 저장한다.
편의상, 씬 변화 포인터, 씬 변화 파라미터 및 식별 플래그를 포함하는 정보를 인덱스라고 한다. 인덱스는 씬 변화의 위치를 나타내는 마크의 역할을 한다.
마이크로프로세서(201)에 의해 부가되고 기록 동작시 인덱스 파일에 저장되는 인덱스를 자동 인덱스(automatic index)라고 한다. 인덱스는 또한 사용자에 의해 수행되는 소정 동작에 의해 부가될 수도 있다. 사용자에 의해 수행되는 동작에 의해 부가되는 인덱스를 수동 인덱스(manual index)라고 한다. 식별 플래그는 통상 자동 인덱스를 수동 인덱스와 구별하기 위한 1-비트 플래그이다.
스텝 S36의 처리 후에, 처리의 흐름은 스텝 S37로 진행하고, 거기서 도 7에 도시된 슬립 레코더 메인 윈도우(301) 상에 씬 변화 인디케이터(303)가 소정 시간 동안 표시되어 사용자에게 씬 변화가 일어났음을 통보한다. 그 후, 처리의 흐름은 스텝 S38로 진행하고, 거기서 이번에 수신된 인덱스 데이터 내에 포함된 SAD가 메인 메모리 유닛(202)에 저장되어 이전에 저장된 SAD를 대체한다. 그 후, 처리의 흐름은 S39로 진행하여 MPEG 시스템 스트림을 MPEG 파일에 기록하는 동작이 완료되었는지 여부에 대한 판정을 형성한다. 만일 MPEG 시스템 스트림을 MPEG 파일에 기록하는 동작이 완료되지 않았다면, 처리의 흐름은 스텝 S31로 복귀하여 상술한 동작을 반복한다.
한편, 만일 스텝 S39에서 형성된 판정의 결과를 볼 때 MPEG 시스템 스트림을 MPEG 파일에 기록하는 동작이 완료되었다면, 인덱스 파일은 클로우즈되어 인덱스 기록 처리가 종료된다.
도 13에 도시된 플로우차트에 의해 대표되는 실시예에서는, 씬 변화 플래그가, 씬 변화 검출 회로(131)에 의해 씬 변화가 검출되었고 씬 변화 파라미터가 소정의 임계치 ε보다 큰 경우에만, 인덱스가 기록된다. 인덱스는 씬 변화 파라미터의 크기에 상관없이 기록될 수도 있다. 그러나, 이 경우에는, 그다지 큰 씬 변화 없이도 인덱스가 프레임에 부가되어, 결과적으로 인덱스의 수가 증가한다.
만일 화상들과 그들에 동반하는 사운드를 기록하는 동안에 이미 기록된 화상의 임의의 씬이 재생될 수 있다면, 퍼스널 컴퓨터로부터 보다 많은 편의를 얻을 수 있다. 화상들과 그들에 동반하는 사운드를 기록하는 동안에 사용자가 다른 어떤 것을 보는 경우, 예를 들어, 씬을 못 보고 지나치는 경우, 못 보고 지나친 것을 포함하여 기록된 화상들을 사용자가 소급적으로 재생할 수 있다면 퍼스널 컴퓨터로부터 보다 많은 편의를 얻을 수 있다.
그러한 편의를 제공하기 위하여, 화상들과 그들에 동반하는 사운드를 기록하는 동안에 기록을 수행하면서, 즉 기록 동작을 일시 정지시킬 필요 없이, 이미 기록된 화상의 임의의 씬이 재생될 수 있도록 하는 기능을 포함하도록 슬립 레코더가 설계된다. 이하, 편의상 그러한 재생 동작을 슬립 재생 동작이라고 한다.
슬립 재생 동작을 수행하기 위하여, 사용자는 도 7에 도시된 슬립 레코더 메인 윈도우(301)의 상부에 있는 Playback 메뉴로부터 Slip 항목을 선택한다. Slip 항목이 선택되면, 통상, 도 15에 도시된 것과 같은 재생 윈도우(341)가 표시된다.
재생 윈도우(341)의 화상 표시란(342) 상에 재생 화상이 표시된다. 재생 인디케이터(343) 상에 현재 재생 상태가 표시된다. 보다 구체적으로는, 예를 들면, 재생 동작이 진행 중임을 나타내는 PLAY, 재생 동작이 일시 정지됨을 나타내는 PAUSE, 재생 동작이 정지됨을 나타내는 STOP, 슬로우 재생 동작이 진행 중임을 나타내는 SLOW, 순방향으로의 스킵 동작이 진행 중임을 나타내는 F. SKIP 또는 역방향으로의 스킵 동작이 진행 중임을 나타내는 R. SKIP 메시지가 재생 인디케이터란(343)에 표시된다.
재생 시간 표시란(344) 상에는, 도 16에 도시된 바와 같이 다음 3가지 정보 중 하나가 표시된다.
기록이 개시되는 시점(이하, 편의상 개시 시점이라 함)으로부터 슬립 재생 동작이 되는 위치(이하, 편의상 재생 지점이라 함)까지의 경과 시간;
재생 지점으로부터 기록이 되는 위치(이하, 편의상 기록 지점이라 함)까지의 잔여 시간; 또는
재생 지점에서의 화상, 즉 엔코딩된 데이터가 기록된 시점(이하, 편의상 재생 지점이라 함).
이미 기록된 테이프의 경우에, 잔여 시간은 재생 지점으로부터 테이프의 끝까지의 시간이다. 표시되는 3가지 정보 중 하나는 재생 시간 표시 변경 버튼(353)을 조작함으로써 선택된다.
슬립 재생 동작 중에, 재생 지점과 기록 지점 간의 상대적인 위치 관계는, 재생 지점이 후술되는 슬라이더(354)에 의해 시프트되지 않는 한, 변하지 않는다. 따라서, 슬립 재생 동작 중에, 만일 잔여 시간이 선택된다면, 재생 시간 표시란(344) 상에 표시되는 시간 정보는, 잔여 시간이 재생 지점으로부터 기록 지점까지의 간격에 대응하는 시간이기 때문에, 고정된 상태 또는 거의 고정된 상태로 유지된다.
재생 윈도우(341)는, 슬립 재생 동작이 요구되는 경우뿐만 아니라, 슬립 레코더 메인 윈도우(301)의 입력 절환 버튼(312)에 의해 선택된 입력을 모니터하도록 요구되는 경우 또는 기록 동작을 완료한 테이프를 재생하도록 요구되는 경우에도 오픈된다. 선택 입력을 모니터하기 위하여 재생 윈도우(341)가 오픈되는 경우, -- : -- : --가 재생 시간 표시란(344) 상에 표시된다. 기록 동작을 완료한 테이프를 재생하기 위하여 재생 윈도우(341)가 오픈되고 재생 시간 표시란(344) 상에 표시되는 시간 정보로서 잔여 시간이 선택되는 경우, 재생 지점으로부터 테이프의 끝까지의 시간이 표시된다.
음성 출력 모드 표시란(345) 상에는, 현재 음성 출력 모드가 표시된다. 통상, 3개의 음성 출력 모드, 즉 스테레오 음성 출력 모드, 좌우 스피커들로부터 L 채널의 사운드만을 출력하는 모드, 및 좌우 스피커들로부터 R 채널의 사운드만을 출력하는 모드가 제공된다. 3개의 음성 출력 모드 중 하나는 음성 출력 절환 버튼(357)을 조작함으로써 선택된다. 스테레오 음성 출력 모드, 좌우 스피커들로부터 L 채널의 사운드만을 출력하는 모드, 또는 좌우 스피커들로부터 R 채널의 사운드만을 출력하는 모드가 선택되면, 음성 출력 모드 표시란(345) 상에, STEREO, L ONLY 또는 R ONLY 메시지가 각각 표시된다.
정지 버튼(346), 재생 버튼(347) 또는 일시 정지 버튼(348)은 각각 재생 동작을 정지시키거나 개시하거나 또는 일시 정지시키기 위해 조작된다. 스킵 버튼(349 또는 350)은 각각 역방향 또는 순방향으로 테이프의 일부를 스킵하기 위하여 조작된다. 인덱스 버튼(351 또는 352)은 각각 역방향 또는 순방향으로 재생 지점에 가장 가까운 인덱스가 부가된 프레임으로 테이프의 일부를 스킵하기 위하여 조작된다.
재생 시간 표시 변경 버튼(353)은 재생 시간 표시란(344) 상에 표시되는 시간 정보를 선택하기 위하여 조작된다. 재생 시간 표시 변경 버튼(353)이 조작될 때마다, 시간 정보는 예를 들면 다음과 같이 순환 방식으로 변화된다: 경과 시간 → 잔여 시간 → 기록 시점 → 경과 시간 --- 등.
슬라이더(354)는 재생 지점을 변경하는 데 사용된다. 자세히 설명하면, 슬라이더(354)는 통상 마우스(22)를 이용하여 그것을 드래그함으로써 시프트될 수 있다. 이때, 재생 지점은 슬라이더(354)의 위치에 대응하는 위치로 변경된다. 슬라이더(354)는 슬라이더(354)의 동작을 위해 제공된 홈을 따라서 수평으로 시프트될 수 있다. 슬라이더(354)의 홈의 좌측단은 기록이 개시되는 위치, 즉 MPEG 파일의 선단에 대응한다. 한편, 슬라이더(354)의 홈의 우측단은 기록 지점에 대응한다. 따라서, 사용자는 슬라이더(354)를 조작함으로써 기록이 개시된 위치와 현재 기록 중인 화면 바로 앞의 지점 사이의 임의의 화면을 재생할 수 있다.
그러나, MPEG1 리얼 타임 엔코더 보드(213)에서, 상술한 바와 같이 프리-엔코딩(pre-encoding) 화면은 프레임 메모리 유닛(110)에 일시 저장되고 엔코딩의 결과로서 얻어진 코드는 출력 버퍼(118)에 일시 저장된다. 게다가, MPEG 엔코딩을 수행하고 MPEG 엔코딩의 결과로서 얻어진 코드를 출력 버퍼(118)에 저장하는 데는 어느 정도의 시간이 소요된다. 따라서, 슬립 재생 동작을 할 수 있는 화면은 현재 기록 중인 화면에서 적어도 약 10초 내지 15초 범위의 시간만큼 앞선 화면이다.
상술한 바와 같이 슬라이더(354)는 사용자에 의해 시프트될 수 있다. 게다가, 슬라이더(354)는 재생 동작시 재생 포인터의 동작과 함께 시프트되기도 한다. 더욱이, 슬라이더(354)는 스킵 버튼(349 또는 350), 또는 인덱스 버튼(351 또는 352)을 조작함으로써 재생 지점이 이동될 때 시프트된다.
슬라이더(354)가 시프트되어 재생 지점이 변경되면, 재생 지점 위치의 변화에 따라서 재생 시간 표시란(344) 상에 표시되는 시간 정보도 변경된다.
일시 정지 버튼(348)을 조작함으로써 재생 동작이 일시 정지된 상태에서, 프레임 피드 버튼(355)이 조작되면 프레임이 피드된다, 즉 화상 표시란(342) 상에 다음 프레임이 표시된다. 슬로우 재생 버튼은 느린 재생 동작을 수행하기 위해 조작된다. 음성 출력 절환 버튼(357)은 음성 출력 모드를 선택하기 위해 조작된다. 음성 출력 절환 버튼(357)이 조작될 때마다, 음성 출력 모드는 예를 들면 다음과 같이 순환 방식으로 변화된다: 스테레오 음성 출력 모드 → 좌우측 스피커들로부터 L 채널의 사운드만을 출력하는 모드 → 좌우측 스피커들로부터 R 채널의 사운드만을 출력하는 모드 → 스테레오 음성 출력 모드 --- 등.
다음은, 도 17에 도시된 플로우차트를 참조하여 슬립 레코더에 의해 수행되는 슬립 재생 처리를 설명한다.
도시되어 있는 바와 같이, 플로우차트는 스텝 S40에서 시작하며, 거기서 마이크로프로세서(201)는 재생 윈도우(341)가 동작될 때 현재 기록 동작이 수행되는 테이프의 MPEG 파일의 헤드로부터 MPEG 시스템 스트림을 판독한다. 그 후, 처리의 흐름은 스텝 S41로 진행하며, 거기서 마이크로프로세서(201)는 하드 디스크(212)에 저장된 애플리케이션 프로그램을 실행하여 스텝 S40에서 판독된 MPEG 시스템 스트림을 디코딩한다. 도 18에 도시된 MPEG1 소프트웨어 디코더(201A)라 불리는 애플리케이션 프로그램은, 후술되는 MPEG 디코딩을 수행하는 애플리케이션 프로그램이다. 그 후, 처리의 흐름은 스텝 S42로 진행하며, 거기서 디코딩의 결과가 출력된다.
보다 구체적으로는, 스텝 S42에서, 디코딩 결과의 화상은 재생 윈도우(341)의 화상 표시란(342) 상에 표시되고, 디코딩 결과의 사운드는 스피커들(59 및 60)로 출력된다.
그 후, 처리의 흐름은 스텝 S43으로 진행하고, 거기서 스텝 S40에서 판독된 MPEG 시스템 스트림 내의 위치에 대응하는 시간 정보가 재생 윈도우(341)의 재생 시간 표시란(344) 상에 표시된다. 재생 시간 표시란(344) 상에 표시되는 시간 정보는, 재생 시간 표시 변경 버튼(353)을 조작함으로써 선택되는 상술한 3가지 유형의 정보 중 하나이다. 이 시간 정보는 다음과 같이 마이크로프로세서(201)에 의해 얻어진다.
상술한 바와 같이, MPEG 시스템 스트림은 고정된 레이트를 갖기 때문에, 스텝 S40에서 판독된 MPEG 시스템 스트림 내의 위치에 대응하는 경과 시간은 MPEG 시스템 스트림 내의 기록 위치, 즉 MPEG 파일의 선두로부터 바이트 단위로 표현된 기록 오프셋으로부터 얻을 수 있다. 잔여 시간은 스텝 S40에서 판독된 MPEG 시스템 스트림 내의 위치로부터 현재 기록 중인 MPEG 시스템 스트림 내의 위치까지 바이트 단위로 표현된 간격으로서 얻을 수 있다. 기록 시점은 상술한 바와 같이 테이프의 인덱스 파일의 헤드에 저장된 기록 개시 시점에 경과 시간을 부가함으로써 얻어진다.
MPEG 파일에 기록된 MPEG 시스템 스트림 내의 각 위치에 대한 시간 정보들은 상기와 같이 얻을 수 있다. 대표적인 대체 방법으로서, MPEG 시스템 스트림 내의 각 지점에 대한 기록 시점이 저장되고 이 기록 시점으로부터 다른 시간 정보들이 얻어질 수 있다.
스텝 S43의 처리를 완료한 후에, 처리의 흐름은 스텝 S44로 진행하며, 거기서 마이크로프로세서(201)는 대표적으로 슬라이더(354)를 시프트하거나 스킵 버튼(349 또는 350) 또는 인덱스 버튼(351 또는 352)을 조작함으로써 재생 지점이 변경되었는지 여부에 대한 판정을 형성한다. 만일 스텝 S44에서 형성된 판정의 결과를 볼 때 재생 지점이 변경되지 않았다면, 처리의 흐름은 스텝 S40으로 복귀하고, 거기서 바로 전에 반복하여 판독된 MPEG 시스템 스트림의 후속 스트림이 MPEG 파일로부터 판독된다. 그 후, 후속 단계의 처리들이 반복된다.
한편, 만일 스텝 S44에서 형성된 판정의 결과를 볼 때 재생 지점이 변경되었다면, 처리의 흐름은 스텝 S45로 진행하여 재생 지점의 변화에 따라서, MPEG 시스템 스트림에서 코드가 판독되는 위치를 변경한다. 그 후, 처리의 흐름은 스텝 S40으로 복귀하고, 거기서 스텝 S45에서 설정된 새로운 위치로부터 MPEG 시스템 스트림이 판독된다. 그 후, 후속 단계의 처리들이 반복된다.
슬립 재생 처리는 통상 재생 윈도우(341)가 클로우즈되거나 또는 정지 버튼(346)이 조작될 경우에 종료된다.
상술한 바와 같이, 기록 동작 중에, 기록 동작이 계속 진행되는 동안에 하드 디스크(212)에 이미 기록된 화상들과 그들에 동반하는 사운드가 임의의 위치에서부터 재생될 수 있다. 따라서, 사용자는 기록 동작을 정지시키지 않고도 원하는 씬을 볼 수 있다.
게다가, 재생 윈도우(341)의 재생 시간 표시란(344) 상에 시간 정보가 표시되기 때문에, 사용자는 표시된 시간 정보를 참조함으로써 비교적 단시간 내에 원하는 씬을 찾을 수 있다.
슬립 재생 모드 중에는, 소위 시분할 방식으로 데이터가 하드 디스크(212)로부터 판독되고 하드 디스크(212)로 기록된다. 데이터를 판독하고 기록하는 동작들의 스케줄링은 특히 슬립클립(Slipclip) 애플리케이션 프로그램에 의한 개입 없이 Windows 95 OS(운영 체계)의 제어 하에 수행된다. 그렇지만, 이 스케줄링은 슬립클립 애플리케이션 자체에 의해 제어될 수도 있다.
자세히 설명하면, 요즈음 실제적으로 사용되는 하드 디스크로부터 데이터를 판독하고 하드 디스크로 데이터를 기록하는 동작들은 충분히 고속으로 수행되므로, 기록 동작을 정지시킬 필요 없이 단지 OS의 입/출력 제어 하에 하드 디스크로부터 데이터를 판독하고 하드 디스크로 데이터를 기록함으로써 슬립 재생 처리를 수행하는 것이 기본적으로 가능하다.
상술한 바와 같이, 슬립 재생 동작시 재생되는 화상은 도 15에 도시된 바와 같이 재생 윈도우(341)의 화상 표시란(342) 상에 표시된다. 게다가, 그러한 화상은 소위 전체 화면(full screen) 상에 표시될 수도 있다. 즉, 화상 표시란(342)은 디스플레이 장치(51)의 전체 화면으로 확대될 수 있다.
다음은, 도 18을 참조하여 슬립 레코더에 의해 수행되는 처리를 설명한다.
슬립 레코더에 의해 수행되는 기록 동작 중에, MPEG1 리얼 타임 엔코더 보드(213)에서, 화상과 그에 동반하는 사운드에 대해 MPEG 엔코딩을 수행하여 MPEG 시스템 스트림을 생성한 다음, 이 MPEG 시스템 스트림을 하드 디스크(212) 내에 사전에 생성된 테이프의 MPEG 파일에 기록한다. 그 후, MPEG 리얼 타임 엔코더 보드(213)에 의해 출력된 인덱스 데이터로부터 씬 변화 파라미터가 계산된다. 그 후, 이 씬 변화 파라미터는 씬 변화 포인터 및 식별 플래그와 더불어 하드 디스크(212) 내에 사전에 생성된 테이프의 인덱스 파일에 저장된다.
도 18에 도시된 바와 같이, 인덱스 파일의 헤드에, 개시 시각 및 녹화 모드를 포함하는 헤더(H)가 기록된다. 개시 시각은 기록이 개시되는 시점이다.
인덱스 데이터 내에 포함된 씬 변화 파라미터를 볼 때 씬 변화가 검출되었고 도 19에 도시된 바와 같이 씬 변화 파라미터가 소정의 임계치 ε보다 크다면, 식별 플래그, 씬 변화 포인터 및 씬 변화 파라미터는 인덱스 파일에 기록된다. 인덱스 파일에 기록되는 씬 변화 파라미터는 도 18에 도시된 바와 같이 MPEG 파일 내의 위치를 나타낸다. 그 위치에서, 씬 변화가 일어나는 프레임의 엔코딩된 데이터가 기록된다.
한편, 슬립 레코더에 의해 수행되는 슬립 재생 처리시에, MPEG 디코딩을 수행하는 애플리케이션 프로그램인 MPEG1 소프트웨어 디코더(201A)가 마이크로프로세서에 의해 수행되어 도 18에서 검고 긴 직사각형으로 도시된 MPEG 파일 내의 영역의 임의의 위치로부터 데이터가 판독되고 디코딩된다. 이 영역에는, MPEG 시스템 스트림이 이미 기록되어 있다.
기록 동작 중에, MPEG 파일은 소위 공유 모드로 오픈되므로, MPEG 파일은 복수의 애플리케이션 프로그램에 의해 액세스될 수 있다. 따라서, 공유 모드에서, MPEG1 리얼 타임 엔코더 보드(213)는 MPEG 파일에 MPEG 시스템 스트림을 기록할 수 있게 되고, 동시에, MPEG1 소프트웨어 디코더(201A)는 그 MPEG 시스템 스트림을 판독할 수 있게 된다.
엔드리스 테이프의 경우에, 엔드리스 테이프는 앞에서 설명한 바와 같이 복수의 고정 테이프를 포함하기 때문에, 슬립 재생 동작을 수행하는 코드로서 지정된 MPEG 시스템 스트림이, MPEG1 리얼 타임 엔코더 보드(213)에 의해 출력된 MPEG 시스템 스트림이 기록되는 고정 테이프의 MPEG 파일과는 상이한 고정 테이프의 MPEG 파일에 기록되었을 수도 있다. 이 경우에, 슬립 재생 동작을 수행하는 코드로서 지정된 MPEG 시스템 스트림이 기록된 MPEG 파일은, MPEG1 리얼 타임 엔코더 보드(213)에 의해 출력된 MPEG 시스템 스트림이 기록되는 MPEG 파일과 별도로 오픈된다. 판독 동작이 완료되면, 슬립 재생 동작을 수행하는 코드로서 지정된 MPEG 시스템 스트림이 기록된 MPEG 파일은 클로우즈된다.
상술한 바와 같이, 이 실시예에서는, MPEG 시스템 스트림은 MPEG 파일에 기록되고, 인덱스들 -각 인덱스는 식별 플래그, 씬 변화 포인터 및 씬 변화 파라미터를 포함함- 은 MPEG 파일과 별도로 할당되는 인덱스 파일에 기록된다. 따라서, MPEG 사양에 따른 데이터가 MPEG 파일에 저장될 수 있으며, 따라서 다른 애플리케이션 프로그램에 의해 사용될 수 있다.
MPEG 시스템 스트림 및 인덱스들은 동일한 파일에 기록될 수도 있다. 그러나, 이 경우에는, 다른 애플리케이션 프로그램들이 그 파일을 사용하기가 곤란하다.
이상에서 설명한 바와는 다르게, 만일 도 8에 도시된 테이프 설정 다이얼로그 박스(321)의 자동 인덱스 체크 박스(326)가 체크되지 않으면, 인덱스 파일에 아무런 인덱스도 기록되지 않는다. 즉, 이 경우에는, 인덱스 파일이 헤더만을 포함한다.
상술한 바와 같이, 기록 및 재생 동작들은 동시에 수행될 수 있다. Normal 녹화 모드를 가정하였으며, 설명을 간단히 하기 위하여, MPEG 시스템 스트림의 데이터량 대신에 화소 스트림(video element stream)의 데이터량이 계산된다.
Normal 녹화 모드에서는, 화상 프레임 화상은 도 10의 표에 도시된 바와 같이 352 화소 × 240 화소를 포함한다. 각 화소는 통상 8-비트 Y 휘도 신호와, 화소로 변환될 경우, 2-비트 색차 신호, 즉 1-비트 Cb 색차 신호 및 1-비트 Cr 색차 신호를 포함하여 총 12 비트가 된다고 가정하자. 1 GOP는 통상 15 프레임을 포함한다고 가정하자. 이 경우에, 1 GOP의 데이터량 (즉, 엔코딩 전의 데이터량)을 다음 수학식을 이용하여 구하면 1,856 KB가 된다.
데이터량 = 352 화소 × 240 화소 × 12 비트 × 15 프레임/8 비트 = 1,856 KB
게다가, Normal 녹화 모드에서는, 도 10의 표에 도시된 바와 같이 MPEG1 리얼 타임 엔코더 보드(213)에서의 화소 스트림의 비디오 레이트는 1,151,929 bps이고 프레임 레이트는 30 프레임/초이다. 따라서, 상술한 바와 같이 15 프레임을 포함하는 1 GOP의 화상 데이터는 다음 수학식으로 표현되는 데이터량으로 압축된다.
1,151,929/30 프레임 × 15 프레임/8 비트 = 70.3 KB
따라서, 이 경우에는, 화상 데이터는 1/26.4 (= 70.3 KB/1,856 KB)의 압축비로 압축된다.
한편, 본 발명의 발명자는 측정을 통하여 특정 HDD의 전송 속도가 약 4 MB/초임을 알아냈다. 이 전송 속도에서, 1 GOP의 70.3 KB 압축 데이터는 약 17.2 ms (=70.3/(4×1,024)) 내에 이 HDD에 저장될 수 있다.
따라서, 매우 긴 HDD의 헤드 탐색 시간, 예를 들면, 20 ms의 헤드 탐색 시간을 가정하더라도, 1 GOP의 압축 데이터를 HDD에 저장하는 데 걸리는 시간 길이는 약 37.2 ms (=17.2 ms + 20 ms)이다.
한편, HDD로부터 데이터가 판독되는 전송 속도는 기록 전송 속도보다 통상 빠르다. 판독 전송 속도가 기록 전송 속도와 동일하고 판독 탐색 속도 또한 상기 20 ms인 기록 탐색 시간과 동일하다고 가정하자. 이 경우에, HDD로부터 1 GOP의 압축 데이터를 판독하는 데 걸리는 시간 길이도 또한 약 37.2 ms이다.
1 GOP는 15 프레임을 포함하기 때문에, 1 GOP를 30 프레임/초의 전송 레이트로 전송하는 데 약 0.5초가 걸린다. 1 GOP의 압축 데이터는 약 74.4 ms (=37.2 ms + 37.2 ms) 내에 판독 및 기록될 수 있기 때문에, 화상들을 기록하고 재생하는 동작들이 약 0.5초인 1 GOP의 전송 기간 동안에 동시에 수행될 수 있다.
Long 녹화 모드의 경우에는, 압축 전의 1 GOP의 데이터량은 394 KB이고 엔코딩에 의해 22.9 KB로 축소된다. 따라서, 이 데이터는 약 1/17.2의 압축비로 압축된다. 상술한 Normal 녹화 모드와 동일한 사양을 갖는 HDD를 생각해 보자. 이 경우에, 1 GOP의 압축 데이터를 HDD에 저장하거나 HDD로부터 판독하는 데 걸리는 시간은 약 25.6 ms이기 때문에, 화상들을 기록하고 재생하는 동작들이 또한 약 0.5초인 1 GOP의 전송 기간 동안에 동시에 수행될 수 있다.
한편, Windows 95는 멀티태스크 기능을 갖는 OS이기 때문에, MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작이 대기 상태에 있는 동안에 다른 처리가 수행될 수 있다. 따라서, 만일 사용자가 슬립 재생 중에 다른 처리를 수행할 것을 요구하는 동작을 수행하면, MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작이 최고의 우선 순위로 설정되어 있더라도 다른 처리가 실행될 수 있다. 따라서, 사용자는 슬립 재생 중에 다른 처리를 수행할 것을 요구하는 동작을 수행하지 않는 것이 바람직하다. 그러나, 예외 없이 모든 사용자들이 그런 동작을 못하게 하는 것은 곤란하다.
한편, 만일 MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작이 MPEG 시스템 스트림의 비트 레이트를 따라가지 못하는 과도하게 긴 대기 상태에 있다면, 그 MPEG 시스템 스트림은 훼손되어, 그 스트림을 디코딩하기가 곤란하게 된다. 따라서, MPEG 시스템 스트림이 훼손되는 것을 절대적으로 예방할 필요가 있다.
MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작이 그 스트림의 비트 레이트를 따라가지 못하는 경우에, MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 엔코딩은 도 6에 도시된 컨트롤러(133)에 의해 실행되는 제어 하에 일시 정지된다.
도 20은 앞에서 설명한 출력 버퍼(118)에 저장된 데이터량을 모니터하는 제어기(133)에 의해 실행되는 제어를 나타내는 플로우차트이다. 도시되어 있는 바와 같이, 이 플로우차트는 스텝 S51에서 시작하며, 거기서 출력 버퍼(118)에 저장된 데이터량이 통상 100 KB의 선정치보다 큰지 여부에 대한 판정을 형성한다. 만일 스텝 S51에서 형성된 판정의 결과를 볼 때 출력 버퍼(118)에 저장된 데이터량이 선정치보다 크지 않다면, 처리의 흐름은 스텝 S52로 진행하고, 거기서 컨트롤러(133)는 MPEG1 리얼 타임 엔코더 보드(213)를 구성하는 블록들이 MPEG 엔코딩을 통상적으로 처리하도록 제어한다. 선정치가 통상 100 KB로 설정되는 이유는, 앞에서 설명한 바와 같이 출력 버퍼(118)의 통상적인 기억 용량이 160 KB이기 때문이다. 이것이 의미하는 바는, 만일 출력 버퍼(118) 내에 적어도 60 KB의 여유 또는 자유 영역이 있을 경우, MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 MPEG 엔코딩은 계속 진행된다는 것이다.
한편, 만일 스텝 S51에서 형성된 판정의 결과를 볼 때 출력 버퍼(118)에 저장된 데이터량이 선정치 100 KB보다 크다면, 제어의 흐름은 스텝 S53으로 진행하고, 거기서 컨트롤러(133)는 MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 엔코딩을 중지하거나 또는 일지 정지시킨다. 보다 구체적으로는, 컨트롤러(133)는 통상 더 많은 화상들이 프레임 메모리 유닛(100)에 저장되게 하지도 않고 프레임 메모리 유닛(110)으로부터 화상이 판독되게 하지도 않는다. 그 결과, MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작도 중단된다. 정확히 설명하면, 하드 디스크(212)의 디바이스 드라이버는 MPEG 시스템 스트림을 더 이상 요구하지 않는다. 따라서, 출력 버퍼(118)에 저장된 데이터량이 100 KB를 초과하여, 버퍼(118)에 60 KB 미만의 자유 영역만 남아 있다면, 컨트롤러(133)는 MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 MPEG 엔코딩을 중지하거나 일시 정지시킨다.
그 후, 제어의 흐름은 스텝 S54로 진행하고, 거기서 컨트롤러(133)는 출력 버퍼(118)에 저장된 데이터량이 통상 50 KB의 선정치보다 작은지 여부에 대한 판정을 형성한다. 만일 스텝 S54에서 형성된 판정의 결과를 볼 때 출력 버퍼(118)에 저장된 데이터량이 선정치보다 작지 않다면, 제어의 흐름은 스텝 S54로 복귀한다. 한편, 만일 스텝 S54에서 형성된 판정의 결과를 볼 때 출력 버퍼(118)에 저장된 데이터량이 선정치보다 작다면, 즉, 지금까지 대기 상태에 놓여 있던 하드 디스크(212)에 MPEG 시스템 스트림을 기록하는 동작이 개시되어 출력 버퍼(118)로부터 데이터를 인출하여 거기에 저장된 데이터량이 50 KB 미만의 값으로 감소되면, 제어의 흐름은 스텝 S55로 진행하고, 거기서 컨트롤러(133)는 MPEG1 리얼 타임 엔코더 보드(213)가 엔코딩을 재개할 것을 요구한다. 보다 구체적으로는, 컨트롤러(133)는 통상 더 많은 화상들이 프레임 메모리 유닛(110)에 저장되게 하고 프레임 메모리 유닛(110)으로부터 화상이 판독되게 한다. 그 후, 제어의 흐름은 스텝 S51로 복귀한다.
상술한 바와 같이, MPEG 시스템 스트림을 하드 디스크(212)에 기록하는 동작이 스트림의 비트 레이트를 따라갈 수 없는 경우에, MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 엔코딩이 일시 정지된다. 따라서, MPEG 시스템 스트림이 훼손되는 것을 예방할 수 있다.
엔코딩 정지 기간 동안에, MPEG1 리얼 타임 엔코더 보드(213)에 공급되는 화상은 프레임 메모리 유닛(110)에 저장되지 않고, 따라서 기록되지 않는다. 그러나, 그러한 프레임의 수는 그렇게 많지 않을 것으로 예견되기 때문에, MPEG 시스템 스트림의 훼손에 비하여 큰 문제가 일어나지 않는다.
상술한 바와 같이, 출력 버퍼(118)에 남겨진 자유 영역의 사이즈가 60 KB 미만이 되면, MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 MPEG 엔코딩은 다음에 설명하는 이유 때문에 일시 정지된다. MPEG1 리얼 타임 엔코더 보드(213)에 의해 수행되는 MPEG 엔코딩은 프레임 경계에서만 정지될 수 있다. 즉, 일단 프레임의 MPEG 엔코딩이 개시된 다음에는, 프레임의 엔코딩이 완료될 때까지 그 엔코딩은 정지될 수 없다. 프레임 내 엔코딩(intraframe encoding)에 의해, MPEG 엔코딩의 결과로서 얻어지는 최대 데이터량이 출력되고, 일반적으로, 프레임 내 엔코딩의 결과로서 얻어지는 데이터량은 약 40 KB가 되는 것으로 예견된다.
상기 논의로부터, MPEG 엔코딩을 정지시키려는 시도가 이루어지더라도 약 40 KB 정도의 데이터가 출력 버퍼(118)에 공급될 수 있음은 분명하다. 이런 이유로, MPEG 엔코딩이 정지될 수 있기 전에, 그러한 데이터를 수용하기 위한 적어도 40 KB 사이즈를 갖는 자유 영역이 출력 버퍼(118)에 남겨지도록 할 필요가 있다.
이 실시예에서, 출력 버퍼(118)에 남겨진 자유 영역이 60 KB 미만이 될 때 MPEG 엔코딩이 정지되는 이유는 바로 그 때문이다. 60 KB라는 수는 40 KB의 데이터량에 20 KB의 안전 마진을 부가함으로써 얻어진다.
다음은, 슬립 레코더를 이용하여 기록된 화상들을 편집하기 위한 클립 에디터가 기동된다. 클립 에디터가 기동되면, 도 21에 도시된 것과 같은 클립 에디터 메인 윈도우(361)가 표시된다.
클립 에디터 메인 윈도우(361)가 표시된 상태에서, 사용자는 편집될 대상인 클립을 지정한다.
상술한 바와 같이, 클립은 근본적으로 테이프와 같은 의미를 갖지만, 클립 에디터의 설명에서는, 클립이라는 용어가 사용된다. 따라서, 클립은 MPEG 파일 및 인덱스 파일을 포함한다.
클립이 지정되면, 클립 에디터 메인 윈도우(361) 상에 소스 윈도우(362)가 표시된다. 소스 윈도우(361) 상에는 지정된 클립의 인덱스 화면들이 더 표시된다.
자세히 설명하면, 마이크로프로세서(201)는 도 18에 도시된 MPEG1 소프트웨어 디코더(201A)를 실행하여, 지정된 클립의 인덱스 파일에 저장된 씬 변화 포인터들에 의해 지시된 위치들에서 지정된 클립의 MPEG 파일에 저장된 프레임들의 엔코딩된 데이터를 디코딩한다. 그 후, 마이크로프로세서(201)는 인덱스 화면들로서 디코딩된 프레임들의 축소된 화면들을 소스 윈도우(362) 상에 표시한다.
각 인덱스 화면 상부에, 해당 인덱스 화면을 식별하기 위한 명칭이 표시된다. 도 21에 도시된 실시예에서는, 인덱스 화면들 상부에 표시된 명칭들의 예들은, Auto 0, Index 1, Auto 2 및 Auto 3이다.
이 예들에서 Auto n -여기서, n은 수임- 이라는 명칭들은 해당 인덱스 화면들이 자동 인덱스들과 관련되어 있음을 나타낸다. 한편, Index n -여기서, n은 수임- 이라는 명칭은 해당 인덱스 화면들이 수동 인덱스와 관련되어 있음을 나타내는 내정된 명칭(default name)이다.
상술한 바와 같이, 자동 인덱스는 기록 동작 중에 부가되지만, 수동 인덱스는 사용자가 통상 클립 에디터 메인 윈도우(361)의 툴 바(tool bar) 상의 인덱스 추가 버튼(366a)을 조작하는 경우 소스 윈도우(362) 상의 임의의 위치에 부가될 수 있다.
(YDJ)시작
특기할 점은 이러한 위치는 수동 인덱스의 경우에 GOP의 헤드에 한정된 NPEG시스템 화면상의 한 위치에 대응한다는 것이다.
클립 에티터 메인 윈도우(361)의 인덱스 메뉴에는 자동 인덱스를 수동 인덱스로 변경하기 위해 클릭할 수 있는 수동 인덱스로의 변경 아이템이 포함되어 있다는 것은 주목할 필요가 있다. 자동 인덱스가 수동 인덱스로 변경될지라도 자동 인덱스를 나타내는 인덱스 화면의 이름은 변경되지 않은채로 유지된다. 다시말하면, 명칭 오토 n은 명칭 인덱스 n으로 변경되지 않는다. 자동 인덱스는 인덱스의 실별 플래그를 반전시키므로써 수동 인덱스로 변경된다.
또한, 클립 에디터 메인 윈도우(361)에 나타나는 자동 인덱스에 관련된 인덱스 화면의 명칭은 수동 인덱스에 관련된 인덱스 화면의 명칭과는 다른 색으로 표시된다. 이러한 방식으로, 자동 인덱스에 관련된 인덱스 화면과 수동 인덱스에 관련된 인덱스 화면을 용이하게 식별할 수 있다.
자동 또는 수동 인덱스는 클립 에디터 메인 윈도우(361)의 툴 바에 포함되어 있는 삭제 버튼(366B)을 조작해서 삭제할 수 있다.
소스 윈도우(362)의 하부에는 시간축으로서 이용된 타임 라인(363)이 표시된다. 통상적으로, 인덱스 화면의 왼쪽 에지는 타임 라인(363)상의 대응하는 시각의 위치와 일치한다. 여기서, 타임 라인(363)상의 대응하는 시각은 녹화가 개시된 시각을 기준으로한 인덱스 화면의 녹화 시각이다.
인덱스 화면은 기본적으로 씬 변경의 최초 프레임이다. 따라서, 어느 인덱스 화면으로부터 다음 인덱스 화면 바로 직전 까지의 프레임들은 하나의 씬을 구성한다. 그러므로, 이용자는 소망하는 씬을 용이하게 찾을 수 있다.
인덱스 화면이 표시된 후 화상을 확인하고자 하는 경우는 타임 라인(363)상의 포인트를 원하는 범위에 걸처서 타임 라인(363)을 따라 마우스(22)로 드래그한다. 드래그된 범위는 도21에서 심볼 R로 표기되어 있고, 범위 R은 재생 범위 R로 된다. 이 경우, 클립 에디터 메인 윈도우(361)의 툴 바에 포함되어 있는 재생 버튼(367)은 클릭하면, 예를들어, 재생 범위 R에 걸친 재생 동작이 개시된다.
즉, 이 경우에는, 통상적으로 도15에 도시된 재생 윈도우(341)가 오픈된다. 그래서, MPEG1 소프트웨어 디코더(201A)는 재생 범위 R에 대응하는 MPEG 시스템 스트림을 볶호화하여 이 디코딩 결과인 화상을 재생 윈도우(341)의 화상 표시 영역(342)에 표시한다.
결과적으로, 이용자는 씬을 용이하게 확인할 수 있다.
이용자는 인덱스 스크린을 보고, 필요하다면, 편집에 이용될 스크린을 결정하기 위하여 씬을 더 확인할 수 있다. 이 경우, 이용자는 클립 에디터 메인 윈도우(361)의 툴 바에 포함되어 있는 편집점 파일 작성 버튼(368)을 클릭하여 도21에 도시된 바와 같이 클립 에디터 메인 윈도우(361)상의 소스 윈도우(362) 아래에 출력 윈도우(369)를 표시할 수 있다.
출력 윈도우(369)의 표시 후, 이용자는 마우스(22)로 소스 윈도우(361) 내의 타임 라인(363)상의 어떤 범위를 드래그한다. 이 범위 내의 인덱스 화면은 새로운 클립의 씬으로서 카피된다. 좀더 상세히 말하면, 소스 윈도우(362) 중에서, 드래그된 범위 초기의 인덱스 화면으로부터 드래그된 범위 직후의 인덱스 화면 직전의 프레임 까지의 영역이 새로운 클립에 카피될 대상이다. 소스 윈도우(362)의 타임 라인(363)상에는, 시점 마크(364L) 및 종점 마크(364R)가 카피될 대상의 시점 및 종점에 대응하는 위치에 표시된다. 카피될 대상으로 취해진 영역에서 소스 윈도우(362)상의 배경과 타임 라인(363)상의 드래그된 범위는 다른 것과는 다른 색으로 표시된다.
이 영역은 다음과 같은 동작을 수행하므로써 출력 윈도우(363)에 카피된다. 마우스(22)의 커서를 카피될 대상의 영역내의 한 위치로 이동시킨 다음 마우스(22)를 누른 상태로 상기 위치로부터 드래그할 때, 커서의 모양은 통상적으로 화살표를 닮은 모양으로부터 인덱스 화면을 상징하는 모양으로 바뀐다. 커서 그 자체는 이 도면에 도시하지 않았다. 마우스(22)를 누른 상태 그대로, 커서를 출력 윈도우(369)내의 한 위치로 드래그한다. 마우스(22)가 눌려져 있는 상태에서 해제되면, 커서에 의해 지정된 인덱스 화면이 소스 윈도우(362)로부터 출력 윈도우(363)에 카피된다. 도21에 도시된 실시예에서, Auto 0의 명칭이 부여된 인덱스 화면을 선두 프레임으로 하는 하나의 씬과 Auto 2의 명칭이 부여된 인덱스 화면을 선두 프레임으로 하는 하나의 씬은 소스 윈도우(362)로부터 출력 윈도우(369)에 카피된다.
카피될 대상이 소스 윈도우(362)로부터 출력 윈도우(363)에 카피되면, 카피 대상내에 있는 모든 자동 인덱스는 출력 윈도우(369)로부터 삭제된다는 것은 주목해야 한다. 또한, 카피 대상의 선두 프레임에 자동 인덱스가 부가되어 있는 경우, 자동 인덱스는 수동 인덱스로 변경된다.
카피 대상내의 자동 인덱스 모두는 다음과 같은 이유로 출력 윈도우(363)로부터 삭제된다. Slipclip 소프트웨어의 애플리케이션 프로그램중 하나인 비디오 CD크리에이터는 출력 윈도우(369)에 카피된 씬들을 녹화하기 위한 비디오 CD를 생성하는데 이용될 수 있다. 비디오 CD가 비디오 CD 크리에이터에 의해 생성되면, 비디오 CD 규격에 일치하는 인덱스가 인덱스 파일에 기록되어 있는 씬 변경 포인터 각각에 의해 지정된 위치에 설정된다.
자동 인덱스는 이용자가 원하는 씬을 용이하게 찾는데 도움을 주도록 제공된다. 기본적으로, 다수의 자동 인덱스가 기록되어 있다. 다수의 자동 인덱스를 삭제하지 않으면, 이들은 비디오 CD 크리에이터에 의해 생성된 비디오 CD내에 유지될 것이다.
한편, 출력 윈도우(369)에 카피된 대상의 선두 프레임의 모든 자동 인덱스는 다음과 같은 이유로 수동 인덱스로 변경된다: 카피 대상의 선두 프레임은 편집점에 상당하며, 편집점은 비디오 CD에도 인덱스를 유지하는 것이 바람직하다. 출력 윈도우(369)에 카피된 대상의 선두 프레임의 자동 인덱스가 수동 인덱스로 변경되지 않으면, 이 자동 인덱스는 삭제될 것이다. 따라서, 자동 인덱스가 삭제되지 않도록 하기 위해서는 출력 윈도우(369)에 카피된 대상의 선두 프레임의 자동 인덱스가 수동 인덱스로 변경되야 한다.
결과적으로, 수동 인덱스들에 관련된 수동 인덱스 화면만이 출력 윈도우(369)상에 표시된다. 자동 인덱스의 위치에 한 인덱스를 남기는 것이 바람직하다면, 대상을 출력 윈도우(369)에 카피하기 전에 앞서 설명한 방법으로 자동 인덱스를 수동 인덱스로 변경하는 것이 필요하다.
여기서 주목할 점은 자동 대상을 포함하는 대상이 출력 윈도우(369)에 카피될지라도 자동 인덱스를 삭제되지 않게 방지할 수 있다는 것이다. 또한, 출력 윈도우(369)에 카피된 대상의 선두 프레임의 자동 인덱스가 수동 인덱스로 변경되지 않게 방지하는 것이 가능하다.
앞서 설명한 바와 같이, 이용자는 원하는 씬을 출력 윈도우(369)에 카피할 수 있다. 더욱이, 이용자가 출력 윈도우(369)에 카피된 씬들을 이동시키고, 삭제하고 그리고 재배열할 수 있기 때문에, 이용자는 필요하다면 그러한 작업을 하므로써 편집을 실행할 수 있다.
출력 윈도우(369) 상에 원하는 씬들을 원하는 순서로 재배열한 후, 재배열된 씬들을 저장하기 위한 클립을 새로 생성하는 것이 바람직하다. 이 경우에, 클립 에디터 윈도우(361)의 툴 바에 포함되어 있는 빌드 개시 버튼(370)은 통상적으로 그러한 새로운 클립을 생성하고자 하는 경우에 조작된다.
빌드 개시 버튼(370)이 조작될 때, 마이크로프로세서(201)는 인덱스 파일을 참조하므로써 MPEG 파일로부터 출력 윈도우(369)상에 펼처져 있는 원하는 씬들의 엔코딩된 데이터를 판독한다. 이용된 그대로의 MPEG 파일로부터 출력된 엔코딩된 데이터의 기본 데이터(또는 기본 스트림)와의 접합점(또는 편집점) 각각에 대해 필요한 처리를 실행한 후에, 다시 시스템 엔코딩만을 실행한다. 이 엔코딩의 결과는 새로운 MPEG 파일로서 하드 디스크(212)에 저장된다.
동시에, 출력 윈도우(369)에 표시된 인덱스 화면들에 대한 새로운 인덱스 파일이 생성된다. 앞서의 설명으로부터 새로운 인덱스 파일이 자동 인덱스를 제외한 수동 인덱스만을 포함한다는 것을 알 수 있을 것이다. 새로운 인덱스 파일 및 새로 생성된 MPEG 파일은 새로운 클립으로서 하드 디스크(212)에 저장된다.
상술한 바와 같이, 인덱스 파일에 저장된 자동 인덱스와 관련된 인덱스 화면들은 소스 윈도우(362)상에 표시된다. 다수의 인덱스 화면들이 소스 윈도우(362)상에 작은 인터벌로 서로 이격되어 있는 경우는 이용자가 원하는 씬을 찾기 위해 행하는 탐색에 장해를 준다.
앞서 언급한 문제를 해결하기 위해 인덱스 파일에 저장되어 있는 자동 인덱스와 관련된 인덱스 화면들을 소스 화면(362)에 조건적으로 표시할 수 있다. 즉, 특정 조건을 만족하는 인덱스 화면들만을 소스 윈도우(362)에 표시한다. 편의상, 그러한 조건을 표시 조건이라 칭하기로 한다.
도22는 표시 조건을 설정하기 위해 이용자가 이용한 인덱스 표시 레벨 설정 다이얼로그 박스(381)를 보여주는 다이어그램이다.
여기서 주목할 것은 통상적으로 도21에 도시된 클립 에디터 메인 윈도우(361)의 표시 메뉴내의 인덱스 표시 레벨 설정 아이템을 클릭하므로써 인덱스 표시 레벨 설정 다이얼로그 박스(381)를 표시할 수 있다는 것이다.
인덱스 표시 레벨 설정 다이얼로그 박스(381)상의 전체 표시 란(382)은 인덱스 파일에 기록되어 있는 모든 자동 인덱스와 관련된 인덱스 화면들을 표시한다는 표시 조건을 설정하는 경우에 클릭하므로써 선택된다. 레벨 란(383)은 선정된 임계값을 초과하는 씬 파라미터를 갖고 있는 자동 인덱스에 관련된 인덱스 화면들만을 소스 윈도우(362)상에 표시한다는 표시 조건을 설정하는 경우에 클릭하므로써 선택된다. 이 임계값은 이용자에 의해 임계값 입력 란(383A)에 입력된다.
개수 표시란(384)은 큰 씬 변경 파라미터를 갖고 있는 자동 인덱스와 관련된 특정된 수 까지의 인덱스 화면만을 씬 변경 파라미터의 크기 순서대로 표시한다는 표시 조건을 설정하는 경우에 클릭에 의해 선택된다. 인덱스 화면의 최대 수는 이용자에 의해서 표시될 화면의 최대 수란(385)에 입력된다.
최대 레벨 표시란(386)은 인터벌 각각에서 가장 큰 씬 변경 파라미터를 갖고 있는 수동 인덱스에 관련된 인덱스 화면만을 소스 윈도우(362)상에 표시한다는 표시 조건을 설정하는 경우 클릭하므로써 선택된다. 각 인터벌의 길이는 이용자가 시간 입력(387)에 입력한다.
앞서 언급한 표시 조건중 하나를 선택하면, 선택된 조건하에서 표시될 자동 인덱스의 수 및 인덱스 파일에 기록되어 있는 모든 자동 인덱스의 전체 수는 표시되는 인덱스의 수/인덱스의 총수 란(388)에 표시된다.
OK버튼(389)은, 인덱스 표시 레벨 설정 다이얼로그 박스(381)에 새로 입력된 설정 사항을 확정한 다음 인덱스 표시 레벨 설정 다이얼로그 박스(381)을 닫을 때 조작한다. 캔슬 버튼(390)은 이미 확정되어 인덱스 표시 레벨 설정 다이얼로그 박스(381)에 입력된 설정 사항을 유지하고 인덱스 표시 레벨 설정 다이얼로그 박스(381)를 닫는 경우에 조작한다. 헬프 버튼(391)은 인덱스 표시 레벨 설정 다이얼로그 박스(381)에 대한 이용자의 이해를 도모하기 위한 설명을 표시하는 경우에 조작한다.
그러므로, 인덱스 파일에 저장되어 있는 자동 인덱스와 관련된 인덱스 화면들만이 앞서 설명한 바와 같이 인덱스 표시 레벨 설정 다이얼로그 박스(381)를 이용하므로써 설정된 표시 조건에 따라서 도21에 도시된 소스 윈도우(362)에 표시된다. 이 도면에 도시된 바와 같이, 플로우차트는 전체 표시 란(382)이 선택되어 있는지 여부를 판정하는 단계 S361로부터 시작된다. 전체 표시 란(382)이 선택된 것으로 판정되면, 단계 S62로 진행하고, 이 단계에서는 인덱스 파일에 기록되어 있는 모든 자동 인덱스가 소스 윈도우(362)에 표시되어 이 과정이 종료된다.
한편, 단계 S61에서 이루어진 판정 결과가 모든 표시 란(382)이 선택되어 있지 않은 것을 가리키면, 단계 S63으로 진행하고 이 단계에서는 레벨 란(383)이 선택되어 있는지 여부가 판정된다. 레벨 란(383)이 선택되어 있는 것으로 판정되면, 단계 S64로 진행하고 이 단계에서는 인덱스 파일에 기록된 자동 인덱스 중에서 임계값 입력란(383A)에 입력된 선정된 임계값을 초과하는 씬 변경 파라메타를 갖고 있는 자동 인덱스가 검색되고 단계 S68로 진행한다. 이 단계에서는 앞서의 검색에서 발견된 자동 인덱스에 관련된 인덱스 화면들만이 소스 윈도우(362)에 표시되어 처리가 종료한다.
단계 S63에서 이루어진 판정 결과가 레벨 란(383)이 선택되지 않은 것을 가리키는 경우, 처리는 단계 S65로 진행하여 개수 표시란(384)이 선택되어 있는지 여부를 판정한다. 개수 표시란(384)이 선택되어 있는 것으로 판정되면, 처리는 단계 S66으로 진행하여 인덱스 파일에 기록되어 있는 자동 인덱스 중에서 가장 큰 씬 변경 파라미터를 갖고 있는 n개의 자동 인덱스가 검색된다(여기서 n은 표시될 화면의 최대수란(385)에 입력된 수이다). 이후 처리는 단계 S68로 진행하여 앞서 검색된 n개의 자동 인덱스에 관련된 인덱스 화면만이 소스 윈도우(362)에 표시되고 처리가 종료된다.
한편, 단계 S65에서 이루어진 판정의 결과가 화면 개수란(384)이 선택되어 있지 않은 것을 가리키는 경우, 즉, 전체 표시 란(382), 레벨 란(383) 및 개수 표시란(384) 어느 것도 선택되어 있지 않는 경우, 즉, 최대 레벨 표시란(386)이 선택되어 있는 경우, 처리는 단계 S67로 진행하고, 이 단계에서는 인덱스 파일에 기록되어 있는 자동 인덱스 중에서 인터벌 각각에서 가장 큰 씬 파라미터를 갖고 있는 자동 인덱스가 검색된다. 여기서 각 인터벌의 길이는 이용자에 의해서 시간 입력란(387)에 입력되어 있다. 이후 처리는 단계 S68로 진행하고 이 단계에서는 검색된 자동 인덱스에 관련된 인덱스 화면만이 소스 윈도우(362)에 표시되고 처리가 종료한다.
앞서 설명한 바와 같이, 소스 윈도우(362)에 표시된 인덱스 화면의 수를 씬 변경 파라미터들의 크기등에 대응해서 제한할 수 있기 때문에, 이용자는 원하는 씬을 용이하게 찾을 수 있다.
이 실시예에서, 레벨란(383)이 선택되어 있는 경우, 이용자에 의해서 임계값 입력란(383A)에 입력된 씬 변경 파라미터의 임계값은 인덱스 표시 레벨 다이얼로그 박스(381)를 다시 오픈하지 않고도 변경할 수 있다. 즉, 임계값은 클립 에디터 메인 윈도우(361)의 툴 바의 다운 버튼(365A) 또는 업 버튼(365B)을 조작하므로써 변경할 수 있다. 좀더 자세히 설명하면, 다운 버튼(365A)이 조작될 때마다, 씬 변경 파라미터는 1씩 감소된다. 결과적으로, 표시된 인덱스 화면의 수는 작은 임계값에 기인해서 증가한다. 한편, 업 버튼(365B)이 조작될 때마다 씬 변경 파라미터는 1씩 증분된다. 그 결과, 표시되는 인덱스 화면의 수가 큰 임계값으로 인해 감소한다.
앞서 설명한 바와 같이, 각각 자동 인덱스에 관련된 인덱스 화면의 수는 표시 조건에 의해서 제한된다. 물론 그러한 제한 역시 수동 인덱스에도 적용할 수 있다.
슬립 레코더를 이용하여 클립(또는 테이프)을 생성하고, 클립 에디터를 이용해서 이 클립을 편집하여 새로운 클립을 생성한다고 가정하기로 한다. 이와 같이 클립의 수는 증가한다. 다수의 클립이 있는 경우에, 단지 클립의 파일 이름으로 클립 각각의 내용을 식별하는 것은 어려울 것이다. 이러한 문제를 해결하기 위하여, Slipclip은 클립 뷰어라 불리는 애플리케이션 프로그램을 구비하고 있다.
클립 뷰터가 작동될 때, 도24에 도시된 것과 같은 클립 뷰어 메인 윈도우(401)가 표시된다.
이 도면에 도시된 바와 같이, 클립 뷰어 메인 윈도우(401)은 클립 모음(collection)에 등록되어 있는 클립 각각을 나타내는 대표 화면을 보여주는 클립 일람(402)를 포함하고 있다.
클립 모음은 클리퍼(clipper)들을 분류하기 위해 이용되는 폴더(folder)이다. 한 클립의 대표 화면은 클립을 구성하는 화면중 하나이다. 디폴트로 클립의 대표 화면을 클립의 첫번째 화면으로 설정할 수 있다. 그러나, 클립의 대표 화면을 디폴트 화면 즉 첫번째 화면에서 동일 클립의 다른 화면으로 변경할 수도 있다.
탭(402A)상에는 클립 모음들에 할당된 이름들이 표시된다. 그러므로, 이 실시예에서는 3개의 폴더가 하나의 클립 모음으로서 각각 존재한다. 3개의 클립 모음에 할당된 이름들은 여름 여행, 스키 대회 및 크리스마스이다. 클립 모음은 클립 모음에 할당된 탭(402A)상의 이름을 클릭하므로써 선택할 수 있다. 클립 모음이 선택되면, 선택된 클립 모음에 등록되어 있는 클립들의 대표 화면들이 클립 일람(402)상게 표시된다. 도24에 도시된 실시예에서는, 여름 여행이라는 이름을 갖고 있는 클립 모음이 선택되어, 이 클립 모음에 등록되어 있는 3개의 클립의 대표 화면이 클립 일람(402)상에 표시된다.
클립 일람(402)상에 표시된 대표 화면들 중 하나가 클릭될 때, 클릭된 대표 화면에 의해서 제공된 클릭의 인덱스 화면들은 인덱스 일람(403)상에 표시된다.
한편, 클립 일람(402)상에 클릭된 대표 화면에 의해서 제공된 클립의 재생 화상들은 화상 표시란(404)에 표시된다. 동시에, 클립 일람(402)상에 클릭된 대표 화면에 의해서 제공된 클립의 재생 화상들은 화상 표시란(404)에 표시된 클립의 타이틀이 타이틀 란(405)에 표시된다. 즉, 클립 뷰터에서는 각 클립에 타이틀이 부여될 수 있게 되어 있으므로 그의 타이틀이 타이틀 란(405)에 표시된다.
정지 버튼(406), 재생 버튼(407), 일시 정지 버튼(411 및 412), 슬라이더(414), 프레임 공급 버튼(415) 및 슬로 재생 버튼(416) 각각은 도15에 도시된 재생 윈도우(341)의 정지 버튼(346), 재생 버튼(347), 일시 정지 버튼(348), 스킵 버튼(349 및 350), 인덱스 버튼(351 및 352), 슬라이더(354), 프레임 공급 버튼(355) 및 슬로 재생 버튼(356) 각각과 동일한 기능을 갖고 있다.
전화면 버튼(413)은 전화면에 화면 표시 영역(404)을 표시하는 경우에 조작된다. 설명문 란(417)에는 클립 일람(402)에 표시된 것들중에서 선택된 클립의 설명문이 표시된다. 즉, 클립 뷰어에서는 클립에 설명문을 부여할 수 있게 되어 있으므로 클립에 대한 설명문이 설명문 란(417)에 표시된다.
앞서 설명한 바와 같이, 이 실시예에서는, 화상을 엔코드 및 압축해서 기록하는 것으로 되어 있지만 이러한 설명이 한정적인 의미로 해석되어서는 아니된다. 즉, 본 발명의 범위는 그러한 실시예에 제한되는 것이 아니다. 예를들어, 본 발명은 화상을 엔코드하지 않고 그대로 기록하는 경우에도 적용할 수 있다. 그러나, 슬립 재생을 행할 수 있는지의 여부는 하드 디스크(212)의 전송 속도 및 헤드 시크 시간, 및 기록될 데이터 량 또는 데이터 레이트에 상당히 의존한다.
좀더 상세히 설명하기 위하여, 예를들어, 앞서 설명된 실시예의 경우에서와 같이 하드 디스크(212)의 전송 속도 및 헤드 시크 시간으로서 각각 4 Mbps 및 20 ms을 고려하기로 한다.
기록 및 재생 동작시에, 프레임당 데이터의 량은 Normal 비디오 녹화 모드와 동일한 것으로 가정하고 앞서 설명한 바와 같이 15 프레임 또는 1856 KB의 전송을 고려하기로 한다. 1856 KB화상 데이터를 하드 디스크(212)에 기록하거나 그로부터 판독하는데 걸리는 시간 길이는 둘다 약 453 ms(= 1856 KB/4×1024〔KB?sec〕이다. 20ms 헤드 시크 시간을 고려해 보면, 기록 및 판독 시간은 둘다 약 473 ms이다. 15 프레임의 화상 데이터를 동시에 판독 및 기록하는 동작을 실행하는데는 앞서 설명한 초당 30 프레임의 프레임 레이트에서 15 프레임에 해당되는 기간인 약 0.5 초의 기간을 초과하는 약 946 ms(=473 ms + 473 ms)가 걸린다. 그러므로, 이들 동작은 0.5 sec 기간 동안에 동시에 실행될 수 없다.
다른 조건은 변경하지 않고 단지 비디오 녹화 모드를 Normal에서 Long으로 바꾸어 기록 및 판독하는 경우를 고려해 보기로 한다. 이 경우에, 15 프레임의 화상 데이터 량은 394 KB이다. 394 KB 화상 데이터를 하드 디스크(212)로부터 판독하거나 그 곳에 기록하는데 걸리는 시간은 약 96.2 ms(= 394 KB/4×1024〔KB/sec〕)이다. 헤드 시크 시간으로서 20ms을 고려하면, 기록 및 판독 시간은 각각 116.2ms이다. 15 프레임의 화상 데이터를 기록 및 판독하는데는 232.4 ms(=116.2 ms + 116.2 ms)가 걸린다. 이 시간은 앞서 설명한 바와 같이 초당 30 프레임의 프레임 레이트에서 15프레임에 해당되는 기간인 약 0.5 초의 기간 보다 짧다. 그러므로, 판독 및 기록을 0.5초 기간 동안에 동시에 실행할 수 없다.
앞서 설명한 바와 같이, 본 실시예에서는 고정 레이트 엔코딩 방법들 중 하나인 MPEG1규격에 따라 화상 데이터를 엔코딩하였지만, 화상 데이터를 엔코딩하는 방법이 MPEG1 규격에 따른 엔코딩에 한정되는 것은 아니다. 화상 데이터는 가변 레이트로 엔코딩할 수도 있다. 그러나, 가변 레이트로 화상 데이터를 엔코딩하는 경우에 있어서, 엔코딩된 데이터가 기록되어 있는 위치를, 슬립 재생 동작 등과 같은 처리시에 녹화 시작 위치에 관한 오프셋을 나타내는 바이트의 수로부터 검출하는 것이 곤란하다.
또한 상술한 바와 같이, 이 실시예에서는 화상과 그에 딸린 음성을 재생하는 경우에 슬립 재생 동작을 실행하지만, 슬립 재생 동작은 다른 데이터를 재생하는 경우에도 실행될 수 있다. 동양으로, 화상 및 음성 이외의 데이터를 기록하는데 테이프가 할당될 수 있다.
청구항 1에 청구된 바와 같은 기록/재생 장치 및 청구항 10에 청구된 바와 같은 기록/재생 방법에 따르면, 정보가 정보 기록 매체에 기록되고 있는 동안 정보 매체에 이미 기록되어 있는 정보는 임의 위치로부터 재생된다. 또한, 청구항 11에 따른 기록 매체에는 정보가 기록 매체에 기록되고 있는 동안 정보 매체에 이미 기록되어 있는 정보가 임의 위치로부터 재생되도록 컴퓨터가 정보를 기록 및 재생하게 하는 프로그램이 기록되어 있다. 그 결과, 기록 동작을 중단함이 없이 이미 기록되어 있는 정보를 확인할 수 있다.

Claims (11)

  1. 정보를 기록 및 재생하기 위한 기록/재생 장치에 있어서,
    정보를 정보 기록 매체에 기록하기 위한 기록 수단; 및
    상기 기록 정보 매체에 기록되어 있는 정보를 재생하는 재생 수단을 구비하며,
    상기 기록 수단이 상기 정보 기록 매체에 정보를 기록하고 있는 동안 상기 재생 수단은 상기 정보 기록 매체에 이미 기록되어 있는 상기 정보를 임의 위치로부터 재생하는 기록/재생 장치.
  2. 제1항에 있어서, 상기 재생 수단에 의해서 재생된 정보를 시간에 관한 시간 정보와 함께 표시하는 표시 수단을 더 포함하는 기록/재생 장치.
  3. 제2항에 있어서, 상기 시간 정보는 상기 정보의 기록이 개시되는 시점과 상기 정보가 재생되는 시점 간의 경과 시간, 상기 정보가 재생되는 상기 시점과 상기 정보가 기록되는 시점 간의 잔여 시간, 또는 상기 정보가 재생되는 상기 시점인 기록/재생 장치.
  4. 제3항에 있어서, 상기 경과 시간, 상기 잔여 시간 또는 상기 정보가 재생되는 상기 시점을 표시될 시간 정보로서 선택하는 선택 수단을 더 포함하는 기록/재생 장치.
  5. 제3항에 있어서, 상기 재생 수단에 의해서 실행되는 재생 동작의 재생 위치를 수정하기 위한 수정 수단을 더 포함하며, 상기 표시 수단은 상기 수정 수단에 의해서 수정된 상기 재생 위치에 따라서 상기 시간 정보를 변경하는 기록/재생 장치.
  6. 제1항에 있어서, 상기 정보를 기록하는데 요구되는 기록 시간을 설정하고 상기 정보의 비트 레이트에 관한 비트 레이트 정보를 설정하기 위한 설정 수단;
    상기 설정 수단에 의하여 설정된 상기 기록 시간 및 상기 비트 레이트 정보로부터 상기 정보를 기록하는데 요구되는 기록 용량인 필요 용량을 산출하는 산출 수단; 및
    적어도 상기 필요 용량과 동일한 사이즈를 갖고 있는 기록 영역인 필요 영역을 상기 정보를 기록하기 위한 정보 기록 매체에 할당하는 할당 수단을 구비하며,
    상기 기록 수단은 상기 필요 영역에 상기 정보를 기록하는 기록/재생 장치.
  7. 제6항에 있어서, 상기 재생 수단은 상기 필요 영역의 선두로부터 상기 기록 수단이 기록을 실행하고 있는 위치까지에 상기 이미 기록되어 있는 정보를 재생하는 기록/재생 장치.
  8. 제1항에 있어서, 상기 기록 수단에 의해서 상기 정보 기록 매체에 기록될 상기 정보를 엔코딩하는 엔코딩 수단 및 상기 엔코딩 수단에 의해서 엔코딩된 상기 정보를 디코딩하는 디코딩 수단을 더 포함하는 기록/재생 장치.
  9. 제8항에 있어서, 상기 엔코딩 수단은 상기 정보의 엔코딩 결과를 일시적으로 기억하는 기억 수단을 갖고 있으며 상기 기억 수단에 기억된 상기 결과의 데이터 량에 따라서 처리를 중단하는 기록/재생 장치.
  10. 정보를 기록 및 재생하는 기록/재생 방법에 있어서,
    상기 정보를 정보 기록 매체에 기록하는 동안 상기 정보 매체에 이미 기록되어 있는 상기 정보를 임의 위치로부터 재생하는 기록/재생 방법.
  11. 정보가 정보 기록 매체에 기록되고 있는 동안에 상기 정보 기록 매체에 이미 기록되어 있는 상기 정보가 임의 위치로부터 재생되도록 컴퓨터가 정보를 기록 및 재생하게 하는 프로그램이 기록되어 있는 기록 매체.
KR1019980027861A 1997-07-10 1998-07-10 기록/재생장치,기록/재생방법및기록매체 KR100571072B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20086797A JP3528524B2 (ja) 1997-07-10 1997-07-10 記録再生装置および記録再生方法、並びに記録媒体
JP97-200867 1997-07-10

Publications (2)

Publication Number Publication Date
KR19990013774A true KR19990013774A (ko) 1999-02-25
KR100571072B1 KR100571072B1 (ko) 2006-07-25

Family

ID=16431553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980027861A KR100571072B1 (ko) 1997-07-10 1998-07-10 기록/재생장치,기록/재생방법및기록매체

Country Status (5)

Country Link
US (1) US6385386B1 (ko)
JP (1) JP3528524B2 (ko)
KR (1) KR100571072B1 (ko)
CN (2) CN1192610C (ko)
TW (1) TW383532B (ko)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996027983A1 (en) 1995-03-07 1996-09-12 Interval Research Corporation System and method for selective recording of information
US6263507B1 (en) 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US5893062A (en) 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
JP4078622B2 (ja) * 1998-03-06 2008-04-23 ソニー株式会社 信号記録再生装置及び方法
US6788882B1 (en) * 1998-04-17 2004-09-07 Timesurf, L.L.C. Systems and methods for storing a plurality of video streams on re-writable random-access media and time-and channel- based retrieval thereof
US6233389B1 (en) 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
US7558472B2 (en) 2000-08-22 2009-07-07 Tivo Inc. Multimedia signal processing system
US7174083B1 (en) * 1998-12-30 2007-02-06 Xerox Corporation Systems and methods for using structured representations to index recordings of activity
US6934461B1 (en) * 1999-01-05 2005-08-23 Interval Research Corporation Low attention recording, with particular application to social recording
JP2000253327A (ja) * 1999-02-26 2000-09-14 Hitachi Ltd 番組提示システムおよび番組提示装置
CN100370817C (zh) * 1999-07-28 2008-02-20 三星电子株式会社 随机存取存储设备
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
JP4592133B2 (ja) * 1999-12-08 2010-12-01 三洋電機株式会社 ランダムアクセス可能な記録媒体を用いたデジタル記録再生装置およびデジタルデータの記録再生方法
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
JP2001268575A (ja) * 2000-03-14 2001-09-28 Pioneer Electronic Corp 画像変化検出装置及び画像変化検出方法、画像符号化装置並びに画像変化検出用プログラムがコンピュータで読取可能に記録された情報記録媒体
US6937814B1 (en) * 2000-04-14 2005-08-30 Realnetworks, Inc. System and method for play while recording processing
US7194186B1 (en) * 2000-04-21 2007-03-20 Vulcan Patents Llc Flexible marking of recording data by a recording unit
US7237198B1 (en) 2000-05-22 2007-06-26 Realnetworks, Inc. System and method of providing for the control of a music player to a device driver
US20020036699A1 (en) * 2000-09-15 2002-03-28 Nicklos Carl F. Light pipe having an improved mounting structure and method of assembling same
JP2002152657A (ja) * 2000-11-08 2002-05-24 Toshiba Corp 録画レート自動設定録画装置及び録画レート自動設定録画方法
EP1343168A4 (en) * 2000-12-05 2006-03-22 Matsushita Electric Ind Co Ltd RECORDING / PLAYBACK AND RECORDING MEDIUM
JP3921680B2 (ja) 2001-01-24 2007-05-30 ソニー株式会社 記録再生装置および方法、プログラム格納媒体、並びにプログラム
EP2271095A1 (en) 2001-02-21 2011-01-05 United Video Properties, Inc. Systems and methods for interactive program guides with personal video recording features
JP4944306B2 (ja) 2001-04-16 2012-05-30 キヤノン株式会社 記録装置
EP1386477A4 (en) 2001-05-11 2009-08-05 Scientific Atlanta ADMINISTRATION OF SLIDING BUFFERS
JP2003046938A (ja) * 2001-07-30 2003-02-14 Fujitsu Ltd 半導体装置
KR100434740B1 (ko) * 2001-11-09 2004-06-10 주식회사 휴맥스 디지털 방송 프로그램에서의 저배속 재생방법
US8565578B2 (en) * 2001-12-06 2013-10-22 Harold J. Plourde, Jr. Dividing and managing time-shift buffering into program specific segments based on defined durations
US7257308B2 (en) * 2001-12-06 2007-08-14 Scientific-Atlanta, Inc. Converting time-shift buffering for personal video recording into permanent recordings
US7962011B2 (en) * 2001-12-06 2011-06-14 Plourde Jr Harold J Controlling substantially constant buffer capacity for personal video recording with consistent user interface of available disk space
US20030123853A1 (en) * 2001-12-25 2003-07-03 Yuji Iwahara Apparatus, method, and computer-readable program for playing back content
US7831132B2 (en) 2002-09-06 2010-11-09 Sony Corporation Information processing device and program
US8181205B2 (en) 2002-09-24 2012-05-15 Russ Samuel H PVR channel and PVR IPG information
EP1478189A3 (en) * 2003-05-16 2004-12-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding image using image residue prediction
US7984089B2 (en) * 2004-02-13 2011-07-19 Microsoft Corporation User-defined indexing of multimedia content
US20060031879A1 (en) * 2004-04-30 2006-02-09 Vulcan Inc. Management and non-linear presentation of news-related broadcasted or streamed multimedia content
JP2006050531A (ja) * 2004-06-30 2006-02-16 Matsushita Electric Ind Co Ltd 情報記録装置
JP2006174309A (ja) * 2004-12-17 2006-06-29 Ricoh Co Ltd 動画再生装置、プログラム、及び記録媒体
TWI309750B (en) * 2005-06-27 2009-05-11 Compal Electronics Inc A method for capturing and browsing image data synchronously
US8004514B2 (en) * 2006-02-10 2011-08-23 Qualcomm Mems Technologies, Inc. Method and system for updating of displays showing deterministic content
JP4865386B2 (ja) 2006-04-04 2012-02-01 キヤノン株式会社 ビデオカメラ
JP4914235B2 (ja) * 2007-01-31 2012-04-11 キヤノン株式会社 映像記録再生装置及びその制御方法
CN101873432B (zh) * 2010-06-21 2012-06-27 杭州海康威视数字技术股份有限公司 一种硬盘录像机的小画面回放方法及装置
JP5687867B2 (ja) * 2010-08-23 2015-03-25 Necパーソナルコンピュータ株式会社 情報処理装置、動画ファイル編集方法及びプログラム
US9799376B2 (en) 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe
CN104284240B (zh) * 2014-09-17 2018-02-02 小米科技有限责任公司 视频浏览方法及装置
CN108111789A (zh) * 2016-11-24 2018-06-01 摩托罗拉移动有限责任公司 基于可用存储空间选择记录模式
US10567843B2 (en) 2017-08-29 2020-02-18 Eric DuFosse System and method for creating a replay of a live video stream

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05137041A (ja) * 1991-08-30 1993-06-01 Fuji Photo Film Co Ltd デジタル電子スチルカメラ
JPH05128826A (ja) * 1991-10-31 1993-05-25 Sony Corp デイスクプレーヤ
JPH05159546A (ja) * 1991-11-30 1993-06-25 Sony Corp 再生装置
KR940008560Y1 (ko) * 1992-07-14 1994-12-23 이헌조 동시 기록 · 재생 가능한 디지탈신호 처리장치
ATE179808T1 (de) * 1992-10-19 1999-05-15 Koninkl Philips Electronics Nv Gerät zur speicherung eines datensignals in einem speicher und zur wiedergabe des datensignals aus diesem speicher
US5371551A (en) * 1992-10-29 1994-12-06 Logan; James Time delayed digital video system using concurrent recording and playback
JP3282260B2 (ja) * 1993-01-18 2002-05-13 ソニー株式会社 画像再生装置及び方法
KR950012230B1 (ko) * 1993-09-27 1995-10-16 대우전자주식회사 디스크재생시스템의 고속데이터탐색장치
JPH07130149A (ja) * 1993-10-29 1995-05-19 Toshiba Corp 時間表示機能付き再生装置
JP3500635B2 (ja) * 1993-12-10 2004-02-23 ソニー株式会社 情報再生装置
JPH07250305A (ja) * 1994-03-14 1995-09-26 Hitachi Ltd タイムシフトテレビジョン装置
JP3478515B2 (ja) * 1995-02-09 2003-12-15 松下電器産業株式会社 データを記録再生する装置および方法
CN1114912C (zh) * 1996-09-16 2003-07-16 皇家菲利浦电子有限公司 通过信息载体实现同步记录和再现的记录和再生系统

Also Published As

Publication number Publication date
JP3528524B2 (ja) 2004-05-17
JPH1139850A (ja) 1999-02-12
CN1638468A (zh) 2005-07-13
KR100571072B1 (ko) 2006-07-25
US6385386B1 (en) 2002-05-07
CN1192610C (zh) 2005-03-09
CN1209015A (zh) 1999-02-24
TW383532B (en) 2000-03-01
CN100399819C (zh) 2008-07-02

Similar Documents

Publication Publication Date Title
KR100605410B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
KR100571072B1 (ko) 기록/재생장치,기록/재생방법및기록매체
JP3971487B2 (ja) 記録装置および記録方法、並びに記録媒体
JP3361009B2 (ja) ビデオ符号化方法および速度量子化モデルを利用して符号化を行うシステム
US20020024999A1 (en) Video encoding apparatus and method and recording medium storing programs for executing the method
JP3588564B2 (ja) 映像データ記録装置
US6532333B1 (en) System and method for editing video information
CN102630003B (zh) 图像数据记录设备及其控制方法
JPH07284058A (ja) 記録方法
US6795640B1 (en) Data recording device, data reproducing device and data recording medium for managing encoded data over a plurality of recording media
JP2003179852A (ja) 映像音声データ記録再生方法、及びそれを用いたディスク装置
US7734655B2 (en) Method of managing data on recording medium
JP2001197431A (ja) 情報処理装置および情報処理方法、並びにプログラム格納媒体
JP3731657B2 (ja) 画像処理装置および方法、並びに記録媒体
JP3852435B2 (ja) 情報処理装置および方法、表示方法、並びに記録媒体
JP4424432B2 (ja) 記録装置および記録方法
JP3633915B2 (ja) 情報処理装置および方法、並びに記録媒体
JP4578935B2 (ja) 記録装置および記録方法、並びにプログラム記録媒体
JP4251297B2 (ja) 記録装置および記録方法
KR100566970B1 (ko) 녹화물 복사방법 및 그 방법이 구현된 개인용 비디오 녹화기
US20090297119A1 (en) Information recording and reproducing apparatus
US7133594B2 (en) Digital recording apparatus that secures a certain number of video frames in a VOB constituting with another VOB a portion of encode stream that should be reproduced seamlessly
KR19980075459A (ko) 디지탈 비디오 디스크 시스템의 앵글 스캔 재생 방법
JP2003009070A (ja) 動画記録装置、動画記録方法、動画再生装置、動画記録再生方法、プログラムおよび記憶媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130320

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140320

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160304

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee