KR100292138B1 - 디지탈비디오신호용송신기및수신기 - Google Patents
디지탈비디오신호용송신기및수신기 Download PDFInfo
- Publication number
- KR100292138B1 KR100292138B1 KR1019940016622A KR19940016622A KR100292138B1 KR 100292138 B1 KR100292138 B1 KR 100292138B1 KR 1019940016622 A KR1019940016622 A KR 1019940016622A KR 19940016622 A KR19940016622 A KR 19940016622A KR 100292138 B1 KR100292138 B1 KR 100292138B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- plane
- motion
- background
- memory
- Prior art date
Links
- 230000015654 memory Effects 0.000 claims abstract description 276
- 230000033001 locomotion Effects 0.000 claims abstract description 230
- 230000008859 change Effects 0.000 claims abstract description 135
- 230000005540 biological transmission Effects 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 40
- 238000007906 compression Methods 0.000 claims description 27
- 230000006835 compression Effects 0.000 claims description 27
- 238000013144 data compression Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 17
- 238000002360 preparation method Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 16
- 238000000926 separation method Methods 0.000 description 10
- 238000004091 panning Methods 0.000 description 9
- 239000000872 buffer Substances 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 241000282693 Cercopithecidae Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/781—Television signal recording using magnetic recording on disks or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4347—Demultiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
- H04N21/4435—Memory management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
- H04N5/9261—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N7/52—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
- H04N7/54—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
- H04N9/8045—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
- H04N5/85—Television signal recording using optical recording on discs or drums
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Software Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
낮은 전송율을 갖는 전송 매체에서도 수신측에서 고 품질 및 매끄러운 동적 화상을 재생할 수 있도록 하는 송신기가 제공된다. 비디오의 배경 화상의 정지 화상을 나타내는 배경 플레인 화상 및 배경 화상 위에서 움직이는 각각의 움직이는 물체의 정지 화상을 나타내는 하나 또는 그 이상의 움직임 플레인 데이타가 입력 디지탈 비디오 신호로부터 분리된다. 분리된 배경 화상 플레인 데이타 및 각각의 움직임 플레인 데이타는 메모리들(23BG 및 23A1 내지 23An)내에 개별적으로 저장된다. 움직임 플레인 데이타로서 저장된 정지 화상들에 대한 변화 데이타는 입력 디지탈 비디오 신호 및 메모리들(23BG 및 23A1 내지 23An)의 출력을 기초로 하여 검출되며, 부호화 수단(26)에 의해 데이타를 압축 부호화시킨다. 메모리 수단(23BG 및 23A1 내지 23An)의 다수의 플레인 데이타중 정지 화상 데이타 및 부호화 수단(26)으로부터의 변화 정보가 전송된다.
Description
본 발명은 낮은 비트율로 전송할 수 있는 디지탈 비디오 신호의 송신기 및 수신기에 관한 것이다.
동적 화상의 디지탈 비디오 데이타는 많은 양의 정보를 포함하고, 이것이 전송된다면 전송 비트율은 매우 높아진다. 이 때문에, 종래의 데이타는 일반적으로 디지탈 비디오 데이타가 자기 테이프 또는 광자기 디스크를 사용하여 기록되거나 재생되는 것과 동일한 방식으로 전송 비트율이 제한되는 낮은 비트율의 전송 매체를 사용하여 전송될 때 화상이 시간 및 공간의 정보라는 것을 이용하여 압축된다.
디지탈 비디오 신호의 압축 전송은 종래에는 예를 들어 디지탈 비디오 데이타의 프레임들간의 차를 구하고, 이 차를 DCT(discrete cosign transform; 이산 코사인 변환)을 이용하여 데이타 압축함으로써 수행되었다. 또한, 비디오에서 움직임이 더 작다는 것을 고려하면, 데이타는 전체 프레임을 전송하지 않고, 단일 측 필드만의 데이타를 전송함으로써 TV 회의(TV conference)에서의 움직임 양을 발췌하여 전송된다.
단일 측 필드를 전송하지 않고, 시간 데이타를 희생시켜서 전송될 필드 수를 감소시킴에 의해 공간 데이타를 확보함으로써 화상은 좋아질 수 있지만, 움직임은 어색하게 된다.
그러나, 움직임이 어색하게 된다면 동적 화상의 질이 떨어지기 때문에, 가능한 한 동적 화상인 전체 움직임을 재생시킬 수 있도록 한 프레임당 화상 데이타를 압축함으로써 전체 프레임을 전송하는 방법이 고려된다.
상술한 바와 같이, 디지탈 비디오 신호를 전송하는 종래의 방법은 시간 방향 또는 공간 방향으로 비디오 데이타를 압축함으로써 전송율이 낮아지도록 하였다.
그러나, 데이타를 압축함으로써 즉, 예를 들어 시간 방향으로 압축함으로써 전송 비트율이 낮아진다면, 동적 화상의 움직임은 어색하게 되고 비디오는 자연스럽지 못하게 된다. 더욱이, 데이타가 공간 방향으로 압축된다면, 공간 해상도는 약화되고, 재생된 비디오도 약화된다.
즉, 종래의 방법은 데이타를 압축시킴으로써 비트율을 낮게 하기 때문에, 시간 방향 및 공간 방향의 데이타 중 하나 또는 둘 다를 희생시켜야 하기 때문에, 비디오를 만족스럽게 재생하지 못하였다.
따라서, 본 발명의 목적은 움직임이 매끄럽게 함과 동시에 가능한 한 만족하게 재생된 비디오를 얻을 수 있도록 한 디지탈 비디오 신호용 송신기 및 수신기를 제공하는 것이다.
상술한 문제점을 해결하기 위해, 본 발명의 디지탈 비디오 신호를 송신하기위한 송신기는
입력 디지탈 비디오 신호를 스크린 화상을 구성하는 배경 화상(background image)의 정지 화상을 나타내는 배경 플레인 데이타 및 배경 화상 위에서 움직이는 각각의 움직이는 물체의 정지 화상을 나타내는 하나 또는 그 이상의 움직임 플레인 데이타로 분리하기 위한 분리 수단(22);
분리된 배경 플레인 데이타 및 각각의 움직임 플레인 데이타를 개별적으로 저장하기 위한 메모리 수단(23BG 및 23A1 내지 23An);
입력 디지탈 비디오 신호 및 메모리 수단의 출력에 기초하여 움직임 플레인 데이타로서 저장된 정지 화상의 변화에 대한 정보를 검출하기 위한 변화 정보 검출 수단(31);
변화 정보 검출 수단의 출력을 압축 부호화하기 위한 부호화 수단(26); 및
메모리 수단내의 다수의 플레인 데이타의 정지 화상 데이타 및 부호화 수단으로부터의 변화 데이타를 전송하기 위한 전송 수단
을 포함한다(참조 부호는 후술될 양호한 실시예에 병기됨).
상술한 바와 같이 구성된 본 발명에 따라, 예를 들어 특정 비디오 내용으로 구성된 한 장면(scene)은 안정 상태의 정지 화상 및 다른 움직임을 취하는 하나 또는 그 이상의 움직이는 물체로 고려될 수 있는 배경 화상으로서 인식될 수 있다.
즉, 동적 화상인 한 프레임의 2-D 화상은 배경 및 다수의 움직이는 물체를 나타내는 각각의 정지 화상으로 구성된 2-D 플레인의 중첩으로서 이해된다. 움직이는 물체에 대해, 움직임 방향, 움직임 거리, 변형 등과 같은 움직이는 물체에 대한변화 정보가 추출된다. 그 후, 움직임 플레인상의 변화 정보가 동적 화상 데이타로서 배경 화상 플레인 및 움직임 플레인과 함께 전송된다.
수신기 측에서, 동적 화상은 변화 정보에 대응하는 배경 플레인내의 배경 화상 위의 움직임 플레인들내의 움직이는 물체들을 중첩시킴으로써 재생된다.
이 경우에, 각각의 배경 플레인 및 움직이는 물체들의 움직임 플레인은 하나의 정지 화상이고, 이 정지 화상에 대한 데이타는 단지 하나의 장면의 개시할 때 전송될 필요가 있다. 각각의 하나의 정지 화상이 하나의 장면에 대해 몇 초 이상 전송될 필요가 있기 때문에, 많은 양의 데이타는 전송율이 낮은 경우라도 전송되어, 화상 질이 향상될 것이다. 더욱이, 변화 정보는 많아야 몇 비트를 필요로 하므로, 한 장면내의 정지 화상 데이타를 전송한 후에 잔여 시간에도 충분한 마진(margin)을 갖는 실시간으로 전송될 수 있다.
본 발명의 상술한 그리고 다른 장점은 이후의 설명 및 동일한 부분에 동일한 참조부호를 붙인 첨부된 도면으로부터 더 명백하게 될 것이다.
도면을 참조하면, 본 발명의 디지탈 비디오 신호 송신기의 한 실시예가 기록매체로서 광자기 디스크를 사용하는 디스크 유니트에 제공된 경우에 대해 설명될 것이다.
본 발명의 디지탈 비디오 신호 송신기 및 수신기의 실시예는 광자기 디스크상에/로부터의 디지탈 비디오 신호를 기록/재생하기 위한 유니트의 경우를 예로 들어 설명될 것이다.
제1도는 예시된 유니트의 디스크 구동 시스템 및 그 블럭도를 도시하는데,상기 유니트는 비디오 카메라부(1), 신호 기록 시스템(2), 전체 시스템을 제어하기 위한 시스템 제어기(3) 및 디지탈 구동 시스템(10)을 포함하고, 비디오 카메라부(1)의 비디오 출력 신호가 신호 기록 시스템(2)을 통해 기록되도록 배열된다.
디스크 구동 시스템(10)에서, 참조부호(11)는 광자기 디스크를 나타낸다. 이러한 광자기 디스크(11)는 카트리지(11A)내에 저장된다. 트랙킹 제어하기 위한 프리그루브(pregroove)들은 미리 디스크(11)상에 생성되고, 절대 어드레스 데이타는 이 예의 경우 트랙킹용 워블링 신호(wobbling signal)와 중첩시킴으로써 프리그루브들 상에 기록된다. 절대 어드레스 데이타는 기록 동안 기록 트랙의 위치를 제어하고, 후술될 재생 동안 재생 및 주사된 트랙의 위치를 제어하기 위해 사용된다.
디스크(11)는 스핀들 모터(12)에 의해 회전된다. 스핀들 모터(12)의 회전은 디스크(11)가 예를 들어 일정 선형 속도로 회전하도록 서보 제어 회로(15)에 의해 제어된다.
셔터(shutter)는 디스크(11)내에 제공된다. 이 셔터는 디스크(11)가 디스크 장착 트레이 상에 배치되어 유니트 내로 로드될 때 개방된다. 기록용 자기 헤드(13)는 인접한 디스크(11)의 셔터 개방부 위에 배치되고, 광 픽업(14)은 인접한 디스크(11)의 셔터 개방부 아래에 배치된다.
광 픽업(14)은 발광부 및 수광부를 갖고, 공급 모터(feed motor; 16)에 의해 디스크(11)의 방사 방향으로 이동되어 제어된다. 광 픽업(14)의 포커싱(focusing) 및 트랙킹 제어는 서보 제어 회로(15)에 의해 실행된다.
시스템 제어기(3)에는 마이크로컴퓨터가 제공되고, 전체 시스템의 동작을 제어한다. 시스템 제어기(3)에는 키 그룹(4)으로부터 키 입력 신호가 공급된다. 키 그룹(4)은 촬영(shooting) 및 기록 대기키, 촬영 및 기록 개시키, 재생(playback)키 및 정지키 등을 포함한다.
카메라부(1)로부터의 비디오 신호는 A/D 변환기(21)로 공급되어 일례로 하나의 픽셀 샘플을 8비트 디지탈 신호로 변환하고, 신호 처리 회로(22)에 공급된다. 신호 처리 회로(22)는 카메라부(1)에 의해 잡힌 장면의 화상을 고정 상태의 움직임이 없는 배경을 나타내는 정지 화상으로 구성된 배경 플레인 및 각각의 움직이는 물체가 배경 위에서 움직이는 것을 나타내는 정지 화상으로 구성된 다수의 움직임 플레인으로 분리한다.
비디오 화상이 제2도에 도시된 바와 같이, 2-D 화상(30)인 경우, 움직임이 없는 구성 등을 나타내는 고정 상태의 정지 화상 등은 배경 플레인(31)으로서 추출된다. 그 다음, 비행기, 원숭이 및 차량이 제2도의 예에서 움직이는 물체로서 인식되고, 움직임 플레인(32, 33 및 34)으로서 각각 분리된다.
신호 처리 회로(22)는 분리된 배경 플레인을 제5도에 도시된 배경 플레인 메모리(23BG)에 기입한다. 신호 처리 회로(22)는 또한 분리된 n개의 움직임 플레인을 움직임 플레인 메모리들(23A1 내지 23An; n:자연수)에 기입한다. 배경 플레인 및 움직임 플레인을 분리하기 위한 구체적 실시예는 다음에 기술될 것이다.
배경 플레인 및 다수의 움직임 플레인으로 분리되어, 플레인 메모리들(23BG 및 23A1 내지 23An)에 기입된 각각의 정지 화상의 화상 데이타는 본 예에서의 비디오 카메라에 의한 촬영 및 기록을 실제적으로 개시하기 전의 준비 상태 이전에 디스크(11)에 기록된다.
즉, 정상 비디오 촬영 및 기록이 개시될 때, 대기 모드가 설정되기 전에 비디오 카메라부(1)는 동작 상태로 되고, 촬영될 구도는 뷰 파인더(view finder)를 통해 결정된다. 이 시간을 이용하여, 본 예에서 배경 플레인 및 움직임 플레인들은 분리되고, 기록되어 전송된다.
즉, 이 경우에, 한 장면은 제3도에 도시된 바와 같은 준비 기간 및 실제 촬영 및 기록 기간에 기록된다. 상술한 플레인 분리 프로세스 및 분리된 플레인 데이타의 기록 프로세스는 준비 기간 내에 수행된다.
이 경우, 예를 들어 제4도에 도시된 바와 같이, 각각의 플레인 데이타가 480 라인 x 720 픽셀들로 구성되고, 한 픽셀의 데이타가 휘도 신호 (Y; 8비트) 및 색 정보(U 및 V; 8비트들)로 구성된다면, 각각의 플레인의 정지 화상 데이타는 약 5.6 M 비트의 정보량을 갖는다. 데이타를 압축하지 않고 디스크(11)에 기록하는 것이 가능하지만, 디스크에 데이타를 기록하는 비율이 예를 들어 1.2 Mbps라면 한 플레인을 기록하기 위해서는 약 5초가 걸리고, 4개의 플레인을 기록하는 데는 20초가 걸린다.
이 때문에, 본 실시예에서는, 각각의 플레인 메모리들(23BG 및 23A1 내지 23An)에 기입된 화상 데이타는 각각의 플레인 데이타를 적절하게 압축하기 위해 압축 회로(24)로 공급된 후, 기록 처리 회로(25)에 공급된다. 기록 처리 회로(25)는 예를 들어 섹터 구조로 데이타를 재형성함으로써 디스크(11)의 기록 포맷에 적절하도록 데이타를 처리한다. 기록 처리 회로(25)의 출력 데이타는 자기 변조 오버라이트(magnetic modulation overwrite) 구조에 의한 광 자기적인 디스크(11)내에 헤드 구동 회로(27)를 통해 기록하기 위해 자기 헤드(13)에 연속적으로 공급된다.
압축 회로(24)의 데이타 압축비가 1/10이라면, 상술한 4개의 플레인 데이타는 2초의 준비 시간 내에 기록될 수 있다. 데이타 압축비가 1/100 이상으로 되기 때문에, 동일한 정보량을 갖는 동적 화상 데이타의 전체 프레임이 1.2 Mbps로 전송된다면, 플레인 데이타의 화질의 저하는 이전과 비교할 때 매우 작게 된다.
본 실시예에서, 각각의 움직임 플레인내에 등록(register)된 움직이는 물체의 움직임 방향, 움직임 거리, 회전, 변형 등과 같은 움직임 변화 정보는 촬영 및 기록개시키가 조작된 후 기록 기간내에 발생되고, 발생된 움직임 변화 정보가 실시간으로 디스크(11)내에 기록된다.
그러한 목적을 위해, 움직임 변화 정보 검출 회로(31)는 촬영 및 기록 모드에서 분리된 배경 플레인 및 n개의 움직임 플레인들에서 데이타를 사용하여 입력 디지탈 비디오 신호로부터 각각의 움직임 플레인의 움직이는 물체의 움직임 변화 정보를 구한다. 그 다음, 움직임 변화 정보는 적절한 압축비로 압축 부호화시키기 위한 압축 부호화 회로(26)에 공급되고, 기록 처리 회로(25)를 경유하여 헤드 구동 회로(27)에 공급된다. 여기서, 기록될 움직임 변화 정보의 많은 비트들은 후술하는 바와 같이 매우 적어지고, 1.2 Mbps의 낮은 비트율을 갖는 경우라도 실시간으로 완전하게 전송될 수 있다. 움직임 변화 정보를 검출하기 위한 방법의 구체적인 실시예가 다음에 기술될 것이다.
데이타는 다음과 같이 광자기 디스크(11)에 기록된다. 즉, 데이타를 헤드 구동 회로(27)를 통해 기록하기 위해 광자기 헤드(13)에 공급될 때, 기록될 데이타에 의해 변조된 자계는 디스크(11)상의 선정된 위치에 인가된다. 또한, 광 픽업(14)으로부터 레이저 비임이 디스크(11)상의 동일 위치로 조사된다. 재생 동안의 전력보다 큰 일정한 전력을 갖는 레이저 비임이 이러한 기록 시간동안 기록 트랙에 조사된다. 데이타는 광의 조사에 의한 열-자기(thermo-magnetic)에 의해 기록되고, 변조된 자계는 자기 헤드(13)에 의해 발생된다. 자기 헤드(13) 및 광 픽업(14)은 디스크(11)의 방사 방향을 따라 동시에 움직일 수 있도록 배열된다.
또한, 기록 동안, 광 픽업(14)의 출력은 디스크(11)상의 트랙을 따라 제공된 프리그루브들의 워블(wobble)과 함께 기록된 절대 어드레스 데이타를 추출 및 디코드하기 위해 RF 증폭기(28)를 통해 어드레스 디코더(29)에 공급된다. 그 다음 검출된 절대 어드레스 데이타는 기록될 데이타에 삽입시키기 위해 기록 처리 회로(25)에 공급되어 디스크(11)상에 기록된다. 절대 어드레스 데이타는 또한 기록 위치를 인식하고, 위치를 제어하기 위해 사용되는 시스템 제어기(3)에 공급된다.
트랙 및 섹터상의 배경 플레인 데이타 및 움직임 플레인 데이타에 관한 정보 및 기록된 각각의 장면의 움직임 변화 정보는 디스크의 최내부 주변에 제공된 TOC(Table of Contents) 영역으로 불리는 디스크 관리 영역에 기록된다.
그런데, 이 기록 동안, RF 증폭기(28)로부터의 신호는 서보 제어 회로(15)로 공급되고, 스핀들 모터(12)의 선형 속도를 유지하기 위해 서보 제어 회로를 제어하기 위한 제어 신호는 스핀들 모터(12)의 속도를 제어하기 위해 디스크(11)상의 프리그루브로부터의 신호로부터 생성된다.
제5도는 신호 처리 회로(22)의 한 실시예의 블럭도를 도시한다.
즉, 하나의 픽셀이 8 비트로 표시되는 A/D 변환기(21)로부터의 화상 데이타는 프레임 메모리(42) 및 감산(subtracter) 회로들(44 및 45)에 공급된다. 입력 화상 데이타는 또한 데이타 선택기(61)를 경유하여 움직임 플레인 분리 회로(61)에 공급된다.
프레임 메모리(42)는 한 픽셀 당 8 비트의 데이타의 한 프레임을 저장하고, 감산 회로(44)는 입력 픽셀 데이타에서 이전의 프레임의 동일한 샘플링 위치에 대응하는 픽셀 데이타를 감산한다. 감산 회로(44)의 차의 출력은 각각의 픽셀마다 출력의 차를 절대화하기 위해 절대화 회로(46)에 공급되고, 비교 회로(47)에 공급된다.
임계값(θ1)은 단자(48)를 통해 비교 회로(47)에 공급된다. 절대화 회로(46)로부터의 차의 출력의 절대값이 임계값(θ1)보다 작을 때는 "1"의 판별 출력이 얻어지고, 임계값(θ1)보다 클 때는 "0"이 얻어진다. 이 판별 출력은 가중 인자(weight factor) 제어 회로(49)에 공급된다.
제5도에서, 참조부호(23BG)는 배경 플레인 메모리를 나타내고, 후술하는 바와 같이, 배경 플레인 화상(정지 화상)은 초기 상태 경과시 배경 플레인 메모리내에 저장된다.
참조부호(50)는 한 프레임의 가중 인자가 저장되는 가중 인자 메모리를 나타낸다. 3비트의 가중 인자들이 예를 들어 가중 인자 메모리(50)내에 저장된다.
프레임 메모리(42)의 어드레스, 배경 플레인 메모리(23BG) 및 가중 인자 메모리(50)가 입력 단자(43)를 경유하여 시스템 제어기(3)로부터 공급된 어드레스 제어 신호에 의해 공통으로 제어되고, 동일한 어드레스로 특정화된다.
감산 회로(45)는 입력 픽셀 데이타에서 배경 플레인 메모리(23BG)내에 저장된 화상 데이타를 감산하고, 감산 회로(45)의 차의 출력은 각각의 픽셀 데이타마다의 차의 출력의 절대값을 구하기 위해 절대화 회로(51)에 공급된다. 절대화 회로(51)로부터의 차의 절대값은 단자(53)를 통해 비교 회로(52)에 공급되는 임계값(θ2)과 비교하기 위해 비교 회로(52)에 공급된다. 입력 픽셀 데이타와 배경 픽셀 데이타의 차의 출력의 절대값이 임계값(θ2)보다 작을 때에는 "1"의 판별 출력이 얻어지고, 임계값(θ2)보다 클 때에는 비교 회로(52)로부터 "0"이 얻어진다. 비교 회로(52)의 이 판별 출력은 가중 인자 제어 회로(49)에 공급된다.
감산 회로(45)로부터의 입력 픽셀 데이타와 배경 픽셀 데이타간의 차는 또한 가중 인자 제어 회로(49)에 의해 발생된 가중 인자(α)와 승산하기 위해 승산 회로(54)에 공급된다. 승산 회로(54)의 승산 출력은 배경 플레인 메모리(23BG)내에 저장된 배경 픽셀 데이타와 가산되기 위해 가산 회로(55)에 공급된다. 가산 출력은 배경 플레인 메모리(23BG)내에 기입된다.
가중 인자 제어 회로(49)로부터의 가중 인자는 가중 인자 메모리(50)내에 기입되고, 가중 인자 메모리(50)로부터 판독된 가중 인자는 가중 인자 제어 회로(49)에 공급된다.
가중 인자 제어 회로(49)는 픽셀 데이타가 움직임 픽셀인지 또는 비교회로(47 및 52)의 판별 출력으로부터 파생된 데이타가 아닌지를 판별한다.
상술된 것과 같이 이루어진 배열에서, 배경 플레인 메모리(23BG), 감산 회로(45), 승산 회로(54) 및 가산 회로(55)는 1 프레임 지연 소자로서 배경 플레인 메모리(23BC)를 사용하여 디지탈 필터를 구성한다. 즉, k번째 프레임 배경 픽셀 데이타(추정값)(Xk)는 다음처럼 표시된다;
여기서, α는 가중 인자이고, Zk는 k번째 프레임의 입력 픽셀 데이타이며, X(k-1)은 배경 플레인 메모리(23BG)로부터 판독된 배경 화상 데이타이다.
본 실시예에서, α는 배경이 변하지 않는 한 장면 동안 예를 들어 1/16으로 고정된다. 입력 화상에 포함된 화이트 노이즈(white noise)는 다수의 프레임 전역에서 상기 식에 표시된 계산을 반복함으로써 제거될 수 있고, 배경 화상 메모리(23BG)내에 저장된 배경 화상의 S/N은 향상될 수 있다.
장면이 변할 때와 같이 배경이 변할 때, 즉, 비디오 장면이 다른 비디오 장면으로 변할 때, 가중 인자(α)는 응답 시간이 짧아지고 유색 노이즈(colored noise)에 의한 영향을 받지 않도록 1/16으로부터 시작해 프레임마다 2배로 된다. 즉, 배경 화상은 1/16으로부터 1/8 -> 1/4 -> 1/2 -> 1로 지수 함수적으로 증가하는 가중 인자(α)를 사용함으로써 점차로 갱신된다. 따라서, 5개의 가중 인자들(α)이 있는데, 이들 각각은 3비트로 표시된다. 가중 인자(α)는 시프트 레지스터 또는 선택기에 의해 승산 회로(54)를 실현하기 위해 2의 거듭제곱으로 이루어져야한다.
본 실시예에서, 배경 정지 화상 데이타는 초기 상태를 통과할 때 배경 플레인 메모리(23BG)내에 저장된다. 현재 화상과 배경 화상간의 차의 절대값은 감산 회로(45) 및 절대화 회로(51)에 의해 검출된다. 차의 절대값과 임계값(θ2)은 비교 회로(52)에 의해 비교되고, 현재 픽셀은 배경 화상의 픽셀이 되도록 결정되고, 차의 절대값이 임계값(θ2)보다 작을 때 후속 프로세싱이 수행된다.
즉, 이 때에, 가중 인자(α)는 2-4(=1/16)로 고정된다. 그 다음,, 가중 인자(α)가 감산 회로(45)의 출력과 곱해지고 가산 회로(55)에서 배경 플레인 메모리(23BG)의 출력에 가산된다. 다음으로 가산기 출력이 배경 플레인 메모리를 갱신하기 위해 배경 플레인 메모리(23BG)내의 동일 어드레스내에 기입된다. 이 때의 가중 인자는 가중 인자 메모리(50)내에 기입된다.
현재 픽셀과 배경 픽셀간의 차의 절대값이 비교 회로(52)에 의해 임계값(θ2) 이상으로 결정될 때, 현재 픽셀과 감산 회로(44) 및 절대화 회로(46)에 의해 결정된 이전 프레임의 대응 픽셀간의 차의 절대값이 임계값(θ1) 보다 작거나 큰 지의 여부가 비교 회로의 출력으로서 검색된다. 비교 회로(47)의 출력이 임계값(θ1)보다 작을 때에 후속 프로세싱이 수행된다.
즉, 절대값이 임계값(θ1)보다 작다는 것은 배경이 장면 변화 등에 기인하여 변화되고, 가중 인자 메모리(50)내에 저장된 가중 인자(α = 1/16)가 먼저 판독되어 승산기(64)에 의해 감산 회로(45)의 출력 신호와 곱해진다는 것을 나타낸다. 따라서, 이 프레임에서 이루어진 배경 픽셀의 갱신은 상술한 것과 유사하게 표시된다.
배경 픽셀이 갱신될 때, α는 2배로 되고, 2배로 된 가중 인자가 1보다 크거나 작은지의 여부가 가중 인자 제어 회로(49)에서 판별된다. 2배로 된 가중 인자가 1 보다 작다면, 2배로 된 가중 인자는 가중 인자 메모리(50)내에 저장된다. 가중 인자(α)는 1/16의 가중 인자로부터 시작하여 한 프레임마다 1/8 -> 1/4 -> 1/2 -> 1로 변한다.
프로세스는 배경 프레임으로서 α = 1인 제5 프레임이 변화되어 가중 인자(α)가 상술한 것처럼 변할 때까지는 상술한 것과 유사하게 배경 픽셀을 갱신하기 위한 프로세스로 전이되지 않는다. 따라서, 새로운 배경 픽셀 및 가중 인자를 변화시키기 위한 프로세싱이 수용될 때 유색 노이즈가 잘못 검출되는 경우라도, 정확한 배경 픽셀이 보존될 것이다. 가중 인자(α)를 변화시키는 방법이 배경 픽셀의 갱신 동안 성능이 향상되고, 유색 노이즈를 제거할 수 있도록 설정된다.
현재 픽셀과 이전 프레임의 픽셀간의 차의 절대값이 비교기(47)에 의해 임계값(θ1) 이상으로 결정될 때, 즉, 현재 픽셀이 움직임 픽셀로 결정될 때, 배경 플레인 메모리(23BG)는 이 시간에 갱신되지 않는다. 움직임 픽셀에 대해, 움직임 플레인들로 분리하기 위한 프로세싱은 후술하는 것처럼 수행된다.
현재 픽셀과 배경 픽셀간의 차의 절대값이 비교 회로(52)에 의한 임계값(θ2) 이상으로 검출될 때, 그리고 현재 픽셀과 이전 프레임의 픽셀간의 차의 절대값이 비교 회로(47)의 출력으로부터의 임계값(θ1) 이상으로 결정될 때 가중 인자 제어 회로(49)는 움직임 픽셀을 검출한다.
가중 인자 제어 회로(49)로부터의 움직임 픽셀 검출 신호는 데이타 선택기(61)로 공급되고, 이 데이타 선택기에 입력되는 입력 단자(41)로부터의 입력 디지탈 픽셀 데이타는 게이트된다. 데이타 선택기(61)는 현재 픽셀이 움직임 픽셀일 때 입력 단자(41)로부터의 화상 데이타를 출력하도록 전환된다. 따라서, 입력 픽셀(현재 픽셀)이 움직임 픽셀이 아닐 때, 데이타 선택기(61)의 출력은 "0"으로 되고, 입력 픽셀이 움직임 픽셀일 때는 그 픽셀 데이타[이 데이타는 '0'이 아니고, 이후부터 논-제로(non-zero) 데이타로 기술됨]은 데이타 선택기(61)로부터 출력된다.
움직임 플레인 분리 회로(62)에는 픽셀 데이타의 한 프레임을 저장할 수 있는 차동 메모리(differential memory; 62M)(프레임 메모리)가 제공되고, 데이타 선택기(61)의 출력은 메모리(62M)에 입력된다. 메모리(62M)는 입력 단자(43)로부터의 어드레스 제어 신호에 의해 상술한 프레임 메모리(42), 배경 플레인 메모리(23BG) 및 가중 인자 메모리(50)와 함께 동일한 어드레스를 제어한다.
따라서, 배경 화상이 현재 화상으로부터 제거되고 논-제로 데이타로 구성된 움직임 픽셀들의 세트들로 구성된 다수의 움직이는 물체들의 화상만으로 구성된 차동 화상은 차동 메모리(62M)내에 저장된다. 그 다음, 제6도에 도시된 바와 같이, '0' 데이타는 움직이는 물체들의 논-제로 픽셀 데이타 이외의 픽셀 데이타로서 메모리(62M)내에 기입된다.
따라서 하나의 2-D 화상내의 다수의 움직이는 물체들의 픽셀 데이타는 논-제로 레벨을 갖는 논-제로 픽셀 데이타로서 차동 메모리(62M)내에 기입되고, 움직이는 물체들의 픽셀들 이외의 배경 화상의 정지 화상부의 픽셀 데이타는 제로(zero) 데이타로서 저장된다. 따라서, 각각 움직이는 물체만을 나타내는 움직임 플레인들은 차동 메모리(62M)내의 픽셀 데이타를 실제적으로 주사하고, 다수의 움직이는 물체들이 서로 중첩되지 않도록 제공된 근처의 픽셀들 중의 논-제로 픽셀 데이타를 관련 및 합체시킴으로써 분리될 수 있다.
마이크로컴퓨터(63)는 후술하는 바와 같이 각각의 움직이는 물체마다 플레인을 분리하고, 해당 어드레스에서 각각의 움직임 플레인 메모리들(23A1 내지 23An)로 분리된 움직임 플레인들 상에 정보를 기입하기 위해 움직임 플레인 분리 회로(62)내의 차동 메모리(62M)를 래스터 주사(raster scan)한다. 그런데, 이전에 '0'은 움직임 플레인 메모리들(23A1 내지 23An)의 각각의 모든 어드레스에서 기입되고, 각각의 움직이는 물체의 픽셀들은 차동 메모리(62M)와 동일한 어드레스에서 움직임 플레인 메모리 중의 하나에 기입된다.
제8도 및 제9도는 마이크로컴퓨터(63)의 움직임 플레인들을 분리하기 위한 프로세스의 플로우차트이다. 즉, 이 경우에, 움직이는 물체들을 분리하기 위한 프로세스는 단계(101)에서의 래스터 주사에 따라 픽셀 데이타를 주사함으로써 초기화된다. 그 다음, 주사된 픽셀 데이타가 단계(102)의 논-제로 픽셀 데이타라면, 프로세스는 주변의 픽셀 데이타가 논-제로인지 또는 제로인지를 검색하기 위해 단계(103)로 진행한다. 이 경우, 주목될 픽셀(x) 주위의 8개의 픽셀(a 내지 h)의데이타는 제 7도에서 도시된 것처럼 검색된다.
8개의 픽셀(a 내지 h)의 데이타 중 다음 단계(104)에서 논-제로인 것이 없을 때, 즉, 모든 것이 제로일 때, 주목될 픽셀(x)은 분리점으로 되고, 프로세스는 다음 픽셀 데이타를 주사하기 위해 단계(104)로부터 단계(101)로 되돌아간다. 즉, 움직이는 물체가 하나의 픽셀로만 형성된다고 볼 수 없기 때문에, 이 경우 노이즈가 있다고 여겨진다.
단계(104)에서 8개의 픽셀(a 내지 h) 중에 하나의 논-제로 픽셀이 있을 때, 프로세스는 주목될 픽셀(x)의 좌(left) 픽셀(d) 및 상(above) 픽셀(b)이 논-제로인지 또는 제로인지를 검색하기 위해 단계(104)로부터 단계(105)로 진행하고, 다음 단계(106)로 진행한다. 여기서 좌 및 상 픽셀들은 래스터 주사의 순서에 따라 이미 검색된 픽셀과 비교하기 위해 검색된다.
다음 단계(106)에서, 좌 및 상 픽셀(d 및 b)이 모두 논-제로인지가 결정된다. 2개 픽셀이 모두 논-제로라면, 즉, 움직임 픽셀이 아니라면, 프로세스는 움직임 플레인 메모리로서 새로운 번호(이후부터 간단히 메모리 번호라고 기술)를 설정하기 위해 단계(107)로 진행한다. 즉, 프레임 메모리 그룹(23A1 내지 23An)내에 저장되기 위한 프레임 메모리를 나타내는 번호가 설정된다. 메모리 번호는 단계(108)에서 픽셀의 어드레스에 대응하는 마이크로컴퓨터(63)의 메모리내에 저장된다. 이 이후에, 프로세스는 차동 메모리(62M)내의 모든 픽셀의 주사가 완료되었는지의 여부를 판별하기 위해 단계(109)로 진행하고, 픽셀의 주사가 완료되었을 때, 이 프로세스 루틴은 종료된다. 모든 픽셀의 주사가 아직 완료되지 않았다면, 프로세스는다음 움직임 픽셀의 재생을 개시하기 위해 단계(101)로 되돌아간다.
좌 및 상 픽셀(d 및 b) 중 적어도 하나의 픽셀이 논-제로 픽셀이라는 것이 단계(106)에서 판별될 때, 프로세스는 2개의 픽셀이 논-제로인지의 여부를 판별하기 위해 단계(106)에서 단계(110)로 진행한다. 2개의 픽셀이 논-제로인 것으로 판별될 때, 마이크로컴퓨터(63)내의 메모리내에 저장된 메모리 번호는 2개의 픽셀(d 및 b)에 대해 단계(111)에서 검색된다. 그 다음, 2개의 픽셀(d 및 b)의 메모리 번호가 단계(112)에서 일치하는 지의 여부가 판별된다.
단계(112)에서의 판별의 결과로서 2개의 픽셀(d 및 b)의 메모리 번호가 일치될 때, 프로세스는 주목될 픽셀(x)의 어드레스에 대응하는 마이크로컴퓨터(63)의 메모리에 일치된 메모리 번호를 저장하기 위해 단계(112)에서 단계(108)로 진행한다.
단계(112)의 판별 결과로서 2개의 픽셀(d 및 b)의 메모리 번호가 일치하지 않는다고 판별될 때, 좌 픽셀(d)은 주목될 픽셀(x)에 대응하는 메모리 번호를 저장하고, 좌 픽셀(d)의 메모리 번호 및 상 픽셀(b)의 메모리 번호가 관계가 있고, 그것들의 메모리 번호가 다른 경우일지라도 하나의 움직이는 물체의 픽셀들은 마이크로컴퓨터(63)의 메모리내에 저장된다는 것을 나타내는 데이타를 일체시키기 위해 선택된다.
이것은 움직이는 물체가 하나의 수평 주사 라인의 데이타의 상승된 위치에서 픽셀들로 표시되고, 후 라인(later line)에서 픽셀의 조사 결과로서 하나의 움직이는 물체의 픽셀로서 링크된다는 것이 확실해지는 경우를 보여준다.
단계(110)의 판별 결과로서 2개의 픽셀이 모두 논-제로일 때, 좌 픽셀(d)이논-제로인지 아닌지의 여부가 단계(115)에서 판별된다. 판별의 결과로서 좌 픽셀(d)이 논-제로일 때, 픽셀(d)의 메모리 번호는 단계(116)에서 검색되고, 그후 픽셀(d)의 메모리 번호와 동일한 메모리 번호는 단계(108)에서 주목될 픽셀(x)의 어드레스에 대응하여 마이크로컴퓨터(63)의 메모리내에 저장된다.
단계(115)에서의 판별의 결과로서 좌 픽셀(d)이 논-제로가 아닐 때, 즉, 상 픽셀(b)이 논-제로일 때, 픽셀(b)의 메모리 번호는 단계(117)에서 검색되고, 그후 픽셀(d)의 메모리 번호와 동일한 메모리 번호가 단계(108)에서 주목될 픽셀(x)의 어드레스에 대응하여 마이크로컴퓨터(63)의 메모리내에 저장된다.
상술한 바와 같이, 프로세스는 차동 메모리(62M)의 모든 픽셀의 조사가 완료되었는지의 여부를 판별하기 위해 단계(108) 후의 단계(109)로 진행한다. 픽셀의 조사가 완료되지 않았다면, 프로세스는 상술한 프로세스 루틴을 반복하기 위해 단계(101)로 되돌아가고, 모든 픽셀의 조사가 완료되었다면, 이 프로세스 루틴은 정료된다.
이제 제10도 및 제11도를 참조하여, 상술한 프로세스 루틴이 더 설명될 것이다.
제10도는 차동 회로(62M)내에 저장된 한 장면의 화상 데이타를 도시하는데, 중앙부, 즉, 제로 이외의 번호들이 기입되는 부분은 움직임 플레인 분리 회로(62)에 의해 움직이는 물체로 검출되는 부분이다.
마이크로컴퓨터(63)은 래스터 주사의 순서에 따라 상술한 차동 메모리(62M)내에 저장된 화상 데이타에 상술된 프로세스 루틴을 실행한다. 여기서, 제11도에 도시된 번호 중에서 제로들은 정지 화상 플레인내에 저장된 픽셀 데이타를 나타내고, 1 및 2는 프레임 메모리들(23A1 내지 23An) 중의 어떤 하나의 프레임 메모리에 저장된 픽셀을 나타낸다.
래스터 주사의 순서에 따라 주사함으로써, 원안의 3을 표시하는 픽셀 데이타는 단계(102)의 논-제로 픽셀로 검출된다. 그런후, 이 픽셀 데이타는 주위의 픽셀들 중의 논-제로 픽셀들을 갖고, 좌 및 상 픽셀들의 데이타, 즉, 제7도의 픽셀(b 및 d)에 대응하는 픽셀 데이타가 모두 제로이기 때문에, 새로운 메모리 번호들은 단계(107)에서 설정된다. 이 때에, 먼저 검출된 논-제로 데이타가 있기 때문에, 메모리 번호 "1"이 설정된다. 그후, 메모리 번호 "1"은 제11도에 도시된 바와 같이 마이크로컴퓨터(63)내의 메모리(63M)의 해당 픽셀 위치에 저장된다.
그런후, 다음 픽셀 데이타가 "3", 즉 논-제로이고, 좌 픽셀이 "3", 즉 논-제로이고, 상 픽셀 데이타가 제로의 값을 가지므로, 프로세스는 메모리 번호 "1"을 메모리(63M)내의 해당 픽셀 위치에 저장하기 위해 단계(116)을 거쳐 단계(106)으로 진행한다. 상술한 프로세스 루틴이 유사한 방식으로 실행될 때, 원을 둘러싼 논-제로 데이타로 둘러싸인 원안의 4를 표시하는 픽셀 데이타가 있고, 좌 및 상 픽셀 데이타가 제10도에 도시된 바와 같이 모두 제로 데이타이기 때문에, 프로세스는 메모리(63M)내의 해당 픽셀 위치에 메모리 번호 "2"를 저장하기 위해 단계(107)을 거쳐 단계(108)로 진행한다.
다음으로, 논-제로 픽셀이 주위에 있고, 좌 픽셀이 제로 데이타이며, 상 픽셀이 제10도에 도시된 삼각형안의 3을 표시하는 픽셀 데이타에 대한 프로세스 루틴의 논-제로 데이타이기 때문에, 프로세스는 메모리(63M)내의 해당 픽셀 위치에 메모리 번호 "1"을 저장하기 위해 단계(117)을 거쳐 단계(108)로 진행한다. 즉, 동일한 움직이는 물체의 데이타가 주목될 픽셀의 좌 및 상 픽셀들이 논-제로 데이타인지의 여부를 검출함으로써 래스터 주사되는 순서에 따라 주사된다. 더욱이, 제10도의 사각형안의 3으로 표시된 픽셀 데이타에 대한 프로세스 루틴에서, 논-제로 데이타가 주위에 있고, 좌 및 상 픽셀들이 모두 논-제로 데이타이며, 좌 및 상 픽셀의 메모리 번호가 서로 다르다. 따라서, 좌 픽셀 데이타의 메모리 번호와 동일한 메모리 번호, 즉, 메모리 번호 "1"이 메모리(63M) 및 상 픽셀, 즉, 메모리 번호가 "2"인 픽셀과 관련되는 것을 나타내는 정보의 해당 픽셀 위치에 저장된다. 즉, 논-제로인 주목될 픽셀의 상 및 우(right) 픽셀 데이타가 모두 논-제로일 때, 가능한 이들 3개의 픽셀 데이타는 동일한 움직이는 물체를 나타낸다. 그러나, 상술한 프로세스 루틴이 래스터 주사의 순서에 따라 수행될 때, 다른 메모리 번호들이 동일한 움직이는 물체를 나타내는 픽셀 데이타라고 하더라도, 다른 메모리 번호들은 상술한 바와 같이 주어질 수 있다. 그러므로, 주목될 픽셀 주위에 논-제로 데이타가 있을 때, 2개의 메모리 번호들이 관련되는 것을 나타내는 데이타가 저장되고, 픽셀의 좌 및 상 픽셀 데이타는 모두 논-제로 데이타이고, 좌 및 상 픽셀 데이타의 메모리 번호는 서로 다르다. 이에 의해, 2개의 메모리 번호들이 서로 다른 번호로 메모리(63M)내에 저장될지라도, 픽셀 데이타가 프레임 메모리 그룹(23A1 내지 23An)내에 저장될 때에 2개의 메모리 번호들이 동일한 프레임 메모리내에 저장된다.
차동 메모리(62M)상의 픽셀들의 조사가 상술되었지만, 메모리 번호들은 각각의 움직이는 물체에 포함된 픽셀들의 어드레스들용 메모리 번호에 관련된 각각의 움직이는 물체에 대해 다른 메모리 번호와의 관계를 나타내는 데이타와 함께 마이크로컴퓨터(63)의 내장 메모리에 저장된다. 마이크로컴퓨터(63)는 하나의 동적 화상 플레인 메모리의 메모리 번호 No. 와 동일한 움직이는 물체를 나타내도록 인식된 픽셀의 메모리 번호들을 상관시킨다. 이에 의해, 각각의 움직이는 물체는 다음과 같이 분리 동적 화상 플레인으로서 분리될 수 있다.
즉, 마이크로컴퓨터(63)는 차동 메모리(62M)로부터의 후속적인 움직임 픽셀 데이타를 판독한다. 차동 메모리(62M)로부터의 판독 출력은 동적 화상 플레인 메모리들(23A1 내지 23An) 각각에 입력된다. 마이크로컴퓨터(63)는 또한 상술한 바와 같이 판독 픽셀들을 설정하고, 기입 픽셀 어드레스(이것은 판독 픽셀 어드레스와 동일할 수 있다)를 메모리 번호 No. 의 동적 화상 플레인 메모리에 움직임 픽셀들을 기입하기 위해 저장된 메모리 번호 No. 의 동적 화상 플레인 메모리에만 공급한다.
따라서 각각의 움직이는 물체는 분리되어 움직임 플레인 메모리(23A1 내지 23An)내에 개별적으로 저장된다.
차동 메모리(62M)가 상술한 것과 같은 움직임 플레인 분리 방법에서 동일한 움직이는 물체에 포함된 픽셀들을 일체시키기 위해 TV 주사하는 것과 동일한 방법으로 수평 및 수직적으로 픽셀들을 조사하기 위해 주사될지라도, 하나의 동작 픽셀이 검출될 때, 일체되도록 논-제로 픽셀들을 추적하기 위해 주변 픽셀들을 순차적으로 조사하여 합병하고, 이 합병된 픽셀들은 동시에 하나의 움직임 플레인 메모리로 순차적으로 기입함으로써 하나의 움직이는 물체에 대한 움직임 플레인 메모리를 완성하는 것이 가능하다.
그런데, 2개의 움직이는 물체들이 소정의 시점에서 서로 중첩된다면, 상술한 방법이 각각의 움직임 플레인 메모리가 움직임 플레인 메모리를 적절히 재기입함으로써 각각의 움직이는 물체만을 나타내는 움직임 플레인 데이타를 축적하는 것을 가능하게 하도록, 움직이는 물체들은 특정 시간 경과시 개별적으로 관찰될 수 있다.
이제 제12도를 참조하면, 각각의 움직이는 물체의 움직임 변화 정보를 검출하기 위한 움직임 변화 정보 검출 회로의 구조적인 예가 도시될 것이다.
움직임 변화 정보는 배경 플레인 메모리(23BG) 및 움직임 플레인 메모리들(23A1 내지 23An)내의 데이타를 이용하여 현재 화상 데이타로부터 발생된다. 제12도에 도시된 회로는 상술한 준비 기간이 지나고 촬영 및 기록 개시키가 조작될 때에 동작한다. 즉, 움직임 변화 정보는 이 예에서 실시간으로 기록된다.
화상 데이타는 상술한 신호 처리 회로(22)내의 움직임 플레인 분리 회로(62)의 각각의 움직이는 물체마다 플레인 정보로 분리된다. 각각의 움직이는 물체의 정보의 한 프레임은 프레임 메모리들(71A1 내지 71An)내에 기입된다. 즉, 제5도에 도시된 움직임 플레인 분리 회로(62)는 또한 프레임 메모리들(71A1 내지 72An)의 각각에 접속되고, 마이크로컴퓨터(63)로부터의 기입 픽셀 어드레스에 기초하여 프레임 메모리들(71A1 내지 72An) 중의 하나의 프레임 메모리에 움직임 픽셀들을 기입한다. 프레임 메모리들(71A1 내지 71An)은 2개의 프레임 버퍼들로 구성되는데, 움직이는 물체의 데이타가 하나의 프레임 메모리내에 기입될 때, 움직임 변화 정보를 발생시키기 위한 데이타를 사용하기 위해 움직임 플레인의 데이타는 다른 프레임 메모리로부터 판독된다.
즉, 프레임 메모리들(71A1 내지 71An)로부터의 각각의 움직이는 화상 데이타는 움직임 변화 검출 회로들(72A1 내지 72An)에 공급된다. 그리고 준비 기간 동안 움직임 플레인 메모리들(23A1 내지 23An)내에 저장된 움직임 플레인 데이타는 움직임 변화 검출 회로들(72A1 내지 72An)에 공급된다.
움직임 변화 검출 회로들(72A1 내지 72An)은 각각의 움직임 플레인 메모리들(23A1 내지 23An) 및 프레임 메모리들(71A1 내지 71An)로부터의 각각의 동적 화상들내에 저장된 움직이는 물체의 패턴들을 일치시킴으로써 물체의 움직임 벡터, 즉, 움직임의 방향 및 정도를 구한다. 이 때, 움직이는 물체가 이전의 움직임 플레인으로서 메모리내에 저장되기 때문에, 전체 움직이는 물체의 움직임 벡터는 특정 중앙부 또는 중심 블럭을 주목시키고, 중앙부 또는 중심 블럭상에 일치 패턴을 실시함으로써 비교적 짧은 시간에 수행되어, 움직이는 물체의 형태가 변하지 않도록 제공될 수 있다.
움직이는 물체의 방향 또는 형태가 변할 때, 일치 패턴의 오차는 심각하게 된다. 그 다음, 오차는 또한 본 실시예의 움직임 벡터와 함께 움직임 변화 정보로서 전송된다.
따라서 움직임 벡터 및 움직임 변화 검출 회로들(72A1 내지 72An)에 의해 얻어진 각각의 움직임 플레인 메모리내의 움직이는 물체의 일치 오차의 데이타는 데이타를 압축하기 위해 압축 부호화 회로(26)에 공급된다. 상술한 바와 같이, 압축 후의 데이타량은 비디오 정보와 비교할 때 매우 작고, 실시간으로 디스크에 쉽게 기록할 수 있다.
움직임 후의 각각의 움직임 플레인 메모리상의 움직이는 물체의 위치는 검출된 움직임 벡터를 사용하여 메모리상의 어드레스로서 쉽게 검출될 수 있다. 이 때문에, 움직이는 물체들의 중첩된 상태는 다수의 움직이는 물체들의 픽셀들의 어드레스들이 동일하게 될 때 인식될 수 있다. 따라서 다수의 움직이는 물체들이 중첩될 때, 움직이는 물체들 사이의 깊이는 움직이는 물체의 위치의 픽셀들로서 현재 화상에 나타나는 움직이는 물체의 픽셀들로부터 검출된다. 깊이 데이타는 움직임 데이타와 함께 전송된다. 그런데, 깊이 데이타는 또한 배경 화상 및 움직이는 물체들에 대해 구해진다.
움직이는 물체의 움직임 변화 정보로서, 다음의 예와 같은 예측된 운동 벡터 및 물체 변형 데이타가 전송될 수 있다.
즉, 제13도에 도시된 예에서, 프레임 메모리들(71A1 내지 71An)로부터의 입력 화상 데이타로부터 추출된 각각의 움직이는 물체의 프레임 데이타는 차동 계산 회로들(73A1 내지 73An)에 공급된다.
또한, 움직임 플레인 메모리들(23A1 내지 23An)내의 움직임 플레인 데이타는 예측된 움직임 벡터 발생 회로들(75A1 내지 75An)로부터 예측된 움직임 벡터에 기초된 예측가능한 현재 시간에서의 움직임 후 각각의 움직이는 물체의 프레임 화상 데이타를 얻기 위해 예측 회로들(74A1 내지 74An)에 공급된다. 그 다음, 각각의 예측된 움직이는 물체들의 프레임 화상 데이타는 프레임 메모리들(71A1 내지 71An)로부터의 입력 화상 데이타로부터 추출된 각각의 움직이는 물체의 프레임 데이타와 차를 계산하기 위해 차동 계산 회로들(73A1 내지 73An)에 공급된다.
차동 계산 회로들(73A1 내지 73An)은 압축 부호화 회로(26)에 움직이는 물체의 화상들의 차를 출력 데이타로서 출력한다. 차동 계산 회로들(73A1 내지 73An)은 또한 움직이는 물체의 화상들의 상술한 차로부터 움직임 벡터를 구하고, 그것을 압축 부호화 회로(26) 및 다음 프레임에 대해 움직이는 물체 각각의 예측된 움직임 벡터를 발생시키기 위해 예측된 움직임 벡터 발생 회로들(75A1 내지 75An)에 공급한다.
움직이는 물체의 배경 화상 및 정지 화상이 상술된 실시예의 입력 화상으로 부터 분리된다해도, 배경 화상 및 움직이는 물체를 이전에 분리된 상태로 촬영하여, 배경 플레인 메모리(23BG) 및 움직임 플레인 메모리들(23A1 내지 23An)내에 기입하고, 디스크(11)내에 기록하는 것이 가능할 때, 배경 화상 및 움직이는 물체를 이전에 개별적으로 촬영하는 것이 가능하다.
움직이는 물체가 상술한 것처럼 미리 움직임 플레인을 준비하기 위해 촬영될 때, 움직이는 물체가 현상 화면(development view)을 얻기 위해 움직이는 물체의 모든 방향으로부터 중심으로 움직이는 물체를 촬영함으로써 회전하는 경우에도 그 움직임에 대응하여 재생된 화상이 생성될 수 있다. 즉, 예를 들어 움직이는 물체가제14도에 도시된 것처럼 축 Z상의 중심으로 회전하는 물체일 때도, 임의적으로 회전하는 움직이는 물체의 재생된 화상은 제15도에 도시된 바와 같은 움직임 플레인으로서 측면의 현상 화면을 준비하고, 움직임 변화 정보를 전송하고 회전 데이타를 가산함으로써 얻어질 수 있다.
그런데, 준비 기간이 배경 플레인 및 움직임 플레인들을 분리하고 그것들을 준비 기간 동안 디스크에 기록하기 위해 실제적인 촬영 및 기록 전에 설정되어도, 움직임 변화 정보의 정보량이 매우 작기 때문에 준비 기간을 설정하지 않고 실시간으로 정지 플레인 데이타의 기록으로부터 움직임 변화 정보의 기록까지를 실행하는 것이 또한 가능하다. 예를 들어, 한 장면이 10초 정도라면, 정지 화상 플레인 및 움직임 플레인들은 상술한 예에서 2초 정도 기록될 수 있어서, 실시간 촬영 및 기록이 준비 기간의 설정 없이 약 2초 동안 버퍼 메모리의 움직임 변화 정보를 저장함으로써 실현될 수 있다.
제16도는 디스크 기록 유니트의 한 실시예의 블럭도이다. 본 실시예에서는 제1도에 도시된 디스크 기록 유니트와 동일한 부분에는 동일한 참조부호가 붙여지고, 그 설명은 생략될 것이다.
그런데, 본 실시예에서 제6도의 디스크 기록 유니트가 제1도의 디스크 기록 유니트와 별개로 도시되었지만, 본 발명은 이것에 제한되지 않고 디스크 상에/로부터 기록 및 재생가능한 어떤 디스크 기록/재생 유니트가 적용될 수 있다.
디스크(11)는 유니트내로 로드될 때, 유니트는 시스템 제어기(3)에 의해 각각의 장면들의 배경 플레인 및 움직임 플레인 및 움직임 변화 정보의 기록 위치를인식하기 위해 먼저 디스크의 TOC 영역내로 들어간다.
그 다음, 시스템 제어기(3)는 TOC 영역 정보로부터 먼저 재생될 장면의 배경 플레인 및 다수의 움직임 플레인들의 데이타를 재생한다. 디스크(11)로부터 꺼내진 화상 데이타는 섹터 구조와 같은 선정된 기록 포맷내에 데이타를 디코딩하는 프로세스를 실시하기 위해 RF 회로(28)로부터 재생 처리 회로(81)에 공급된다. 디코드된 데이타는 그후 데이타 확장 및 플레인 분리 회로(82)로 공급된다. 회로(82)에서, 낮은 압축비로 압축된 각각의 플레인 데이타는 확장되고, 각각의 플레인 데이타마다 분리된다. 배경 플레인 데이타는 배경 플레인 메모리(83BG)내에 기입되고, 움직임 플레인 데이타는 각각의 운동 플레인 메모리들(83A1 내지 83An)내에 기입된다. 이에 의해, 비디오의 재생을 개시하기 위한 준비가 완료된다.
다음으로, 장면의 움직임 변화 정보, 깊이 데이타, 회전 데이타 등이 TOC 영역 정보에 관련하여 실시간으로 추출되어 RF 회로(28) 및 재생 처리 회로(81)를 거쳐 데이타 확장 디코딩 회로(84)에 공급된다. 그 다음, 움직임 변화 정보 등이 확장 및 디코드되어 신호 처리 회로(85)에 공급된다.
신호 처리 회로(85)에는 또한 배경 플레인 메모리(83BG) 및 움직임 플레인 메모리들(83A1 내지 83An)로부터 각각의 정지 화상 데이타가 공급된다. 신호 처리 회로(85)에서, 움직임 플레인 메모리들(83A1 내지 83An)로부터 각각의 움직이는 물체가 확장 디코딩 회로(84)로부터 움직이는 물체 각각의 움직임 변화 정보 및 깊이 데이타를 사용하여 배경 플레인 메모리(83BG)로부터의 배경 화상으로 구성된다.
신호 처리 회로(85)로부터의 동적 화상 데이타는 D/A 변환기(86)에 의한 원래의 아날로그 신호로 복귀되고, 출력 단자(87)로부터 유도된다.
움직이는 물체가 상술한 바와 같이, 회전을 동반할 때, 스크린 상에 디스플레이될 부분이 회전 데이타에 대응하는 움직임 플레인 메모리로부터 판독되도록 상술한 현상 화면과 같은 화상의 내용들이 움직임 플레인 데이타로서 해당 움직임 플레인 메모리내에 저장되고, 회전 데이타는 확장 디코딩 회로(84)로부터 얻어진다.
제17도 내지 제21도를 참조하면, 본 발명의 다른 실시예가 설명될 것이다.
고정된 배경부는 촬영에서 고려되는 최대 픽처 프레임이고, 정지 화상으로서 기록하기 위해 배경 플레인 메모리(23BG)내에 등록된다.
움직이는 부분은 움직임 플레인의 정지 화상으로 기록하고 각각의 움직임 플레인내의 움직이는 물체의 변화 정보를 기록하기 위해 움직임 플레인 메모리들(23A1 내지 23An) 각각에 등록되도록 제1 실시예와 유사하게 각각의 움직이는 물체로 분리된다.
이 예에서, 움직임 플레인 메모리들(23A1 내지 23An)이 정지 화상 데이타의 장면을 기록할 수 있는 용량을 갖는 메모리로 구성될 수 있고, 배경 플레인 메모리(23BG)는 제17도에 도시된 한 장면의 픽셀 데이타보다 많은 다수의 장면의 픽셀을 저장할 수 있는 큰 용량을 갖는 메모리로 구성된다. 즉, 배경 플레인 메모리(23BG)는 수평 방향으로 (480 x a)의 픽셀 샘플 데이타 및 수평 방향으로 (720 x b) 픽셀들을 기입할 수 있는 용량이 제공된다. 이 예에서, a = 3이고, b = 3이다.
따라서, 제17도의 중앙부에서의 배경 화상이 중심으로 될 때, 카메라 각을 중심 배경 화상 주위로 패닝(panning) 및 틸팅(tiiting)함으로써 변할 때에 픽처프레임으로 들어오는 배경이 이전에 배경 플레인 메모리(23BG)내에 기입될 수 있다. 또한, 카메라가 중앙부에서 배경 화상으로 줌(zoom)될 때, 줌 범위의 모든 배경 화상은 배경 플레인 메모리(23BG)내에 기입된다. 범위가 한 장면의 화상 프레임보다 넓은 배경 화상 데이타를 기입하기 위한 방법의 한 예가 기술될 것이다.
이 실시예에서, 키 그룹(4)의 특정 키가 카메라부(1)에 의해 최대 픽처 프레임의 배경 플레인을 촬영하기 위해 먼저 조작되고, 배경 플레인 메모리(23BG)에 배경 플레인을 등록하기 위한 모드가 설정된다. 이제 이 모드의 동작이 설명될 것이다.
이 예의 카메라부(1)에는 줌 렌즈(도시되지 않음)가 제공되고, 넓은 배경은 최대 광각(most wide angle)으로 줌을 설정함으로써 단축된다. 이 예에서, 이것은 최대 픽처 프레임일 것이다.
카메라부(1)로부터의 비디오 신호는 한 픽셀 샘플이 예를 들어 8 비트인 디지탈 화상 신호로 변환되기 위해 A/D 변환기(21)로 공급되고, 신호 처리 회로(22)에 공급된다. 신호 처리 회로(22)는 움직임이 없는 고정 배경 정지 화상 및 배경 위에서 움직이는 각각의 움직이는 물체로 카메라부(1)에 의해 짧은 장면의 화상으로 분리되고, 버퍼 메모리내에 분리된 배경 화상 데이타를 등록한다. 최대 픽처 프레임 배경이 제18도에 도시된 바와 같이 한 장면으로 단축되는 화상 데이타는 예를 들어 버퍼 메모리로부터 얻어질 수 있다.
다음으로, 줌 렌즈가 최대 픽처 프레임내의 부분을 촬영하기 위해 최대 망원면(most telescopic side)으로 설정된다. 신호 처리 회로(22)는 움직이는 물체들의부품들이 상술한 것과 유사하게 비디오 화상(여가서는 부분적인 배경 화상으로 기술될 것임)으로부터 분리되는 고정된 배경부들만 분리한다. 그 다음, 분리된 부분적인 배경 화상이 부분적인 배경 화상의 최대 픽처 배경 화상의 일부를 판별하기 위해 버퍼 메모리내에 저장된 최대 픽처 프레임과 비교된다. 이 경우에, 부분적인 배경 화상의 픽처 프레임의 크기가 최대 프레임의 1/9일 때(즉, 최대 망원면에서의 픽처 프레임이 최대 광각면의 픽처 프레임의 1/9일 때), 부분적인 배경 화상의 픽셀들이 일치 패턴을 사용하는 최대 픽처 프레임 배경 화상과 비교하기 위해 수직 및 수평 방향의 1/3로 발췌된다.
이제, 단축된 부분적인 배경 화상부가 일치 패턴에 의해 예를 들어 제18도의 사선으로 도시된 최대 픽처 프레임의 좌상 코너에서 화상을 인식한다면, 부분적인 배경 화상부는 제17도의 사선으로 도시된 배경 플레인 메모리(23BG)의 대응하는 부분적인 스크린 어드레스로 기입된다. 이 때에, 기입되는 것은 발췌된 화상 데이타가 아니라 원래의 화상 데이타이다.
그 다음, 신호 처리 회로(22)는 배경 플레인 메모리(23BG)내에 기입될 제18도의 최대 픽처 프레임의 정지 화상들 중에서 기입이 완료된 부분적인 배경 화상의 위치를 저장한다.
다음으로, 줌 렌즈를 최대 망원면으로 유지하고, 최대 픽처 프레임의 다른 부분적인 배경 화상이 단축된다. 신호 처리 회로(22)는 부분적인 배경 화상이 상술한 것과 유사한 최대 픽처 프레임의 일부를 검색하고, 아직 배경 플레인 메모리(23BG)에 기입되지 않은 배경부를 배경 플레인 메모리(23BG)의 해당 어드레스 위치에 기입한다.
이러한 프로세스는 최대 픽처 프레임내의 모든 배경이 배경 플레인 메모리(23BG)로 기입될 때까지 수행된다. 최대 픽처 프레임이 기입될 때, 유니트는 예를 들어 비핑(beeping)에 의해 이것을 알린다.
최대 망원면으로 촬영하는 동안 움직이는 물체들로 각각 인식됨으로써 분리된 비행기, 원숭이 및 차량과 같은 움직이는 물체들은 최대 픽처 프레임 고정 배경 화상이 배경 플레인 메모리(23BG)에 등록될 때 움직임 플레인 메모리들(23A1 내지 23An; n은 자연수) 각각에 기입된다.
상술한 바와 같이 배경 플레인 및 다수의 움직임 플레인으로 분리되고, 플레인 메모리들(23BG 및 23A1 내지 23An)에 기입된 각각의 정지 화상의 화상 데이타는 비디오 카메라에 의한 실제적인 촬영 및 기록 이전에 제3도에 도시된 준비 기간에 미리 디스크(11)에 기록된다.
이 예에서, 배경 플레인에 대해, 배경 플레인 메모리(23BG)상에 촬영 및 기록되어 분리된 배경 화상의 픽처 프레임의 위치는 실제 촬영 및 기록이 배경 플레인 메모리(23BG)상에 개시될 때, 배경 화상의 픽처 프레임의 위치에 근거하여 픽처 프레임 위치를 나타내는 변화 정보(이후부터 프레임 위치 정보로 기술)로서 움직임 변화 정보 내에 포함된다. 그 다음, 상술한 대로 생성된 움직임 변화 정보 및 픽처 프레임 위치는 실시간으로 디스크(11)내에 기록된다.
이러한 목적을 위해, 신호 처리 회로(22)는 배경 플레인 및 촬영 및 기록 모드 동안 분리된 n개의 움직임 플레인 데이타를 사용하여 각각의 움직임 플레인내의움직이는 물체의 변화 정보와, 입력 디지탈 화상 신호로부터의 배경 화상의 픽처 프레임을 구한다. 그런 후 기록 처리 회로(25)를 거쳐 하나의 움직이는 물체의 움직임 플레인 메모리를 완성하기 위해 적절한 압축비로 압축 부호화시키기 위한 압축 부호화 회로(26)에 움직임 변화 정보 및 픽처 프레임 위치 정보를 공급한다.
그런데, 소정의 시점에서 2개의 움직이는 물체들이 겹친다면, 필요하다면 상술한 방법이 각각의 움직임 플레인 메모리가 움직임 플레인 메모리를 적절히 재기입함으로써 각각의 움직이는 물체만을 나타내는 움직임 플레인 데이타를 축적하는 것을 가능하게 하도록, 움직이는 물체들은 특정 시간 경과시 개별적으로 관찰될 수 있다.
이제 제19도를 참조하면, 배경 플레인상의 픽처 프레임 위치 정보 및 신호 처리 회로(22)에서의 각각의 움직이는 물체의 움직임 변화 정보를 발생시키기 위한 회로의 구조적인 예가 도시될 것이다.
픽처 프레임 위치 정보 및 움직임 변화 정보가 배경 플레인 메모리(23BG) 및 움직임 플레인 메모리들(23A1 내지 23An)내의 데이타를 사용하여 현재 화상 데이타로부터 발생된다. 제19도에 도시된 회로는 촬영 및 기록 개시키가 상술한 준비 기간이 지나간 후에 조작될 때 동작을 개시한다. 즉, 픽처 프레임 위치 정보 및 움직임 변화 정보는 이 예에서 실시간으로 기록된다.
즉, A/D 변환기(21)로부터의 비디오 데이타는 상술한 바와 같은 신호 처리 회로(22)에서 회로를 플레인 분리함으로써 한 장면의 배경 플레인 데이타 및 각각의 움직이는 물체들의 플레인 데이타로 분리된다. 그런 후, 배경 화상 및 각각의움직이는 물체의 정보의 한 프레임은 프레임 메모리들(71BG 및 71A1 내지 71An)내에 기입된다. 이들 프레임 메모리들(71BG 및 71A1 내지 71An)은 배경 플레인 및 움직이는 물체의 데이타가 하나의 프레임 메모리내에 기입될 때 2개의 프레임 버퍼로 구성되고, 배경 플레인 움직임 플레인상의 데이타는 픽처 프레임 위치 정보 및 움직임 변화 정보를 발생시키기 위한 데이타를 사용하기 위해 다른 프레임 메모리로부터 판독된다.
즉, 프레임 메모리(71BG)로부터의 배경 화상의 데이타는 픽처 프레임 위치 변화 검출 회로(73BG)로 공급되고, 프레임 메모리들(71A1 내지 71An)로부터의 각각의 움직이는 물체의 화상 데이타는 움직임 변화 검출 회로들(72A1 내지 72An)에 공급된다. 그리고, 배경 플레인 메모리(23BG)로부터의 최대 픽처 프레임 배경 데이타는 픽처 프레임 위치 변화 검출 회로(72BG)에 공급되고, 준비 기간 동안 움직임 플레인 메모리들(23A1 내지 23An)내에 저장된 움직임 플레인 데이타는 움직임 변화 검출 회로들(72A1 내지 72An)에 공급된다.
픽처 프레임 위치 변화 검출 회로(72BG)에서, 프레임 메모리(71BG)로부터의 최대 픽처 프레임 배경 화상과 배경 화상은 최대 픽처 프레임 배경 화상의 프레임 메모리(71BG)로부터의 배경 화상의 픽처 프레임 위치를 검출하고, 압축 부호화 회로(26)에 공급되는 픽처 프레임 위치 정보로서 변화 정보를 출력하기 위한 초기 위치로부터 변화를 검출하기 위해 비교된다.
움직임 변화 검출 회로들(72A1 내지 72An)은 각각의 움직임 플레인 메모리들(23A1 내지 23An) 및 각각의 프레임 메모리들(71A1 내지 71An)로부터의 동적 화상들내에 저장된 움직이는 물체의 패턴을 일치시킴으로써 움직이는 물체의 운동 벡터, 즉, 움직임의 방향과 정도를 구한다.
움직이는 물체가 그 움직임의 방향 및 형태가 변할 때, 일치 패턴의 오차는 심각하게 된다. 그런 후, 오차는 또한 본 실시예의 움직임 벡터와 함께 움직임 변화 정보로서 전송된다.
따라서 움직임 벡터 및 움직임 변화 검출 회로들(72A1 내지 72An)에 의해 얻어진 각각의 움직임 플레인 메모리내의 움직이는 물체의 일치 오차의 데이타는 압축 부호화 회로(26)에 공급된다.
압축 부호화 회로(26)는 입력 데이타를 압축한다. 상술한 바와 같이, 압축 후의 데이타량은 비디오 정보와 비교할 때 매우 작고, 실시간으로 디스크에 쉽게 기록할 수 있다.
그런데, 카메라가 줌될 때, 줌 비율 정보는 변화 정보 및 배경 플레인의 데이타내에 포함되어 있고, 움직임 플레인은 비디오 신호와 비교하기 위해 줌 비율에 대응하는 낮은 통과 필터(데이타의 발췌)를 통해 진행하도록 만들어진다. 촬영된 배경은 배경 플레인 메모리(23BG)로부터 재생되고, 배경 플레인과의 차는 픽처 프레임 정보와 함께 기록된다.
그런데, 배경 플레인의 픽처 프레임 위치 정보 대신, 초기 배경 화상의 설정 위치로부터 틸딩하거나 패닝시킴으로써 움직일 때 카메라의 움직임의 방향 및 거리를 검출하기 위한 감지기 수단이 감지기 수단에 의해 검출된 움직임의 방향 및 거리상의 정보를 기록하기 위해 제공될 수 있다.
또한, 움직이는 물체의 움직임 변화 정보로서, 제13도에 도시된 예측된 움직임 벡터 및 물체 변형 정보가 전송될 수 있다.
이제, 본 발명의 다른 실시예기 기술될 것이다.
본 실시예에서, 배경 플레인의 정지 화상 데이타는 기록될 수 없다. 오히려, 배경 플레인의 근사 정지 화상(approximate still image)이 자연물, 건물, 구조물, 생물 및 다른 미리 준비된 물건으로 구성된다고 가정되는 화소(image element)의 전형적인 화상 데이타로부터 생성되고, 근사 정지 화상을 구성하는 화소를 판별하기 위한 정보 및 스크린 위치 상의 정보가 화상 데이타의 기록 대신 기록된다.
그런 후, 근사 정지 화상과 정확한 배경 정지 화상 사이의 차는 배경의 변화 정보 내에 포함됨으로써 기록된다. 배경의 변화 정보는 촬영 픽처 프레임이 카메라부(1)에 의해 패닝, 틸팅 및 줌시킴으로써 변화될 때 변화하는 배경 화상 데이타를 포함한다.
움직이는 부분은 움직이는 물체의 정지 화상 데이타를 기록하고 각각의 움직임 플레인내의 움직이는 물체의 변화 정보를 기록하기 위해 각각의 움직임 플레인 메모리들(23A1 내지 23An)내에 등록된 움직이는 물체로 분리된다. 움직임 플레인의 정지 화상 데이타는 또한 배경 화상과 유사한 근사 정지 화상으로 대체되고, 이 경우에 그 판별 정보가 기록된다.
그리고 움직이는 부분에 대해, 근사 정지 화상과 각각의 움직이는 물체의 정지 화상간의 차, 움직이는 물체의 움직임 방향 및 거리 및 움직임에 대응하는 화상의 변화들이 움직이는 부분의 변화 정보로서 기록된다.
자연물, 건물, 구조물, 생물 등으로 구성된다고 가정되는 화소의 많은 수의 전형적인 화상 데이타는 예를 들어, 제20도에 도시된 바와 같이 화소 메모리(5)내에 저장된다. 화소 메모리(5)내에 저장된 화소들의 화상들은 미리 준비된 기준으로 제공된 화상들 및 촬영 및 저장된 화상들을 포함한다.
그러나, 소정의 화소들은 제5도의 어드레스들에 대응하여 가산된 판별 정보에 의해 판독될 수 있다. 예를 들어, 많은 수의 화소들이 제20도의 예에서 판별 및 판독될 수 있는 각각의 화소로 주어진다.
이제 제21도를 참조하면, 이 경우의 신호 처리 회로(22)의 구체적인 실시예가 기술될 것이다.
이 예에서, 신호 처리 회로(22)는 배경 플레인 및 준비 기간내의 움직임 플레인의 정지 화상으로 입력 화상 신호를 분리하고, 이것들을 배경 플레인 메모리(23BG) 및 움직임 플레인 메모리들(23A1 내지 23An)내에 기입한다. 또한, 화소 메모리(5)내의 화소를 사용하여 메모리들(23BG 및 23A1 내지 23An)의 정지 화상으로부터 근사 정지 화상을 발생시킨다.
신호 처리 회로(22)는 분리된 배경 플레인 메모리(23BG)를 기입한다. 신호 처리 회로(22)는 또한 각각의 23a로 분리된 n개의 움직임 플레인들을 기입한다(n : 자연수). 상술한 대로 배경 플레인 및 움직임 플레인들을 분리하기 위한 구체적인 실시예는 제5도에 도시된 실시예와 동일하므로, 그 설명은 생략한다.
배경 플레인 및 움직임 플레인들의 정지 화상이 입력 화상 신호로부터 분리되어 메모리들(23BG 및 23A1 내지 23An)로 분리될 때, 신호 처리 회로(22)는 각각의 근사 정지 화상들을 발생시키기 위해 이들 정지 화상들을 한 화소 메모리(65)의 화소로 대체한다.
즉, 신호 처리 회로(22)는 먼저 배경 플레인 메모리(23BG)내의 배경 정지 화상의 근사 정지 화상을 생성한다. 이것을 실시하기 위한 방법은 몇 가지가 있다. 예를 들어, 하나의 화상 소자는 메모리(23BG)의 정지 화상의 각 부분으로 화상 소자를 비교하고 조사하기 위해 화소 메모리(65)로부터 판독된다. 비교 오차가 임계값 보다 더 작을 때, 정지 화상부는 상기 화소로 대체된다. 이 때에, 스크린상의 대체된 정지 화상의 일부가 저장된다.
화소 메모리(65)의 각각의 화소에 대해, 화소의 전형적인 화상의 확대된 화상이 비교적 높은 명도로 저장된다. 화소가 화소 메모리(65)로부터 판독될 때, 그 크기는 대체될 배경 화상의 대응 부분의 크기에 적합하도록 특정화될 수 있다. 즉, 화소가 저장된 화상보다 큰 상태로 판독될 때, 화소는 데이타를 삽입(interposing)하는 동안 판독되고, 화소가 저장된 화상보다 작은 상태로 판독될 때에는 데이타가 크기를 조절하도록 발췌된다.
이 경우에, 화소 메모리(65)로부터 판독되고 배경 플레인으로 대체될 화소는 예를 들어 카메라부(1)의 뷰 파인더(도시되지 않음)상의 화소 메모리(65)의 모든 화소를 스크롤링(scrolling)함으로써 이 경우의 번호로 선택되고 특정될 수 있다. 또한 상술한 바와 같이 자동적으로 모든 화소의 조사가 가능하다.
따라서 재생된 근사 배경 정지 화상은 근사 배경 플레인 메모리(64BG)내에 기입된다.
그리고 각각의 움직임 플레인 메모리들(23A1 내지 23An)내의 움직이는 물체의 정지 화상에 대해, 근사적인 움직이는 물체 정지 화상은 화소 메모리(65)내의 화소를 사용하여 생성되고, 근사 정지 화상 데이타는 움직임 플레인 메모리들(64A1 내지 64An)내에 기입된다.
상술한 것처럼 근사 정지 화상이 생성되어 근사 플레인 메모리들(64A1 내지 64An)내에 기입될 때, 압축 회로(24)는 근사 정지 화상의 화상 데이타의 기록 정보 대신 근사 정지 화상을 포함하는 화소의 판별 정보, 즉, 이 예에서는 판별 번호 및 화소에 의해 점유된 스크린상의 위치를 나타내는 정보의 기록 정보를 생성하기 위한 프로세스를 실시한다. 그런데, 근사 움직이는 물체 정지 화상의 경우에는, 상기 움직이는 물체의 정지 화상의 화상 데이타가 전송될 때에 스크린상의 위치 정보가 변화 정보 내에 포함되어 기록될 수 있기 때문에, 준비 기간의 기록 정보에 포함될 필요가 없다.
압축 회로(24)로부터의 정지 화상상의 기록 정보는 기록 처리 회로(25)에 공급된다. 기록 처리 회로(25)의 출력 데이타는 광자기적으로 디스크(11)상에 기록되기 위해 헤드 구동 회로(27)를 경유하여 기록하는 기록 헤드(13)에 실제적으로 공급된다.
이 예에서, 신호 처리 회로(22)는 촬영 및 기록 개시키가 비디오 카메라부(1)에서 실제로 조작된 이후의 촬영 및 기록중에 상술한 준비 기간에서와 유사하게 먼저 배경 화상 및 각각의 움직이는 물체의 정지 화상들로 비디오 신호를 분리한다. 그런 후, 분리된 정지 화상들은 상술한 바와 같이 변화 정보를 발생하기위해 근사 배경 플레인 메모리(64BG) 및 각각의 근사 플레인 메모리들(64A1 내지 64An)내에 등록된 근사 배경 정지 화상 및 근사 움직이는 물체 정지 화상 데이타와 비교된다.
본 발명의 다른 실시예가 설명될 것이다.
본 실시예에서, 제22도에서 도시된 바와 같이, 한 장면이 정지 화상들의 플레인 데이타(Ra)를 분리하기 위한 기간, 변화 정보를 발생 및 기록하고 플레인 데이타(Rb)를 갱신하기 위한 기간 및 플레인 데이타(Rc)를 기록하기 위한 기간으로 나누어짐으로써 기록된다.
분리 기간(Ra)내에 기록된 플레인 데이타는 없다. 오히려, 플레인 데이타가 분리되고, 분리된 플레인 데이타는 후술하는 바와 같이, 플레인 메모리들(23BG 및 23A1 내지 23An)내에 기입된다.
기간(Rb)에서, 변화 정보는 플레인 메모리들(23BG 및 23A1 내지 23An)내의 플레인 데이타로부터 생성되고, 입력 화상 신호가 기록된다. 동시에, 각각의 메모리들(23A1 내지 23An)내의 플레인 데이타는 변화 정보를 사용하여 갱신된다.
기간(Rc)은 한 장면의 화상 신호의 종료 후의 기간이다. 즉, 변화 정보는 기간(Rb) 동안 입력 화상 신호에 대응하여 실시간으로 거의 기록된다. 플레인 메모리들내에 갱신 저장된 각각의 플레인 데이타는 변화 정보를 기록하기 위해 종료 후 기록된다. 기간(Rc)이 입력 신호의 실시간 기록 후의 기간이기 때문에, 기록은 충분한 시간을 가지고 수행된다. 이 때문에, 플레인 데이타는 압축 없이 또는 낮은 압축비로 기록될 수 있다.
이 경우에, 한 장면의 플레인 데이타는 예를 들어 제4도에 도시된 것과 같은 480 × 720 픽셀들로 구성된다. 이 예의 경우에서, 움직임 플레인 메모리들(23A1 내지 23An)은 정지 화상 데이타의 한 장면을 기입할 수 있는 용량을 갖는 메모리들로 구성될 수 있다. 그러나, 카메라의 패닝, 틸팅 및 줌을 고려하여, 배경 플레인 메모리(23BG)는 한 장면 또는 이 예에서는 다수의 스크린보다 많은 픽셀 데이타를 저장할 수 있는 큰 용량 메모리로 구성된다. 즉, 배경 플레인 메모리(23BG)에는 제23도에 도시된 바와 같이 수직 방향으로 (480 × a)의 픽셀 샘플 데이타 및 수평 방향으로 (720 × b) 픽셀을 기입할 수 있는 용량이 제공된다.
배경 플레인 메모리(23BG)가 상술한 바와 같은 큰 용량을 갖기 때문에, 예를 들어, 배경 플레인 메모리(23BG)내에 기입될 제5도의 중심에서 픽처 프레임(BGs)내의 배경 화상으로 모아지는 중심 배경 화상 주위로 패닝 또는 틸팅시킴으로써 변화될 때, 배경 화상은 배경이 픽처 프레임으로 들어오는 것을 허용한다. 즉, 배경 플레인 메모리(23BG)의 모든 영역들 내에 기입된 배경 화상은 하나의 스크린으로 디스플레이된 픽처 프레임에 비교할 때 수직 방향으로는 a배 만큼 넓고, 수평 방향으로는 b배만큼 넓은 범위를 갖는다.
이것 때문에, 배경 화상이 배경 플레인 메모리(23BG)의 전체 범위내에 기입될 때, 카메라가 중앙부에서 하나의 스크린의 픽처 프레임의 배경 화상을 광각으로 설정하기 위해 줌되는 경우에, 줌 범위내의 모든 배경 화상은 범위가 상술한 값(a 및 b)에 대응하는 광각 범위내에 제공된 배경 플레인 메모리(23BG)내에 기입된다.
기간(Ra)에서, 한 스크린의 배경 화상의 데이타는 후술되는 것처럼 제23도에서 도시된 바와 같이 배경 플레인 메모리(23BG; 초기 배경 플레인으로서 기술됨)의 중앙에서 대부분의 어드레스로 픽처 프레임(BGs)의 위치에 기입되고, 각각의 움직이는 물체의 분리되어 얻어진 정지 화상의 한 장면은 각각의 움직임 플레인 메모리들(23A1 내지 23An)내에 기입된다.
기간(Ra) 동안의 플레인 분리 및 저장 동작은 상술한 실시예에서의 동작과 동일하므로 설명이 생략되었다.
상술한 대로 분리된 초기 플레인 데이타는 다음과 같은 문제점이 있다.
배경 플레인(BG)에 대해 먼저 고려하면, 소정의 시점에서 움직이는 물체(M)에 의해 숨겨진 배경부가 움직이는 물체가 제24도에 도시된 위치로부터 완전히 벗어나 운동할 때 나타난다. 그러나, 기간(Ra)은 움직이는 물체의 일부가 초기 배경 플레인내에 포함되도록 움직이는 물체를 완전히 움직이게 하고, 숨겨진 부분을 나타내기 위한 기간으로 단축된다. 이 문제는 움직이는 물체(M)의 움직임의 변화에 대응하는 배경의 변화를 구하고, 배경 플레인을 갱신함으로써 해결될 수 있다. 그런 후, 배경 플레인 메모리(BG)의 내용은 다음 기간(Rb) 동안 갱신된 것을 재기입된다.
또한 움직임 플레인에 대해 고려하면, 움직이는 물체(M)가 상술한 바와 같이 움직임 픽셀의 세트들로 분리된다. 이것 때문에, 움직임이 느릴 때, 움직임이 나타나지 않는 움직이는 부분이 마이크로 초 정도로 나타날 수 있다. 즉, 움직이는 물체(M)가 차량일 때, 예를 들어 차량이 제23B에 도시된 바와 같이 기간(Ra) 동안 실선 부분으로부터 점선 부분까지 느리게 움직일 때, 사선으로 표시된 옆문(sidedoor; sd)의 일부는 움직이는 부분으로 될 수도 있고, 배경으로 될 수도 있다. 그러나, 이 문제점은 또한 움직이는 물체의 변화에 대응하는 움직임 플레인을 재기입함으로써 해결될 수 있다. 그런 후, 움직임 플레인의 내용은 다음 기간(Rb) 동안에 갱신된다.
기간(Rb) 동안, 신호 처리 회로(22)는 또한 상술한 기간(Ra)에서와 유사한 방식으로 먼저 비디오 신호를 배경 플레인 및 각각의 움직이는 물체의 정지 화상으로 분리한다. 그 다음, 분리된 정지 화상은 변화 정보를 생성하기 위해 초기 배경 플레인과 배경 플레인 메모리(23BG) 및 각각의 움직임 플레인 메모리들(23A1 내지 23An) 내에 등록된 움직임 플레인 데이타를 비교한다.
배경 정지 화상에 대해, 미래의 변화 방향 및 변이(패닝 및 틸팅 및 줌 비율의 방향 및 정도 등)의 데이타(Vs) 및 배경 정지 화상의 변이의 화상 데이타(Δ Ps)는 배경 플레인 메모리(23BG)상의 초기 배경 플레인의 정지 화상의 픽처 프레임(BGs)의 위치에 기초된 배경 플레인에 대한 변화 정보로서 생성된다. 또한, 각각의 움직이는 물체에 대해서는, 회전 및 형태의 변화와 같은 움직임 변화에 의해 생기는 움직임 플레인과는 다른, 각각의 움직이는 물체의 움직임 방향 및 움직임 거리(Vm) 및 화상 데이타(ΔPm)가 생성된다.
그 다음, 상술한 바와 같이 생성된 변화 정보는 디스크(11)상에 실시간으로 기록된다. 이에 의해, 배경 화상(ΔPs 및 Vs)의 변화 정보 및 각각의 움직이는 물체(ΔPml 내지 ΔPmn 및 Vml 내지 Vmn)의 변화 정보가 디스크(11)상에 기록된다.
기록에 따라, 신호 처리 회로(22)는 픽처 프레임(BGs)내의 정지 화상 데이타를 갱신 및 교정하고, 패닝 및 틸팅 등에 의해 픽처 프레임(BGs) 아래에 배경으로 증가된 영역을 포함하는 화상 데이타를 배경 플레인 메모리(23BG)내에 기입하기 위해 배경 정지 화상의 변이, 즉, 픽처 프레임(BGs)내의 변이의 화상 데이타를 구한다. 예를 들어, 픽처 프레임 위치가 패닝, 틸팅 등에 기인하여 변하거나 촬영된 배경 정지 화상의 일부가 제23도의 점선으로 도시된 정지 화상(BGp)로 바뀔 때, 제23도에서 사선으로 도시된 화상 데이타는 메모리(23BG)에 가산된다.
이와 유사하게, 각각의 움직임 플레인 메모리들(23A1 내지 23An)의 내용들은 움직임 플레인의 변이로부터 재기입된다.
따라서, 배경 플레인 메모리(23BG) 및 각각의 움직임 플레인 메모리들(23A1 내지 23An)내의 정지 화상 데이타는 재기입되고, 내용이 배경 플레인 메모리(23BG) 내에 저장되는 배경 플레인의 데이타는 초기 배경 플레인보다 더 적절하게 되어 하나의 스크린보다 넓은 범위를 갖는 배경 플레인의 데이타로 변한다.
그런 후, 다음 변화 정보가 재기입된 플레인 데이타에 기초하여 생성된다.
그러나, 배경의 변화 정보를 생성하기 위한 베이시스는 초기 배경 플레인의 픽처 프레임 위치의 한 스크린의 정보이다.
상술한 변화 정보의 발생 및 배경 플레인 메모리(23BG)으로의 정지 화상 데이타의 재기입 및 각각의 움직임 플레인 메모리들(23A1 내지 23An)이 한 장면이 끝나기 전에 수행된다.
상술한 한 장면의 변화 정보의 기록을 끝낸 후, 기간(Rb) 동안 순차적으로 갱신된 배경 플레인 메모리(23BG) 및 각각의 운동 플레인 메모리들(23A1 내지23An)내의 정지 화상 정보는 기간(Rc) 동안 기록된다.
패닝, 틸팅 및 줌시킴으로써 장면에 사용된 모든 배경 화상들은 상술한 바와 같이 배경 플레인 메모리(23BG)내에 저장된다. 그러나, 정지 화상(BGs)에 반하는 초기 배경 플레인의 변화된 정지 화상 정보(증가된 정보)는 배경 플레인의 변화 정보로서 디스크(11)상에 기록된다.
기록이 끝난 후, 초기 배경 플레인 대신 배경 플레인 메모리(23BG)의 내용이 배경 플레인의 변화 정보를 구하기 위한 베이시스로서 배경 플레인 데이타로 적합하다면, 각각의 운동 프레임의 배경 데이타로서 배경 플레인내의 픽처 프레임 위치를 나타내는 정보를 기록함으로써 재생 측에 각각의 프레임의 배경 정지 화상을 쉽게 생성하는 것이 가능하게 된다. 이것을 행함으로써, 배경 플레인의 화상 변화 정보는 기록될 필요가 없고, 얼마간의 기록된 데이타량이 감소될 것이다. 더우기, 재생된 화상의 열화가 없다.
상술한 점들을 고려하여, 이 예에서 디스크(11)상에 기록된 정보가 재생되어 다시 기록된다.
즉, 제25도에 도시된 바와 같이, 재기록(re-recording)이 실시될 때 기간(Rc) 후에 재기록 기간이 제공된다. 이 때에, 재기록 기간 이전의 기간(Rc) 동안, 배경 플레인 데이타는 기록이 끝난 후 배경 플레인 메모리(23BG)내의 정보로서, 즉, 좋은 고정 배경 화상으로 분리되고, 확대된 픽처 프레임의 정지 화상 정보(BGL)가 이 예에서 기록된다. 또한, 한 장면이 끝난 후의 n개의 운동 물체들에 대해, 적합한 것으로 고려되는 각각의 운동 플레인 메모리들(23A1 내지 23An)의 정지 화상 데이타가 기록된다.
재기록 기간 동안, 기록된 신호(변화 정보)는 후술될 기록 유니트에 의해 화상을 재생하기 위해 재생된다. 그리고 나서, 새로운 변화 정보가 재생된 신호로부터 생성되고 메모리들(23BG 및 23A1 내지 23An)로부터의 데이타가 기록된다. 기록 동안, 픽처 프레임 위치(BGs)에 반하는 초기 배경 플레인의 변화된 위치가 검출 및 발생되고, 이 정보만이 배경 플레인에 반하는 변화 화상 정보(ΔPs)를 기록하지 않고 기록된다.
즉, 초기 배경 플레인의 정보(ST)가 기록된 확대된 배경 플레인(BGL)상의 픽처 프레임 위치(BCs)에 처음으로 기록된다. 이것은 배경 플레인 메모리(23BG)상의 확대된 배경 플레인의 정지 화상의 좌상 코너의 어드레스 정보일 수 있다. 다음으로, 변화가 각각의 재생된 프레임의 배경 화상의 픽처 프레임 위치 변화 방향 및 변이의 정보(Vs)로부터 구해진 후에 픽처 프레임 위치 정보(FLs)가 상기 프레임의 배경 플레인의 정보로서 기록된다. 이 픽처 프레임 위치 정보(FLs)는 또한 배경 플레인 메모리(23BG)상의 확대된 배경 플레인 상의 정지 화상으로 상기 픽처 프레임의 좌상 코너에서의 어드레스 정보일 수 있다.
상기 프레임의 배경 화상의 픽처 프레임 위치 정보가 재생 측에서의 정보(Vs)로부터 구해지도록 배열된다면, 변화 방향 및 변이의 정보(Vs)가 기록될 수 있다.
상술한 바와 같이, 재기록은 배경 화상에 대해 각각의 프레임(또는 필드)의 화상 변이의 정보(Ps)를 기록할 필요를 제거하여, 기록된 정보량을 감소시키게 한다. 또한, 예를 들어 VTR의 복사본의 기록과 다른 재기록이더라도 화상의 질이 전혀 열화되지 않을 것이다.
기록된 데이타량은 갱신된 플레인 데이타에 기초하여 갱신함에 의해 움직임 플레인들의 변화 정보를 재기록함으로써 마찬가지로 감소될 수 있다.
또한, 확대된 픽처 프레임상의 정보를 제외한 움직임 정보는 화상 내용들이 정지 화상 플레인 데이타로서 서로 다른 다수의 정지 화상을 기록함으로써 움직이는 물체들에 대해 감소될 수 있다.
즉, 예를 들어, 차량이 회전하는 동적 화상을 가정하면, 차량의 정면, 측면 및 뒷면의 정지 화상이 차량 플레인으로 준비되고 플레인 번호가 이들 각각에 주어진다. 그런 후, 본 화상내의 차량 촬영상의 변화 정보를 구함에 있어서, 변화 정보로서 입력되어 기록된 데이타량은 차량 플레인과의 차 (변이)가 작은 플레인 번호 및 그 변이를 기록함으로써 감소될 수 있다.
재생 동안 배경 플레인의 픽처 프레임 위치는 제16도에 도시된 키 그룹(4)내의 픽처 프레임 변화키를 조작함으로써 기록된 픽처 프레임 위치 정보에 반하여 수직 및 수평 방향으로 변화될 수 있다. 즉, 픽처 프레임 위치 변화키가 조작될 때, 픽처 프레임 위치는 재생된 프레임 위치 정보에 의해 정의된 픽처 프레임 위치로부터 특정화된 방향으로 변화키에 의해 변화되고, 변화된 픽처 프레임 위치에서의 배경 플레인은 배경 플레인(83BG)으로부터 판독된다. 즉, 재생중 배경 플레인의 픽처 프레임 위치는 프레임 위치 변화키에 의해 배경 플레인의 범위내의 임의적인 위치로 변화될 수 있다.
또한, 재생 줌 키가 제공되고, 그것이 조작될 때, 줌 비율에 대응하여 확대된 또는 감소된 픽처 프레임의 배경 화상은 메모리(83BG)로부터 판독된다. 이 때에, 데이타는 720 픽셀 X 480 라인의 한 스크린의 데이타에 따르도록 줌 비율에 대응하여 보간되거나 발췌된다. 따라서 사용자는 촬영중 픽처 프레임 위치와 관계없이 재생 측에서 원하는 그래픽 형성을 즐길 수 있다.
신호 처리 회로(85)로부터의 동적 화상 데이타는 D/A 변환기(86)에 의해 원래의 아날로그 신호로 되돌아가고, 출력 단자와 접속된 화상 모니터링 유니트상에 재생된 비디오를 영상화하기 위해 출력 단자(87)로부터 인입된다.
상술한 바와 같이, 각 장면의 동적 화상은 먼저 디스크로부터 장면마다 배경 플레인 및 움직임 플레인을 판독한 후 디스크로부터 순차적으로 음직임 변화 정보를 판독으로써 재생될 수 있다. 이 경우에, 각 장면의 움직임 변화 정보의 정보량이 매우 적기 때문에, 버퍼 메모리는 각 플레인 데이타에 따라 취해지는 움직임 변화 정보를 저장하고, 실시간으로 동적 화상에 대응하는 한 장면의 움직임 변화 정보를 취하는 것 이외의 동적 화상에 대응하는 버퍼 메모리로부터 순차적으로 움직임 변화 정보를 판독하기 위해 제공될 수 있다.
이러한 경우에, 동적 화상 재생 프로세스와 디스크로부터의 재생 신호의 추출이 분리될 수 있어서, 다음 장면의 플레인 데이타가 디스크로부터 추출될 수 있고, 이전의 장면이 재생되는 동안 다른 플레인 메모리내에 저장될 수 있다. 이에 의해, 다수의 장면들이 중단 없이 연속적으로 재생될 수 있다.
본 발명에 따라, 상술한 바와 같이, 화상은 배경 화상의 변화 및 움직임 플레인으로 분리되고, 고 화상 품질로 전송되며, 배경 화상의 전송 변화 및 움직임 플레인들 내의 움직임 변화로 구성되어, 고 품질 및 유연한 동적 화상이 낮은 전송율을 갖는 전송 매체인 경우에도 전송될 수 있다.
예를 들어, 화상 데이타를 압축하는 종래의 MPEG 방법이 공지된다. 이것은 한 프레임의 화상 데이타가 먼저 송신된 후, 제1 화상과의 사이의 차를 잔여 데이타를 압축 및 송신하기 위해 취하는 기록 방법이다. MPEG에서, 한 프레임의 제1 화상 데이타의 많은 비트들이 예를 들어 데이타 압축 상태에서 400 Kbit로 설정된다.
400 Kbit 화상은 한 프레임 데이타이고, 이것이 bps의 항으로 표현될 때, 하나의 장면이 30 프레임으로 구성되기 때문에 400 Kbit는 12 Mbps와 동일하다. 따라서, 좋은 고 품질 화상이 얻어질 수 있다. 잔여 데이타만이 이후의 데이타로서 송신되기 때문에 재생된 화상은 MPEG에서 열화되고, 제1의 한 프레임 자체는 좋은 품질을 갖는다.
이와 대조적으로, 본 발명의 구성에 따라, 배경 플레인 및 움직임 플레인들의 다수의 화상 플레인들의 데이타는 MPEG와 동일한 12 Mbps에 같은 화상 데이타로 서 송신되고, 동적 화상은 이들 좋은 품질의 움직임 플레인들을 움직이게 하고 작은 수의 비트로 송신된 움직임 변화 정보에 기초된 배경 플레인으로 구성함으로써 재생되어, 화상 품질이 좋고, 움직임 벡터의 데이타가 실시간 데이타이므로 움직임이 또한 좋으며, 어색하지 않다.
그런데, 본 발명은 상술한 바와 같이 움직이는 물체들의 정지 화상들로 구성된 다수의 움직임 플레인들로 분리되는 것이 아니라 다수의 움직이는 물체들을 포함하는 움직임 데이타를 압축하고 배경 플레인으로부터 분리함으로써 배경 플레인으로부터 분리된 움직임 데이타를 기록하는 유니트에 응용될 수 있다.
광자기 디스크가 상술한 예에서 비디오 데이타의 전송 매체로서 사용될 지라도, 테이프 및 다른 기록 매체도 본 발명에 사용될 수 있다.
본 발명의 양호한 실시예가 특정 용어를 사용하여 설명되었지만, 이러한 설명은 단지 예시적인 목적이므로, 변화 및 변경이 첨부된 특허 청구 범위의 범위 및 취지에서 벗어나지 않고 이루어질 수 있다는 것을 이해해야 한다.
제1도는 본 발명의 디지탈 비디오 신호 송신기의 한 실시예로서의 디스크 기록 유니트의 블럭도.
제2도는 본 발명의 주요 부분을 설명하기 위한 도면.
제3도는 제1도에 도시된 실시예의 신호 기록 타이밍을 설명하기 위한 도면.
제4도는 제1도의 실시예를 설명하기 위한 도면.
제5도는 본 발명의 신호 처리 회로(22)의 한 실시예의 블럭도.
제6도는 제5도의 신호 처리 회로의 동작을 설명하기 위한 도면.
제7도는 제5도의 신호 처리 회로의 동작을 설명하기 위한 도면.
제8도는 제5도의 실시예의 동작의 흐름의 일부를 도시하는 플로우차트.
제9도는 제5도의 실시예의 동작의 흐름의 일부를 도시하는 플로우차트.
제10도는 제5도의 신호 처리 회로의 동작을 설명하기 위한 도면.
제11도는 제5도의 신호 처리 회로의 동작을 설명하기 위한 도면.
제12도는 본 발명의 움직임 변화 정보 검출 회로(31)의 한 실시예의 블럭도.
제13도는 본 발명의 움직임 변화 정보 검출 회로(31)의 다른 실시예의 블럭도.
제14도는 본 발명의 다른 실시예를 설명하기 위한 도면.
제15도는 본 발명의 다른 실시예를 설명하기 위한 도면.
제16도는 본 발명의 디지탈 비디오 신호 수신기의 한 실시예의 블럭도.
제17도는 본 발명의 배경 플레인 메모리(23BG)의 한 실시예를 설명하기 위한 도면.
제18도는 배경 화상의 한 예를 도시하는 도면.
제19도는 본 발명의 움직임 변화 정보 검출 회로(31)의 한 실시예를 도시하는 도면.
제20도는 본 발명의 근사적인 배경 정지 화상 데이타 및 근사적인 움직이는 물체 정지 화상 데이타를 설명하기 위한 도면.
제21도는 본 발명의 신호 처리 회로(22)의 다른 실시예의 블럭도.
제22도는 본 발명의 신호 기록의 타이밍을 설명하기 위한 도면.
제23도는 본 발명의 배경 플레인 메모리(23BG)의 다른 예를 설명하기 위한 도면.
제24A도 및 제24B도는 본 발명의 배경 플레인 메모리(23BG)의 한 예를 설명하기 위한 도면.
제25도는 본 발명의 신호 기록 타이밍을 설명하기 위한 도면.
도면의 주요 부분에 대한 부호의 설명
1 : 비디오 카메라부 2 : 신호 기록 시스템
3 : 시스템 제어기 10 : 디스크 구동 시스템
11 : 광자기 디스크 13 : 자기 헤드
22 : 신호 처리 회로 23BG : 배경 플레인 메모리
23A1∼23An : 움직임 플레인 메모리
24 : 압축 회로 26 : 압축 부호화 회로
31 : 배경 플레인 32 ∼ 34 : 움직임 플레인 메모리
62 : 움직임 플레인 분리 회로 62M : 차동 회로
Claims (9)
- 디지탈 비디오 데이타의 수개의 프레임이 공급되어 상기 디지탈 비디오 데이타의 정지 화상을 나타내는 배경 플레인 데이타 및 상기 디지탈 비디오 데이타의 움직임 화상을 나타내는 적어도 하나의 움직임 플레인 데이타를 발생하기위한 플레인 데이타 발생 수단;각각이 상기 배경 플레인 데이타 및 상기 적어도 하나의 움직임 플레인 데이타를 저장하기 위한 다수의 메모리 수단;상기 메모리 수단 내에 저장된 상기 움직임 플레인 데이타와 상기 디지탈 비디오 데이타의 현재 프레임의 상기 움직임 플레인 데이타 간의 차를 나타내는 움직임 플레인 변화 정보를 검출하기 위한 변화 정보 검출 수단; 및상기 메모리 수단에 저장된 상기 배경 플레인 데이타와 상기 움직임 플레인 데이타 및 움직임 플레인 변화 정보를 전송하기 위한 전송 수단을 포함하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제1항에 있어서, 상기 변화 정보 검출 수단과 상기 전송 수단 사이에 접속되어 상기 변화 정보의 압축된 변화 정보를 발생하여 상기 압축된 변화 정보를 상기 전송 수단으로 출력하기 위한 변화 정보 압축 수단을 더 포함하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제2항에 있어서, 상기 배경 플레인 데이타 및 상기 움직임 플레인 데이타가 공급되어 압축된 배경 플레인 데이타 및 압축된 움직임 플레인 데이타를 발생시키기 위한 플레인 데이타 압축 수단을 더 포함하며, 상기 플레인 데이타 압축 수단의 압축 효율이 상기 변화 정보 압축 수단의 효율보다 낮은 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제1항에 있어서, 상기 배경 플레인 데이타를 저장하기 위한 상기 메모리 수단은 상기 디지탈 비디오 데이타의 한 스크린보다 넓은 범위의 픽처 프레임의 배경 플레인 데이타를 저장하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호 화하기 위한 장치.
- 제1항에 있어서, 상기 변화 정보 검출 수단은 상기 메모리 수단 내에 저장된 상기 배경 플레인 데이타 및 상기 디지탈 비디오 데이타의 상기 현재 프레임의 배경 플레인 데이타 간의 차를 나타내는 배경 플레인 변화 정보를 더 검출하고, 상기 메모리 수단이 디지탈 비디오 데이타의 한 스크린보다 넓은 범위의 픽처 프레임을 갖는 배경 플레인 데이타를 저장하도록 상기 배경 플레인 변화 정보에 기초하여 상기 메모리 수단 내에 저장된 배경 플레인 데이타를 갱신하기 위한 제어 수단을 더 포함하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제5항에 있어서, 상기 제어 수단은 상기 갱신된 배경 플레인 데이타에 기초하여 상기 배경 플레인 변화 정보를 재생성시키는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제6항에 있어서, 상기 전송 수단은 상기 재생성된 배경 플레인 변화 정보뿐만 아니라 배경 플레인 데이타로서 상기 갱신된 배경 플레인 데이타를 전송하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 제5항에 있어서, 상기 제어 수단은 상기 움직임 플레인 변화 정보에 상기 배경 플레인 상의 위치를 나타내는 데이타를 가산하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
- 디지탈 비디오 데이타의 수개의 프레임이 공급되어 상기 디지탈 비디오 데이타의 정지 화상을 나타내는 배경 플레인 데이타 및 상기 디지탈 비디오 데이타의 움직임 화상을 나타내는 적어도 하나의 움직임 플레인 데이타를 발생시키기 위한 플레인 데이타 발생 수단;다수의 전형적인 화상 데이타를 저장하기 위한 전형적인 화상 저장 수단;각각이 상기 배경 플레인 데이타 및 상기 적어도 하나의 움직임 플레인 데이타를 저장하기 위한 다수의 메모리 수단;선택된 전형적인 화상 데이타에 대응하는 판별 데이타 및 상기 전형적인 화상 데이타의 위치를 나타내는 위치 데이타를 얻기 위해 상기 메모리 수단 내에 저장된 상기 배경 플레인 데이타 또는 상기 움직임 플레인 데이타로부터 상기 전형적인 화상 데이타 중 가장 유사한 전형적인 화상 데이타를 선택하기 위한 수단;상기 전형적인 화상 데이타 및 상기 디지탈 비디오 데이타의 현재 프레임의 움직임 플레인 데이타 간의 차를 나타내는 움직임 플레인 변화 정보를 검출하기 위한 변화 정보 검출 수단; 및상기 움직임 플레인 변화 정보뿐만 아니라 식별 데이타 및 위치 데이타를 전송하기 위한 전송 수단을 포함하는 것을 특징으로 하는 디지탈 비디오 데이타를 부호화하기 위한 장치.
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP93-195214 | 1993-07-12 | ||
JP19521493 | 1993-07-12 | ||
JP93-202856 | 1993-07-23 | ||
JP20285693A JP3543978B2 (ja) | 1993-07-23 | 1993-07-23 | デジタル画像信号の伝送装置、受信装置およびデジタル画像信号の記録装置、再生装置 |
JP93-204505 | 1993-07-27 | ||
JP20450593A JP3263749B2 (ja) | 1993-07-27 | 1993-07-27 | デジタル画像信号の記録装置 |
JP93-207301 | 1993-07-29 | ||
JP20730193A JP3318848B2 (ja) | 1993-07-29 | 1993-07-29 | デジタル画像信号の伝送装置 |
JP21808093A JP3271634B2 (ja) | 1993-08-10 | 1993-08-10 | デジタル画像信号の伝送装置及び受信装置 |
JP93-218080 | 1993-08-10 | ||
JP93218080 | 1993-08-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR960015525A KR960015525A (ko) | 1996-05-22 |
KR100292138B1 true KR100292138B1 (ko) | 2002-06-20 |
Family
ID=27553696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019940016622A KR100292138B1 (ko) | 1993-07-12 | 1994-07-11 | 디지탈비디오신호용송신기및수신기 |
Country Status (2)
Country | Link |
---|---|
US (3) | US5706367A (ko) |
KR (1) | KR100292138B1 (ko) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3788823B2 (ja) * | 1995-10-27 | 2006-06-21 | 株式会社東芝 | 動画像符号化装置および動画像復号化装置 |
WO1997046020A2 (en) * | 1996-05-24 | 1997-12-04 | Philips Electronics N.V. | Motion vector processing |
US6205253B1 (en) | 1996-08-19 | 2001-03-20 | Harris Corporation | Method and apparatus for transmitting and utilizing analog encoded information |
US5790196A (en) * | 1997-02-14 | 1998-08-04 | Mitsubishi Electric Information Technology Center America, Inc. | Adaptive video coding method |
US5969764A (en) * | 1997-02-14 | 1999-10-19 | Mitsubishi Electric Information Technology Center America, Inc. | Adaptive video coding method |
KR100239308B1 (ko) * | 1997-02-18 | 2000-01-15 | 전주범 | 적응적 윤곽선 부호화 방법 및 그 장치 |
JP3546654B2 (ja) * | 1997-08-07 | 2004-07-28 | 株式会社日立製作所 | 情報記録装置及び情報記録方法 |
JP4016227B2 (ja) * | 1998-01-07 | 2007-12-05 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
JP4496595B2 (ja) * | 1999-03-29 | 2010-07-07 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに記録媒体 |
JP4224748B2 (ja) * | 1999-09-13 | 2009-02-18 | ソニー株式会社 | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置 |
JP3873554B2 (ja) * | 1999-12-27 | 2007-01-24 | 株式会社日立製作所 | 監視装置、監視プログラムが記録された記録媒体 |
US6738424B1 (en) | 1999-12-27 | 2004-05-18 | Objectvideo, Inc. | Scene model generation from video for use in video processing |
US7123166B1 (en) * | 2000-11-17 | 2006-10-17 | Haynes Michael N | Method for managing a parking lot |
US6940998B2 (en) | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
US6668070B2 (en) | 2000-03-29 | 2003-12-23 | Sony Corporation | Image processing device, image processing method, and storage medium |
CN1214644C (zh) * | 2000-05-19 | 2005-08-10 | 皇家菲利浦电子有限公司 | 方法、系统和装置 |
KR100630667B1 (ko) * | 2000-08-25 | 2006-10-02 | 삼성전자주식회사 | 반도체 장치의 커패시터 제조방법 |
WO2002035843A1 (en) * | 2000-10-25 | 2002-05-02 | Dynapel Systems, Inc. | Video motion focus control |
KR100390672B1 (ko) * | 2000-12-01 | 2003-07-07 | (주)아이디스 | 영상 압축 장치 및 방법 |
US7650058B1 (en) * | 2001-11-08 | 2010-01-19 | Cernium Corporation | Object selective video recording |
US20060165386A1 (en) * | 2002-01-08 | 2006-07-27 | Cernium, Inc. | Object selective video recording |
US7190809B2 (en) * | 2002-06-28 | 2007-03-13 | Koninklijke Philips Electronics N.V. | Enhanced background model employing object classification for improved background-foreground segmentation |
US7528881B2 (en) * | 2003-05-02 | 2009-05-05 | Grandeye, Ltd. | Multiple object processing in wide-angle video camera |
US20100002070A1 (en) | 2004-04-30 | 2010-01-07 | Grandeye Ltd. | Method and System of Simultaneously Displaying Multiple Views for Video Surveillance |
WO2005026488A1 (ja) * | 2003-09-08 | 2005-03-24 | Sony Corporation | 制御装置および制御方法、記録媒体、プログラム、並びに建造物 |
US7280673B2 (en) * | 2003-10-10 | 2007-10-09 | Intellivid Corporation | System and method for searching for changes in surveillance video |
WO2005079074A1 (en) * | 2004-01-16 | 2005-08-25 | Koninklijke Philips Electronics N.V. | Method for compressing/decompressing video information |
US8427538B2 (en) * | 2004-04-30 | 2013-04-23 | Oncam Grandeye | Multiple view and multiple object processing in wide-angle video camera |
US8730322B2 (en) | 2004-07-30 | 2014-05-20 | Eyesee360, Inc. | Telepresence using panoramic imaging and directional sound and motion |
JP4677753B2 (ja) * | 2004-10-01 | 2011-04-27 | 株式会社ニコン | 動画像処理装置及び方法 |
US11232768B2 (en) | 2005-04-12 | 2022-01-25 | Douglas G. Richardson | Embedding animation in electronic mail, text messages and websites |
US12051391B2 (en) | 2005-04-12 | 2024-07-30 | Douglas G. Richardson | Embedding animation in electronic mail, text messages and websites |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
WO2007014216A2 (en) | 2005-07-22 | 2007-02-01 | Cernium Corporation | Directed attention digital video recordation |
US20070253630A1 (en) * | 2006-04-26 | 2007-11-01 | International Business Machines Corporation | Method and apparatus for fast and flexible digital image compression using programmable sprite buffer |
JP2007316693A (ja) * | 2006-05-23 | 2007-12-06 | Monolith Co Ltd | 画像符号化方法および画像符号化装置 |
JP2009200713A (ja) * | 2008-02-20 | 2009-09-03 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
TWI381717B (zh) * | 2008-03-31 | 2013-01-01 | Univ Nat Taiwan | 數位視訊動態目標物體分割處理方法及系統 |
WO2010057170A1 (en) * | 2008-11-17 | 2010-05-20 | Cernium Corporation | Analytics-modulated coding of surveillance video |
WO2010124062A1 (en) * | 2009-04-22 | 2010-10-28 | Cernium Corporation | System and method for motion detection in a surveillance video |
US8116527B2 (en) * | 2009-10-07 | 2012-02-14 | The United States Of America As Represented By The Secretary Of The Army | Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background |
US8891870B2 (en) * | 2012-11-09 | 2014-11-18 | Ge Aviation Systems Llc | Substance subtraction in a scene based on hyperspectral characteristics |
US20140133753A1 (en) * | 2012-11-09 | 2014-05-15 | Ge Aviation Systems Llc | Spectral scene simplification through background subtraction |
JP6340567B2 (ja) * | 2014-05-30 | 2018-06-13 | 株式会社アクセル | 動画再生方法及び動画再生システム |
EP3029942B1 (en) * | 2014-12-04 | 2017-08-23 | Axis AB | Method and device for inserting a graphical overlay in a video stream |
KR102317091B1 (ko) | 2014-12-12 | 2021-10-25 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
JP7045856B2 (ja) * | 2015-01-22 | 2022-04-01 | ハドリー インコーポレイテッド | 独立符号化バックグラウンド更新に基づく映像伝送 |
WO2017158622A2 (en) * | 2016-03-16 | 2017-09-21 | INDIAN INSTITUTE OF TECHNOLOGY MADRAS (IIT Madras) | Method for managing image data at electronic device |
JP6604908B2 (ja) * | 2016-06-10 | 2019-11-13 | キヤノン株式会社 | 画像処理装置、その制御方法、および制御プログラム |
US10958807B1 (en) * | 2018-02-08 | 2021-03-23 | Digimarc Corporation | Methods and arrangements for configuring retail scanning systems |
JP7154045B2 (ja) * | 2018-06-14 | 2022-10-17 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01101087A (ja) * | 1987-10-14 | 1989-04-19 | Toshiba Corp | 画像伝送装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4249805A (en) * | 1979-03-26 | 1981-02-10 | Magicam, Inc. | Composite photography system |
US4645459A (en) * | 1982-07-30 | 1987-02-24 | Honeywell Inc. | Computer generated synthesized imagery |
EP0313101A3 (en) * | 1982-07-30 | 1989-12-06 | Honeywell Inc. | Fractional pixel mapping in a computer-controlled imaging system |
FI70662C (fi) * | 1984-12-14 | 1986-09-24 | Valtion Teknillinen | Videokomprimeringsfoerfarande |
GB8528143D0 (en) * | 1985-11-14 | 1985-12-18 | British Telecomm | Image encoding & synthesis |
US4713418A (en) * | 1985-12-06 | 1987-12-15 | E. I. Du Pont De Nemours And Company | Blends of fluoroplastics and fluoroelastomers |
US5122873A (en) * | 1987-10-05 | 1992-06-16 | Intel Corporation | Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels |
JPH07105949B2 (ja) * | 1989-03-20 | 1995-11-13 | 松下電器産業株式会社 | 画像の動きベクトル検出装置および揺れ補正装置 |
US5144688A (en) * | 1990-03-23 | 1992-09-01 | Board Of Regents, The University Of Texas System | Method and apparatus for visual pattern image coding |
GB9012037D0 (en) * | 1990-05-30 | 1990-07-18 | Fenning Kenneth J | Reducing television bandwidth by data compression |
US5305400A (en) * | 1990-12-05 | 1994-04-19 | Deutsche Itt Industries Gmbh | Method of encoding and decoding the video data of an image sequence |
WO1992010908A2 (en) * | 1990-12-14 | 1992-06-25 | Battelle Memorial Institute | High-speed video instrumentation system |
AU657510B2 (en) * | 1991-05-24 | 1995-03-16 | Apple Inc. | Improved image encoding/decoding method and apparatus |
JP2977104B2 (ja) * | 1991-07-26 | 1999-11-10 | ソニー株式会社 | 動画像データエンコード方法および装置、並びに動画像データデコード方法および装置 |
US5619593A (en) * | 1991-09-12 | 1997-04-08 | Fuji Photo Film Co., Ltd. | Method for extracting object images and method for detecting movements thereof |
JP2873338B2 (ja) * | 1991-09-17 | 1999-03-24 | 富士通株式会社 | 動物体認識装置 |
DE4138517A1 (de) * | 1991-11-23 | 1993-05-27 | Univ Hannover | Einrichtung zur objekt-orientierten codierung von bildsignalen |
DE69228983T2 (de) * | 1991-12-18 | 1999-10-28 | Koninklijke Philips Electronics N.V., Eindhoven | System zum Übertragen und/oder Speichern von Signalen von texturierten Bildern |
JPH05181970A (ja) * | 1991-12-27 | 1993-07-23 | Toshiba Corp | 動画像処理装置 |
JP3138313B2 (ja) * | 1992-02-05 | 2001-02-26 | 株式会社ナムコ | 画像合成用スコープ、画像合成装置及びゲーム装置 |
EP0562672A3 (en) * | 1992-03-22 | 1994-07-13 | Igp Res & Dev Ltd | Process of picture representation by data compression |
US5262856A (en) * | 1992-06-04 | 1993-11-16 | Massachusetts Institute Of Technology | Video image compositing techniques |
DE69331174T2 (de) * | 1992-06-29 | 2002-06-06 | Canon K.K., Tokio/Tokyo | Bildverarbeitungsvorrichtung |
JP2914170B2 (ja) * | 1994-04-18 | 1999-06-28 | 松下電器産業株式会社 | 映像変化点検出方法 |
-
1994
- 1994-07-11 KR KR1019940016622A patent/KR100292138B1/ko not_active IP Right Cessation
-
1996
- 1996-11-12 US US08/748,024 patent/US5706367A/en not_active Expired - Lifetime
-
1997
- 1997-08-01 US US08/904,930 patent/US6335988B1/en not_active Expired - Fee Related
- 1997-08-01 US US08/904,928 patent/US6275617B1/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01101087A (ja) * | 1987-10-14 | 1989-04-19 | Toshiba Corp | 画像伝送装置 |
Also Published As
Publication number | Publication date |
---|---|
US6335988B1 (en) | 2002-01-01 |
KR960015525A (ko) | 1996-05-22 |
US6275617B1 (en) | 2001-08-14 |
US5706367A (en) | 1998-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100292138B1 (ko) | 디지탈비디오신호용송신기및수신기 | |
CN1127852C (zh) | 用于处理多格式音频/视频节目的方法和系统 | |
US7023486B2 (en) | Video signal processing device and method | |
EP1051038B1 (en) | Processing digital video data | |
KR20040098014A (ko) | 촬영 장치, 영상 변환 장치 및 영상 편집 장치 | |
JP3716866B2 (ja) | デジタル画像信号の伝送装置及び受信装置 | |
US6195126B1 (en) | Apparatus and method utilizing a single image memory having a luminance region for storing luminance data, a chromatic region for storing chromatic data, a character region for storing character data, and a pattern region for storing pattern data | |
JP3271634B2 (ja) | デジタル画像信号の伝送装置及び受信装置 | |
JP3263749B2 (ja) | デジタル画像信号の記録装置 | |
JP3543978B2 (ja) | デジタル画像信号の伝送装置、受信装置およびデジタル画像信号の記録装置、再生装置 | |
JP3421859B2 (ja) | パノラマ画像作成装置の動きベクトル検出方法及び装置 | |
JPH11168685A (ja) | 画像処理方法 | |
JP3318848B2 (ja) | デジタル画像信号の伝送装置 | |
JPH06133221A (ja) | 撮像装置 | |
JPH06303561A (ja) | パノラマ画像作成方法及び装置 | |
JP3206462B2 (ja) | ディジタル画像信号記録装置及び再生装置 | |
JP3158549B2 (ja) | 静止画記録再生装置 | |
JP4006663B2 (ja) | ディスク記録装置 | |
JPH06284321A (ja) | パノラマ画像作成方法及び装置 | |
JPH05183790A (ja) | 電子スチルカメラ | |
JP3239005B2 (ja) | デジタル動画像圧縮データ複製装置及びデジタル動画像圧縮データ再生装置 | |
JPH09326991A (ja) | 画像記録方法及び装置 | |
JP2000069330A (ja) | ビデオカメラ装置 | |
JPH08195929A (ja) | 映像信号の再生装置および方法ならびに静止画像信号生成装置および方法 | |
JPH0537902A (ja) | 磁気記録再生装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120312 Year of fee payment: 12 |
|
LAPS | Lapse due to unpaid annual fee |