WO2006064604A1 - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
WO2006064604A1
WO2006064604A1 PCT/JP2005/018228 JP2005018228W WO2006064604A1 WO 2006064604 A1 WO2006064604 A1 WO 2006064604A1 JP 2005018228 W JP2005018228 W JP 2005018228W WO 2006064604 A1 WO2006064604 A1 WO 2006064604A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
bus
moving image
memory
image processing
Prior art date
Application number
PCT/JP2005/018228
Other languages
French (fr)
Japanese (ja)
Inventor
Akio Kobayashi
Toru Asaeda
Hidefumi Okada
Mitsuaki Kurokawa
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Priority to US11/792,481 priority Critical patent/US8072643B2/en
Publication of WO2006064604A1 publication Critical patent/WO2006064604A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding

Definitions

  • the present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to, for example, a video camera and displays a moving image of an object scene on a monitor.
  • Conventional technology is applied to, for example, a video camera and displays a moving image of an object scene on a monitor.
  • Patent Document 1 Japanese Laid-Open Patent Publication No. 2 0 2 2 4 7 5 1 7
  • Patent Document 1 Japanese Laid-Open Patent Publication No. 2 0 2 2 4 7 5 1 7
  • a composite image signal is created based on the moving image data of the photographed subject, and the created composite image signal is output to the monitor.
  • a real-time moving image of the object scene is displayed on the monitor screen.
  • a main object of the present invention is to provide a novel image processing apparatus.
  • Another object of the present invention is to provide an image processing apparatus capable of executing processing conforming to a plurality of formats without causing failure.
  • the image processing apparatus comprises the following: a fetching means for fetching the first moving image data to be written to the first memory through the first bus; a first read from the first memory through the first bus First processing means for performing first processing on moving image data and generating second moving image data to be written to the first memory through the first bus; second processing data read from the first memory through the first bus A first output means for applying an output process directed to the first monitor to the moving image data; from the first memory through the first bus; Reducing means for reducing the resolution of the second moving image data read out to create the third moving image data to be written to the second memory through the second bus; and from the second memory to the second bus. Second output means for performing output processing directed to the second monitor on the read third moving image data.
  • the first moving image data is fetched by the fetching means and written to the first memory through the first bus.
  • the first moving image data stored in the first memory is read through the first bus and subjected to the first processing by the first processing means.
  • the second moving image data created by the first process is written to the first memory through the first bus.
  • the second moving image data stored in the first memory is read through the first bus and subjected to output processing directed to the first monitor by the first output means. As a result, the corresponding moving image is displayed on the first monitor screen.
  • the reduction means reduces the resolution of the second moving image data read from the first memory through the first bus.
  • the third moving image data thus created is written to the second memory through the second bus.
  • the third moving image data stored in the second memory is read through the second bus and subjected to output processing directed to the second monitor by the second output means. As a result, the corresponding moving image is displayed on the screen of the second monitor.
  • a series of processes for creating the second moving image data output to the first monitor is executed using the first bus and the first memory.
  • a series of processes for generating the third moving image data output toward the second monitor is executed using the second pass and the second memory.
  • the resolution of the second moving image data is higher than the resolution of the third moving image data.
  • the first pass and first memory are used for high-speed processing such as high-resolution moving image data processing
  • the second bus and second memory are used for low-speed processing such as low-resolution moving image data processing. Is used. As a result, processing conforming to multiple formats can be executed without causing a failure.
  • An image processing apparatus is dependent on claim 1, wherein the first moving image data is data in which any one of a plurality of colors is assigned to each pixel, and the first processing is all of the plurality of colors. Color processing for assigning to each pixel.
  • the first moving image data By temporarily storing the first moving image data in the first memory, the first moving image data can be captured. Flexibility.
  • An image processing apparatus is dependent on claim 1, wherein the second moving image data has a first resolution corresponding to the first aspect ratio, and the third moving image data is the second image. Has a second resolution corresponding to the aspect ratio.
  • An image processing apparatus is dependent on claim 3, wherein the first aspect ratio is 16: 9 and the second aspect ratio is 4: 3.
  • a moving image based on the second moving image data can be displayed on an HD TV (High Definition TV)
  • a moving image based on the third moving image data can be displayed on an NTSC, P A L, or S E CA M M TV.
  • the image processing apparatus is dependent on claim 1, and the second moving image data and the third moving image data have the same frame rate.
  • a moving image having the same smoothness can be displayed on each of the first monitor and the second monitor.
  • An image processing apparatus is dependent on claim 1, and the capturing means includes photographing means for periodically photographing the object scene. This realizes a video power camera that creates moving image data that conforms to multiple formats.
  • An image processing apparatus is dependent on claim 6, and the imaging means includes an imaging surface on which a plurality of partial imaging areas are formed, and a plurality of output paths respectively assigned to the plurality of partial imaging areas. And the capturing means further includes a creating means for creating the first moving image data based on the charges output from the plurality of output paths. As a result, the first moving image data with improved resolution and frame rate can be obtained.
  • the image processing apparatus is dependent on claim 1, compressing the data amount of the second moving image data read from the first memory through the first bus, and passing the first memory through the first path. It further includes a first compression means for creating fourth moving image data to be written. By transferring both the second video data before compression and the fourth video data after compression using the common first bus, high-speed compression processing is realized.
  • An image processing apparatus is dependent on claim 8, and is a first compression means. Performs the compression process when the first predetermined operation is performed.
  • An image processing device is dependent on claim 8 and further comprises: the fourth moving image data read from the first memory through the first bus to the second memory through the second bus A first writing means for writing; and a moving image recording means for recording the fourth moving image data read from the second memory through the second pass on a recording medium.
  • An image processing device is dependent on claim 1, and performs a second process on the first still image data of one frame forming the first moving image data, and a second bus is provided to the second memory. And a second processing means for creating second still image data to be written through.
  • the first still image data is extracted from the first moving image data transferred through the first bus, and converted to the second still image data by the second process.
  • the converted second still image data is written to the second memory through the second bus.
  • the image processing device is dependent on claim 11 and the second processing means executes the second process when the second predetermined operation is performed.
  • the image processing device is dependent on claim 11 and compresses the amount of data of the second still image read from the second memory through the second bus to the second memory.
  • Second compression means for creating third still image data to be written through the second bus is further provided.
  • High-speed compression processing is realized by transferring both the second still image data before compression and the third still image data after compression using the common second path.
  • the image processing apparatus is dependent on claim 13 and further includes a still image recording means for recording the third still image data created by the second compression means on the recording medium.
  • FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention
  • FIG. 2 is an illustrative view showing an example of the configuration of a CCD imager applied to the embodiment of FIG.
  • Fig. 3 is an illustrative view showing an example of the configuration of the imaging surface of the CCD imager shown in Fig. 2;
  • FIG. 4 is an illustrative view showing one example of a mapping state of the S D RAM applied to the embodiment of FIG. 1;
  • FIG. 5 is an illustrative view showing an example of another SD RAM mapping state applied to the embodiment of FIG. 1;
  • FIG. 6 is a block diagram showing an example of the configuration of the S D RAM controller applied to the FIG. 1 embodiment
  • FIG. 7 is a block diagram showing an example of the configuration of another SDRAM controller applied to the FIG. 1 embodiment
  • Fig. 8 (A) is an illustration showing the aspect ratio of the moving image displayed on the HDTV
  • Figure 8 (B) is an illustration showing the aspect ratio of the video displayed on the LCD monitor
  • Fig. 8 (C) is an illustration showing the aspect ratio of recorded still images.
  • a digital video camera 10 of this embodiment includes a CCD imager 12.
  • the optical image of the object scene is irradiated onto the imaging surface of the CCD imager 12 through an optical lens (not shown).
  • the imaging surface is covered with a primary color filter array color filter 1 2 f.
  • the charge generated in each of the plurality of light receiving elements formed on the imaging surface has color information of R (Red), G (Green), or B (Blue).
  • the TG (Timing Generator) 16 is activated by the CPU 44.
  • TGI 6 generates multiple timing signals including horizontal sync signal Hsync and vertical sync signal Vsync.
  • the Each of drivers 14a and 14b drives CCD imager 12 in response to such timing signals.
  • a charge image signal corresponding to one frame is output from the CCD imager 12.
  • the vertical synchronization signal Vs ync is generated every 1Z30 seconds, and the raw image signal output from the CCD imager 12 has a frame rate of 30 fps.
  • the imaging surface of CCD imager 12 has partial imaging areas IML and IMR.
  • the partial imaging area IML is formed on the left side of the boundary line BL extending vertically from the center of the imaging surface, and the partial imaging area IMR is formed on the right side of the same boundary line BL.
  • the imaging surface has a resolution of horizontal 1324 pixels x vertical 9696 pixels.
  • Each of the partial imaging areas IML and IMR has a resolution of horizontal 662 pixels ⁇ vertical 996 pixels. Therefore, the partial imaging areas IML and IMR touch each other at the boundary line.
  • the effective area irradiated with the optical image is an area of horizontal 1300 pixels x vertical 975 pixels allocated almost at the center of the imaging surface.
  • a plurality of vertical transfer registers are assigned to each of the partial imaging areas IML and IMR. Further, the horizontal transfer register HL is assigned to the partial imaging area IML, and the horizontal transfer register HR is assigned to the imaging area IMR. Therefore, the charges generated by the plurality of light receiving elements on the partial imaging area IML are output from the channel CH 1 via the vertical transfer register and the horizontal transfer register HL (not shown). Similarly, the charges generated by the plurality of light receiving elements on the imaging area IMR are also output from the channel CH2 via a vertical transfer register (not shown) and the horizontal transfer register HR.
  • the dryino I 4 a performs a raster scan (interlaced scan) on the partial image area IML based on the timing signal from the TG 16, and outputs the raw image signal of the left 12 frames from the channel CH1.
  • the driver 14b performs raster scanning (interlace scanning) on the imaging area IMR based on the timing signal from the TG16, and outputs the raw image signal of the right 12 frames from the channel CH2.
  • the transfer direction of the horizontal transfer register HR is the opposite of the transfer direction of the horizontal transfer register HL. For this reason, the last evening scanning direction is also the partial imaging area IML.
  • I MR invert each other.
  • the CDSZAGCZAD circuit 18a in response to the timing signal from TG16, performs a series of processes such as correlated double sampling, automatic gain adjustment, and AZD conversion on the raw image signal of channel CH1.
  • ⁇ 03 / / 080 ⁇ 80 circuit 1 8b in response to the timing signal from TG16, it correlates with the raw image signal of channel CH2 A series of processing of double sampling, automatic gain adjustment and AZD conversion Apply.
  • the timing signal has a frequency of 27 MHz. Therefore, each of the CDS / AGCZAD converters 18a and 18b outputs raw image data as a digital signal at a clock rate of 27 MHz.
  • the channel matching circuit 22 provided in the AS IC 20 cuts out the raw image data given from each of the A / D converters 18a and 18b, and performs a series of matching processes such as clamping and white balance adjustment.
  • Raw image data belonging to the valid area is extracted by a clipping process.
  • the level difference between channels is eliminated by the clamping process.
  • the white balance deviation is eliminated by the white balance adjustment process.
  • This matching process is executed in response to the timing signal output from TG16.
  • the channel matching circuit 22 issues a write request to the SDRAM controller 30 every time a predetermined amount of matching processing is completed.
  • the SDRAM controller 30 is configured as shown in FIG.
  • the request issued by the channel matching circuit 22 is given to the arbitration circuit 30a.
  • the arbitration circuit 30a includes a signal processing circuit 24, an MPEG codec 26, a D4-I / F 28, an XBUS-I / F 34, a stream I / F 36, a CCD output circuit 38, D 1—Receives requests from I-NO F 40 and CPU 44 and accepts any one request according to preset priority.
  • the arbitration circuit 30a gives an approval signal to the issuer of the approved request, and instructs the memory access circuit 30b to perform processing corresponding to the approved request.
  • the memory access circuit 3 Ob writes a predetermined amount of data transferred from the issuer of the write request via the path B 1 or B 2 to the SDRAM 32. If the approved request is a read request, the memory access circuit 30 b A predetermined amount of data according to the request is read from SDR AM 32, and the read data is transferred to the issuer of the read request via bus B1 or B2.
  • the channel matching circuit 22 transfers the fixed amount of raw image data that has undergone the matching process to the SD RAM controller 30 through the path B 1.
  • the raw image data given from the channel matching circuit 22 is written into the raw image area 3 2 a (see FIG. 4) by the SD RAM controller 30.
  • the raw image data of channel C H 1 is written to the left side of the raw image area 3 2 a, and the raw image data of channel C H 2 is written to the right side of the raw image area 3 2 a.
  • raw image data of horizontal 1300 pixels x vertical 975 pixels representing one frame object scene image is secured in the raw image area 3 2 a.
  • the signal processing circuit 24 repeatedly issues a read request to the SDRAM controller 30 in order to read the raw image data stored in the raw image area 3 2 a by a predetermined amount.
  • the raw image data read by the SD RAM controller 30 is given to the signal processing circuit 24 through the scan B 1.
  • the signal processing circuit 24 performs processing such as color separation and YUV conversion on the transferred raw image data. This series of processing is executed at a clock rate of 54 MHz.
  • a YUV image data having a resolution of horizontal 1280 pixels X vertical 720 pixels is generated at a rate of one frame per 1300 seconds.
  • the YUV image data generated in this way is transferred to the SDRAM controller 30 by a predetermined amount through the bus B1.
  • the write request is repeatedly issued, and the YUV image data is written into the moving image area 3 2 b (see FIG. 4) by the SDRAM controller 30.
  • the aspect ratio of the image based on this raw image data is 4: 3.
  • the resolution of the YUV image data generated by the signal processing circuit 24 is horizontal 1280 pixels x vertical 720 pixels, so the aspect ratio of the image based on this YUV image data is 1 6: 9. Therefore, when generating YUV image data, The vertical ends of the evening are partially removed.
  • the D 1—I / F 40 repeatedly issues a read request to the SDRAM controller 30, and reads YUV image data stored in the moving image area 32b by a predetermined amount.
  • the YUV image data is read out from the moving image area 32b in a raster scanning manner (interlaced scanning manner), and given to the D1-I / F 40 via the path B1.
  • the YUV image data is input to D1-I / F40 at a rate of 1 frame per 1Z30 seconds.
  • D l— lZF4 (Hi, format conversion processing is applied to the given YUV image data. This processing is performed according to the 27 MHz clock rate, and the processed YU V image data is 720 pixels horizontal by X vertical. It has a resolution of 480 pixels and an aspect ratio of 4: 3 In this way, YUV image data conforming to the D1 standard is generated at a rate of 1 frame per 1/30 second.
  • the aspect ratio of YUV image data given to D1-IZF40 is 16: 9, while the aspect ratio of YUV image data output from D1-IZF40 is 4: 3. . Therefore, letterpox components are assigned to both ends in the vertical direction of the YUV image data output from D1-IZF40.
  • the YUV image data generated by D 1-I / F 40 is output to D 1—IZF 52 provided in AS I C 42.
  • D l—IZF52 also captures YUV image data according to a clock rate of 27 ⁇ ⁇ .
  • SDRAM controller 56 is formed by arbitration circuit 56a and memory access circuit 56b, similarly to SDRAM controller 39 shown in FIG. Further, the arbitration circuit 56 a and the memory access circuit 56 b operate in the same manner as the arbitration circuit 30 a and the memory access circuit 30 b shown in FIG. Therefore, duplicate descriptions are omitted.
  • the SDRAM controller 56 writes a predetermined amount of YUV image data transferred from the D 1—I 52 in the moving image area 54 b (see FIG. 5). YUV image data is written to the video area 54b at a rate of 1 frame per 1/30 second.
  • the NTSC encoder 62 repeatedly issues a read request to the SDRAM controller 56 in order to read out the YUV image data stored in the moving image area 54b by a predetermined amount.
  • the YUV image data is read out by the SDRAM controller 56 and supplied to the NTS C encoder 62 through the bus B3.
  • the NTS C encoder 62 converts the supplied YUV image data into an NTS C format composite video signal.
  • the composite video signal is also generated at a rate of 1 frame per 1/30 second, and the generated composite video signal is output to the LCD monitor 66.
  • a real-time moving image (through image) of the object scene is displayed on the monitor screen as shown in Fig. 8 (B).
  • D4-IZF 28 When the D4-IZF 28 is connected to an HDTV (not shown), the CPU 44 activates the D4-I / F 28 instead of the D1-IZF 40 or together with the D1-IZF 40.
  • D4—IZF 28 reads the YUV image data stored in the moving image area 32 b by a predetermined amount through path B 1 and SDRAM controller 30. YUV image data is read out in a lath scanning mode (sequential scanning mode) according to a frame rate of 30 f ps.
  • D4—IZF28 converts the read YUV image data into a video signal conforming to the D4 standard, and outputs the converted video signal to HDTV. As a result, a high-quality through image is displayed on the TV screen as shown in Fig. 8 (A).
  • the MPEG4 codec 26 and the stream IZF 36 are activated by the CPU 44.
  • the MP 4 codec 26 reads out the YUV image data stored in the moving image area 32 b (see FIG. 4) of the SDRAM 32 by a predetermined amount in the same manner as described above. That is, a read request is repeatedly issued to the SDRAM controller 30, and Y UV image data is acquired by a predetermined amount through the bus B1. The acquired YUV image data is compressed according to the MPEG4 format.
  • Such read processing and compression processing are executed at a rate of one frame per 130 seconds.
  • the MPEG4 stream generated by the compression process is the same as that described above.
  • a predetermined amount is supplied to the SDR AM controller 30 through 1 and written in the MPEG area 32 c of the SDRAM 32 (see FIG. 4).
  • the stream I / F 36 reads the MP EG 4 stream stored in the MPEG area 32 c by a predetermined amount through the bus B 1 and the SDRAM controller 30 and reads the read MPEG 4 stream to the stream provided in the AS I C 42. Output to IZF 48.
  • the stream IZF 48 gives the given MP EG4 stream to the SDRAM controller 56 by a predetermined amount through the bus B 3 and writes it to the MP EG area 54 c (see FIG. 5) of the SDRAM 54.
  • the CPU 44 repeatedly issues a read request to the SDRAM controller 56 in order to read the MPEG4 stream stored in the MPEG area 54c in a fixed amount.
  • the MP EG4 stream read by the SDRAM controller 56 is given to the card I / F 58 through the bus B 4 and is recorded in the memory card 64 by the card I / F 58.
  • the MPEG4 stream is stored in an MP EG file formed on the memory card 64.
  • the CPU 44 activates the CCD output circuit 38, the signal processing circuit 50, and the JPEG codec 60.
  • the CCD output circuit 38 issues a read request to the SDRAM controller 30 to read a predetermined amount of the raw image data of one frame from the raw image area 32 a of the SDRAM 32 (see FIG. 4).
  • the raw image data read by the S DRAM controller 30 is given to the CCD output circuit 38 via the bus B1.
  • the CCD output circuit 38 outputs one frame of raw image data thus given to the signal processing circuit 50 provided in the AS IC 42.
  • the signal processing circuit 50 performs processing such as color separation and YUV conversion on the raw image data given from the CCD output circuit 38, and as shown in Fig. 8 (C), the resolution of 1280 pixels horizontal x 960 pixels vertical and 4 : YUV image data having an aspect ratio of 3 is generated.
  • the generated YUV image data is sent to SDRAM controller via bus B3. After being given to the roller 56, it is written in the still image area 54d of the S DRAM 54 (see FIG. 5).
  • the J PEG codec 60 repeatedly issues a read request to the SDRAM controller 56 to read the YUV image data stored in the still image area 54 d by a predetermined amount.
  • the YUV image data is read out by the SDRAM controller 56 and supplied to the J PEG codec 60 via the bus B 3.
  • the J PEG codec 60 performs J PEG compression on the given YUV image data, and repeatedly requests the SDR AM controller 56 to write the compressed image data, that is, J PEG data.
  • the SDRAM controller 56 writes the J PEG data given from the J PEG codec 60 through the bus B 3 into the JP EG area 54 a of the SDR AM 54.
  • the CPU 44 reads one frame of JPEG data secured in the JPEG area 54 a in this way through the bus B4 and the SDRAM controller 56 by a predetermined amount, and reads the read JPEG data into the bus B4 and card IZF. Record to memory card 64 through 58. As a result, a J PEG file is created in the memory card 64.
  • the CPU 44 accesses the memory card 64 through the bus B 4 and the power I / F 58. Play the MP EG 4 stream from the desired MPEG file.
  • the reproduced MP EG 4 stream is given to the SDRAM controller 56 by a predetermined amount through the bus B 4 and written into the MPEG area 54 c (see FIG. 5) of the SDRAM 54 by the SDRAM controller 56.
  • the stream IZF 48 repeatedly issues a read request to the SDRAM controller 56, and reads the MPEG 4 stream stored in the MP EG area 54c by a predetermined amount.
  • the read MP EG 4 stream is given to the stream IZF 48 through the bus B3 and then outputted to the stream IZF 36.
  • Stream IZF36 writes a given MP EG 4 stream to SD Requests to the RAM controller 30 repeatedly.
  • the SDRAM controller 30 writes the MPEG4 stream supplied from the stream IZF 36 through the bus B 1 to the MPEG area 32 c of the SDRAM 32 (see FIG. 4).
  • the MPEG4 codec 26 reads the MP EG 4 stream stored in the MP EG area 32 c by a predetermined amount through the SDRAM controller 30.
  • the read MPEG4 stream is given to the MPEG4 codec 26 through path B1 and decompressed according to the MPEG4 format.
  • the decompressed YUV image data is output from the MP EG4 codec 26 at a rate of 1 frame per 1/30 second, and given to the SDRAM controller 30 through the bus B 1 by a predetermined amount. After that, the YUV image data is written in the moving image area 32 b (see Fig. 4) of SDRAM32. '
  • the D 1—IZF 40 reads YUV image data from the moving image area 32 b through the SDRAM controller 30 and performs the same format conversion processing as described above on the YUV image data input through the bus B 1.
  • the resolution of YUV image data is reduced from horizontal 1280 pixels x vertical 720 pixels to horizontal 720 pixels x horizontal 480 pixels, and letterbox components are assigned to both ends of the reduced YUV image data in the vertical direction.
  • This YUV image data is also created at a rate of 1 frame per 1 to 30 seconds, and the created YUV image data is output to D 1—IZF 52.
  • D 1—I ZF 40 Data transfer to D 1—I ZF 40 is performed according to a clock rate of 54 MHz, and data transfer from D 1—I / F 40 to D 1 -I / F 52 is 27 MH It is executed according to the clock rate of z.
  • the D 1 -I / F 52 supplies the YUV image data of each frame given from the Dl—IZF 40 to the SDRAM controller 56 by a predetermined amount through the path B 3.
  • the YUV image data is written into the moving image area 54b (see FIG. 5) of the SDRAM 54 by the SDRAM controller 56.
  • the NT SC encoder 62 reads the YUV image data stored in the moving image area 754b by a predetermined amount through the SDRAM controller 56 and converts the YUV image data given through the bus B 3 into an NT SC composite video signal. To do. Read processing and conversion processing are also executed at a rate of 1 frame per 30 seconds. It is. The converted composite video signal is output to the LCD monitor 66, whereby the playback moving image is displayed on the monitor screen in the manner shown in FIG. 6 (B).
  • D4—IZF28 When D4—IZF28 is connected to an HDTV, D4—I / F 28 is activated along with D1—IZF40 or with D1—IZF40.
  • D4—The IZF 28 reads YUV image data from the moving image area 3 2b (see FIG. 4) of the SDRAM 32 through the SDRAM controller 30. The YUV image data for each frame is read out in the last evening scanning mode (sequential scanning mode) every 1Z30 seconds, and given to D4_I / F 28 through bus B1.
  • D4—IZF28 converts the provided YUV image data into a video signal conforming to the D4 standard, and outputs the converted video signal to the HDTV. As a result, high-quality playback video is displayed on the TV screen as shown in Fig. 6 (A).
  • the CPU 44 accesses the memory card 64 through path B 4 and card I / F 58, and stores the J JPEG file stored in the desired J PEG file. Play the PEG video.
  • the reproduced J PEG data is written into the J PEG area 54a (see FIG. 5) of the S DRAM 54 through the bus B 4 and the SDRAM controller 56.
  • the J PEG codec 60 reads the J PEG data stored in the J PEG area 54a by a predetermined amount through the SDRAM controller 56, and decompresses the J PEG data given through the bus B3.
  • the JPEG codec 60 further requests the SDRAM controller 56 to write the extended YUV image data.
  • the SDRAM controller 56 writes the YUV image data transferred through the path B 3 in the still image area 54 d of the SDRAM 54 (see FIG. 5).
  • the NTS C encoder 62 reads the YUV image data stored in the still image area 54d through the bus B 3 and the SDRAM controller 56, and converts the read YUV image data into an NTSC C composite video signal. At this time, the resolution is reduced from horizontal 1280 pixels x vertical 960 pixels to horizontal 720 pixels x horizontal 480 pixels.
  • the read process and conversion process are executed at a rate of 1 frame per 1300 seconds, as described above.
  • the converted composite video signal is output to the LCD monitor 66, and the playback still image is displayed on the monitor screen. Indicated.
  • XBUS—I / F46 When D4-I / F28 is connected to HDTV, XBUS—I / F46 is activated instead of NTS C encoder 62.
  • XBUS—IZF46 reads YUV image data from still image area 54d through bus B4 and SDRAM controller 56, and reads the read YUV image data to XBUS—I / F 34 provided in AS I C20. Output to.
  • the XBUS—I / F 34 writes the given Y UV image data through the bus B 2 and the SDRAM controller 30 to the still image area 32 d (see FIG. 4) of the SDRA M32 by a predetermined amount.
  • D4—IZF 28 reads a predetermined amount of YUV image data from static image area 32 d through bus B 1 and SDRAM controller 30, and converts the read YUV image data into a D4 standard video signal.
  • the reading process and conversion process are executed at a rate of 1 frame per 1 Z 30 seconds.
  • the converted video signal is output to the HD TV, and as a result, a high-quality still image is displayed on the TV screen.
  • the resolution of YUV image data read from the still image area 32d is 1280 pixels x 960 pixels horizontally, while the resolution of the video signal output to the HDTV is 1280 pixels x 720 pixels vertically. Therefore, a still image that is partially missing at both ends in the vertical direction is displayed on the TV screen.
  • the raw image data (first moving image data) output from each of the circuits 03a and 18b 18a and 18b is transmitted by the channel matching circuit 22 (capture means). It is fetched and written to SDRAM32 (first memory) through bus B 1 (first bus). The raw image data stored in the first memory is read through the bus B 1 and subjected to processing (first processing) such as color separation and YUV conversion by the signal processing circuit 24 (first processing means). The YUV image data (second moving image data) created by the signal processing circuit 24 is written to the SDRAM 32 through the path B 1.
  • first processing such as color separation and YUV conversion by the signal processing circuit 24 (first processing means).
  • the YUV image data (second moving image data) created by the signal processing circuit 24 is written to the SDRAM 32 through the path B 1.
  • the YUV image data stored in the SDRAM 32 is read out via the bus B1, and output processing directed to the HDTV (first monitor) is performed by the D4-IZF28 (first output means). As a result, the corresponding video is displayed on the HDTV screen.
  • D 1-I / F40 (reduction measure) reads from SDRAM 32 through bus B 1 Reduce the resolution of the output YUV image data.
  • the low-resolution YUV image data (third moving image data) is written to SDRAM 54 (second memory) through path B 3 (second bus).
  • the YUV image data stored in the SDRAM 54 is read through the bus B 3 and subjected to output processing directed to the LCD monitor (second monitor) by the NTSC encoder 62 (second output means). As a result, the corresponding moving image is displayed on the second monitor screen.
  • a series of processes for creating HDTV YUV image data is executed using the bus B 1 and the SDRAM 32.
  • a series of processing for creating YUV image data for the LCD monitor 66 is executed using the bus B 3 and the SDRAM 54.
  • the resolution of YUV image data for HDTV is higher than the resolution of YUV image data for LCD monitors.
  • bus B 1 and SDRAM 32 are used for high-speed processing such as high-resolution video data processing, and bus B 3 and SDR for low-speed processing such as low-resolution video processing.
  • AM54 is used.
  • YUV image data read from the SDRAM 32 through the path B 1 is compressed by the MPEG codec 26 (first compression means).
  • the MPEG4 stream (fourth moving image data) created in this way is written to the SDRAM 32 through the bus B1.
  • High-speed compression processing is realized by transferring both the uncompressed YUV image data and the compressed MP EG 4 stream using the common path B1.
  • the MP EG 4 stream is then read from SDRAM 32 via bus B 1 and written to SDRAM 54 via path B 3. Thereafter, the MPEG4 stream is read from the SDRAM 54 through the bus B 3 and recorded on the memory card 64 (recording medium) by the card I / F 58 (moving image recording means).
  • the CCD output circuit 38 second processing means
  • YUV image data second still image data
  • Is converted to The converted YUV image data is written to the SD RAM 54 through path B 3, and then subjected to JPEG compression and memory power. — Recorded at 58.
  • a CCD imager is used as the image sensor, but other image sensors such as a CMOS imager may be adopted instead.
  • the J PEG method is adopted as a still image compression method, but the J PEG 2000 method may be adopted instead.
  • the MP EG 4 system is adopted as the moving picture compression system, but other video compression systems such as the MJ PEG system, the MJ PEG2000 system, or the H.264 system are employed instead. May be.

Abstract

An image processor (10) includes a bus (B1) and a bus (B2). A series of processings for creating YUV image data for HDTV are executed by using the bus (B1) and an SDRAM (32). A series of processings for creating the YUV image data for an LCD monitor (66) are executed by using a bus (B3) and an SDRAM (54). The resolution of the YUV image data for the HDTV is higher than that of the YUV image data for the LCD monitor. Namely, the bus (B1) and the SDRAM (32) are used for processing high resolution moving image data, and the bus (B3) and the SDRAM (54) are used for processing low resolution moving image data.

Description

明細書  Specification
画像処理装置 技術分野  Technical field of image processing equipment
この発明は、 画像処理装置に関し、 特にたとえばビデオカメラに適用され、 被 写界の動画像をモニタに表示する、 画像処理装置に関する。 従来技術  The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to, for example, a video camera and displays a moving image of an object scene on a monitor. Conventional technology
従来のこの種の装置の一例が、 特許文献 1 (特開 2 0 0 2— 2 4 7 5 1 7号公 報) に開示されている。 この従来技術によれば、 撮影された被写体の動画像デー 夕に基づいてコンポジット画像信号が作成され、 作成されたコンポジット画像信 号がモニタに向けて出力される。 この結果、 被写界のリアルタイム動画像がモニ 夕画面に表示される。  An example of a conventional device of this type is disclosed in Patent Document 1 (Japanese Laid-Open Patent Publication No. 2 0 2 2 4 7 5 1 7). According to this prior art, a composite image signal is created based on the moving image data of the photographed subject, and the created composite image signal is output to the monitor. As a result, a real-time moving image of the object scene is displayed on the monitor screen.
しかし、 従来技術では、 画像が表示されるモニタは 1つである。 このため、 従 来技術は、 1つの形式に対応するコンポジット画像信号の作成しか想定していな い。 つまり、 HD TV画像および NT S C画像のような複数の形式に対応する処 理について、 従来技術は何ら開示していない。 発明の概要  However, in the prior art, only one monitor displays an image. For this reason, conventional technologies only assume the creation of composite image signals corresponding to one format. In other words, the conventional technology does not disclose any processing corresponding to a plurality of formats such as HD TV images and NTSC images. Summary of the Invention
それゆえに、 この発明の主たる目的は、 新規な画像処理装置を提供することで ある。  Therefore, a main object of the present invention is to provide a novel image processing apparatus.
この発明の他の目的は、 複数の形式に適合する処理を破綻を引き起こすことな く実行できる、 画像処理装置を提供することである。  Another object of the present invention is to provide an image processing apparatus capable of executing processing conforming to a plurality of formats without causing failure.
クレーム 1の発明に従う画像処理装置は、 次のものを備える:第 1メモリに第 1バスを通して書き込むべき第 1動画像データを取り込む取り込み手段;第 1メ モリから第 1バスを通して読み出された第 1動画像データに第 1処理を施して、 第 1メモリに第 1バスを通して書き込むべき第 2動画像データを作成する第 1処 理手段;第 1メモリから第 1バスを通して読み出された第 2動画像データに第 1 モニタに向けられた出力処理を施す第 1出力手段;第 1メモリから第 1バスを通 して読み出された第 2動画像データの解像度を低減させて、 第 2メモリに第 2バ スを通して書き込むべき第 3動画像データを作成する低減手段;および第 2メモ リから第 2バスを通して読み出された第 3動画像デ一夕に第 2モニタに向けられ た出力処理を施す第 2出力手段。 The image processing apparatus according to the invention of claim 1 comprises the following: a fetching means for fetching the first moving image data to be written to the first memory through the first bus; a first read from the first memory through the first bus First processing means for performing first processing on moving image data and generating second moving image data to be written to the first memory through the first bus; second processing data read from the first memory through the first bus A first output means for applying an output process directed to the first monitor to the moving image data; from the first memory through the first bus; Reducing means for reducing the resolution of the second moving image data read out to create the third moving image data to be written to the second memory through the second bus; and from the second memory to the second bus. Second output means for performing output processing directed to the second monitor on the read third moving image data.
第 1動画像データは、 取り込み手段によって取り込まれ、 第 1バスを通して第 1メモリに書き込まれる。 第 1メモリに格納された第 1動画像データは、 第 1バ スを通して読み出され、 第 1処理手段によって第 1処理を施される。 第 1処理に よつて作成された第 2動画像データは、 第 1バスを通して第 1メモリに書き込ま れる。第 1メモリに格納された第 2動画像デ一夕は第 1バスを通して読み出され、 第 1出力手段によって第 1モニタに向けられた出力処理を施される。 この結果、 対応する動画像が第 1モニタの画面に表示される。  The first moving image data is fetched by the fetching means and written to the first memory through the first bus. The first moving image data stored in the first memory is read through the first bus and subjected to the first processing by the first processing means. The second moving image data created by the first process is written to the first memory through the first bus. The second moving image data stored in the first memory is read through the first bus and subjected to output processing directed to the first monitor by the first output means. As a result, the corresponding moving image is displayed on the first monitor screen.
低減手段は、 第 1バスを通して第 1メモリから読み出された第 2動画像データ の解像度を低減させる。 これによつて作成された第 3動画像データは、 第 2バス を通して第 2メモリに書き込まれる。 第 2メモリに格納された第 3動画像データ は、 第 2バスを通して読み出され、 第 2出力手段によって第 2モニタに向けられ た出力処理を施される。 この結果、 対応する動画像が第 2モニタの画面に表示さ れる。  The reduction means reduces the resolution of the second moving image data read from the first memory through the first bus. The third moving image data thus created is written to the second memory through the second bus. The third moving image data stored in the second memory is read through the second bus and subjected to output processing directed to the second monitor by the second output means. As a result, the corresponding moving image is displayed on the screen of the second monitor.
. このように、 第 1モニタに向けて出力される第 2動画像データを作成するため の一連の処理は、 第 1バスおよび第 1メモリを用いて実行される。 また、 第 2モ 二夕に向けて出力される第 3動画像データを作成するための一連の処理は、 第 2 パスおよび第 2メモリを用いて実行される。 ここで、 第 2動画像デ一夕の解像度 は、 第 3動画像データの解像度よりも高い。 つまり、 髙解像度の動画像データの 処理のような高速処理には第 1パスおよび第 1メモリが利用され、 低解像度の動 画像データの処理のような低速処理には第 2バスおよび第 2メモリが利用される。 この結果、 複数の形式に適合する処理を破綻を引き起こすことなく実行できる。 クレーム 2の発明に従う画像処理装置は、 クレーム 1に従属し、 第 1動画像デ 一夕は複数色のいずれか 1つが各々の画素に割り当てられたデータであり、 第 1 処理は複数色の全てを各々の画素に割り当てる色処理を含む。 第 1動画像データ を第 1メモリに一時的に格納することで、 第 1動画像データの取り込み態様につ いて柔軟性が確保される。 As described above, a series of processes for creating the second moving image data output to the first monitor is executed using the first bus and the first memory. In addition, a series of processes for generating the third moving image data output toward the second monitor is executed using the second pass and the second memory. Here, the resolution of the second moving image data is higher than the resolution of the third moving image data. In other words, the first pass and first memory are used for high-speed processing such as high-resolution moving image data processing, and the second bus and second memory are used for low-speed processing such as low-resolution moving image data processing. Is used. As a result, processing conforming to multiple formats can be executed without causing a failure. An image processing apparatus according to the invention of claim 2 is dependent on claim 1, wherein the first moving image data is data in which any one of a plurality of colors is assigned to each pixel, and the first processing is all of the plurality of colors. Color processing for assigning to each pixel. By temporarily storing the first moving image data in the first memory, the first moving image data can be captured. Flexibility.
クレーム 3の発明に従う画像処理装置は、 クレーム 1に従属し、 第 2動画像デ —夕は第 1ァスぺクト比に対応する第 1解像度を有し、 第 3動画像データは第 2 ァスぺクト比に対応する第 2解像度を有する。  An image processing apparatus according to the invention of claim 3 is dependent on claim 1, wherein the second moving image data has a first resolution corresponding to the first aspect ratio, and the third moving image data is the second image. Has a second resolution corresponding to the aspect ratio.
クレーム 4の発明に従う画像処理装置は、 クレーム 3に従属し、 第 1ァスぺク ト比は 1 6 : 9であり、 第 2アスペクト比は 4 : 3である。 この場合、 第 2動画 像データに基づく動画像は HD T V(High Definition TV)に表示でき、 第 3動画 像データに基づく動画像は N T S C方式, P A L方式または S E C A M方式の T Vに表示できる。  An image processing apparatus according to the invention of claim 4 is dependent on claim 3, wherein the first aspect ratio is 16: 9 and the second aspect ratio is 4: 3. In this case, a moving image based on the second moving image data can be displayed on an HD TV (High Definition TV), and a moving image based on the third moving image data can be displayed on an NTSC, P A L, or S E CA M M TV.
クレーム 5の発明に従う画像処理装置は、 クレーム 1に従属し、 第 2動画像デ 一夕および第 3動画像データは互いに同じフレームレートを有する。 これによつ て、 同等の滑らかさを有する動画像を第 1モニタおよび第 2モニタの各々に表示 することができる。  The image processing apparatus according to the invention of claim 5 is dependent on claim 1, and the second moving image data and the third moving image data have the same frame rate. Thus, a moving image having the same smoothness can be displayed on each of the first monitor and the second monitor.
クレーム 6の発明に従う画像処理装置は、 クレーム 1に従属し、 取り込み手段 は被写界を周期的に撮影する撮影手段を含む。 これによつて、 複数の形式に適合 する動画像データを作成するビデオ力メラが実現される。  An image processing apparatus according to the invention of claim 6 is dependent on claim 1, and the capturing means includes photographing means for periodically photographing the object scene. This realizes a video power camera that creates moving image data that conforms to multiple formats.
クレーム 7の発明に従う画像処理装置は、 クレーム 6に従属し、 撮影手段は、 複数の部分撮像エリァが形成された撮像面、 および複数の部分撮像エリァにそれ ぞれ割り当てられた複数の出力経路を有し、 取り込み手段は、 複数の出力経路か ら出力された電荷に基づいて第 1動画像データを作成する作成手段をさらに含む。 これによつて、 解像度およびフレームレートの両方が向上した第 1動画像データ が得られる。  An image processing apparatus according to the invention of claim 7 is dependent on claim 6, and the imaging means includes an imaging surface on which a plurality of partial imaging areas are formed, and a plurality of output paths respectively assigned to the plurality of partial imaging areas. And the capturing means further includes a creating means for creating the first moving image data based on the charges output from the plurality of output paths. As a result, the first moving image data with improved resolution and frame rate can be obtained.
クレーム 8の発明に従う画像処理装置は、 クレーム 1に従属し、 第 1メモリか ら第 1バスを通して読み出された第 2動画像データのデータ量を圧縮して、 第 1 メモリに第 1パスを通して書き込むべき第 4動画像データを作成する第 1圧縮手 段をさらに備える。 圧縮前の第 2動画像データおよび圧縮後の第 4動画像データ のいずれも共通の第 1バスを用いて転送することで、 高速の圧縮処理が実現され る。  The image processing apparatus according to the invention of claim 8 is dependent on claim 1, compressing the data amount of the second moving image data read from the first memory through the first bus, and passing the first memory through the first path. It further includes a first compression means for creating fourth moving image data to be written. By transferring both the second video data before compression and the fourth video data after compression using the common first bus, high-speed compression processing is realized.
クレーム 9の発明に従う画像処理装置は、 クレーム 8に従属し、 第 1圧縮手段 は第 1所定操作が行われたとき圧縮処理を実行する。 An image processing apparatus according to the invention of claim 9 is dependent on claim 8, and is a first compression means. Performs the compression process when the first predetermined operation is performed.
クレーム 1 0の発明に従う画像処理装置は、 クレーム 8に従属し、 次のものを さらに備える:第 1メモリから第 1バスを通して読み出された第 4動画像データ を第 2メモリに第 2バスを通して書き込む第 1書き込み手段;および第 2メモリ から第 2パスを通して読み出された第 4動画像データを記録媒体に記録する動画 記録手段。  An image processing device according to the invention of claim 10 is dependent on claim 8 and further comprises: the fourth moving image data read from the first memory through the first bus to the second memory through the second bus A first writing means for writing; and a moving image recording means for recording the fourth moving image data read from the second memory through the second pass on a recording medium.
クレーム 1 1の発明に従属する画像処理装置は、 クレーム 1に従属し、 第 1動 画像データを形成する 1フレームの第 1静止画像データに第 2処理を施して、 第 2メモリに第 2バスを通して書き込むべき第 2静止画像データを作成する第 2処 理手段をさらに備える。 第 1静止画像データは、 第 1バスを転送される第 1動画 像データから抽出され、 第 2処理によって第 2静止画像デ一夕に変換される。 変 換された第 2静止画像データは、 第 2バスを通して第 2メモリに書き込まれる。 フレームレートの問題が生じない静止画像データの処理 (低速処理) に第 2パス および第 2メモリを利用することで、 処理の破綻が回避される。  An image processing device according to the invention of claim 1 is dependent on claim 1, and performs a second process on the first still image data of one frame forming the first moving image data, and a second bus is provided to the second memory. And a second processing means for creating second still image data to be written through. The first still image data is extracted from the first moving image data transferred through the first bus, and converted to the second still image data by the second process. The converted second still image data is written to the second memory through the second bus. By using the second pass and second memory for still image data processing (low-speed processing) that does not cause frame rate problems, processing failures are avoided.
クレーム 1 2の発明に従う画像処理装置は、 クレーム 1 1に従属し、 第 2処理 手段は第 2所定操作が行われたとき第 2処理を実行する。  The image processing device according to the invention of claim 12 is dependent on claim 11 and the second processing means executes the second process when the second predetermined operation is performed.
クレーム 1 3の発明に従う画像処理装置は、 クレーム 1 1に従属し、 第 2メモ リから第 2バスを通して読み出された第 2静止画像デ一夕のデータ量を圧縮して、 第 2メモリに第 2バスを通して書き込むべき第 3静止画像データを作成する第 2 圧縮手段をさらに備える。 圧縮前の第 2静止画像データおよび圧縮後の第 3静止 画像データのいずれも共通の第 2パスを用いて転送することで、 高速の圧縮処理 が実現される。  The image processing device according to the invention of claim 13 is dependent on claim 11 and compresses the amount of data of the second still image read from the second memory through the second bus to the second memory. Second compression means for creating third still image data to be written through the second bus is further provided. High-speed compression processing is realized by transferring both the second still image data before compression and the third still image data after compression using the common second path.
クレーム 1 4の発明に従う画像処理装置は、 クレーム 1 3に従属し、 第 2圧縮 手段によつて作成された第 3静止画像データを記録媒体に記録する静止画記録手 段をさらに備える。  The image processing apparatus according to the invention of claim 14 is dependent on claim 13 and further includes a still image recording means for recording the third still image data created by the second compression means on the recording medium.
この発明の上述の目的, その他の目的, 特徴および利点は、 図面を参照して行 う以下の実施例の詳細な説明から一層明らかとなろう。 図面の簡単な説明 図 1はこの発明の一実施例の構成を示すプロック図であり; 図 2は図 1実施例に適用される C C Dイメージャの構成の一例を示す図解図 であり ; The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings. Brief Description of Drawings FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention; FIG. 2 is an illustrative view showing an example of the configuration of a CCD imager applied to the embodiment of FIG.
図 3は図 2に示す C C Dイメージャの撮像面の構成の一例を示す図解図であ り ;  Fig. 3 is an illustrative view showing an example of the configuration of the imaging surface of the CCD imager shown in Fig. 2;
図 4は図 1実施例に適用される S D RAMのマツビング状態の一例を示す図 解図であり ;  FIG. 4 is an illustrative view showing one example of a mapping state of the S D RAM applied to the embodiment of FIG. 1;
図 5は図 1実施例に適用される他の S D RAMのマツピング状態の一例を示 す図解図であり;  FIG. 5 is an illustrative view showing an example of another SD RAM mapping state applied to the embodiment of FIG. 1;
図 6は図 1実施例に適用される S D RAMコントローラの構成の一例を示す ブロック図であり;  FIG. 6 is a block diagram showing an example of the configuration of the S D RAM controller applied to the FIG. 1 embodiment;
図 7は図 1実施例に適用される他の SDRAMコントローラの構成の一例を 示すブロック図であり ;  FIG. 7 is a block diagram showing an example of the configuration of another SDRAM controller applied to the FIG. 1 embodiment;
図 8 (A) は HDTVに表示される動画像のアスペクト比を示す図解図であ り ;  Fig. 8 (A) is an illustration showing the aspect ratio of the moving image displayed on the HDTV;
図 8 (B) は LCDモニタに表示される動画像のアスペクト比を示す図解図 であり ;そして  Figure 8 (B) is an illustration showing the aspect ratio of the video displayed on the LCD monitor;
図 8 (C) は記録静止画像のアスペクト比を示す図解図である。 発明を実施するための最良の形態  Fig. 8 (C) is an illustration showing the aspect ratio of recorded still images. BEST MODE FOR CARRYING OUT THE INVENTION
図 1を参照して、 この実施例のディジタルビデオカメラ 10は、 CCDィメ一 ジャ 12を含む。 被写界の光学像は、 光学レンズ (図示せず) を介して CCDィ メージャ 12の撮像面に照射される。 撮像面は、 原色べィャ配列の色フィルタ 1 2 fによって覆われる。 このため、 撮像面に形成された複数の受光素子の各々で 生成される電荷は、 R (Red), G (Green) または B (Blue) の色情報を有する こととなる。  Referring to FIG. 1, a digital video camera 10 of this embodiment includes a CCD imager 12. The optical image of the object scene is irradiated onto the imaging surface of the CCD imager 12 through an optical lens (not shown). The imaging surface is covered with a primary color filter array color filter 1 2 f. For this reason, the charge generated in each of the plurality of light receiving elements formed on the imaging surface has color information of R (Red), G (Green), or B (Blue).
キー入力装置 68によってカメラモードが選択されると、 TG (Timing Generator) 16が C P U 44によって起動される。 TGI 6は、 水平同期信号 Hs yn cおよび垂直同期信号 V s yncを含む複数のタイミング信号を発生す る。 ドライバ 14 aおよび 14bの各々は、 かかるタイミング信号に応答して C CDイメージャ 12を駆動する。 これによつて、 1フレームに相当する電荷つま り生画像信号が CCDイメージャ 12から出力される。 垂直同期信号 Vs ync は 1Z30秒毎に発生し、 CCDイメージャ 12から出力される生画像信号は 3 0 f p sのフレームレートを有する。 When the camera mode is selected by the key input device 68, the TG (Timing Generator) 16 is activated by the CPU 44. TGI 6 generates multiple timing signals including horizontal sync signal Hsync and vertical sync signal Vsync. The Each of drivers 14a and 14b drives CCD imager 12 in response to such timing signals. As a result, a charge image signal corresponding to one frame is output from the CCD imager 12. The vertical synchronization signal Vs ync is generated every 1Z30 seconds, and the raw image signal output from the CCD imager 12 has a frame rate of 30 fps.
図 2を参照して、 C CDイメージャ 12の撮像面は、 部分撮像エリァ I MLお よび I MRを有する。 部分撮像エリァ I MLは、 撮像面の中心から垂直方向に伸 びる境界線 BLの左側に形成され、 部分撮像エリア I MRは、 同じ境界線 BLの 右側に形成される。 図 3から分かるように、 撮像面は水平 1324画素 X垂直 9 96画素の解像度を有する。また、部分撮像エリア I MLおよび I MRの各々は、 水平 662画素 X垂直 996画素の解像度を有する。 したがって、 部分撮像エリ ァ I MLおよび I MRは、 境界線で互いに接する。  Referring to FIG. 2, the imaging surface of CCD imager 12 has partial imaging areas IML and IMR. The partial imaging area IML is formed on the left side of the boundary line BL extending vertically from the center of the imaging surface, and the partial imaging area IMR is formed on the right side of the same boundary line BL. As can be seen from Fig. 3, the imaging surface has a resolution of horizontal 1324 pixels x vertical 9696 pixels. Each of the partial imaging areas IML and IMR has a resolution of horizontal 662 pixels × vertical 996 pixels. Therefore, the partial imaging areas IML and IMR touch each other at the boundary line.
なお、 光学像が照射される有効エリアは、 撮像面のほぼ中央に割り当てられた 水平 1300画素 X垂直 975画素のエリアである。  The effective area irradiated with the optical image is an area of horizontal 1300 pixels x vertical 975 pixels allocated almost at the center of the imaging surface.
部分撮像エリア I MLおよび I MRの各々には、 図示しない複数の垂直転送レ ジス夕が割り当てられる。 また、 部分撮像エリア I MLには水平転送レジスタ H Lが割り当てられ、 撮像ェリア I M Rには水平転送レジスタ H Rが割り当てられ る。したがって、部分撮像エリァ I ML上の複数の受光素子で生成された電荷は、 図示しない垂直転送レジス夕と水平転送レジスタ HLとを介して、 チャネル CH 1から出力される。 撮像エリア I MR上の複数の受光素子で生成された電荷も同 様に、 図示しない垂直転送レジス夕と水平転送レジスタ HRとを介して、 チヤネ ル CH2から出力される。  A plurality of vertical transfer registers (not shown) are assigned to each of the partial imaging areas IML and IMR. Further, the horizontal transfer register HL is assigned to the partial imaging area IML, and the horizontal transfer register HR is assigned to the imaging area IMR. Therefore, the charges generated by the plurality of light receiving elements on the partial imaging area IML are output from the channel CH 1 via the vertical transfer register and the horizontal transfer register HL (not shown). Similarly, the charges generated by the plurality of light receiving elements on the imaging area IMR are also output from the channel CH2 via a vertical transfer register (not shown) and the horizontal transfer register HR.
つまり、 ドライノ I 4 aは、 TG16からのタイミング信号に基づいて部分撮 像エリア IMLにラス夕走査 (飛び越し走査) を施し、 左側 1 2フレームの生 画像信号をチャネル CH1から出力する。 ドライバ 14bも同様に、 TG16か らのタイミング信号に基づいて撮像エリァ I MRにラスタ走査 (飛び越し走査) を施し、 右側 1 2フレームの生画像信号をチャネル CH 2から出力する。 ただし、 水平転送レジス夕 HRの転送方向は、 水平転送レジス夕 HLの転送方 向と逆の方向である。 このため、 ラス夕走査方向もまた、 部分撮像エリア IML および I MRの間で互いに反転する。 In other words, the dryino I 4 a performs a raster scan (interlaced scan) on the partial image area IML based on the timing signal from the TG 16, and outputs the raw image signal of the left 12 frames from the channel CH1. Similarly, the driver 14b performs raster scanning (interlace scanning) on the imaging area IMR based on the timing signal from the TG16, and outputs the raw image signal of the right 12 frames from the channel CH2. However, the transfer direction of the horizontal transfer register HR is the opposite of the transfer direction of the horizontal transfer register HL. For this reason, the last evening scanning direction is also the partial imaging area IML. And I MR invert each other.
図 1に戻って、 CDSZAGCZAD回路 18 aは、 TG16からのタイミン グ信号に応答して、 チャネル CH1の生画像信号に相関 2重サンプリング, 自動 ゲイン調整および AZD変換の一連の処理を施す。 〇03//八0〇 八0回路1 8 bも同様に、 TG16からのタイミング信号に応答して、 チャネル CH2の生 画像信号に相関 2重サンプリング, 自動ゲイン調整および AZD変換の一連の処 理を施す。 タイミング信号は、 27 MHzの周波数を有する。 このため、 CDS /AGCZAD変換器 18 aおよび 18 bの各々からは、 ディジタル信号である 生画像データが 27 MH zのクロックレ一トで出力される。 Returning to Fig. 1, in response to the timing signal from TG16, the CDSZAGCZAD circuit 18a performs a series of processes such as correlated double sampling, automatic gain adjustment, and AZD conversion on the raw image signal of channel CH1. 〇03 / / 080 〇80 circuit 1 8b In the same way, in response to the timing signal from TG16, it correlates with the raw image signal of channel CH2 A series of processing of double sampling, automatic gain adjustment and AZD conversion Apply. The timing signal has a frequency of 27 MHz. Therefore, each of the CDS / AGCZAD converters 18a and 18b outputs raw image data as a digital signal at a clock rate of 27 MHz.
AS I C 20に設けられたチャネルマッチング回路 22は、 A/D変換器 18 aおよび 18 bの各々から与えられた生画像データに切り出し, クランプ, 白バ ランス調整などの一連のマツチング処理を施す。 有効ェリァに属する生画像デー タは、 切り出し処理によって抽出される。 チャネル間のレベル差は、 クランプ処 理によって解消される。 白バランスのずれは、 白パランス調整処理によって解消 される。 このマッチング処理は、 TG16から出力されたタイミング信号に応答 して実行される。 チャネルマッチング回路 22は、 所定量のマッチング処理が完 了する毎に書き込みリクェストを S D R AMコントローラ 30に向けて発行する。  The channel matching circuit 22 provided in the AS IC 20 cuts out the raw image data given from each of the A / D converters 18a and 18b, and performs a series of matching processes such as clamping and white balance adjustment. Raw image data belonging to the valid area is extracted by a clipping process. The level difference between channels is eliminated by the clamping process. The white balance deviation is eliminated by the white balance adjustment process. This matching process is executed in response to the timing signal output from TG16. The channel matching circuit 22 issues a write request to the SDRAM controller 30 every time a predetermined amount of matching processing is completed.
SDRAMコントローラ 30は、 図 6に示すように構成される。 チャネルマツ チング回路 22によって発行されたリクエストは、調停回路 30 aに与えられる。 調停回路 30 aは、 チャネルマッチング回路 22の他に、 信号処理回路 24, M PEGコーデック 26, D4- I/F 28, XBUS- I/F 34, ストリーム I/F 36, CCD出力回路 38, D 1— Iノ F 40および C P U 44からもリ クェストを受け、 予め設定された優先度に従っていずれか 1つのリクエストを承 認する。 調停回路 30 aは、 承認されたリクエストの発行元に承認信号を与え、 承認されたリクエストに対応する処理をメモリアクセス回路 30 bに命令する。  The SDRAM controller 30 is configured as shown in FIG. The request issued by the channel matching circuit 22 is given to the arbitration circuit 30a. In addition to the channel matching circuit 22, the arbitration circuit 30a includes a signal processing circuit 24, an MPEG codec 26, a D4-I / F 28, an XBUS-I / F 34, a stream I / F 36, a CCD output circuit 38, D 1—Receives requests from I-NO F 40 and CPU 44 and accepts any one request according to preset priority. The arbitration circuit 30a gives an approval signal to the issuer of the approved request, and instructs the memory access circuit 30b to perform processing corresponding to the approved request.
7 認されたリクエストが書き込みリクエストであれば、 メモリアクセス回路 3 Obは、 この書き込みリクエストの発行元からパス B 1または B 2を経て転送さ れた所定量のデータを SDRAM 32に書き込む。 また、 承認されたリクエスト が読み出しリクエストであれば、 メモリアクセス回路 30 bは、 この読み出しリ クェストに従う所定量のデータを S D R AM 3 2から読み出し、 読み出されたデ 一夕をバス B 1または B 2を経て読み出しリクエストの発行元に転送する。 7 If the approved request is a write request, the memory access circuit 3 Ob writes a predetermined amount of data transferred from the issuer of the write request via the path B 1 or B 2 to the SDRAM 32. If the approved request is a read request, the memory access circuit 30 b A predetermined amount of data according to the request is read from SDR AM 32, and the read data is transferred to the issuer of the read request via bus B1 or B2.
このように、 バス B 1または B 2を経たデータ転送は時分割態様で間欠的に実 行される。 これによつて、 デ一夕の衝突が回避される。  In this way, data transfer via the bus B 1 or B 2 is executed intermittently in a time division manner. This avoids collisions in the evening.
図 1に戻って、 チャネルマッチング回路 2 2は、 マッチング処理を施された所 定量の生画像デ一夕をパス B 1を通して S D RAMコントローラ 3 0に転送する。 チャネルマッチング回路 2 2から与えられた生画像データは、 S D RAMコント ローラ 3 0によって生画像エリア 3 2 a (図 4参照) に書き込まれる。 チャネル C H 1の生画像データは生画像エリア 3 2 aの左側に書き込まれ、 チャネル C H 2の生画像データは生画像エリア 3 2 aの右側に書き込まれる。 こうして、 1フ レームの被写界像を表す水平 1 3 0 0画素 X垂直 9 7 5画素の生画像データが 生画像エリァ 3 2 aに確保される。  Returning to FIG. 1, the channel matching circuit 22 transfers the fixed amount of raw image data that has undergone the matching process to the SD RAM controller 30 through the path B 1. The raw image data given from the channel matching circuit 22 is written into the raw image area 3 2 a (see FIG. 4) by the SD RAM controller 30. The raw image data of channel C H 1 is written to the left side of the raw image area 3 2 a, and the raw image data of channel C H 2 is written to the right side of the raw image area 3 2 a. In this way, raw image data of horizontal 1300 pixels x vertical 975 pixels representing one frame object scene image is secured in the raw image area 3 2 a.
信号処理回路 2 4は、 生画像ェリア 3 2 aに格納された生画像データを所定量 ずつ読み出すべく、 読み出しリクエストを S D RAMコントローラ 3 0に向けて 繰り返し発行する。 S D RAMコントローラ 3 0によって読み出された生画像デ 一夕は ス B 1を通して信号処理回路 2 4に与えられる。信号処理回路 2 4は、 こうして転送された生画像デ一夕に色分離, YUV変換などの処理を施す。 この 一連の処理は、 5 4 MH zのクロックレートで実行される。  The signal processing circuit 24 repeatedly issues a read request to the SDRAM controller 30 in order to read the raw image data stored in the raw image area 3 2 a by a predetermined amount. The raw image data read by the SD RAM controller 30 is given to the signal processing circuit 24 through the scan B 1. The signal processing circuit 24 performs processing such as color separation and YUV conversion on the transferred raw image data. This series of processing is executed at a clock rate of 54 MHz.
かかる処理の繰り返しによって、 水平 1 2 8 0画素 X垂直 7 2 0画素の解像度 を有する YUV画像デ一夕が 1 3 0秒に 1フレームの割合で生成される。 こう して生成された YUV画像データは、 バス B 1を通して所定量ずつ S D RAMコ ントローラ 3 0に転送される。 このときも書き込みリクエストが繰り返し発行さ れ、 YUV画像データは S D RAMコントローラ 3 0によって動画像エリア 3 2 b (図 4参照) に書き込まれる。  By repeating this process, a YUV image data having a resolution of horizontal 1280 pixels X vertical 720 pixels is generated at a rate of one frame per 1300 seconds. The YUV image data generated in this way is transferred to the SDRAM controller 30 by a predetermined amount through the bus B1. At this time, the write request is repeatedly issued, and the YUV image data is written into the moving image area 3 2 b (see FIG. 4) by the SDRAM controller 30.
生画像データの解像度は水平 1 3 0 0画素 X垂直 9 7 5画素であるため、 この 生画像データに基づく画像のアスペクト比は 4 : 3である。 これに対して、 信号 処理回路 2 4によって生成される YUV画像データの解像度は水平 1 2 8 0画素 X垂直 7 2 0画素であるため、 この YUV画像データに基づく画像のァスぺクト 比は 1 6 : 9である。 したがって、 YUV画像データを生成するとき、 生画像デ 一夕の垂直方向両端が部分的に除去される。 Since the resolution of the raw image data is horizontal 1300 pixels x vertical 975 pixels, the aspect ratio of the image based on this raw image data is 4: 3. In contrast, the resolution of the YUV image data generated by the signal processing circuit 24 is horizontal 1280 pixels x vertical 720 pixels, so the aspect ratio of the image based on this YUV image data is 1 6: 9. Therefore, when generating YUV image data, The vertical ends of the evening are partially removed.
D 1— I/F40は、 読み出しリクエストを SDRAMコントローラ 30に向 けて繰り返し発行し、 動画像エリア 32 bに格納された YUV画像データを所定 量ずつ読み出す。 YUV画像データは、 ラスタ走査態様 (飛び越し走査態様) で 動画像エリア 32 bから読み出され、 パス B 1を介して D1— I/F40に与え られる。 このとき、 YUV画像デ一夕は、 1Z30秒に 1フレームの割合で D 1 - I/F40に入力される。  The D 1—I / F 40 repeatedly issues a read request to the SDRAM controller 30, and reads YUV image data stored in the moving image area 32b by a predetermined amount. The YUV image data is read out from the moving image area 32b in a raster scanning manner (interlaced scanning manner), and given to the D1-I / F 40 via the path B1. At this time, the YUV image data is input to D1-I / F40 at a rate of 1 frame per 1Z30 seconds.
D l— lZF4 (Hi、 与えられた YUV画像データに形式変換処理を施す。 こ の処理は、 27 MHzのクロックレートに従って実行され、 処理を施された YU V画像データは、 水平 720画素 X垂直 480画素の解像度と 4 : 3のァスぺク ト比とを有する。 こうして、 D1規格に適合する YUV画像データが、 1/30 秒に 1フレームの割合で生成される。  D l— lZF4 (Hi, format conversion processing is applied to the given YUV image data. This processing is performed according to the 27 MHz clock rate, and the processed YU V image data is 720 pixels horizontal by X vertical. It has a resolution of 480 pixels and an aspect ratio of 4: 3 In this way, YUV image data conforming to the D1 standard is generated at a rate of 1 frame per 1/30 second.
なお、 D 1— IZF40に与えられる YUV画像データのァスぺクト比は 1 6 : 9である一方、 D 1— IZF40から出力される YUV画像データのァスぺ クト比は 4 : 3である。 したがって、 D 1— IZF40から出力される YUV画 像データの垂直方向両端には、レターポックス成分が割り当てられることとなる。  The aspect ratio of YUV image data given to D1-IZF40 is 16: 9, while the aspect ratio of YUV image data output from D1-IZF40 is 4: 3. . Therefore, letterpox components are assigned to both ends in the vertical direction of the YUV image data output from D1-IZF40.
D 1 - I/F40で生成された YUV画像データは、 AS I C 42 ίこ設けられ た D 1— IZF52に向けて出力される。 D l— IZF52もまた、 27 ΜΗ ζ のクロックレートに従って YUV画像データを取り込む。 D 1— I/F 52は、 所定量の YUV画像データが取り込まれる毎に書き込みリクエストを SDRAM コントローラ 56に向けて発行し、 このリクエストが承認されたときに所定量の YUV画像データをバス B 3を通して SDRAMコントローラ 56に転送する。 図 7を参照して、 SDRAMコントローラ 56は、 図 6に示す SDRAMコン トロ一ラ 39と同様、 調停回路 56 aおよびメモリアクセス回路 56 bによって 形成される。 さらに、 調停回路 56 aおよびメモリアクセス回路 56 bはそれぞ れ、 図 6に示す調停回路 30 aおよびメモリアクセス回路 30 bと同様に動作す る。 したがって、 重複した説明は省略する。  The YUV image data generated by D 1-I / F 40 is output to D 1—IZF 52 provided in AS I C 42. D l—IZF52 also captures YUV image data according to a clock rate of 27 ζ ζ. D 1—The I / F 52 issues a write request to the SDRAM controller 56 every time a predetermined amount of YUV image data is fetched, and when this request is approved, the predetermined amount of YUV image data is sent to the bus B 3. To the SDRAM controller 56. Referring to FIG. 7, SDRAM controller 56 is formed by arbitration circuit 56a and memory access circuit 56b, similarly to SDRAM controller 39 shown in FIG. Further, the arbitration circuit 56 a and the memory access circuit 56 b operate in the same manner as the arbitration circuit 30 a and the memory access circuit 30 b shown in FIG. Therefore, duplicate descriptions are omitted.
図 1に戻って、 SDRAMコントローラ 56は、 D 1— I 52から転送さ れた所定量の YUV画像データを動画像エリア 54 b (図 5参照) に書き込む。 YUV画像データは、 1 / 30秒に 1フレームの割合で動画像ェリア 54 bに書 き込まれる。 Returning to FIG. 1, the SDRAM controller 56 writes a predetermined amount of YUV image data transferred from the D 1—I 52 in the moving image area 54 b (see FIG. 5). YUV image data is written to the video area 54b at a rate of 1 frame per 1/30 second.
NTSCエンコーダ 62は、 動画像ェリア 54 bに格納された Y U V画像デー 夕を所定量ずつ読み出すべく、 読み出しリクエストを SDRAMコントローラ 5 6に向けて繰り返し発行する。 YUV画像データは、 SDRAMコントローラ 5 6によって読み出され、バス B 3を通して NTS Cエンコーダ 62に与えられる。  The NTSC encoder 62 repeatedly issues a read request to the SDRAM controller 56 in order to read out the YUV image data stored in the moving image area 54b by a predetermined amount. The YUV image data is read out by the SDRAM controller 56 and supplied to the NTS C encoder 62 through the bus B3.
NTS Cエンコーダ 62は、 与えられた YUV画像データを NTS C方式のコ ンポジットビデオ信号に変換する。 コンポジットビデオ信号もまた 1/30秒に 1フレームの割合で生成され、 生成されたコンポジットビデオ信号は L C Dモニ 夕 66に向けて出力される。 この結果、 被写界のリアルタイム動画像 (スルー画 像) が、 図 8 (B) に示す要領でモニタ画面に表示される。  The NTS C encoder 62 converts the supplied YUV image data into an NTS C format composite video signal. The composite video signal is also generated at a rate of 1 frame per 1/30 second, and the generated composite video signal is output to the LCD monitor 66. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen as shown in Fig. 8 (B).
D4— IZF 28が図示しない HDTVに接続されると、 CPU44は、 D1 - IZF40に代えてあるいは D 1一 IZF40とともに、 D4— I/F28を 起動する。 D4— IZF28は、 動画像エリア 32 bに格納された YUV画像デ —夕をパス B 1および SDRAMコントローラ 30を通して所定量ずつ読み出す。 YUV画像データは、 30 f p sのフレームレートに従って、ラス夕走査態様(順 次走査態様) で読み出される。 D4— IZF28は、 読み出された YUV画像デ —夕を D 4規格に適合するビデオ信号に変換し、 変換されたビデオ信号を HDT Vに出力する。 この結果、 高画質のスルー画像が、 図 8 (A) に示す要領で TV 画面に表示される。  When the D4-IZF 28 is connected to an HDTV (not shown), the CPU 44 activates the D4-I / F 28 instead of the D1-IZF 40 or together with the D1-IZF 40. D4—IZF 28 reads the YUV image data stored in the moving image area 32 b by a predetermined amount through path B 1 and SDRAM controller 30. YUV image data is read out in a lath scanning mode (sequential scanning mode) according to a frame rate of 30 f ps. D4—IZF28 converts the read YUV image data into a video signal conforming to the D4 standard, and outputs the converted video signal to HDTV. As a result, a high-quality through image is displayed on the TV screen as shown in Fig. 8 (A).
キー入力装置 68によって動画記録開始操作が実行されると、 MPEG4コー デック 26およびストリーム IZF 36が CPU44によって起動される。 MP £ 4コーデック26は、 SDRAM 32の動画像エリア 32 b (図 4参照) に 格納された Y U V画像データを上述と同じ要領で所定量ずつ読み出す。 つまり、 読み出しリクエストを SDRAMコントローラ 30に向けて繰り返し発行し、 Y UV画像データをバス B 1を通して所定量ずつ取得する。 取得された YUV画像 データは、 MPEG4方式に従って圧縮される。 このような読み出し処理および 圧縮処理は、 1 30秒に 1フレームの割合で実行される。  When the moving image recording start operation is executed by the key input device 68, the MPEG4 codec 26 and the stream IZF 36 are activated by the CPU 44. The MP 4 codec 26 reads out the YUV image data stored in the moving image area 32 b (see FIG. 4) of the SDRAM 32 by a predetermined amount in the same manner as described above. That is, a read request is repeatedly issued to the SDRAM controller 30, and Y UV image data is acquired by a predetermined amount through the bus B1. The acquired YUV image data is compressed according to the MPEG4 format. Such read processing and compression processing are executed at a rate of one frame per 130 seconds.
圧縮処理によって生成された MPEG4ストリームは、 上述と同様に、 バス B 1を通して所定量ずつ SDR AMコントローラ 30に与えられ、 SDRAM 32 の MPEGエリア 32 c (図 4参照) に書き込まれる。 The MPEG4 stream generated by the compression process is the same as that described above. A predetermined amount is supplied to the SDR AM controller 30 through 1 and written in the MPEG area 32 c of the SDRAM 32 (see FIG. 4).
ストリーム I/F36は、 MPEGエリア 32 cに格納された MP E G 4スト リームをバス B 1および SDRAMコントローラ 30を通して所定量ずつ読み出 し、 読み出された MPEG4ストリームを AS I C42に設けられたストリーム IZF 48に向けて出力する。 ストリーム IZF48は、 与えられた MP EG4 ストリームをバス B 3を通して所定量ずつ SDRAMコントローラ 56に与え、 SDRAM 54の MP EGエリア 54 c (図 5参照) に書き込む。  The stream I / F 36 reads the MP EG 4 stream stored in the MPEG area 32 c by a predetermined amount through the bus B 1 and the SDRAM controller 30 and reads the read MPEG 4 stream to the stream provided in the AS I C 42. Output to IZF 48. The stream IZF 48 gives the given MP EG4 stream to the SDRAM controller 56 by a predetermined amount through the bus B 3 and writes it to the MP EG area 54 c (see FIG. 5) of the SDRAM 54.
CPU44は、 MPEGエリア 54 cに格納された MPEG4ストリームを所 定量ずつ読み出すべく、 読み出しリクエストを SDRAMコントローラ 56に向 けて繰り返し発行する。 SDRAMコントローラ 56によって読み出された MP EG4ストリームは、 バス B 4を通してカード I/F 58に与えられ、 カード I /F 58によってメモリカード 64に記録される。 MPEG4ストリームは、 メ モリカード 64に形成された MP EGファイルに格納されていく。 動画記録終了 操作が行われると、 MP EG 4コーデック 26およびストリーム I/F 36が C PU44によって停止され、 これによつて動画記録処理が終了する。  The CPU 44 repeatedly issues a read request to the SDRAM controller 56 in order to read the MPEG4 stream stored in the MPEG area 54c in a fixed amount. The MP EG4 stream read by the SDRAM controller 56 is given to the card I / F 58 through the bus B 4 and is recorded in the memory card 64 by the card I / F 58. The MPEG4 stream is stored in an MP EG file formed on the memory card 64. When the moving image recording end operation is performed, the MP EG 4 codec 26 and the stream I / F 36 are stopped by the CPU 44, thereby ending the moving image recording process.
動画記録処理の途中あるいは動画記録処理が終了した後に静止画記録操作が行 われると、 CPU44は、 CCD出力回路 38, 信号処理回路 50および J P E Gコーデック 60を起動する。 CCD出力回路 38は、 SDRAM 32の生画像 エリア 32 a (図 4参照) から 1フレームの生画像デ一夕を所定量ずつ読み出す ベく、 SDRAMコントローラ 30に向けて読み出しリクエストを発行する。 S DRAMコントローラ 30によって読み出された生画像データは、 バス B 1を介 して CCD出力回路 38に与えられる。 CCD出力回路 38は、 こうして与えら れる 1フレームの生画像データを AS I C42に設けられた信号処理回路 50に 向けて出力する。  When a still image recording operation is performed during or after the moving image recording process, the CPU 44 activates the CCD output circuit 38, the signal processing circuit 50, and the JPEG codec 60. The CCD output circuit 38 issues a read request to the SDRAM controller 30 to read a predetermined amount of the raw image data of one frame from the raw image area 32 a of the SDRAM 32 (see FIG. 4). The raw image data read by the S DRAM controller 30 is given to the CCD output circuit 38 via the bus B1. The CCD output circuit 38 outputs one frame of raw image data thus given to the signal processing circuit 50 provided in the AS IC 42.
信号処理回路 50は、 CCD出力回路 38から与えられた生画像データに色分 離, YUV変換などの処理を施し、 図 8 (C) に示すように水平 1280画素 X 垂直 960画素の解像度と 4: 3のァスぺクト比とを有する YUV画像データを 生成する。 生成された YUV画像データは、 バス B 3を通して SDRAMコント ローラ 56に与えられ、 その後、 S DRAM 54の静止画像エリア 54 d (図 5 参照) に書き込まれる。 The signal processing circuit 50 performs processing such as color separation and YUV conversion on the raw image data given from the CCD output circuit 38, and as shown in Fig. 8 (C), the resolution of 1280 pixels horizontal x 960 pixels vertical and 4 : YUV image data having an aspect ratio of 3 is generated. The generated YUV image data is sent to SDRAM controller via bus B3. After being given to the roller 56, it is written in the still image area 54d of the S DRAM 54 (see FIG. 5).
J PEGコ一デック 60は、 静止画像エリア 54 dに格納された YUV画像デ 一夕を所定量ずつ読み出すベく、 読み出しリクエストを SDRAMコントローラ 56に向けて繰り返し発行する。 YUV画像データは、 SDRAMコントローラ 56によって読み出され、バス B 3を経て J PEGコ一デック 60に与えられる。 J PEGコーデック 60は、与えられた YUV画像データに J PEG圧縮を施し、 圧縮画像データつまり J PEGデータの書き込みを SDR AMコントローラ 56 に繰り返しリクエストする。 SDRAMコントローラ 56は、 バス B 3を通して J PEGコーデック 60から与えられる J PEGデータを SDR AM 54の J P EGエリア 54 aに書き込む。,  The J PEG codec 60 repeatedly issues a read request to the SDRAM controller 56 to read the YUV image data stored in the still image area 54 d by a predetermined amount. The YUV image data is read out by the SDRAM controller 56 and supplied to the J PEG codec 60 via the bus B 3. The J PEG codec 60 performs J PEG compression on the given YUV image data, and repeatedly requests the SDR AM controller 56 to write the compressed image data, that is, J PEG data. The SDRAM controller 56 writes the J PEG data given from the J PEG codec 60 through the bus B 3 into the JP EG area 54 a of the SDR AM 54. ,
CPU44は、 こうして J PEGエリア 54 aに確保された 1フレームの J P E Gデータをバス B4および SDRAMコント口一ラ 56を通して所定量ずつ読 み出し、 読み出された J PEGデータをバス B 4およびカード IZF 58を通し てメモリカード 64に記録する。 この結果、 J PEGファイルがメモリカード 6 4内に作成される。  The CPU 44 reads one frame of JPEG data secured in the JPEG area 54 a in this way through the bus B4 and the SDRAM controller 56 by a predetermined amount, and reads the read JPEG data into the bus B4 and card IZF. Record to memory card 64 through 58. As a result, a J PEG file is created in the memory card 64.
キー入力装置 68によって再生モードが選択され、 メモリカード 64に記録さ れた所望の MP EGファイルが選択されると、 CPU44は、 バス B 4および力 —ド I/F58を通してメモリカード 64にアクセスし、 所望の MPEGフアイ ルから MP EG 4ストリームを再生する。 再生された MP EG 4ストリームは、 バス B 4を通して所定量ずつ SDRAMコントローラ 56に与えられ、 SDRA Mコントローラ 56によって SDRAM54の MPEGエリア 54 c (図 5参照) に書き込まれる。  When the playback mode is selected by the key input device 68 and the desired MP EG file recorded on the memory card 64 is selected, the CPU 44 accesses the memory card 64 through the bus B 4 and the power I / F 58. Play the MP EG 4 stream from the desired MPEG file. The reproduced MP EG 4 stream is given to the SDRAM controller 56 by a predetermined amount through the bus B 4 and written into the MPEG area 54 c (see FIG. 5) of the SDRAM 54 by the SDRAM controller 56.
ストリーム IZF48は、 SDRAMコントローラ 56に向けて読み出しリク エストを繰り返し発行し、 MP EGエリア 54 cに格納された MPEG 4ストリ ームを所定量ずつ読み出す。 読み出された MP EG 4ストリームは、 バス B3を 通してストリーム IZF 48に与えられ、 その後ストリーム IZF 36に向けて 出力される。  The stream IZF 48 repeatedly issues a read request to the SDRAM controller 56, and reads the MPEG 4 stream stored in the MP EG area 54c by a predetermined amount. The read MP EG 4 stream is given to the stream IZF 48 through the bus B3 and then outputted to the stream IZF 36.
ストリーム IZF36は、 与えられた MP EG 4ストリームの書き込みを SD RAMコントローラ 30に繰り返しリクエストする。 SDRAMコントローラ 3 0は、 バス B 1を通してストリーム IZF 36から与えられる MPEG4ストリ ームを SDRAM32の MPEGエリア 32 c (図 4参照) に書き込む。 Stream IZF36 writes a given MP EG 4 stream to SD Requests to the RAM controller 30 repeatedly. The SDRAM controller 30 writes the MPEG4 stream supplied from the stream IZF 36 through the bus B 1 to the MPEG area 32 c of the SDRAM 32 (see FIG. 4).
MPEG4コーデック 26は、 MP EGエリア 32 cに格納された MP EG 4 ストリームを SDRAMコントローラ 30を通して所定量ずつ読み出す。 読み出 された MPEG4ストリームはパス B 1を通して MPEG4コーデック 26に与 えられ、 MP EG 4方式に従って伸長される。 伸長された YUV画像データは、 1/30秒に 1フレームの割合で MP EG4コ一デック 26から出力され、 バス B 1を通して所定量ずつ SDRAMコントローラ 30に与えられる。 YUV画像 デ一夕はその後、 SDRAM32の動画像エリア 32 b (図 4参照) に書き込ま れる。 '  The MPEG4 codec 26 reads the MP EG 4 stream stored in the MP EG area 32 c by a predetermined amount through the SDRAM controller 30. The read MPEG4 stream is given to the MPEG4 codec 26 through path B1 and decompressed according to the MPEG4 format. The decompressed YUV image data is output from the MP EG4 codec 26 at a rate of 1 frame per 1/30 second, and given to the SDRAM controller 30 through the bus B 1 by a predetermined amount. After that, the YUV image data is written in the moving image area 32 b (see Fig. 4) of SDRAM32. '
D 1— IZF40は、 SDRAMコントローラ 30を通して動画像エリア 32 bから YUV画像データを読み出し、 バス B 1を通して入力された YUV画像デ 一夕に上述と同様の形式変換処理を施す。 YUV画像データの解像度は、 水平 1 280画素 X垂直 720画素から水平 720画素 X水平 480画素に低減され、 低減された Y U V画像データの垂直方向両端にレターボックス成分が割り当てら れる。 この YUV画像データもまた 1ノ 30秒に 1フレームの割合で作成され、 作成された YUV画像データは D 1— IZF 52に向けて出力される。  The D 1—IZF 40 reads YUV image data from the moving image area 32 b through the SDRAM controller 30 and performs the same format conversion processing as described above on the YUV image data input through the bus B 1. The resolution of YUV image data is reduced from horizontal 1280 pixels x vertical 720 pixels to horizontal 720 pixels x horizontal 480 pixels, and letterbox components are assigned to both ends of the reduced YUV image data in the vertical direction. This YUV image data is also created at a rate of 1 frame per 1 to 30 seconds, and the created YUV image data is output to D 1—IZF 52.
上述と同様、 SDRAM 32力、ら D 1— I ZF 40へのデータ転送は 54MH zのクロックレートに従って実行され、 D 1— I/F40から D 1 - I/F 52 へのデータ転送は 27 MH zのクロックレートに従つて実行される。  As above, SDRAM 32 forces, etc. Data transfer to D 1—I ZF 40 is performed according to a clock rate of 54 MHz, and data transfer from D 1—I / F 40 to D 1 -I / F 52 is 27 MH It is executed according to the clock rate of z.
D 1 - I /F 52は、 Dl— IZF40から与えられた各フレームの YUV画 像デ一夕を、パス B 3を通して所定量ずつ SDRAMコントローラ 56に与える。 YUV画像デ 夕は、 SDRAMコントローラ 56によって SDRAM54の動 画像エリア 54b (図 5参照) に書き込まれる。  The D 1 -I / F 52 supplies the YUV image data of each frame given from the Dl—IZF 40 to the SDRAM controller 56 by a predetermined amount through the path B 3. The YUV image data is written into the moving image area 54b (see FIG. 5) of the SDRAM 54 by the SDRAM controller 56.
NT S Cエンコーダ 62は、 動画像エリ 754bに格納された YUV画像デー 夕を SDRAMコントローラ 56を通して所定量ずつ読み出し、 バス B 3を通し て与えられた YUV画像データを NT S C方式のコンポジットビデオ信号に変換 する。 読み出し処理および変換処理も、 1 30秒に 1フレームの割合で実行さ れる。変換されたコンポジットビデオ信号は LCDモニタ 66に向けて出力され、 これによつて再生動画像が図 6 (B) に示す要領でモニタ画面に表示される。 The NT SC encoder 62 reads the YUV image data stored in the moving image area 754b by a predetermined amount through the SDRAM controller 56 and converts the YUV image data given through the bus B 3 into an NT SC composite video signal. To do. Read processing and conversion processing are also executed at a rate of 1 frame per 30 seconds. It is. The converted composite video signal is output to the LCD monitor 66, whereby the playback moving image is displayed on the monitor screen in the manner shown in FIG. 6 (B).
D4— IZF28が HDTVに接続されると、 D l— IZF40に代えてある いは D 1— IZF40とともに、 D4— I/F 28が起動される。 D4— IZF 28は、 SDRAMコントローラ 30を通して SDRAM 32の動画像エリア 3 2b (図 4参照) から YUV画像データを読み出す。 各フレームの YUV画像デ 一夕は、 1Z30秒毎にラス夕走査態様 (順次走査態様) で読み出され、 バス B 1を通して D4_ I/F 28に与えられる。  When D4—IZF28 is connected to an HDTV, D4—I / F 28 is activated along with D1—IZF40 or with D1—IZF40. D4—The IZF 28 reads YUV image data from the moving image area 3 2b (see FIG. 4) of the SDRAM 32 through the SDRAM controller 30. The YUV image data for each frame is read out in the last evening scanning mode (sequential scanning mode) every 1Z30 seconds, and given to D4_I / F 28 through bus B1.
D4— IZF28は、 与えられた YUV画像データを D 4規格に適合するビデ ォ信号に変換し、 変換されたビデオ信号を HDTVに出力する。 この結果、 高画 質の再生動画像が、 図 6 (A) に示す要領で TV画面に表示される。  D4—IZF28 converts the provided YUV image data into a video signal conforming to the D4 standard, and outputs the converted video signal to the HDTV. As a result, high-quality playback video is displayed on the TV screen as shown in Fig. 6 (A).
再生モードが選択された状態で所望の J P E Gファイルが選択されると、 C P U44は、 パス B 4およびカード I /F 58を通してメモリカード 64にァクセ スし、 所望の J PEGファイルに格納された J PEGデ一夕を再生する。 再生さ れた J PEGデータは、 バス B 4および SDRAMコント口一ラ 56を通して S DRAM 54の J PEGエリア 54a (図 5参照) に書き込まれる。  When the desired JPEG file is selected with the playback mode selected, the CPU 44 accesses the memory card 64 through path B 4 and card I / F 58, and stores the J JPEG file stored in the desired J PEG file. Play the PEG video. The reproduced J PEG data is written into the J PEG area 54a (see FIG. 5) of the S DRAM 54 through the bus B 4 and the SDRAM controller 56.
J PEGコーデック 60は、 J PEGエリア 54 aに格納された J PEGデー 夕を SDRAMコントローラ 56を通して所定量ずつ読み出し、 バス B 3を通し て与えられた J PEGデータを伸長する。 J PEGコーデック 60はさらに、 伸 長された YUV画像デ一夕の書き込みを SDRAMコントローラ 56にリクエス トする。 SDRAMコントローラ 56は、 パス B 3を通して転送された YUV画 像デ一夕を SDRAM54の静止画像エリア 54 d (図 5参照) に書き込む。  The J PEG codec 60 reads the J PEG data stored in the J PEG area 54a by a predetermined amount through the SDRAM controller 56, and decompresses the J PEG data given through the bus B3. The JPEG codec 60 further requests the SDRAM controller 56 to write the extended YUV image data. The SDRAM controller 56 writes the YUV image data transferred through the path B 3 in the still image area 54 d of the SDRAM 54 (see FIG. 5).
NTS Cエンコーダ 62は、 静止画像エリァ 54 dに格納された YUV画像デ 一夕をバス B 3および SDRAMコントローラ 56を通して読み出し、 読み出さ れた YUV画像データを NTS C方式のコンポジットビデオ信号に変換する。 こ のとき、 解像度が水平 1280画素 X垂直 960画素から水平 720画素 X水平 480画素に低減される。 読み出し処理および変換処理は、 上述と同様、 1 3 0秒に 1フレームの割合で実行される。 変換されたコンポジットビデオ信号は L CDモニタ 66に向けて出力され、 これによつて再生静止画像がモニタ画面に表 示される。 The NTS C encoder 62 reads the YUV image data stored in the still image area 54d through the bus B 3 and the SDRAM controller 56, and converts the read YUV image data into an NTSC C composite video signal. At this time, the resolution is reduced from horizontal 1280 pixels x vertical 960 pixels to horizontal 720 pixels x horizontal 480 pixels. The read process and conversion process are executed at a rate of 1 frame per 1300 seconds, as described above. The converted composite video signal is output to the LCD monitor 66, and the playback still image is displayed on the monitor screen. Indicated.
D4- I/F28が HDTVに接続されると、 NTS Cエンコーダ 62に代え て XBUS— I/F46が起動される。 XBUS— IZF46は、 バス B4およ び SDRAMコントローラ 56を通して静止画像エリア 54 dから YUV画像デ —夕を読み出し、 読み出された YUV画像データを AS I C20に設けられた X BUS— I/F 34に向けて出力する。 XBUS— I/F34は、 与えられた Y UV画像データをバス B 2および SDRAMコントローラ 30を通して SDRA M32の静止画像エリァ 32 d (図 4参照) に所定量ずつ書き込む。  When D4-I / F28 is connected to HDTV, XBUS—I / F46 is activated instead of NTS C encoder 62. XBUS—IZF46 reads YUV image data from still image area 54d through bus B4 and SDRAM controller 56, and reads the read YUV image data to XBUS—I / F 34 provided in AS I C20. Output to. The XBUS—I / F 34 writes the given Y UV image data through the bus B 2 and the SDRAM controller 30 to the still image area 32 d (see FIG. 4) of the SDRA M32 by a predetermined amount.
D4— IZF28は、 バス B 1および SDRAMコントローラ 30を通して静 止画像エリア 32 dから YUV画像デ一夕を所定量ずつ読み出し、 読み出された YUV画像データを D 4規格のビデオ信号に変換する。 読み出し処理および変換 処理は 1 Z 30秒に 1フレームの割合で実行される。 変換されたビデオ信号は H D TVに向けて出力され、この結果、高画質の静止画像が TV画面に表示される。 静止画像エリア 32 dから読み出される YUV画像データの解像度は水平 12 80画素 X垂直 960画素である一方、 HDTVに向けて出力されるビデオ信号 の解像度は水平 1280画素 X垂直 720画素である。 したがって、 垂直方向両 端が部分的に欠落した静止画像が T V画面に表示される。  D4—IZF 28 reads a predetermined amount of YUV image data from static image area 32 d through bus B 1 and SDRAM controller 30, and converts the read YUV image data into a D4 standard video signal. The reading process and conversion process are executed at a rate of 1 frame per 1 Z 30 seconds. The converted video signal is output to the HD TV, and as a result, a high-quality still image is displayed on the TV screen. The resolution of YUV image data read from the still image area 32d is 1280 pixels x 960 pixels horizontally, while the resolution of the video signal output to the HDTV is 1280 pixels x 720 pixels vertically. Therefore, a still image that is partially missing at both ends in the vertical direction is displayed on the TV screen.
以上の説明から分かるように、 〇03/八00 八0回路18 aおよび 18 b の各々から出力された生画像データ (第 1動画像データ) は、 チャネルマツチン グ回路 22 (取り込み手段) によって取り込まれ、 バス B 1 (第 1バス) を通し て SDRAM32 (第 1メモリ) に書き込まれる。 第 1メモリに格納された生画 像データは、 バス B 1を通して読み出され、 信号処理回路 24 (第 1処理手段) によって色分離や YUV変換などの処理 (第 1処理) を施される。 信号処理回路 24によって作成された YUV画像データ (第 2動画像データ) は、 パス B 1を 通して SDRAM 32に書き込まれる。 SDRAM 32に格納された YUV画像 データはバス B 1を通して読み出され、 D4— IZF28 (第 1出力手段) によ つて HDTV (第 1モニタ) に向けられた出力処理を施される。 この結果、 対応 する動画像が HDTVの画面に表示される。  As can be seen from the above explanation, the raw image data (first moving image data) output from each of the circuits 03a and 18b 18a and 18b is transmitted by the channel matching circuit 22 (capture means). It is fetched and written to SDRAM32 (first memory) through bus B 1 (first bus). The raw image data stored in the first memory is read through the bus B 1 and subjected to processing (first processing) such as color separation and YUV conversion by the signal processing circuit 24 (first processing means). The YUV image data (second moving image data) created by the signal processing circuit 24 is written to the SDRAM 32 through the path B 1. The YUV image data stored in the SDRAM 32 is read out via the bus B1, and output processing directed to the HDTV (first monitor) is performed by the D4-IZF28 (first output means). As a result, the corresponding video is displayed on the HDTV screen.
D 1 - I/F40 (低減手段) は、 バス B 1を通して SDRAM 32から読み 出された YUV画像データの解像度を低減させる。 低解像度の YUV画像データ (第 3動画像データ) は、 パス B 3 (第 2バス) を通して SDRAM 54 (第 2 メモリ) に書き込まれる。 SDRAM 54に格納された YUV画像データは、 バ ス B 3を通して読み出され、 NTS Cエンコーダ 62 (第 2出力手段) によって LCDモニタ (第 2モニタ) に向けられた出力処理を施される。 この結果、 対応 する動画像が第 2モニタの画面に表示される。 D 1-I / F40 (reduction measure) reads from SDRAM 32 through bus B 1 Reduce the resolution of the output YUV image data. The low-resolution YUV image data (third moving image data) is written to SDRAM 54 (second memory) through path B 3 (second bus). The YUV image data stored in the SDRAM 54 is read through the bus B 3 and subjected to output processing directed to the LCD monitor (second monitor) by the NTSC encoder 62 (second output means). As a result, the corresponding moving image is displayed on the second monitor screen.
このように、 HDTV用の YUV画像データを作成するための一連の処理は、 バス B 1および SDRAM32を用いて実行される。 また、 LCDモニタ 66用 の YUV画像データを作成するための一連の処理は、 バス B 3および SDRAM 54を用いて実行される。 ここで、 HDTV用の YUV画像データの解像度は、 LCDモニタ用の YUV画像データの解像度よりも高い。 つまり、 高解像度の動 画像データの処理のような高速処理にはバス B 1および SDRAM 32が利用さ れ、 低解像度の動画像デ一夕の処理のような低速処理にはバス B 3および SDR AM54が利用される。 この結果、 複数の形式に適合する処理を破綻を引き起こ すことなく実行できる。  In this way, a series of processes for creating HDTV YUV image data is executed using the bus B 1 and the SDRAM 32. A series of processing for creating YUV image data for the LCD monitor 66 is executed using the bus B 3 and the SDRAM 54. Here, the resolution of YUV image data for HDTV is higher than the resolution of YUV image data for LCD monitors. In other words, bus B 1 and SDRAM 32 are used for high-speed processing such as high-resolution video data processing, and bus B 3 and SDR for low-speed processing such as low-resolution video processing. AM54 is used. As a result, processing that conforms to multiple formats can be executed without causing failure.
また、 動画記録操作が行われると、 パス B 1を通して SDRAM32から読み 出された YUV画像データが、 MPEGコーデック 26 (第 1圧縮手段) によつ て圧縮される。 これによつて作成された MPEG4ストリーム (第 4動画像デー 夕) は、 バス B 1を通して SDRAM32に書き込まれる。 圧縮前の YUV画像 データおよび圧縮後の MP EG 4ストリームのいずれも共通のパス B 1を用いて 転送することで、 高速の圧縮処理が実現される。  When a moving image recording operation is performed, YUV image data read from the SDRAM 32 through the path B 1 is compressed by the MPEG codec 26 (first compression means). The MPEG4 stream (fourth moving image data) created in this way is written to the SDRAM 32 through the bus B1. High-speed compression processing is realized by transferring both the uncompressed YUV image data and the compressed MP EG 4 stream using the common path B1.
MP EG 4ストリームは、 その後、 バス B 1を通して SDRAM 32から読み 出され、 パス B 3を通して SDRAM54に書き込まれる。 MPEG4ストリー ムはその後、 バス B 3を通して SDRAM 54から読み出され、 カード I/F 5 8 (動画記録手段) によってメモリカード 64 (記録媒体) に記録される。 静止画記録操作が行われると、 1フレームの生画像デ一夕 (第 1静止画像デー 夕) が CCD出力回路 38 (第 2処理手段) によって抽出され、 YUV画像デー タ (第 2静止画像データ) に変換される。 変換された YUV画像データは、 パス B 3を通して S D RAM 54に書き込まれ、 その後 J P E G圧縮を経てメモリ力 —ド 58に記録される。 フレームレートの問題が生じない静止画像データの処理 (低速処理) にバス B2および SDRAM54を利用することで、 処理の破綻が 回避される。 The MP EG 4 stream is then read from SDRAM 32 via bus B 1 and written to SDRAM 54 via path B 3. Thereafter, the MPEG4 stream is read from the SDRAM 54 through the bus B 3 and recorded on the memory card 64 (recording medium) by the card I / F 58 (moving image recording means). When a still image recording operation is performed, one frame of raw image data (first still image data) is extracted by the CCD output circuit 38 (second processing means), and YUV image data (second still image data) is extracted. ) Is converted to. The converted YUV image data is written to the SD RAM 54 through path B 3, and then subjected to JPEG compression and memory power. — Recorded at 58. By using bus B2 and SDRAM54 for still image data processing (low-speed processing) that does not cause frame rate problems, processing failures are avoided.
なお、 この実施例では、 イメージセンサとして CCDイメージャを用いている が、 これに代えて CMO Sイメージャなどの他のィメ一ジセンサを採用するよう にしてもよい。 また、 この実施例では、 静止画像の圧縮方式として J PEG方式 を採用しているが、 これに代えて J PEG2000方式を採用するようにしても よい。 さらに、 この実施例では、 動画像の圧縮方式として MP EG 4方式を採用 しているが、 これに代えて M J PEG方式, M J PEG2000方式または H. 264方式のような他の動画圧縮方式を採用してもよい。  In this embodiment, a CCD imager is used as the image sensor, but other image sensors such as a CMOS imager may be adopted instead. In this embodiment, the J PEG method is adopted as a still image compression method, but the J PEG 2000 method may be adopted instead. Furthermore, in this embodiment, the MP EG 4 system is adopted as the moving picture compression system, but other video compression systems such as the MJ PEG system, the MJ PEG2000 system, or the H.264 system are employed instead. May be.
この発明が詳細に説明され図示されたが、 それは単なる図解および一例として 用いたものであり、 限定であると解されるべきではないことは明らかであり、 こ の発明の精神および範囲は添付されたクレームの文言によってのみ限定される。  Although the invention has been described and illustrated in detail, it is clear that the invention has been used merely as an illustration and example and should not be construed as limiting, the spirit and scope of the invention being attached Limited only by the wording of the claims.

Claims

請求の範囲 The scope of the claims
1 . 画像処理装置であって、 次のものを備える:  1. An image processing device comprising:
第 1メモリに第 1バスを通して書き込むべき第 1動画像データを取り込む取り 込み手段;  Means for capturing the first moving image data to be written to the first memory through the first bus;
前記第 1メモリから前記第 1バスを通して読み出された第 1動画像データに第 1処理を施して、 前記第 1メモリに前記第 1バスを通して書き込むべき第 2動画 像データを作成する第 1処理手段;  A first process for performing a first process on the first moving image data read from the first memory through the first bus and generating a second moving image data to be written to the first memory through the first bus. Means;
前記第 1メモリ力 ^ら前記第 1バスを通して読み出された第 2動画像デ一夕に第 1モニタに向けられた出力処理を施す第 1出力手段;  First output means for performing an output process directed to the first monitor on the second moving image data read from the first memory power ^ through the first bus;
前記第 1メモリから前記第 1バスを通して読み出された第 2動画像デー夕の解 像度を低減させて、 第 2メモリに第 2パスを通して書き込むべき第 3動画像デー 夕を作成する低減手段;および  Reducing means for reducing the resolution of the second moving image data read from the first memory through the first bus and creating third moving image data to be written to the second memory through the second pass. ;and
前記第 2メモリから前記第 2バスを通して読み出された第 3動画像データに第 2モニタに向けられた出力処理を施す第 2出力手段。  Second output means for applying an output process directed to the second monitor to the third moving image data read from the second memory through the second bus;
2 . クレーム 1に従属する画像処理装置であって、 前記第 1動画像データは複 数色のいずれか 1つが各々の画素に割り当てられたデータであり、 前記第 1処理 は前記複数色の全てを各々の画素に割り当てる色処理を含む。  2. An image processing apparatus according to claim 1, wherein the first moving image data is data in which any one of a plurality of colors is assigned to each pixel, and the first processing is performed for all of the plurality of colors. Color processing for assigning to each pixel.
3 . クレーム 1に従属する画像処理装置であって、 前記第 2動画像データは第 1ァスぺクト比に対応する第 1解像度を有し、 前記第 3動画像データは第 2ァス ぺクト比に対応する第 2解像度を有する。  3. An image processing apparatus according to claim 1, wherein the second moving image data has a first resolution corresponding to a first aspect ratio, and the third moving image data is a second case. A second resolution corresponding to the image ratio.
4. クレーム 3に従属する画像処理装置であって、 前記第 1アスペクト比は 1 6 : 9であり、 前記第 2アスペクト比は 4 : 3である。  4. An image processing apparatus according to claim 3, wherein the first aspect ratio is 16: 9, and the second aspect ratio is 4: 3.
5 . クレーム 1に従属する画像処理装置であって、 前記第 2動画像データおよ び前記第 3動画像データは互いに同じフレームレートを有する。  5. An image processing device according to claim 1, wherein the second moving image data and the third moving image data have the same frame rate.
6 . クレーム 1に従属する画像処理装置であって、 前記取り込み手段は被写界 を周期的に撮影する撮影手段を含む。  6. An image processing apparatus according to claim 1, wherein the capturing means includes imaging means for periodically imaging the object scene.
7 . クレーム 6に従属する画像処理装置であって、 前記撮影手段は、 複数の部 分撮像ェリァが形成された撮像面、 および前記複数の部分撮像ェリァにそれぞれ 割り当てられた複数の出力経路を有し、 前記取り込み手段は、 前記複数の出力経 路から出力された電荷に基づいて前記第 1動画像データを作成する作成手段をさ らに含む。 7. An image processing device according to claim 6, wherein the imaging means has an imaging surface on which a plurality of partial imaging areas are formed and a plurality of output paths respectively assigned to the plurality of partial imaging areas. And the capturing means includes the plurality of output paths. Further, a creation means for creating the first moving image data based on the electric charge output from the path is further included.
8 . クレーム 1に従属する画像処理装置であって、 前記第 1メモリから前記第 1バスを通して読み出された第 2動画像データのデータ量を圧縮して、 前記第 1 メモリに前記第 1バスを通して書き込むべき第 4動画像データを作成する第 1圧 縮手段をさらに備える。  8. An image processing apparatus according to claim 1, wherein the first bus is compressed in the first memory by compressing a data amount of the second moving image data read from the first memory through the first bus. The first compression means for creating the fourth moving image data to be written through is further provided.
9 . クレーム 8に従属する画像処理装置であって、 前記第 1圧縮手段は第 1所 定操作が行われたとき圧縮処理を実行する。  9. An image processing apparatus according to claim 8, wherein the first compression means executes a compression process when a first predetermined operation is performed.
1 0.クレーム 8に従属する画像処理装置であって、次のものをさらに備える: 前記第 1メモリから前記第 1バスを通して読み出された第 4動画像データを前記 第 2メモリに前記第 2バスを通して書き込む第 1書き込み手段;および前記第 2 メモリから前記第 2バスを通して読み出された第 4動画像データを記録媒体に記 録する動画記録手段。  1 0. An image processing apparatus according to claim 8, further comprising: fourth moving image data read from the first memory through the first bus to the second memory; First writing means for writing through a bus; and moving image recording means for recording the fourth moving image data read from the second memory through the second bus on a recording medium.
1 1 . クレーム 1に従属する画像処理装置であって、 前記第 1動画像データを 形成する 1フレームの第 1静止画像データに第 2処理を施して、 前記第 2メモリ に前記第 2バスを通して書き込むべき第 2静止画像データを作成する第 2処理手 段をさらに備える。  1 1. An image processing device according to claim 1, wherein the second processing is performed on the first still image data of one frame forming the first moving image data, and the second memory is passed through the second bus. It further includes a second processing means for creating second still image data to be written.
1 2. クレーム 1 1に従属する画像処理装置であって、 前記第 2処理手段は第 2所定操作が行われたとき前記第 2処理を実行する。  1 2. An image processing device according to claim 1 1, wherein the second processing means executes the second processing when a second predetermined operation is performed.
1 3 . クレーム 1 1に従属する画像処理装置であって、 前記第 2メモリから前 記第 2パスを通して読み出された第 2静止画像データのデータ量を圧縮して、 前 記第 2メモリに前記第 2バスを通して書き込むべき第 3静止画像データを作成す る第 2圧縮手段をさらに備える。  1 3. An image processing device according to claim 1 1, wherein the amount of second still image data read from the second memory through the second pass is compressed and stored in the second memory. The apparatus further comprises second compression means for creating third still image data to be written through the second bus.
1 4. クレーム 1 3に従属する画像処理装置であって、 前記第 2圧縮手段によ つて作成された第 3静止画像データを記録媒体に記録する静止画記録手段をさら に備える。  1 4. The image processing device according to claim 13 further comprising still image recording means for recording the third still image data created by the second compression means on a recording medium.
PCT/JP2005/018228 2004-12-17 2005-09-26 Image processor WO2006064604A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/792,481 US8072643B2 (en) 2004-12-17 2005-09-26 Image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-365820 2004-12-17
JP2004365820A JP4118272B2 (en) 2004-12-17 2004-12-17 Image processing device

Publications (1)

Publication Number Publication Date
WO2006064604A1 true WO2006064604A1 (en) 2006-06-22

Family

ID=36587668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/018228 WO2006064604A1 (en) 2004-12-17 2005-09-26 Image processor

Country Status (3)

Country Link
JP (1) JP4118272B2 (en)
CN (1) CN101061531A (en)
WO (1) WO2006064604A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104702926B (en) 2007-04-11 2017-05-17 Red.Com 公司 Video camera
US8237830B2 (en) 2007-04-11 2012-08-07 Red.Com, Inc. Video camera
WO2014127153A1 (en) 2013-02-14 2014-08-21 Red. Com, Inc. Video camera
WO2019010233A1 (en) 2017-07-05 2019-01-10 Red. Com, Llc Video image data processing in electronic devices

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319352A (en) * 1996-05-28 1997-12-12 Oki Electric Ind Co Ltd Display control circuit
JP2002247517A (en) * 2001-02-14 2002-08-30 Sanyo Electric Co Ltd Digital camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319352A (en) * 1996-05-28 1997-12-12 Oki Electric Ind Co Ltd Display control circuit
JP2002247517A (en) * 2001-02-14 2002-08-30 Sanyo Electric Co Ltd Digital camera

Also Published As

Publication number Publication date
CN101061531A (en) 2007-10-24
JP4118272B2 (en) 2008-07-16
JP2006171524A (en) 2006-06-29

Similar Documents

Publication Publication Date Title
JP4131052B2 (en) Imaging device
US8072643B2 (en) Image processing apparatus
US20120327285A1 (en) Electronic camera for producing quickview images
JP4253881B2 (en) Imaging device
US8005342B2 (en) Digital camera
JP4261673B2 (en) Electronic endoscope device capable of digital output
US7236194B2 (en) Image signal processing apparatus
WO2006064604A1 (en) Image processor
JP3893441B2 (en) Display device and control method thereof
JP4158245B2 (en) Signal processing device
JP2000152051A (en) Image pickup device
JP2713295B2 (en) Driving method of solid-state imaging device and imaging device
JP2000092349A (en) Image processor
JP2000115693A (en) Image data recording method and device, image data reproducing method and device, information recording medium and computer-readable recording medium
JP2000115694A (en) Image data recording method and device thereof, image data reproducing method and device thereof information recording medium and computer-readable recording medium
JP3745605B2 (en) Electronic still camera
JPH07322114A (en) Image pickup device
JPH0884299A (en) Solid-state image pickup device
JP3777723B2 (en) Electronic still camera
JPH10145650A (en) Image pickup device
JP2000278677A (en) Electronic endoscope
JP2003143562A (en) Method and device for video signal transmission
JPH11239284A (en) Image pickup method and image pickup device
JPH06209435A (en) Picture input output transmission system
JPH11191859A (en) Image pickup device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200580039175.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11792481

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05788329

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5788329

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11792481

Country of ref document: US