WO2006120821A1 - 画像処理システム - Google Patents

画像処理システム Download PDF

Info

Publication number
WO2006120821A1
WO2006120821A1 PCT/JP2006/307322 JP2006307322W WO2006120821A1 WO 2006120821 A1 WO2006120821 A1 WO 2006120821A1 JP 2006307322 W JP2006307322 W JP 2006307322W WO 2006120821 A1 WO2006120821 A1 WO 2006120821A1
Authority
WO
WIPO (PCT)
Prior art keywords
sub
image
processor
display
processing
Prior art date
Application number
PCT/JP2006/307322
Other languages
English (en)
French (fr)
Inventor
Masahiro Yasue
Eiji Iwata
Munetaka Tsuda
Ryuji Yamamoto
Shigeru Enomoto
Hiroyuki Nagai
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to US11/912,703 priority Critical patent/US20090066706A1/en
Publication of WO2006120821A1 publication Critical patent/WO2006120821A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42607Internal components of the client ; Characteristics thereof for processing the incoming bitstream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB

Definitions

  • the present invention relates to a multiprocessor information processing technology, and more particularly to an image processing system for executing image processing in a multiprocessor system.
  • the present invention has been made in view of such circumstances, and its general purpose (a general purpose) is to provide an image processing apparatus capable of processing a plurality of contents more efficiently.
  • an image processing system comprises a plurality of sub-processors that perform predetermined processing on data related to an image, and a plurality of sub-processors via a bus.
  • a plurality of main processors connected and executing predetermined application software to control a plurality of sub-processors; a data supply unit for supplying data related to an image to the main processor and the plurality of sub-processors via a bus;
  • the sub And a display control unit that performs processing for outputting an image processed by the mouth setter to the display device, and the application software includes information indicating the division of roles of the plurality of sub-processors, and the plurality of sub-processors.
  • the plurality of sub-processors are information indicating the division of duties instructed by the application software, and And sequentially processing data relating to the image supplied from the data supply unit in accordance with the information indicating the display effect, and displaying the processed image on the display position of the display device.
  • a method, an apparatus, a system, a recording medium, and a computer program representing the present invention are also effective as an aspect of the present invention.
  • image processing in a multiprocessor can be suitably executed.
  • FIG. 1 is a view showing an example of the configuration of an image processing system according to an embodiment of the present invention.
  • FIG. 2 is a view showing an example of the configuration of a main processor of FIG. 1;
  • FIG. 3 A diagram showing an example of configuration of a sub processor of FIG.
  • FIG. 4 is a view showing an example of the configuration of application software stored in the main memory of FIG. 1;
  • FIG. 5 is a view showing an example of a first display screen of the monitor of FIG. 1;
  • FIG. 6 is a diagram showing an example of the division of roles of the sub-processors of FIG. 1;
  • FIG. 7 is a diagram showing an example of the entire processing sequence according to an embodiment of the present invention.
  • FIG. 8 is a diagram showing an example of the start-up sequence of FIG. 7;
  • FIG. 9 A diagram showing an example of a first processing sequence in the signal processing sequence of FIG. 7.
  • FIG. 10 A diagram showing an example of a second processing sequence in the signal processing sequence of FIG. It is a figure which shows the example of the 3rd processing sequence in the signal processing sequence of FIG. 12 is a view showing an example of a fourth processing sequence in the signal processing sequence of FIG. 7;
  • FIG. 13 is a view showing an example of the configuration of a main memory shown in FIG. 1;
  • FIG. 14A is a view showing an example of a second display screen of the monitor of FIG. 1.
  • FIG. 14A is a view showing an example of a second display screen of the monitor of FIG. 1.
  • FIG. 14B is a view showing an example of a third display screen of the monitor of FIG. 1;
  • FIG. 14C is a view showing an example of a fourth display screen of the monitor of FIG. 1;
  • FIG. 15A is a photograph of a halftone image with the example of the fifth display screen of the monitor in FIG. 1 displayed on the display.
  • FIG. 15B is a photograph of a halftone image with the example of the sixth display screen of the monitor in FIG. 1 displayed on the display.
  • FIG. 15C is a photograph of a halftone image with the example of the seventh display screen of the monitor in FIG. 1 displayed on the display.
  • FIG. 15D is a photograph of a halftone image with the example of the eighth display screen of the monitor in FIG. 1 displayed on the display.
  • An image processing system useful in the present embodiment includes a multiprocessor including a main processor and a plurality of sub-processors, a television tuner (hereinafter abbreviated as “ ⁇ tuner”), a network interface, a hard disk, and a digital It is equipped with Video Disc Dryo (hereinafter abbreviated as “DVD driver”), etc., and can receive, reproduce, and record various video contents.
  • ⁇ tuner television tuner
  • DVD driver Video Disc Dryo
  • the task processing such as the demodulation processing of the image data is shared in consideration of the remaining processing capability of the server, the content can be efficiently reproduced.
  • the division of roles it is possible to simultaneously process a plurality of different contents such as images and sounds, and to display or reproduce them at a desired timing.
  • this display and reproduction by setting a display effect and a display position set in advance, an image which can easily recognize visually processed image data can be displayed on a display etc. and can be easily recognized aurally. It can play back audio. Details will be described later.
  • FIG. 1 is a diagram showing an exemplary configuration of an image processing system 100 according to an embodiment of the present invention.
  • the image processing system 100 includes a main processor 10, and a first subprocessor 12A, a second subprocessor 12B, a third subprocessor 12C, a fourth subprocessor 12D, a fifth subprocessor 12E, and a fifth subprocessor 12E represented by the subprocessor 12.
  • a network interface 26 (hereinafter referred to as “network IF”), a hard disk 28, a DVD driver 30, and a universal serial bus 32 (universal serial bus, hereinafter referred to as “USB32”).
  • Controller 34 analog-to-digital converter ⁇ 36 (Analog Digital Convertor 0 or less, abbreviated as "ADC 36"), radio frequency processor 38 (R an adio frequency processing unit, which includes an antenna 40 and an RF processing unit 38.
  • the image processing system 100 includes a multi-core processor 11 as a central processing unit (hereinafter, abbreviated as “C PU”).
  • the multi-core processor 11 comprises one main processor 10, a plurality of sub processors 12, a memory control unit 14 and a first interface 18.
  • FIG. 1 a configuration having eight sub processors 12 is shown as an example.
  • the main processor 10 is connected to a plurality of sub processors 12 via a bus, and according to application software 54 described later, schedule management of thread execution by each sub processor 12 and general management of the multi-core processor 11 Do.
  • the sub processor 12 performs predetermined processing on data relating to the image sent from the memory control unit 14 via the noise.
  • the memory control unit 14 has a main memory 16 The stored data, the application software 54 is read and written.
  • the first interface 18 receives data sent from the ADC 36, the second interface 24, and the graphic card 20, and outputs the data to the bus.
  • the graphic card 20 which is a display control unit sends the image data sent via the first interface 18 to the monitor unit 22 in consideration of the display position of the image data and the display effect.
  • the monitor unit 22 displays the sent image data on a display device such as a display.
  • the graphic card 20 may further transmit audio-related data and volume to a speaker (not shown) according to the instruction of the sub processor 12.
  • the frame memory 21 may be present in the graphic card 20.
  • the multi-core processor 11 can display any moving image or still image on the monitor unit 22 by writing image data in the frame memory 21. .
  • the display position of the image in the monitor unit 22 is determined by the address of the frame memory 21 in which the image is written.
  • the second interface 24 is an interface unit between the multi-core processor 11 and various devices.
  • the various devices are the home local area network (Local Area Network 0 or less, abbreviated as "Home LAN"), the network interface 26 which is an interface with the Internet, etc., or the hard disk 28, or DVD It refers to the driver 32 or an input / output terminal such as USB 32 for connection with the controller 34 that receives an instruction from an external power user.
  • Home LAN Local Area Network 0 or less, abbreviated as "Home LAN”
  • the network interface 26 which is an interface with the Internet, etc., or the hard disk 28, or DVD It refers to the driver 32 or an input / output terminal such as USB 32 for connection with the controller 34 that receives an instruction from an external power user.
  • An antenna 40 receives a TV broadcast wave.
  • the TV broadcast wave may be analog terrestrial wave, digital terrestrial wave, satellite broadcast wave or the like. In addition, it may be a vision broadcast wave.
  • the TV broadcast wave may include a plurality of channels.
  • the TV transmission wave is down converted by the down converter included in the RF processing unit 38 and then AZD converted by the ADC 36. That is, the downconverted digital TV broadcast wave including a plurality of channels is input to the multi-core processor 11.
  • FIG. 2 is a diagram showing a configuration example of the main processor 10 of FIG.
  • the main processor 10 includes a main processor control unit 42, an internal memory 44, and a direct memory access control unit 46 (Direct Memory Access Controller, hereinafter abbreviated as "DMAC 46").
  • the main processor control unit 42 is an application read from the main memory 16 via a noise.
  • the multicore processor 11 is controlled based on the case software 54. Specifically, it instructs the respective sub-processors 12 on the image data to be processed and the processing procedure. Details will be described later.
  • the internal memory 44 is used to temporarily hold intermediate data in the processing of the main processor controller 42. By using the internal memory 44 without using an external memory, high-speed read and write operations can be performed.
  • the DMAC 46 performs high-speed data transfer with each sub processor 12 or main memory 16 by the DMA method.
  • the DMA method is a function that allows direct exchange of data between the main memory 16 and peripheral devices or between peripheral devices without intervention of the CPU. In this case, a large amount of data can be transferred at high speed because the load on the CPU is! /.
  • FIG. 3 is a diagram showing a configuration example of the sub processor 12 of FIG.
  • the sub processor 12 includes a sub processor control device 48, an internal memory 50 for the sub processor, and a direct memory access control unit 52 for the sub processor (hereinafter, abbreviated as "the DMAC 52 for the sub processor").
  • the sub processor control unit 48 executes threads in parallel and independently under control of the main processor 10 to process data.
  • a thread is an execution procedure of multiple programs or multiple programs, and control data required to execute the programs.
  • the threads in the main processor 10 may be configured to operate in cooperation with the threads in each sub processor 12.
  • the sub processor internal memory 50 is used to temporarily hold intermediate data during processing in the sub processor 12.
  • the sub-processor DMAC 52 performs high-speed data transfer with the main processor 10 or another sub-processor 12 or the main memory 16 by the DMA method.
  • the sub-processors 12 respectively execute processing that is divided into roles according to the individual processing capacity or the remaining processing capacity. In the specific examples described below, it is assumed that the processing capabilities of all the sub-processors 12 are equal and that processing other than the processing shown in the specific example is not performed.
  • Processing capacity refers to the size of data that the sub-processor 12 can simultaneously process, or the size of a program.
  • the size of the display screen determines the number that one sub processor 12 can process. In the following example, it is assumed that two MPEG decoding processes can be performed per one sub processor 12. When the size of the display screen is reduced, two or more MPEG decoding processes can be performed. Also, If the size of the display screen is further increased, only one MPEG decoding process can be performed. In the plurality of sub-processors 12, one MPEG decoding process may be shared.
  • FIG. 4 is a view showing an example of the configuration of application software 54 built in the main memory 16 of FIG.
  • the application software 54 is programmed so that the main processor 10 described above will work correctly with each sub-processor 12.
  • FIG. 4 shows the configuration for image processing, but the configuration is the same for other applications.
  • Application software 54 includes a header 56, display layout information 58, a thread 60 for the main processor, a first thread 62 for the sub processor, a second thread 64 for the sub processor, a third thread 65 for the sub processor, and a fourth thread 66 for the sub processor. , 68 units of data.
  • the application software 54 is stored in the non-volatile memory such as the hard disk 28 when the power is off. It is read in the power-on state and stored in the main memory 16. Thereafter, necessary units are downloaded to the main processor 10 or each sub processor 12 in the multi-core processor 11 and executed as needed.
  • the header 56 includes the number of sub-processors 12 required to execute the application software 54, the capacity of the main memory 16, and the like.
  • the display layout information 58 includes coordinate data indicating a display position when the application software 54 is executed and displayed on the monitor unit 22, a display effect when displayed on the monitor unit 22, and the like.
  • the display effect is an effect of reproducing an image together with the image when it is displayed on the monitor unit 22 or an effect that the image Z sound changes with time, or a user's controller. This is the change in the image Z sound by the instruction to 34, the effect that the image is emphasized and displayed, or the effect that changes the intensity of the color of the effect image that increases the volume. "Varying the intensity of coloring” refers to changing the shade or color of the color of an image or blinking the image.
  • the address AO of the frame memory 21 is a coordinate that is pressed on the display screen of the monitor unit 22. It is assumed that the address Al corresponds to (x0, yO), and the address Al corresponds to the coordinates (xl, yl) that are pressed on the display screen of the monitor unit 22.
  • the monitor unit 22 displays the image at coordinates (x0, yO) at time tO, and time tl , The image is displayed at coordinates (xl, yl). In other words, for the user watching the screen, it is possible to give an effect as if the image moved in the screen at time t0.
  • sub-processor 12 processing an image according to the display effect defined in the application software 54 described later, and sequentially writing the image in the frame memory 21.
  • any moving image or still image can be displayed on the monitor unit 22 at any position.
  • the main processor thread 60 is a thread to be executed by the main processor 10, and includes division of duty information indicating which sub processor 12 should perform which processing.
  • the first sub-processor thread 62 is a thread for performing band pass filtering that is executed by the sub processor 12.
  • the second sub processor thread 64 is a thread for performing demodulation processing executed by the sub processor 12.
  • the fourth sub processor thread 66 is a thread for performing MPEG decoding processing executed by the sub processor 12.
  • the data 68 is various data required to execute the application software 54.
  • FIG. 5 is a diagram showing an example of a first display screen in the monitor unit 22 of FIG. FIG. 5 shows the configuration of a menu screen generated by the multi-media playback device.
  • a media icon array 70 in which multiple media icons are arranged in the horizontal direction
  • a cross-shaped two-dimensional array in which the content icon array 72 in which a plurality of content icons are arranged in a straight direction intersect is displayed.
  • the media icon array 70 includes a TV broadcast icon 74, a DVD icon 78, a net broadcast icon 80, and a hard disk icon 82 as marks indicating the types of media that can be reproduced by the image processing system 100.
  • the content icon array 72 includes icons such as thumbnails of a plurality of contents stored in the main memory 16.
  • the menu screen composed of the media icon array 70 and the content icon array 72 is an on-screen display, and is displayed superimposed on the front of the content image.
  • effect processing is performed to easily distinguish the appearance of the TV broadcast icon 74 over the entire area of the media icon array 70 and the content icon array 72.
  • the appearance may be easily distinguished by a method such as adjusting the brightness of the content image or by applying a color of. For example, the brightness or gradation of the content image of the TV broadcast icon 74 may be set higher than that of the other content.
  • a media icon located at the intersection of the media icon array 70 and the content icon array 72 is enlarged and displayed in a color different from that of other media icons as illustrated as a TV broadcast icon 74.
  • the intersection area 76 is positioned approximately at the center of the display screen 200 and its position is deferred, and the entire array of media icons moves in the left / right direction in accordance with the user's horizontal instruction via the controller 34.
  • the color and icon size of the media icon located at 76 change. Therefore, the user can select the medium only by instructing the left and right directions, and the mouse click operation performed on the personal computer and the determination instruction are not necessary.
  • FIG. 6 is a diagram showing an example of the division of duties of the sub processor 12 of FIG. As shown in FIG. 6, each sub processor 12 differs in processing content and processing object.
  • the first sub-processor 12A sequentially performs band pass filtering (hereinafter referred to as “BPF processing”) on digital signals of all contents.
  • the second sub-processor 12B demodulates the BPF-processed digital signal.
  • the third sub-processor 12C completes the BPF processing, demodulation processing, and MPEG decoding processing, reads out each image data stored in the main memory 16 as RGB data, and refers to the display layout information.
  • the “display size 'display position of each image is calculated according to and written to the frame memory 21.
  • the fourth sub-processor 12D to the eighth sub-processor 12H perform MPEG decoding on the two contents given respectively.
  • the MPEG decoding process may include color format conversion.
  • the color format is a format (Y UV format) in which a color is represented by three pieces of information: luminance signal (Y), difference between luminance signal and blue component (U), and difference between luminance signal and red component (V) It is a format (RGB format) that expresses color by three pieces of information of red signal (R), green signal (G) and blue signal (B).
  • FIG. 7 is a diagram showing an example of the entire processing sequence in the embodiment of the present invention.
  • the main processor 10 when the user instructs the controller 34, the main processor 10 is activated.
  • the main processor 10 requests the main memory 16 to send the header 56.
  • the main processor 10 activates a thread for the main processor 10 (S10). Specifically, it transmits an instruction to start reception of TV broadcast by the antenna 40, down conversion processing by the down converter included in the RF processing unit 38, AZD conversion processing by the ADC 36, and the like.
  • the main processor 10 secures the capacity of the number of sub processors 12 and the main memory 16 necessary for the execution of the application described in the header.
  • each sub processor 12 and each area in the main memory 16 have a flag such as 0: unused, 1: used, and 2: reserved, the flag value is 0.
  • the flag value is 0.
  • the antenna 40 starts receiving all the TV broadcasts, which are the first content, with the power ⁇ instructed by the main processor 10 (S12).
  • the radio waves of all the received TV broadcasts are sent to the RF processing unit 38.
  • the down converter included in the RF processing unit 38 performs down conversion processing of radio waves of all TV broadcasts sent from the antenna 40 according to the instruction of the main processor 10 (S14). Specifically, the signal in the high frequency band is modulated to baseband, and demodulation processing such as error correction is performed. Further, the RF processing unit 38 sends all the downconverted TV broadcast waves to the ADC 36.
  • main processor 10 has main memory 16 and sub Start Sessa 12 (SI 8). Details will be described later.
  • the ADC 36 A / D converts all the TV broadcast waves as instructed by the main processor 10, and sends it to the main memory 16 through the first interface 18, the bus, and the memory control unit 14.
  • the main memory 16 stores all TV broadcast data sent from the ADC 36.
  • the stored TV broadcast wave is used in a signal processing sequence (S26) in the sub processor 12 described later. Details will be described later.
  • the main processor 10 requests the network interface 26 for all net data which is the second content.
  • the network interface 26 starts to receive all the net broadcasts (S20), and stores data in the main memory 16 for the buffer size designated by the main processor 10.
  • the main processor 10 requests the hard disk 28 for the third content stored in the hard disk 28.
  • the hard disk 28 reads the third content (S22), and stores data in the main memory 16 for the buffer size designated by the main processor 10.
  • the main processor 10 requests the DVD driver 30 for the fourth content stored in the DVD driver 30.
  • the DVD driver 30 reads the fourth content (S24), and stores data for the buffer size designated by the main processor 10 in the main memory 16.
  • the data requested to the network interface 26, the hard disk 28 and the DVD driver 30 and stored in the main memory 16 is only the buffer size designated by the main processor 10.
  • the compression rate of the source data is not fixed, but a buffer size guaranteed by the codec such as MPEG2 is specified, and a size that satisfies it is used.
  • the processing in the signal processing sequence (S26) in the sub processor 12 or the like to be described later is for each frame, and the data writing processing and the data reading processing are processed asynchronously. After processing for one frame, the next frame is sent to the main memory 16, and the same processing is repeated.
  • FIG. 8 is a diagram showing an example of the activation sequence S 18 of FIG.
  • the main processor 10 transmits a request for downloading the first sub-processor thread 62 to the first sub-processor 12A.
  • the first sub-processor 12A requests the main memory 16 for the first sub-processor thread 62.
  • the main memory 16 is stored
  • the first sub-processor thread 62 is read (S 28), and the first sub-processor thread 62 is sent to the first sub-processor 12 A.
  • the first sub-processor 12A stores the downloaded first sub-processor thread 62 in the sub-processor internal memory 50 in the first sub-processor 12A (S30).
  • main processor 10 transmits main memory 16 units to second sub-processor 12B, third sub-processor 12C, and fourth sub-processor 12D to eighth sub-processor 12H according to their respective roles. Make the required threads download. Specifically, the second sub-processor 12 B is requested to down-process the second sub-processor thread 64. Also, the third sub-processor 12C is requested to download the display layout information 58 and the third sub-processor thread 65. Furthermore, the fourth sub-processor 12D to the eighth sub-processor 12H are requested to download the fourth sub-processor thread 66. In any case, each sub-processor 12 stores the downloaded thread in the internal memory 50 for each sub-processor (S34, S38, S42).
  • FIG. 9 to 12 are diagrams showing an example of a detailed processing sequence of the signal processing sequence S26 of FIG.
  • FIG. 9 and FIG. 10 a processing sequence for BPF processing, demodulation processing and MPEG decoding processing of TV broadcast data will be described.
  • BPF processing, demodulation processing, and MPEG decoding processing of data of net broadcast data, DVD, and hard disk will be described with reference to FIG.
  • processing for displaying image data after various processing is completed on the main memory 16 will be described with reference to FIG.
  • FIG. 9 is a diagram showing an example of a first processing sequence in the signal processing sequence S26 of FIG.
  • the first sub processor 12A activates the first sub processor set thread thread 62 (S44), and one frame of all the TV broadcast data which is the first content from the main memory 16
  • the minute is read (S48)
  • the BPF processing of the first channel is performed (S50)
  • the TV broadcast data subjected to the BPF processing is passed to the second sub-processor 12B.
  • the second sub-processor 12B demodulates the BPF-processed TV broadcast (S52), and passes it to the fourth sub-processor 12D.
  • the fourth sub-processor 12D performs MPEG decoding on the demodulated TV broadcast (S54), and stores it in the main memory 16 (S56).
  • the first sub-processor 12A starts BPF processing of the second channel as soon as BPF processing of the first channel is finished.
  • the second sub-processor 12B starts the demodulation processing of the second channel as soon as the demodulation processing of the first channel is finished.
  • the fourth sub processor 12D performs the MPEG decoding process of the second channel as soon as the MPEG decoding process of the first channel is completed. As described above, by performing pipeline processing, high-speed image processing can be performed.
  • FIG. 10 is a diagram showing an example of a second processing sequence in the signal processing sequence S26 of FIG.
  • the first sub-processor 12A and the second sub-processor 12B perform, for each channel, BPF processing and decoding processing of TV broadcast data, which is the first content, as in the first processing sequence illustrated in FIG.
  • the channels to be processed are the third to sixth channels.
  • the fifth sub-processor 12E and the sixth sub-processor 12F perform the MPEG decoding processing for two channels per one sub-processor 12 and perform the main memory 16 similarly to the fourth sub-processor 12D shown in FIG. Perform each write process.
  • the first sub-processor 12A, the second sub-processor 12B, the fifth sub-processor 12E, and the sixth sub-processor 12F each perform pipeline processing to speed up image processing. There is.
  • FIG. 11 is a diagram showing an example of a third processing sequence in the signal processing sequence of FIG.
  • the seventh sub-processor 12 G reads out one frame of all the net broadcast data as the second content stored in the main memory 16 (S 58).
  • all net broadcast data to be read are two channels, which are the second content A and the second content B, respectively.
  • MPEG decoding processing is performed on the second content A and the second content B (S60, S64), and they are recorded in the main memory 16 (S62, S66).
  • the eighth sub-processor 12H reads out the third content stored in the main memory 16 (S68), performs MPEG decoding (S70), and stores it in the main memory 16 (S72).
  • the eighth sub processor 12 H reads the fourth content stored in the main memory 16 (S 74), performs MPEG decoding (S 76), and stores it in the main memory 16 (S 78).
  • FIG. 12 is a diagram showing an example of a fourth processing sequence in the signal processing sequence of FIG.
  • the third sub processor 12 C is configured to receive the first content stored in the main memory 16 and The processing of sequentially reading out the TV broadcast data for 6 channels, the net broadcast data for 2 channels as the second content, the third content, and the fourth content is performed (S80, S86). Also, every time one content is read, the third sub-processor 12C refers to the display size based on the display layout information, and performs image processing on the image to produce a display effect.
  • the display effect here is to increase the brightness of the image displayed in the intersection area 76 in FIG. 5, or to increase the color density of the image, or to blink the image.
  • the third sub-processor 12C calculates the write destination address from the display layout information every time one content is read (S82, S88). Next, the third sub-processor 12C performs a process of writing the data of the content into the calculated write destination address in the frame memory 21 (S84, S90). The content is displayed on the monitor unit 22 according to the address position of the frame memory 21.
  • the name of the content is displayed on the cross-shaped media icon array 70 on the horizontal axis
  • the content of the content is displayed on the content icon array 72 on the vertical axis.
  • the image displayed in the intersection area 76 indicated by the intersection of the horizontal axis and the vertical axis is displayed by the third sub-processor 12C so as to exert a display effect.
  • the display screen 200 shown in FIG. 5 can be displayed on the monitor unit 22.
  • dynamic display effects can be achieved by changing the display position for each frame.
  • dynamic display effects can be achieved.
  • the display layout information 58 may be defined so as to provide the corresponding display effect for the sub-processor 12 that processes the content for which the display effect is desired.
  • FIG. 13 is a diagram showing a configuration example of the main memory 16 of FIG.
  • the configuration of the main memory 16 shown in FIG. 13 is a diagram showing the storage state in the main memory 16 after the sequence of FIG.
  • the memory map of the main memory 16 includes application software 54, various content data for one frame before BPF processing, various content data for one frame for I picture after MPEG decoding, and P picture. And three display preparation image holding areas as a browser for displaying images of various contents on the monitor unit 22. Area may be included.
  • the memory area of “I picture for reference during MPEG decoding, P picture” is secured for the image data of each content for the following reason.
  • MPEG data is also composed of I picture, P picture and B picture power.
  • P picture and B picture can not be decoded alone, and I picture and P picture as reference pictures that are present before and after in time are required at the time of decoding. Therefore, even if the decoding process of I picture and P picture is completed, it is necessary to hold I picture and P picture without discarding them. That is, the memory area of the “I picture for reference during MPEG decoding, P picture” is an area for holding these I and P pictures.
  • the display preparation image 1 is completed by the first sub processor 12A, the second sub processor 12B, the fourth sub processor 12D to the eighth sub processor 12 H for BPF processing, demodulation processing and MPEG decoding processing, and the third sub processor It is a memory area for storing image data as RGB data at the previous stage to be written to the frame memory 21 by 12C.
  • the display preparation image 1 includes all of the TV broadcast data of six channels as the first content and one frame of data of the second to fourth contents.
  • the display preparation image 2 and the display preparation image 3 have the same configuration as the display preparation image 1 and display preparation image 1 ⁇ display preparation image 2 ⁇ display preparation image 3 ⁇ display preparation image 1 ⁇ display preparation image 2 ⁇ for each frame.
  • the threads in the main processor 10 can be configured to operate in cooperation with the threads in each sub processor 12.
  • data can be directly exchanged between the main memory 16 and peripheral devices or between peripheral devices without intervention of the CPU.
  • Fast image processing by pipeline processing Processing can be performed.
  • the multi-core processor 11 can display arbitrary moving and still images on the monitor unit 22 by writing image data in the frame memory.
  • a plurality of heavy image data such as high vision can be processed simultaneously and in parallel.
  • the task processing such as the demodulation processing of image data is shared in consideration of the remaining processing capability of a plurality of sub-processors
  • content reproduction can be executed efficiently.
  • this display and reproduction by setting a display effect and a display position set in advance, an image which can easily visually recognize processed image data is displayed on a display etc. It can play back the voice that can be played.
  • an image processing apparatus capable of efficiently processing a plurality of contents can be provided.
  • each content is arranged and displayed in a cross shape shown in FIG.
  • the present invention is not limited thereto, and may be arranged as shown in FIG. 14A, and each content is arranged as shown in each of FIGS. 14B, 14C, 15A, 15B, 15C, and 15D. It may be displayed.
  • FIG. 14A, FIG. 14B, and FIG. 14C are diagrams showing examples of the second to fourth display screens that are effective in the embodiment of the present invention, respectively.
  • FIG. 14A is a diagram showing an example of arranging and displaying each content in a matrix type.
  • FIG. 14B is a diagram showing an example of arranging and displaying each content in a substantially circular shape.
  • FIG. 14C is a view showing an example in which a certain content is displayed as a background image, superimposed on the screen, and each content is arranged and displayed in a substantially circular shape as in FIG. 14B.
  • the third sub-processor 12 C calculates the display size 'display position of each image from the display preparation image and the display layout information, and writes it to the frame memory 21.
  • the display position may be defined for each image in the setting of the display layout information 58.
  • the user operates the controller 34 to select a channel, as shown in FIG. 14A.
  • the contents may be arranged and displayed in a substantially circular shape.
  • FIG. 14C the user selects an image relating to any of the contents arranged in a substantially circular shape. Therefore, it can also be displayed as an image to be displayed on the back.
  • the sixth sub-processor 12F performs MP EG decoding processing on the fifth channel and the sixth channel, but the broadcasting of the fifth channel and the sixth channel itself is a line here.
  • the absence of broadcasting means, for example, the time zone of midnight. At such time, it is normal to put the sixth sub-processor 12F into a non-operating state. It is also possible to perform other processing instead of the MPEG decoding processing of the fifth channel and the sixth channel. It is.
  • all the net broadcast data read out in S58 of FIG. The two newly added channels are the second content C and the second content D.
  • the MPEG decoding process for the second content C and the second content D can be assigned to the sixth sub-processor 12F.
  • the user determines whether the fifth channel and the sixth channel are broadcasted, and to use the controller 34 to switch processing.
  • it can also be determined based on the EPG information included in the TV broadcast wave that the broadcast is being performed or not. That is, by analyzing the EPG information, a channel that is not being broadcast is identified, and BPF processing, demodulation processing, MPEG decoding processing, and display processing of the channel are performed. Part or all can be assigned to other processes to realize efficient operation.
  • FIGS. 15A to 15D are photographs of halftone images in which examples of the fifth to eighth display screens according to the embodiment of the present invention are displayed on the display.
  • Fig. 15A is a photograph of a halftone image in which an example of a screen in which tens of thousands of images are reduced into dots and arranged and displayed in a galaxy is displayed on the display.
  • FIG. 15B is a photograph of a halftone image in which an example of a screen in which a portion corresponding to the earth is enlarged and displayed among the images arranged and displayed in the galaxy of FIG. 15A is displayed on the display.
  • FIG. 15A is a photograph of a halftone image in which an example of a screen in which a portion corresponding to the earth is enlarged and displayed among the images arranged and displayed in the galaxy of FIG. 15A is displayed on the display.
  • FIG. 15C is a photograph of a halftone image in which a screen example obtained by enlarging and displaying a part of the images arranged and displayed in the shape of the earth in FIG. 15B is displayed on the display.
  • FIG. 15D is a photograph of a halftone image in which a screen example obtained by further enlarging and displaying a part of the plurality of images displayed as in FIG. 15C is displayed on the display.
  • FIG. 15A In the state of the screen shown in FIG. 15A, although the user can not recognize the image, FIG. B, Fig. 15C, Fig. 15D and so on.
  • the screen When the screen is displayed in a state in which the user can recognize, for example, in the state of FIG. 15D, the user may select one of the screens by the controller 34 and display it in an enlarged manner!
  • the enlargement processes from FIG. 15A to FIG. 15D may be expanded sequentially as time passes, and may be expanded upon the user giving an instruction to the controller 34. Also, the user may be able to expand any part.
  • the display position and the image size may be defined in advance in the display layout information 58.
  • the main processor 10 may perform the process of managing the passage of time or the instruction to the controller 34 of the user, and any sub processor 12 may perform the process. And the sub-processor 12 may cooperatively control or process. By taking such a state, it is possible to dynamically change and display the screen as shown in FIGS. 15A to 15D.
  • the multi image may be displayed largely on the entire monitor unit 22 with the elapse of the force time when the multi image is displayed small at the center of the monitor at the beginning. In this way, it is possible to produce a display effect in which a multi-image approaches from the back to the front of the screen.
  • the display layout information 58 it is sufficient to prepare all two-dimensional coordinate data as coordinate data which changes with the passage of time.
  • the present invention may also be realized by the following items.
  • the plurality of sub-processors may include at least first to fourth sub-processors.
  • the first sub-processor performs band pass filtering on the data supplied from the data supply unit, and the second sub processor performs demodulation on the band-pass filtered data.
  • the third sub-processor performs an MPEG decoding process on the data subjected to the demodulation process
  • the fourth sub-processor performs an MPEG decoding process.
  • the processed data may be subjected to image processing that produces a display effect and may be displayed at the display position! ,.
  • the main processor may monitor the passage of time and notify the plurality of sub-processors, and the plurality of sub-processors may change the image to be displayed on the display device over time.
  • the application software may be set with information indicating that the display position changes with the passage of time.
  • the application software may be set with information indicating that the display size of the image changes with time. As the display effect, information indicating that the color of the image or the intensity of the color is changed may be set as time passes.
  • the display control unit After the plurality of sub-processors sequentially process the data related to the image supplied from the data supply unit according to the information indicating the division of roles instructed by the application software and the information indicating the display effect, the display control unit The processed image may be displayed on the display position of the display device.
  • application software can process a plurality of contexts more efficiently and flexibly than performing processing of an image by dividing the roles of a plurality of sub-processors.
  • “data relating to image” is not limited to image data, and may include audio data, rate information of image Z audio data, a code format, and the like.
  • “Application software” refers to a program for achieving an objective, and in this case, includes a description showing at least a display mode of an image in relation to a plurality of processors.
  • “Application software” may include header information, information indicating display position, information indicating display effect, program in main processor, program execution procedure thereof, program in sub processor, program execution procedure, other data, etc. Good.
  • the “data supply unit” may be, for example, a memory that stores data and stores and reads data in accordance with an instruction. It may be a device that supplies a tension.
  • the “display control unit” may be, for example, a graphic processor that performs predetermined processing on an image and outputs the processed image to a display device, or a control device that performs input / output control between the display device and a sub processor. Good. Also, one sub-processor out of the plurality of sub-processors may play a role as a display control unit.
  • An example of "role assignment" is to share the processing start time, the processing content, the processing procedure, the processing target, etc. in each sub processor according to the processing capacity or the remaining processing capacity of each sub processor. is there.
  • Each sub-processor may report the processing capability and Z or remaining processing capability of the sub-processor to the main processor.
  • An example of “display effect” is an effect of reproducing an audio together with displaying an image, or an effect of changing the image Z audio with time, or a change of the image Z audio according to a user instruction, or For example, the effect of emphasizing the image or the effect of increasing the volume.
  • the "color intensity” is, for example, the shade of a color, the brightness of a color, or the like.
  • An example of "varying the intensity of color” is to change the shade or color of the color of the image, or to blink the image.
  • image processing in a multiprocessor can be suitably executed.

Abstract

 本マルチプロセサシステムは、画像処理を好適に実行する。たとえば、様々な映像コンテンツを受信、再生、記録することが可能である。また、強力なCPUをマルチプロセッサ内に有することにより、従来は困難であったハイビジョン等の重い画像データを複数、同時並行して処理できる。さらに、複数のサブプロセッサにおける残余処理能力を考慮して、画像データの復調処理などのタスク処理を役割分担させるため、効率的にコンテンツ再生を実行することができる。また、役割分担により、画像、音声など、異なる複数のコンテンツを同時に処理し、所望のタイミングで表示、もしくは再生することができる。

Description

明 細 書
画像処理システム
技術分野
[0001] 本発明は、マルチプロセッサによる情報処理技術、特に、マルチプロセッサシステ ムにおいて画像処理を実行するための画像処理システムに関する。
背景技術
[0002] 近年のコンピュータゲームやデジタル放送などの分野に利用されるコンピュータグ ラフィックス技術や画像処理技術の著しい進歩に伴い、コンピュータ、ゲーム機器、テ レビなどの情報処理装置は、より高精細の画像データをより高速に処理する能力を 求められている。これらの情報処理装置において高性能な演算処理を実現するため には、複数のプロセッサを備えた情報処理装置において、それぞれのプロセッサにタ スクを割り当ることにより、複数のタスクを並列処理する方法が有効である。複数のプ 口セッサが協働して複数のタスクを実行するためには、各プロセッサの状態に応じて 効率的にタスクを割り当てる必要がある。
発明の開示
発明が解決しょうとする課題
[0003] しかし、一般に、複数のコンテンツに対し、複数のプロセッサを並列して効率的にタ スクを実行することは難しい。
[0004] 本発明はこうした状況に鑑みてなされたものであり、その総括的な目的(a general p urpose)は、より効率的に複数のコンテンツを処理できる画像処理装置を提供すること にある。
課題を解決するための手段
[0005] 上記課題を解決するために、本発明のある態様の画像処理システムは、画像に関 するデータに対して所定の処理を行う複数のサブプロセッサと、バスを介して複数の サブプロセッサと接続され、所定のアプリケーションソフトウェアを実行して、複数のサ ブプロセッサの制御を行うメインプロセッサと、バスを介して、メインプロセッサと複数 のサブプロセッサに画像に関するデータを供給するデータ供給部と、複数のサブプ 口セッサによって処理された画像を表示装置に出力するための処理を行う表示制御 部と、を有し、アプリケーションソフトウェアは、複数のサブプロセッサのそれぞれの役 割分担を示す情報と、複数のサブプロセッサによって処理された各々の画像の表示 装置における表示位置と当該画像の表示効果とを示す情報と、を含むよう記述され、 複数のサブプロセッサは、アプリケーションソフトウェアによって指示された役割分担 を示す情報、および、表示効果を示す情報にしたがって、データ供給部より供給され た画像に関するデータを順次処理し、かつ、処理された画像を表示装置の表示位置 に表示させる。
[0006] なお、本発明を方法、装置、システム、記録媒体、コンピュータプログラムにより表現 したものもまた、本発明の態様として有効である。
発明の効果
[0007] 本発明によれば、マルチプロセッサにおける画像処理を好適に実行できる。
図面の簡単な説明
[0008] [図 1]本発明の実施の形態にカゝかる画像処理システムに関する構成例を示す図であ る。
[図 2]図 1のメインプロセッサの構成例を示す図である。
[図 3]図 1のサブプロセッサの構成例を示す図である。
[図 4]図 1のメインメモリに記憶されたアプリケーションソフトウェアの構成例を示す図 である。
[図 5]図 1のモニタの第 1の表示画面の例を示す図である。
[図 6]図 1のサブプロセッサの役割分担の例を示す図である。
[図 7]本発明の実施形態における全体の処理シーケンスの例を示す図である。
[図 8]図 7の起動シーケンスの例を示す図である。
[図 9]図 7の信号処理シーケンスにおける第 1の処理シーケンスの例を示す図である [図 10]図 7の信号処理シーケンスにおける第 2の処理シーケンスの例を示す図である [図 11]図 7の信号処理シーケンスにおける第 3の処理シーケンスの例を示す図である [図 12]図 7の信号処理シーケンスにおける第 4の処理シーケンスの例を示す図である
[図 13]図 1のメインメモリの構成例を示す図である。
[図 14A]図 1のモニタの第 2の表示画面の例を示す図である。
[図 14B]図 1のモニタの第 3の表示画面の例を示す図である。
[図 14C]図 1のモニタの第 4の表示画面の例を示す図である。
[図 15A]図 1のモニタの第 5の表示画面の例をディスプレイ上に表示した中間調画像 の写真である。
[図 15B]図 1のモニタの第 6の表示画面の例をディスプレイ上に表示した中間調画像 の写真である。
[図 15C]図 1のモニタの第 7の表示画面の例をディスプレイ上に表示した中間調画像 の写真である。
[図 15D]図 1のモニタの第 8の表示画面の例をディスプレイ上に表示した中間調画像 の写真である。
符号の説明
[0009] 10 メインプロセッサ、 12 サブプロセッサ、 54 アプリケーションソフトウェア、 100 画像処理システム。
発明を実施するための最良の形態
[0010] (実施形態)
本発明の実施形態を具体的に説明する前に、まず本実施形態にかかる画像処理 システムについて概要を述べる。本実施形態に力かる画像処理システムは、メインプ 口セッサと複数のサブプロセッサを含むマルチプロセッサと、テレビジョンチューナ(以 下、「τνチューナ」と略称する。)、ネットワークインタフェイス、ハードディスク、デイジ タルビデオディスクドライノ (以下、「DVDドライバ」と略称する。)等を備え、様々な映 像コンテンツを受信、再生、記録することが可能である。また、強力な CPUをマルチ プロセッサ内に有することにより、従来は困難であったノヽイビジョン等の重い画像デ ータを複数、同時並行して処理できることを特徴とする。さらに、複数のサブプロセッ サにおける残余処理能力を考慮して、画像データの復調処理などのタスク処理を役 割分担させるため、効率的にコンテンツ再生を実行することができる。また、役割分担 により、画像、音声など、異なる複数のコンテンツを同時に処理し、所望のタイミング で表示、もしくは再生することができる。この表示、再生は、予め設定された表示効果 、表示位置を設定することにより、処理された画像データをディスプレイ等に視覚的 に容易に認識できる画像を表示し、また聴覚的に容易に認識できる音声を再生する ことができる。詳細は後述する。
[0011] 図 1は、本発明の実施形態にカゝかる画像処理システム 100の構成例を示す図であ る。画像処理システム 100は、メインプロセッサ 10と、サブプロセッサ 12で代表される 第 1サブプロセッサ 12Aと第 2サブプロセッサ 12Bと第 3サブプロセッサ 12Cと第 4サ ブプロセッサ 12Dと第 5サブプロセッサ 12Eと第 6サブプロセッサ 12Fと第 7サブプロ セッサ 12Gと第 8サブプロセッサ 12Hと、メモリ制御部 14と、メインメモリ 16と、第 1イン タフェイス 18と、グラフィックカード 20と、モニタ言 と、第 2インタフェイス 24と、ネット ワークインタフェイス 26 (以下、「ネットワーク IF」と略称する。)と、ハードディスク 28と 、 DVDドライバ 30と、ユニバーサルシリアルバス 32 (Universal Serial Bus。以下 、「USB32」と略称する。)と、コントローラ 34と、アナログデジタル変^^ 36 (Analog Digital Convertor0以下、「ADC36」と略称する。)と、無線周波数処理部 38 (R adio Frequency処理部。以下、「RF処理部 38」と略称する。)と、アンテナ 40と、を 含む。
[0012] 画像処理システム 100は、中央処理装置(Central Processing Unit。以下、「C PU」と略称する。)としてマルチコアプロセッサ 11を備える。マルチコアプロセッサ 11 は、 1個のメインプロセッサ 10と、複数のサブプロセッサ 12と、メモリ制御部 14と第 1ィ ンタフェイス 18で構成される。図 1においては、例として、サブプロセッサ 12が 8個あ る構成を示した。メインプロセッサ 10は、バスを介して複数のサブプロセッサ 12と接 続され、後述するアプリケーションソフトウェア 54にしたがって、それぞれのサブプロ セッサ 12によるスレッド実行のスケジュール管理と、マルチコアプロセッサ 11の全般 的な管理とを行う。サブプロセッサ 12は、ノ スを介してメモリ制御部 14より送られた画 像に関するデータに対して所定の処理を行う。メモリ制御部 14は、メインメモリ 16に 記憶されたデータ、アプリケーションソフトウェア 54の読み書き処理を行う。第 1インタ フェイス 18は、 ADC36、第 2インタフェイス 24、グラフィックカード 20から送られたデ ータを受け、バスに出力する。
[0013] 表示制御部であるグラフィックカード 20は、第 1インタフェイス 18を介して送られた 画像データに対し、画像データの表示位置、表示効果を考慮してモニタ部 22に送出 する。モニタ部 22は、送出された画像データをディスプレイなどの表示装置に表示す る。グラフィックカード 20は、さらに、サブプロセッサ 12の指示にしたがって、音声に 関するデータ、音量を図示しないスピーカに送出してもよい。また、グラフィックカード 20内にはフレームメモリ 21があってもよぐマルチコアプロセッサ 11はフレームメモリ 21に画像データを書き込むことにより、任意の動画像、静止画像をモニタ部 22に表 示させることができる。ここで、モニタ部 22における画像の表示位置は、当該画像が 書き込まれたフレームメモリ 21のアドレスによって決定される。
[0014] 第 2インタフェイス 24は、マルチコアプロセッサ 11と、各種デバイスとのインタフェイ ス部である。各種デバイスとは、家庭内ローカルエリアネットワーク(Local Area N etwork0以下、「家庭内 LAN」と略称する。)、インターネットなどとのインタフェイスで あるネットワークインタフェイス 26、または、ハードディスク 28、または、 DVDドライバ 3 0、または、外部力 ユーザの指示を受け付けるコントローラ 34と接続するための入 出力端子である USB32などを指す。
[0015] アンテナ 40は TV放送波を受信する。ここで、 TV放送波とはアナログ地上波であつ てもよく、また、デジタル地上波、衛星放送波などであってもよい。また、ノ、イビジョン 放送波であってもよい。また、 TV放送波は複数チャネルを含んでいてもよい。 TV放 送波は RF処理部 38に含まれるダウンコンバータによりダウンコンバートされた後に、 ADC36により AZD変換される。すなわち、ダウンコンバートされた、複数チャネルを 含むデジタル TV放送波がマルチコアプロセッサ 11に入力されることとなる。
[0016] 図 2は、図 1のメインプロセッサ 10の構成例を示す図である。メインプロセッサ 10は 、メインプロセッサ制御装置 42と、内部メモリ 44と、直接メモリアクセス制御部 46 (Dir ect Memory Access Controller。以下、「DMAC46」と略称する。)と、を含む 。メインプロセッサ制御装置 42は、ノ スを介してメインメモリ 16から読み出したアプリ ケーシヨンソフトウェア 54をもとに、マルチコアプロセッサ 11の制御を行う。具体的に は、それぞれのサブプロセッサ 12に対し、処理対象となる画像データ、処理手順を 指示する。詳細は後述する。内部メモリ 44は、メインプロセッサ制御装置 42の処理に 際し、中間データを一時的に保持するために用いられる。外部のメモリを用いずに内 部メモリ 44を用いることによって、高速な読み書き動作が可能となる。 DMAC46は、 各サブプロセッサ 12またはメインメモリ 16との間で DMA方式により高速なデータ転 送を行う。 DMA方式とは、 CPUを介さずにメインメモリ 16と周辺装置、または周辺機 器同士間で直接データのやり取りができる機能をいう。この場合、 CPUに負荷がか からな!/、ので、高速に大量のデータを転送できることとなる。
[0017] 図 3は、図 1のサブプロセッサ 12の構成例を示す図である。サブプロセッサ 12は、 サブプロセッサ制御装置 48と、サブプロセッサ用内部メモリ 50と、サブプロセッサ用 直接メモリアクセス制御部 52 (以下、「サブプロセッサ用 DMAC52」と略称する。)と、 を含む。サブプロセッサ制御装置 48は、メインプロセッサ 10の制御によって並列的か つ独立にスレッドを実行し、データを処理する。スレッドとは、複数のプログラム、もしく は、複数のプログラムの実行手順、およびプログラムの実行に必要な制御データなど である。また、メインプロセッサ 10内のスレッドが各サブプロセッサ 12内のスレッドと連 携して動作するように構成してもよい。サブプロセッサ用内部メモリ 50は、サブプロセ ッサ 12における処理に際し、中間データを一時的に保持するために用いられる。サ ブプロセッサ用 DMAC52は、メインプロセッサ 10、もしくは他のサブプロセッサ 12ま たはメインメモリ 16との間で DMA方式により高速なデータ転送を行う。
[0018] サブプロセッサ 12は、個々の処理能力、もしくは、残余処理能力に応じ、役割分担 された処理をそれぞれ実行する。後述の具体例においては、すべてのサブプロセッ サ 12の処理能力は均等で、かつ、具体例に示す処理以外の処理は行わないことを 前提として説明する。処理能力とは、サブプロセッサ 12が同時に処理することのでき るデータのサイズ、または、プログラムの大きさ、などを指す。ここでは、表示画面の大 きさにより、 1つのサブプロセッサ 12が処理できる数が決まることなる。後述の例にお いては、 1つのサブプロセッサ 12あたり MPEGデコード処理を 2つ行えるとした。表示 画面の大きさが小さくなると、 2以上の MPEGデコード処理を行うことができる。また、 表示画面の大きさがさらに大きくなると 1つの MPEGデコード処理しか行えないことに なる。なお、複数のサブプロセッサ 12において、 1つの MPEGデコード処理を分担し ておこなってもよい。
[0019] 図 4は、図 1のメインメモリ 16に内蔵されたアプリケーションソフトウェア 54の構成例 を示す図である。アプリケーションソフトウェア 54は前述のメインプロセッサ 10が各サ ブプロセッサ 12と正確に連携動作するようにプログラミングされて 、る。本実施形態 においては、図 4は画像処理用の構成であるが、他の用途のアプリケーションであつ ても同様の構成である。アプリケーションソフトウェア 54はヘッダ 56、表示レイアウト情 報 58、メインプロセッサ用スレッド 60、サブプロセッサ用第 1スレッド 62、サブプロセッ サ用第 2スレッド 64、サブプロセッサ用第 3スレッド 65、サブプロセッサ用第 4スレッド 66、データ 68の各ユニットを含んで構成される。アプリケーションソフトウェア 54は、 電源オフの状態においては、ハードディスク 28等の不揮発性メモリ内に保存されて いる。電源オンの状態において読み出され、メインメモリ 16に保存される。その後、必 要に応じて必要なユニットがマルチコアプロセッサ 11内のメインプロセッサ 10または 各サブプロセッサ 12にダウンロードされ、実行される。
[0020] ヘッダ 56には、アプリケーションソフトウェア 54を実行するために必要なサブプロセ ッサ 12の個数、メインメモリ 16の容量などが含まれている。表示レイアウト情報 58は、 当該アプリケーションソフトウェア 54を実行しモニタ部 22に表示する際の表示位置を 示す座標データと、モニタ部 22に表示する際の表示効果などを含む。
[0021] ここで、表示効果とは、画像をモニタ部 22に表示させる際に音声もあわせて再生さ せる効果、または、時間により画像 Z音声が変化する効果、または、ユーザのコント口 ーラ 34への指示による画像 Z音声の変化、または、画像が強調して表示される効果 、または、音量が増大する効果画像の色彩の強度を変化させる効果などである。「色 彩の強度を変化させる」とは、画像の色の濃淡、または輝度を変化させること、または 画像を点滅させることなどである。これらの表示効果は、サブプロセッサ 12が表示レ ィアウト情報 58を参照し、所定の処理を施した画像をフレームメモリ 21に書き込むこ とによって実現される。
[0022] たとえば、フレームメモリ 21のアドレス AOは、モニタ部 22の表示画面に力かる座標 (x0、 yO)に対応し、また、アドレス Alは、モニタ部 22の表示画面に力かる座標(xl、 yl)に対応していると仮定する。ここで、ある画像を時間 tOにおいて AOに書き込み、 時間 tlにおいて A1に書き込んだ場合、モニタ部 22には、時間 tOにおいて、当該画 像が座標 (x0、 yO)に表示され、また、時間 tlにおいて、当該画像が座標 (xl、 yl) に表示される。いいかえると、画面を視聴しているユーザに対し、時間 tO力 tlにお いて、画像が画面の中で動いたような効果を与えることができる。これらは、サブプロ セッサ 12が、後述するアプリケーションソフトウェア 54に定義された表示効果にした がって、画像を処理し、フレームメモリ 21に順次書き込むことによって実現される。こ のような態様をとることにより、任意の動画像、静止画像を任意の位置にモニタ部 22 に表示させることができる。また、動的に画像が動くような効果をもたせることができる
[0023] メインプロセッサ用スレッド 60は、メインプロセッサ 10で実行されるスレッドであり、ど のサブプロセッサ 12にどの処理を行わせるかを示す役割分担情報などを含む。サブ プロセッサ用第 1スレッド 62は、サブプロセッサ 12で実行されるバンドパスフィルタ処 理を行うためのスレッドである。サブプロセッサ用第 2スレッド 64は、サブプロセッサ 1 2で実行される復調処理を行うためのスレッドである。サブプロセッサ用第 4スレッド 66 は、サブプロセッサ 12で実行される MPEGデコード処理するためのスレッドである。 データ 68は、当該アプリケーションソフトウェア 54を実行する際に必要となる各種デ ータである。
[0024] ここで、図 5に示す複数のコンテンツにかかる画像をモニタ部 22に表示させる場合 について、図 6〜図 13を用いて、図 1に示す各装置の動作シーケンスを説明する。こ こでは、例として、 6チャネルの TV放送 (第 1コンテンツ)、 2チャネルのネット放送 (第 2コンテンツ)、ハードディスク 28に格納されている第 3コンテンツ、 DVDドライバ 30に 収納された DVDに格納されている第 4コンテンツを表示する場合について説明する
[0025] 図 5は、図 1のモニタ部 22における第 1の表示画面の例を示す図である。図 5は、マ ルチメディア再生装置により生成されるメニュー画面の構成を示す。表示画面 200〖こ おいて、水平方向に複数のメディアアイコンが並んだメディアアイコン配列 70と、垂 直方向に複数のコンテンツァイコンが並んだコンテンツァイコン配列 72とが交差する 十字型の二次元配列が表示される。メディアアイコン配列 70には、画像処理システム 100が再生可能なメディアの種類を示すマークとして、 TV放送アイコン 74と、 DVD アイコン 78と、ネット放送アイコン 80と、ハードディスクアイコン 82が含まれる。コンテ ンッアイコン配列 72には、メインメモリ 16に格納された複数のコンテンツのサムネイル などのアイコンが含まれる。メディアアイコン配列 70およびコンテンツアイコン配列 72 で構成されるメニュー画面はオンスクリーン表示であり、コンテンツ映像の前面に重ね 合わされて表示される。 TV放送アイコン 74に現在再生中のコンテンツ映像が表示さ れる場合、エフェクト処理によってメディアアイコン配列 70とコンテンツアイコン配列 7 2の領域全体に、 TV放送アイコン 74との外観上の区別を容易にするための彩色を 施してもよぐまたコンテンツ映像の明るさを調整するなどの方法により外観上の区別 を容易にしてもよい。たとえば、 TV放送アイコン 74のコンテンツ映像の輝度、もしくは 濃淡を、他のコンテンツに比べ高く設定するなどしてもよい。
[0026] メディアアイコン配列 70とコンテンツアイコン配列 72が交差する領域に位置するメ ディアアイコンは、 TV放送アイコン 74として図示するように他のメディアアイコンと異 なる色彩にて拡大表示される。交差領域 76は、表示画面 200の略中央に位置したま まその位置が据え置かれ、コントローラ 34を介したユーザの左右方向の指示に応じ てメディアアイコンの配列全体が左右方向に移動し、交差領域 76に位置したメディア アイコンの色彩とアイコンサイズが変化する。したがって、ユーザは左右の方向指示 をするだけでメディアを選択でき、パーソナルコンピュータ上で行われるマウスのクリツ ク操作と 、つた決定指示は不要となる。
[0027] 図 6は、図 1のサブプロセッサ 12の役割分担の例を示す図である。図 6に示すように 、各サブプロセッサ 12は、処理内容、処理対象が異なる。第 1サブプロセッサ 12Aは 、全てのコンテンツのデジタル信号に対して、バンドパスフィルタ処理(Band Pass Filtering。以下、「BPF処理」と略称する。)を順次行う。第 2サブプロセッサ 12Bは、 BPF処理されたデジタル信号に対して、復調処理を行う。第 3サブプロセッサ 12Cは 、 BPF処理、復調処理、 MPEGデコード処理が完了し、 RGBデータとしてメインメモ リ 16に保存されている各画像データを読み出し、表示レイアウト情報を参照すること により、各画像について表示サイズ'表示位置を演算し、フレームメモリ 21へ書き込 む。第 4サブプロセッサ 12D〜第 8サブプロセッサ 12H、それぞれ与えられた 2つの コンテンツに対し、 MPEGデコード処理を行う。ここで、 MPEGデコード処理は、色彩 フォーマットの変換を含んでもよい。色彩フォーマットとは、輝度信号 (Y)と、輝度信号 と青色成分の差 (U)、輝度信号と赤色成分の差 (V)の 3つの情報で色を表す形式 (Y UV形式)、または、赤色信号 (R)と緑色信号 (G)と青色信号 (B)の 3つの情報で色 を表す形式 (RGB形式)などである。
[0028] 図 7は、本発明の実施形態における全体の処理シーケンスの例を示す図である。ま ず、ユーザがコントローラ 34に指示を与えることにより、メインプロセッサ 10が起動さ れる。ついで、メインプロセッサ 10は、メインメモリ 16に対し、ヘッダ 56を送るよう要求 する。メインプロセッサ 10は、ヘッダ 56を受信した後、メインプロセッサ 10用のスレツ ドを起動する(S10)。具体的には、アンテナ 40による TV放送の受信、 RF処理部 38 に含まれるダウンコンバータによるダウンコンバート処理、 ADC36による AZD変換 処理などを開始する指示を伝える。さらに、メインプロセッサ 10は、ヘッダ内に記され た当該アプリの実行に必要な数のサブプロセッサ 12およびメインメモリ 16の容量を確 保する。例えば、各サブプロセッサ 12およびメインメモリ 16内の各領域には、 0 :未使 用、 1 :使用中、 2 :予約のようなフラグが付加されているとすると、フラグの値が 0とな つて 、るサブプロセッサ 12およびメインメモリ 16の領域をサーチし、値を 2に更新する ことにより、処理に要するマルチコアプロセッサ 11およびメインメモリ 16の容量を必要 な分だけ確保する。必要な分だけ確保できない場合は、ユーザにアプリ実行が不可 である旨をモニタ部 22などを通じて通知する。
[0029] ついで、アンテナ 40は、メインプロセッサ 10の指示にした力^、、第 1コンテンツであ る全 TV放送の受信を開始する(S 12)。受信した全 TV放送の電波は、 RF処理部 38 に送られる。 RF処理部 38に含まれるダウンコンバータは、メインプロセッサ 10の指示 にしたがい、アンテナ 40から送られた全 TV放送の電波のダウンコンバート処理を行 う(S14)。具体的には、高周波帯の信号をベースバンド帯に変調し、また、誤り訂正 などの復調処理などを行う。さらに、 RF処理部 38は、ダウンコンバート処理した全 TV 放送波を ADC36に送る。ついで、メインプロセッサ 10は、メインメモリ 16とサブプロ セッサ 12を起動する(SI 8)。詳細は後述する。
[0030] ADC36は、メインプロセッサ 10の指示にした力^、、全 TV放送波を A/D変換し、 第 1インタフェイス 18、バス、メモリ制御部 14を介して、メインメモリ 16に送る。メインメ モリ 16は、 ADC36より送られた全 TV放送データを記憶する。記憶された TV放送波 は、後述するサブプロセッサ 12における信号処理シーケンス(S26)にて用いられる 。詳細は後述する。
[0031] さらに、メインプロセッサ 10は、ネットワークインタフェイス 26に対し、第 2コンテンツ である全ネットデータを要求する。ネットワークインタフェイス 26は、全ネット放送の受 信を開始し (S20)、メインプロセッサ 10で指定されたバッファサイズ分のデータをメイ ンメモリ 16に蓄える。また、メインプロセッサ 10は、ハードディスク 28に対し、ハードデ イスク 28に記憶されている第 3コンテンツを要求する。ハードディスク 28は、第 3コン テンッを読み出し (S22)、メインプロセッサ 10で指定されたバッファサイズ分のデー タをメインメモリ 16に蓄える。また、メインプロセッサ 10は、 DVDドライバ 30に対し、 D VDドライバ 30に記憶されている第 4コンテンツを要求する。 DVDドライバ 30は、第 4 コンテンツを読み出し (S24)、メインプロセッサ 10で指定されたバッファサイズ分のデ ータをメインメモリ 16に蓄える。
[0032] ここで、ネットワークインタフェイス 26、ハードディスク 28、 DVDドライバ 30にそれぞ れ要求され、メインメモリ 16に蓄えられるデータは、メインプロセッサ 10で指定された バッファサイズ分のみである。ソースとなるデータの圧縮率は固定ではないが、 MPE G2等のコーデックで保証するバッファサイズが規定されており、それを満たすサイズ が使用される。後述するサブプロセッサ 12等における信号処理シーケンス(S26)に おける処理は 1フレーム分ずつであり、データ書込処理とデータ読出処理は非同期 に処理される。 1フレーム分処理された後は、次のフレームをメインメモリ 16に送り、同 様の処理が繰り返されることとなる。
[0033] 図 8は、図 7の起動シーケンス S 18の例を示す図である。まず、メインプロセッサ 10 は、第 1サブプロセッサ 12Aに対し、サブプロセッサ用第 1スレッド 62をダウンロードさ せるための要求を伝える。ついで、第 1サブプロセッサ 12Aは、メインメモリ 16に対し 、サブプロセッサ用第 1スレッド 62を要求する。ついで、メインメモリ 16は、記憶されて いるサブプロセッサ用第 1スレッド 62を読み出し(S28)、第 1サブプロセッサ 12Aに サブプロセッサ用第 1スレッド 62を送る。第 1サブプロセッサ 12Aは、ダウンロードした サブプロセッサ用第 1スレッド 62を第 1サブプロセッサ 12A内のサブプロセッサ用内 部メモリ 50に記憶する(S30)。
[0034] 同様に、メインプロセッサ 10は、第 2サブプロセッサ 12B、第 3サブプロセッサ 12C、 および、第 4サブプロセッサ 12D〜第 8サブプロセッサ 12Hに対し、メインメモリ 16力 ら、それぞれ役割分担にしたがって、必要なスレッドをダウンロードさせる。具体的に は、第 2サブプロセッサ 12Bに対しては、サブプロセッサ用第 2スレッド 64をダウン口 ードするように要求する。また、第 3サブプロセッサ 12Cに対しては、表示レイアウト情 報 58とサブプロセッサ用第 3スレッド 65をダウンロードするように要求する。さらに、第 4サブプロセッサ 12D〜第 8サブプロセッサ 12Hに対しては、サブプロセッサ用第 4ス レッド 66をダウンロードするように要求する。いずれの場合においても、それぞれのサ ブプロセッサ 12は、それぞれのサブプロセッサ用内部メモリ 50にダウンロードしたス レッドを記憶する(S34, S38, S42)。
[0035] 図 9〜12は、図 7の信号処理シーケンス S26の詳細な処理シーケンスの例を示す 図である。まず、図 9、図 10において、 TV放送データの BPF処理、復調処理、 MPE Gデコード処理についての処理シーケンスを説明する。次に、図 11を用いて、ネット 放送データ、 DVD、ハードディスクのデータの BPF処理、復調処理、 MPEGデコー ド処理について説明する。最後に、図 12を用いて、各種処理が終了した後の画像デ ータをメインメモリ 16に表示させる際の処理にっ 、て説明する。
[0036] 図 9は、図 7の信号処理シーケンス S26における第 1の処理シーケンスの例を示す 図である。第 1の処理シーケンスにおいては、まず、第 1サブプロセッサ 12Aがサブプ 口セッサ用第 1スレッド 62を起動する(S44)とともに、メインメモリ 16から第 1コンテン ッである全 TV放送データのうち 1フレーム分を読み出して (S48)、第 1のチャネルの BPF処理を行い(S50)、第 2サブプロセッサ 12Bに BPF処理された TV放送データ を渡す。ついで、第 2サブプロセッサ 12Bが BPF処理された TV放送の復調処理を行 い(S52)、第 4サブプロセッサ 12Dに渡す。さらに、第 4サブプロセッサ 12Dが復調さ れた TV放送の MPEGデコードを行って(S54)、メインメモリ 16に保存する(S56)。 第 1サブプロセッサ 12Aは、第 1のチャネルの BPF処理が終了しだい、第 2のチヤネ ルの BPF処理を開始する。また、第 2サブプロセッサ 12Bは、第 1のチャネルの復調 処理が終了しだい、第 2のチャネルの復調処理を開始する。また、第 4サブプロセッ サ 12Dは、第 1のチャネルの MPEGデコード処理が終了しだい、第 2のチャネルの MPEGデコード処理を行う。このように、パイプライン処理を行うことによって、高速な 画像処理を行うことができる。
[0037] 図 10は、図 7の信号処理シーケンス S26における第 2の処理シーケンスの例を示 す図である。第 1サブプロセッサ 12Aと第 2サブプロセッサ 12Bは、図 9に図示した第 1の処理シーケンスと同様に、第 1のコンテンツである TV放送データの BPF処理と復 調処理をチャネルごとに行う。処理対象となるチャネルは、第 3のチャネル〜第 6のチ ャネルである。また、第 5サブプロセッサ 12Eと第 6サブプロセッサ 12Fは、図 9に図示 した第 4サブプロセッサ 12Dと同様に、 1つのサブプロセッサ 12あたり 2つのチャネル の MPEGデコード処理を行って、メインメモリ 16にそれぞれ書き込む処理を行う。ま た、図 9と同様に、第 1サブプロセッサ 12A、第 2サブプロセッサ 12B、第 5サブプロセ ッサ 12E、第 6サブプロセッサ 12Fは、それぞれパイプライン処理を行って画像処理 の高速化を図っている。
[0038] 図 11は、図 7の信号処理シーケンスにおける第 3の処理シーケンスの例を示す図 である。第 7サブプロセッサ 12Gは、メインメモリ 16に記憶されている第 2コンテンツと して全ネット放送データを 1フレーム分読み出す (S58)。ここで、読み出す全ネット放 送データは 2チャネルとし、それぞれ第 2コンテンツ A、第 2コンテンツ Bとする。さらに 、第 2コンテンツ A、第 2コンテンツ Bに対し、それぞれ MPEGデコード処理を行って( S60、 S64)、メインメモリ 16に記 '慮する(S62、 S66)。つ 、で、第 8サブプロセッサ 1 2Hは、メインメモリ 16に記憶されている第 3コンテンツを読み出し(S68)、 MPEGデ コードを行って(S70)、メインメモリ 16に記憶する(S72)。同様に、第 8サブプロセッ サ 12Hは、メインメモリ 16に記憶されている第 4コンテンツを読み出し(S74)、 MPE Gデコードを行って(S76)、メインメモリ 16に記憶する(S78)。
[0039] 図 12は、図 7の信号処理シーケンスにおける第 4の処理シーケンスの例を示す図 である。第 3サブプロセッサ 12Cは、メインメモリ 16に記憶されている第 1コンテンツと しての 6チャネル分の TV放送データと、第 2コンテンツとしての 2チャネル分のネット 放送データと、第 3コンテンツと、第 4コンテンツを順次読み出す処理を行う(S80、 S 86)。また、第 3サブプロセッサ 12Cは、 1つのコンテンツを読み出すごとに、表示レイ アウト情報より、表示サイズを参照して表示効果を奏するための画像処理を当該画像 に施す。ここでの表示効果は、図 5における交差領域 76に表示される画像の輝度を 高くする、または、画像の色彩の濃度を高くする、または、画像を点滅させることなど である。また、第 3サブプロセッサ 12Cは、 1つのコンテンツを読み出すごとに、表示レ ィアウト情報より、書き込み先のアドレスを計算する(S82、 S88)。ついで、第 3サブ プロセッサ 12Cは、当該コンテンツのデータをフレームメモリ 21に対して、計算した書 き込み先のアドレスに書き込む処理を行う(S84、 S90)。当該コンテンツは、フレーム メモリ 21のアドレス位置にしたがって、モニタ部 22に表示される。
[0040] 具体的には、図 5に示すような十字型の横軸のメディアアイコン配列 70にコンテン ッの名称、縦軸のコンテンツアイコン配列 72にコンテンツの内容が表示される。また、 横軸と縦軸の交点示す交差領域 76に表示される画像は、第 3サブプロセッサ 12Cに よって表示効果を奏するように表示される。このような態様をとることにより、モニタ部 2 2を視聴して 、るユーザに対し、感得しやす!/、画像を提供することができる。
[0041] このような態様をとることにより、図 5に示す表示画面 200をモニタ部 22に表示させ ることができる。また、フレームごとに表示位置を替えることにより、動的な表示効果を もたせることができる。また、フレームごとにサイズを変えることにより、動的な表示効 果をもたせることができる。その場合、表示レイアウト情報 58に、表示効果を奏させた いコンテンツを処理するサブプロセッサ 12について、該当する表示効果を奏するよう に定義すればよい。
[0042] 図 13は、図 1のメインメモリ 16の構成例を示す図である。図 13に示すメインメモリ 16 の構成は、図 7のシーケンス後のメインメモリ 16における記憶状態を示す図である。 図 13に示すように、メインメモリ 16のメモリマップは、アプリケーションソフトウェア 54、 BPF処理前の 1フレーム分の各種コンテンツデータ、 MPEGデコード後の Iピクチャ、 Pピクチャそれぞれの 1フレーム分の各種コンテンツデータ、およびモニタ部 22に各 種コンテンツの画像を表示させるためのノ ッファとして、 3つの表示準備画像保持領 域を含んでもよい。
[0043] 各コンテンツの画像データについて「MPEGデコード時の参照用 Iピクチャ、 Pピク チヤ」のメモリ領域が確保されているのは以下の理由からである。 MPEGデータは Iピ クチャ、 Pピクチャ、 Bピクチャ力も構成される。その中で Pピクチャ、 Bピクチャは、単 独ではデコード不可であり、時間的に前後に存在する参照画像としての Iピクチャ、 P ピクチャがデコード時に必要となる。したがって、 Iピクチャ、 Pピクチャのデコード処理 が終了したとしても、 Iピクチャ、 Pピクチャを廃棄せず、保持しておく必要がある。すな わち、この「MPEGデコード時の参照用 Iピクチャ、 Pピクチャ」のメモリ領域とは、それ ら I、 Pピクチャを保持しておくための領域となる。表示準備画像 1は、第 1サブプロセ ッサ 12A、第 2サブプロセッサ 12B、第 4サブプロセッサ 12D〜第 8サブプロセッサ 12 Hによって BPF処理、復調処理、 MPEGデコード処理が完了し、かつ第 3サブプロ セッサ 12Cによりフレームメモリ 21に書き込まれる前段階の RGBデータとしての画像 データを記憶するメモリ領域である。表示準備画像 1の中に第 1コンテンツとしての T V放送データ 6チャネル分、第 2コンテンツ〜第 4コンテンツの 1フレーム分のデータ が全て含まれる。表示準備画像 2、表示準備画像 3も表示準備画像 1と同様の構成 であり、 1フレーム毎に表示準備画像 1→表示準備画像 2→表示準備画像 3→表示 準備画像 1→表示準備画像 2→· · ·と巡回して使用される。 3個の表示準備画像が必 要な理由は、 MPEGデータをデコードする際には、デコードする対象が I、 P、 Bピク チヤのいずれであるかによって、デコードに要する時間にバラツキが発生する。その ノ ラツキを少しでも均一化し、吸収するために表示準備画像用のメモリ領域として 3 つの領域を用意する必要がある。
[0044] 本実施形態によれば、予め表示効果、サブプロセッサ 12の役割分担を示す情報を 設定することにより、効率的に画像処理が実行でき、また、所望の表示効果を奏する 画像を画面に表示することができる。また、ユーザに対し、容易に認識できる画面を 提供することができる。また、メインプロセッサ 10内のスレッドが各サブプロセッサ 12 内のスレッドと連携して動作するように構成することもできる。また、 DMA方式を用い ることによって、 CPUを介さずにメインメモリ 16と周辺装置、または周辺機器同士間 で直接データのやり取りができる。パイプライン処理を行うことによって、高速な画像 処理を行うことができる。また、マルチコアプロセッサ 11はフレームメモリに画像デー タを書き込むことにより、任意の動画像、静止画像をモニタ部 22に表示させることが できる。また、ハイビジョン等の重い画像データを複数、同時並行して処理できる。ま た、複数のサブプロセッサにおける残余処理能力を考慮して、画像データの復調処 理などのタスク処理を役割分担させるため、効率的にコンテンツ再生を実行すること ができる。また、役割分担により、画像、音声など、異なる複数のコンテンツを同時に 処理し、所望のタイミングで表示、もしくは再生することができる。この表示、再生は、 予め設定された表示効果、表示位置を設定することにより、処理された画像データを ディスプレイ等に視覚的に容易に認識できる画像を表示し、また聴覚的に容易に認 識できる音声を再生することができる。また、数のサブプロセッサを役割分担して画像 の処理を実行させることより効率的に、かつ柔軟に複数のコンテンツを処理できる。ま た、効率的に複数のコンテンツを処理できる画像処理装置することができる。
[0045] 本発明の実施形態においては、図 5に示す十字型に各コンテンツを配置して表示 するとして説明した。しかしながらこれにかぎらず、図 14Aに示すような配置であって もよく、また、図 14B、図 14C、図 15A,図 15B、図 15C、図 15Dのそれぞれに示す ように各コンテンツを配置して表示させてもよい。図 14A、図 14B、図 14Cは、それぞ れ、本発明の実施形態に力かる第 2乃至第 4の表示画面の例を示す図である。図 14 Aは、マトリックス型に各コンテンツを配置して表示する例を示す図である。図 14Bは 、略円形状に各コンテンツを配置して表示する例を示す図である。図 14Cは、あるコ ンテンッを背景画像として表示し、その画面に重ねて、図 14Bと同様に略円形状に 各コンテンツを配置して表示する例を示す図である。
[0046] 前述の通り第 3サブプロセッサ 12Cは、表示準備画像と表示レイアウト情報から、各 画像について表示サイズ'表示位置を演算し、フレームメモリ 21へ書き込む。図 14A 、もしくは、図 14Bのような表示画面を表示させる場合は、表示レイアウト情報 58の設 定において、表示位置を各画像ごとに定義しておけばよい。ユーザは図 14Aを見な がら、コントローラ 34を操作して選局を行うことになる。また、図 14Bのように、略円形 状にコンテンツを配置して表示させてもよい。また、図 14Cにおいて、略円形状に配 置されたコンテンツのうち、いずれかのコンテンツにかかる画像をユーザが選択する ことによって、背面に表示する画像として表示させることもできる。
図 10においては、第 6サブプロセッサ 12Fは第 5のチャネルと第 6のチャネルの MP EGデコード処理を行って!/、るが、ここで第 5のチャネルおよび第 6のチャネルの放送 自体が行われていない場合を考える。放送が行われていないとは、例えば深夜の時 間帯である場合等である。そのような時には第 6サブプロセッサ 12Fを動作していな い状態にすることが通常である力 第 5のチャネルと第 6のチャネルの MPEGデコー ド処理の代わりに他の処理を行わせることも可能である。ここで、図 11の S58にて読 み出す全ネット放送データは先ほどは 2チャネルとした力 ここでは 4チャネルとする。 新たに加わった 2つのチャネルを第 2コンテンツ C、第 2コンテンツ Dとする。第 7サブ プロセッサ 12Gだけでは 4つのチャネルの MPEGデコード処理は不可能なので、第 2コンテンツ C、第 2コンテンツ Dの MPEGデコード処理を第 6サブプロセッサ 12Fに 割り当てることができる。第 5のチャネルおよび第 6のチャネルの放送が行われて 、る 、いないの判断はユーザが行い、コントローラ 34を用いて処理の切り替えを行うことも 当然可能である。さらに、放送が行われている、いないの判断を TV放送波に含まれ る EPG情報により行うこともできる。すなわち EPG情報を解析することにより、放送が 行われていないチャネルを特定し、当該チャネルの BPF処理、復調処理、 MPEGデ コード処理、表示処理を行って!/、たサブプロセッサの処理能力の一部または全部を 他の処理に割り当て、効率的な動作を実現できる。
[0047] 図 15A乃至図 15Dは、それぞれ、本発明の実施形態に力かる第 5乃至第 8の表示 画面の例をディスプレイ上に表示した中間調画像の写真である。図 15Aは、数万の 画像を点状に縮小し、銀河系状に配置して表示した画面例をディスプレイ上に表示 した中間調画像の写真である。図 15Bは、図 15Aの銀河系状に配置して表示された 画像のうち、地球に相当する部分を拡大して表示した画面例をディスプレイ上に表示 した中間調画像の写真である。図 15Cは、図 15Bの地球状に配置して表示された画 像のうち、一部を拡大して表示した画面例をディスプレイ上に表示した中間調画像の 写真である。図 15Dは、図 15Cのように表示された複数の画像の一部をさらに拡大し て表示した画面例をディスプレイ上に表示した中間調画像の写真である。
[0048] 図 15Aに示す画面の状態では、ユーザは画像を認識することはできないが、図 15 B、図 15C、図 15Dと順に拡大されるにしたがって、認識することができるよう〖こなる。 ユーザが認識できる状態、たとえば、図 15Dの状態に画面が表示された時に、ユー ザがコントローラ 34により 、ずれかの画面を選択し、拡大表示させるようにしてもよ!ヽ 。図 15Aから図 15Dまでの拡大処理は、時間の経過とともに順に拡大されてもよぐ ユーザがコントローラ 34に指示を与えることを契機として拡大してもよい。また、ユー ザは、任意の個所を拡大することができてもよい。いずれの場合も表示レイアウト情報 58に予め表示位置、画像サイズを定義しておけばよい。また、時間の経過の管理、 または、ユーザのコントローラ 34への指示に対する処理はメインプロセッサ 10が行つ てもよく、また、いずれかのサブプロセッサ 12が行ってもよぐまた、メインプロセッサ 1 0とサブプロセッサ 12が協同して制御し、または、処理を行ってもよい。このような態 様をとることにより、図 15A〜図 15Dに示すような画面を動的に変化させて表示する ことができる。
[0049] また、他の配置方法として、最初はモニタ上の中心部に小さくマルチ画像が表示さ れているの力 時間の経過とともにモニタ部 22全体に大きくマルチ画像が表示され てもよい。そうすると、画面の奥から手前へとマルチ画像が迫ってくる表示効果を奏 することができる。この場合、表示レイアウト情報 58として、単に 2次元的な座標デー タでなぐ時間の経過とともに変化する座標データを全て用意しておけばよい。また、 1つのコンテンツ、例えば DVDに記録された映画の時間的に異なる箇所をいくつか 選択し、マルチ表示させてもよい。これにより例えば、 2時間の映画の中から 10箇所 の映像データを読み出し、表示させることによりインデックス動画を実現し、ユーザが 視聴した!/、箇所を即座に発見し、再生開始することができる。
[0050] また、本発明は、以下の項目により実現されてもよい。
(項目 1)
複数のサブプロセッサは、少なくとも第 1乃至第 4のサブプロセッサを含んでもよい。 第 1のサブプロセッサは、データ供給部から供給されたデータに対して、バンドパスフ ィルタ処理を行い、第 2のサブプロセッサは、バンドパスフィルタ処理が施されたデー タに対して、復調処理を行い、第 3のサブプロセッサは、復調処理が施されたデータ に対して、 MPEGデコード処理を行い、第 4のサブプロセッサは、 MPEGデコード処 理施されたデータに対して、表示効果を奏する画像処理を施して、表示位置に表示 させる処理を行ってもよ!、。
(項目 2)
メインプロセッサは時間の経過を監視して複数のサブプロセッサに通知し、複数の サブプロセッサは、時間の経過とともに、表示装置に表示させる画像を変化させても よい。また、アプリケーションソフトウェアは、時間が経過するごとに表示位置が変化 する旨の情報が設定されて 、てもよ 、。
(項目 3)
アプリケーションソフトウェアは、時間が経過するごとに画像の表示サイズが変化す る旨の情報が設定されていてもよい。表示効果として、時間が経過するごとに画像の 色彩、もしくは、色彩の強度を変化させる旨の情報が設定されていてもよい。
(項目 4)
また、複数のサブプロセッサが、アプリケーションソフトウェアによって指示された役 割分担を示す情報、および、表示効果を示す情報にしたがって、データ供給部より 供給された画像に関するデータを順次処理した後、表示制御部が処理された画像を 表示装置の表示位置に表示させてもよい。
[0051] これらの項目によると、アプリケーションソフトウェアによって、複数のサブプロセッサ を役割分担して画像の処理を実行させることより効率的に、かつ柔軟に複数のコンテ ンッを処理できる。
[0052] ここで、「画像に関するデータ」とは、画像データに限らず、音声データ、画像 Z音 声データのレート情報、符号ィ匕形式などを含んでもよい。「アプリケーションソフトゥェ ァ」とは、なんらかの目的を達成するためのプログラムを指し、ここでは少なくとも画像 の表示態様を複数のプロセッサとの関係で示す記述を含むものとする。「アプリケー シヨンソフトウェア」は、ヘッダ情報、表示位置を示す情報、表示効果を示す情報、メ インプロセッサにおけるプログラム、およびそのプログラム実行手順、サブプロセッサ におけるプログラム、およびプログラム実行手順、その他データなどを含んでもよい。 「データ供給部」とは、例えば、データを記憶し、指示に応じてデータの保存、読み出 しを行うメモリであってもよぐまたは、無線/有線信号によりテレビ画像、その他コン テンッを供給する装置などであってもよい。「表示制御部」は、例えば、画像に所定の 処理を施して表示装置に出力するグラフィックプロセッサであってもよぐまた、表示 装置とサブプロセッサとの入出力制御を行う制御装置であってもよい。また、複数の サブプロセッサのうちの一のサブプロセッサが表示制御部としての役割を担ってもよ い。
[0053] 「役割分担」の例は、各々のサブプロセッサの処理能力、もしくは残余処理能力に 応じ、そのサブプロセッサにおける処理開始時間、処理内容、処理手順、処理対象 などを各々分担させることなどである。なお、各々のサブプロセッサは、当該サブプロ セッサの処理能力、および Zまたは、残余処理能力をメインプロセッサに報告しても よい。「表示効果」の例は、画像を表示させる際に音声もあわせて再生させる効果、ま たは、時間により画像 Z音声が変化する効果、または、ユーザの指示による画像 Z 音声の変化、または、画像が強調して表示される効果、または、音量が増大する効果 などである。「色彩の強度」とは、色の濃淡、色の輝度などである。「色彩の強度を変 化させる」の例は、画像の色の濃淡、または輝度を変化させること、または画像を点滅 させることなどである。
[0054] 以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、実施形態 相互の組み合わせ、または、それらの各構成要素や各処理プロセスの組合せにいろ いろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者 に理解されるところである。
産業上の利用可能性
[0055] 本発明によれば、マルチプロセッサにおける画像処理を好適に実行できる。

Claims

請求の範囲
[1] 画像に関するデータに対して所定の処理を行う複数のサブプロセッサと、
ノ スを介して前記複数のサブプロセッサと接続され、所定のアプリケーションソフトゥ エアを実行して、前記複数のサブプロセッサの制御を行うメインプロセッサと、 前記バスを介して、前記メインプロセッサと前記複数のサブプロセッサに前記画像 に関するデータを供給するデータ供給部と、
前記複数のサブプロセッサによって処理された画像を表示装置に出力するための 処理を行う表示制御部と、
を有し、
前記アプリケーションソフトウェアは、
前記複数のサブプロセッサのそれぞれの役割分担を示す情報と、
前記複数のサブプロセッサによって処理された各々の画像の前記表示装置におけ る表示位置と当該画像の表示効果とを示す情報と、
を含むよう記述され、
前記複数のサブプロセッサは、
前記アプリケーションソフトウェアによって指示された役割分担を示す情報、および 、表示位置と表示効果を示す情報にしたがって、前記データ供給部より供給された 画像に関するデータを前記表示効果を奏するように順次処理し、かつ、処理された 画像を前記表示装置の前記表示位置に表示させることを特徴とする画像処理システ ム。
[2] 前記複数のサブプロセッサは、
前記データ供給部力も供給されたデータに対して、バンドパスフィルタ処理を実行 する第 1のサブプロセッサと、
バンドパスフィルタ処理が施されたデータに対して、復調処理を実行する第 2のサ ブプロセッサと、
復調処理が施されたデータに対して、 MPEGデコード処理を実行する第 3のサブ プロセッサと、
MPEGデコード処理が施されたデータに対して、前記表示効果を奏するように画 像処理を施して、前記表示位置に表示させる処理を実行する第 4のサブプロセッサと を含むことを特徴とする請求項 1に記載の画像処理システム。
[3] 前記メインプロセッサは時間の経過を監視して複数のサブプロセッサに通知し、 前記複数のサブプロセッサは、時間の経過とともに、前記表示装置に表示させる画 像を変化させることを特徴とする請求項 1に記載の画像処理システム。
[4] 前記アプリケーションソフトウェアは、時間が経過するごとに表示位置が変化する旨 の情報が設定されるように記述されて 、ることを特徴とする請求項 1に記載の画像処 理システム。
[5] 前記アプリケーションソフトウェアは、時間が経過するごとに画像の表示サイズが変 化する旨の情報が設定されるように記述されて 、ることを特徴とする請求項 1に記載 の画像処理システム。
[6] 前記アプリケーションソフトウェアによって記述された表示効果は、時間が経過する ごとに画像の色彩、もしくは、色彩の強度を変化させる旨の情報が設定されているこ とを特徴とする請求項 1に記載の画像処理システム。
[7] 前記複数のサブプロセッサは、前記アプリケーションソフトウェアによって指示され た役割分担を示す情報、および、表示効果を示す情報にしたがって、前記データ供 給部より供給された画像に関するデータを順次処理した後、表示制御部が処理され た画像を表示装置の表示位置に表示させることを特徴とする請求項 1に記載の画像 処理システム。
PCT/JP2006/307322 2005-05-13 2006-04-06 画像処理システム WO2006120821A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/912,703 US20090066706A1 (en) 2005-05-13 2006-04-06 Image Processing System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-141353 2005-05-13
JP2005141353A JP4070778B2 (ja) 2005-05-13 2005-05-13 画像処理システム

Publications (1)

Publication Number Publication Date
WO2006120821A1 true WO2006120821A1 (ja) 2006-11-16

Family

ID=37396338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/307322 WO2006120821A1 (ja) 2005-05-13 2006-04-06 画像処理システム

Country Status (3)

Country Link
US (1) US20090066706A1 (ja)
JP (1) JP4070778B2 (ja)
WO (1) WO2006120821A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8238624B2 (en) 2007-01-30 2012-08-07 International Business Machines Corporation Hybrid medical image processing
US8462369B2 (en) 2007-04-23 2013-06-11 International Business Machines Corporation Hybrid image processing system for a single field of view having a plurality of inspection threads
US8326092B2 (en) * 2007-04-23 2012-12-04 International Business Machines Corporation Heterogeneous image processing system
US8331737B2 (en) * 2007-04-23 2012-12-11 International Business Machines Corporation Heterogeneous image processing system
US8675219B2 (en) 2007-10-24 2014-03-18 International Business Machines Corporation High bandwidth image processing with run time library function offload via task distribution to special purpose engines
US9135073B2 (en) 2007-11-15 2015-09-15 International Business Machines Corporation Server-processor hybrid system for processing data
US9332074B2 (en) 2007-12-06 2016-05-03 International Business Machines Corporation Memory to memory communication and storage for hybrid systems
US8229251B2 (en) 2008-02-08 2012-07-24 International Business Machines Corporation Pre-processing optimization of an image processing system
US8379963B2 (en) 2008-03-28 2013-02-19 International Business Machines Corporation Visual inspection system
JP2010027128A (ja) * 2008-07-17 2010-02-04 Sony Corp 駆動装置および方法、プログラム、並びに記録媒体
JP4970579B2 (ja) 2010-08-26 2012-07-11 株式会社東芝 テレビジョン装置
JP5678576B2 (ja) * 2010-10-27 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および監視システム
US9516372B2 (en) * 2010-12-10 2016-12-06 Lattice Semiconductor Corporation Multimedia I/O system architecture for advanced digital television
KR20120068540A (ko) * 2010-12-17 2012-06-27 한국전자통신연구원 병렬 처리를 이용한 다시점 영상 컨텐츠 생성 장치 및 방법
JP5664230B2 (ja) * 2010-12-28 2015-02-04 コニカミノルタ株式会社 画像読み込みシステムおよび読み込み画像処理システム
DE102013110899B4 (de) * 2012-10-04 2019-07-04 Cognex Corporation Symbologie-Lesegerät mit Multicore-Prozessor und Systeme und Verfahren zum Betrieb desselben
CN108959133B (zh) * 2017-05-22 2021-12-10 扬智科技股份有限公司 可共用存储器的电路结构与数字视频转换装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62144273A (ja) * 1985-12-19 1987-06-27 Toshiba Corp 画像検索装置
JPH11291566A (ja) * 1998-04-08 1999-10-26 Minolta Co Ltd ラスタライズ方法
WO2000033571A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de delivrance d'information

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6177964B1 (en) * 1997-08-01 2001-01-23 Microtune, Inc. Broadband integrated television tuner
US6223205B1 (en) * 1997-10-20 2001-04-24 Mor Harchol-Balter Method and apparatus for assigning tasks in a distributed server system
US6292188B1 (en) * 1999-07-28 2001-09-18 Alltrue Networks, Inc. System and method for navigating in a digital information environment
US6433839B1 (en) * 2000-03-29 2002-08-13 Hourplace, Llc Methods for generating image set or series with imperceptibly different images, systems therefor and applications thereof
JP4011949B2 (ja) * 2002-04-01 2007-11-21 キヤノン株式会社 マルチ画面合成装置及びデジタルテレビ受信装置
US7511710B2 (en) * 2002-11-25 2009-03-31 Microsoft Corporation Three-dimensional program guide
KR100518874B1 (ko) * 2002-12-10 2005-10-04 엘지전자 주식회사 디지털 티브이 및 그 채널편집 방법
US7761876B2 (en) * 2003-03-20 2010-07-20 Siemens Enterprise Communications, Inc. Method and system for balancing the load on media processors based upon CPU utilization information
CA2527083C (en) * 2003-06-02 2011-04-26 Disney Enterprises, Inc. System and method of programmatic window control for consumer video players
US20040268168A1 (en) * 2003-06-30 2004-12-30 Stanley Randy P Method and apparatus to reduce power consumption by a display controller
US7075541B2 (en) * 2003-08-18 2006-07-11 Nvidia Corporation Adaptive load balancing in a multi-processor graphics processing system
US7525600B2 (en) * 2005-01-14 2009-04-28 Broadcom Corporation Single integrated high definition television (HDTV) chip for analog and digital reception

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62144273A (ja) * 1985-12-19 1987-06-27 Toshiba Corp 画像検索装置
JPH11291566A (ja) * 1998-04-08 1999-10-26 Minolta Co Ltd ラスタライズ方法
WO2000033571A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de delivrance d'information

Also Published As

Publication number Publication date
US20090066706A1 (en) 2009-03-12
JP2006318281A (ja) 2006-11-24
JP4070778B2 (ja) 2008-04-02

Similar Documents

Publication Publication Date Title
JP4070778B2 (ja) 画像処理システム
CN109168021B (zh) 一种推流的方法及装置
US20090055742A1 (en) Media data presented with time-based metadata
US20070030263A1 (en) Apparatus for providing multiple screens and method of dynamically configuring multiple screens
US7719617B2 (en) Television having a java engine and a removable device port
CN103500081A (zh) 一种显示方法及显示设备
CN103680551A (zh) 一种播放器及其多视频并行播放的方法
US20170043248A1 (en) Video display system, video display device, its control method, and information storage medium
US20080109725A1 (en) Apparatus for providing multiple screens and method of dynamically configuring multiple screens
CN112835730A (zh) 图像存储、内存分配、图像合成方法、装置、设备及介质
US7406570B2 (en) Multisystem network, and device and method for access to data storage
KR20130137147A (ko) 오디오/비디오 소스로부터의 오디오 및 비디오 스트림을 복수의 오디오/비디오 싱크로 매핑하기 위한 시스템 및 방법
CN113965800A (zh) 实现多屏异显的视频播放方法、系统、计算机设备及应用
US20150202534A1 (en) Video display system, video display device, its control method, and information storage medium
CN114710702A (zh) 一种视频的播放方法和装置
JP5235289B2 (ja) 情報処理装置、映像表示方法及びプログラム
JP2007206255A (ja) 表示制御装置及び負荷分散方法
US10863215B2 (en) Content providing apparatus, method of controlling the same, and recording medium thereof
JPH07162773A (ja) 画面表示方法
US20080094512A1 (en) Apparatus for providing multiple screens and method of dynamically configuring multiple screens
JP5460289B2 (ja) ストリーム処理装置及び処理方法
JP2005086822A (ja) ビデオ・データおよびグラフィックス・データ処理用装置
CA2648347A1 (en) Apparatus for providing multiple screens and method for dynamic configuration of the same
US20130254704A1 (en) Multiple Simultaneous Displays on the Same Screen
JP4118271B2 (ja) マルチメディア再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWE Wipo information: entry into national phase

Ref document number: 11912703

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06731270

Country of ref document: EP

Kind code of ref document: A1