WO2015198880A1 - 再生装置、再生方法、プログラム、および記録媒体 - Google Patents

再生装置、再生方法、プログラム、および記録媒体 Download PDF

Info

Publication number
WO2015198880A1
WO2015198880A1 PCT/JP2015/066834 JP2015066834W WO2015198880A1 WO 2015198880 A1 WO2015198880 A1 WO 2015198880A1 JP 2015066834 W JP2015066834 W JP 2015066834W WO 2015198880 A1 WO2015198880 A1 WO 2015198880A1
Authority
WO
WIPO (PCT)
Prior art keywords
still image
unit
storage unit
color depth
decoding unit
Prior art date
Application number
PCT/JP2015/066834
Other languages
English (en)
French (fr)
Inventor
幸一 内村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2015198880A1 publication Critical patent/WO2015198880A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/937Regeneration of the television signal or of selected parts thereof by assembling picture element blocks in an intermediate store

Definitions

  • the present technology relates to a playback device, a playback method, a program, and a recording medium, in particular, so that a still image having the same color depth recorded on the recording medium can be displayed on a moving image having a deep color depth.
  • the present invention relates to a playback apparatus, a playback method, a program, and a recording medium.
  • BD-J which is a Java (registered trademark) program, can be used to display graphics such as menu images over video. Yes. Graphics displayed using BD-J are called BD-J graphics.
  • BD-J graphics are currently graphics in the sRGB standard color space, so if you do not convert the color space, you will not be able to display it over a video that uses the wide color space of the BT.2020 standard. .
  • the present technology has been made in view of such a situation, and enables a still image having the same color depth recorded on a recording medium to be combined and displayed on a moving image having a deep color depth. is there.
  • a reproduction apparatus includes a reading unit that reads data from a recording medium, a video decoding unit that decodes a moving image stream including an image having a color depth of a predetermined bit read from the recording medium, A first decoding unit that decodes the first still image file having the color depth of the predetermined bit read from the recording medium; and a second still image having a color depth shallower than the predetermined bit.
  • a second decoding unit that decodes a file; and when the first still image file is decoded by the first decoding unit, the first decoding unit becomes a transfer destination of the first still image, and when the second still image file is decoded by the second decoding unit, the first storage unit serving as the transfer destination of the second still image and the program recorded on the recording medium are executed.
  • the first still image file is read from the recording medium, decoded by the first decoding unit, and data to the first storage unit
  • a control unit that transfers the first still image decoded by the first decoding unit to the first storage unit using a second API defined for transfer of the first storage, and the first storage
  • a synthesis unit that synthesizes the first still image stored in the unit with the moving image decoded by the video decoding unit.
  • a second storage unit as another transfer destination of the first still image can be further provided.
  • the control unit receives the first still image decoded by the first decoding unit using a third API defined for transferring data to the second storage unit.
  • the second API is used to store the first still image stored in the second storage unit.
  • One still image can be transferred to the first storage unit.
  • a conversion unit that converts the second still image decoded by the second decoding unit into a still image having a color depth of the predetermined bit can be further provided.
  • the control unit causes the second still image file to be read from the recording medium, decoded by the second decoding unit, and the second still image obtained by decoding the second still image.
  • the first storage unit stores the first still image and the second still image whose color depth has been converted by the conversion unit, and the combination unit stores the first still image.
  • the first still image and the second still image stored in the first storage unit can be combined with the moving image.
  • a third storage unit that is another transfer destination of the second still image can be further provided.
  • the control unit causes the second still image decoded by the second decoding unit to be transferred to the third storage unit, and the conversion unit stores the third still image in the third storage unit.
  • the second still image thus made can be converted into a still image having a color depth of the predetermined bit.
  • a fourth storage unit for storing a third still image having a color depth of the predetermined bit as a background can be further provided.
  • the control unit uses the first API to cause the third still image file to be read from the recording medium, decoded by the first decoding unit, and stored in the fourth storage.
  • the fourth API defined for transferring data to the unit the third still image decoded by the first decoding unit is transferred to the fourth storage unit, and the synthesis unit Can synthesize the third still image as a background of the moving image and the still image combined with the moving image.
  • the color depth of the image and the first still image constituting the moving image may be 10 bits, and the color depth of the second still image may be 8 bits.
  • the program can be a Java (registered trademark) program.
  • the video decoding unit decodes a moving image stream including an image having a predetermined bit color depth read from the recording medium, and the program recorded on the recording medium is executed by the CPU.
  • the first still image file is Read from the recording medium, and decode the second still image file having a color depth shallower than the predetermined bit by another decoding unit provided separately from the decoding unit, and also decode the decoded still image.
  • FIG. 1 is a diagram illustrating a configuration example of a reproduction system according to an embodiment of the present technology.
  • the playback device 1 is composed of a playback device 1 and a display device 2.
  • the playback device 1 and the display device 2 are connected via a cable 3 that is a cable of a predetermined standard such as HDMI (High Definition Multimedia Interface).
  • the playback device 1 and the display device 2 may be connected via wireless communication.
  • the playback device 1 drives the drive to read and decode the video stream recorded on the optical disc 11.
  • the optical disk 11 is, for example, a BD-ROM disk.
  • FIG. 2 is a diagram showing an example of data recorded on the optical disc 11.
  • the HEVC video stream which is a stream obtained by encoding the content video by HEVC (High Efficiency Video Coding), is recorded on the optical disc 11.
  • Each image constituting the HEVC video stream is a so-called 4K resolution image having a horizontal ⁇ vertical resolution of 4096 ⁇ 2160, 3840 ⁇ 2160 pixels, or the like.
  • Each image constituting the HEVC video stream has a color depth of 10 bits and has, for example, a color space of the BT.2020 standard.
  • BD-J program that is a Java (registered trademark) program is recorded on the optical disc 11.
  • the BD-J program is read by the playback device 1 and executed by the CPU of the playback device 1.
  • Various functions are realized in the playback device 1 by executing the BD-J program.
  • the optical disc 11 has an 8-bit JPEG file that is a JPEG file of a still image having a color depth of 8 bits and a JPEG file of a still image having a color depth of 10 bits.
  • a 10-bit JPEG file is recorded.
  • the BD-J program (CPU that executes the BD-J program) executed by the playback device 1 displays a menu image as BD-J graphics using the 8-bit JPEG file and the 10-bit JPEG file as appropriate. To display.
  • a menu image 22 that is a BD-J graphic and an arrow image 23 are superimposed on the image 21 obtained by decoding the HEVC video stream.
  • the menu image 22 and the arrow image 23 are images displayed using a 10-bit JPEG file recorded on the optical disc 11.
  • the user can operate the remote controller of the playback apparatus 1 to move the arrow image 23 and select a language.
  • the playback device 1 is provided with a 10-bit JPEG file processing path in addition to the 8-bit JPEG file processing path.
  • the BD-J program uses a API (Application Programming Interface) defined for a 10-bit JPEG file to decode a 10-bit JPEG file.
  • the BD-J program overlays the still image obtained by decoding the 10-bit JPEG file on the video obtained by decoding the HEVC video stream, and displays a screen as shown in FIG.
  • the playback apparatus 1 can display BD-J graphics composed of still images having a color depth of 10 bits on a 10-bit video having the same color depth.
  • the BD format is composed of a Clip layer, a PlayList (Movie PlayList) layer, a Movie Object and BD-J Object layer, and an Index table layer in order from the lowest layer.
  • a Clip AV stream including an HEVC video stream and a Clip Information pair which is information associated therewith are managed as one object.
  • a pair of Clip AV stream and Clip Information is called Clip.
  • the Clip AV stream may be recorded not only on the optical disc 11 but also on the local storage of the playback apparatus 1.
  • the Clip AV stream is expanded on the time axis, and the access position of each Clip is specified in the PlayList mainly by a time stamp.
  • Clip Information is used to find an address where decoding in the Clip ⁇ ⁇ AV stream should start.
  • PlayList is a collection of playback sections of Clip AV stream.
  • One playback section in the Clip AV stream is called a PlayItem.
  • PlayItem is represented by a pair of IN point and OUT point of the playback section on the time axis.
  • the PlayList is composed of one or a plurality of PlayItems.
  • the first PlayList from the left in FIG. 4 is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the Clip AV stream included in the left Clip, respectively.
  • the second PlayList from the left is composed of one PlayItem, whereby the entire Clip AV stream included in the right Clip is referenced.
  • the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the Clip AV stream included in the left Clip and a portion of the Clip AV stream included in the right Clip, respectively.
  • the playback target when the left PlayItem included in the first PlayList from the left is designated as the playback target, the first half of the Clip-AV stream included in the left Clip referred to by the PlayItem is played back.
  • the PlayList is used as reproduction management information for managing the reproduction of the Clip AV stream.
  • Movie Object includes a command for controlling playback of a playlist.
  • the BD-J Object includes a Java (registered trademark) program and provides a user with an interactive function that is more sophisticated than a navigation command.
  • the Index table shown in the top layer is a table that defines the title of the disc. Each entry in the index table is linked to Movie ⁇ ⁇ ⁇ ⁇ Object or BD-J Object that is the title object corresponding to the entry.
  • the command included in the Movie object is executed, and the Clip AV stream including the HEVC video stream is played back. Also, BD-J Object (BD-J program) is executed, and BD-J graphics are displayed.
  • BD-J Object BD-J program
  • FIG. 5 is a block diagram illustrating a configuration example of the playback device 1.
  • the playback apparatus 1 includes a controller 51, a disk drive 52, a memory 53, a local storage 54, a network interface 55, an operation input unit 56, a separation unit 57, a video decoder 58, a graphics processing unit 59, an image processing unit 60, and a communication unit. 61.
  • the controller 51 includes a CPU, a ROM, a RAM, and the like.
  • the controller 51 executes a predetermined program and controls the overall operation of the playback device 1.
  • the CPU of the controller 51 functions as the BD-J program execution unit 51A.
  • the BD-J program execution unit 51A displays the BD-J graphics by executing the BD-J program read from the optical disc 11 and controlling the graphics processing unit 59 according to the description of the BD-J program.
  • the disk drive 52 reads data from the optical disk 11 and outputs the read data to the controller 51, the memory 53, or the separation unit 57.
  • the disc drive 52 outputs database information such as PlayList and Clip Information read from the optical disc 11 to the controller 51, and outputs a Clip AV stream to the separation unit 57.
  • the disk drive 52 appropriately reads an 8-bit JPEG file and a 10-bit JPEG file from the optical disk 11 and outputs them to the separation unit 57 under the control of the BD-J program execution unit 51A.
  • the memory 53 stores data necessary for the controller 51 to execute various processes.
  • the memory 53 stores various types of information that the playback device 1 that is a BD player refers to when playing back the optical disc 11.
  • the local storage 54 is composed of, for example, an HDD (Hard Disk Drive). In the local storage 54, a stream downloaded from the server is recorded.
  • HDD Hard Disk Drive
  • the network interface 55 communicates with a server via a network such as the Internet, and supplies data downloaded from the server to the local storage 54.
  • the separation unit 57 separates the HEVC video stream from the Clip AV stream supplied from the disk drive 52 and outputs the HEVC video stream to the video decoder 58. Further, the separation unit 57 outputs the JPEG file supplied from the disk drive 52 to the graphics processing unit 59.
  • the video decoder 58 decodes the HEVC video stream supplied from the separation unit 57 and outputs video having a color depth of 10 bits to the image processing unit 60.
  • the video decoder 58 decodes the HEVC video stream read from the local storage 54.
  • the graphics processing unit 59 decodes the JPEG file supplied from the separation unit 57 and outputs a still image having a color depth of 10 bits to the image processing unit 60.
  • the image processing unit 60 combines the video plane supplied from the video decoder 58 and the BD-J graphics plane including the still image supplied from the graphics processing unit 59, and the combined data is transmitted to the communication unit 61. Output to.
  • FIG. 6 is a diagram showing an example of plane synthesis.
  • composition by the image processing unit 60 is performed such that the BD-J graphics plane is superimposed on the video plane.
  • the video plane is data for one screen of video obtained by decoding the HEVC video stream
  • the BD-J graphics plane is data for one screen of BD-J graphics.
  • a single BD-J graphics plane may be configured by arranging still images of a plurality of JPEG files.
  • the communication unit 61 outputs the video plane data supplied from the image processing unit 60 to the display device 2. From the image processing unit 60, data of a video plane combined with a BD-J graphics plane is appropriately supplied.
  • the communication unit 61 communicates with the display device 2 and acquires information regarding the performance of the display included in the display device 2.
  • the information acquired by the communication unit 61 is output to the controller 51, and the controller 51 specifies whether or not the display device 2 is a device capable of displaying an image having a color depth of 10 bits.
  • FIG. 7 is a block diagram illustrating a configuration example of the graphics processing unit 59.
  • the graphics processing unit 59 includes a 10-bit JPEG processing unit 71 and an 8-bit JPEG processing unit 72.
  • the 10-bit JPEG file output from the separation unit 57 is input to the 10-bit JPEG processing unit 71, and the 8-bit JPEG file is input to the 8-bit JPEG processing unit 72.
  • the 10-bit JPEG processing unit 71 has a configuration for processing a 10-bit JPEG file including processing such as decoding.
  • the 8-bit JPEG processing unit 72 has a configuration for processing an 8-bit JPEG file including processing such as decoding.
  • two JPEG file processing paths are prepared for each color depth.
  • three or more JPEG file processing paths may be provided.
  • the JPEG decoder 81 decodes the 10-bit JPEG file read from the optical disk 11 and stores the still image obtained by the decoding in the wide color image buffer 82.
  • the wide color image buffer 82 temporarily stores a still image having a color depth of 10 bits.
  • the still image stored in the wide color image buffer 82 is transferred to the wide color back buffer 83 or transferred to the wide color front buffer 101 of the image processing unit 60.
  • the wide color back buffer 83 is used to adjust the transfer timing to the wide color front buffer 101 when, for example, displaying a plurality of still images at the same time. For example, when two still images are displayed simultaneously as BD-J graphics, the previously decoded still image is stored in the wide color back buffer 83 until the second still image is decoded, and the two still images are displayed. The image is transferred to the wide color front buffer 101.
  • the BD-J program performs each process using three APIs.
  • FIG. 8 is a diagram showing an example of an API for a 10-bit JPEG file.
  • Image10 (org.blurayx.ui.Image10) is a class for reading a 10-bit JPEG file from the optical disc 11.
  • Static Image10 createImage10 (Stringpath) is a method that specifies a 10-bit JPEG file with an argument.
  • Int getWidth ()” and “Int getHeight ()” are methods for obtaining the size (width and height) of a still image.
  • a 10-bit JPEG file is read from the optical disk 11 and supplied to the JPEG decoder 81.
  • the 10-bit JPEG file is decoded by the JPEG decoder 81, and the still image obtained by the decoding is stored in the wide color image buffer 82.
  • “BufferedImage10” (org.blurayx.ui.BufferedImage10
  • “Static BufferedImage10 getInstance ()” is a method for securing a memory area for a still image to be transferred in the wide color back buffer 83.
  • “Void drawImage10 (int x, int y, Image10)” is a method for designating a still image writing position on the wide color back buffer 83 by an argument. “Int x” and “int y” designate the writing position, and “Image10” designates the still image to be transferred stored in the wide color image buffer 82.
  • void drawImage10 int x, int y, Image10
  • void drawImage10 int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey
  • the BD-J program calls the “BufferedImage10” API
  • at least a part of the still image stored in the wide color image buffer 82 is transferred to the wide color back buffer 83 and stored in the designated position.
  • “DrawGraphics10” (org.blurayx.ui.DrawGraphics10) is a class for transferring still images stored in the wide color image buffer 82 or the wide color back buffer 83 to the wide color front buffer 101.
  • Static DrawGraphics10 getInstance () is a method for securing a memory area for a still image to be transferred in the wide color front buffer 101.
  • “Void drawImage10 (int x, int y, Image10)” is a method for designating a still image writing position on the wide color front buffer 101 with an argument. “Int x” and “int y” designate the writing position, and “Image10” designates the still image to be transferred stored in the wide color image buffer 82 or the wide color back buffer 83.
  • “Void drawImage10 (int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)” is a method that specifies the writing position of the clipped still image on the wide color front buffer 101 with an argument. .
  • “Void drawImage10 (int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)” trims part of the still image stored in the wide color image buffer 82 or wide color back buffer 83 It is used when cutting out and transferring by.
  • “Int clipx” and “int clipy” specify the clipping position
  • “int clipsizex” and “int clipsizey” specify the clipping size.
  • the BD-J program calls the API of “DrawGraphics10”, at least a part of the still image stored in the wide color image buffer 82 or the wide color back buffer 83 is transferred to the wide color front buffer 101, Stored at the specified position.
  • the JPEG decoder 91 decodes the 8-bit JPEG file read from the optical disc 11 and supplied from the separation unit 57 and stores the decoded still image in the sRGB image buffer 92.
  • the sRGB image buffer 92 a still image having a color depth of 8 bits is temporarily stored.
  • the graphics generation unit 93 generates a predetermined image such as a line or a figure under the control of the BD-J program execution unit 51A, and outputs it to the sRGB image buffer 92.
  • Simple images such as lines and figures are not prepared as files on the optical disc 11, but are generated by the BD-J program execution unit 51A using a predetermined API.
  • the image generated by the graphics generation unit 93 is an image having a color depth of 8 bits.
  • the image output to the sRGB image buffer 92 is combined with the still image decoded by the JPEG decoder 91.
  • a still image stored in the sRGB image buffer 92 (a still image obtained by appropriately combining images generated by the graphics generation unit 93) is transferred to the sRGB back buffer 94 or processed by the color space conversion unit 95. After that, it is transferred to the wide color front buffer 101 of the image processing unit 60. Similar to the wide color back buffer 83, the sRGB back buffer 94 is used to adjust the transfer timing to the wide color front buffer 101. The still image stored in the sRGB back buffer 94 is read at a predetermined timing, and transferred to the wide color front buffer 101 through processing by the color space conversion unit 95.
  • the color space conversion unit 95 converts the still image read from the sRGB image buffer 92 or the sRGB back buffer 94 into a still image in the color space of the BT.2020 standard, and outputs the still image to the wide color front buffer 101.
  • the color space conversion unit 95 outputs a still image having a color depth of 10 bits generated based on the 8-bit JPEG file.
  • An API for transferring the still image stored in the buffer 94 to the wide color front buffer 101 is also prepared in advance.
  • the graphics processing unit 59 is provided with a processing path for a 10-bit JPEG file and a processing path for an 8-bit JPEG file.
  • a processing path for a 10-bit JPEG file and a processing path for an 8-bit JPEG file.
  • at least one of the still image generated based on the still image of the 10-bit JPEG file and the still image of the 8-bit JPEG file is transferred to the wide color front buffer 101.
  • FIG. 9 is a block diagram illustrating a configuration example of the image processing unit 60.
  • the image processing unit 60 includes a wide color front buffer 101, a video buffer 102, a synthesis unit 103, a color space conversion unit 104, and a color space conversion unit 105.
  • the wide color front buffer 101 generates a BD-J graphics plane by storing and storing the still image supplied from the graphics processing unit 59 at a predetermined position in the memory area.
  • the video buffer 102 generates a video plane by storing the video obtained by decoding the HEVC video stream supplied from the video decoder 58.
  • the color space conversion unit 104 converts the BD-J graphics plane stored in the wide color front buffer 101 into the sRGB standard color. Convert to spatial data. Further, the color space conversion unit 105 converts the video plane stored in the video buffer 102 into sRGB standard color space data.
  • the combining unit 103 combines the BD-J graphics plane whose color space has been converted by the color space converting unit 104 with the video plane whose color space has been converted by the color space converting unit 105, and Output.
  • step S1 the controller 51 controls the disc drive 52 to read the BD-J program from the optical disc 11, and executes it in the BD-J program execution unit 51A.
  • step S3 the video decoder 58 decodes the HEVC video stream and outputs the video data obtained by the decoding to the image processing unit 60.
  • the image processing unit 60 when a video plane is generated and is not combined with the BD-J graphics plane, it is output to the communication unit 61 as it is.
  • the video plane data is output from the communication unit 61 to the display device 2, and a video having a color depth of 10 bits is displayed.
  • step S4 the BD-J program execution unit 51A determines whether to display BD-J graphics.
  • step S5 the BD-J program execution unit 51A performs graphics display processing.
  • the graphics display process will be described later with reference to the flowchart of FIG.
  • step S4 If it is determined in step S4 that BD-J graphics are not displayed, the process in step S5 is skipped.
  • step S6 the controller 51 determines whether or not to finish the reproduction of the optical disc 11. When it is determined that the reproduction of the optical disc 11 is not finished, the controller 51 repeatedly executes the processes after step S2, and when it is judged that the reproduction is finished, the process is ended.
  • 11 is a process of displaying BD-J graphics using a still image of a 10-bit JPEG file.
  • step S11 the BD-J program execution unit 51A causes the 10-bit JPEG file to be read from the optical disc 11 using the “Image10” class API.
  • the 10-bit JPEG file read from the optical disc 11 is supplied to the graphics processing unit 59 via the separation unit 57.
  • step S12 the JPEG decoder 81 of the graphics processing unit 59 decodes the 10-bit JPEG file, and stores the still image obtained by decoding the 10-bit color depth in the wide color image buffer 82.
  • step S13 the BD-J program execution unit 51A uses the “BufferedImage10” class API to store the still image stored in the wide color image buffer 82. The image is transferred to the wide color back buffer 83.
  • the process of step S13 is not performed.
  • step S14 the BD-J program execution unit 51A uses the “DrawGraphics10” class API to transfer the still image stored in the wide color image buffer 82 or the wide color back buffer 83 to the wide color front buffer 101. .
  • step S15 the synthesis unit 103 of the image processing unit 60 synthesizes the BD-J graphics plane stored in the wide color front buffer 101 with the video plane stored in the video buffer 102. Image data obtained by combining the BD-J graphics plane with the video plane is output to the display device 2 and displayed.
  • steps S11 to S15 are repeated as appropriate according to, for example, a user operation.
  • the process returns to step S5 in FIG. 10 and the subsequent processing is performed.
  • the playback device 1 can display BD-J graphics including a still image prepared in advance on the optical disc 11 as a 10-bit JPEG file so as to be superimposed on a video having a color depth of 10 bits. .
  • BD-J graphics with deep color depth can be displayed by preparing a 10-bit JPEG file.
  • the process of FIG. 12 is a process of displaying BD-J graphics using a 10-bit JPEG file still image and an 8-bit JPEG file still image.
  • the processes in steps S21 to S24 in FIG. 12 are the same as the processes in steps S11 to S14 in FIG.
  • step S21 the BD-J program execution unit 51A causes the 10-bit JPEG file to be read from the optical disc 11 using the “Image10” class API.
  • step S22 the JPEG decoder 81 of the graphics processing unit 59 decodes the 10-bit JPEG file, and stores the still image obtained by decoding the 10-bit color depth in the wide color image buffer 82.
  • the BD-J program execution unit 51A uses the “BufferedImage10” class API to store the still image stored in the wide color image buffer 82.
  • the image is transferred to the wide color back buffer 83.
  • step S24 the BD-J program execution unit 51A uses the “DrawGraphics10” class API to transfer the still image stored in the wide color image buffer 82 or the wide color back buffer 83 to the wide color front buffer 101. .
  • step S26 the JPEG decoder 91 of the graphics processing unit 59 decodes the 8-bit JPEG file, and stores in the sRGB image buffer 92 the still image obtained by decoding the 8-bit color depth.
  • step S27 the BD-J program execution unit 51A uses the predetermined API to convert the still image stored in the sRGB image buffer 92 to the sRGB back The data is transferred to the buffer 94.
  • step S28 the BD-J program execution unit 51A transfers a still image stored in the sRGB image buffer 92 or the sRGB back buffer 94 to the wide color front buffer 101 using a predetermined API.
  • step S29 the color space conversion unit 95 converts the still image read from the sRGB image buffer 92 or the sRGB back buffer 94 into a still image in the color space of the BT.2020 standard, and the wide color front buffer 101. Output to.
  • step S30 the synthesis unit 103 of the image processing unit 60 synthesizes the BD-J graphics plane stored in the wide color front buffer 101 with the video plane stored in the video buffer 102. Image data obtained by combining the BD-J graphics plane with the video plane is output to the display device 2 and displayed.
  • the playback device 1 can display BD-J graphics composed of a still image of a 10-bit JPEG file and a still image of an 8-bit JPEG file superimposed on a video having a color depth of 10 bits. it can.
  • FIG. 13 is a diagram illustrating another example of plane synthesis.
  • the background is a still image of a predetermined color that becomes the background of the video.
  • the background plane which is data for one background screen, is synthesized under the video plane as shown in FIG.
  • a still image with a color depth of 10 bits obtained by decoding a 10-bit JPEG file is used as a background, a video obtained by decoding a HEVC video stream, and a BD obtained by decoding a 10-bit JPEG file. -Synthesized with J graphics.
  • the JPEG decoder 81 of the 10-bit JPEG processing unit 71 decodes the 10-bit JPEG file for background display, and stores the still image obtained by the decoding in the wide color image buffer 82.
  • the wide color image buffer 82 temporarily stores a still image having a color depth of 10 bits for background display.
  • the still image stored in the wide color image buffer 82 is transferred to the background buffer 111 of the image processing unit 60, and is combined with the video plane and the BD-J graphics plane as a background plane.
  • An API for transferring a still image obtained by decoding a 10-bit JPEG file for background display from the wide color image buffer 82 to the background buffer 111 is defined separately from the API of FIG.
  • the “Image10” class API of FIG. 8 is used to read and decode a 10-bit JPEG file for background display.
  • FIG. 15 is a diagram illustrating an example of an API used for transferring a still image for background display.
  • BackGroundDraw10 (org.blurayx.ui.BackGroundDraw10) is a class for transferring a still image for background display stored in the wide color image buffer 82 to the background buffer 111.
  • “Static BackGroundDraw10 getInstance ()” is a method for securing a memory area for a still image to be transferred in the background buffer 111.
  • “Void drawBackgroundImage10 (int x, int y, Image10)” is a method for designating a still image writing position on the background buffer 111 by an argument. “Int x” and “int y” designate the writing position, and “Image10” designates the still image to be transferred stored in the wide color image buffer 82.
  • “Void drawBackgroundImage10 (int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)” is a background buffer that crops a part of a still image stored in the wide color image buffer 82 by trimming. This method is used to specify the writing position of the cut-out still image on the background buffer 111 when an image is transferred to the file 111. “Int clipx” and “int clipy” specify the clipping position, and “int clipsizex” and “int clipsizey” specify the clipping size.
  • the JPEG decoder 91 of the 8-bit JPEG processing unit 72 decodes the 8-bit JPEG file for background display read from the optical disc 11 and stores the still image obtained by the decoding in the sRGB image buffer 92. In the sRGB image buffer 92, a still image having a color depth of 8 bits is temporarily stored.
  • the color space conversion unit 96 converts the still image for background display read from the sRGB image buffer 92 into a still image in the color space of the BT.2020 standard, and outputs the still image to the background buffer 111.
  • a still image having a 10-bit color depth stored in the background buffer 111 is combined with a video plane and a BD-J graphics plane as a background plane.
  • FIG. 16 is a block diagram illustrating another configuration example of the image processing unit 60.
  • the configuration of the image processing unit 60 illustrated in FIG. 16 is different from the configuration of the image processing unit 60 illustrated in FIG. 9 in that a background buffer 111 and a color space conversion unit 112 are provided.
  • the background buffer 111 generates a background plane by storing a background display still image supplied from the graphics processing unit 59 at a predetermined position in the memory area.
  • the synthesizing unit 103 synthesizes the background plane stored in the background buffer 111 under the video plane stored in the video buffer 102. Further, when displaying the BD-J graphics, the synthesizing unit 103 further synthesizes the BD-J graphics plane stored in the wide color front buffer 101 on the video plane, and displays each plane shown in FIG. The image data consisting of is generated.
  • the combining unit 103 outputs the image data obtained by combining to the communication unit 61.
  • the color space conversion unit 112 converts the background plane stored in the background buffer 111 into data of the sRGB standard color space.
  • the synthesizing unit 103 synthesizes the background plane whose color space has been converted by the color space converting unit 112 with the video plane whose color space has been converted by the color space converting unit 105, and outputs it to the communication unit 61.
  • the still image file is a JPEG file
  • a file of a format other than JPEG may be used.
  • FIG. 17 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 205 is further connected to the bus 204.
  • an input unit 206 such as a keyboard and a mouse and an output unit 207 such as a display and a speaker are connected.
  • the input / output interface 205 is connected to a storage unit 208 made up of a hard disk, nonvolatile memory, etc., a communication unit 209 made up of a network interface, etc., and a drive 210 that drives the removable medium 211.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology may have the following configurations.
  • a conversion unit that converts the second still image decoded by the second decoding unit into a still image having a color depth of the predetermined bit;
  • the control unit reads the second still image file from the recording medium, causes the second decoding unit to decode the file, and converts the second still image obtained by decoding to the conversion unit.
  • the first storage unit stores the first still image and the second still image whose color depth is converted by the conversion unit,
  • the playback device according to (2), wherein the combining unit combines the first still image and the second still image stored in the first storage unit with the moving image.
  • a third storage unit serving as another transfer destination of the second still image;
  • the control unit causes the second still image decoded by the second decoding unit to be transferred to the third storage unit,
  • the playback device according to (3), wherein the conversion unit converts the second still image stored in the third storage unit into a still image having a color depth of the predetermined bit.
  • the color depth of the image and the first still image constituting the moving image is 10 bits
  • the playback device according to any one of (1) to (5), wherein the color depth of the second still image is 8 bits.
  • a video decoding unit decodes a stream of a moving image composed of images having a predetermined bit color depth read from the recording medium,
  • the first API defined for reading the first still image having the color depth of the predetermined bit recorded on the recording medium is used.
  • the first still image file is read from the recording medium, and is provided separately from a decoding unit that decodes the second still image file having a color depth shallower than the predetermined bit.
  • a stream of video that consists of an image having a color depth of a predetermined bit and is decoded by the video decoding unit of the playback device; Recorded on a recording medium together with a file of a first still image having a color depth of the predetermined bit, A second still image having a color depth shallower than the predetermined bit is obtained by reading the first still image file using the first API defined for reading the first still image.
  • the other decryption unit provided in the playback device decrypts the file, Using the second API defined for transferring data to a storage unit that is a transfer destination of the decoded still image, the first still image decoded by the other decoding unit is stored in the storage unit.
  • Transfer A program executed by the CPU of the playback apparatus for controlling processing including a step of combining the first still image stored in the storage unit with the moving image decoded by the video decoding unit.
  • 1 playback device 2 display device, 11 optical disk, 51 controller, 52 disk drive, 53 memory, 57 separation unit, 58 video decoder, 59 graphics processing unit, 60 image processing unit, 61 communication unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 本技術は、色深度が深い動画に、記録媒体に記録されている同じ色深度の静止画を合成して表示させることができるようにする再生装置、再生方法、プログラム、および記録媒体に関する。 本技術の一実施形態に係る再生装置は、記録媒体に記録されたプログラムを実行し、第1の静止画の読み出し用として定義された第1のAPIを用いて、所定のビットの色深度を有する第1の静止画のファイルを記録媒体から読み出させて、所定のビットより浅い色深度を有する第2の静止画のファイルを復号する復号部とは別に設けられる他の復号部に復号させ、データの転送用として定義された第2のAPIを用いて、他の復号部により復号された第1の静止画を記憶部に転送させ、記憶部に記憶された第1の静止画を、ビデオ復号部により復号された、所定のビットの色深度を有する画像からなる動画に合成する。本技術は、BDプレーヤに適用することができる。

Description

再生装置、再生方法、プログラム、および記録媒体
 本技術は、再生装置、再生方法、プログラム、および記録媒体に関し、特に、色深度が深い動画に、記録媒体に記録されている同じ色深度の静止画を合成して表示させることができるようにした再生装置、再生方法、プログラム、および記録媒体に関する。
 映画などのコンテンツの記録メディアとしてBlu-ray(登録商標) Disc(以下、適宜、BDという)がある。近年、BDに、横×縦の解像度が4096×2160、3840×2160画素などのいわゆる4K解像度のビデオを記録できるようにすることが検討されている。
特開2012-142951号公報
 画質の観点からは、解像度を上げるだけでなく、色域を拡張したビデオを記録できるようにすることが好ましい。例えば、ビデオの符号化方式としてHEVC(High Efficiency Video Coding)を用いることにより、4K解像度であり、かつ、10ビット、12ビットなどの深い色深度のビデオを記録することができる。色深度として10ビット、12ビットを用いることにより、BT.2020規格の色空間などの、広い色空間上の色を表現することが可能になる。
 ところで、BD規格(BD-ROMフォーマット Part 3)では、Java(登録商標)のプログラムであるBD-Jを用いて、メニュー画像などのグラフィックスをビデオに重ねて表示させることができるようになされている。BD-Jを用いて表示されるグラフィックスをBD-Jグラフィックスという。
 BD-Jグラフィックスは、現状、sRGB規格の色空間のグラフィックスであるため、色空間の変換を行わなければ、BT.2020規格の広い色空間を用いたビデオに重ねて表示させることができない。
 本技術はこのような状況に鑑みてなされたものであり、色深度が深い動画に、記録媒体に記録されている同じ色深度の静止画を合成して表示させることができるようにするものである。
 本技術の一側面の再生装置は、記録媒体からデータを読み出す読み出し部と、前記記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームを復号するビデオ復号部と、前記記録媒体から読み出された前記所定のビットの色深度を有する第1の静止画のファイルを復号する第1の復号部と、前記所定のビットより浅い色深度を有する第2の静止画のファイルを復号する第2の復号部と、前記第1の静止画のファイルの復号が前記第1の復号部により行われた場合に、前記第1の静止画の転送先になるとともに、前記第2の静止画のファイルの復号が前記第2の復号部により行われた場合に、前記第2の静止画の転送先になる第1の記憶部と、前記記録媒体に記録されたプログラムを実行し、前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第1の記憶部へのデータの転送用として定義された第2のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第1の記憶部に転送させる制御部と、前記第1の記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成する合成部とを備える。
 前記第1の静止画の他の転送先となる第2の記憶部をさらに設けることができる。この場合、前記制御部には、前記第2の記憶部へのデータの転送用として定義された第3のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第2の記憶部に転送させ、前記第1の静止画が前記第2の記憶部に記憶された後、前記第2のAPIを用いて、前記第2の記憶部に記憶された前記第1の静止画を前記第1の記憶部に転送させることができる。
 前記第2の復号部により復号された前記第2の静止画を前記所定のビットの色深度の静止画に変換する変換部をさらに設けることができる。この場合、前記制御部には、前記第2の静止画のファイルを前記記録媒体から読み出させて前記第2の復号部に復号させ、復号して得られた前記第2の静止画を前記変換部に変換させ、前記第1の記憶部には、前記第1の静止画と、前記変換部により色深度が変換された前記第2の静止画を記憶させ、前記合成部には、前記第1の記憶部に記憶された前記第1の静止画と前記第2の静止画を前記動画に合成させることができる。
 前記第2の静止画の他の転送先となる第3の記憶部をさらに設けることができる。この場合、前記制御部には、前記第2の復号部により復号された前記第2の静止画を前記第3の記憶部に転送させ、前記変換部には、前記第3の記憶部に記憶された前記第2の静止画を前記所定のビットの色深度の静止画に変換させることができる。
 背景となる、前記所定のビットの色深度を有する第3の静止画を記憶する第4の記憶部をさらに設けることができる。この場合、前記制御部には、前記第1のAPIを用いて、前記第3の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第4の記憶部へのデータの転送用として定義された第4のAPIを用いて、前記第1の復号部により復号された前記第3の静止画を前記第4の記憶部に転送させ、前記合成部には、前記動画と前記動画に合成された静止画の背景として、前記第3の静止画を合成させることができる。
 前記動画を構成する前記画像と前記第1の静止画の色深度は10ビットであり、前記第2の静止画の色深度は8ビットであるようにすることができる。
 前記プログラムはJava(登録商標)のプログラムであるようにすることができる。
 本技術の一側面においては、記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームがビデオ復号部により復号され、前記記録媒体に記録されたプログラムがCPUにより実行されることによって、前記記録媒体に記録された前記所定のビットの色深度を有する第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に設けられる他の復号部に復号させるとともに、復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させる処理が行われ、前記記憶部に記憶された前記第1の静止画が、前記ビデオ復号部により復号された前記動画に合成される。
 本技術によれば、色深度が深い動画に、記録媒体に記録されている同じ色深度の静止画を合成して表示させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る再生システムの構成例を示す図である。 光ディスクに記録されているデータの例を示す図である。 BD-Jグラフィックスの例を示す図である。 BDにおけるAVストリームの管理構造の例を示す図である。 再生装置の構成例を示すブロック図である。 プレーン合成の例を示す図である。 グラフィックス処理部の構成例を示すブロック図である。 10ビットJPEGファイル用のAPIの例を示す図である。 画像処理部の構成例を示すブロック図である。 再生装置の処理について説明するフローチャートである。 図10のステップS5において行われるグラフィックス表示処理について説明するフローチャートである。 図10のステップS5において行われる他のグラフィックス表示処理について説明するフローチャートである。 プレーン合成の他の例を示す図である。 グラフィックス処理部の他の構成例を示すブロック図である。 バックグラウンド表示用の静止画の転送に用いられるAPIの例を示す図である。 画像処理部の他の構成例を示すブロック図である。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.第1の実施の形態(10ビットJPEGを用いてBD-Jグラフィックスを表示する例)
 2.第2の実施の形態(10ビットJPEGを用いてバックグラウンドを表示する例)
 3.変形例等
<<第1の実施の形態>>
<再生システム>
 図1は、本技術の一実施形態に係る再生システムの構成例を示す図である。
 図1の再生システムは、再生装置1と表示装置2から構成される。再生装置1と表示装置2は、HDMI(登録商標)(High Definition Multimedia Interface)などの所定の規格のケーブルであるケーブル3を介して接続される。再生装置1と表示装置2が無線による通信を介して接続されるようにしてもよい。
 再生装置1は、ドライブを駆動し、光ディスク11に記録されているビデオストリームを読み出して復号する。光ディスク11は例えばBD-ROMディスクである。BDプレーヤである再生装置1は、復号して得られたビデオデータを表示装置2に出力し、ビデオ(動画)を表示装置2のディスプレイに表示させる。
 図2は、光ディスク11に記録されているデータの例を示す図である。
 図2の吹き出しに示すように、光ディスク11には、コンテンツのビデオをHEVC(High Efficiency Video Coding)で符号化して得られたストリームであるHEVCビデオストリームが記録される。HEVCビデオストリームを構成する各画像は、横×縦の解像度が4096×2160、3840×2160画素などのいわゆる4K解像度の画像である。また、HEVCビデオストリームを構成する各画像は、色深度が10ビットであり、例えばBT.2020規格の色空間を有する画像である。
 また、光ディスク11には、Java(登録商標)のプログラムであるBD-Jプログラムが記録される。BD-Jプログラムは、再生装置1により読み出され、再生装置1のCPUにより実行される。BD-Jプログラムが実行されることにより、各種の機能が再生装置1において実現される。
 破線#1,#2で囲んで示すように、光ディスク11には、色深度が8ビットの静止画のJPEGファイルである8ビットJPEGファイルと、色深度が10ビットの静止画のJPEGファイルである10ビットJPEGファイルが記録されている。再生装置1により実行されたBD-Jプログラム(BD-Jプログラムを実行するCPU)は、8ビットJPEGファイルと10ビットJPEGファイルを適宜用いて、BD-Jグラフィックスとしてのメニュー画像を表示装置2に表示させる。
 以下、適宜、8ビットで表される色がsRGB規格の色空間上の色であるものとする。また、10ビットで表される色がBT.2020規格の色空間上の色であるものとする。BT.2020規格の色空間は、sRGB規格の色空間よりも広い色空間である。
 図3は、BD-Jグラフィックスの例を示す図である。
 表示装置2が有するディスプレイ2Aには、HEVCビデオストリームを復号して得られた画像21の上に、BD-Jグラフィックスであるメニュー画像22と矢印画像23が重ねて表示されている。メニュー画像22と矢印画像23は、光ディスク11に記録されている10ビットJPEGファイルを用いて表示された画像である。
 ユーザは、再生装置1のリモートコントローラを操作して矢印画像23を移動させ、言語の選択などを行うことができる。
 後述するように、再生装置1には、8ビットJPEGファイルの処理経路とは別に、10ビットJPEGファイルの処理経路が設けられている。BD-Jプログラムは、10ビットJPEGファイル用として定義されたAPI(Application Programming Interface)を用いて、10ビットJPEGファイルの復号などを行う。
 BD-Jプログラムは、10ビットJPEGファイルを復号して得られた静止画を、HEVCビデオストリームを復号して得られたビデオに重ね、図3に示すような画面を表示させる。
 これにより、再生装置1は、色深度が10ビットの静止画からなるBD-Jグラフィックスを、色深度が同じ10ビットのビデオに重ねて表示させることができる。
<BDフォーマット>
 ここで、BD-ROMフォーマットについて説明する。
 図4は、BDにおけるAVストリームの管理構造の例を示す図である。
 図4に示すように、BDフォーマットは、最下位層から順に、Clipのレイヤ、PlayList(Movie PlayList)のレイヤ、Movie ObjectとBD-J Objectのレイヤ、およびIndex tableのレイヤから構成される。
 最下位層に示すように、HEVCビデオストリームを含むClip AVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。Clip AVストリームとClip InformationのペアをClipという。Clip AVストリームは、光ディスク11だけでなく、再生装置1のローカルストレージに記録されることもある。
 Clip AVストリームは時間軸上に展開され、各Clipのアクセス位置は、主にタイムスタンプでPlayListにおいて指定される。Clip Informationは、Clip AVストリーム中の復号を開始すべきアドレスを見つけるためなどに使用される。
 PlayListはClip AVストリームの再生区間の集まりである。Clip AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。PlayListは1つまたは複数のPlayItemにより構成される。
 図4の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるClip AVストリームの前半部分と後半部分がそれぞれ参照される。
 左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるClip AVストリーム全体が参照される。
 左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるClip AVストリームのある部分と、右側のClipに含まれるClip AVストリームのある部分がそれぞれ参照される。
 例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象として指定された場合、そのPlayItemが参照する、左側のClipに含まれるClip AVストリームの前半部分の再生が行われる。このように、PlayListは、Clip AVストリームの再生を管理するための再生管理情報として用いられる。
 Movie Objectは、プレイリストの再生を制御するためのコマンドを含む。BD-J Objectは、Java(登録商標)のプログラムを含み、ナビコマンドよりも高度なインタラクティブ機能をユーザに提供する。
 最上位層に示すIndex tableは、ディスクのタイトルを定義するテーブルである。インデクステーブルの各エントリから、そのエントリに対応するタイトルのオブジェクトであるMovie ObjectまたはBD-J Objectにリンクがはられる。
 Index tableのエントリを参照して、Movie Objectに含まれるコマンドが実行され、HEVCビデオストリームを含むClip AV streamの再生が行われる。また、BD-J Object(BD-Jプログラム)が実行され、BD-Jグラフィックスの表示が行われる。
<再生装置の構成>
 図5は、再生装置1の構成例を示すブロック図である。
 再生装置1は、コントローラ51、ディスクドライブ52、メモリ53、ローカルストレージ54、ネットワークインタフェース55、操作入力部56、分離部57、ビデオデコーダ58、グラフィックス処理部59、画像処理部60、および通信部61から構成される。
 コントローラ51は、CPU、ROM、RAMなどより構成される。コントローラ51は、所定のプログラムを実行し、再生装置1の全体の動作を制御する。
 コントローラ51のCPUがBD-Jプログラム実行部51Aとして機能する。BD-Jプログラム実行部51Aは、光ディスク11から読み出されたBD-Jプログラムを実行し、BD-Jプログラムの記述に従ってグラフィックス処理部59を制御するなどして、BD-Jグラフィックスを表示させる。
 ディスクドライブ52は、光ディスク11からデータを読み出し、読み出したデータを、コントローラ51、メモリ53、または分離部57に出力する。例えば、ディスクドライブ52は、光ディスク11から読み出したPlayListやClip Informationなどのデータベース情報をコントローラ51に出力し、Clip AVストリームを分離部57に出力する。
 また、ディスクドライブ52は、BD-Jプログラム実行部51Aによる制御に従って、適宜、8ビットJPEGファイル、10ビットJPEGファイルを光ディスク11から読み出し、分離部57に出力する。
 メモリ53は、コントローラ51が各種の処理を実行する上において必要なデータなどを記憶する。メモリ53には、BD Playerである再生装置1が光ディスク11の再生時に参照する各種の情報が記憶される。
 ローカルストレージ54は例えばHDD(Hard Disk Drive)により構成される。ローカルストレージ54には、サーバからダウンロードされたストリームなどが記録される。
 ネットワークインタフェース55は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ54に供給する。
 分離部57は、ディスクドライブ52から供給されたClip AVストリームからHEVCビデオストリームを分離し、ビデオデコーダ58に出力する。また、分離部57は、ディスクドライブ52から供給されたJPEGファイルをグラフィックス処理部59に出力する。
 ビデオデコーダ58は、分離部57から供給されたHEVCビデオストリームを復号し、色深度が10ビットのビデオを画像処理部60に出力する。ビデオデコーダ58は、HEVCビデオストリームがローカルストレージ54に記録されている場合、ローカルストレージ54から読み出されたHEVCビデオストリームを復号する。
 グラフィックス処理部59は、分離部57から供給されたJPEGファイルを復号し、色深度が10ビットの静止画を画像処理部60に出力する。
 画像処理部60は、ビデオデコーダ58から供給されたビデオのプレーンと、グラフィックス処理部59から供給された静止画からなるBD-Jグラフィックスのプレーンを合成し、合成後のデータを通信部61に出力する。
 図6は、プレーン合成の例を示す図である。
 画像処理部60による合成は、ビデオプレーンの上に、BD-Jグラフィックスプレーンを重ねるようにして行われる。
 ビデオプレーンは、HEVCビデオストリームを復号して得られたビデオの1画面分のデータであり、BD-Jグラフィックスプレーンは、BD-Jグラフィックスの1画面分のデータである。複数のJPEGファイルの静止画を配置して1つのBD-Jグラフィックスプレーンが構成されることもある。
 画像処理部60には、ビデオプレーンを記憶するバッファと、BD-Jグラフィックスプレーンを記憶するバッファが用意される。
 通信部61は、画像処理部60から供給されたビデオプレーンのデータを表示装置2に出力する。画像処理部60からは、適宜、BD-Jグラフィックスプレーンが合成されたビデオプレーンのデータが供給される。
 また、通信部61は、表示装置2と通信を行い、表示装置2が有するディスプレイの性能に関する情報を取得する。通信部61により取得された情報はコントローラ51に出力され、コントローラ51により、表示装置2が、色深度が10ビットの画像を表示可能な装置であるか否かが特定される。
 図7は、グラフィックス処理部59の構成例を示すブロック図である。
 グラフィックス処理部59は、10ビットJPEG処理部71と8ビットJPEG処理部72から構成される。分離部57から出力された10ビットJPEGファイルは10ビットJPEG処理部71に入力され、8ビットJPEGファイルは8ビットJPEG処理部72に入力される。10ビットJPEG処理部71は、復号等の処理を含む、10ビットJPEGファイルの処理を行うための構成を有する。8ビットJPEG処理部72は、復号等の処理を含む、8ビットJPEGファイルの処理を行うための構成を有する。
 このように、グラフィックス処理部59には、色深度ごとに、2つのJPEGファイルの処理経路が用意される。3以上の色深度の異なる静止画のJPEGファイルを用いてBD-Jグラフィックスの表示が行われる場合、3以上のJPEGファイルの処理経路が設けられるようにしてもよい。
 10ビットJPEG処理部71は、JPEGデコーダ81、ワイドカラーイメージバッファ82、およびワイドカラーバックバッファ83から構成される。
 JPEGデコーダ81は、光ディスク11から読み出された10ビットJPEGファイルを復号し、復号して得られた静止画をワイドカラーイメージバッファ82に記憶させる。ワイドカラーイメージバッファ82には、色深度が10ビットの静止画が一時的に記憶される。
 ワイドカラーイメージバッファ82に記憶された静止画は、ワイドカラーバックバッファ83に転送されるか、画像処理部60のワイドカラーフロントバッファ101に転送される。ワイドカラーバックバッファ83は、複数の静止画を同時に表示させるときなど、ワイドカラーフロントバッファ101への転送タイミングを調整するために用いられる。例えば、2つの静止画を同時にBD-Jグラフィックスとして表示させる場合、2つ目の静止画の復号が終わるまで、先に復号された静止画はワイドカラーバックバッファ83に記憶され、2つの静止画がワイドカラーフロントバッファ101に転送される。
 10ビットJPEGファイルを光ディスク11から読み出させ、JPEGデコーダ81に復号させるAPI、ワイドカラーイメージバッファ82に記憶されている静止画をワイドカラーバックバッファ83に転送させるAPI、および、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画をワイドカラーフロントバッファ101に転送させるAPIが定義される。BD-Jプログラムは、3つのAPIを用いてそれぞれの処理を行わせる。
 図8は、10ビットJPEGファイル用のAPIの例を示す図である。
 “Image10”(org.blurayx.ui.Image10)は、10ビットJPEGファイルを光ディスク11から読み出すためのクラスである。
 “static Image10 createImage10(String path)”は、10ビットJPEGファイルを引数により指定するメソッドである。“int getWidth()”と“Int getHeight()”は、静止画のサイズ(幅と高さ)を取得するためのメソッドである。
 BD-Jプログラムが“Image10”のAPIを呼び出すことにより、10ビットJPEGファイルが光ディスク11から読み出され、JPEGデコーダ81に供給される。JPEGデコーダ81により10ビットJPEGファイルの復号が行われ、復号して得られた静止画がワイドカラーイメージバッファ82に記憶される。
 “BufferedImage10”(org.blurayx.ui.BufferedImage10 extends Image10)は、ワイドカラーイメージバッファ82に記憶されている静止画をワイドカラーバックバッファ83に転送するためのクラスである。
 “static BufferedImage10 getInstance()”は、転送する静止画用のメモリ領域をワイドカラーバックバッファ83に確保するメソッドである。
 “void drawImage10(int x, int y, Image10)”は、ワイドカラーバックバッファ83上の、静止画の書き込み位置を引数により指定するメソッドである。“int x”と“int y”は書き込み位置を指定し、“Image10”はワイドカラーイメージバッファ82に記憶されている転送対象の静止画を指定する。
 “void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”は、ワイドカラーバックバッファ83上の、切り出した静止画の書き込み位置を引数により指定するメソッドである。“void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”は、ワイドカラーイメージバッファ82に記憶されている静止画の一部をトリミングにより切り出して転送する場合に用いられる。“int clipx”と“int clipy”は切り出し位置を指定し、“int clipsizex”と“int clipsizey”は切り出しサイズを指定する。
 ある静止画を対象として、“void drawImage10(int x, int y, Image10)”と“void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”のうちのいずれかが用いられる。
 BD-Jプログラムが“BufferedImage10”のAPIを呼び出すことにより、ワイドカラーイメージバッファ82に記憶されている静止画のうちの少なくとも一部が、ワイドカラーバックバッファ83に転送され、指定した位置に記憶される。
 “DrawGraphics10”(org.blurayx.ui.DrawGraphics10)は、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画をワイドカラーフロントバッファ101に転送するためのクラスである。
 “static DrawGraphics10 getInstance()”は、転送する静止画用のメモリ領域をワイドカラーフロントバッファ101に確保するメソッドである。
 “void drawImage10(int x, int y, Image10)”は、ワイドカラーフロントバッファ101上の、静止画の書き込み位置を引数により指定するメソッドである。“int x”と“int y”は書き込み位置を指定し、“Image10”はワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている転送対象の静止画を指定する。
 “void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”は、ワイドカラーフロントバッファ101上の、切り出した静止画の書き込み位置を引数により指定するメソッドである。“void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”は、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画の一部をトリミングにより切り出して転送する場合に用いられる。“int clipx”と“int clipy”は切り出し位置を指定し、“int clipsizex”と“int clipsizey”は切り出しサイズを指定する。
 ある静止画を対象として、“void drawImage10(int x, int y, Image10)”と“void drawImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”のうちのいずれかが用いられる。
 BD-Jプログラムが“DrawGraphics10”のAPIを呼び出すことにより、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画のうちの少なくとも一部が、ワイドカラーフロントバッファ101に転送され、指定した位置に記憶される。
 図7の説明に戻り、8ビットJPEG処理部72は、JPEGデコーダ91、sRGBイメージバッファ92、グラフィックス生成部93、sRGBバックバッファ94、および色空間変換部95から構成される。
 JPEGデコーダ91は、光ディスク11から読み出され、分離部57から供給された8ビットJPEGファイルを復号し、復号して得られた静止画をsRGBイメージバッファ92に記憶させる。sRGBイメージバッファ92には、色深度が8ビットの静止画が一時的に記憶される。
 グラフィックス生成部93は、BD-Jプログラム実行部51Aの制御に従って、線や図形などの所定の画像を生成し、sRGBイメージバッファ92に出力する。線や図形などの単純な画像は、ファイルとして光ディスク11に用意されるのではなく、BD-Jプログラム実行部51Aが所定のAPIを用いることにより生成される。グラフィックス生成部93により生成される画像は色深度が8ビットの画像である。sRGBイメージバッファ92に出力された画像は、JPEGデコーダ91により復号された静止画に合成される。
 sRGBイメージバッファ92に記憶されている静止画(グラフィックス生成部93により生成された画像が適宜合成された静止画)は、sRGBバックバッファ94に転送されるか、色空間変換部95の処理を経た後、画像処理部60のワイドカラーフロントバッファ101に転送される。sRGBバックバッファ94は、ワイドカラーバックバッファ83と同様に、ワイドカラーフロントバッファ101への転送タイミングを調整するために用いられる。sRGBバックバッファ94に記憶されている静止画は、所定のタイミングで読み出され、色空間変換部95による処理を経てワイドカラーフロントバッファ101に転送される。
 色空間変換部95は、sRGBイメージバッファ92から、またはsRGBバックバッファ94から読み出された静止画を、BT.2020規格の色空間の静止画に変換し、ワイドカラーフロントバッファ101に出力する。色空間変換部95からは、8ビットJPEGファイルに基づいて生成された、色深度が10ビットの静止画が出力される。
 8ビットJPEGファイルを光ディスク11から読み出させ、JPEGデコーダ91に復号させるAPI、sRGBイメージバッファ92に記憶されている静止画をsRGBバックバッファ94に転送させるAPI、および、sRGBイメージバッファ92またはsRGBバックバッファ94に記憶されている静止画をワイドカラーフロントバッファ101に転送させるAPIもあらかじめ用意される。
 このように、グラフィックス処理部59には、10ビットJPEGファイル用の処理経路と8ビットJPEGファイル用の処理経路が用意される。これにより、10ビットJPEGファイルの静止画と、8ビットJPEGファイルの静止画を元にして生成された静止画のうちの少なくともいずれかがワイドカラーフロントバッファ101に転送されることになる。
 図9は、画像処理部60の構成例を示すブロック図である。
 画像処理部60は、ワイドカラーフロントバッファ101、ビデオバッファ102、合成部103、色空間変換部104、および色空間変換部105から構成される。
 ワイドカラーフロントバッファ101は、グラフィックス処理部59から供給された静止画をメモリ領域の所定の位置に配置して記憶することによってBD-Jグラフィックスプレーンを生成する。
 ビデオバッファ102は、ビデオデコーダ58から供給された、HEVCビデオストリームを復号して得られたビデオを記憶することによってビデオプレーンを生成する。
 合成部103は、ワイドカラーフロントバッファ101に記憶されたBD-Jグラフィックスプレーンを、ビデオバッファ102に記憶されたビデオプレーンの上に重ねるようにして合成し、BD-Jグラフィックスを含む図3に示すような画像のデータを生成する。合成部103は、合成して得られた画像のデータを通信部61に出力する。
 なお、表示装置2が有するディスプレイがBT.2020規格の色空間に対応していない場合、色空間変換部104は、ワイドカラーフロントバッファ101に記憶されたBD-JグラフィックスプレーンをsRGB規格の色空間のデータに変換する。また、色空間変換部105は、ビデオバッファ102に記憶されたビデオプレーンをsRGB規格の色空間のデータに変換する。
 この場合、合成部103は、色空間変換部104により色空間が変換されたBD-Jグラフィックスプレーンを、色空間変換部105により色空間が変換されたビデオプレーンに合成し、通信部61に出力する。
<再生装置の動作>
 次に、図10のフローチャートを参照して、以上のような構成を有する再生装置1の処理について説明する。図10の処理は、例えば、再生装置1に光ディスク11が装着され、光ディスク11の再生がユーザにより指示されたときに開始される。
 ステップS1において、コントローラ51は、ディスクドライブ52を制御してBD-Jプログラムを光ディスク11から読み出し、BD-Jプログラム実行部51Aにおいて実行する。
 ステップS2において、コントローラ51は、ディスクドライブ52を制御し、PlayListが参照するHEVCビデオストリームを光ディスク11から読み出す。光ディスク11から読み出されたHEVCビデオストリームは、分離部57を介してビデオデコーダ58に供給される。
 ステップS3において、ビデオデコーダ58は、HEVCビデオストリームを復号し、復号して得られたビデオデータを画像処理部60に出力する。画像処理部60においては、ビデオプレーンが生成され、BD-Jグラフィックスプレーンとの合成が行われない場合、そのまま通信部61に出力される。ビデオプレーンのデータは、通信部61から表示装置2に出力され、色深度が10ビットのビデオが表示される。
 ステップS4において、BD-Jプログラム実行部51Aは、BD-Jグラフィックスを表示するか否かを判定する。
 例えばメニュー画面の表示がユーザにより指示されたことから、BD-Jグラフィックスを表示するとステップS4において判定した場合、ステップS5において、BD-Jプログラム実行部51Aは、グラフィックス表示処理を行う。グラフィックス表示処理については図11のフローチャートを参照して後述する。
 BD-Jグラフィックスを表示しないとステップS4において判定された場合、ステップS5の処理はスキップされる。
 ステップS6において、コントローラ51は、光ディスク11の再生を終了するか否かを判定する。コントローラ51は、光ディスク11の再生を終了しないと判定した場合、ステップS2以降の処理を繰り返し実行し、再生を終了すると判定した場合、処理を終了させる。
 次に、図11のフローチャートを参照して、図10のステップS5において行われるグラフィックス表示処理について説明する。
 図11の処理は、10ビットJPEGファイルの静止画を用いてBD-Jグラフィックスを表示する処理である。
 ステップS11において、BD-Jプログラム実行部51Aは、“Image10”クラスのAPIを用いて、10ビットJPEGファイルを光ディスク11から読み出させる。光ディスク11から読み出された10ビットJPEGファイルは、分離部57を介してグラフィックス処理部59に供給される。
 ステップS12において、グラフィックス処理部59のJPEGデコーダ81は、10ビットJPEGファイルを復号し、復号して得られた、色深度が10ビットの静止画をワイドカラーイメージバッファ82に記憶させる。
 復号して得られた静止画の表示タイミングを調整する場合、ステップS13において、BD-Jプログラム実行部51Aは、“BufferedImage10”クラスのAPIを用いて、ワイドカラーイメージバッファ82に記憶されている静止画をワイドカラーバックバッファ83に転送させる。表示タイミングを調整しない場合、ステップS13の処理は行われない。
 ステップS14において、BD-Jプログラム実行部51Aは、“DrawGraphics10”クラスのAPIを用いて、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画をワイドカラーフロントバッファ101に転送させる。
 ステップS15において、画像処理部60の合成部103は、ワイドカラーフロントバッファ101に記憶されているBD-Jグラフィックスプレーンを、ビデオバッファ102に記憶されているビデオプレーンに合成する。ビデオプレーンにBD-Jグラフィックスプレーンを合成した画像のデータは表示装置2に出力され、表示される。
 ステップS11乃至S15の処理は、例えばユーザの操作に応じて適宜繰り返される。BD-Jグラフィックスの表示を終了するとき、図10のステップS5に戻り、それ以降の処理が行われる。
 以上の一連の処理により、再生装置1は、10ビットJPEGファイルとして光ディスク11にあらかじめ用意された静止画からなるBD-Jグラフィックスを、色深度が10ビットのビデオに重ねて表示させることができる。
 コンテンツのオーサーとしても、10ビットJPEGファイルを用意しておくことにより、色深度の深いBD-Jグラフィックスを表示させることができる。
 次に、図12のフローチャートを参照して、図10のステップS5において行われる他のグラフィックス表示処理について説明する。
 図12の処理は、10ビットJPEGファイルの静止画と8ビットJPEGファイルの静止画を用いてBD-Jグラフィックスを表示する処理である。図12のステップS21乃至S24の処理は、図11のステップS11乃至S14の処理と同じ処理である。
 すなわち、ステップS21において、BD-Jプログラム実行部51Aは、“Image10”クラスのAPIを用いて、10ビットJPEGファイルを光ディスク11から読み出させる。
 ステップS22において、グラフィックス処理部59のJPEGデコーダ81は、10ビットJPEGファイルを復号し、復号して得られた、色深度が10ビットの静止画をワイドカラーイメージバッファ82に記憶させる。
 復号して得られた静止画の表示タイミングを調整する場合、ステップS23において、BD-Jプログラム実行部51Aは、“BufferedImage10”クラスのAPIを用いて、ワイドカラーイメージバッファ82に記憶されている静止画をワイドカラーバックバッファ83に転送させる。
 ステップS24において、BD-Jプログラム実行部51Aは、“DrawGraphics10”クラスのAPIを用いて、ワイドカラーイメージバッファ82またはワイドカラーバックバッファ83に記憶されている静止画をワイドカラーフロントバッファ101に転送させる。
 ステップS25において、BD-Jプログラム実行部51Aは、10ビットJPEGファイル用として定義されている所定のAPIを用いて、8ビットJPEGファイルを光ディスク11から読み出させる。
 ステップS26において、グラフィックス処理部59のJPEGデコーダ91は、8ビットJPEGファイルを復号し、復号して得られた、色深度が8ビットの静止画をsRGBイメージバッファ92に記憶させる。
 復号して得られた静止画の表示タイミングを調整する場合、ステップS27において、BD-Jプログラム実行部51Aは、所定のAPIを用いて、sRGBイメージバッファ92に記憶されている静止画をsRGBバックバッファ94に転送させる。
 ステップS28において、BD-Jプログラム実行部51Aは、所定のAPIを用いて、sRGBイメージバッファ92またはsRGBバックバッファ94に記憶されている静止画をワイドカラーフロントバッファ101に転送させる。
 ステップS29において、色空間変換部95は、sRGBイメージバッファ92から、またはsRGBバックバッファ94から読み出された静止画を、BT.2020規格の色空間の静止画に変換し、ワイドカラーフロントバッファ101に出力する。
 ステップS30において、画像処理部60の合成部103は、ワイドカラーフロントバッファ101に記憶されているBD-Jグラフィックスプレーンを、ビデオバッファ102に記憶されているビデオプレーンに合成する。ビデオプレーンにBD-Jグラフィックスプレーンを合成した画像のデータは表示装置2に出力され、表示される。
 ステップS21乃至S30の処理は、例えばユーザの操作に応じて適宜繰り返される。BD-Jグラフィックスの表示を終了するとき、図10のステップS5に戻り、それ以降の処理が行われる。
 以上の一連の処理により、再生装置1は、10ビットJPEGファイルの静止画と8ビットJPEGファイルの静止画からなるBD-Jグラフィックスを、色深度が10ビットのビデオに重ねて表示させることができる。
<<第2の実施の形態>>
 BD-Jプログラムが用いるJPEGファイルには、BD-Jグラフィックス表示用のJPEGファイルの他に、バックグラウンド表示用のJPEGファイルがある。バックグラウンド表示用のJPEGファイルも光ディスク11に記録されている。
 図13は、プレーン合成の他の例を示す図である。
 バックグラウンドは、ビデオの背景となる所定の色の静止画である。バックグラウンドの1画面分のデータであるバックグラウンドプレーンは、図13に示すようにビデオプレーンの下に合成される。10ビットJPEGファイルを復号して得られた色深度が10ビットの静止画がバックグラウンドとして用いられ、HEVCビデオストリームを復号して得られたビデオ、10ビットJPEGファイルを復号して得られたBD-Jグラフィックスとともに合成される。
 図14は、グラフィックス処理部59の他の構成例を示すブロック図である。
 図14に示す構成のうち、図7を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。光ディスク11から読み出された、バックグラウンド表示用の10ビットJPEGファイルは10ビットJPEG処理部71に入力される。
 10ビットJPEG処理部71のJPEGデコーダ81は、バックグラウンド表示用の10ビットJPEGファイルを復号し、復号して得られた静止画をワイドカラーイメージバッファ82に記憶させる。ワイドカラーイメージバッファ82には、バックグラウンド表示用の、色深度が10ビットの静止画が一時的に記憶される。
 ワイドカラーイメージバッファ82に記憶された静止画は、画像処理部60のバックグラウンドバッファ111に転送され、バックグラウンドプレーンとして、ビデオプレーン、BD-Jグラフィックスプレーンとともに合成される。
 バックグラウンド表示用の10ビットJPEGファイルを復号して得られた静止画をワイドカラーイメージバッファ82からバックグラウンドバッファ111に転送させるAPIが、図8のAPIとは別に定義される。バックグラウンド表示用の10ビットJPEGファイルの読み出しとデコードには図8の“Image10”クラスのAPIが用いられる。
 図15は、バックグラウンド表示用の静止画の転送に用いられるAPIの例を示す図である。
 “BackGroundDraw10”(org.blurayx.ui.BackGroundDraw10)は、ワイドカラーイメージバッファ82に記憶されているバックグラウンド表示用の静止画をバックグラウンドバッファ111に転送するためのクラスである。
 “static BackGroundDraw10 getInstance()”は、転送する静止画用のメモリ領域をバックグラウンドバッファ111に確保するメソッドである。
 “void drawBackgroundImage10(int x, int y, Image10)”は、バックグラウンドバッファ111上の、静止画の書き込み位置を引数により指定するメソッドである。“int x”と“int y”は書き込み位置を指定し、“Image10”はワイドカラーイメージバッファ82に記憶されている転送対象の静止画を指定する。
 “void drawBackgroundImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”は、ワイドカラーイメージバッファ82に記憶されている静止画の一部をトリミングにより切り出してバックグラウンドバッファ111に転送する場合に、バックグラウンドバッファ111上の、切り出した静止画の書き込み位置を引数により指定するメソッドである。“int clipx”と“int clipy”は切り出し位置を指定し、“int clipsizex”と“int clipsizey”は切り出しサイズを指定する。
 ある静止画を対象として、“void drawBackgroundImage10(int x, int y, Image10)”と“void drawBackgroundImage10(int x, int y, Image10, int clipx, int clipy, int clipsizex, int clipsizey)”のうちのいずれかが用いられる。
 BD-Jプログラムが“BackGroundDraw10”のAPIを呼び出すことにより、ワイドカラーイメージバッファ82に記憶されている静止画のうちの少なくとも一部が、バックグラウンドバッファ111に転送され、指定した位置に記憶される。
 図14の説明に戻り、バックグラウンド表示用のJPEGファイルとして8ビットJPEGファイルが光ディスク11に用意されている場合、光ディスク11から読み出されたバックグラウンド表示用の8ビットJPEGファイルは8ビットJPEG処理部72に入力される。
 8ビットJPEG処理部72のJPEGデコーダ91は、光ディスク11から読み出されたバックグラウンド表示用の8ビットJPEGファイルを復号し、復号して得られた静止画をsRGBイメージバッファ92に記憶させる。sRGBイメージバッファ92には、色深度が8ビットの静止画が一時的に記憶される。
 色空間変換部96は、sRGBイメージバッファ92から読み出されたバックグラウンド表示用の静止画を、BT.2020規格の色空間の静止画に変換し、バックグラウンドバッファ111に出力する。バックグラウンドバッファ111に記憶された色深度が10ビットの静止画は、バックグラウンドプレーンとして、ビデオプレーン、BD-Jグラフィックスプレーンとともに合成される。
 図16は、画像処理部60の他の構成例を示すブロック図である。
 図16に示す構成のうち、図9を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。図16に示す画像処理部60の構成は、バックグラウンドバッファ111と色空間変換部112が設けられている点で、図9に示す画像処理部60の構成と異なる。
 バックグラウンドバッファ111は、グラフィックス処理部59から供給されたバックグラウンド表示用の静止画をメモリ領域の所定の位置に配置して記憶することによってバックグラウンドプレーンを生成する。
 合成部103は、バックグラウンドバッファ111に記憶されたバックグラウンドプレーンを、ビデオバッファ102に記憶されたビデオプレーンの下に合成する。また、合成部103は、BD-Jグラフィックスを表示させる場合、さらに、ワイドカラーフロントバッファ101に記憶されたBD-Jグラフィックスプレーンを、ビデオプレーンの上に合成し、図13に示す各プレーンからなる画像データを生成する。合成部103は、合成して得られた画像データを通信部61に出力する。
 表示装置2が有するディスプレイがBT.2020規格の色空間に対応していない場合、色空間変換部112は、バックグラウンドバッファ111に記憶されたバックグラウンドプレーンをsRGB規格の色空間のデータに変換する。この場合、合成部103は、色空間変換部112により色空間が変換されたバックグラウンドプレーンを、色空間変換部105により色空間が変換されたビデオプレーンに合成し、通信部61に出力する。
 このように、ビデオの背景となるバックグラウンドの表示に10ビットJPEGファイルを用いることも可能である。
<<変形例等>>
 以上においては、色深度が8ビットと10ビットの静止画を処理する場合について説明したが、BD-Jプログラムが処理する静止画の色深度は8ビットと10ビットに限定されるものではない。BD-Jグラフィックスとして用いる静止画、バックグラウンドとして用いる静止画の色深度として、12ビット、16ビット、・・・といったように、ビデオを構成する画像の色深度と同じ他の色深度を用いることができる。
 また、以上においては、静止画のファイルがJPEGファイルである場合について説明したが、JPEG以外の他のフォーマットのファイルであってもよい。
・コンピュータの構成例
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。また、入出力インタフェース205には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。
 以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
 CPU201が実行するプログラムは、例えばリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部208にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 記録媒体からデータを読み出す読み出し部と、
 前記記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームを復号するビデオ復号部と、
 前記記録媒体から読み出された前記所定のビットの色深度を有する第1の静止画のファイルを復号する第1の復号部と、
 前記所定のビットより浅い色深度を有する第2の静止画のファイルを復号する第2の復号部と、
 前記第1の静止画のファイルの復号が前記第1の復号部により行われた場合に、前記第1の静止画の転送先になるとともに、前記第2の静止画のファイルの復号が前記第2の復号部により行われた場合に、前記第2の静止画の転送先になる第1の記憶部と、
 前記記録媒体に記録されたプログラムを実行し、前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第1の記憶部へのデータの転送用として定義された第2のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第1の記憶部に転送させる制御部と、
 前記第1の記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成する合成部と
 を備える再生装置。
(2)
 前記第1の静止画の他の転送先となる第2の記憶部をさらに備え、
 前記制御部は、前記第2の記憶部へのデータの転送用として定義された第3のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第2の記憶部に転送させ、前記第1の静止画が前記第2の記憶部に記憶された後、前記第2のAPIを用いて、前記第2の記憶部に記憶された前記第1の静止画を前記第1の記憶部に転送させる
 前記(1)に記載の再生装置。
(3)
 前記第2の復号部により復号された前記第2の静止画を前記所定のビットの色深度の静止画に変換する変換部をさらに備え、
 前記制御部は、前記第2の静止画のファイルを前記記録媒体から読み出させて前記第2の復号部に復号させ、復号して得られた前記第2の静止画を前記変換部に変換させ、
 前記第1の記憶部は、前記第1の静止画と、前記変換部により色深度が変換された前記第2の静止画を記憶し、
 前記合成部は、前記第1の記憶部に記憶された前記第1の静止画と前記第2の静止画を前記動画に合成する
 前記(2)に記載の再生装置。
(4)
 前記第2の静止画の他の転送先となる第3の記憶部をさらに備え、
 前記制御部は、前記第2の復号部により復号された前記第2の静止画を前記第3の記憶部に転送させ、
 前記変換部は、前記第3の記憶部に記憶された前記第2の静止画を前記所定のビットの色深度の静止画に変換する
 前記(3)に記載の再生装置。
(5)
 背景となる、前記所定のビットの色深度を有する第3の静止画を記憶する第4の記憶部をさらに備え、
 前記制御部は、前記第1のAPIを用いて、前記第3の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第4の記憶部へのデータの転送用として定義された第4のAPIを用いて、前記第1の復号部により復号された前記第3の静止画を前記第4の記憶部に転送させ、
 前記合成部は、前記動画と前記動画に合成された静止画の背景として、前記第3の静止画を合成する
 前記(3)に記載の再生装置。
(6)
 前記動画を構成する前記画像と前記第1の静止画の色深度は10ビットであり、
 前記第2の静止画の色深度は8ビットである
 前記(1)乃至(5)のいずれかに記載の再生装置。
(7)
 前記プログラムはJava(登録商標)のプログラムである
 前記(1)乃至(6)のいずれかに記載の再生装置。
(8)
 記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームをビデオ復号部が復号し、
 前記記録媒体に記録されたプログラムをCPUが実行することによって、前記記録媒体に記録された前記所定のビットの色深度を有する第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に設けられる他の復号部に復号させるとともに、復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
 前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成する
 ステップを含む再生方法。
(9)
 記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームをビデオ復号部に復号させ、
 前記記録媒体に記録された前記所定のビットの色深度を有する第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に設けられる他の復号部に復号させ、
 復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
 前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる
 ステップを含む処理をコンピュータに実行させるプログラム。
(10)
 所定のビットの色深度を有する画像からなり、再生装置のビデオ復号部により復号される動画のストリームと、
 前記所定のビットの色深度を有する第1の静止画のファイルと、
 前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に前記再生装置に設けられる他の復号部に復号させるとともに、復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる処理を制御する、前記再生装置のCPUにより実行されるプログラムと
 が記録された記録媒体。
(11)
 所定のビットの色深度を有する画像からなり、再生装置のビデオ復号部により復号される動画のストリームと、
 前記所定のビットの色深度を有する第1の静止画のファイルと
 とともに記録媒体に記録され、
  前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に前記再生装置に設けられる他の復号部に復号させ、
  復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
  前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる
 ステップを含む処理を制御する、前記再生装置のCPUにより実行されるプログラム。
 1 再生装置, 2 表示装置, 11 光ディスク, 51 コントローラ, 52 ディスクドライブ, 53 メモリ, 57 分離部, 58 ビデオデコーダ, 59 グラフィックス処理部, 60 画像処理部, 61 通信部

Claims (11)

  1.  記録媒体からデータを読み出す読み出し部と、
     前記記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームを復号するビデオ復号部と、
     前記記録媒体から読み出された前記所定のビットの色深度を有する第1の静止画のファイルを復号する第1の復号部と、
     前記所定のビットより浅い色深度を有する第2の静止画のファイルを復号する第2の復号部と、
     前記第1の静止画のファイルの復号が前記第1の復号部により行われた場合に、前記第1の静止画の転送先になるとともに、前記第2の静止画のファイルの復号が前記第2の復号部により行われた場合に、前記第2の静止画の転送先になる第1の記憶部と、
     前記記録媒体に記録されたプログラムを実行し、前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第1の記憶部へのデータの転送用として定義された第2のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第1の記憶部に転送させる制御部と、
     前記第1の記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成する合成部と
     を備える再生装置。
  2.  前記第1の静止画の他の転送先となる第2の記憶部をさらに備え、
     前記制御部は、前記第2の記憶部へのデータの転送用として定義された第3のAPIを用いて、前記第1の復号部により復号された前記第1の静止画を前記第2の記憶部に転送させ、前記第1の静止画が前記第2の記憶部に記憶された後、前記第2のAPIを用いて、前記第2の記憶部に記憶された前記第1の静止画を前記第1の記憶部に転送させる
     請求項1に記載の再生装置。
  3.  前記第2の復号部により復号された前記第2の静止画を前記所定のビットの色深度の静止画に変換する変換部をさらに備え、
     前記制御部は、前記第2の静止画のファイルを前記記録媒体から読み出させて前記第2の復号部に復号させ、復号して得られた前記第2の静止画を前記変換部に変換させ、
     前記第1の記憶部は、前記第1の静止画と、前記変換部により色深度が変換された前記第2の静止画を記憶し、
     前記合成部は、前記第1の記憶部に記憶された前記第1の静止画と前記第2の静止画を前記動画に合成する
     請求項1に記載の再生装置。
  4.  前記第2の静止画の他の転送先となる第3の記憶部をさらに備え、
     前記制御部は、前記第2の復号部により復号された前記第2の静止画を前記第3の記憶部に転送させ、
     前記変換部は、前記第3の記憶部に記憶された前記第2の静止画を前記所定のビットの色深度の静止画に変換する
     請求項3に記載の再生装置。
  5.  背景となる、前記所定のビットの色深度を有する第3の静止画を記憶する第4の記憶部をさらに備え、
     前記制御部は、前記第1のAPIを用いて、前記第3の静止画のファイルを前記記録媒体から読み出させて前記第1の復号部に復号させ、前記第4の記憶部へのデータの転送用として定義された第4のAPIを用いて、前記第1の復号部により復号された前記第3の静止画を前記第4の記憶部に転送させ、
     前記合成部は、前記動画と前記動画に合成された静止画の背景として、前記第3の静止画を合成する
     請求項4に記載の再生装置。
  6.  前記動画を構成する前記画像と前記第1の静止画の色深度は10ビットであり、
     前記第2の静止画の色深度は8ビットである
     請求項1に記載の再生装置。
  7.  前記プログラムはJava(登録商標)のプログラムである
     請求項1に記載の再生装置。
  8.  記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームをビデオ復号部が復号し、
     前記記録媒体に記録されたプログラムをCPUが実行することによって、前記記録媒体に記録された前記所定のビットの色深度を有する第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に設けられる他の復号部に復号させるとともに、復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
     前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成する
     ステップを含む再生方法。
  9.  記録媒体から読み出された所定のビットの色深度を有する画像からなる動画のストリームをビデオ復号部に復号させ、
     前記記録媒体に記録された前記所定のビットの色深度を有する第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを前記記録媒体から読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に設けられる他の復号部に復号させ、
     復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
     前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる
     ステップを含む処理をコンピュータに実行させるプログラム。
  10.  所定のビットの色深度を有する画像からなり、再生装置のビデオ復号部により復号される動画のストリームと、
     前記所定のビットの色深度を有する第1の静止画のファイルと、
     前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に前記再生装置に設けられる他の復号部に復号させるとともに、復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる処理を制御する、前記再生装置のCPUにより実行されるプログラムと
     が記録された記録媒体。
  11.  所定のビットの色深度を有する画像からなり、再生装置のビデオ復号部により復号される動画のストリームと、
     前記所定のビットの色深度を有する第1の静止画のファイルと
     とともに記録媒体に記録され、
      前記第1の静止画の読み出し用として定義された第1のAPIを用いて、前記第1の静止画のファイルを読み出させて、前記所定のビットより浅い色深度を有する第2の静止画のファイルの復号を行う復号部とは別に前記再生装置に設けられる他の復号部に復号させ、
      復号された静止画の転送先となる記憶部へのデータの転送用として定義された第2のAPIを用いて、前記他の復号部により復号された前記第1の静止画を前記記憶部に転送させ、
      前記記憶部に記憶された前記第1の静止画を、前記ビデオ復号部により復号された前記動画に合成させる
     ステップを含む処理を制御する、前記再生装置のCPUにより実行されるプログラム。
PCT/JP2015/066834 2014-06-25 2015-06-11 再生装置、再生方法、プログラム、および記録媒体 WO2015198880A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-129953 2014-06-25
JP2014129953 2014-06-25

Publications (1)

Publication Number Publication Date
WO2015198880A1 true WO2015198880A1 (ja) 2015-12-30

Family

ID=54937971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/066834 WO2015198880A1 (ja) 2014-06-25 2015-06-11 再生装置、再生方法、プログラム、および記録媒体

Country Status (1)

Country Link
WO (1) WO2015198880A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117383A1 (ja) * 2015-01-23 2016-07-28 ソニー株式会社 再生装置、情報処理方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033607A (ja) * 1995-11-21 2010-02-12 Altera Corp 動的プログラム可能なモード切換えディバイスドライバアーキテクチャ
WO2010032289A1 (ja) * 2008-09-17 2010-03-25 パイオニア株式会社 コンテンツ再生システム及び方法
JP2010259056A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2012510195A (ja) * 2008-11-24 2012-04-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 柔軟な出力を有する3dビデオ・プレーヤー
WO2012147350A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033607A (ja) * 1995-11-21 2010-02-12 Altera Corp 動的プログラム可能なモード切換えディバイスドライバアーキテクチャ
WO2010032289A1 (ja) * 2008-09-17 2010-03-25 パイオニア株式会社 コンテンツ再生システム及び方法
JP2012510195A (ja) * 2008-11-24 2012-04-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 柔軟な出力を有する3dビデオ・プレーヤー
JP2010259056A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
WO2012147350A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117383A1 (ja) * 2015-01-23 2016-07-28 ソニー株式会社 再生装置、情報処理方法、およびプログラム
JPWO2016117383A1 (ja) * 2015-01-23 2017-11-02 ソニー株式会社 再生装置、情報処理方法、およびプログラム
US10547821B2 (en) 2015-01-23 2020-01-28 Sony Corporation Reproduction apparatus and information processing method

Similar Documents

Publication Publication Date Title
US10951909B2 (en) Reproduction device reproduction method, and recording medium
US20210329194A1 (en) Reproduction device, reproduction method, and recording medium
JP6512458B2 (ja) データ再生方法及び再生装置
JP4518194B2 (ja) 生成装置、生成方法、及び、プログラム
JP6497522B2 (ja) 再生方法および再生装置
JP6471915B2 (ja) 再生装置、再生方法、情報処理装置、情報処理方法、プログラム
JP4577409B2 (ja) 再生装置、再生方法、プログラム、及び、データ構造
JP6149777B2 (ja) 再生装置、再生方法、プログラム、および記録媒体
WO2015198880A1 (ja) 再生装置、再生方法、プログラム、および記録媒体
WO2016166838A1 (ja) 再生装置、再生方法、およびプログラム
JP2019220968A (ja) 再生装置で実行される方法、及び再生装置
JP6536914B2 (ja) 再生装置、情報処理方法、およびプログラム
JP6703752B2 (ja) 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP6928885B2 (ja) 表示装置、表示方法及びコンピュータプログラム
JP2017143546A (ja) 再生装置、記録媒体、表示装置、および情報処理方法
KR102614338B1 (ko) 재생 장치, 재생 방법, 프로그램, 및 기록 매체
KR102624024B1 (ko) 정보 처리 장치, 정보 처리 방법, 기록 매체, 재생 장치, 재생 방법, 및 프로그램
JP2016149693A (ja) 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP2016085769A (ja) 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP7170236B2 (ja) 再生装置
KR102558213B1 (ko) 재생 장치, 재생 방법, 프로그램, 및 기록 매체
JP6583501B2 (ja) 再生装置、表示装置、情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15811527

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15811527

Country of ref document: EP

Kind code of ref document: A1