WO2011148587A1 - 立体視映像の再生装置、集積回路、プログラム - Google Patents

立体視映像の再生装置、集積回路、プログラム Download PDF

Info

Publication number
WO2011148587A1
WO2011148587A1 PCT/JP2011/002730 JP2011002730W WO2011148587A1 WO 2011148587 A1 WO2011148587 A1 WO 2011148587A1 JP 2011002730 W JP2011002730 W JP 2011002730W WO 2011148587 A1 WO2011148587 A1 WO 2011148587A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
video
depth
switching
playback
Prior art date
Application number
PCT/JP2011/002730
Other languages
English (en)
French (fr)
Inventor
朋子 片山
ジェルマーノ ライクセンリング
治 山地
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201180002850.XA priority Critical patent/CN102474650B/zh
Priority to US13/379,501 priority patent/US8712225B2/en
Priority to JP2012517119A priority patent/JP5624132B2/ja
Publication of WO2011148587A1 publication Critical patent/WO2011148587A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode

Definitions

  • the present invention belongs to the field of stereoscopic video reproduction technology based on binocular parallax.
  • parallax angle The angle between the direction in which the left eyeball (pupil) is facing in 2D display and the direction in which the left eyeball (pupil) is facing in 3D display using parallax This is referred to as “parallax angle”. As the parallax angle changes more rapidly, it becomes necessary to change the direction of the eyeball more rapidly, and eye fatigue tends to occur. Generally, the parallax angle is defined using the direction of the left eyeball, but the parallax angle may be defined using a difference in the direction of the right eyeball. When the degree of change in the parallax angle increases, the degree of movement of the eyeball at the time of switching increases accordingly, and it is necessary to move the eyeball greatly in a short time, which causes fatigue of the eyes.
  • the playback device described in Patent Document 1 does not immediately perform 3D playback when inputting signals for the left and right eyes, but waits for a certain period of time and performs 3D playback after the certain period has elapsed.
  • the amount of parallax is changed in stages to reduce eye fatigue.
  • This stepwise change includes monotonic increase, concave change, and convex change (FIG. 4, paragraph 0015 of Patent Document 1).
  • the target parallax amount is calculated by the parallax amount calculating means 12 and determined by the parallax amount determining means 14 (paragraph 0008 of Patent Document 1).
  • Patent Document 1 deals with a change in the amount of parallax when switching from the 2D mode to the 3D mode and a change in the amount of parallax during scene jump, the technique of Patent Document 1 is applied to change from the 2D mode to the 3D mode. It is also possible to moderate the parallax amount change in the switching of the bookmark, the bookmark jump in the 3D mode, and the chapter jump in the 3D mode.
  • the stepwise change in parallax amount in Patent Document 1 is that the target parallax amount is fixed because it is gradually approaching the target parallax amount from the parallax amount of “0” over a plurality of frames. It becomes.
  • the parallax amount calculation means 12 of Patent Document 1 can monitor the parallax amount in the input signal and adopt the latest parallax amount (paragraph 0024), the target parallax is determined according to the progress of the reproduction of the video signal. In the case of change, even if the amount of parallax is gradually increased over time, the amount of parallax in the frame to be reproduced becomes the target amount of parallax because the amount of parallax dynamically changes as playback progresses. And may be very different.
  • the amount of change in the amount of parallax may increase when switching from the amount of parallax of the target frame to the amount of parallax of the frame to be played back, there is no guarantee that the feeling of fatigue on the eyes will necessarily be reduced.
  • the amount of parallax may be larger.
  • An object of the present invention is to provide a playback device that can reduce the burden on the eyes even when the playback position and playback mode are arbitrarily switched mainly by the user.
  • a playback device that can solve the above problems
  • a playback device that outputs a stereoscopically viewable 3D image, Acquisition means for acquiring a video stream from outside the device; Playback means for decoding the acquired video stream and outputting 3D video, Status management means for managing the playback status in the playback means; When the playback state changes, select the frame to be used as the reference for the depth change from the multiple frames located before the change time point and the multiple frames located after the change time point on the time axis of the video stream. And adjusting means for adjusting the depth in the 3D image using the selected frame.
  • FIG. 1 shows a home theater system including a recording medium as a package medium, a playback device as a player device, a display device, and glasses.
  • the projection degree of the stereoscopic image that can be seen through the shutter glasses 500 is shown.
  • the time transition of the projection degree of a stereoscopic image is shown.
  • a temporal transition between the projection degree of the stereoscopic image and the parallax amount between the right eye image and the left eye image is shown.
  • It is a figure which shows the internal structure of a reproducing
  • the invention of the reproducing apparatus provided with the above problem solving means can be implemented as a player device for reproducing the package medium, and the invention of the integrated circuit can be implemented as a system LSI incorporated in the player device.
  • the invention of the reproduction method can be implemented as a time series procedure realized by this player device.
  • FIG. 1 shows a home theater system including a recording medium as a package medium, a playback device as a player device, a display device, and glasses.
  • the recording medium as the package medium and the playback device as the player device constitute a home theater system together with the display device, the glasses, and the remote controller, and are used by the user.
  • the read-only media 100 is an optical disc that supplies, for example, a movie work to the home theater system.
  • the playback device 200 is connected to the display device 400 and plays back the recording medium 100. Such reproduction is performed by alternately repeating video output of a left-eye video (left-eye video) and video output of a right-eye video (right-eye video).
  • the reproduced video reproduced in this way includes 2D video and 3D video.
  • the 2D video is an image expressed by pixels at the display position of the display screen located on the XY plane, for example, by regarding the plane including the display screen of the display device as the XY plane, and is also called a planar view image.
  • the playback mode of the playback device for playing back the 2D video is called “2D mode” or “planar playback mode”.
  • a 3D image is an image in which the Z axis is a straight line perpendicular to the plane captured as the XY plane and the depth in the Z axis direction is added.
  • the playback mode of the playback device for playing back the 3D video is called “3D mode” or “stereoscopic playback mode”.
  • the remote controller 300 is a device that accepts an operation on a hierarchical GUI from a user, and in order to accept such an operation, the remote controller 300 moves a menu key for calling a menu constituting the GUI and a focus of a GUI component constituting the menu.
  • An arrow key, a determination key for performing a confirmation operation on a GUI component constituting the menu, a return key for returning a hierarchical menu to a higher level, and a numerical key are provided.
  • the display device 400 receives the video output from the playback device 200 and alternately outputs the left-eye video and the right-eye video as they are at the same timing.
  • the same timing is realized by making the frame rate of video output and display switching the same.
  • the display display 400 accumulates the set of the left-eye video and the subsequently output right-eye video, and the high-frame-rate display is performed by switching these images at high speed on the display display side.
  • the reason why men and women overlap on the screen in the display device 400 is that when the screen of the display device 400 is viewed without wearing the shutter glasses 500, the right eye image and the left eye image appear to overlap in the 3D mode. It is.
  • the shutter glasses 500 include a liquid crystal shutter that can change the light transmittance by controlling the applied voltage. By changing the transmittance of this light, (1) the function of blocking the light entering the left eye and blocking the light entering the right eye, or (2) blocking the light entering the left eye and transmitting the light entering the right eye To realize the function. As a result, it is possible to show the left eye image without showing the right eye and the right eye without showing the right eye image.
  • the shutter glasses 500 are configured to alternately switch and display an image (left-eye video) to be viewed by the viewer's left eye and a right-eye image (right-eye video) to be viewed by the user's right eye.
  • the left-eye video and the right-eye video are different in the degree of parallax, so that the viewer has the illusion that the difference in appearance has a depth and is displayed on the display. It feels as if the projected image is popping out of the display and displaying a three-dimensional image.
  • the cable 600 is a cable for transferring an uncompressed video stream and an uncompressed audio stream at a high transfer rate, and corresponds to an HDMI cable or the like.
  • FIGS. 2A to 2C show the degree of projection of a stereoscopic image that can be seen through the shutter glasses 500.
  • FIG. FIG. 2A shows a stereoscopic image that appears when the parallax is large
  • FIG. 2B shows a stereoscopic image that appears when the parallax is small.
  • FIG. 2A shows a state in which the lower side of the figure is the user side and the upper side is the display device 400 side.
  • the stereoscopic image exists in the middle of the display device 400 and the shutter glasses 500.
  • FIGS. 2A and 2B how close the stereoscopic image is to the display device 400 is different.
  • the stereoscopic image is arranged near the display device 400 and is far from the shutter glasses 500.
  • the stereoscopic image has moved away from the display device 400 and is approaching the shutter glasses 500.
  • the depth of the stereoscopic image can be controlled by moving the stereoscopic image away from or close to the shutter glasses 500 by controlling the amount of parallax. Become.
  • FIG. 3 shows the temporal transition of the projection degree of the stereoscopic image.
  • the horizontal axis represents the time axis of the video stream
  • the vertical axis represents the space between the display device 400 and the shutter glasses 500.
  • the time axis of the video stream is composed of a plurality of frames.
  • the pop-out degree has a different value for each frame. In frames Fk-4 and Fk-3, the pop-out degree is small, and in frame Fk, the pop-out degree is large.
  • FIG. 4 shows a temporal transition between the degree of projection of the stereoscopic image and the amount of parallax between the right eye image and the left eye image.
  • the Y axis is the time axis of the video stream
  • the X axis is the projection degree of the stereoscopic image
  • the Z axis is the amount of parallax.
  • FIG. 5 shows the internal structure of the playback device.
  • the playback apparatus includes a reading unit 1, a demultiplexer 2, a video decoder 3, a video plane 4, a plane shift engine 5, an adder 6, a playback state management unit 7, a current processing frame storage unit 8, left and right From the processing storage unit 9, the dimension mode storage unit 10, the dimension determination unit 11, the depth storage unit 12, the scenario memory 13, the UO detection module 14, the adjustment unit 15, the control unit 16, the start position determination unit 17, and the plane offset determination unit 18. Composed.
  • the reading unit 1 loads a recording medium on which content constituting a stereoscopic video is recorded, and executes reading / writing on the recording medium.
  • the recording medium includes a read-only medium 100, a rewritable removable medium, and a rewritable build-in medium.
  • the playback device also includes a random access unit.
  • the random access unit executes random access from an arbitrary time point on the time axis of the video stream.
  • the video stream includes a normal video stream and a multi-view video stream.
  • the multi-view video stream is a stereoscopic video stream composed of a base-view video stream and a dependent-view video stream.
  • the random access unit specifically, when playback from an arbitrary time point on the time axis of the video stream is instructed, an access corresponding to the arbitrary time point is made using an entry map that is one of the scenario data.
  • Search for the unit's source packet number Such an access unit includes picture data that can be independently decoded or a set of view components.
  • the view component is a component that forms a stereoscopic video, and each of one right-eye video and one left-eye video corresponds to the view component.
  • the source packet number of the source packet storing the access unit delimiter for the access unit is specified. Reading from the source packet number and decoding are executed. In the scene jump, the above-described search is performed using time information indicating a branch destination, thereby performing random access.
  • the demultiplexer 2 performs demultiplexing on the input stream, and a plurality of types of packetized elementary streams. Is output.
  • the elementary streams output in this way include a video stream, a subtitle graphics stream, an interactive graphics stream, and an audio stream, and the video stream is output to the demultiplexer 2.
  • the subtitle graphics stream and the interactive graphics stream are sent to a dedicated graphics decoder (not shown) corresponding thereto, and the audio stream is sent to an audio decoder (not shown).
  • the video decoder 3 decodes the access unit constituting the video stream extracted by the demultiplexing by the demultiplexer 2 and writes uncompressed picture data to the video plane 4.
  • auxiliary extension data is extracted from the access unit at the head of the sequence in the dependent-view video stream, and the depth amount for each video frame existing in the auxiliary extension data is sent to the control unit 16. Write.
  • the video plane 4 is a memory capable of storing pixel data for one screen, which constitutes uncompressed picture data obtained by decoding of the video decoder 3.
  • the configuration of the video plane 4 includes a two-plane configuration and a one-plane configuration.
  • the video plane 4 includes a set of a left-eye video plane and a left-eye video plane.
  • a left-eye video and a right-eye video obtained by decoding the multi-view video stream are stored.
  • the video plane 4 stores pixel data that forms uncompressed picture data obtained by decoding a normal video stream.
  • the plane shift engine 5 realizes a plane shift when the video plane 4 has a single plane configuration. After determining whether the current processing frame Fc that is the current processing target is the left-eye video or the right-eye video in the left-right processing target storage unit 11, the picture stored in the video plane using the plane offset determined by the plane offset determination unit 14 An offset indicating how much the output video displayed based on the reference image is shifted from the reference position with respect to the horizontal direction (horizontal axis) of the display screen is determined by a plane offset determination unit 18 described later.
  • the plane shift engine 5 performs a shift process on each pixel data stored in the video plane so as to shift by the offset determined in this way.
  • the adder 6 multiplies each pixel data stored in the video plane 4, the subtitle graphics plane, and the interactive graphics plane by a predetermined transmittance and adds them. This is because the pixels stored in the video plane 4, the subtitle graphics plane, and the interactive graphics plane are superimposed. If the addition is performed on all the pixel data constituting the video plane 4, layer synthesis of the video plane 4, the subtitle graphics plane, and the interactive graphics plane is completed. If the above layer combination is performed, the pixel data constituting the combined picture data is output to the adder 6 to perform image output.
  • the video decoder 3, the video plane 4, the plane shift engine, and the adder 6 together constitute a playback unit.
  • the playback state management unit 7 includes a current processing frame storage unit 8, a left / right processing storage unit 9, and a dimension mode storage unit 10, and manages the playback state of the playback unit.
  • the current processing frame storage unit 8 is composed of a plurality of playback state registers that store a plurality of parameters for specifying the current processing frame Fc.
  • the multiple parameters for identifying the current processing frame Fc include the current title number, current playlist number, current play item number, current chapter number, current bookmark number, current angle number, and current presentation time (PTM).
  • PTM current presentation time
  • the current title number means a title that is currently being reproduced from among a plurality of titles described in the index table of the read-only media.
  • the current playlist number is a list of multiple playlist information (information defining the playback path consisting of main path and sub path) recorded on the removable media that is currently processed. Say.
  • the current play item number is a plurality of play item information constituting playlist information corresponding to the current playlist number (one playback section is defined by defining a combination of In_Time and Out_Time on the time axis of the video stream) Information that is currently being played back.
  • the current chapter number refers to the number of the chapter selected as the current chapter among the plurality of chapters set in the plurality of play item information constituting the playlist information.
  • the playlist information includes playlist mark information, and the playlist mark information can specify a mark point for the play item information by a combination of the play item information and a time stamp. Each chapter set for the playlist information is specified by this playlist mark information.
  • the playlist mark information since the chapter is always specified by the playlist mark information, any one of the plurality of chapters specified by the playlist mark information when the video stream is played back by the playlist is included. It is specified by the current chapter number.
  • the current chapter number is updated as the video stream is played.
  • the current bookmark number is the number of the bookmark selected as the current bookmark among the plurality of bookmarks set in the plurality of play item information constituting the playlist information. Unlike the chapter defined by the author, the bookmark is specified by a user operation.
  • the playback device receives the marking operation of the screen from the user, and specifies the bookmark by generating the playlist mark information inside the device. If a plurality of bookmarks are specified by such an operation, any one of the plurality of bookmarks is specified by the current bookmark number when the video stream is reproduced by the playlist. As the video stream is played, the current bookmark number is updated.
  • the so-called “scene jump” is executed by overwriting the current play item number, current chapter number, and current bookmark number with new ones.
  • the current angle number refers to a plurality of different camera angles when the play item information includes two or more stream reference information and a plurality of video streams having different camera angles are referred to by each angle reference information.
  • the video stream is determined as the current video stream.
  • Such a current angle number is not updated in play item information having only one stream reference information. It is updated only in the play item information having two or more stream reference information.
  • Current PTM indicates the current playback time among the time axis of the video stream referenced in the current playitem information corresponding to the current playitem number, and is expressed by the number of clocks with time accuracy of the time stamp.
  • the current PTM is updated as needed as the video stream is decoded by the video decoder.
  • the left / right processing storage unit 9 stores whether the current processing target frame among the plurality of frames constituting the video stream is the left-eye video or the right-eye video.
  • the dimension mode storage unit 10 stores a current mode number indicating whether the video output mode is the 2D mode or the 3D mode. By overwriting the current mode number stored in the dimension mode storage unit 10 with a new one, the 2D mode can be switched to the 3D mode, or the 3D mode can be switched to the 2D mode.
  • the above is the description of the current processing frame storage unit 8, the left / right processing storage unit 9, and the dimension mode storage unit 10 that constitute the playback state management unit 7. Next, details of the dimension determination unit 11 will be described.
  • the dimension determination unit 11 executes a mode determination procedure for determining a playback mode in the playback device, using a parameter for mode setting included in the scenario data and a parameter in the current processing frame storage unit 8, and It is determined whether the output mode of the device is the 2D mode or the 3D mode. If the reproduction mode is determined, the current mode number indicating the reproduction mode after the determination is written in the dimension mode storage unit 10.
  • the depth storage unit 12 stores depth amounts (depth amounts in the respective frames from the frame Fm to the frame m + n) for a plurality of frames extracted from the auxiliary extension data of the sequence by the video decoder.
  • the scenario memory 13 stores stream management information, playlist information, a bytecode application, and a navigation command string read from the recording medium without going through the demultiplexer 2.
  • the UO detection module 14 outputs a user operation (UO) event indicating the operation when the operation for determining the button member of the GUI or the skip operation is performed on the remote control.
  • UO user operation
  • the adjustment unit 15 includes a plurality of positions positioned before the change point on the time axis of the video stream.
  • the frame to be used as a reference for the depth change is selected from the frames and the plurality of frames positioned after the change time, and the depth of stereoscopic reproduction is adjusted using the selected frame.
  • This adjustment includes two kinds of processing: determining an appropriate reproduction position and determining an appropriate plane offset.
  • the control unit 16, the start position determining unit 17, and the plane offset determining unit 18 in the figure are for realizing these processes.
  • the control unit 16 receives a playback state switching request from the outside, and changes the playback state in the playback device by executing processing related to the switching request.
  • the playback state management unit 7 manages the playback state after the change. More specifically, the control unit 16 is a microcomputer system including a ROM, a RAM, and a CPU. A program for controlling the playback device is recorded in the ROM, and the program in the ROM is read into the CPU, And the hardware resource cooperate to execute processing related to the switching request.
  • the process related to the switching request is one of AV playback functions.
  • the AV playback function starts playback, stops playback, pauses, cancels pause, cancels the still image function, fast-forwards with the playback speed specified as immediate values, rewinds with the playback speed specified as immediate values, audio switching, sub-video General functions for AV playback such as switching and angle switching.
  • the switching request targeted in the present embodiment is based on a user operation and based on a switching command incorporated in the scenario data. Of the processes defined as the AV playback function, the one requested by these switching requests is started, so that the playback state of the playback device changes.
  • the former switching request will be described.
  • the former switching request includes, for example, dimension switching when the user presses the dimension switching key (1), scene jump when a user skip occurs (2), chapter jump by numerical input (3), angle switching (4) etc.
  • the time when the dimension switching key is pressed is the “time when the switching request is generated”, and the next time after the pressing is requested to start processing related to the switching request.
  • the number indicating the current mode stored in the dimension mode storage unit 10 is changed. If the current mode is 2D, change to 3D. If the current mode is 3D, change to 2D.
  • the output mode is changed by executing the above processing in response to the switching request.
  • the time when the user performs the skip operation is the “time when the switching request occurs”. Then, the skip destination by the skip operation is the “request time point” at which the process is requested to start with the switching request. This is because the skip operation is an operation requesting to start playback at the skip destination.
  • the current chapter number is incremented or decremented, the play item number of the play item referenced by the playlist mark corresponding to the current chapter number after increment or decrement, and the current corresponding to the playlist mark information.
  • the chapter number is set in the current processing frame storage unit 8.
  • time information indicating the request time is written into the PTM register of the current processing frame storage unit 8 to update the current processing frame Fc.
  • the read unit 1 is instructed to perform random access from the updated current processing frame Fc so that reproduction from the updated current processing frame Fc is performed.
  • a scene jump is performed by executing the above processing in response to the switching request.
  • the point in time when the user performs numerical input operation is the point in time when the switching request is generated.
  • the chapter corresponding to the numerically input number is the request point in time when the chapter is requested to start processing by the switching request.
  • the input numerical value is set as the current chapter number, and the play item number that the playlist mark corresponding to the new current chapter number refers to corresponds to the playlist mark information.
  • the current chapter number is set in the current processing frame storage unit 8.
  • the time when the user performs the angle switching operation is the time when the switching request is generated.
  • the head position of the digital stream requested to be switched by the angle switching request is a request time point when the processing is requested by the switching request.
  • the process corresponding to the angle switching request is to increment or decrement the current angle number in accordance with the angle switching operation, and to set the current angle number after increment or decrement among a plurality of stream reference information existing in the play item information.
  • the digital stream is read. This is because the stream reference information corresponding to the current angle number after increment or decrement refers to the digital stream corresponding to the angle number after switching.
  • the angle switching is performed by performing the above processing in response to the switching request.
  • the latter switching command realizes a switching request by the former user operation by a navigation command incorporated in scenario data or a byte code corresponding to an API call.
  • the request point for requesting the start of processing related to the switching request is designated as “switching destination” by the operand of the navigation command that is the switching instruction or the argument of the byte code corresponding to the API call. This is the playback start point.
  • the time point when the processing related to the switching request occurs is the reading time point when the navigation command or the byte code as the switching command is read.
  • the switching request targeted in this embodiment is basically the latter switching command.
  • the prefetch control unit 16a is a component of the control unit 16, and performs “prefetching for depth analysis”.
  • the dialogue control unit 16b is a component of the control unit 16 like the prefetch control unit 16a, and executes interactive processing by instructing the reading unit 1 to perform random access based on scenario data and events. Specifically, in the GUI display by the display device 400, when the confirmation operation is performed on the highlighted button member and an event indicating the confirmation operation occurs, the dialogue control unit 16b displays the button member. The byte code or navigation command that is the method of the corresponding button object is executed.
  • the button member When the button member accepts a scene jump, since the byte code or navigation command serving as a switching command is incorporated in the button member as a method, the current processing frame Fc is specified by executing this switching command. Update multiple parameters.
  • the start position determination unit 17 determines a starting time point at which processing related to these requests should be started.
  • the fixed request time corresponds to, for example, a chapter that is a jump destination in a scene jump, or an angle video that is a switch destination in angle switching.
  • chapters are separated by the intention of the content creator, and the playback start position is fixed at the first frame in each chapter.
  • the case where playback continues seamlessly, such as switching between angles, also belongs to this command.
  • the variable request time includes a stream that is a channel switching destination, a bookmark that is a jump destination in a bookmark jump, and the like.
  • the bookmark jump is ideally reproduced from the frame specified by the user, but since the user does not select the bookmark position in units of frames, an error of several frames can be tolerated.
  • the start position determination unit 17 generates a plurality of frames (frames Fm to Fm + n) after the request time point (switching destination frame Fm) requested to start the processing related to the switching request when the dimension switching request is generated. ),
  • the frame with the smallest difference in depth amount from the switching request generation time point (frame Fk) is selected as the frame Fd serving as a reference for depth adjustment.
  • Depth adjustment is executed by determining the frame Fd as a reference for depth adjustment thus selected as the start point at which the processing related to the switching request is to be started.
  • the start position determination unit 17 compares the depth amounts of the frames before and after the switching destination frame, which is the request time of the switching request, and the frame at the time when the switching request is generated, to thereby become a frame serving as a reference for depth adjustment. It is determined. Selecting the start point frame Fd of the process corresponding to the switch request from the range of n frames starting from the switch destination frame m that is the request point is due to the user's intention to switch from 2D to 3D This is because a slight error from the actual request point is allowed.
  • the number of frames “n” that defines the selection range of frames that should be the reference for depth adjustment is a simple and easy-to-handle number, that is, “5” or “6”. To do.
  • a plurality of frames (frames Fm-p to Fm) positioned before the frame Fm, which is the request time point when the processing related to the scene switching request is requested, and after the frame Fm Of the plurality of frames (frames Fm to Fm + q), the frame having the smallest difference in depth from the frame Fk at the time when the scene switching request is generated is selected as the frame Fd serving as the reference for depth adjustment.
  • Depth adjustment is executed by determining the frame Fd as a reference for depth adjustment thus selected as the start point at which the processing related to the switching request is to be started. The depth adjustment based on the determination of the processing start time is performed when the switching destination frame that is the request time is variable.
  • the request time is allowed to be delayed in the future direction, and is also allowed to be advanced in the past direction. Therefore, when the request time corresponding to the switching request is variable, the p frame located before the request time and the q frame located after the request time are set as a selection range for selecting a frame to be used as a reference for depth adjustment. .
  • the plane offset determination unit 18 determines an offset reference frame Fd having a depth amount serving as an offset reference for plane shift.
  • the selection of the offset reference frame Fd is a scene switching request among a plurality of frames (frames Fm to Fm + n) positioned after the switching destination frame Fm, which is the request time point when the processing related to the scene switching request is requested. This is done by determining the frame with the smallest difference in depth from the point of occurrence (frame Fk). Then, the depth adjustment is performed using the offset reference frame which is the reference for the depth adjustment thus determined.
  • the depth adjustment by the adjustment unit 15 is performed by the plane shift engine 5 corresponding to the depth amount of the offset reference frame Fd when outputting the video of each frame belonging to the period from the frame Fk at the time when the scene switching request is generated to the offset reference frame Fd.
  • the offset to be used is used as a horizontal offset.
  • the depth adjustment by determining the offset reference frame is performed when the request time point requested to start the processing related to the switching request is fixed.
  • the fixed request time is a request time specified by the playlist mark information created by the author.
  • FIG. 6 is a flowchart showing the processing procedure of the adjustment unit.
  • Steps S1 and S2 are flowcharts for 2D playback.
  • the determination step in step S1 is a determination as to whether or not a command for switching from the 2D mode to the 3D mode has occurred. If this determination is No, execution of 2D playback is continued (step S2).
  • step S1 becomes Yes and the switching from the 2D mode to the 3D mode is executed in step S3, and the process proceeds to the determination step sequence of step S4-step S8.
  • Step S4 is a determination of whether or not a scene jump in 3D mode has occurred. If Step S4 is No, plane shift is executed (Step S5), and the plane contents of each layer are combined and output. (Step S6), the process of incrementing the current processing frame Fc (Step S7) is repeated.
  • Step S9 is a determination as to whether or not the switching destination frame that is the request time point requested to start processing by the switching request is variable. If it is variable, the frame at the request time point is variable in step S10. Perform a scene jump in some cases. If not variable, in step S11, a scene jump is executed when the frame at the request time is fixed.
  • the target switching request is a dimension switching command that requests switching from a 2D output video to a 3D output video, and a switch from a 3D output video to another 3D output video. This refers to the requested scene switching command.
  • a switching request When a switching request is generated, first, it is determined whether the output video immediately before the occurrence of the switching request is displaying a two-dimensional output video or a three-dimensional output video. It is determined whether or not the switching request requests switching from the 2D mode to the 3D mode (step S1). Such a determination is made, for example, by referring to the current mode number stored in the dimension mode storage unit 10.
  • the dimensional mode of the output video immediately before the occurrence of the switching request is 2D mode (that is, displaying the 2D output video)
  • whether the output video of the switching destination is displayed in 2D or 3 Determine whether to display in dimension. This determination is made, for example, by referring to the information about the dimension mode of the switching destination video included in the switching instruction, or the parameter for updating the dimension mode included in the switching instruction (the current mode number of the dimension mode storage unit 10). This is done by referring to the update parameter for updating.
  • step S3 If it is determined in step S1 that the switching destination dimension mode is the 3D mode, it is determined that the switching request is a dimension switching request for requesting switching from the two-dimensional output video to the three-dimensional output video, and 2D Switching from the mode to the 3D mode is performed (step S3).
  • step S8 it is determined in step S8 whether or not the switching destination dimension mode is the 3D mode. If the dimension mode before switching is the 2D mode, the depth amount and the depth amount after switching are both “0” (that is, displayed on the display screen), so depth adjustment is not necessary. The loop of step S1 to step S2 is continued without adjusting the amount.
  • step S3 If the current dimension mode is the 3D mode and a dimension switching request is generated, it is determined in step S3 whether or not the switching destination dimension mode is the 2D mode. If the dimension mode before switching is the 3D mode, it is determined in step S8 whether to display the output video after switching in two dimensions or three dimensions in accordance with the switching request. This determination is made, for example, by referring to information related to the dimension mode of the switching destination output video included in the switching instruction, or for parameters for dimension updating included in the switching instruction (stored in the dimension mode storage unit 10). This is done by referring to the parameter for updating the current mode number.
  • the process proceeds to the loop of step S1 to step S2 after performing the switching process corresponding to the 2D switching request without adjusting the depth amount.
  • the dimension mode of the output video at the switching destination is the 3D mode, in S9, it is determined whether or not the frame for displaying the output video at the switching destination may be changed (that is, whether it is variable).
  • step S9 if it is determined that it is variable, if it is a shift of several frames, it is determined that it is an allowed scene switching command to shift the frame for starting 3D display, and the jump when the switching destination frame is variable is determined. Perform (step S10).
  • step S9 If it is not determined in S9 that the variable is variable, it is determined that the command is a scene switching command in which the frame of the video to be reproduced after switching is fixed, and a scene jump is performed when the switching destination frame is fixed (step S11). ).
  • the determination in S8, that is, the determination as to whether or not to start the playback by shifting the frame for displaying the output video of the switching destination, specifically, for example, the content of the switching command is the above-described example of the scene switching command
  • the instruction may be specified by the type of byte code corresponding to the API call or the operation code of the navigation command.
  • FIG. 7 is a flowchart showing a dimension switching processing procedure for requesting switching from the 2D mode to the 3D mode.
  • step S101 the depth amount of frame Fk to frame Fk + n including frame Fk, which is the request time point requested to start processing by the switching request, is stored.
  • step S102 the depth is closest to 0.
  • the frame Fd is searched (step S102).
  • step S103 defines loop repetition conditions.
  • the repetition condition is whether or not the current processing frame Fc ⁇ the frame Fd is satisfied, and in this case, the 2D mode is maintained (step S104), and the current processing frame Fc is reproduced in the 2D mode (step S105).
  • the process of incrementing the frame Fc (step S106) is repeated.
  • step S103 is No and steps S107 to S108 are executed.
  • the current playback mode is set to the 3D mode (step S107), the plane contents of the respective layers are combined and output (step S108).
  • a processing procedure when a dimension switching request is generated will be described in association with components in the playback device. For example, when a dimension switching request for requesting switching from a two-dimensional output video to a three-dimensional output video occurs, the depth amount storage unit 12 continues n frames including the frame Fk of the next switching destination output video. The depth amount of one frame is stored in the depth storage unit 12 (S101). The reproduction position determination unit 13 searches for the frame Fd having the depth closest to 0 (closest to the position of the display screen) from the stored n frames (S102), and performs dimension switching of the frame Fd. Determine as a frame.
  • step S106 the demultiplexer 2 continues the two-dimensional processing until it reaches the frame Fd according to the determination of the dimension determination unit 10 (S105). Processing for displaying in a dimension is started (S107, S108).
  • the dimension determining unit 10 determines that the output video should be displayed in two dimensions until the frame Fd is reached, and determines that the output video should be displayed in three dimensions after reaching the frame Fd. Set as follows.
  • step S103 to step S106 continuing the two-dimensional processing means, for example, displaying in two dimensions using the output video after switching (three-dimensional output video), and more specifically.
  • the 3D display method using 3D output video for right eye and left eye output video with different angles that can be seen as the degree of parallax as 3D output video right eye output video or left eye output video It is sufficient to display using either of these.
  • FIG. 8 (a) is a diagram showing a temporal transition of the depth amount change.
  • the first row in FIG. 8A shows a plurality of frames that constitute the time axis of the video stream.
  • the second row shows a graph with the horizontal axis as the time axis and the vertical axis as the depth amount.
  • FIG. 8 (b) shows the graph in FIG. 8 (a). This figure is drawn on the basis of FIG. 5 (a). The difference from FIG. 5 which is the base is that FIG. 8 (b) plots the time of occurrence of switching to the 3D mode on the time axis. This is the point at which this 3D mode is switched to.
  • FIG. 8B it is assumed that processing for displaying in 3D is started from the next frame Fk, assuming that a request for switching to 3D is generated in frame Fk-1.
  • the depth is “0”, but the frame at the time of switching to the three-dimensional display is Fk, and the depth amount given to the frame Fk is Z ( Fk), the depth changes from 0 to Z (Fk) before and after switching.
  • the depth amount storage unit 12 can store the depth information of six consecutive frames including the next frame. When the switching process occurs in the frame Fk-1, the depth information The amount storage unit 12 stores the depth amount of each frame from the frames Fk to Fk + 5.
  • the second row shows Fk + 3 where the depth amount is minimum in the reading period and Z (Fk + 3) which is the minimum depth amount. Since the depth amount of Fk + 3 is minimized, the timing for starting the switching process to the 3D mode is changed to Fk + 3. Specifically, the 2D mode is set from Fk-6 to Fk + 2, and the 3D mode is set after Fk + 3.
  • FIG. 9 is a flowchart showing the scene jump procedure when the switching destination frame is variable.
  • the depth amount of the frame Fk at the time when the switching request is generated is stored (step S201), and the frame Fm-p that exists before and after the frame Fm that is the requesting time point when the processing is requested by the switching request.
  • the depth amount of Fm + q is stored (step S202), and the difference from the depth amount Z (F) of the frame Fk is calculated for each frame located in the range from the frame Fm-p to Fm + q. (Step S203).
  • the scene jump is performed by setting the frame Fd having the smallest calculated difference as the current processing frame Fc (step S204).
  • the depth amount of the frame Fk at the time of occurrence of the scene switching request is stored in the depth amount storage unit 12 (S201), and then n consecutive frames before and after the scene switching destination frame.
  • the depth amount of the frame is stored in the depth storage unit 12 (S202).
  • the reproduction position determination unit 13 calculates the magnitude (for example, the absolute value of the difference) between the depth amount of the stored n frames and the depth amount Z (Fk) of the frame Fk (S203), and the pre-switching frame
  • the frame Fd having the smallest difference from the depth Z (Fk) is determined as the display switching (that is, scene switching) timing, and is notified to the control unit 7.
  • the control unit 7 moves the processing target frame to Fd, and starts reproduction from the moved frame Fd (S204).
  • FIG. 10 is a diagram showing a change in depth amount at the time of jumping.
  • the first row in FIG. 10 shows a plurality of frames (Fk-6, Fk-5, Fk-4, Fk-3,... Fk + 4, Fk) constituting the time axis of the video stream of the jump source. +5, Fk + 6, Fk + 7), and the graph in the second row shows the temporal transition of the depth amount in each frame in the first row.
  • the third level is a plurality of frames (Fm-6, Fm-5, Fm-4, Fm-3,... Fm, Fm + 4, Fm + constituting the video stream as the jump destination.
  • the fourth graph shows the temporal transition of the depth amount of each frame constituting the time axis of the third video stream.
  • the jump source is the frame Fk
  • the depth amount in this frame Fk is Z (Fk).
  • FIG. 11A shows a change in depth amount before and after the scene jump.
  • the first level of FIG. 11A shows the time axis of the video stream i and the time axis of the video stream j superimposed on each other.
  • FIG. 11A it can be seen that a jump is made from the frame Fk of the video stream i to the frame Fm of the video stream j.
  • the second level shows the graph showing the change in the depth amount of the video stream i in FIG. 10 and the graph showing the change in the depth amount of the video stream j in FIG.
  • the difference between Z (Fk) and Z (Fm) is large, when a scene jump from frame Fk ⁇ Fm occurs, the change in the degree of popping out becomes great, causing eyeball fatigue.
  • FIG. 11B shows a reading period determined for adjusting the depth.
  • Fm-2 is a frame in which the depth amount is minimized during the reading period.
  • Fm-2 (inverted display) that minimizes the depth amount is determined as the adjusted frame.
  • the depth storage unit 12 stores frames Fm-3 to Fm + 3. The depth amount of each frame is stored.
  • FIG. 11C shows a scene jump in which the branch destination is adjusted.
  • the frame Fk of the video stream i and the frame Fm-2 of the video stream j are continuously reproduced by the video stream i and the video stream j.
  • Fm-2 has the smallest amount of parallax during the reading period, the amount of increase in depth can be minimized by using Fm-2 as the branch destination after adjustment.
  • the playback position determination unit 13 determines the jump target frame as Fm-2 and notifies the control unit 7 of the determination. To do.
  • the change in the amount of depth occurring at the bookmark jump is changed from
  • FIG. 11A and FIG. 11C will be used to compare and explain the relationship between time and depth when performing a bookmark jump. It is assumed that the user has registered the frame Fm as a bookmark position in advance. The current dimension mode before the bookmark jump is set to the 3D mode, and the current mode is maintained in the 3D mode even after the bookmark jump.
  • FIG. 11A shows a change in depth when a bookmark jump is performed without performing the processing of the flowchart shown in FIG.
  • the depth amount of the frame Fk before the jump is Z (Fk)
  • the depth amount of the bookmark position Fm changes to Z (Fm)
  • the difference in depth amount before and after switching by bookmark jump Becomes
  • the depth amount storage unit 12 in the depth amount storage unit 12, the depth of three consecutive frames before and after the frame Fm, which is the request time point when the process start is processed by the scene switching request.
  • the amount is stored (that is, when p and q in S202 are 3)
  • the depth amount corresponding to each of the frames Fm-3 to Fm + 3 is stored in the depth amount storage unit 12 in step S202.
  • the switching destination frame is changed to the frame Fm-2.
  • FIG. 12 is a flowchart showing a process procedure of scene jump when the switching destination frame is fixed.
  • the depth amount of the frame Fk which is the generation time point of the process related to the switching request, is stored (step S301), and the frame Fm to frame existing at the request time point when the process related to the switch request is requested and the time point after that.
  • the depth amount of m + n is stored (step S302), and the difference from the depth amount Z (Fk) of the frame Fk is calculated for each of the frames Fm to m + n (step S303), and the smallest depth is obtained.
  • the depth amount Z (Fd) of the frame Fd is set as the target depth amount (step S304).
  • Step S306 is a condition for ending this loop, and determines whether or not the relationship of current processing frame Fc ⁇ frame Fd is established. If step S306 is Yes, steps S307 to S311 are repeated. In this process, the difference
  • is calculated and set in the plane shift engine (step S308), and the plane memory is shifted (step S309). Thereafter, the plane contents of the layers are combined and output (step S310), and the current processing frame Fc is incremented (step S311). The relationship of the current processing frame Fc ⁇ the frame Fd is satisfied until the current processing frame Fc reaches the frame Fd. Until the current processing frame Fc reaches the frame Fd, a plane shift based on the difference
  • Step S306 If Step S306 is No, Steps S312 to S315 are executed.
  • An offset based on the depth amount Z (Fc) is calculated and set in the engine (step S312), and a shift is executed (step S312). Thereafter, the plane contents of each layer are combined and output (step S314), the current processing frame Fc is incremented, and the process returns (step S315).
  • the depth amount of the frame Fk at the time when the switching request is generated is stored in the depth amount storage unit 12 (S301), and then n consecutive frames including the switching destination frame Fm are stored.
  • the depth amount of the frame is stored (S302).
  • the plane offset determination unit 14 calculates a difference (for example, an absolute value of the difference) from the depth amount Z (Fk) of the frame Fk before switching from the depth amounts of n frames stored in the depth amount storage unit 12. The calculation is performed (S303), and Z (Fd) of the frame Fd having the smallest depth is determined as the target depth amount (S304).
  • the control unit 7 moves the reproduction position to the switching destination frame Fm (S305), and the demultiplexer 1 starts three-dimensional processing of the frame frame Fm.
  • the plane offset determination unit 14 calculates a plane offset in which the depth amount of the processing frame is maintained at the target depth amount Z (Fd) until the processing frame reaches the frame Fd from the frame Fm (S307), and the plane shift engine The plane offset of 4 is updated (S308).
  • the plane shift engine 4 checks whether the video plane currently being processed is for the right eye or the left eye using information stored in the left and right processing storage unit 11, and shifts the plane in a predetermined direction (S309). When the plane being processed reaches Fd, the plane offset determination unit 14 calculates and updates the plane offset based on the depth amount of the target frame as the plane offset of the plane shift engine.
  • FIG. 13 shows the depth adjustment by the specified amount control.
  • the first level in FIG. 13A shows a scene jump from video stream i to video stream j.
  • the branch source is the frame Fk and the branch destination is Fm
  • the frames are reproduced in the order of the frame Fk ⁇ Fm.
  • the second level shows the change in the depth amount and the change in the depth amount of the video stream j. Since Z (Fk) is small while Z (Fm) is large, it can be seen that the change in the pop-out degree is abrupt.
  • FIG. 13B shows a reading period when the branch destination is Fm.
  • frames Fm to Fm + 6 are read.
  • Fm + 5 described by inversion indicates a frame having the minimum depth.
  • the second row in FIG. 13B shows the depth amount of each frame in the reading period. Since the depth amount of Fm + 5 is the smallest in the second stage, Fm + 5 is set as the target value for offset control.
  • the chapter jump destination frame represents the depth of a continuous frame starting from the frame Fm
  • the current frame Fk is stored in the depth amount storage unit 12.
  • the depth amount (that is, the frame before switching) is stored.
  • the depth amount storage unit 12 stores frames Fm to Fm + 6. The depth amount of each frame is stored.
  • the frame with the smallest difference (for example, the absolute value of the difference) is Fm + 5
  • the plane offset determination unit 14 determines Z (Fm + 5), which is the depth amount of the frame Fm + 5, as the target depth amount.
  • FIG. 13C shows depth adjustment by plane shift control.
  • the second graph is a graph showing the contents of the plane shift control.
  • a broken line indicates a ZR change when there is no plane shift control.
  • the change in depth in this graph is the same as in FIG.
  • the solid line in FIG. 13C shows the selective change in depth when plane shift control is performed.
  • the plane shift control is performed so that the depth amount of Fm to Fm + 5 of the video stream j maintains Z (Fd). Therefore, there is no sudden change in the pop-out degree.
  • the control unit 7 moves the playback position to the frame Fm and starts playback.
  • the plane shift engine of the target frame shifts the video plane by the set offset so that the depth amount becomes equal to the target depth amount Z (Fm + 5).
  • the depth of the output frame is maintained at Z (Fm + 5) until reaching the frame Fm + 5, and the depth generated at the time of chapter jumping.
  • the amount change can be suppressed from
  • FIG. 14 is a diagram showing an example of processing using an offset.
  • the video plane for the right eye and the video plane for the left eye are each shifted by one pixel in the direction of the arrow shown in FIG.
  • the offset is a negative value, it is shifted in the direction opposite to the arrow shown in FIG.
  • the offset is a positive value, an image is displayed deeper than before the shift, and when the offset is negative, an effect of popping out before the shift occurs.
  • the shift method of the positive value x of the video plane for the left eye is performed as shown in FIG. 1. From the leftmost part of the video plane, cut out the area of the plane height for the video plane offset x one eye. 2. Shift the video plane to the left horizontally by the video plane offset value. 3. Add a transparent area of the plane height of the video plane offset x one eye to the rightmost area of the video plane.
  • FIG. 16 is a diagram illustrating an internal configuration of a playback apparatus according to the second embodiment. This figure is drawn based on FIG. 5. Compared to this figure, the video plane 4 is replaced with the left-eye video planes 4a and 4b, and the subtitle decoder 21, subtitle plane 22, rendering engine. 23, the dialog plane 24 is added.
  • the left-eye video plane 4a stores pixel data constituting the right-eye video obtained by decoding by the video decoder.
  • the left-eye video plane 4b stores pixel data constituting the left-eye video obtained by decoding by the video decoder.
  • the subtitle decoder 21 decodes the subtitle graphics stream separated from the demultiplexer 2 and the text subtitle stream directly read from the reading unit 1 without going through the demultiplexer 2 and writes the uncompressed graphics to the subtitle plane 22.
  • the subtitle plane 22 stores pixel data for one screen constituting subtitle graphics obtained by decoding of the subtitle decoder 21.
  • the rendering engine 23 decodes JPEG / PNG / ZIFF format image data recorded on the recording medium, and writes a drawing image in the dialogue plane 24 in accordance with an instruction from the control unit 16.
  • the dialogue plane 24 is a memory for storing pixel data for one screen constituting a drawing image.
  • a drawing image is an ARGB bitmap.
  • the plane shift engine 5 that has been improved peculiar to the second embodiment performs plane shift on the caption plane 22 and the conversation plane 24. With this plane shift, stereoscopic viewing can be realized even if the caption plane 22 and the conversation plane 24 each have a single plane configuration. For this plane shift, the depth amount stored in the depth storage unit 12 is used.
  • the adder 6 with the improvement specific to the second embodiment has the interaction plane 24, the subtitle plane 22, and the left-eye video plane 4a to the left-eye video plane 4b arranged next to each other.
  • the pixel data stored in the caption plane 22, video plane 4a-left eye video plane 4b are added. Thereby, layer composition of the plane memory is performed.
  • the control unit 16 that has been improved peculiar to the second embodiment selects a frame in which the depth amount of the dialogue plane 24 and the caption plane 22 is minimized, and performs depth adjustment on the basis of this frame.
  • the depth amount used for the plane shift of the subtitle plane 22 and the conversation plane 24 is the depth amount read to the depth storage unit 12, so that this depth amount is reduced.
  • the content subject to depth control is a movie work composed of a digital stream and playlist information.
  • the content targeted is a game application composed of a polygon model or a polyhedron model. It may be.
  • the depth amount may be adjusted by regarding the state change of the character defined by the polygon model or polyhedron model or the stage change of the game as the state change of the playback device.
  • the content subject to depth adjustment has been described on the assumption that the content recorded in the read-only media is played back and viewed.
  • the content subject to depth adjustment is, for example, broadcast It may be provided via wireless such as waves, wired such as cables, or other recording media (for example, magnetic recording media such as hard disks, or semiconductor memories such as flash memories and SD cards).
  • the recording medium on the network can be regarded as a “network drive”.
  • the “network drive” can be accessed when the client program and the server program execute the file transfer protocol through the protocol stack.
  • the digital stream and scenario data described in the first embodiment can be read from the recording medium and supplied to the decoder.
  • a broadcast station on the wireless or wired broadcast medium uses an archive program to store the directory / file structure existing on the file system of the recording medium.
  • Archive the archive file obtained by the archive program and send it repeatedly using the object carousel method.
  • the playback device receives the archive file and expands the directory / file structure stored in the archive file into a cache in the device, so that it is understood as the directory / file structure in the recording medium of the device itself.
  • the playback device can read out the digital stream and scenario data described in the first embodiment and supply them to the decoder by expanding the directory / file structure stored in the archive file into a cache in the device. it can.
  • Steposcopic viewing variation Although the description has been made on the premise that the stereoscopic viewing is performed using the shutter glasses 500, other methods for viewing the left-eye video and the right-eye video respectively for the left eye and the right eye may be used. For example, a side-by-side method or a method that uses a lenticular lens or the like as a display and does not use a special viewing device such as glasses may be used.
  • the configuration diagram of FIG. 5 includes one video decoder and one video plane.
  • a video data processor that processes left-eye video for high-speed applications a video data processor that processes video plane and right-eye video, Video planes may be provided for processing in parallel.
  • switching start frame In the scene jump when the switching destination is variable, an example of a configuration in which the switching start frame is selected from the depth amount of n consecutive frames before and after the requested scene frame of the scene as the output video frame at the requested time As described above, the switching start frame may be selected from the depth amount of the scene switching destination frame and m consecutive frames subsequent thereto.
  • the plane offset is determined so as to maintain the target depth Z (Fd) until the frame Fd has the target depth Z (Fd).
  • the offset may be adjusted so as to approach the target depth amount Z (Fd).
  • the two-dimensional processing is continued until the selected frame Fd is reached.
  • the depth of the frame Fd is reached using the plane offset determination unit.
  • the video plane may be shifted so that the depth amount changes step by step.
  • the plane shift engine 5 sets the depth amount Z (Fc) of the current processing frame Fc before switching to the 3D playback mode as an initial value, and sets the depth amount Z (Fd) of the offset reference frame Fd as a target value.
  • the offset to be applied to the plane shift of the plane shift engine 5 is changed stepwise.
  • the number of frames between the offset reference frame Fd and the current processing frame Fc is obtained, and the depth amount difference
  • is divided by this number of frames.
  • the amount of offset change per frame is obtained.
  • the offset is changed by giving each frame located between the offset reference frame Fd and the current processing frame Fc an offset increment based on the offset change amount per frame. In this way, a monotonous change in the depth amount can be realized.
  • a frame that minimizes a change in depth amount generated at the time of switching is selected from a plurality of frames including the switching destination frame, and the selected frame is reached.
  • a method of preferentially selecting may be used.
  • the depth amount of each plane may be acquired from the scenario data read into the scenario memory.
  • the scenario data includes playlist information.
  • Each of the plurality of play item information constituting the playlist information includes a basic stream selection table, and the playlist information itself includes an extended stream selection table.
  • the basic stream selection table indicates a list of elementary streams that are associated with the stream numbers and that are reproduced in the planar view reproduction mode.
  • the extended stream selection table indicates a list of elementary streams to be played back in 3D mode, which are associated with the same stream number as the stream number.
  • control information is associated with a stream number.
  • the 3D mode includes a main-sub mode in which stereoscopic video playback is performed using a left-eye image and a right-eye image, and a main-main mode in which planar video playback is performed using only a left-eye image.
  • the control information in the extension stream selection table has an offset to be used for plane shifting of the graphics plane when graphics is a pop-up menu and the 3D mode is the main-main playback mode.
  • the offset in the extended stream selection table represents the parallax between the left eye image and the right eye image and changes for each play item information
  • the offset is stored in the depth amount storage unit 12 as a depth amount, and this depth is stored. You may perform depth adjustment so that quantity may not become large.
  • the depth amount of each plane may be included in the transport stream, or the depth amount may be calculated and acquired from the input stereoscopic image.
  • the playback device is configured to include a receiving means such as a tuner for receiving broadcast waves, for example, when receiving data corresponding to what is recorded on a read-only medium, when switching channels, etc.
  • a receiving means such as a tuner for receiving broadcast waves, for example, when receiving data corresponding to what is recorded on a read-only medium, when switching channels, etc.
  • the present embodiment can be applied.
  • the mechanical part such as the drive part of the recording medium and the external connector is excluded, that is, the part corresponding to the logic circuit or the storage element, that is,
  • the core part of the logic circuit may be made into a system LSI.
  • the system LSI is a package in which a bare chip is mounted on a high-density substrate and packaged. By mounting multiple bare chips on a high-density substrate and packaging them, it is called a multichip module that has multiple bare chips with an external structure like a single LSI. Is also included in the system LSI.
  • system LSIs are classified into QFP (Quad-Flood Array) and PGA (Pin-Grid Array).
  • QFP is a system LSI with pins attached to the four sides of the package.
  • the PGA is a system LSI with many pins attached to the entire bottom surface.
  • pins serve as power supply, ground, and interface with other circuits. Since pins in the system LSI have such an interface role, by connecting other circuits to these pins in the system LSI, the system LSI plays a role as the core of the playback device.
  • FIG. 17 is a diagram showing the architecture of an integrated circuit.
  • the architecture of the integrated circuit 70 which is a system LSI includes a front end unit 71, a signal processing unit 72, a back end unit 73, a media I / O 74, a memory controller 75, and a host microcomputer 76. And is connected to a drive, a memory, and a transmission / reception unit in the playback apparatus through a media I / O 74 and a memory controller 75.
  • Examples of the drive in the playback apparatus include a read-only media drive, a local storage drive, and a removable media drive.
  • the front-end processing unit 71 includes a preprogrammed DMA master circuit, an I / O processor, and the like, and executes all packet processing. This packet processing corresponds to processing by a demultiplexer.
  • the packet processing as described above is realized by realizing DMA transfer between the read buffer, various plane memories, and various buffers secured in the memory of the playback device.
  • the signal processing unit 72 is composed of a signal processor, a SIMD processor, and the like, and executes signal processing in general. Signal processing includes decoding by a video decoder and decoding by an audio decoder.
  • the back end unit 73 is composed of an adder and a filter, and performs AV output processing in general.
  • the AV output processing includes pixel processing, and image superimposition, resizing, and image format conversion for layer synthesis are performed by the pixel processing. Also, digital / analog conversion and the like are executed together.
  • Media I / O 74 is an interface with a drive and a network.
  • the memory controller 75 is a slave circuit for memory access, and realizes reading / writing of memory of packets and picture data in response to requests from the front end unit, signal processing unit, and back end unit. ⁇ ⁇ ⁇ ⁇ By reading and writing the memory through the memory controller 75, the memory functions as various buffers in a read buffer, a video plane, a graphics plane, and a video decoder.
  • the host microcomputer 76 is a component corresponding to the adjustment unit 15 in FIG. 5 and includes an MPU, a ROM, and a RAM, and performs overall control over the media interface, front end unit, signal processing unit, and back end unit. To do.
  • This overall control includes control as a control unit 16, a start position determination unit 17, and a plane shift amount determination unit 18 that constitute an adjustment unit.
  • the CPU in the host microcomputer has an instruction fetch unit, a decoder, an execution unit, a register file, and a program counter.
  • the program that executes the various processes described in the embodiments so far is stored as a built-in program in the ROM in the host microcomputer together with the basic input / output system (BIOS) and various middleware (operation system). Has been. Therefore, the main functions of the playback device can be incorporated in this system LSI.
  • the program shown in each embodiment can be created as follows. First, a software developer uses a programming language to write a source program that implements each flowchart and functional components. In this description, the software developer describes a source program that embodies each flowchart or functional component by using a class structure, a variable, an array variable, or an external function call according to the syntax of the programming language.
  • the described source program is given to the compiler as a file.
  • the compiler translates these source programs to generate an object program.
  • Translator translation consists of processes such as syntax analysis, optimization, resource allocation, and code generation.
  • syntax analysis lexical analysis, syntax analysis, and semantic analysis of the source program are performed, and the source program is converted into an intermediate program.
  • optimization operations such as basic block formation, control flow analysis, and data flow analysis are performed on the intermediate program.
  • resource allocation in order to adapt to the instruction set of the target processor, a variable in the intermediate program is allocated to a register or memory of the processor of the target processor.
  • code generation each intermediate instruction in the intermediate program is converted into a program code to obtain an object program.
  • the object program generated here is composed of one or more program codes that cause a computer to execute the steps of the flowcharts shown in the embodiments and the individual procedures of the functional components.
  • program codes such as a processor native code and JAVA (TM) byte code.
  • TM JAVA
  • modes for realizing each step by the program code When each step can be realized by using an external function, a call statement that calls the external function becomes a program code.
  • a program code that realizes one step may belong to different object programs.
  • each step of the flowchart may be realized by combining arithmetic operation instructions, logical operation instructions, branch instructions, and the like.
  • the programmer activates the linker for these.
  • the linker allocates these object programs and related library programs to a memory space, and combines them into one to generate a load module.
  • the load module generated in this manner is premised on reading by a computer, and causes the computer to execute the processing procedures and the functional component processing procedures shown in each flowchart.
  • Such a computer program may be recorded on a non-transitory computer-readable recording medium and provided to the user.
  • the present invention relates to a technology for suppressing an abrupt depth change of an output video in a playback device that plays back a stereoscopic video and a stereoscopic video, and in particular, a switching function between a planar video dimension mode and a stereoscopic video dimension mode,
  • the present invention can be applied to a stereoscopic playback device that suppresses a sudden change in the depth of an output video that occurs during switching in a stereoscopic video playback device having a scene switching function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 立体映像のシーン切替や、2次元映像から3次元映像への次元切替などで発生する急激な奥行き量の変化を抑制し、視聴者の目にかかる負担を低減する。再生装置は、立体映像の複数フレーム分の奥行き量を保持することが可能な奥行き量記憶部と、ビデオプレーンとを備え、前記奥行き量記憶部は、2次元映像から3次元映像への切替要求または、3次元映像から3次元映像へのシーン切替要求が発生した場合には、切替前フレームの奥行き量と、少なくとも切替先フレームを含む複数フレームの奥行き量を保持し、切替要求の種類に応じて、切替タイミングの制御または切替先フレームの奥行き量調節を施すことで、急激な奥行き量の変化を抑えた、自然な切替を実現する。

Description

立体視映像の再生装置、集積回路、プログラム
 本発明は、両眼視差に基づく立体視映像の再生技術の分野に属する。
 上記立体視映像にはさまざまな方式があるが、近年、最も普及しているものは、両眼視差を有する左目映像と右目映像を有し、それぞれを視聴者の左目及び右目に映すことで、擬似的に立体感を作る方式、つまり、両眼視差を用いた立体視方式である。
 両眼視差を用いた立体映像では、視聴者は左右の画像の視差の程度の見え方の違いを奥行き感の要因として捉える。この際、左右の画像を立体的に捕らえるために、視聴者は眼の焦点位置の調整を行なう。
 2次元表示しているときの左の眼球(瞳)の向いている方向と、視差を利用した3次元表示をしたときの左の眼球(瞳)の向いている方向との間の角度を“視差角”と称する。この視差角が急激に変化する程、眼球の向きを急激に変える必要が生じるため、眼の疲れが生じやすくなる。一般的には、左の眼球の向きを用いて視差角を定義されるが、右の眼球の向きの違いを用いて視差角を定義することもある。視差角の変化の程度が大きくなると、これに応じて切り替時に眼球を動かす程度も大きくなり、眼球を短時間に大きく動かすことが必要となり、眼を疲労する原因となる。
 3次元映像の視聴時における、目の疲労感を低減させる技術として、下記の特許文献に記載された文献公知発明がある。
 特許文献1に記載された再生装置は、左右眼用の信号の入力時において直ちに3D再生を行うのではなく、一定期間の経過を待ち、この一定期間の経過後に、3D再生を行う。2Dから3Dへの切り替え時において、視差量を段階的に変化させることで眼の疲労感を低減する。この段階的な変化には、単調増加、凹状変化、凸状変化がある(図4、特許文献1の段落0015)。視差の段階的変化において、目標ちとなる視差量は、視差量計算手段12が計算し、視差量決定手段14が決定したものを採用する(特許文献1の段落0008)。
  
特開平11-164328号公報
 3次元映像をテレビと、再生装置とを用いて家庭内で視聴する場合、劇場で3D映画を視聴するのとは異なり、ユーザは自由に、再生装置における2次元映像の出力モード(2Dモード)から、3次元映像の出力モード(3Dモード)への切り替えを行ったり、ブックマークジャンプ、チャプタージャンプをすることができる。映画を構成するビデオストリームの単位において、立体視画像の飛出し度合が多大にならないことは、映画作品の作り手によって保証されている。しかし、2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプを行う場合、立体視画像の飛出し度合が適性かどうかは、映画作品の作り手によっては保証されないから、2D再生装置を操作するのと同じ感覚で、3D再生装置に2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプを命じるとなると、立体視画像の飛出し量の変化が予期せぬものとなり、視差角の変化が多大になってユーザが目の疲労感を訴えるケースが多発する。
 再生装置の使用上の注意として、2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプを頻繁に行わないよう、注意を喚起することも考えられるが、これでは、見たいシーンを気軽にアクセスできるというランダムアクセス機能の強みが損なわれることになり、再生装置の家電商品としての魅力が大きく損なわれることになる。
 特許文献1では、2Dモードから3Dモードへの切り替えにおける視差量の変化や、シーンジャンプにおける視差量の変化を対象にしているから、特許文献1の技術を応用して、2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプにおける視差量変化を穏やかにすることも考えられる。ここで特許文献1における段階的な視差量な変化は、複数のフレームをかけて、“0”の視差量から徐々に目標視差量に近づけるものだから、目標視差量が固定されていることが前提となる。
 特許文献1の視差量計算手段12は、入力信号における視差量を監視して、その最新の視差量を採用することができるが(段落0024)、映像信号の再生進行に応じて、目標視差が変化す場合は、時間をかけて視差量を段階的に増加させたとしても、再生進行に伴い視差量が動的に変化することにより、再生対象となるフレームにおける視差量が、その目標視差量と大きく異なる場合がある。この場合、目標フレームの視差量から、再生対象となるフレームの視差量に切り替えるにあたって視差量の変化量が大きくなることも有り得るので、目に対する疲労感が必ず低減するという保証はない。そればかりか、視差量がより大きくなることも有り得る。
 視差量を段階的に調整するにあたって、再生動作をポーズし、そのポーズ時点のフレームの視差量を目標視差量として視差量を段階的に変化させることも考えられるが、ポーズしている間は再生処理を進めることはできないから、視差量を段階的に変化させている間は、入力信号におけるフレームをバッファリングせねばならない。しかしそのバッファリングの期間が長くなると、バッファオーバーフローが生じることにより、フレームの欠落が発生してしまう。このような欠落があると、欠落前後のフレームの視差量が適切であることの保証がないから、やはり視差量の変化が多大になるというジレンマに陥る。
 本発明の目的は、ユーザが主体となって任意に再生位置や再生モードを切り替える場合であっても、目の負担を軽減することができる再生装置を提供することである。
 上記課題を解決することができる再生装置は、
立体視可能な3次元映像を出力する再生装置であって、
 装置外部からビデオストリームを取得する取得手段と、
 取得したビデオストリームをデコードして、3次元映像の出力を行う再生手段と、
 再生手段における再生状態を管理する状態管理手段と、
 再生状態が変化した場合、ビデオストリームの時間軸のうち変化時点の前に位置する複数のフレーム、及び、変化時点の後に位置する複数のフレームの中から奥行き変化の基準とすべきものを選び、その選んだフレームを用いて、3次元映像における奥行きを調整する調整手段と
 を備えることを特徴としている。
 2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプといった事象は、再生装置において、「再生状態の変化」として捉えることができるので、再生状態の変化時点以降に存在する複数のフレームから、奥行き調整の基準となるフレームを選ぶことで、たとえ、ユーザが2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプを行い、再生状態をめまぐるしく変化させたとしても、再生状態の個々の変化時点における奥行き量の変化は、ある一定の範囲内に制限されることになり、目の疲労感を与えることはない。2D再生装置を操作するのと同じ感覚で、3D再生装置を操作することができる。2Dモードから3Dモードへの切り替えを頻繁にしたり、ブックマークジャンプ、チャプタージャンプを頻繁にしたとしても、眼球疲労が多大になることはない。
 2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプがユーザによってなされたとしても、飛出し量が適性であることが再生装置側から保証されるので、映画作品の作り手は、2Dモードから3Dモードへの切替え、3Dモードにおけるブックマークジャンプ、3Dモードにおけるチャプタージャンプの利点を取り込んだ3Dコンテンツを制作して普及させることにより、コンテンツ産業の更なる発展を図ることができる。
パッケージ媒体である記録媒体、プレーヤ機器である再生装置、表示装置、眼鏡によって構成されるホームシアターシステムを示す。 シャッター眼鏡500を通じて見ることができる立体視画像の飛出し度合を示す。 立体視画像の飛出し度合の時間的遷移を示す。 立体視画像の飛出し度合と、右目映像ー左目映像間の視差量との時間的遷移を示す。 再生装置の内部構成を示す図である。 調整部の処理手順を示すフローチャートである。 2D→3D切替命令の処理手順を示すフローチャートである。 2Dモードから3Dモードへの切替時における、奥行き調整を示す。 切替先フレーム可変時のシーンジャンプ手順を示すフローチャートである。 ジャンプ時における奥行き量変化を示す図である。 切替先が可変であるシーンジャンプを実行する際の奥行き調整を示す。 切替先フレーム固定時のシーンジャンプの処理手順を示すフローチャートである。 切替先が固定されているシーンジャンプを実行する際の奥行き調整を示す。 オフセットを利用したプレーンシフト処理の一例を示した図である。 左目用ビデオプレーンの正の値xのシフト方法を示す図である。 第2実施形態に係る再生装置の内部構成を示す図である。 集積回路のアーキテクチャを示す図である。
 以下、図面を参照しながら、本願に包含される再生装置の発明、集積回路の発明、再生方法の発明の実施形態について説明する。
 上記課題解決手段を具備した再生装置の発明は、パッケージ媒体を再生するためのプレーヤ機器として実施することができ、集積回路の発明は、当該プレーヤ機器に組込まれるシステムLSIとして実施することができる。再生方法の発明は、このプレーヤ機器で実現される時系列手順として実施することができる。
 図1は、パッケージ媒体である記録媒体、プレーヤ機器である再生装置、表示装置、眼鏡によって構成されるホームシアターシステムを示す。同図に示すように、上記パッケージ媒体である記録媒体、プレーヤ機器である再生装置は、表示装置、眼鏡、リモコンと共にホームシアターシステムを構成し、ユーザによる使用に供される。
 リードオンリーメディア100は、上記ホームシアターシステムに、例えば、映画作品を供給する光ディスクである。
 再生装置200は、表示装置400と接続され、記録媒体100を再生する。かかる再生は、左眼用映像(左目映像)の映像出力と、右眼用映像(右目映像)の映像出力を交互に繰り返すことでなされる。こうして再生される再生映像には、2D映像、3次元映像が存在する。2D映像とは、例えば表示装置の表示画面を含む平面をX-Y平面として捉えて、このX-Y平面上に位置する表示画面の表示位置における画素にて表現される画像であり、平面視画像とも呼ばれる。この2D映像を再生するための再生装置の再生モードを“2Dモード”又は“平面視再生モード”と呼ぶ。
 対照的に3次元映像とは、上述のX-Y平面として捉えた平面と直交する直線をZ軸として、Z軸方向の奥行きを加えた画像である。この3次元映像を再生するための再生装置の再生モードを“3Dモード”又は“立体視再生モード”と呼ぶ。
 リモコン300は、階層化されたGUIに対する操作をユーザから受け付ける機器であり、かかる操作受け付けのため、リモコン300は、GUIを構成するメニューを呼び出すメニューキー、メニューを構成するGUI部品のフォーカスを移動させる矢印キー、メニューを構成するGUI部品に対して確定操作を行う決定キー、階層化されたメニューをより上位のものにもどってゆくための戻りキー、数値キーを備える。
 表示装置400は、再生装置200からの映像出力を受け取って、左目映像と右目映像とを同じタイミングでそのまま交互に出力する。タイミングの同一化は、映像出力と表示切り替えのフレームレートを同一とすることで実現される。視聴者の眼の負担を軽減するため、表示切り替え側のフレームレートのみを逓倍する構成をとることもできる。この場合は、左目映像および続いて出力された右目映像のセットを表示ディスプレイ400が蓄積し、表示ディスプレイ側でこれらの画像を高速に切り替えることで、高フレームレートの表示を行うこととなる。表示装置400において画面において、男女の姿が二重に重なっているのは、シャッター眼鏡500を装着せずに表示装置400の画面を見ると、3Dモードで右目映像、左目映像が重なり合って見えるからである。
 シャッター眼鏡500は、印加電圧を制御することにより光の透過率を変えることが可能な液晶シャッターを備える。この光の透過率を変えることで(1)左目に入る光を透過するとともに、右目へ入る光を遮断する機能、または(2)左目に入る光を遮断するとともに、右目へ入る光を透過することが機能を実現する。これにより、左目映像を右目に見せることなく左目に見せ、右目映像を左目に見せることなく右目に見せるといったことが可能となる。立体視映像表示する場合、シャッター眼鏡500は、視聴者の左目に見せる画像(左目映像)と、利用者の右目に見せる右目用の画像(右目映像)を交互に切り替えて表示するように構成される。この切り替えのタイミングと同期させて、視聴者がかけるシャッター眼鏡において、左目映像を表示している間は、左目に入る光を透過させて右目に入る光を遮断させ、右目映像を表示している間は、右目に入る光を透過させて左目に入る光を遮断させることにより、ディスプレイで表示される左目映像はシャッター眼鏡により左目にだけ見え、逆に右目映像は右目にだけ見える仕組みを実現できる。
 このような構成において、左目用の映像と右目用の映像について、視差の程度見え方の異なる映像とすることにより、視聴者は見え方の違いが奥行きを持ったように錯覚し、ディスプレイに表示されている映像が、あたかもディスプレイから飛び出て立体的な映像が表示されているかのように感じる。
 ケーブル600は、非圧縮のビデオストリーム、非圧縮のオーディオストリームを高転送レートで転送するためのケーブルであり、HDMIケーブル等が該当する。
 以上が、ホームシアターシステムについての説明である。続いて、立体視画像の詳細について説明する。
 図2(a)~(c)は、シャッター眼鏡500を通じて見ることができる立体視画像の飛出し度合を示す。図2(a)は、視差が大きい場合に映ずる立体視画像を示し、図2(b)は、視差が小さい場合に映じる立体視画像を示す。
 図2(a)は、図の下側をユーザ側にしていて、上側を表示装置400側にしている状態を示す。立体視画像は、表示装置400と、シャッター眼鏡500との途中に存在する。図2(a)(b)では、立体視画像が表示装置400にどれだけ近づいているかが異なる。視差量が小さい図2(a)では、立体視画像は、表示装置400の近くに配置され、シャッター眼鏡500から遠のくことになる。左目画像、右目画像の視差量が大きい図2(b)では、立体視画像は表示装置400から遠退き、シャッター眼鏡500に近づいている。これら図2(a)(b)からも理解できるように、視差量の大小を制御することで、立体視画像をシャッター眼鏡500から遠ざけたり、近づけたりするという立体視画像の奥行き制御が可能になる。
 図3は、立体視画像の飛出し度合の時間的遷移を示す。横軸は、ビデオストリームの時間軸を示し、縦軸は、表示装置400と、シャッター眼鏡500との間の空間を示す。横軸において、ビデオストリームの時間軸は、複数のフレームで構成される。飛出し度合は、フレーム毎に異なる値になっている。フレームFk-4,Fk-3では飛出し度合が小さく、フレームFkでは、飛出し度合が大きくなっている。
 図4は、立体視画像の飛出し度合と、右目映像ー左目映像間の視差量との時間的遷移を示す。
 Y軸をビデオストリームの時間軸としており、X軸を立体視画像の飛出し度合、Z軸を視差量としている。そうすると、視差量が大きいフレームでは、飛出し度合が大きいことがわかる。例えばフレームFk-4,Fk-3では視差量が大きいため飛出し度合が大きく、フレームFk+2,Fk+4では視差量が小さいため飛出し度合が小さい。この図4からも理解できるように、フレーム毎の視差量の違いは、立体視画像における飛出し度合に大きく影響を与える。飛出し度合の制御のための視差量の大きさのことを「奥行き量」という。
 以上が立体視画像についての説明である。続いて、再生装置200の内部構成について説明する。
 図5は、再生装置の内部構成を示す図である。本図に示すように、再生装置は、読出部1、デマルチプレクサ2、ビデオデコーダ3、ビデオプレーン4、プレーンシフトエンジン5、加算器6、再生状態管理部7、カレント処理フレーム記憶部8、左右処理記憶部9、次元モード記憶部10、次元判定部11、奥行き記憶部12、シナリオメモリ13、UO検知モジュール14、調整部15、制御部16、開始位置決定部17、プレーンオフセット決定部18から構成される。
 読出部1は、立体視映像を構成するコンテンツが記録された記録媒体を装填して、当該記録媒体に対する読み出し/書き込みを実行する。当該記録媒体には、リードオンリーメディア100を始め、リライタブルなリムーバブルメディア、リライタブルなビルドインメディアといった種別がある。また再生装置はランダムアクセス部を具備している。ランダムアクセス部は、ビデオストリームの時間軸における任意の時点からのランダムアクセスを実行する。ここでビデオストリームには、通常のビデオストリームと、マルチビュービデオストリームとがある。マルチビュービデオストリームとは、ベースビュービデオストリーム、ディペンデントビュービデオストリームから構成される、立体視用途のビデオストリームである。そしてランダムアクセス部は、具体的には、ビデオストリームの時間軸における任意の時点からの再生が命じられた場合、シナリオデータの1つであるエントリーマップを用いて、その任意の時点に対応するアクセスユニットのソースパケット番号をサーチする。かかるアクセスユニットは、独立復号可能なピクチャデータ、又は、ビューコンポーネントの組みを含むものである。ビューコンポーネントとは、立体視映像を構成する構成要素のことであり、一枚の右目映像、一枚の左目映像のそれぞれがビューコンポーネントに該当する。上記サーチによって、当該アクセスユニットについてのアクセスユニットデリミターを格納したソースパケットのソースパケット番号が特定される。かかるソースパケット番号からの読み出し、及び、デコードを実行する。シーンジャンプにあたって、分岐先を示す時間情報を用いて上記サーチを実行することにより、ランダムアクセスを実行する
 デマルチプレクサ2は、入力ストリームに対して多重分離を行い、複数種別のパケッタイズドエレメンタリストリームを出力する。このように出力されるエレメンタリストリームには、ビデオストリーム、字幕用のグラフィクスストリーム、対話用のグラフィクスストリーム、オーディオストリームがあり、これらのうちビデオストリームをデマルチプレクサ2に出力する。字幕用のグラフィクスストリーム、対話用のグラフィクスストリームについては、これらに対応する専用のグラフィクスデコーダ(図示せず)に送り込み、オーディオストリームについては、オーディオデコーダ(図示せず)に送り込む。
 ビデオデコーダ3は、デマルチプレクサ2の多重分離により抽出されたビデオストリームを構成するアクセスユニットをデコードして、非圧縮のピクチャデータをビデオプレーン4に書き込む。マルチビュービデオストリームのデコードにあたって、ディペンデントビュービデオストリームにおけるシーケンス先頭のアクセスユニットから補助拡張データを取り出して、この補助拡張データ内に存在する、個々のビデオフレーム毎の奥行き量を制御部16に書き込む。
 ビデオプレーン4は、ビデオデコーダ3のデコードにより得られた非圧縮のピクチャデータを構成する、一画面分の画素データを格納することができるメモリである。ビデオプレーン4の構成には、2プレーン構成、1プレーン構成があり、2プレーン構成においてビデオプレーン4は左目ビデオプレーン及び左目ビデオプレーンの組みから構成される。2プレーン構成を構成する左目ビデオプレーン、左目ビデオプレーンのそれぞれには、マルチビュービデオストリームをデコードすることによりえられる左目映像、右目映像が格納される。1プレーン構成である場合、ビデオプレーン4には、通常のビデオストリームをデコードすることにより得られた非圧縮のピクチャデータを構成する画素データが、格納されることになる。
 プレーンシフトエンジン5は、ビデオプレーン4が1プレーン構成である場合、プレーンシフトを実現する。左右処理対象記憶部11に現在の処理対象であるカレント処理フレームFcが左目映像か右目映像かを判定した後、プレーンオフセット決定部14で決定されたプレーンオフセットを用いてビデオプレーンに格納されるピクチャに基づき表示される出力映像を表示画面の水平方向(横軸)に対して基準位置からどの程度シフトするかというオフセットが、後述するプレーンオフセット決定部18によって決定される。こうして決めたオフセットだけシフトを行うよう、プレーンシフトエンジン5はビデオプレーンに格納された各画素データのシフト処理を行う。図示はしていないが、ビデオプレーン4の他に、非圧縮の字幕グラフィクスを格納するためのグラフィクスプレーン、対話的なグラフィクスを格納するためのグラフィクスプレーンが存在しており、ビデオプレーン4はこれらのグラフィクスプレーンに格納されている各画素データに対してもプレーンシフトを実行する。
 加算器6は、ビデオプレーン4、字幕用のグラフィクスプレーン、対話用のグラフィクスプレーンに格納されている個々の画素データに所定の透過率を乗じて加算する。これは、ビデオプレーン4、字幕用のグラフィクスプレーン、対話用のグラフィクスプレーンに格納されている画素の重畳を行うためである。ビデオプレーン4を構成する全ての画素データに対して加算がなされれば、ビデオプレーン4、字幕用のグラフィクスプレーン、対話用のグラフィクスプレーンのレイヤ合成が完了する。以上のレイヤ合成がなされれば、合成後のピクチャデータを構成する画素データを加算器6に出力することにより、出画を行う。以上のビデオデコーダ3、ビデオプレーン4、プレーンシフトエンジン、加算器6は、一体となって、再生部を構成する。
 再生状態管理部7は、カレント処理フレーム記憶部8、左右処理記憶部9、次元モード記憶部10を備え、上記再生部の再生状態を管理する。
 カレント処理フレーム記憶部8は、カレント処理フレームFcを特定するための複数のパラメータを格納する複数の再生状態レジスタから構成される。カレント処理フレームFcを特定するための複数のパラメータには、カレントタイトル番号、カレントプレイリスト番号、カレントプレイアイテム番号、カレントチャプター番号、カレントブックマーク番号、カレントアングル番号、カレントPresentation Time(PTM)があり、これらのパラメータを用いることでカレント処理フレームFcは特定される。
 ここでカレントタイトル番号とは、リードオンリーメディアのインデックステーブルに記述された複数のタイトルのうち、現在の再生対象になっているものを意味する。
 カレントプレイリスト番号とは、リムーバブルメディアに記録されている複数のプレイリスト情報(メインパス及びサブパスからなる再生経路を定義する情報のことである)のうち、現在の処理対象になっているものをいう。
 カレントプレイアイテム番号とは、カレントプレイリスト番号に対応するプレイリスト情報を構成する複数のプレイアイテム情報(ビデオストリームの時間軸上でIn_Time、Out_Timeの組みを定義することにより、一個の再生区間を定義する情報のことである)のうち、現在の再生対象になっているものをいう。
 カレントチャプター番号とは、プレイリスト情報を構成する複数のプレイアイテム情報に設定されている複数のチャプターのうち、カレントのチャプターとして選択されているものの番号をいう。上記プレイリスト情報は、プレイリストマーク情報を有しており、このプレイリストマーク情報は、プレイアイテム情報と、タイムスタンプとの組みでプレイアイテム情報に対するマーク点を指定することができる。プレイリスト情報に対して設定された個々のチャプターは、このプレイリストマーク情報によって特定される。プレイリスト情報には、必ずプレイリストマーク情報によってチャプターが特定されているから、プレイリストによるビデオストリームの再生時において、プレイリストマーク情報によって特定される複数のチャプターのうち、何れか1つのものがカレントチャプター番号によって特定される。そしてビデオストリームの再生進行に伴い、カレントチャプター番号が更新される。
 カレントブックマーク番号とは、プレイリスト情報を構成する複数のプレイアイテム情報に設定されている複数のブックマークのうち、カレントのブックマークとして選択されているものの番号をいう。上記ブックマークは、オーサリング者によって定められたチャプターとは異なり、ユーザ操作によって特定されるものである。
 ブックマークはユーザ操作によって特定されるものだから、再生装置は、ユーザからの画面のマーキング操作を受け付けて、上記プレイリストマーク情報を装置内部で生成することによりブックマークを特定する。かかる操作によって複数のブックマークが特定されれば、プレイリストによるビデオストリームの再生時において、複数のブックマークのうち、何れか1つのものがカレントブックマーク番号によって特定される。そしてビデオストリームの再生進行に伴い、カレントブックマーク番号が更新される。以上のカレント処理フレーム記憶部8に格納されているパラメータのうち、カレントプレイアイテム番号、カレントチャプター番号、カレントブックマーク番号を新たなものに上書きすることにより、いわゆる“シーンジャンプ”の実行がなされる。
 カレントアングル番号とは、プレイアイテム情報が2つ以上のストリーム参照情報を有していて、それぞれのアングル参照情報により、カメラアングルが異なる複数のビデオストリームが参照されていた場合、カメラアングルが異なる複数のビデオストリームのうち、どれをカレントのビデオストリームとするかを定めるものである。かかるカレントアングル番号は、ストリーム参照情報が1つしかないプレイアイテム情報において更新されることはない。ストリーム参照情報を2つ以上有しているプレイアイテム情報においてのみ、更新される。
 カレントPTMとは、カレントプレイアイテム番号に対応するカレントプレイアイテム情報で参照されているビデオストリームの時間軸のうち、現在の再生時刻を示すものであり、タイムスタンプの時間精度のクロック数により表現される。カレントPTMは、ビデオデコーダによるビデオストリームのデコード処理の進捗に伴い、随時更新される。
 これらカレントタイトル番号、カレントプレイリスト番号、カレントプレイアイテム番号、カレントチャプター番号、カレントブックマーク番号、カレントアングルの何れかが変化するような事象を“再生状態の変化”という。しかし、カレントPTMのみが更新されたとしても“再生状態の変化”が生じたとは捉えない。カレントPTMは、上述したように、ビデオストリームの再生進行に従い時々刻々と変化するものだからである。
 左右処理記憶部9は、ビデオストリームを構成する複数のフレームのうち、現在の処理対象となるフレームが左目映像か右目映像かを記憶する。
 次元モード記憶部10は、映像の出力形態が2Dモードであるか、3Dモードであるかを示すカレントモード番号を格納する。次元モード記憶部10に記憶されているカレントモード番号を、新たなものに上書きすることにより、2Dモードを3Dモードに切り替えたり、3Dモードを2Dモードに切り替えることができる。以上が、再生状態管理部7を構成するカレント処理フレーム記憶部8、左右処理記憶部9、次元モード記憶部10についての説明である。続いて、次元判定部11の詳細について説明する。
 次元判定部11は、シナリオデータに含まれるモード設定のためのパラメータと、カレント処理フレーム記憶部8におけるパラメータとを用いて、再生装置における再生モードを決定するためのモード決定プロシージャを実行し、再生装置における出力モードを2Dモードにするか、3Dモードにするかを判定する。再生モードを決定すれば、決定後の再生モードを示すカレントモード番号を次元モード記憶部10に書き込む。
 奥行き記憶部12は、ビデオデコーダがシーケンスの補助拡張データから取り出した複数のフレームについての奥行き量(フレームFmからフレームm+nまでのそれぞれのフレームにおける奥行き量)を格納する。
 シナリオメモリ13は、デマルチプレクサ2を経ることなく記録媒体から読み出されたストリーム管理情報やプレイリスト情報、バイトコードアプリケーション、ナビゲーションコマンド列を格納する。
 UO検知モジュール14は、GUIのボタン部材を確定する操作、スキップ操作をリモコンに対して行った場合、その操作を示すユーザ操作(UO)イベントを出力する。
 調整部15は、再生状態管理部7のカレント処理フレーム記憶部8、左右処理記憶部9によって管理されている再生状態が変化した場合、ビデオストリームの時間軸のうち変化時点の前に位置する複数のフレーム、及び、変化時点の後に位置する複数のフレームの中から奥行き変化の基準とすべきものを選び、その選んだフレームを用いて、立体視再生の奥行きを調整する。この調整は、適切な再生位置を決定すること、適切なプレーンオフセットを決定することという2通りの処理を含む。図中の制御部16、開始位置決定部17、プレーンオフセット決定部18はこれらの処理を実現するためのものである。
 制御部16は、外部からの再生状態の切替要求を受け付けて、切替要求に係る処理を実行することで再生装置における再生状態を変化させる。再生状態管理部7は、この変化後の再生状態を管理することになる。より具体的にいうと、制御部16はROM、RAM、CPUを備えたマイコンシステムであり、ROMには再生装置を制御するプログラムが記録されており、ROM内のプログラムがCPUに読み込まれ、プログラムとハードウエア資源とが協動することにより切替要求に係る処理を実行する。切替要求に係る処理は、AV再生機能の1つである。AV再生機能とは、再生開始、再生停止、一時停止、一時停止の解除、静止画機能の解除、再生速度を即値で指定した早送り、再生速度を即値で指定した巻戻し、音声切替、副映像切替、アングル切替といった、AV再生のための一般的機能をいう。
 本実施形態で対象としている切替要求には、ユーザの操作によるものと、シナリオデータに組込まれた切替命令によるものとがある。AV再生機能として規定された処理のうち、これらの切替要求で要求されたものを開始することにより、再生装置における再生状態の変化が発生する。前者の切替要求について説明する。前者の切替要求には、例えば、ユーザが次元切替キーを押下した場合の次元切り替え(1)、ユーザスキップが発生した際のシーンジャンプ(2)、数値ダイレクト入力によるチャプタージャンプ(3)、アングル切替(4)等がある。
 次元切替キー押下による次元切替え(1)では、その次元切替キーの押下時点が“切替要求の発生時点”となり、その押下時点の次の時点が、切替要求に係る処理を開始するよう、要求された“要求時点”となる。次元要求の切り替えでは、次元切替キーの押下がなされた時点の次の時点で、出力モードが切り替わるのが望ましいからである。次元切替キーの押下に対応する処理として、次元モード記憶部10に記憶されているカレントモードを示す番号を変更する。カレントモードが2次元であるなら3次元へ、カレントモードが3次元であるなら2次元に変更する。切替要求に対して、以上の処理を実行することで出力モードの変更がなされる。
 ユーザスキップによる切替要求(2)では、ユーザがスキップ操作を行った時点が“切替要求の発生時点”となる。そして、スキップ操作によるスキップ先が切替要求で処理を開始するよう要求された“要求時点”となる。スキップ操作は、スキップ先での再生を開始することを要求する操作だからである。
 ユーザがチャプタースキップを行った場合、切替要求に対応する処理としてカレントチャプター番号をインクリメント又はデクリメントする処理を実行にする必要がある。具体的には、カレントチャプター番号をインクリメント又はデクリメントして、インクリメント又はデクリメント後のカレントチャプター番号に対応するプレイリストマークが参照しているプレイアイテムのプレイアイテム番号、当該プレイリストマーク情報に対応するカレントチャプター番号をカレント処理フレーム記憶部8に設定する。そして要求時点を示す時刻情報をカレント処理フレーム記憶部8のPTMレジスタに書き込んで、カレント処理フレームFcの更新を行う。最後に、更新後のカレント処理フレームFcからのランダムアクセスを読出部1に命じて、更新後のカレント処理フレームFcからの再生を行わせる。
 切替要求に対して、以上の処理を実行することでシーンジャンプはなされる。
 数値のダイレクト入力によるチャプタジャンプ(3)では、ユーザが数値入力操作を行った時点が切替要求の発生時点となる。そして、数値入力された番号に対応するチャプターが切替要求で処理を開始するよう要求された要求時点となる。具体的には、入力数値された数値をカレントチャプター番号として設定して、新たなカレントチャプター番号に対応するプレイリストマークが参照しているプレイアイテムのプレイアイテム番号、当該プレイリストマーク情報に対応するカレントチャプター番号をカレント処理フレーム記憶部8に設定する。切替要求に対して、以上の処理を実行することで、数値入力によるシーンジャンプはなされる。
 アングル切替による切替要求(4)では、ユーザがアングル切替操作を行った時点が切替要求の発生時点となる。そして、アングル切替要求で切り替えることが要求されたデジタルストリームの先頭位置が、切替要求で処理を開始するよう要求された要求時点となる。そしてアングル切替要求に対応する処理とは、アングル切替操作に応じてカレントアングル番号をインクリメント又はデクリメントして、プレイアイテム情報に存在する複数のストリーム参照情報のうち、インクリメント又はデクリメント後のカレントアングル番号に対応するものに従い、デジタルストリームを読み出すというものである。このインクリメント又はデクリメント後のカレントアングル番号に対応するストリーム参照情報は、切替後のアングル番号に対応するデジタルストリームを参照しているからである。切替要求に対して、以上の処理を行うことで、アングル切替はなされる。
 後者の切替要求について説明する。後者の切替命令とは、前者のユーザ操作による切替要求を、シナリオデータに組込まれたナビゲーションコマンド、又は、APIコールに対応するバイトコードによって実現するものである。後者の切替命令において、切替要求に係る処理の開始を要求する要求時点は、当該切替命令であるナビゲーションコマンドのオペランドや、APIコールに対応するバイトコードの引数により“切替先”として指定されている再生開始点である。後者の切替命令において、切替要求に係る処理が発生する発生時点は、その切替命令であるナビゲーションコマンドやバイトコードを読み込む読み込み時点となる。説明の簡略化のため、以降、本実施形態で対象とする切替要求は、基本として後者の切替命令であるものとする。
 先読み制御部16aは、制御部16の構成要素であり、“奥行き解析のための先読み”を行う。“奥行き解析のための先読み”とは、切替要求に係る処理を開始するよう要求された要求時点である切替先のフレームFmにおいて、要求時点より後のnフレーム、又は、要求時点より前のpフレーム並びに要求時点より後のqフレームをまとめて読み出し(ここで、n=p+qの関係がある)、これらのフレームの奥行き量をビデオデコーダから分離させて奥行き記憶部12に格納するというものである。この分離のために読み出された複数フレームは、全てが再生される訳ではない。再生されるフレームは、奥行き変化の基準となるフレーム、及び、それ以降のフレームに限られる。処理開始が要求された要求時点である切替先フレームより後のnフレーム、又は、要求時点である切替先フレームより前のpフレーム並びに要求時点である切替先フレームより後のqフレームは、奥行き解析のために読み出されるに過ぎないからである。
 対話制御部16bは、先読み制御部16aと同様、制御部16の構成要素であり、シナリオデータ及びイベントに基づき、ランダムアクセスを読出部1に命じることで対話的な処理を実行する。具体的にいうと、表示装置400によるGUIの表示において、ハイライト状態になっているボタン部材に対して確定操作がなされて、確定操作を示すイベントが発生すると、対話制御部16bはボタン部材に対応するボタンオブジェクトのメソッドであるバイトコード又はナビゲーションコマンドを実行する。
 当該ボタン部材がシーンジャンプを受け付けるものである場合、切替命令となるバイトコード又はナビゲーションコマンドがメソッドとしてボタン部材に組み込まれているので、この切替命令を実行することでカレント処理フレームFcを特定するための複数パラメータの更新を行う。
 開始位置決定部17は、再生状態の切替要求が次元切替要求、又は、シーン切替要求である場合に、これらの要求に係る処理を開始すべき開始時点を決めるものである。
 次に、要求時点の種別について説明する。切替要求には要求時点が固定であるものと、要求時点が可変であるものとがある。
 固定された要求時点とは、例えば、シーンジャンプでジャンプ先となるチャプターや、アングル切替で切替先となるアングル映像などが該当する。映画などを記録したBD-ROMの場合、チャプターはコンテンツ作者の意図で区切られており、再生開始位置は、各々のチャプターでの最初のフレームに固定されている。また、アングル切替など再生がシームレスに続く場合もこの命令に属する。
 可変である要求時点とは、チャンネル切替の切替先となるストリームや、ブックマークジャンプにおいてジャンプ先となるブックマークなどがある。ブックマークジャンプは、ユーザーが指定したフレームから再生することが理想的ではあるが、ユーザーはフレーム単位でブックマーク位置を選択しているのではないため、数フレームの誤差は許容され得るからである。 
 特に開始位置決定部17は、次元切替要求の発生時において、切替要求に係る処理を開始するよう要求された要求時点(切替先フレームFm)以降に位置する複数のフレーム(フレームFm~Fm+n)のうち、切替要求の発生時点(フレームFk)との奥行き量の差分が最も少ないフレームを奥行き調整の基準となるフレームFdとして選ぶ。こうして選んだ奥行き調整の基準となるフレームFdを、切替要求に係る処理を開始すべき開始時点として決定することで、奥行き調整を実行する。つまり開始位置決定部17は、切替要求の要求時点である切替先フレーム前後のフレームと、切替要求の発生時点のフレームとで、両者の奥行き量を比較することにより、奥行き調整の基準となるフレームを定めるのである。要求時点である切替先フレームmを始点としたnフレームの範囲内から、切替要求に対応する処理の開始時点フレームFdを選ぶのは、2次元から3次元への切替は、ユーザの発意によるもので、実際の要求時点からの誤差が多少あっても許容されるからである。
 奥行き調整の基準となるべきフレームの選択範囲を規定するフレーム数“n”は、リードオンリーメディアに対するアクセス単位に従い定めるのが望ましい。具体的にいうと、一回のアクセスで2~3GOPに対応するアクセスユニットを読み出すのなら、これらのアクセスユニットに包含されるフレーム数である48~72フレームに基づきnを定めるのが望ましい。また、リードオンリーメディアからの一回のアクセスでは、リードオンリーメディアからの読み出し用のバッファ(リードバッファ)に基づき、アクセスサイズが定められる。このリードバッファに基づき、奥行き調整の基準となるべきフレームの選択範囲を規定するのが望ましい。説明の簡略化のため、以降の説明において奥行き調整の基準となるべきフレームの選択範囲を規定するフレーム数“n”は、単純で扱いが簡単な数値、つまり、“5”又は“6”とする。
 また、シーン切替要求の発生時において、シーン切替要求に係る処理を開始するよう要求された要求時点であるフレームFm以前に位置する複数フレーム(フレームFm-p~Fm)、及び、フレームFm以降に位置する複数のフレーム(フレームFm~Fm+q)のうち、シーン切替要求の発生時点となるフレームFkとの奥行き量の差分が最も少ないフレームを奥行き調整の基準となるフレームFdとして選ぶ。こうして選んだ奥行き調整の基準となるフレームFdを、切替要求に係る処理を開始すべき開始時点として決定することで、奥行き調整を実行する。処理開始時点の決定による奥行き調整は、要求時点である切替先フレームが可変である場合になされる。切替要求に対応する要求時点である切替先フレームが可変である場合、要求時点が未来方向に遅延することが許容されるばかりか、過去方向に早まることも許容される。よって、切替要求に対応する要求時点が可変である場合、要求時点以前に位置するpフレームと、要求時点以降に位置するqフレームとを、奥行き調整の基準とすべきフレームを選ぶ選択範囲とする。このpと、qとは、n=p+qとの関係を満たすべきである。リードオンリーメディアに対する一回のアクセスで、奥行き調整の基準とすべきフレームの選択範囲がまとめて読み出されることが望ましいからである。
 プレーンオフセット決定部18は、プレーンシフトにあたってのオフセットの基準となる奥行き量を有しているオフセット基準フレームFdを決める。オフセット基準フレームFdの選択は、シーン切替要求に係る処理を開始するよう要求された要求時点である切替先フレームFm以降に位置する複数のフレーム(フレームFm~Fm+n)のうち、シーン切替要求の発生時点(フレームFk)との奥行き量の差分が最も少ないフレームを決めることでなされる。そして、こうして決めた奥行き調整の基準となるオフセット基準フレームを用いて奥行き調整を行う。調整部15による奥行き調整は、シーン切替要求の発生時点であるフレームFkから、オフセット基準フレームFdまでの期間に属する各フレームの映像出力にあたって、プレーンシフトエンジン5がオフセット基準フレームFdの奥行き量に対応するオフセットを、水平方向のオフセットとして用いることでなされる。オフセット基準フレームの決定による奥行き調整は、切替要求に係る処理を開始するよう要求された要求時点が固定である場合になされる。固定となる要求時点とは、オーサリング者が作成したプレイリストマーク情報で特定されている要求時点のことである。切替要求に対応する要求時点が固定である場合、オフセット基準フレームの奥行きで立体視再生がなされることになり、立体視映像の飛出し度合は弱められているものの、切替要求で要求された要求時点から再生を開始していることは明らかである。以上のように、切替要求に対応する要求時点が固定である場合は、切替要求に対応する処理の開始時点についての要求を遵守しつつも、立体視映像の飛出し度合を制限することにより、ユーザの視覚に対するケアを充実させていることがわかる。
  以上が再生装置の内部構成における構成要素についての説明である。続いて、再生装置のソフトウェア的な処理手順を示す詳細について説明する。
 図6は、調整部の処理手順を示すフローチャートである。ステップS1~ステップS2は、2D再生のためのフローチャートである。ステップS1の判定ステップは、2Dモードから3Dモードへの切替命令が発生したかどうかの判定であり、この判定がNoであれば、2D再生の実行を継続する(ステップS2)。
 切替命令が発生すれば、ステップS1がYesになってステップS3において2Dモードから3Dモードへの切り替えを実行し 、ステップS4-ステップS8の判定ステップ列に移行する。ステップS4は、3Dモードにおけるシーンジャンプが発生したか否かの判定であり、ステップS4がNoであれば、プレーンシフトを実行し(ステップS5)、各レイヤのプレーン内容を合成して出画し(ステップS6)、カレント処理フレームFcをインクリメントする(ステップS7)という処理を繰り返す。
 シーンジャンプが発生した場合(ステップS4でYes)、ステップS9の判定がなされる。ステップS9は、切替要求で処理を開始するよう要求された要求時点である切替先フレームが可変であるか否かの判定であり、可変であれば、ステップS10において、要求時点のフレームが可変である場合のシーンジャンプを実行する。可変でなければ、ステップS11において、要求時点のフレームが固定されている場合のシーンジャンプを実行する。
 以上のフローチャートの処理手順を、再生装置の構成要素と関連付けて説明する。以降の説明において、対象となる切替要求とは2次元の出力映像から3次元の出力映像への切替を要求する次元切替命令、3次元の出力映像から別の3次元の出力映像への切替を要求するシーン切替命令のことをいう。
 切替要求が発生すると、まず、切替要求が発生する発生時点直前の出力映像が2次元の出力映像を表示しているのかまたは、3次元の出力映像を表示しているのかを判断して、当該切替要求が2Dモードから3Dモードへの切替を要求するか否かを判定する(ステップS1)。かかる判断は例えば次元モード記憶部10に格納されているカレントモード番号を参照することによりなされる。
 切替要求が発生する発生時点直前の出力映像の次元モードが2Dモード(つまり、2次元の出力映像を表示している)である場合、切り替え先の出力映像を2次元で表示するのか、または3次元で表示するのかを判断する。この判断は例えば、切替命令に含まれている切替先映像の次元モードに関する情報を参照することや、切替命令に含まれている次元モード更新のためのパラメータ(次元モード記憶部10のカレントモード番号を更新するための更新パラメータ)を参照することでなされる。
 ステップS1において切替先の次元モードが3Dモードであると判定された場合、切替要求は、2次元の出力映像から3次元の出力映像への切替を要求する次元切替要求であると判断し、2Dモードから3Dモードへの切替を行う(ステップS3)。
 カレントの次元モードが2Dモードである場合において、次元切替要求が発生すれば、ステップS8において、切替先の次元モードが3Dモードであるか否かを判定する。切替前の次元モードが2Dモードであれば、奥行き量、切替後の奥行き量はともに“0”(つまり表示画面上に表示がされている)であるので、奥行き調整は不要であるため、奥行き量の調整を行うことなく、ステップS1~ステップS2のループを継続する。
 カレントの次元モードが3Dモードである場合において、次元切替要求が発生すれば、ステップS3において、切替先の次元モードが2Dモードであるか否かを判定する。切替前の次元モードが3Dモードであれば、ステップS8において切替要求に従って、切り替え後の出力映像を2次元で表示するのか、または3次元で表示するのかを判断する。この判断は例えば、切替命令に含まれている、切替先の出力映像の次元モードに関する情報を参照したり、切替命令に含まれる次元更新のためのパラメータ(次元モード記憶部10に格納されているカレントモード番号を更新するためのパラメータ)を参照することによりなされる。切り替え先の出力映像の次元モードが2Dである場合、奥行き量の調整を行うことなく、2Dの切替要求に対応する切替処理を行った後、ステップS1~ステップS2のループに移行する。
 切替先の出力映像の次元モードが3Dモードである場合、S9において、切り替え先の出力映像を表示するためのフレームを変更してよいかどうか(つまり可変かどうか)を判断する。
 S9において、可変であると判断した場合、数フレームのずれであれば、3D表示を開始するフレームをずらすことが許容されるシーン切替命令であると判断し、切替先フレームが可変時のジャンプを行う(ステップS10)。
 S9において、可変であると判断しなかった場合、切替後に再生を開始すべき映像のフレームが固定されているシーン切替命令であると判断し、切替先フレーム固定時のシーンジャンプを行う(ステップS11)。
 S8の判断、つまり、切り替え先の出力映像を表示するためのフレームをずらして再生を開始してよいかどうかの判断は、具体的には例えば切替命令の内容が、シーン切替命令に例示した上記命令のいずれであるのかを、APIコールに対応するバイトコードの種別、又は、ナビゲーションコマンドのオペコードによって特定すればよい。
 図7は、2Dモードから3Dモードの切替を要求する次元切替の処理手順を示すフローチャートである。ステップS101で、切替要求で処理を開始するよう要求された要求時点であるフレームFkを始めとするフレームFk~フレームFk+nの奥行き量を格納し、ステップS102において、最も0に近い奥行きをもつフレームFdを検索する(ステップS102)。その後、ステップS103~ステップS106のループを実行する。ステップS103は、ループの繰り返し条件を定めるものである。繰り返し条件とは、カレント処理フレームFc<フレームFdを満たすかどうかであり、満たす場合、2Dモードを維持し(ステップS104)、カレント処理フレームFcを2Dモードで再生して(ステップS105)、カレント処理フレームFcをインクリメントする(ステップS106)という処理を繰り返すことになる。
 この繰り返しにより、フレームFdに到達するまで、カレント処理フレームFcが2Dモードで再生されることになる。カレント処理フレームFcがフレームFdに到達した場合、ステップS103がNoになりステップS107~ステップS108を実行する。これらは、カレント再生モードを3Dモードにして(ステップS107)、各レイヤのプレーン内容を合成し、出画する(ステップS108)というものである。
 次元切替要求が発生した場合の処理手順を、再生装置における構成要素と関連付けて説明する。例えば、2次元の出力映像から3次元の出力映像への切替を要求する次元切替要求が発生すると、奥行き量記憶部12は、次の切り替え先の出力映像のフレームFkをはじめとする連続するn枚のフレームの奥行き量を奥行き記憶部12に格納する(S101)。再生位置決定部13は、格納したn枚のフレームの中から、最も0に近い(表示画面の位置に最も近い)奥行きをもつフレームFdを探索し(S102)、このフレームFdを次元切替を行なうフレームとして決定する。
 ステップS103~ステップS106のループにおいてデマルチプレクサ2は、次元判定部10の判定に従い、フレームFdに達するまでは2次元用の処理をし続け(S105)、フレームFdに達した時点で出力映像を3次元で表示をするための処理を開始する(S107、S108)。
 当該ループにおいて次元判定部10は、フレームFdに到達するまで間は、2次元で出力映像を表示すべきと判定し、フレームFdに到達した後は3次元で出力映像を表示すべきと判定するように設定する。
 ステップS103~ステップS106において、2次元用の処理をし続けるというのは、例えば切替後の出力映像(3次元の出力映像)を用いて2次元で表示をすることであり、より具体的には3次元の出力映像として視差の程度に見える角度の異なる右目用の出力映像と左目用の出力映像を用いて3次元表示をするような方式においては、右目用の出力映像または左目用の出力映像のいずれか一方を用いて表示をすれば足りる。また1つの出力映像について、右目と左目とで異なるオフセットを与えて、3次元表示をするような方式においては、オフセットを同じ値(例えば、0にする)するなどの方法がある。
 図8(a)は、奥行き量変化の時間的遷移を示す図である。図8(a)の第1段目は、ビデオストリームの時間軸を構成する複数のフレームを示す。第2段目は横軸を時間軸とし、縦軸を奥行き量としたグラフを示す。
 図8(b)は、図8(a)におけるグラフを示す。本図は、図5(a)をベースとして作図されており、このベースとなる図5と異なるのは、図8(b)では、3Dモードへの切替時点の発生時点が時間軸上にプロットされており、この3Dモードへの切替時点となる点である。
 図8(b)において、フレームFk-1で、3次元への切替要求が発生したとして、次のフレームFkから3次元で表示をするための処理が開始されたと仮定する。この場合、2次元の表示においては、奥行きが“0”であったのに対し、3次元の表示に切り替えた時点のフレームがFkとし、フレームFkに対して与えられている奥行き量をZ(Fk)とすると、切り替える前後では奥行き量が0からZ(Fk)に変化する。
 このとき、切り替えの前後で生じる奥行き量の差に相当するZ(Fk)の程度が大きければ、視聴者は視差角の程度、眼球(瞳)の向きを大きく変える必要があり、これが原因で眼に疲れが生じる場合がある。
 図8(c)は、3Dモードへの切替時点の発生時点である、フレームFkを基準にした読込期間を示す。読込期間は6フレームであるので、フレームFkを基準にした5フレーム(n=5)の範囲、つまり、フレームFkからフレームk+5までが読込期間になっている。図8(c)では、奥行き量記憶部12において、次のフレームをはじめとする連続する6枚のフレームの奥行き情報を格納できるようにしており、フレームFk-1で切替処理が発生すると、奥行き量記憶部12にフレームFkからFk+5までの各フレームの奥行き量が格納される。
 第2段目は、読込期間のうち奥行き量が最小となるFk+3と、最小となる奥行き量であるZ(Fk+3)とを示す。Fk+3の奥行き量が最小となるから、3Dモードへの切替処理を開始する時期をFk+3に変更する。具体的には、Fk-6からFk+2までは、2Dモード、Fk+3以降を3Dモードとする。
 奥行き量が最小となるFk+3以降が、3Dモードの開始時点になるから、2Dモードから3Dモードへの切り替え時点における眼球の移動量は最小になる。よって、Fk~Fk+2までは2次元処理を続け、Fc=Fk+3に達すると、3次元処理に切り替える。上記の処理により、切替時発生する奥行き量をZ(Fk)からZ(Fk+3)に抑えることが可能になる。これにより、3次元の表示への切り替え時に生じる視聴者の眼の焦点位置の変化を抑え、眼の疲れを低減することが可能となる。
 図9は、切り替え先フレーム可変時のシーンジャンプ手順を示すフローチャートである。このフローチャートでは、切替要求の発生時点であるフレームFkの奥行き量を格納し(ステップS201)、切替要求で処理を開始するよう要求された要求時点であるフレームFm前後に存在する、フレームFm-p~Fm+qの奥行き量を格納して(ステップS202)、フレームFm-pからFm+qまでの範囲に位置するフレームのそれぞれについて、フレームFkの奥行き量Z(F)との差分を計算する(ステップS203)。そして、そうして計算した差分が最も小さい奥行きをもつフレームFdをカレント処理フレームFcに設定することでシーンジャンプを行う(ステップS204)。
 次に、図9の処理手順に、再生装置の構成要素を関連付けて3次元から3次元のシーン切替要求が発生した場合の動作を説明する。シーン切替要求が発生すると、奥行き量記憶部12に、シーン切替要求が発生した発生時点のフレームFkの奥行き量を格納し(S201)、次にシーンの切替先フレームとのその前後n枚の連続したフレームの奥行き量を奥行き記憶部12に格納する(S202)。再生位置決定部13は、格納したn枚のフレームの奥行き量と、フレームFkの奥行き量Z(Fk)との差分の大きさ(例えば差の絶対値)を計算し(S203)、切替前フレームの奥行きZ(Fk)との差分の大きさが最も小さい奥行きをもつフレームFdを表示切替(つまり、シーン切替)のタイミングと判定し、制御部7に通知する。制御部7は、処理対象のフレームをFdに移動させ、移動したフレームFdから再生を開始する(S204)。
 図10は、ジャンプ時における奥行き量変化を示す図である。図10の第1段目は、ジャンプ元のビデオストリームの時間軸を構成する複数のフレーム(Fk-6,Fk-5,Fk-4,Fk-3・・・・・・Fk+4,Fk+5,Fk+6,Fk+7)を示し、第2段目のグラフは、第1段目における各フレームでの奥行き量の時間的遷移を示す。第3段目は、ジャンプ先となるビデオストリームを構成する複数のフレーム(Fm-6,Fm-5,Fm-4,Fm-3・・・・・・・・Fm,Fm+4,Fm+5,Fm+6,Fm+7)を示し、第4段目のグラフは、第3段目のビデオストリームの時間軸を構成する各フレームの奥行き量の時間的遷移を示す。第1段目の時間軸において、ジャンプ元は、フレームFkであり、このフレームFkでの奥行き量は、Z(Fk)となる。
 第4段目のグラフには、ジャンプ先となるFmにおける奥行き量Z(Fm)がY軸上にプロットされている。図11(a)は、シーンジャンプの前後の奥行き量変化を示す。図11(a)の第1段目は、ビデオストリームiの時間軸と、ビデオストリームjの時間軸とを重ね合わせて示す。この図11(a)では、ビデオストリームiのフレームFkから、ビデオストリームjのフレームFmへのジャンプがなされていることがわかる。第2段目は、図10のビデオストリームiの奥行き量の変化を示すグラフと、図10におけるビデオストリームjの奥行き量の変化を示すグラフとを重ね合わせて示す。ここで、Z(Fk)と、Z(Fm)との違いが大きいから、フレームFk→Fmのシーンジャンプが発生した場合、飛出し度合の変化が多大になり、眼球の疲れを引き起こす。
 図11(b)は、奥行き量調整のために定められた読込期間を示す。(b)では、切替要求に係る処理の要求時点であるフレームFmを中心とする前後3フレームの範囲、つまり、Fm-3からFm+3までのフレームが読込期間として決定されていることがわかる。Fmー2は、読込期間において奥行き量が最小になっているフレームである。奥行き量が最小となるFm-2(反転表示されている)が調整後のフレームとして決定される。図11(b)では、ブックマーク位置Fm前後のフレームの奥行きを表し、p=3、q=3のケースを想定しているから、奥行き量記憶部12にフレームFm-3からFm+3までの各フレームの奥行き量が格納される。
 図11(c)は、分岐先の調整がなされたシーンジャンプを示す。第1段目は、ビデオストリームiと、ビデオストリームjとでビデオストリームiのフレームFkと、ビデオストリームjのフレームFm-2とが連続的に再生されることになる。
 Fm-2は、読込期間において視差量が最小になっているから、Fm-2を調整後の分岐先とすることで、奥行き量の増大量を最小にすることができる。
 フレームFmの奥行き量Z(Fm)と最も差分の小さい奥行きを持つフレームはFm-2であるため、再生位置決定部13は、ジャンプ対象のフレームをFm-2と決定し、制御部7に通知する。上記の処理により、図12(c)で表すようにブックマークジャンプ時に発生する奥行き量の変化を|Z(Fk)-Z(Fm)|から|Z(Fk)-Z(Fm-2)|に抑えることができる。これにより、ジャンプの際の切り替え時に生じる視聴者の眼球(瞳)の向きの急激な変化を抑え、眼の疲れを低減することが可能となる。
 図11(a)と、図11(c)とを用いて、ブックマークジャンプを行なう際の時刻と奥行きの関係について対比説明を行う。ユーザーはあらかじめブックマーク位置として、フレームFmを登録していたとする。ブックマークジャンプ前のカレント次元モードは3Dモードとし、ブックマークジャンプ後もカレントモードは3Dモードを保つとする。
 図11(a)が、図9に示すフローチャートの処理を行うことなく、ブックマークジャンプを行なった場合の奥行き量の変化を示していると仮定する。ジャンプ前のフレームFkの奥行き量がZ(Fk)であるのに対し、ブックマーク位置Fmの奥行き量がZ(Fm)に変化するため、ブックマークジャンプによる切り替えの前後で、奥行き量の差分の大きさは、|Z(Fk)-Z(Fm)|となる。ブックマークジャンプによる切替の前後で生じる奥行き量の変化の大きさ(つまり、|Z(Fk)-Z(Fm)|)の程度が大きければ、視聴者は、視差角の程度、眼球(瞳)の向きを大きく変える必要があり、これが原因で眼に疲れが生じる場合がある。
 これに対し、図11(c)に示すように、奥行き量記憶部12において、シーン切替要求で処理開始が処理された要求時点であるフレームFmから見て、前後3枚の連続したフレームの奥行き量を格納する場合(つまり、S202におけるp,qが3である場合)、ステップS202ではフレームFm-3からFm+3のそれぞれに対応する奥行き量が奥行き量記憶部12に格納されるから、図11(c)に示すように、切替先フレームがフレームFm-2に変更されることになる。
 次に、切替先フレーム固定時のシーンジャンプの処理手順について説明する。
 図12は、切替先フレーム固定時のシーンジャンプの処理手順を示すフローチャートである。本フローチャートにおいて、切替要求に係る処理の発生時点であるフレームFkの奥行き量を格納し(ステップS301)、切替要求に係る処理が要求された要求時点及びそれ以降の時点に存在するフレームFm~フレームm+nの奥行き量を格納して(ステップS302)、フレームFm~フレームm+nのそれぞれについて、フレームFkの奥行き量Z(Fk)との差分を算出し(ステップS303)、最も小さい奥行きをもつフレームFdの奥行き量Z(Fd)を目的奥行き量とする(ステップS304)。そして、フレームFmをカレント処理フレームFcに設定することでシーンジャンプを行う(ステップS305)。以降、ステップS306~ステップS311のループを実行する。ステップS306は、このループの終了条件であり、カレント処理フレームFc<フレームFdの関係が成立するか否かの判定である。ステップS306がYesであるなら、ステップS307~ステップS311の処理を繰り返す。この処理は、カレント処理フレームFcの奥行き量Z(Fc)と、フレームFkの奥行き量Z(Fk)との差分|Z(Fc)-Z(Fk)|を計算し(ステップS307)、差分|Z(Fc)-Z(Fk)|に基づくプレーンオフセットを計算して、プレーンシフトエンジンに設定し(ステップS308)、プレーンメモリのシフトを実行する(ステップS309)。その後、各レイヤのプレーン内容を合成して出画し(ステップS310)、カレント処理フレームFcをインクリメントする(ステップS311)というものである。カレント処理フレームFc<フレームFdの関係を満たすのは、カレント処理フレームFcがフレームFdに到達するまでである。カレント処理フレームFcがフレームFdに到達するまでの間、差分|Z(Fc)-Z(Fk)|に基づくプレーンシフトがなされることになる。
 ステップS306がNoであれば、ステップS312~ステップS315を実行する。奥行き量Z(Fc)に基づくオフセットを計算して、エンジンに設定し(ステップS312)、シフトを実行して(ステップS312)。その後、各レイヤのプレーン内容を合成して出画し(ステップS314)、カレント処理フレームFcをインクリメントしてリターンする(ステップS315)。
 図12のフローチャートに示した処理手順を再生装置の構成要素と関連付けて説明する。シーン切替要求が発生すると、切替要求が発生した発生時点であるフレームFkの奥行き量を奥行き量記憶部12に格納し(S301)、次に切替先のフレームFmをはじめとする連続するn枚のフレームの奥行き量を格納する(S302)。
 プレーンオフセット決定部14は、奥行き量記憶部12が格納するn枚のフレームの奥行き量の中から、切替前のフレームFkの奥行き量Z(Fk)との差分(例えば、差分の絶対値)を計算し(S303)、そのうち最も小さい奥行きをもつフレームFdのZ(Fd)を目的奥行き量と決定する(S304)。制御部7は、切り替え先フレームFmに再生位置を移動し(S305)、デマルチプレクサ1は、フレームフレームFmの3次元処理を開始する。
 プレーンオフセット決定部14は、処理フレームがフレームFmからフレームFdに達するまでの間、処理フレームの奥行き量が目的奥行き量Z(Fd)に維持されるプレーンオフセットを計算し(S307)、プレーンシフトエンジン4のプレーンオフセットを更新する(S308)。プレーンシフトエンジン4は、現在処理中のビデオプレーンが右目用か左目用か左右処理記憶部11に保存されている情報を使って確認し、定められた方向にプレーンをシフトさせる(S309)。処理中のプレーンがFdに達すると、プレーンオフセット決定部14はプレーンシフトエンジンのプレーンオフセットを対象となるフレームの奥行き量に基づくプレーンオフセットを計算し、更新する。
 図13は、指定量制御による奥行き調整を示す。図13(a)の第1段目は、ビデオストリームiからビデオストリームjへのシーンジャンプを示す。この場合分岐元はフレームFk、分岐先はFmなので、フレームFk→Fmの順に再生されることになる。第2段目は、奥行き量変化と、ビデオストリームjの奥行き量変化とを示す。Z(Fk)が小さいのに対してZ(Fm)が大きいので、飛出し度合の変化が急激であることがわかる。
 図13(a)からは、チャプタージャンプを行なう場合の時間と奥行きの関係を理解することができる。フレームFkでユーザーはフレームFmから始まるチャプターを選択したとする。2次元再生と同じ処理でチャプタージャンプを行なった場合は図9と同様であり、大きな奥行き量の差|Z(Fk)-Z(Fm)|が発生する。
 図13(b)は、分岐先がFmである場合の読込期間を示す。図13(b)の第1段目では、Fm~Fm+6のフレームが読み取られることになる。反転で記述されているFm+5は、奥行き量が最小になるフレームを示す。図13(b)の第2段目は、読込期間における各フレームの奥行き量を示す。この第2段目においてFm+5の奥行き量が最小なので、Fm+5がオフセット制御の目標値に設定される。
 図13(b)では、チャプタージャンプ先のフレームがフレームFmから始まる連続したフレームの奥行きを表しているからシーン切替要求に該当する切替命令を受けたとき、奥行き量記憶部12に現在のフレームFk(つまり切替前フレーム)の奥行き量が格納される。またジャンプ先のフレームFmをはじめとする連続する6枚のフレームの奥行き量を格納した場合(つまり、n=6の場合)を想定すると、奥行き量記憶部12にフレームFmからFm+6までの各フレームの奥行き量が格納される。
 切替前のフレームFkの奥行き量Z(Fk)と各フレームの奥行き量の差分を計算した場合、その中で最も差分(例えば差分の絶対値)が小さい奥行きを持つフレームはFm+5であるため、プレーンオフセット決定部14により、フレームFm+5の奥行き量であるZ(Fm+5)が目的奥行き量と決定される。
 図13(c)は、プレーンシフト制御による奥行き調整を示す。第2段目のグラフは、プレーンシフト制御の内容を示すグラフである。破線は、プレーンシフト制御がない場合のZR変化を示す。このグラフにおける奥行き量変化は、図13(a)と同一である。図13(c)の実線は、プレーンシフト制御がなされた場合の奥行きの選択的変化を示す、ビデオストリームjのFmからFm+5は、奥行き量がZ(Fd)を維持するようプレーンシフト制御がなされるため飛出し度合の変化が急激になることは無い。
 制御部7は、フレームFmに再生位置を移動し、再生を開始する。プレーンオフセット決定部14は、処理対象のフレームがFm+5に達するまで、つまりFmからFm+4の間は、目的奥行き量Z(Fm+5)と処理対象フレームの奥行き量Z(Fm+i)(i=0,1,2,3,4)の差分をプレーンシフトエンジン4のプレーンオフセットとしてセットする。
 対象フレームのプレーンシフトエンジンは、奥行き量が、目的奥行き量Z(Fm+5)と等しくなるよう、セットされたオフセットの分だけ、ビデオプレーンをシフトさせる。
 上記の処理により図13(c)に示すように、出画されるフレームの奥行きは、フレームFm+5に達するまではZ(Fm+5)を維持することになり、チャプタージャンプ時に発生する奥行き量の変化を|Z(Fk)-Z(Fm)|から|Z(Fk)-Z(Fm+5)|に抑えることができ、フレームFm+5に達した後は、プレーンオフセット決定部18は、フレームに対応する奥行き量をプレーンシフトエンジン5のプレーンオフセットにセットするように構成すれば、フレームの奥行き量に相当する分のシフト処理がされる。このように構成をすることにより、切替時に生じる視聴者の眼球(瞳)の向きの急激な変化を抑え、眼の疲れを低減することが可能となる。
 ビデオプレーンのシフト処理の一例を図14と図15を用いて説明する。図14はオフセットを利用した処理の一例を示した図である。
 プレーンシフトエンジン4にセットさたオフセットが1と設定されている場合は右目用のビデオプレーンと左目用のビデオプレーンをそれぞれ図14に示す矢印の方向に1ピクセルずらす。オフセットがマイナスの値の場合は図14に示す矢印とは逆の方向にずらす。オフセットが正の値の場合は、画像はシフト前よりも奥に表示される現象が発生し、負の値の場合は、シフト前よりも飛び出る効果が発生する。
 左目用ビデオプレーンの正の値xのシフト方法は図15のようにして行う。1.ビデオプレーンの最も左の部分からビデオプレーンオフセットx片目分のプレーンの高さの領域を切り取る。2.ビデオプレーンを左へ水平方向にビデオプレーンオフセット値分ずらす。3.ビデオプレーンの最も右の領域にビデオプレーンオフセットx片目分のプレーンの高さの透明の領域を追加する。
  (第2実施形態)
 第1実施形態では、ビデオプレーン4に対してプレーンシフトを実行したが、本実施形態は、グラフィクスプレーンについてプレーンシフトを実現する改良に関する。図16は、第2実施形態に係る再生装置の内部構成を示す図である。本図は、図5をベースとして作図されており、このベースとなる図と比較して、ビデオプレーン4が、左目用ビデオプレーン4a、4bに置き換えられ、字幕デコーダ21、字幕プレーン22、レンダリングエンジン23、対話プレーン24が追加されている点が異なる。
 左目ビデオプレーン4aは、ビデオデコーダのデコードにより得られた右目映像を構成する画素データを格納する。
 左目ビデオプレーン4bは、ビデオデコーダのデコードにより得られた左目映像を構成する画素データを格納する。
 字幕デコーダ21は、デマルチプレクサ2から分離された字幕グラフィクスストリームや、デマルチプレクサ2を介さず直接読出部1から読み出されたテキスト字幕ストリームをデコードして非圧縮のグラフィクスを字幕プレーン22に書き込む。
 字幕プレーン22は、字幕デコーダ21のデコードにより得られた字幕グラフィクスを構成する一画面分の画素データを格納する。
 レンダリングエンジン23は、記録媒体に記録されたJPEG/PNG/ZIFF形式のイメージデータをデコードして、制御部16からの指示に従い、描画イメージを対話プレーン24に書き込む。
 対話プレーン24は、描画イメージを構成する一画面分の画素データを格納しておくためのメモリである。かかる描画イメージは、ARGB形式のビットマップである。
 以上が、第2実施形態で追加された構成要素についての説明である。続いて、第2実施形態において改良がなされた構成要素の詳細について説明する。
 第2実施形態特有の改良がなされたプレーンシフトエンジン5は、字幕プレーン22、対話プレーン24に対してプレーンシフトを行う。かかるプレーンシフトにより、字幕プレーン22、対話プレーン24がそれぞれ、1プレーン構成であっても立体視を実現することができる。このプレーンシフトには、奥行き記憶部12に格納された奥行き量を使用する。
 第2実施形態特有の改良がなされた加算器6は、対話プレーン24を一番手前にし、続いて字幕プレーン22、左目ビデオプレーン4a-左目ビデオプレーン4bが配置されるように、対話プレーン24、字幕プレーン22、ビデオプレーン4a-左目ビデオプレーン4bに格納されている画素データの加算を行う。これにより、プレーンメモリのレイヤ合成がなされる。
 第2実施形態特有の改良がなされた制御部16は、対話プレーン24、字幕プレーン22の奥行き量が最小になるようなフレームを選択して、このフレームを基準にして、奥行き調整を行う。
 以上のように本実施形態によれば、字幕プレーン22、対話プレーン24のプレーンシフトに用いられる奥行き量は、奥行き記憶部12に読み出された奥行き量であるから、この奥行き量が小さくなるようなフレーム位置、プレーンオフセットを決定することで、ユーザに対する影響を最小限に留めることができる。
 <備考>
 以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。
 (奥行き制御の対象となるコンテンツの範囲)
 第1実施形態において、奥行き制御の対象となるコンテンツは、デジタルストリームやプレイリスト情報から構成される映画作品であるとしたが、対象となるコンテンツは、ポリゴンモデルや多面体モデルで構成されるゲームアプリケーションであってもよい。ゲームであれば、ポリゴンモデルや多面体モデルで定義されるキャラクターの状態変化や、ゲームのステージ変化を再生装置の状態変化と捉えて奥行き量の調整を行えばよい。
 (記録媒体のバリエーション)
 本実施の形態では、奥行き調整の対象となるコンテンツは、リードオンリーメディアに記録されているものを再生して視聴することを前提にして説明したが、奥行き調整の対象となるコンテンツは、例えば放送波などの無線、ケーブルなどの有線、あるいは他の記録媒体(例えばハードディスクなどの磁気記録媒体、またはフラッシュメモリ、SDカードなどの半導体メモリ)を介して提供されていても構わない。特に、ネットワーク上の記録媒体から奥行き調整の対象となるコンテンツを取得しようとする場合、ネットワーク上の記録媒体は、“ネットワークドライブ”として捉えることが可能である。“ネットワークドライブ”は、クライアントプログラム及びサーバプログラムがプロトコルスタックを通じたファイル転送プロトコルを実行することにより、アクセスが可能になるから、再生装置が上記、クライアントプログラムとしての処理を行うことにより、ネットワーク上の記録媒体から第1実施形態で述べたデジタルストリームやシナリオデータを読み出してデコーダに供給することができる。
 また無線、有線の放送媒体から奥行き調整の対象となるコンテンツを取得しようとする場合、無線、有線の放送媒体における放送局では、記録媒体のファイルシステム上に存在するディレクトリ・ファイル構造をアーカイブプログラムでアーカイブして、アーカイブプログラムにより得られたアーカイブファイルをオブジェクトカルーセル方式により繰り返し送信する。そして再生装置側では、かかるアーカイブファイルを受信して、当該アーカイブファイルに格納されているディレクトリ・ファイル構造を、装置内のキャッシュに展開することにより、自装置の記録媒体におけるディレクトリ・ファイル構造として捉えてアクセする。よって、再生装置は、アーカイブファイルに格納されているディレクトリ・ファイル構造を、装置内のキャッシュに展開することで、第1実施形態で述べたデジタルストリームやシナリオデータを読み出してデコーダに供給することができる。
 (立体視視聴のバリエーション)
 シャッター眼鏡500を用いた形で立体視視聴を行う方法を前提にして説明したが、他の、左目映像・右目映像をそれぞれ左目・右目に視聴させる方式を利用していても良い。例えばサイドバイサイド方式や、レンチキュラレンズなどを表示ディスプレイに使い、眼鏡などの特別な視聴器具を利用しない方式を用いていても構わない。
  (スキップ時の奥行き調整)
 本実施の形態では、リードオンリーメディアに記録されているものを再生して視聴することを前提としたが、ホームビデオでユーザー自身が編集したものを再生する場合は、奥行き量の大きな変化が発生するケースが頻繁に発生する。特に、BD-ROMなどの再生専用のコンテンツの場合は、作成者が視聴者の目に配慮した撮影方法や、チャプター区切りなどに配慮しているが、ホームビデオの場合は、撮影者や編集者がユーザー自身であり、奥行き量の変化に配慮していることは少ない。このような場合は、チャプタージャンプであってもシーン切替命令と解釈してもよい。
 (ビデオデコーダの拡張性)
 図5の構成図にはビデオデコーダ、ビデオプレーンを各一つずつ有しているが、例えば高速化を用途に左目用の映像を処理するビデオデーダ、ビデオプレーンと右目用の映像を処理するビデオデーダ、ビデオプレーンをそれぞれ設け、並行に処理をするようにしてもよい。
 (切替開始フレームの選択)
 切替先可変時のシーンジャンプでは、要求時点の出力映像のフレームとして、シーンの要求時点フレームとのその前後n枚の連続したフレームの奥行き量の中から、切替開始のフレームを選択する構成を例に説明をしたが、シーンの切替先フレームとこれに後続するm枚の連続したフレームの奥行き量の中から、切替開始のフレームを選択するような構成であっても良い。
 (オフセット調整のバリエーション)
 切替先固定時のシーンジャンプでは、目的奥行き量Z(Fd)をもつフレームFdになるまで目的奥行き量Z(Fd)を維持するようプレーンオフセットを決定したが、もちろんFdに達するまでに段階的に目的奥行き量Z(Fd)に近づくようオフセットを調整してもよい。
 また第1実施形態では、次元切替要求を受けた際、選択されたフレームFdになるまで、2次元処理を続けると記載したが、プレーンオフセット決定部を使用して、フレームFdの奥行きになるまで段階的に奥行き量が変化するようにビデオプレーンをシフトさせてもよい。具体的にいうと、プレーンシフトエンジン5は、3D再生モードの切替前のカレント処理フレームFcの奥行き量Z(Fc)を初期値とし、前記オフセット基準フレームFdの奥行き量Z(Fd)を目標値として、プレーンシフトエンジン5のプレーンシフトに適用すべきオフセットを段階的に変化させる。この段階的な変化にあたって、オフセット基準フレームFdと、カレント処理フレームFcとの間のフレーム数を求め、このフレーム数で、奥行き量の差分|Z(Fd)-F(Fc)|を割る。こうすることで、一フレーム当りのオフセット変化量を求める。一フレーム当りのオフセット変化量に基づいたオフセットの増分を、オフセット基準フレームFdと、カレント処理フレームFcとの間に位置する各フレームに与えることで、オフセットを変化させるのである。こうすることで、奥行き量の単調変化を実現することができる。
 (切替先フレーム選択のバリエーション)
 また、本実施の形態では、全ての切替命令についての処理において、切替先フレームを含む複数のフレームの中から切替時に発生する奥行き量変化が最小になるフレームを選択し、選択したフレームに達したときに3D表示をするための処理を開始したり、切替先フレームから選択したフレームに達するまでの間は選択したフレームに対応する奥行き量を維持するように表示を行う例に関して説明をしたが、切替時に発生する奥行き量変化の最高値Zmaxを指定しておき、Zmaxより小さい値になる切替後フレームに最も近接したフレームを選択するという方法や、重みを付けて、切替先フレームから隣接したフレームを優先的に選択するという方法をとってもよい。
 (奥行き量取得のバリエーション)
 各プレーンの奥行き量は、シナリオメモリに読み出されたシナリオデータから取得してもよい。ここで、シナリオデータにはプレイリスト情報が含まれる。プレイリスト情報を構成する複数のプレイアイテム情報のそれぞれは、基本ストリーム選択テーブルを含み、プレイリスト情報自身は拡張ストリーム選択テーブルを含む。基本ストリーム選択テーブルは、ストリーム番号に対応付けられた、平面視再生モードにおいて再生されるエレメンタリストリームのリストを示す。
 拡張ストリーム選択テーブルは、ストリーム番号と同一のストリーム番号に対応付けられた、3Dモードにおいて再生されるエレメンタリストリームのリストを示す。この拡張ストリーム選択テーブルには、制御情報がストリーム番号に対応付けられている。ここで、3Dモードには、左目画像と右目画像とを用いて、立体視映像の再生を行うメイン-サブモードと、左目画像のみを用いて、平面視映像の再生を行うメイン-メインモードとがある。上記拡張ストリーム選択テーブルにおける制御情報は、グラフィクスがポップアップメニューであり、3Dモードがメイン-メイン再生モードである場合において、グラフィクスプレーンのプレーンシフトに利用すべきオフセットを有している。かかる拡張ストリーム選択テーブル内のオフセットは、左目画像、右目画像の視差を表すものであり、プレイアイテム情報毎に変化するものだから、かかるオフセットを奥行き量として奥行き量記憶部12に格納し、この奥行き量が多大にならないように奥行き調整を実行してもよい。
 また、トランスポートストリームの中に各プレーンの奥行き量が入っていてもよいし、入力された立体画像から奥行き量を計算し、取得するという方法をとってもよい。
 (ビデオストリーム供給のバリエーション)
 本実施の形態では、リードオンリーメディアに記録されているものを再生して視聴することを前提としたが、再生装置がネットワーク経由でダウンロードするための通信手段、ダウンロードしたデータを記憶するハードディスクなどの記憶手段を有するような構成であれば、本実施の形態を適用することができる。
 また、再生装置が放送波を受信するためのチューナなどの受信手段を備えるような構成であれば、例えばリードオンリーメディアに記録したものに相当するデータを受信するような場合において、チャンネル切り替え時などにおいて本実施の形態を適用することができる。
 (集積回路の実施形態)
 第1実施形態に示した再生装置のハードウェア構成のうち、記録媒体のドライブ部や、外部とのコネクタ等、機構的な部分を排除して、論理回路や記憶素子に該当する部分、つまり、論理回路の中核部分をシステムLSI化してもよい。システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものはマルチチップモジュールと呼ばれるが、このようなものも、システムLSIに含まれる。 
 ここでパッケージの種別に着目するとシステムLSIには、QFP(クッド フラッド アレイ)、PGA(ピン グリッド アレイ)という種別がある。QFPは、パッケージの四側面にピンが取り付けられたシステムLSIである。PGAは、底面全体に、多くのピンが取り付けられたシステムLSIである。 
 これらのピンは、電源供給やグランド、他の回路とのインターフェイスとしての役割を担っている。システムLSIにおけるピンには、こうしたインターフェイスの役割が存在するので、システムLSIにおけるこれらのピンに、他の回路を接続することにより、システムLSIは、再生装置の中核としての役割を果たす。 
 図17は、集積回路のアーキテクチャを示す図である。本図に示すように、システムLSIである集積回路70のアーキテクチャは、フロントエンド部71と、信号処理部72と、バックエンド部73と、メディアI/O74と、メモリコントローラ75と、ホストマイコン76とから構成され、メディアI/O74、メモリコントローラ75を通じて、再生装置におけるドライブやメモリ、送受信部と接続されている。再生装置におけるドライブには、リードオンリーメディアのドライブ、ローカルストレージのドライブ、リムーバブルメディアのドライブ等がある。
 フロントエンド処理部71は、プリプログラムされたDMAマスタ回路やI/Oプロセッサ等から構成され、パケット処理全般を実行する。このパケット処理には、デマルチプレクサによる処理が該当する。再生装置のメモリに確保された、リードバッファ、各種プレーンメモリ、各種バッファ間でDMA転送を実現することにより、上述したようなパケット処理を実現する。 
 信号処理部72は、信号処理プロセッサやSIMDプロセッサ等から構成され、信号処理全般を実行する。信号処理には、ビデオデコーダによるデコードやオーディオデコーダによるデコードがある。 
 バックエンド部73は、加算器、フィルタから構成され、AV出力処理全般を行う。AV出力処理には画素処理があり、かかる画素処理によってレイヤ合成のための画像重畳、リサイズ、画像フォーマット変換がなされる。また、デジタル/アナログ変換等を併せて実行する。 
 メディアI/O74は、ドライブ、ネットワークとのインターフェイスである。  
 メモリコントローラ75は、メモリアクセスのためのスレーブ回路であり、フロントエンド部、信号処理部、バックエンド部の要求に応じて、パケットやピクチャデータのメモリの読み書きを実現する。 このメモリコントローラ75を通じたメモリの読み書きによって、メモリは、リードバッファやビデオプレーン、グラフィクスプレーン、ビデオデコーダにおける各種バッファとして機能することになる。
 ホストマイコン76は、図5の調整部15に該当する構成要素であり、MPU,ROM,RAMから構成され、メディアインターフェイス、フロントエンド部、信号処理部、バックエンド部に対して、全体制御を実行する。この全体制御には、調整部を構成する、制御部16、開始位置決定部17、プレーンシフト量決定部18としての制御がある。このホストマイコンにおけるCPUは、命令フェッチ部、デコーダ、実行ユニット、レジスタファイル、プログラムカウンタを有している。そして、これまでの実施形態で述べた各種処理を実行するプログラムは、組込プログラムとして、基本入出力システム(BIOS)、様々なミドルウェア(オペレーションシステム)と共に、このホストマイコンにおけるマイコン内のROMに記憶されている。よって再生装置の主たる機能は、このシステムLSI内に組込んでおくことができる。 
 (プログラムの実施形態)
 各実施形態に示したプログラムは、以下のようにして作ることができる。先ず初めに、ソフトウェア開発者は、プログラミング言語を用いて、各フローチャートや、機能的な構成要素を実現するようなソースプログラムを記述する。この記述にあたって、ソフトウェア開発者は、プログラミング言語の構文に従い、クラス構造体や変数、配列変数、外部関数のコールを用いて、各フローチャートや、機能的な構成要素を具現するソースプログラムを記述する。 
 記述されたソースプログラムは、ファイルとしてコンパイラに与えられる。コンパイラは、これらのソースプログラムを翻訳してオブジェクトプログラムを生成する。 
 コンパイラによる翻訳は、構文解析、最適化、資源割付、コード生成といった過程からなる。構文解析では、ソースプログラムの字句解析、構文解析および意味解析を行い、ソースプログラムを中間プログラムに変換する。最適化では、中間プログラムに対して、基本ブロック化、制御フロー解析、データフロー解析という作業を行う。資源割付では、ターゲットとなるプロセッサの命令セットへの適合を図るため、中間プログラム中の変数をターゲットとなるプロセッサのプロセッサが有しているレジスタまたはメモリに割り付ける。コード生成では、中間プログラム内の各中間命令を、プログラムコードに変換し、オブジェクトプログラムを得る。 
 ここで生成されたオブジェクトプログラムは、各実施形態に示したフローチャートの各ステップや、機能的構成要素の個々の手順を、コンピュータに実行させるような1つ以上のプログラムコードから構成される。ここでプログラムコードは、プロセッサのネィティブコード、JAVA(TM)バイトコードというように、様々な種類がある。プログラムコードによる各ステップの実現には、様々な態様がある。外部関数を利用して、各ステップを実現することができる場合、この外部関数をコールするコール文が、プログラムコードになる。また、1つのステップを実現するようなプログラムコードが、別々のオブジェクトプログラムに帰属することもある。命令種が制限されているRISCプロセッサでは、算術演算命令や論理演算命令、分岐命令等を組合せることで、フローチャートの各ステップを実現してもよい。 
 オブジェクトプログラムが生成されるとプログラマはこれらに対してリンカを起動する。リンカはこれらのオブジェクトプログラムや、関連するライブラリプログラムをメモリ空間に割り当て、これらを1つに結合して、ロードモジュールを生成する。こうして生成されるロードモジュールは、コンピュータによる読み取りを前提にしたものであり、各フローチャートに示した処理手順や機能的な構成要素の処理手順を、コンピュータに実行させるものである。かかるコンピュータプログラムを非一時的なコンピュータ読取可能な記録媒体に記録してユーザに提供してよい。
 本発明は、平面視映像と立体視映像を再生する再生機器において、出力映像の急激な奥行き変化を抑止する技術に関し、特に平面的な映像次元モードと立体的な映像次元モードの切替機能や、シーン切替機能を持つ立体視映像再生装置における切替時に生じる、出力映像の急激な奥行き変化を抑止する立体視再生装置に適用可能である。
   2 デマルチプレクサ
   3 ビデオデコーダ
   4 ビデオプレーン
   5 プレーンシフトエンジン
   9 左右処理記憶部
  12 次元判定部
  12 奥行き記憶部
  17 開始位置決定部
  18 プレーンオフセット決定部
 100 リードオンリーメディア
 200 再生装置
 300 リモコン
 400 ディスプレイ
 500 シャッター/偏光眼鏡

Claims (11)

  1. 立体視可能な3次元映像を出力する再生装置であって、
     装置外部からビデオストリームを取得する取得手段と、
     取得したビデオストリームをデコードして、3次元映像の出力を行う再生手段と、
     再生手段における再生状態を管理する状態管理手段と、
     再生状態が変化した場合、ビデオストリームの時間軸のうち変化時点の前に位置する複数のフレーム、及び、変化時点の後に位置する複数のフレームの中から奥行き変化の基準とすべきものを選び、その選んだフレームを用いて、3次元映像における奥行きを調整する調整手段と
     を備える再生装置。
  2. 前記調整手段は、制御部を備え、
     前記再生状態の変化は、制御部が外部からの再生状態の切替要求を受け付けて、切替要求に係る処理を実行することでなされ、
     前記奥行き変化の基準とすべきフレームの選択は、
     切替要求に係る処理を開始するよう要求された要求時点以降に位置する複数のフレームについての視差量、及び/又は、当該要求時点以前に位置する複数のフレームについての視差量を、切替要求の発生時点に対応するフレームの視差量と比較し、比較結果に応じて、要求時点以降に位置する複数のフレーム、及び/又は、当該要求時点以前に位置する複数のフレームのうち、1つのフレームを決定することでなされる
     ことを特徴とする請求項1記載の再生装置。
  3.  前記再生装置は更に、複数の視差量を記憶するための視差量記憶部を備え、
     切替要求が発生した際、前記取得手段は、切替要求に係る処理を開始するよう要求された要求時点以降に位置するフレームについての視差量、及び、当該要求時点以前に位置するフレームについての視差量を視差量記憶部に記憶し、
     前記開始位置決定部により、奥行き変化の基準とすべきフレームとして決定されるフレームとは、
     要求時点以降に位置する複数のフレーム、及び/又は、当該要求時点以前に位置する複数のフレームのうち、視差量記憶部に記憶された各視差量との差分が最小となるフレームである
     ことを特徴とする請求項2記載の再生装置。
  4.  前記調整手段は、開始位置決定部を備え、
     前記開始位置決定部は、切替要求に係る処理を開始すべき開始時点を決めるものであり
     調整手段による奥行き調整は、
     ビデオストリームの時間軸における奥行き変化の基準とすべきフレームの再生時点を、開始位置決定部が切替要求に係る処理を開始すべき開始時点として決定することでなされる、請求項2記載の再生装置。
  5.  前記切替要求とは、2次元映像の次元モードから3次元映像の次元モードへの切替を要求する次元切替要求であり、
     前記奥行き変化の基準として決定されるフレームとは、
     次元切替要求に係る処理を開始するよう要求された要求時点以降に位置する複数のフレームのうち、次元切替要求の発生時点となるフレームとの視差量の差分が最も少ないフレームである、請求項4記載の再生装置。
  6.  前記切替要求とは、何れか1つの3次元映像シーンから他の3次元映像シーンへの切替を要求するシーン切替要求であり、
     前記奥行き変化の基準として決定されるフレームとは、
     前記シーン切替要求に係る処理を開始するよう要求された要求時点以前に位置する複数のフレーム、及び、当該要求時点以降に位置する複数のフレームのうち、シーン切替要求の発生時点となるフレームとの視差量の差分が最も少ないフレームである、請求項4記載の再生装置。
  7.  前記再生手段は、一画面分の画素データを格納するプレーンメモリと、
     プレーンメモリに格納されている画素データのそれぞれの座標を、所定のオフセットだけ水平方向に移動させることによりプレーンシフトを実行するシフトエンジンとを備え、
     前記3次元映像は、プレーンメモリに格納されている画素データの座標を右方向に移動させることで得られる右目画像と、プレーンメモリに格納されている画素データの座標を左方向に移動させることで得られる左目画像とから構成され、
     前記切替要求とは、何れか1つの3次元映像から他の3次元映像への切替を要求するシーン切替要求であり、
     前記奥行き変化の基準となるフレームとは、プレーンシフトにあたってのオフセットの基準となる視差量を有しているオフセット基準フレームであり、
     前記オフセット基準フレームは、シーン切替要求に係る処理を開始するよう要求された要求時点以降に位置する複数のフレームのうち、シーン切替要求の発生時点となるフレームとの視差量の差分が最も少ないフレームを決めることで選択される、請求項2記載の再生装置。
  8.  前記調整手段による奥行き調整は、
     シーン切替要求に係る処理を開始するよう要求された要求時点のフレームから、前記オフセット基準フレームまでの期間に属する各フレームの映像出力にあたって、前記シフトエンジンがオフセット基準フレームの視差量に対応するオフセットを、水平方向のオフセットとして用いることでなされる、請求項7記載の再生装置。
  9.  前記シフトエンジンは、
     3次元映像の次元モードの切替前のフレームの視差量を初期値とし、前記オフセット基準フレームの視差量を目標値として、各フレームを3次元出力するにあたって、プレーンシフトに適用すべきオフセットを段階的に変化させる、
     請求項8記載の再生装置。
  10. 立体視可能な3次元映像を出力する再生装置に組込むことができる集積回路であって、
     装置外部からビデオストリームを取得する取得手段と、
     取得したビデオストリームをデコードして、3次元映像の出力を行う再生手段と、
     再生手段における再生状態を管理する状態管理手段と、
     再生状態が変化した場合、ビデオストリームの時間軸のうち変化時点の前に位置する複数のフレーム、及び、変化時点の後に位置する複数のフレームの中から奥行き変化の基準とすべきものを選び、その選んだフレームを用いて、3次元映像における奥行きを調整する調整手段と
     を備える集積回路。
  11. 立体視可能な3次元映像の出力をコンピュータに行わせるプログラムであって、
     ビデオストリームを取得する取得ステップと、
     取得したビデオストリームをデコードして、3次元映像の出力を行う再生ステップと、
     再生ステップにおける再生状態を管理する状態管理ステップと、
     再生状態が変化した場合、ビデオストリームの時間軸のうち変化時点の前に位置する複数のフレーム、及び、変化時点の後に位置する複数のフレームの中から奥行き変化の基準とすべきものを選び、その選んだフレームを用いて、3次元映像における奥行きを調整する調整ステップとをコンピュータに実行させる
     ことを特徴とするプログラム。
PCT/JP2011/002730 2010-05-28 2011-05-17 立体視映像の再生装置、集積回路、プログラム WO2011148587A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180002850.XA CN102474650B (zh) 2010-05-28 2011-05-17 立体观察影像的再现装置、集成电路、再现方法
US13/379,501 US8712225B2 (en) 2010-05-28 2011-05-17 Playback device for stereoscopic viewing, integrated circuit, and program
JP2012517119A JP5624132B2 (ja) 2010-05-28 2011-05-17 立体視映像の再生装置、集積回路、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-122216 2010-05-28
JP2010122216 2010-05-28

Publications (1)

Publication Number Publication Date
WO2011148587A1 true WO2011148587A1 (ja) 2011-12-01

Family

ID=45003588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002730 WO2011148587A1 (ja) 2010-05-28 2011-05-17 立体視映像の再生装置、集積回路、プログラム

Country Status (4)

Country Link
US (1) US8712225B2 (ja)
JP (1) JP5624132B2 (ja)
CN (1) CN102474650B (ja)
WO (1) WO2011148587A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202910B2 (ja) * 2012-08-13 2017-09-27 キヤノン株式会社 映像処理装置およびその制御方法、プログラム
JP2014207519A (ja) * 2013-04-11 2014-10-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および電子機器
US9214926B2 (en) * 2014-03-23 2015-12-15 Nanya Technology Corporation Three dimensional integrated circuit and method for controlling the same
KR20180052613A (ko) 2015-09-10 2018-05-18 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10172004A (ja) * 1996-12-04 1998-06-26 Canon Inc 立体画像表示方法
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2005109568A (ja) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd 映像表示装置及びプログラム
JP2009239388A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 立体動画像処理装置および方法並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070236493A1 (en) 2003-05-27 2007-10-11 Keiji Horiuchi Image Display Apparatus and Program
JP5132386B2 (ja) * 2008-03-25 2013-01-30 キヤノン株式会社 撮像装置及び固定パタンノイズの補正方法
JP4625515B2 (ja) * 2008-09-24 2011-02-02 富士フイルム株式会社 3次元撮影装置および方法並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10172004A (ja) * 1996-12-04 1998-06-26 Canon Inc 立体画像表示方法
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2005109568A (ja) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd 映像表示装置及びプログラム
JP2009239388A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 立体動画像処理装置および方法並びにプログラム

Also Published As

Publication number Publication date
CN102474650A (zh) 2012-05-23
US20120099843A1 (en) 2012-04-26
CN102474650B (zh) 2014-12-17
JP5624132B2 (ja) 2014-11-12
JPWO2011148587A1 (ja) 2013-07-25
US8712225B2 (en) 2014-04-29

Similar Documents

Publication Publication Date Title
JP5632291B2 (ja) 特殊再生を考慮した再生装置、集積回路、再生方法
JP6846130B2 (ja) 3dビデオ上に3dグラフィックスをオーバレイするための方法及び装置
JP5341946B2 (ja) 立体視再生を行う再生方法、立体視再生装置
JP5368463B2 (ja) 立体視映像再生装置、及び立体視映像表示装置
JP5480948B2 (ja) 再生装置、再生方法、プログラム
JP5457513B2 (ja) 立体視映像を再生することができる再生装置
JP5728649B2 (ja) 再生装置、集積回路、再生方法、プログラム
RU2552137C2 (ru) Точки входа для ускоренного 3d-воспроизведения
JP2011172255A (ja) メタデータを用いて複数の映像ストリームを処理する方法及び装置
JP2012085301A (ja) 3次元映像信号処理方法及びこれを具現する携帯型3次元ディスプレイ装置
JP5469125B2 (ja) 記録媒体、再生装置、再生方法、プログラム
JP5624132B2 (ja) 立体視映像の再生装置、集積回路、プログラム
EP2408214A2 (en) Playback apparatus, playback method, and program
JP2014511625A (ja) 立体3dビデオ情報をオーサリングするための方法および装置、ならびにその立体3dビデオ情報を表示するための方法および装置
JP2011049767A (ja) 動画再生方法、動画再生システム、およびプログラム
JP2010178369A (ja) 映像合成装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002850.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13379501

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012517119

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11786291

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11786291

Country of ref document: EP

Kind code of ref document: A1