WO2013021527A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2013021527A1
WO2013021527A1 PCT/JP2012/003307 JP2012003307W WO2013021527A1 WO 2013021527 A1 WO2013021527 A1 WO 2013021527A1 JP 2012003307 W JP2012003307 W JP 2012003307W WO 2013021527 A1 WO2013021527 A1 WO 2013021527A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
output mode
unit
processing unit
Prior art date
Application number
PCT/JP2012/003307
Other languages
English (en)
French (fr)
Inventor
正貴 高橋
好伸 的野
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Publication of WO2013021527A1 publication Critical patent/WO2013021527A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Definitions

  • the present invention relates to an image processing technique.
  • 3D displays such as 3D (three-dimensional) televisions
  • 3D display provides a stereoscopic image by showing a left-eye image and a right-eye image to the user.
  • According to recent image processing technology it is also possible to create a left-eye image and a right-eye image by performing arithmetic processing on a 2D (two-dimensional) image.
  • a format for recording a plurality of image data related to each other is defined as the functions and performance of a digital camera are improved.
  • the standard established by the Camera & Imaging Products Association (Camera & Imaging Products Association) defines a data structure for recording multiple image data and uses this data structure to create a multi-picture format (Multi- A format called “Picture (Format)” is defined.
  • Multi- A format called “Picture (Format)” is defined.
  • “multi-view” is defined as an image type, and the multi-view has a sub-type “stereoscopic view”. This image type is determined by the user setting the shooting mode at the time of shooting with the digital camera, and the two shot image data are stored as one image file including the image type code by the internal circuit of the digital camera. It is put together.
  • 3D images create a three-dimensional effect using the shift (parallax amount) between the left and right images.
  • the present inventor has obtained as knowledge that there is a possibility that the user may feel uncomfortable if the parallax amount of each 3D image is different.
  • the present inventor has also obtained knowledge that there is a possibility that the user may feel uncomfortable when moving the 3D image on the screen. Accordingly, the present inventor has developed a technique for providing an image that can be comfortably viewed by a user on a 3D display.
  • a user often wants to display 3D pictures taken with a digital camera in 3D, but there are also users who want to display 2D on a 3D display. Since this depends on user preferences, it is preferable that appropriate options can be provided to the user.
  • an object of the present invention is to provide a technique for appropriately reproducing image data.
  • an image processing apparatus includes a display image generation unit that generates a 2D image or a 3D image, a display processing unit that displays an image generated by the display image generation unit, and a screen. And a reproduction control unit that controls display of the display processing unit based on the display status of the display.
  • the reproduction control unit causes the display processing unit to stop displaying the 3D image and display the 2D image. Display.
  • FIG. 1 It is a figure which shows the use environment of the image processing system concerning the Example of this invention. It is a figure which shows the external appearance structure of an input device. It is a functional block diagram of an image processing apparatus. It is a figure which mainly shows the functional block of a control part. It is a figure which shows an example of the menu screen displayed on a display apparatus. It is a figure which shows the notification image displayed on a display screen so that it may overlap. It is a figure which shows a confirmation screen. (A) And (b) is explanatory drawing of a cross fade effect. (A) And (b) is explanatory drawing of a normal production. It is a figure which shows the example which displayed the several photograph image on the grid. It is a figure which shows the example which displayed the menu display area on the image.
  • FIG. 1 shows a use environment of an image processing system 1 according to an embodiment of the present invention.
  • the image processing system 1 includes an input device 20 operated by a user, an image processing device 10 that executes image processing software, and a display device 12 that outputs a processing result by the image processing device 10.
  • the display device 12 is a 3D display, and may be a television having a display for outputting an image and a speaker for outputting sound, or may be a computer display.
  • the display device 12 may be connected to the image processing device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network).
  • the image processing device 10, the input device 20, and the display device 12 may be configured as a portable terminal device that is integrally formed and has an image processing function.
  • the image processing apparatus 10 can connect to an external device such as a personal computer via the cable 14 and acquire image data from the external device.
  • the image processing apparatus 10 has a USB (Universal Serial Bus) terminal, and can connect to a digital camera with a USB cable to acquire image data from the digital camera.
  • the image processing apparatus 10 includes a media drive, and may acquire image data from a ROM medium, or may acquire image data from an external server or the like via a network.
  • the image processing device 10 is, for example, a game device, and realizes an image processing function by loading an application program for image processing.
  • the image processing apparatus 10 may be a personal computer, and may implement an image processing function by loading an image processing application program.
  • the image processing apparatus 10 of this embodiment has a function of displaying a 3D image on the display device 12 using image data captured as a stereoscopic image in a multi-picture format.
  • the image processing apparatus 10 may have a function of converting 2D image data into 3D image data and displaying a 3D image.
  • the image processing apparatus 10 also has a function of executing three-dimensional computer graphics (3DCG).
  • the image processing apparatus 10 includes a geometry engine and a rendering engine.
  • the geometry engine performs perspective transformation after setting a light source and a virtual camera, and the rendering engine uses a frame buffer based on the perspective transformed data.
  • Draw an object on The geometry engine may set two virtual cameras so that their respective gaze directions intersect, and the rendering engine may display 3D images on the display device 12 by rendering data from the respective virtual cameras. it can.
  • FIG. 2 shows an external configuration of the input device 20.
  • the input device 20 includes a cross key 21, analog sticks 27a and 27b, and four types of operation buttons 26 as operation means that can be operated by the user on the surface of the casing.
  • the four types of operation buttons 26 include a circle button 22, a x button 23, a square button 24, and a triangle button 25.
  • an L1 button 29a is provided on the left side and an R1 button 29b is provided on the right side on the rear surface of the casing of the input device 20. The user operates the operation means by holding the left grip 28a with the left hand and the right grip 28b with the right hand.
  • the input device 20 has a function of transmitting an operation signal input by a user to the image processing device 10, and is configured to be capable of wireless communication with the image processing device 10 in this embodiment.
  • the input device 20 and the image processing device 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol, an IEEE802.11 protocol, or the like. Note that the input device 20 may be connected to the image processing device 10 via a cable and transmit an operation signal input by the user to the image processing device 10.
  • FIG. 3 shows a functional block diagram of the image processing apparatus 10.
  • the image processing apparatus 10 includes a wireless interface 40, a switch 42, a display processing unit 44, a hard disk drive 50, a recording medium mounting unit 52, a disk drive 54, a main memory 60, a buffer memory 70, and a control unit 100.
  • the display processing unit 44 has a frame memory that buffers data to be displayed on the display of the display device 12.
  • the switch 42 is an Ethernet switch (Ethernet is a registered trademark), and is a device that transmits and receives data by connecting to an external device in a wired or wireless manner.
  • the switch 42 is connected to the wireless interface 40, and the wireless interface 40 is connected to the input device 20 using a predetermined wireless communication protocol.
  • An operation signal input from the user in the input device 20 is supplied to the control unit 100 via the wireless interface 40 and the switch 42.
  • the switch 42 is connected to an external device via the cable 14 and acquires a plurality of image files from the external device.
  • the image file may be an image file (hereinafter also referred to as “MP file”) defined in a multi-picture format (hereinafter referred to as “MP format”), and is defined in a normal format such as JPEG or GIF. Image file.
  • the hard disk drive 50 functions as an auxiliary storage device that stores data.
  • the image file received via the switch 42 is stored in the hard disk drive 50.
  • the image file stored in the hard disk drive 50 is decoded and stored in the buffer memory 70.
  • the recording medium loading unit 52 reads data from the removable recording medium when a removable recording medium such as a memory card is loaded.
  • a removable recording medium such as a memory card
  • the disk drive 54 drives and recognizes the ROM disk to read data.
  • the ROM disk may be an optical disk or a magneto-optical disk.
  • the image file is recorded on a removable recording medium or a ROM disk, and may be installed from the recording medium mounting unit 52 or the disk drive 54 to the hard disk drive 50, and is decoded and displayed in the buffer memory 70 when the display process is executed. It may be stored.
  • the control unit 100 includes a multi-core CPU, and has one general-purpose processor core and a plurality of simple processor cores in one CPU.
  • the general-purpose processor core is called PPU (Power Processing Unit), and the remaining processor cores are called SPU (Synergistic-Processing Unit).
  • the control unit 100 includes a memory controller connected to the main memory 60 and the buffer memory 70.
  • the PPU has a register, has a main processor as an operation execution subject, and efficiently assigns a task as a basic processing unit in an application to be executed to each SPU. Note that the PPU itself may execute the task.
  • the SPU has a register, and includes a sub-processor as an operation execution subject and a local memory as a local storage area.
  • the local memory may be used as the buffer memory 70.
  • the main memory 60 and the buffer memory 70 are configured as a RAM (random access memory).
  • the SPU has a dedicated DMA (Direct Memory Access) controller as a control unit, can transfer data between the main memory 60 and the buffer memory 70 at high speed, and the frame memory and the buffer memory 70 in the display processing unit 44 High-speed data transfer can be realized.
  • the control unit 100 according to the present embodiment realizes a high-speed image processing function by operating a plurality of SPUs in parallel.
  • the display processing unit 44 is connected to the display device 12 and outputs an image processing result by the control unit 100.
  • FIG. 4 mainly shows functional blocks of the control unit 100.
  • the control unit 100 includes an input receiving unit 102, an output mode processing unit 110, and a reproduction processing unit 130.
  • the output mode processing unit 110 has a function of managing the display output mode by the display processing unit 44, and includes a mode setting unit 112, a determination unit 114, a notification image generation unit 116, and a confirmation image generation unit 118.
  • the reproduction processing unit 130 has a function of reproducing image data, and includes a reproduction control unit 132, a display image generation unit 134, a display target determination unit 136, and an image data reading unit 138. At least some of these functions are realized by an image reproduction application (hereinafter referred to as “image viewer”) installed in the image processing apparatus 10.
  • image viewer an image reproduction application
  • each element described as a functional block for performing various processes can be configured by a CPU (Central Processing Unit), a memory, and other LSIs in terms of hardware. This is realized by a program loaded on the computer.
  • the control unit 100 is provided with one PPU and a plurality of SPUs, and each functional block can be configured by the PPU and the SPU individually or in cooperation. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the display information storage unit 150 is configured in the storage area of the hard disk drive 50, and stores display information such as the display size, resolution, and output format of the display device 12.
  • the display information is registered by the user when the image processing apparatus 10 is connected to the display apparatus 12.
  • the system software of the image processing apparatus 10 inquires the display apparatus 12, and the display apparatus 12 displays the display information as an image.
  • the processing apparatus 10 may be notified.
  • the output format of the display device 12 is information indicating whether 3D display is possible or only 2D display is possible.
  • 3D correspondence an output format capable of three-dimensional display
  • 2D correspondence an output format capable of only two-dimensional display
  • the image data storage unit 152 stores a plurality of image data.
  • the image viewer of this embodiment can reproduce not only photographic images stored in the hard disk drive 50 but also photographic images recorded on an external recording medium. Therefore, in this embodiment, the image data storage unit 152 is not limited to the hard disk drive 50, and may be configured in a storage area of a recording medium on which image data to be reproduced is recorded.
  • FIG. 4 shows a state in which the image data storage unit 152 is configured in the storage area of the hard disk drive 50.
  • the system software performs a file check with reference to attached information included in the image file when the image file is installed in the hard disk drive 50. If the image file is normal, the system software extracts at least part of the attached information and stores it in the attribute information storage unit 154 as attribute information.
  • the attached information extracted in this embodiment includes data displayed on the menu screen such as a thumbnail image.
  • the system software may specify the display format of the MP file from the MP file type code and store it in the attribute information storage unit 154 as attribute information.
  • the system software may reduce the image data and generate a thumbnail image.
  • FIG. 5 shows an example of a menu screen displayed on the display device 12.
  • the system software generates a menu image.
  • the folder image 200 indicates a folder of photo contents.
  • Icon images 202, 204, and 206 are arranged in the vertical direction.
  • the user operates the input device 20 to scroll and move a desired icon image to the position of the focus area, and presses a predetermined button of the input device 20 to execute processing associated with the icon image. Can be made.
  • the icon image 202 of the photo content is arranged in the focus area, and when the user presses the ⁇ button 22 of the input device 20, a playback instruction is generated and the image viewer is activated.
  • the menu screen shown in FIG. 5 does not show the icon image of the recording medium on which the image data is recorded. However, the icon image of the recording medium is displayed immediately below the photo icon image, and the icon image of the recording medium is displayed directly below or right of the medium icon image. On the other hand, icon images 202, 204, and 206 may be arranged.
  • the system software generates an icon image using the thumbnail image if the image file contains a thumbnail image, and reduces the image data if the thumbnail image is not included in the image file.
  • To generate an icon image If the image file is an MP file, the system software reads the attribute information from the hard disk drive 50, identifies the thumbnail image of the individual image for which the representative image flag is set to 1, and generates an icon image.
  • the display processing unit 44 outputs the menu image data to the display device 12 and a menu screen is displayed on the display device 12.
  • the output mode processing unit 110 When the user presses a predetermined button on the input device 20 on the menu screen shown in FIG. 5, an image file playback instruction is formed and the image viewer is activated. Thereby, the reproduction process of the image file specified by the icon image 202 arranged in the focus area is started.
  • the output mode processing unit 110 first determines the display output mode.
  • the display output mode is a mode for specifying whether to display a 2D image or a 3D image from the display device 12.
  • the reproduction processing unit 130 When the output mode processing unit 110 determines the display output mode, the reproduction processing unit 130 generates a display image according to the determined display output mode.
  • the mode setting unit 112 has a function of selectively setting the 2D display output mode and the 3D display output mode. When the image viewer is activated, the mode setting unit 112 sets the 2D display output mode.
  • the display target determining unit 136 determines an image file to be displayed.
  • the display target determining unit 136 determines the image file specified by the icon image 202 as the display target, and the image data reading unit 138 receives the image file to be displayed and the display target from the image data storage unit 152.
  • the attribute information is read and supplied to the display image generation unit 134.
  • the reproduction control unit 132 instructs the display image generation unit 134 to generate a display image in the display output mode set by the mode setting unit 112.
  • the display image generation unit 134 decodes the image data according to the display output mode set by the mode setting unit 112, and generates display image data. Since the mode setting unit 112 sets the 2D display output mode when the image viewer is activated, the display image generation unit 134 generates 2D image data, and the display processing unit 44 displays the 2D image on the display device 12. Is output.
  • the notification image generation unit 116 generates a notification image indicating that the display output mode can be switched.
  • the notification image preferably indicates that the display output mode can be switched, and simultaneously presents an operation for switching the display output mode to the user.
  • a notification image is preferably formed including the button.
  • the notification image has a display form of “ ⁇ 2D / 3D”, where “2D / 3D” indicates that the display output mode can be switched, and “ ⁇ ” indicates that the operation button for switching is ⁇ Indicates that the button 24 is selected.
  • the determination unit 114 determines whether a notification image generation condition is satisfied. In the first place, if the display device 12 does not have a 3D-compatible display, the display output mode cannot be switched from the 2D display output mode to the 3D display output mode. Therefore, the notification image generation condition includes at least that the mode setting unit 112 sets the 2D display output mode and the display device 12 can perform 3D display.
  • the notification image generation unit 116 When the determination unit 114 determines that the notification image generation condition is satisfied, the notification image generation unit 116 generates notification image data, and the display processing unit 44 displays the notification image on the 2D display screen. Display images superimposed.
  • FIG. 6 shows a notification image displayed on the 2D display screen.
  • the display processing unit 44 arranges the notification image 210 generated by the notification image generation unit 116 at a predetermined position on the display screen. By viewing this notification, the user can recognize that the display image displayed in 2D can be switched to a 3D display image by pressing the ⁇ button 24.
  • the input receiving unit 102 receives a display output mode switching instruction.
  • Fig. 7 shows the confirmation screen.
  • the confirmation image generation unit 118 When the input reception unit 102 receives a display output mode switching instruction, the confirmation image generation unit 118 generates confirmation image data for display output mode switching, and the display processing unit 44 displays a confirmation screen on the display device 12.
  • the display processing unit 44 displays a confirmation screen on the display device 12.
  • the input reception unit 102 receives a confirmation instruction, and the mode setting unit 112 sets the display output mode to the 3D display output mode. Thereby, the display output mode is switched.
  • the playback control unit 132 instructs the display image generation unit 134 and the display processing unit 44 to change the output format of the currently displayed image file. Accordingly, the display image generation unit 134 generates 3D image data including the left-eye image data and the right-eye image data, and the display processing unit 44 outputs a 3D image from the display device 12.
  • the notification image 210 may be included in a menu selection item.
  • a menu selection item When the user operates a predetermined button, for example, during display of an image, a menu including a plurality of selection items is displayed over the display screen.
  • the input receiving unit 102 receives a display output mode switching instruction.
  • the user can input a display output mode switching instruction by selecting the notification image 210 and pressing the enter button.
  • a display of “2D / 3D” obtained by removing “ ⁇ ” from the notification image 210 shown in FIG.
  • the user can also switch the 3D display output mode to the 2D display output mode. Since the switching from the 3D display output mode to the 2D display output mode can be performed at any time in principle, the notification image 210 may be always displayed on the display screen during the 3D display output mode. Thus, the user can return to the 2D display output mode at any time by pressing the ⁇ button 24. As will be described later, during the 3D display output mode, the notification image 210 may be displayed when a predetermined condition is satisfied.
  • the confirmation screen shown in FIG. 7 is provided.
  • a confirmation image is generated.
  • the unit 118 does not generate a confirmation image. This is because it is not necessary to check again when switching to the 2D display output mode because dedicated glasses are not required to view the 2D display image.
  • the transition from the 3D display output mode to the 2D display output mode can be executed smoothly.
  • the display image generation unit 134 may determine 3D content image data as a display target. For example, in the MP format, an image file to which a stereoscopic type code is added is content that is originally scheduled to be displayed in 3D. Therefore, in such a case, it is preferable that the user can be notified that 3D display is possible.
  • the display image generation unit 134 has a 3D image as the notification image generation condition. Generating a display image from the data may be included. For example, when the display target determining unit 136 specifies an image file to be displayed, the determination unit 114 reads out the display format (type code) corresponding to the image file from the attribute information storage unit 154, and is a stereoscopic image. It is determined whether or not. When the image file to be displayed is switched from 2D content to 3D content, the determination unit 114 determines that the notification image generation condition is satisfied, and the notification image generation unit 116 displays the notification image shown in FIG.
  • the display format type code
  • the display processing unit 44 displays the notification image 210 superimposed on the 2D display image.
  • the output mode processing unit 110 can effectively provide the user with an opportunity to display 3D content in 3D.
  • the display processing unit 44 may display the notification image 210 so that the user can restore the display output mode.
  • the display processing unit 44 displays the notification image 210, and after the user switches from the 2D display output mode to the 3D display output mode according to the displayed notification image 210, the display image generation unit 134.
  • image data of 2D content may be determined as a display target. Since the 2D content image file is scheduled to be displayed in 2D, it is preferable that the user can be notified that 2D display is possible.
  • the user selects the 3D display output mode according to the notification image 210 and the display image generation unit 134 generates a display image from the 2D image data.
  • the notification image generation unit 116 generates notification image data
  • the display processing unit 44 displays the notification image 210 on the 3D display screen. Overlapping display.
  • the display processing unit 44 may display the notification image 210 so as to overlap the 3D-displayed screen on the condition that the reproduction processing of the photographic image is completed.
  • the display device 12 has a display capable of 3D output
  • the user can select whether to display an image in the 2D display output mode or to display an image in the 3D display output mode.
  • special mode glasses may be required, and the mode setting unit 112 defaults the 2D display output mode when the image viewer is activated. If the display device 12 is not 2D compatible but 3D compatible, the 3D display output mode may be set as a default.
  • the output mode processing unit 110 determines the display output mode.
  • the display order by the image viewer is set in advance for the plurality of image files stored in the image data storage unit 152.
  • This display order may be the order in which the image files are stored in the image data storage unit 152, or may be the order according to the generation date and time (shooting date and time) of each image file.
  • the image viewer provides the user with options for effects when switching images. There are at least the following two options.
  • Crossfade effect refers to an effect of switching the display image by fading in the other during fading out of one of the two display images. If the opacity of the display image generated by decoding the image data is 100%, and the opacity when the display image completely fades out and disappears from the screen is 0%, the first display image starts from the opacity of 100%. By fading out and fading in the second display image from 0% opacity before the opacity reaches 0%, a crossfade effect is realized.
  • Normal effect The normal effect is an effect that immediately switches between two display images. The instant switching is explained using the above opacity.
  • the opacity of the second display image is set to 0% without fading the first display image, and then the opacity of the second display image is set to 0.
  • Normal production is realized by setting the percentage from 100% to 100%. In normal performance, the opacity of the displayed image does not take an intermediate value of 0 to 100%.
  • Fade-out, Fade-in effect refers to the effect of fading out one display image and then fading in another display image to switch the display image. Unlike the cross fade effect, the first display image is faded out from the opacity of 100%, and after the opacity becomes 0%, the second display image is faded in from the opacity of 0%.
  • the user selects an effect when switching images.
  • an effect at the time of image switching a cross-fade effect is set by default, and the user interface may be configured so that a normal effect can be selected from a menu item when the user desires a normal effect. .
  • the crossfade effect and the normal effect will be described.
  • the reproduction control unit 132 controls switching of display images according to the display output mode set by the mode setting unit 112. Specifically, the playback control unit 132 changes the display image switching control when the display output mode is the 2D display output mode and when the display output mode is the 3D display output mode.
  • FIG. 8A shows a crossfade effect in the 2D display output mode
  • FIG. 8B shows a crossfade effect in the 3D display output mode.
  • the opacity of the previously displayed image hereinafter referred to as the “first display image”
  • the opacity of the “second display image” is gradually increased from 0% to 100% over time.
  • the second display image is not faded in after the fade-out of the first display image is completed, but the second display image is faded in during the fade-out of the first display image. Realized.
  • the opacity of the pixel value P0 is 100%.
  • the opacity of the pixel value P1 is (P1 / P0) ⁇ 100%. Therefore, when the display image completely fades out and the pixel value becomes 0, the opacity is 0%.
  • the playback control unit 132 controls the display image generation unit 134 to change the opacity of the first display image and the second display image as time passes, thereby crossfading the two display images.
  • the vertical axis represents opacity
  • the horizontal axis represents time
  • the thin line in the figure represents the change in opacity of the first display image
  • the thick line represents the second display image.
  • the start time and the end time of the crossfade effect are shown as t1 and t5.
  • the start time of the crossfade effect is a timing when the opacity of the first display image starts to drop from 100%
  • the end time is a timing when the opacity of the second display image reaches 100%.
  • a period (t1 to t5) from the start time to the end time of the crossfade effect is referred to as a “crossfade processing period”.
  • a first change line 230a indicates a change in opacity of the first display image
  • a second change line 230b indicates a change in opacity of the second display image.
  • the first change line 230a and the second change line 230b cross at the center (t3) of the crossfade processing period, and the opacity at that time is 50% for both.
  • the opacity of the first display image is ⁇ % in the crossfade processing period
  • the opacity of the second display image is expressed as (100 ⁇ )%
  • a first change line 232a indicates a change in opacity of the first display image
  • a second change line 232b indicates a change in opacity of the second display image.
  • the first change line 232a and the second change line 232b cross at the center (t3) of the crossfade processing period, and the opacity at that time is OP% ( ⁇ 50%) in both cases.
  • ( ⁇ + ⁇ )% is 100% or less.
  • First change line 232a and second change line 232b are set.
  • the amount of parallax between the first display image and the second display image may be different.
  • the parallax amount of the two display images is different, so that the user can easily feel discomfort.
  • the two 3D images are superimposed and displayed on the screen, so that the user can easily feel uncomfortable. Therefore, in the 3D display output mode, the amount of overlap between the two display images in the crossfade effect is reduced compared to the 2D display output mode, thereby providing an effect that is easy on the user's eyes.
  • the opacity (OP%) when the opacity of the first display image in the 3D display output mode is equal to the opacity of the second display image in the 3D display output mode is the first display in the 2D display output mode. It is set smaller than the opacity (50%) when the opacity of the image and the opacity of the second display image are equal.
  • the opacity of the two display images is equal (t3), the discomfort that the user learns is greatest when the parallax amounts of the two images are different. For this reason, by reducing the opacity OP% in the 3D display output mode at time t3, it is possible to reduce a sense of incongruity that the user learns.
  • the OP is preferably set to be 30 or less.
  • the fade-in start time of the second display image is time t1
  • the fade-out end time of the first display image is time t5. Therefore, in the cross-fade processing period, a period during which both the first display image and the second display image are displayed (overlap period) is a period from time t1 to time t5.
  • the fade-in start time of the second display image is time t2
  • the fade-out end time of the first display image is time t4. Therefore, the overlap period is a period from time t2 to t4.
  • the reproduction control unit 132 controls the image generation process in the display image generation unit 134 according to the display output mode.
  • the display image generation unit 134 adjusts the pixel value of the image data to be generated according to the change line shown in FIG. 8A or 8B.
  • the 3D display output mode it is possible to execute a crossfade effect that is easy on the eyes of the user.
  • the playback control unit 132 may control display processing in the display processing unit 44 in accordance with the display output mode.
  • the display processing unit 44 adjusts the pixel value of the 100% opacity image data generated by the display image generation unit 134 according to the change line shown in FIG. 8A or 8B. By leaving the adjustment of the pixel value to the display processing unit 44, the display image generation unit 134 does not need to generate image data for each frame, so that the processing load of the entire system can be greatly reduced.
  • FIG. 9A shows a normal effect in the 2D display output mode
  • FIG. 9B shows a normal effect in the 3D display output mode.
  • first display image the opacity of the previously displayed image
  • second display an image to be displayed immediately
  • the opacity of the image is increased from 0% to 100%. That is, in the normal effect, the opacity between 0% and 100% is not used, and the display of the second display image is started after the display of the first display image is completed.
  • the reproduction control unit 132 controls the display processing unit 44 or the display image generation unit 134 to immediately switch between the first display image and the second display image, thereby executing the normal effect.
  • “immediate switching” means not only the case where the display of the second display image is started simultaneously with the end of the display of the first display image, but also the display of the second display image after a short time has elapsed since the end of display of the first display image. Including the case of starting.
  • the vertical axis represents opacity
  • the horizontal axis represents time
  • the thin line in the figure represents the display state of the first display image
  • the thick line represents the display state of the second display image. Indicates.
  • the display end time of the first display image is indicated as t6.
  • the first line 240a indicates the display state of the first display image
  • the second line 240b indicates the display state of the second display image.
  • the second display image is displayed from the next frame after displaying the first display image. That is, in the 2D display output mode, the last frame of the first display image and the first frame of the second display image are continuous.
  • the first line 242a indicates the display state of the first display image
  • the second line 242b indicates the display state of the second display image.
  • the second display image is displayed several frames after the display of the first display image is completed.
  • the display end time of the first display image is t6, and the display of the second display image is started at t7 after several frames, for example, three frames later. That is, in the 3D display output mode, the last frame of the first display image and the first frame of the second display image are not continuous.
  • the switching period from the end of displaying the first display image to the start of displaying the second display image is set longer in the 3D display output mode than in the 2D display output mode.
  • the amount of parallax between the first display image and the second display image may be different.
  • FIG. 9A when the first display image and the second display image are continuously switched, the user feels a sense of discomfort because the amount of parallax between the two display images is different. It becomes easy. Therefore, in the 3D display output mode, a switching effect that is easy on the eyes of the user is provided by extending the image switching period compared to the 2D display output mode.
  • the inventor has obtained the knowledge that the uncomfortable feeling can be reduced by displaying an image of a predetermined color during the switching period in the 3D display output mode.
  • This predetermined color is, for example, black.
  • the difference in the amount of parallax between the two display images can be reset by sandwiching the black image in the switching period, thereby further reducing the discomfort felt by the user.
  • a black image may be sandwiched between the switching periods.
  • the switching period is set to be longer in the 3D display output mode than in the 2D display output mode.
  • the image display time is preferably longer in the 3D display output mode.
  • the reproduction control unit 132 controls the display processing of the display processing unit 44 in accordance with the display output mode, and the display processing unit 44 performs the switching processing shown in FIG. 9A or 9B.
  • the display processing unit 44 performs the switching processing shown in FIG. 9A or 9B.
  • the 3D display output mode is longer than the 2D display output mode in the switching period from the end of displaying the first display image to the start of displaying the second display image. Is set. Similarly to the normal effect, an image of a predetermined color may be displayed during the switching period, and the black image display time is set longer in the 3D display output mode. As a result, in the 3D display output mode, it is possible to execute fade-out and fade-in effects that are easy on the eyes of the user.
  • FIG. 10 shows an example in which a plurality of 3D photographic images are displayed in a grid.
  • the display image generation unit 134 generates 3D image data in which a plurality of photographs are arranged, and the display processing unit 44 displays the display image in which the plurality of 3D photographic images 250 are arranged on the display device 12.
  • the display image generation unit 134 generates left-eye image data and right-eye image data from an image file taken as a stereoscopic image in the multi-picture format, and the display processing unit 44 displays the left-eye image and the right-eye image on the screen. By displaying the image, a 3D image is displayed.
  • the display image generation unit 134 can generate left-eye image data and right-eye image data not only from a stereoscopic image file but also from a single piece of image data created in a format such as JPEG or GIF. .
  • the display processing unit displays a left-eye image data in which left-eye image data of a plurality of photos is arranged on a background image and a right-eye image data in which right-eye image data of a plurality of photos is arranged on a background image 12 is generated, the grid display screen shown in FIG. 10 is generated.
  • the display image generation unit 134 may include a geometry engine and a rendering engine to generate left-eye image data and right-eye image data.
  • the geometry engine arranges a plurality of photographic objects in the virtual space, sets the two virtual cameras so that their line-of-sight directions intersect, and the rendering engine sets the data from each virtual camera. By rendering, left-eye image data and right-eye image data are generated.
  • the display processing unit 44 outputs the generated left-eye image data and right-eye image data to the display device 12, thereby generating a grid display screen illustrated in FIG.
  • the display processing unit 44 displays the 3D image generated by the display image generation unit 134.
  • the reproduction control unit 132 controls the display of the display processing unit 44 based on the display state of the screen. Specifically, when the display processing unit 44 displays a 3D image and the display state of the screen becomes a predetermined state, the reproduction control unit 132 displays the 3D image on the display processing unit 44. Is controlled to display a 2D image.
  • the grid display screen shown in FIG. 10 is used when, for example, photographic images are collectively displayed for each shooting date. Therefore, when the display screen is scrolled, the entire display screen moves upward or downward, and photographic images taken on a date other than the displayed date are displayed.
  • the user can scroll the display screen by operating the analog stick 27b of the input device 20. For example, when the analog stick 27b is tilted upward (backward), the grid display screen is scrolled upward and downward ( When it is tilted forward, the grid display screen is scrolled downward.
  • the reproduction control unit 132 causes the display processing unit 44 to stop displaying the 3D image and display the 2D image.
  • the display processing unit 44 may display a 2D grid display screen using only one image data.
  • the playback control unit 132 instructs the display image generation unit 134 to generate a 2D image
  • the display processing unit 44 uses the 2D image data generated by the display image generation unit 134 to display a 2D grid display screen. May be displayed on the display device 12.
  • the display image generation unit 134 when the display image generation unit 134 generates image data for both eyes by rendering, the display image generation unit 134 makes the virtual images of the two virtual cameras coincide with each other so that the positions and the line-of-sight directions coincide with each other.
  • the display processing unit 44 displays a 2D grid display screen on the display device 12.
  • the playback control unit 132 monitors the moving speed of the display image, and when the moving speed exceeds a predetermined value, causes the display processing unit 44 to stop displaying the 3D image and display the 2D image. Also good. For example, when the moving speed of the display image exceeds a predetermined value, the 2D image may be displayed by generating the left-eye image data and the right-eye image data so that the parallax amount becomes smoothly zero. . Further, by reducing the amount of parallax according to the moving speed, a 2D image may be displayed when the moving speed exceeds a predetermined value. Thereby, it is possible to continue the 3D display during the low-speed scroll process while reducing the uncomfortable feeling that the user feels in the case of the high-speed scroll process.
  • FIG. 11 shows an example in which a menu display area is displayed on a 3D image.
  • a menu display area 260 for displaying a plurality of menu items is formed on the grid display screen displayed in 3D.
  • the plurality of menu items are displayed in 2D.
  • the menu display area 260 the menu item that the user wants to select is placed in the central focus area, and the process corresponding to the selected item is started by pressing the enter button.
  • Menu items arranged in the focus area may be displayed in 3D.
  • Menu items in the menu display area 260 are displayed in 2D outside the focus area. Therefore, if the grid display screen as the background is displayed in 3D, the background grid display screen may cause parallax inconsistencies that appear to pop out from the menu items. Therefore, the reproduction control unit 132 causes the display processing unit 44 to display the background image in 2D when another image is displayed on the display image. In this way, by avoiding the situation in which the 2D image is displayed on the 3D image, a display screen that is easy on the eyes can be provided to the user.
  • the playback control unit 132 controls the display of the display processing unit 44 .
  • the playback control unit 132 causes the display image generation unit 134 to stop generating 3D image data, and 2D image data.
  • the display processing unit 44 may display the 2D image on the display device 12 using the 2D image data generated by the display image generation unit 134.
  • DESCRIPTION OF SYMBOLS 1 ... Image processing system, 10 ... Image processing apparatus, 12 ... Display apparatus, 20 ... Input device, 44 ... Display processing part, 100 ... Control part, 102 ... Input Receiving unit, 110 ... output mode processing unit, 112 ... mode setting unit, 114 ... determination unit, 116 ... notification image generation unit, 118 ... confirmation image generation unit, 130 ... playback Processing unit 132 ... Playback control unit 134 ... Display image generation unit 136 ... Display target determination unit 138 ... Image data reading unit 150 ... Display information storage unit 152 Image data storage unit, 154... Attribute information storage unit.
  • the present invention can be used in the field of image processing technology.

Abstract

 表示画像生成部134は、2D画像または3D画像を生成する。表示処理部44は、表示画像生成部134が生成した画像を表示する。再生制御部132は、表示処理部44が3D画像を表示している際に、画面の表示状況が所定の状況となった場合に、表示処理部44に、3D画像の表示を中止させて、2D画像を表示させる。再生制御部132は、表示画像が移動する場合に、表示処理部44に2D画像を表示させる。

Description

画像処理装置
 本発明は、画像処理技術に関する。
 3D(3次元)テレビを代表とする3Dディスプレイが普及している。3Dディスプレイは、ユーザに左目用と右目用の画像を見せることで、立体感のある映像を提供する。3次元ディスプレイの種類には複数の方式があるが、ユーザが左右の見え方の異なるメガネを着用するタイプのものが一般に流通している。近年の画像処理技術によると、2D(2次元)画像に演算処理を加えることで、左目用画像と右目用画像とを作り出すことも可能となっている。
 デジタルカメラの機能および性能の向上に伴って、互いに関連をもつ複数の画像データをまとめて記録するフォーマットが規定されている。カメラ映像機器工業会(Camera & Imaging Products Association)により策定された規格(standard)は、複数の画像データを記録するためのデータ構造を定義し、このデータ構造を用いた「マルチピクチャフォーマット(Multi-Picture Format)」と呼ばれるフォーマットを規定している。マルチピクチャフォーマットでは、画像の種別として「マルチビュー」が定義され、マルチビューは細分として、「立体視」の種別を有している。この画像種別は、デジタルカメラの撮影時に、ユーザが撮影モードを設定することで決定され、撮影された2つの画像データは、デジタルカメラの内部回路により、画像種別コードを含めた1つの画像ファイルとしてまとめられる。
「Standard of the Camera & Imaging Products Association, CIPA DC-007-Translation-2009, Multi-Picture Format」、Camera & Imaging Products Association、2009年2月4日、インターネット<URL : http://www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-007_E.pdf>
 3D画像は、左右画像のずれ(視差量)を利用して、立体感を生み出している。複数の3D画像を連続して表示するような場合、それぞれの3D画像の視差量が異なると、ユーザに違和感を与える可能性があることを、本発明者は知見として得た。また本発明者は3D画像を画面中で移動させるような場合も同様に、ユーザに違和感を与える可能性があることを知見として得た。そこで本発明者は3Dディスプレイにおいて、ユーザが快適に見ることのできる画像を提供する技術を開発するに至った。またユーザは、デジタルカメラで撮影した3D写真を、3D表示させたいことが多いと考えられるが、一方で、3Dディスプレイにおいても2D表示させたいユーザも存在する。これは、ユーザの好みによるため、ユーザに対して適切な選択肢を提供できることが好ましい。
 そこで本発明は、画像データを適切に再生する技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様の画像処理装置は、2D画像または3D画像を生成する表示画像生成部と、表示画像生成部が生成した画像を表示する表示処理部と、画面の表示状況に基づいて、表示処理部の表示を制御する再生制御部とを備える。表示処理部が3D画像を表示している際に、画面の表示状況が所定の状況となった場合に、再生制御部は、表示処理部に、3D画像の表示を中止させて、2D画像を表示させる。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明の情報処理技術によると、画像データを適切に再生する技術を提供することが可能となる。
本発明の実施例にかかる画像処理システムの使用環境を示す図である。 入力装置の外観構成を示す図である。 画像処理装置の機能ブロック図である。 制御部の機能ブロックを主として示す図である。 表示装置に表示されるメニュー画面の一例を示す図である。 表示画面上に重ねて表示される通知画像を示す図である。 確認画面を示す図である。 (a)および(b)は、クロスフェード演出の説明図である。 (a)および(b)は、ノーマル演出の説明図である。 複数の写真画像をグリッド表示した例を示す図である。 画像上にメニュー表示領域を表示した例を示す図である。
 図1は、本発明の実施例にかかる画像処理システム1の使用環境を示す。画像処理システム1は、ユーザが操作する入力装置20と、画像処理ソフトウェアを実行する画像処理装置10と、画像処理装置10による処理結果を出力する表示装置12とを備える。表示装置12は、3Dディスプレイであり、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。表示装置12は、画像処理装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)により無線接続されてもよい。なお画像処理装置10、入力装置20および表示装置12は、一体に形成されて、画像処理機能を搭載した携帯端末装置として構成されてもよい。
 画像処理システム1において、画像処理装置10は、ケーブル14を介してパーソナルコンピュータなどの外部機器と接続し、外部機器から画像データを取得できる。また画像処理装置10はUSB(Universal Serial Bus)端子を有し、デジタルカメラとUSBケーブルで接続して、デジタルカメラから画像データを取得できる。また画像処理装置10はメディアドライブを有し、ROM媒体から画像データを取得してもよく、ネットワーク経由で外部サーバなどから画像データを取得してもよい。
 画像処理装置10は、たとえばゲーム装置であって、画像処理用のアプリケーションプログラムをロードすることで画像処理機能を実現する。なお画像処理装置10は、パーソナルコンピュータであってもよく、画像処理用のアプリケーションプログラムをロードすることで画像処理機能を実現してもよい。
 本実施例の画像処理装置10は、マルチピクチャフォーマットで立体視画像として撮影された画像データを用いて、表示装置12に3D画像を表示する機能をもつ。また画像処理装置10は、2D画像データを3D画像データに変換して、3D画像を表示する機能を有してもよい。
 また画像処理装置10は、3次元コンピュータグラフィックス(3DCG)を実行する機能ももつ。画像処理装置10は、ジオメトリエンジンおよびレンダリングエンジンを有し、ジオメトリエンジンは、光源と仮想カメラの設定をした上で透視変換を行い、レンダリングエンジンは、透視変換されたデータをもとに、フレームバッファにオブジェクトを描画する。ジオメトリエンジンが、2台の仮想カメラを、それぞれの視線方向が交わるように設定し、レンダリングエンジンが、それぞれの仮想カメラからのデータをレンダリングすることで、表示装置12に3D画像を表示することができる。
 図2は、入力装置20の外観構成を示す。入力装置20は、その筐体表面において、ユーザが操作可能な操作手段として、十字キー21、アナログスティック27a、27bと、4種の操作ボタン26を備える。4種の操作ボタン26は、○ボタン22、×ボタン23、□ボタン24および△ボタン25から構成される。また入力装置20の筐体背面には、左側にL1ボタン29a、右側にR1ボタン29bが設けられている。ユーザは、左グリップ28aを左手で把持し、右グリップ28bを右手で把持して、各操作手段を操作する。
 入力装置20は、ユーザにより入力された操作信号を画像処理装置10に伝送する機能をもち、本実施例では画像処理装置10との間で無線通信可能に構成される。入力装置20と画像処理装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルやIEEE802.11プロトコルなどを用いて無線接続を確立してもよい。なお入力装置20は、画像処理装置10とケーブルを介して接続して、ユーザにより入力された操作信号を画像処理装置10に伝送してもよい。
 図3は、画像処理装置10の機能ブロック図を示す。画像処理装置10は、無線インタフェース40、スイッチ42、表示処理部44、ハードディスクドライブ50、記録媒体装着部52、ディスクドライブ54、メインメモリ60、バッファメモリ70および制御部100を有して構成される。表示処理部44は、表示装置12のディスプレイに表示するデータをバッファするフレームメモリを有する。
 スイッチ42は、イーサネットスイッチ(イーサネットは登録商標)であって、外部の機器と有線または無線で接続して、データの送受信を行うデバイスである。スイッチ42は無線インタフェース40に接続し、無線インタフェース40は、所定の無線通信プロトコルで入力装置20と接続する。入力装置20においてユーザから入力された操作信号は、無線インタフェース40、スイッチ42を経由して、制御部100に供給される。
 またスイッチ42は、ケーブル14を介して外部機器に接続し、外部機器から、複数の画像ファイルを取得する。画像ファイルは、マルチピクチャフォーマット(以下、「MPフォーマット」と呼ぶ)で規定された画像ファイル(以下、「MPファイル」とも呼ぶ)であってよく、またJPEGやGIF等の通常のフォーマットで規定された画像ファイルであってよい。
 ハードディスクドライブ50は、データを記憶する補助記憶装置として機能する。スイッチ42を介して受信された画像ファイルは、ハードディスクドライブ50に格納される。表示処理の際、ハードディスクドライブ50に格納された画像ファイルは、デコード処理されて、バッファメモリ70に記憶される。
 記録媒体装着部52は、メモリカードなどのリムーバブル記録媒体が装着されると、リムーバブル記録媒体からデータを読み出す。ディスクドライブ54は、読出専用のROMディスクが装着されると、ROMディスクを駆動して認識し、データを読み出す。ROMディスクは、光ディスクや光磁気ディスクなどであってよい。画像ファイルは、リムーバブル記録媒体またはROMディスクに記録されていて、記録媒体装着部52またはディスクドライブ54からハードディスクドライブ50にインストールされてもよく、また表示処理の実行時にデコード処理されてバッファメモリ70に記憶されてもよい。
 制御部100は、マルチコアCPUを備え、1つのCPUの中に1つの汎用的なプロセッサコアと、複数のシンプルなプロセッサコアを有する。汎用プロセッサコアはPPU(Power Processing Unit)と呼ばれ、残りのプロセッサコアはSPU(Synergistic-Processing Unit)と呼ばれる。
 制御部100は、メインメモリ60およびバッファメモリ70に接続するメモリコントローラを備える。PPUはレジスタを有し、演算実行主体としてメインプロセッサを備えて、実行するアプリケーションにおける基本処理単位としてのタスクを各SPUに効率的に割り当てる。なお、PPU自身がタスクを実行してもよい。SPUはレジスタを有し、演算実行主体としてのサブプロセッサとローカルな記憶領域としてのローカルメモリを備える。ローカルメモリは、バッファメモリ70として使用されてもよい。メインメモリ60およびバッファメモリ70はRAM(ランダムアクセスメモリ)として構成される。SPUは制御ユニットとして専用のDMA(Direct Memory Access)コントローラをもち、メインメモリ60とバッファメモリ70の間のデータ転送を高速に行うことができ、また表示処理部44におけるフレームメモリとバッファメモリ70の間で高速なデータ転送を実現できる。本実施例の制御部100は、複数のSPUを並列動作させることで、高速な画像処理機能を実現する。表示処理部44は、表示装置12に接続されて、制御部100による画像処理結果を出力する。
 図4は、制御部100の機能ブロックを主として示す。制御部100は、入力受付部102、出力モード処理部110および再生処理部130を備える。出力モード処理部110は、表示処理部44による表示出力モードを管理する機能を有し、モード設定部112、判定部114、通知画像生成部116および確認画像生成部118を備える。再生処理部130は、画像データを再生する機能を有し、再生制御部132、表示画像生成部134、表示対象決定部136および画像データ読出部138を備える。これらの機能の少なくとも一部は、画像処理装置10にインストールされた画像再生アプリケーション(以下、「画像ビューワ」と呼ぶ)により実現される。
 図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。既述したように、制御部100には1つのPPUと複数のSPUとが設けられており、PPUおよびSPUがそれぞれ単独または協同して、各機能ブロックを構成できる。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 ディスプレイ情報記憶部150は、ハードディスクドライブ50の記憶領域に構成され、表示装置12のディスプレイサイズ、解像度、出力形式などのディスプレイ情報を記憶する。ディスプレイ情報は、画像処理装置10を表示装置12に接続するときに、ユーザにより登録される。なお画像処理装置10と表示装置12とがHDMI(High Definition Multimedia Interface)ケーブルで接続されている場合、画像処理装置10のシステムソフトウェアが表示装置12に問い合わせることで、表示装置12がディスプレイ情報を画像処理装置10に通知してもよい。本実施例において、表示装置12の出力形式は、3次元表示可能であるか、または2次元表示しかできないかを示す情報である。以下、3次元表示可能な出力形式を「3D対応」、2次元表示しかできない出力形式を「2D対応」と呼ぶ。
 画像データ記憶部152は、複数の画像データを記憶する。本実施例の画像ビューワは、ハードディスクドライブ50に格納された写真画像だけでなく、外部の記録媒体に記録されている写真画像も再生できる。したがって本実施例において画像データ記憶部152は、ハードディスクドライブ50に限らず、再生対象となる画像データが記録された記録媒体の記憶領域に構成されていてよい。図4には、画像データ記憶部152がハードディスクドライブ50の記憶領域に構成されている様子が示されている。
 画像処理装置10において、システムソフトウェアは、画像ファイルをハードディスクドライブ50にインストールする際に、画像ファイルに含まれる付属情報を参照して、ファイルチェックを行う。画像ファイルが正常であれば、システムソフトウェアは、付属情報の少なくとも一部を抽出し、属性情報として属性情報記憶部154に記憶する。本実施例において抽出される付属情報には、サムネイル画像など、メニュー画面に表示されるデータが含まれる。画像ファイルがMPファイルである場合、システムソフトウェアは、MPファイルの種別コードから、MPファイルの表示形式を特定し、属性情報として属性情報記憶部154に記憶してもよい。なお画像ファイルのインストール時、システムソフトウェアは、画像データを縮小して、サムネイル画像を生成してもよい。
 図5は、表示装置12に表示されるメニュー画面の一例を示す。本実施例の画像処理装置10では、システムソフトウェアがメニュー画像を生成する。横方向に配列された複数のフォルダ画像のうち、フォルダ画像200は、写真コンテンツのフォルダを示す。縦方向には、アイコン画像202、204、206が配列される。ユーザは、入力装置20を操作して所望のアイコン画像をフォーカス領域の位置までスクロールさせて動かし、入力装置20の所定のボタンを押下することで、そのアイコン画像に対応付けられている処理を実行させることができる。図5の例では、写真コンテンツのアイコン画像202がフォーカス領域に配置され、ユーザが入力装置20の○ボタン22を押下すると再生指示が生成され、画像ビューワが起動される。なお、図5に示すメニュー画面には、画像データを記録した記録媒体のアイコン画像を示していないが、フォトアイコン画像の直下に、記録媒体のアイコン画像が表示され、媒体アイコン画像の直下または右方に、アイコン画像202、204、206が配列されてもよい。
 システムソフトウェアは、画像ファイルにサムネイル画像が含まれている場合には、そのサムネイル画像を用いて、アイコン画像を生成し、画像ファイルにサムネイル画像が含まれていない場合には、画像データを縮小して、アイコン画像を生成する。なお画像ファイルがMPファイルである場合、システムソフトウェアは、ハードディスクドライブ50から属性情報を読み出して、代表画像フラグが1に設定されている個別画像のサムネイル画像を特定し、アイコン画像を生成する。システムソフトウェアがメニュー画像データを生成すると、表示処理部44が、メニュー画像データを表示装置12に出力して、メニュー画面が表示装置12に表示される。
 図5に示すメニュー画面において、ユーザが入力装置20の所定のボタンを押下すると、画像ファイルの再生指示が形成されて画像ビューワが起動される。これにより、フォーカス領域に配置されたアイコン画像202で特定される画像ファイルの再生処理が開始される。画像ビューワが起動されると、まず出力モード処理部110が、表示出力モードを決定する。ここで表示出力モードとは、表示装置12から2D画像を表示するか、または3D画像を表示するかを特定するモードである。出力モード処理部110が表示出力モードを決定すると、再生処理部130が、決定された表示出力モードにしたがって、表示画像を生成する。
 入力受付部102が再生指示を受け付けると、画像ビューワが起動されて、出力モード処理部110および再生処理部130の機能が実行可能となる。出力モード処理部110において、モード設定部112は、2D表示出力モードと、3D表示出力モードとを選択的に設定する機能をもつ。画像ビューワの起動時、モード設定部112は、2D表示出力モードを設定する。
 再生処理部130において、表示対象決定部136が、表示対象となる画像ファイルを決定する。画像ビューワの起動時、表示対象決定部136は、アイコン画像202で特定される画像ファイルを表示対象として決定し、画像データ読出部138は、画像データ記憶部152から、表示対象となる画像ファイルおよびその属性情報を読み出して、表示画像生成部134に供給する。再生制御部132は、表示画像生成部134に対して、モード設定部112において設定された表示出力モードで表示画像を生成することを指示する。これにより、表示画像生成部134は、モード設定部112で設定された表示出力モードにしたがって、画像データをデコードして、表示画像データを生成する。画像ビューワの起動時、モード設定部112は、2D表示出力モードを設定しているため、表示画像生成部134は、2D画像データを生成して、表示処理部44が、表示装置12に2D画像を出力する。
 通知画像生成部116は、表示出力モードを切替可能であることを示す通知画像を生成する。この通知画像は、表示出力モードを切替可能であることを示すと同時に、表示出力モードを切り替えるための操作をユーザに提示するものであることが好ましい。たとえば、表示出力モードを切り替えるための操作が特定のボタンに割り当てられる場合には、そのボタンを含めて、通知画像が形成されることが好ましい。たとえば通知画像は、「□ 2D/3D」という表示態様をとり、ここで「2D/3D」は、表示出力モードを切替可能であることを示し、「□」は、切り替えるための操作ボタンが□ボタン24であることを示す。
 判定部114は、通知画像の生成条件が成立しているか否かを判定する。そもそも表示装置12が3D対応ディスプレイを有していなければ、表示出力モードを2D表示出力モードから3D表示出力モードに切り替えることはできない。したがって通知画像の生成条件には、モード設定部112が2D表示出力モードを設定しており、且つ表示装置12が3D表示可能であることが少なくとも含まれる。判定部114が、通知画像の生成条件が成立したことを判定した場合、通知画像生成部116は通知画像データを生成して、表示処理部44が、2D表示されている画面の上に、通知画像を重ねて表示する。
 図6は、2D表示画面上に重ねて表示される通知画像を示す。表示処理部44は、通知画像生成部116により生成された通知画像210を、表示画面中の所定の位置に配置する。ユーザは、この通知を見ることで、2D表示されている表示画像を、□ボタン24を押下することで、3D表示画像に切り替えられることを認識できる。ユーザが、3D表示出力モードに切り替えたい場合、□ボタン24を押下すると、入力受付部102が、表示出力モードの切替指示を受け付ける。
 図7は、確認画面を示す。入力受付部102が表示出力モードの切替指示を受け付けると、確認画像生成部118が、表示出力モード切替の確認画像データを生成して、表示処理部44が確認画面を表示装置12に表示する。3D表示画像を見る際、3Dディスプレイのタイプによっては左右の見え方の異なる専用のメガネが必要となることもあるため、3D表示出力モードに切り替える場合には、一度、確認画面をユーザに提示して、ユーザの意志を確認するようにしている。
 ユーザが「はい」を選択して、○ボタン22を押下すると、入力受付部102が確認指示を受け付け、モード設定部112が、表示出力モードを3D表示出力モードに設定する。これにより、表示出力モードの切替が行われる。再生制御部132は、3D表示出力モードが設定されたことを受けて、表示画像生成部134および表示処理部44に、現在表示中の画像ファイルの出力形式の変更を指示する。これにより、表示画像生成部134は、左目用画像データおよび右目用画像データからなる3D画像データを生成して、表示処理部44が、表示装置12から3D画像を出力する。
 なお、通知画像210は、メニューの選択項目に含まれるようにしてもよい。画像の表示中、ユーザがたとえば所定のボタンを操作すると、複数の選択項目を含むメニューが表示画面の上に重ねて表示される。このとき、メニュー項目からユーザが通知画像210を選択することで、入力受付部102が表示出力モードの切替指示を受け付けるようになる。なお、メニュー項目から通知画像210を選択するユーザインタフェースを提供する場合には、ユーザは、通知画像210を選択して決定ボタンを押下することで、表示出力モードの切替指示を入力できるため、図6に示す通知画像210から「□」が除かれた「2D/3D」の表示がメニューに含まれるようにする。
 なお、ユーザは、3D表示出力モードを、2D表示出力モードに切り替えることも可能である。3D表示出力モードから2D表示出力モードへの切替は原則としていつでも可能であるため、3D表示出力モード中においては、表示画面中に通知画像210を常に出すようにしてもよい。これにより、ユーザは□ボタン24を押下することで、2D表示出力モードにいつでも戻すことができるようになる。なお、後述するように、3D表示出力モード中、通知画像210は、所定の条件が満たされたときに、表示されるようにしてもよい。
 2D表示出力モードから3D表示出力モードに切り替える場合には、図7に示す確認画面を提供するようにしたが、一方で、3D表示出力モードから2D表示出力モードに切り替える場合には、確認画像生成部118は、確認画像を生成しない。2D表示画像を見るには、専用のメガネを必要としないため、2D表示出力モードに切り替える場合には、改めて確認する必要性に乏しいという理由による。確認画面を出さないことで、3D表示出力モードから2D表示出力モードの遷移を、スムーズに実行することが可能となる。
 なお、2D表示出力モードにおいて、表示画像生成部134が、3Dコンテンツの画像データを表示対象として決定することがある。たとえば、MPフォーマットにおいて、立体視の種別コードが付加された画像ファイルは、もともと3D表示されることを予定されているコンテンツである。したがって、このような場合には、ユーザに、3D表示可能であることを通知できることが好ましい。
 そこで、通知画像の生成条件には、モード設定部112が2D表示出力モードを設定していること、および、表示装置12が3D表示可能であることに加えて、表示画像生成部134が3D画像データから表示画像を生成することが含まれてもよい。たとえば表示対象決定部136が、表示対象とする画像ファイルを特定した際、判定部114が、その画像ファイルに対応する表示形式(種別コード)を属性情報記憶部154から読み出し、立体視画像であるか否かを判定する。表示対象となる画像ファイルが、2Dコンテンツから3Dコンテンツに切り替わった際に、判定部114は、通知画像の生成条件が成立したことを判定し、通知画像生成部116が、図6に示す通知画像210を生成して、表示処理部44が、2D表示画像に重畳して通知画像210を表示する。これにより、出力モード処理部110は、ユーザに対して、3Dコンテンツを3D表示させる機会を、効果的に提供することができる。なお、表示出力モードが変更されたとき、ユーザが表示出力モードを元に戻せるように、表示処理部44は、通知画像210を表示してもよい。
 なお、3Dコンテンツの表示時に、表示処理部44が通知画像210を表示して、ユーザが表示された通知画像210にしたがって2D表示出力モードから3D表示出力モードに切り替えた後、表示画像生成部134が、2Dコンテンツの画像データを表示対象として決定することがある。2Dコンテンツの画像ファイルは、2D表示されることを予定されたものであるため、ユーザに、2D表示可能であることを通知できることが好ましい。
 そこで、3Dコンテンツの表示の際にユーザが通知画像210にしたがって3D表示出力モードを選択したこと、表示画像生成部134が2D画像データから表示画像を生成することを通知条件とし、判定部114が、通知画像の生成条件が成立したことを判定した場合に、通知画像生成部116が通知画像データを生成して、表示処理部44が、3D表示されている画面の上に、通知画像210を重ねて表示する。また写真画像の再生処理が終了したことを通知条件として、表示処理部44が、3D表示されている画面の上に、通知画像210を重ねて表示してもよい。
 以上のように、表示装置12が3D出力可能なディスプレイを有する場合、ユーザは、2D表示出力モードで画像を表示するか、または3D表示出力モードで画像を表示するかを選択できる。なお、3D表示画像を見る際には、専用のメガネが必要となる場合もあることに配慮して、画像ビューワの起動時には、モード設定部112が2D表示出力モードをデフォルト設定することとしているが、表示装置12が2D対応ではなく、3D対応であれば、3D表示出力モードをデフォルト設定してもよい。
 以上のように、出力モード処理部110により表示出力モードが決定される。以下では、再生処理部130における画像再生処理について説明する。
 本実施例において、画像データ記憶部152に記憶される複数の画像ファイルには、画像ビューワによる表示順序が予め設定されている。この表示順序は、画像データ記憶部152において各画像ファイルが記憶された順序であってもよく、また各画像ファイルの生成日時(撮影日時)にしたがった順序であってもよい。画像ビューワが起動され、表示装置12に画像が表示されると、ユーザは、入力装置20の筐体背面に設けられたL1ボタン29aまたはR1ボタン29bを押下することで、表示対象となる画像ファイルを切り替えることができる。ある画像ファイルがデコードされて表示装置12に表示されている場合、ユーザがL1ボタン29aを押下すると、一つ前の画像ファイルがデコードされて表示装置12に表示され、一方でR1ボタン29bを押下すると、一つ先の画像ファイルがデコードされて表示装置12に表示される。このように画像処理装置10において、ユーザによるL1ボタン29aボタンの操作は、所定の順序が設定された画像ファイル列に対して逆方向表示指示を形成し、一方で、ユーザによるR1ボタン29bの操作は、画像ファイル列に対して順方向表示指示を形成する。以下、表示画像を切り替える指示を、「切替表示指示」と呼ぶ。
 画像ビューワは、ユーザに対して、画像切替時の演出の選択肢を提供する。選択肢として、少なくとも以下の2つが用意されている。
(1)クロスフェード演出
 クロスフェード演出は、2つの表示画像の一方のフェードアウト中に、他方をフェードインして、表示画像を切り替える演出をいう。画像データをデコードして生成した表示画像の不透明度を100%、表示画像が完全にフェードアウトして画面から消えたときの不透明度を0%とすると、第1の表示画像を不透明度100%からフェードアウトしていき、不透明度が0%となる前に、第2の表示画像を不透明度0%からフェードインすることで、クロスフェード演出が実現される。
(2)ノーマル演出
 ノーマル演出は、2つの表示画像を即時に切り替える演出をいう。即時に切り替えることを、上記の不透明度を用いて説明すると、第1の表示画像をフェードすることなく、その不透明度を100%から0%とし、その後、第2の表示画像の不透明度を0%から100%とすることで、ノーマル演出が実現される。ノーマル演出では、表示画像の不透明度が0~100%の中間値をとらない。
(3)フェードアウト、フェードイン演出
 フェードアウト、フェードイン演出は、1つの表示画像をフェードアウトした後、別の表示画像をフェードインして、表示画像を切り替える演出をいう。クロスフェード演出とは異なり、第1の表示画像を不透明度100%からフェードアウトしていき、不透明度が0%となった後に、第2の表示画像を不透明度0%からフェードインする。
 画像ビューワが起動すると、ユーザは、画像切替時の演出を選択する。たとえば、画像切替時の演出として、デフォルトでクロスフェード演出が設定されており、ユーザがノーマル演出を希望する場合に、メニュー項目から、ノーマル演出を選択できるようにユーザインタフェースが構成されていてもよい。以下、クロスフェード演出とノーマル演出について説明する。
 再生制御部132は、モード設定部112により設定された表示出力モードに応じて、表示画像の切替を制御する。具体的に再生制御部132は、表示出力モードが2D表示出力モードである場合と、3D表示出力モードである場合とで、表示画像の切替制御を異ならせる。
 図8(a)~図8(b)は、クロスフェード演出の説明図である。図8(a)は、2D表示出力モードにおけるクロスフェード演出を示し、図8(b)は、3D表示出力モードにおけるクロスフェード演出を示している。クロスフェード演出では、先に表示されている画像(以下、「第1表示画像」と呼ぶ)の不透明度を時間の経過に応じて100%から0%まで徐々に下げ、後から表示する画像(以下、「第2表示画像」と呼ぶ)の不透明度を、時間の経過に応じて0%から100%まで徐々に上げる。このとき、第1表示画像のフェードアウトが終了してから第2表示画像をフェードインするのではなく、第1表示画像のフェードアウト中に、第2表示画像をフェードインさせることで、クロスフェード演出が実現される。
 画像データをデコードして生成した表示画像の画素値がP0であるとすると、画素値P0の不透明度は100%である。画素値を小さくしていき、画素値がP1となったとき、画素値P1の不透明度は、(P1/P0)×100%となる。したがって、表示画像が完全にフェードアウトして、画素値が0となったとき、不透明度は0%となる。再生制御部132は、表示画像生成部134を制御して、第1表示画像と第2表示画像の不透明度を時間の経過に応じて変化させることで、2つの表示画像をクロスフェードする。
 図8(a)および図8(b)において、縦軸は不透明度、横軸は時間を表現し、図中の細線は第1表示画像の不透明度の変化を、太線は第2表示画像の不透明度の変化を示す。またクロスフェード演出の開始時刻をt1、終了時刻はt5として示す。なお、クロスフェード演出の開始時刻は、第1表示画像の不透明度が100%から下がり出すタイミングであり、また終了時刻は、第2表示画像の不透明度が100%に到達したタイミングである。以下では、クロスフェード演出の開始時刻から終了時刻までの期間(t1からt5)を「クロスフェード処理期間」と呼ぶ。時間t1で入力受付部102が切替表示指示を受け付けると、再生制御部132が、クロスフェード演出の制御を開始する。
 図8(a)において、第1変化線230aは、第1表示画像の不透明度の変化を示し、第2変化線230bは、第2表示画像の不透明度の変化を示す。第1変化線230aと第2変化線230bは、クロスフェード処理期間の中央(t3)でクロスし、そのときの不透明度は両者ともに50%となる。2D表示出力モードでは、クロスフェード処理期間において、第1表示画像の不透明度をα%とした場合、第2表示画像の不透明度は(100-α)%と表現され、したがって、第1表示画像の不透明度と第2表示画像の不透明度の和は、α%+(100-α)%=100%となる。
 図8(b)において、第1変化線232aは、第1表示画像の不透明度の変化を示し、第2変化線232bは、第2表示画像の不透明度の変化を示す。第1変化線232aと第2変化線232bは、クロスフェード処理期間の中央(t3)でクロスし、そのときの不透明度は両者ともにOP%(<50%)となる。3D表示出力モードでは、クロスフェード処理期間において、第1表示画像の不透明度をβ%、第2表示画像の不透明度をγ%とした場合、(β+γ)%が、100%以下となるように、第1変化線232aおよび第2変化線232bが設定される。
 なお、(β+γ)=100となる場合は、クロスフェード処理の開始時刻(t1)と終了時刻(t5)であって、それ以外のクロスフェード処理期間では、(β+γ)<100となる。つまり、クロスフェード処理期間において、3D表示出力モードにおける第1表示画像の不透明度と第2表示画像の不透明度の和((β+γ)%)は、2D表示出力モードにおける第1表示画像の不透明度と第2表示画像の不透明度の和(100%)以下となるように設定される。このことは、3D表示出力モードでは、2D表示出力モードと比較して、クロスフェード演出における2つの表示画像のオーバラップ量(不透明度の和)を少なくすることを意味している。
 3D表示出力モードで第1表示画像と第2表示画像とをクロスフェードする場合、第1表示画像と第2表示画像の視差量が異なる場合がある。そのような場合に、図8(a)に示すように、第1表示画像と第2表示画像とをαブレンドすると、2つの表示画像の視差量が異なることで、ユーザは違和感を覚えやすくなる。また、仮に2つの表示画像の視差量が異ならない場合であっても、2つの3D画像が画面に重畳表示されることで、やはりユーザは違和感を覚えやすくなる。そこで、3D表示出力モードでは、2D表示出力モードと比較してクロスフェード演出における2つの表示画像のオーバラップ量を少なくすることで、ユーザの目にやさしい演出を提供する。
 また、クロスフェード処理期間において、3D表示出力モードにおける第1表示画像の不透明度と第2表示画像の不透明度とが等しくなるときの不透明度(OP%)は、2D表示出力モードにおける第1表示画像の不透明度と第2表示画像の不透明度とが等しくなるときの不透明度(50%)よりも小さく設定される。2つの表示画像の不透明度が等しくなるとき(t3)、両画像の視差量が異なると、ユーザが覚える違和感は最も大きくなる。そのため、時間t3において、3D表示出力モードにおける不透明度OP%を小さくすることで、ユーザが覚える違和感を低減することができる。OPは、30以下となるように設定されることが好ましい。
 また、図8(a)において、第2表示画像のフェードイン開始時刻は時間t1であり、第1表示画像のフェードアウト終了時刻は時間t5である。したがって、クロスフェード処理期間において、第1表示画像と第2表示画像の両方が表示されている期間(オーバラップ期間)は、時間t1からt5までの期間となる。一方、図8(b)において、第2表示画像のフェードイン開始時刻は時間t2であり、第1表示画像のフェードアウト終了時刻は時間t4である。したがって、オーバラップ期間は、時間t2からt4までの期間となる。このように、3D表示出力モードでは、2D表示出力モードと比べて、オーバラップ期間を短くすることで、クロスフェード演出を実行しつつ、ユーザが覚える違和感を低減することができる。
 以上のように、再生制御部132が、表示出力モードに応じて、表示画像生成部134における画像生成処理を制御する。これにより表示画像生成部134は、図8(a)または図8(b)に示す変化線にしたがって、生成する画像データの画素値を調整する。これにより、3D表示出力モードにおいて、ユーザの目にやさしいクロスフェード演出を実行することが可能となる。
 なお、再生制御部132は、表示出力モードに応じて、表示処理部44における表示処理を制御してもよい。表示処理部44は、表示画像生成部134が生成した不透明度100%の画像データの画素値を、図8(a)または図8(b)に示す変化線にしたがって調整する。画素値の調整を表示処理部44に任せることで、表示画像生成部134は、フレームごとに画像データを生成する必要がなくなるため、システム全体の処理負荷を大幅に低減できるようになる。
 図9(a)~図9(b)は、ノーマル演出の説明図である。図9(a)は、2D表示出力モードにおけるノーマル演出を示し、図9(b)は、3D表示出力モードにおけるノーマル演出を示している。ノーマル演出では、先に表示されている画像(以下、「第1表示画像」と呼ぶ)の不透明度を100%から0%に下げ、即時に、後から表示する画像(以下、「第2表示画像」と呼ぶ)の不透明度を、0%から100%まで上げる。つまり、ノーマル演出では、0%から100%の間の不透明度は利用せず、第1表示画像の表示を終了した後、第2表示画像の表示を開始する。再生制御部132は、表示処理部44または表示画像生成部134を制御して、第1表示画像と第2表示画像とを即時に切り替えることで、ノーマル演出を実行する。なお、即時に切り替えるとは、第1表示画像の表示終了と同時に第2表示画像の表示を開始する場合だけでなく、第1表示画像の表示終了から短時間経過後に第2表示画像の表示を開始する場合も含む。
 図9(a)および図9(b)において、縦軸は不透明度、横軸は時間を表現し、図中の細線は第1表示画像の表示状態を、太線は第2表示画像の表示状態を示す。また第1表示画像の表示終了時刻をt6として示す。時間t6で入力受付部102が切替表示指示を受け付けると、再生制御部132が、ノーマル演出の制御を開始する。
 図9(a)において、第1線240aは、第1表示画像の表示状態を示し、第2線240bは、第2表示画像の表示状態を示す。第2表示画像は、第1表示画像の表示を終了した次のフレームから表示される。つまり、2D表示出力モードにおいて、第1表示画像の最後のフレームと、第2表示画像の最初のフレームとは連続している。
 図9(b)において、第1線242aは、第1表示画像の表示状態を示し、第2線242bは、第2表示画像の表示状態を示す。第2表示画像は、第1表示画像の表示を終了してから、数フレーム後に表示される。この例では、第1表示画像の表示終了時刻がt6であり、数フレーム後、たとえば3フレーム後のt7から、第2表示画像の表示が開始されている。つまり、3D表示出力モードにおいて、第1表示画像の最後のフレームと、第2表示画像の最初のフレームとは、連続していない。
 以上のように、第1表示画像の表示を終了してから第2表示画像の表示を開始するまでの切替期間は、3D表示出力モードの方が2D表示出力モードよりも長く設定される。3D表示出力モードで第1表示画像と第2表示画像とを即時に切り替える場合、第1表示画像と第2表示画像の視差量が異なる場合がある。そのような場合に、図9(a)に示すように、第1表示画像と第2表示画像とを連続して切り替えると、2つの表示画像の視差量が異なることで、ユーザは違和感を覚えやすくなる。そこで、3D表示出力モードでは、2D表示出力モードと比較して、画像の切替期間を長くすることで、ユーザの目にやさしい切替演出を提供する。
 なお、本発明者は、3D表示出力モードにおいて、切替期間に、所定色の画像を表示することで、違和感を軽減できるという知見を得た。この所定色は、たとえば黒色である。3D表示出力モードにおいて、3D画像を切り替える際に、切替期間に黒色画像を挟み込むことで、2つの表示画像の視差量の違いをリセットし、ユーザが覚える違和感を一層低減することが可能となる。なお、2D画像を切り替える際にも、切替期間に黒色画像を挟み込んでもよいが、上記したように、切替期間は、3D表示出力モードの方が2D表示出力モードよりも長く設定され、したがって、黒色画像の表示時間は、3D表示出力モードの方が長くされることが好ましい。
 以上のように、再生制御部132が、表示出力モードに応じて、表示処理部44の表示処理を制御し、表示処理部44は、図9(a)または図9(b)に示す切替処理にしたがって、表示画像を切り替える。これにより、3D表示出力モードにおいて、ユーザの目にやさしいノーマル演出を実行することが可能となる。
 なお、フェードアウト、フェードイン演出においても、第1表示画像の表示を終了してから第2表示画像の表示を開始するまでの切替期間は、3D表示出力モードの方が2D表示出力モードよりも長く設定される。ノーマル演出と同様に、切替期間に、所定色の画像を表示してもよく、黒色画像の表示時間は、3D表示出力モードの方が長く設定される。これにより、3D表示出力モードにおいて、ユーザの目にやさしいフェードアウト、フェードイン演出を実行することが可能となる。
 以上は、各表示出力モードにおいて表示画像を切り替える際の演出について説明した。以下では、画面の表示状況が3D表示に適切でなくなった場合に、3D表示を中止して、2D表示を行う例を説明する。
 図10は、複数の3D写真画像をグリッド表示した例を示す。表示画像生成部134は、複数の写真を配列した3D画像データを生成し、表示処理部44が、複数の3Dの写真画像250が配列された表示画像を表示装置12に表示する。
 表示画像生成部134は、マルチピクチャフォーマットで立体視画像として撮影された画像ファイルから、左目用画像データと右目用画像データを生成し、表示処理部44が、左目用画像および右目用画像を画面に表示することで、3D画像が表示される。なお表示画像生成部134は、立体視用の画像ファイルだけでなく、JPEGやGIFなどのフォーマットで作成された1枚の画像データから、左目用画像データと右目用画像データを生成することもできる。表示処理部44は、背景画像上に複数の写真の左目用画像データを配列した左目用画像データと、背景画像上に複数の写真の右目用画像データを配列した右目用画像データとを表示装置12に出力することで、図10に示すグリッド表示画面が生成される。
 また別の例として、表示画像生成部134は、ジオメトリエンジンおよびレンダリングエンジンを有して、左目用画像データと右目用画像データを生成してもよい。この場合、ジオメトリエンジンが、複数の写真オブジェクトを仮想空間内に配列し、2台の仮想カメラを、それぞれの視線方向が交わるように設定して、レンダリングエンジンが、それぞれの仮想カメラからのデータをレンダリングすることで、左目用画像データと右目用画像データを生成する。表示処理部44が、生成された左目用画像データと右目用画像データとを表示装置12に出力することで、図10に示すグリッド表示画面が生成される。
 このように表示処理部44は、表示画像生成部134が生成した3D画像を表示する。3D画像の表示中、再生制御部132は、画面の表示状況に基づいて、表示処理部44の表示を制御する。具体的には、表示処理部44が3D画像を表示している際に、画面の表示状況が所定の状況となった場合に、再生制御部132は、表示処理部44に、3D画像の表示を中止させて、2D画像を表示させるように制御する。
 図10に示すグリッド表示画面は、たとえば写真画像を撮影日毎にまとめて表示する際に利用される。そのため、表示画面をスクロールすると、表示画面の全体が上方向または下方向に動き、表示されている日付以外の日に撮影された写真画像が表示されるようになっている。ユーザは、入力装置20のアナログスティック27bを操作して、表示画面をスクロールすることができ、たとえばアナログスティック27bを上(奥)方向に倒すと、グリッド表示画面が上方向にスクロールされ、下(手前)方向に倒すと、グリッド表示画面が下方向にスクロールされる。
 グリッド表示画面が、3D表示のまま移動すると、ユーザは、各写真画像を目で追うことになるため、視差量を合わせるために、違和感を覚えやすくなる。そこで、再生制御部132は、表示画像が移動する場合には、表示処理部44に3D画像の表示を中止させて、2D画像を表示させるようにする。
 たとえば、表示画像生成部134が、画像ファイルから両目用の画像データを生成している場合、表示処理部44は、一方の画像データのみを用いて、2Dのグリッド表示画面を表示してもよい。また、再生制御部132が、表示画像生成部134に対して2D画像の生成を指示し、表示処理部44は、表示画像生成部134が生成した2D画像データを用いて、2Dのグリッド表示画面を表示装置12に表示してもよい。
 また、表示画像生成部134が、レンダリングにより両目用の画像データを生成している場合、表示画像生成部134が、2台の仮想カメラの位置および視線方向が一致するようにして、それぞれの仮想カメラからのデータをレンダリングすることで、表示処理部44が、2Dのグリッド表示画面を表示装置12に表示する。
 なお、表示画面が低速でスクロールされている間は、それほどユーザが覚える違和感も大きくない。そのため、再生制御部132は、表示画像の移動速度を監視し、移動速度が所定値を超えた場合に、表示処理部44に3D画像の表示を中止させて、2D画像を表示させるようにしてもよい。たとえば、表示画像の移動速度が所定値を超えると、視差量がなめらかに0となるように左目用画像データと右目用画像データとを生成することで、2D画像を表示させるようにしてもよい。また、移動速度に応じて、視差量を減らしていくことで、移動速度が所定値を超えた場合に、2D画像が表示されるようにしてもよい。これにより、高速スクロール処理の場合のユーザが覚える違和感を軽減できつつ、且つ低速スクロール処理時に3D表示を継続することが可能となる。
 図11は、3D画像上に、メニュー表示領域を表示した例を示す。ここでは、3D表示されたグリッド表示画面に重ねて、複数のメニュー項目を表示するメニュー表示領域260が形成されている。なお、複数のメニュー項目は、2D表示されている。このメニュー表示領域260では、ユーザが選択したいメニュー項目を中央のフォーカス領域に配置し、決定ボタンを押下することで、選択した項目に対応する処理が起動するようになる。フォーカス領域に配置されるメニュー項目は、3D表示されるようにしてもよい。
 メニュー表示領域260におけるメニュー項目は、フォーカス領域以外では2Dで表示される。そのため、背景となるグリッド表示画面が3D表示されていると、背景のグリッド表示画面の方が、メニュー項目よりも飛び出して見える視差矛盾が生じる可能性がある。そこで、再生制御部132は、表示画像の上に重ねて別の画像が表示される場合に、表示処理部44に、背景画像を2D表示させるようにする。このように、3D画像の上に、2D画像を表示する状況を回避することで、目にやさしい表示画面をユーザに提供できるようになる。
 以上の例では、再生制御部132が表示処理部44の表示を制御する例を説明したが、再生制御部132が、表示画像生成部134に3D画像データの生成を中止させて、2D画像データを生成させ、表示処理部44が、表示画像生成部134が生成した2D画像データを用いて、2D画像を表示装置12に表示するようにしてもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1・・・画像処理システム、10・・・画像処理装置、12・・・表示装置、20・・・入力装置、44・・・表示処理部、100・・・制御部、102・・・入力受付部、110・・・出力モード処理部、112・・・モード設定部、114・・・判定部、116・・・通知画像生成部、118・・・確認画像生成部、130・・・再生処理部、132・・・再生制御部、134・・・表示画像生成部、136・・・表示対象決定部、138・・・画像データ読出部、150・・・ディスプレイ情報記憶部、152・・・画像データ記憶部、154・・・属性情報記憶部。
 本発明は、画像処理技術の分野に利用できる。

Claims (7)

  1.  2D画像または3D画像を生成する表示画像生成部と、
     前記表示画像生成部が生成した画像を表示する表示処理部と、
     画面の表示状況に基づいて、前記表示処理部の表示を制御する再生制御部と、を備えた画像処理装置であって、
     前記表示処理部が3D画像を表示している際に、画面の表示状況が所定の状況となった場合に、前記再生制御部は、前記表示処理部に、3D画像の表示を中止させて、2D画像を表示させることを特徴とする画像処理装置。
  2.  前記再生制御部は、表示画像が移動する場合に、前記表示処理部に2D画像を表示させることを特徴とする請求項1に記載の画像処理装置。
  3.  前記再生制御部が、表示画像の移動速度が所定値を超えた場合に、前記表示処理部に2D画像を表示させることを特徴とする請求項2に記載の画像処理装置。
  4.  前記再生制御部は、表示画像の上に重ねて別の画像が表示される場合に、前記表示処理部に背景画像を2D表示させることを特徴とする請求項1から3のいずれかに記載の画像処理装置。
  5.  前記再生制御部は、前記表示画像生成部に、3D画像の生成を中止させて、2D画像を生成させ、
     前記表示処理部は、前記表示画像生成部が生成した2D画像を表示することを特徴とする請求項1から4のいずれかに記載の画像処理装置。
  6.  コンピュータに、
     2D画像または3D画像を生成する機能と、
     生成した画像を表示する機能と、
     画面の表示状況に基づいて、表示機能を制御する機能と、実現させるためのプログラムであって、
     制御機能は、表示機能により3D画像が表示されている際に、画面の表示状況が所定の状況となった場合に、表示機能に、3D画像の表示を中止させて、2D画像を表示させることを特徴とするプログラム。
  7.  請求項6に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/003307 2011-08-05 2012-05-21 画像処理装置 WO2013021527A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011172290A JP2013038557A (ja) 2011-08-05 2011-08-05 画像処理装置
JP2011-172290 2011-08-05

Publications (1)

Publication Number Publication Date
WO2013021527A1 true WO2013021527A1 (ja) 2013-02-14

Family

ID=47668070

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003307 WO2013021527A1 (ja) 2011-08-05 2012-05-21 画像処理装置

Country Status (2)

Country Link
JP (1) JP2013038557A (ja)
WO (1) WO2013021527A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210092707A (ko) * 2014-05-07 2021-07-26 에스케이플래닛 주식회사 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006019039A1 (ja) * 2004-08-18 2006-02-23 Sharp Kabushiki Kaisha 画像データ表示装置
JP2010268048A (ja) * 2009-05-12 2010-11-25 Canon Inc 映像表示装置及びその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006019039A1 (ja) * 2004-08-18 2006-02-23 Sharp Kabushiki Kaisha 画像データ表示装置
JP2010268048A (ja) * 2009-05-12 2010-11-25 Canon Inc 映像表示装置及びその制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210092707A (ko) * 2014-05-07 2021-07-26 에스케이플래닛 주식회사 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
KR102388230B1 (ko) 2014-05-07 2022-04-19 에스케이플래닛 주식회사 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체

Also Published As

Publication number Publication date
JP2013038557A (ja) 2013-02-21

Similar Documents

Publication Publication Date Title
JP4938733B2 (ja) メニュー画面表示方法およびメニュー画面表示装置
JP6309749B2 (ja) 画像データ再生装置および画像データ生成装置
US8860716B2 (en) 3D image processing method and portable 3D display apparatus implementing the same
JP5577305B2 (ja) 画像処理装置
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
JP2015187797A (ja) 画像データ生成装置および画像データ再生装置
JP4802524B2 (ja) 画像処理装置、カメラシステム、ビデオシステム、ネットワークデータシステム、並びに、画像処理方法
TW201218746A (en) Image processing apparatus, image processing method, and computer program
JP4596329B2 (ja) 情報処理装置
TWI669958B (zh) 預覽影片的方法、處理裝置及其電腦系統
JP5679578B2 (ja) 画像処理装置
JP6027272B2 (ja) 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル
WO2013021527A1 (ja) 画像処理装置
JP5624132B2 (ja) 立体視映像の再生装置、集積回路、プログラム
JP6991768B2 (ja) 表示制御装置および表示制御方法
JP5385953B2 (ja) 画像処理装置
WO2014129735A1 (ko) 복합 차원 콘텐츠 제공 시스템, 그 제공 방법 및 복합 차원 콘텐츠 파일
TWI779336B (zh) 顯示系統及裸視立體影像之播放方法
JP2012028934A (ja) 3次元ディスプレイ装置、表示方法、プログラム、及び、記録媒体
JP2012227725A (ja) 電子機器、表示制御方法及び表示制御プログラム
JP5366996B2 (ja) 情報処理装置および情報処理方法
JP5433774B2 (ja) 電子機器、表示制御方法及び表示制御プログラム
JP2014002625A (ja) 表示制御装置、タッチパネル制御方法、制御プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12821790

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12821790

Country of ref document: EP

Kind code of ref document: A1