WO2012105427A1 - 画像処理装置、そのプログラム、および画像処理方法 - Google Patents

画像処理装置、そのプログラム、および画像処理方法 Download PDF

Info

Publication number
WO2012105427A1
WO2012105427A1 PCT/JP2012/051744 JP2012051744W WO2012105427A1 WO 2012105427 A1 WO2012105427 A1 WO 2012105427A1 JP 2012051744 W JP2012051744 W JP 2012051744W WO 2012105427 A1 WO2012105427 A1 WO 2012105427A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
stereoscopic
index
eye
time
Prior art date
Application number
PCT/JP2012/051744
Other languages
English (en)
French (fr)
Inventor
聡志 麻生
岳彦 指田
Original Assignee
コニカミノルタホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタホールディングス株式会社 filed Critical コニカミノルタホールディングス株式会社
Publication of WO2012105427A1 publication Critical patent/WO2012105427A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Definitions

  • the present invention relates to an image processing technique for generating a stereoscopic image.
  • 3D televisions that use stereoscopic video (also called 3D video, stereoscopic video, or stereoscopic video) are in the spotlight.
  • 3D television two images obtained by viewing the same object from different viewpoints are used to generate an image that can be viewed stereoscopically (also referred to as a 3D image, a stereoscopic image, or a stereoscopic image).
  • the position of the pixel indicating the same part of the object is shifted between the image for the left eye and the image for the right eye, and the focus adjustment function of the human eye is used to A sense of depth is given to the observer.
  • the amount of displacement of the pixel position that captures the same part of the object between the image for the left eye and the image for the right eye is also referred to as “parallax”.
  • This 3D image technology has been adopted in various video fields.
  • an endoscopic device has been proposed that enables stereoscopic viewing of an image over a wide field of view by adjusting parallax detected from a stereo image to fall within the fusion range of people (for example, Patent Documents). 1).
  • a stereoscopic video processing apparatus that displays a stereoscopic reference image when a stereoscopic video is displayed and the sense of depth is adjusted (for example, Patent Document 2).
  • the set parallax is small to some extent, it may be difficult for the observer to obtain a sense of depth depending on the size of the screen on which the image is displayed. That is, for the observer, even if the object is the same, it may appear different from the actual object when viewed on the 3D image as compared with the case where the object is actually viewed.
  • Patent Document 3 In contrast to the current state of the 3D image technology, there is a technology in which a frame image is displayed around a 3D image in order to change the screen, add interest, or facilitate stereoscopic viewing. It has been proposed (for example, Patent Document 3). With this technology, it is possible to select which frame image to use from a plurality of prepared frame images.
  • JP-A-8-313825 Japanese Patent Laid-Open No. 11-155155 International Publication No. 2003/093023
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of improving the sense of depth that is observed by an observer who observes a stereoscopic image.
  • the image processing apparatus has a parallax that is observed farther than the time-series first stereoscopic image of the observation object under the same image display conditions.
  • a stereoscopic index image generating unit that generates a time-series stereoscopic index image, and a combination unit that generates a time-series second stereoscopic image by combining the first stereoscopic image and the stereoscopic index image in time series.
  • the stereoscopic index image generation unit includes the stereoscopic index image so that the perspective difference corresponding to the difference between the representative value of the parallax of the first stereoscopic image and the parallax of the stereoscopic index image increases in time series. Is generated.
  • the image processing apparatus is the image processing apparatus according to the first aspect, and is predicted to attract an observer's eye in the first stereoscopic image according to a preset detection rule.
  • a detection unit configured to detect each of the regions of interest; and the stereoscopic index image generation unit determines the representative value based on a parallax for the region of interest.
  • An image processing device is the image processing device according to the first or second aspect, wherein the three-dimensional index image generation unit is configured to change the representative value according to a time-series change rate. Change the perspective difference.
  • the image processing device is the image processing device according to the second aspect, and the stereoscopic index image generation unit changes the perspective difference according to a pixel value of the attention area.
  • the image processing device is the image processing device according to the first or second aspect, and is an observer information acquisition unit that acquires information related to the type of observer assumed for the second stereoscopic image. , And the stereoscopic index image generating unit changes the perspective difference according to the type of the observer.
  • An image processing apparatus is the image processing apparatus according to the first or second aspect, further comprising an environment information acquisition unit that acquires information related to an observation environment assumed for the second stereoscopic image. And the stereoscopic index image generation unit changes the perspective difference according to the observation environment.
  • An image processing apparatus is the image processing apparatus according to any one of the first to sixth aspects, wherein the three-dimensional index image generation unit is for an index appearing in the three-dimensional index image. The perspective difference is changed while decreasing the size of the object in time series.
  • An image processing device is the image processing device according to any one of the second to seventh aspects, wherein the stereoscopic index image generation unit is configured to perform the attention in the image space of the first stereoscopic image. Following the time-series position change of the region, the position of the stereoscopic index image is changed in time-series.
  • An image processing apparatus is the image processing apparatus according to any one of the first to seventh aspects, wherein the three-dimensional index image generation unit is a predetermined index object in the three-dimensional index image.
  • the three-dimensional index image is generated so as to move away from the predetermined vanishing point in time series.
  • the image processing apparatus generates a time-series stereoscopic index image having a parallax that is observed farther than the first stereoscopic image of the observation object under the same image display conditions.
  • the unit generates the stereoscopic index image so that the perspective difference corresponding to the difference between the representative value of the parallax of the first stereoscopic image and the parallax of the stereoscopic index image increases in time series.
  • the program according to the eleventh aspect causes the image processing apparatus to function as the image processing apparatus according to any one of the first to tenth aspects by being executed by a computer mounted on the image processing apparatus.
  • An image processing method includes a three-dimensional index image generating step of generating a three-dimensional index image having a parallax that is observed farther than the first three-dimensional image of the observation object under the same image display conditions.
  • the stereoscopic index image is generated in each repetition cycle so that the perspective difference corresponding to the difference from the parallax of the stereoscopic index image increases in time series in the time-series set of the second stereoscopic images. That.
  • the second stereoscopic image is obtained by observing the observation object and the stereoscopic index image.
  • the depth difference that the observer who observes the 2D image learns is improved by the three-dimensionalization that the perspective difference increases in time series, that is, it is observed to dynamically expand the perspective. Can be.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an image processing system according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the image processing apparatus according to the embodiment.
  • FIG. 3 is a diagram for explaining the parallax.
  • FIG. 4 is a diagram illustrating an example of the first stereoscopic image.
  • FIG. 5 is a diagram illustrating an example of the first stereoscopic image.
  • FIG. 6 is a diagram illustrating an example of the stereoscopic index image.
  • FIG. 7 is a diagram illustrating an example of the stereoscopic index image.
  • FIG. 8 is a diagram illustrating an example of a time-series second stereoscopic image.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an image processing system according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the image processing apparatus according to the embodiment.
  • FIG. 3 is a diagram for explaining the
  • FIG. 9 is a diagram illustrating an example of a time-series second stereoscopic image.
  • FIG. 10 is a diagram for explaining an example of a method for generating a parallax of a stereoscopic index image.
  • FIG. 11 is a diagram illustrating an example of a time-series change in the position of the stereoscopic index image.
  • FIG. 12 is a diagram illustrating an example of a time-series change in the position of the stereoscopic index image.
  • FIG. 13 is a diagram for explaining an example of a method for generating a stereoscopic index image.
  • FIG. 14 is a diagram illustrating an example of a stereoscopic index image.
  • FIG. 15 is a diagram illustrating an example of a stereoscopic index image.
  • FIG. 16 is a flowchart showing the operation of the image processing apparatus.
  • FIG. 17 is a flowchart showing the operation of the image processing apparatus.
  • FIG. 18 is a flowchart showing
  • each image is the + X direction
  • the downward direction of each image is the + Y direction.
  • two orthogonal XY axes are attached.
  • FIG. 3 three orthogonal XYZ axes are attached.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an image processing system 100A according to an embodiment.
  • the image processing system 100A mainly includes a stereo camera 300, a line-of-sight detection sensor 47, and an image processing apparatus 200A.
  • the stereo camera 300 mainly includes a first camera 61 and a second camera 62.
  • the first camera 61 and the second camera 62 are mainly configured with a photographing optical system and a control processing circuit (not shown), respectively.
  • the first camera 61 and the second camera 62 are provided with a predetermined baseline length in the horizontal direction, and the light information from the observation object incident on the photographing optical system is synchronized by a control processing circuit or the like. For example, a digital image having a predetermined size such as a 3456 ⁇ 2592 pixel size, which constitutes a stereo image of the observation object, is acquired.
  • the stereo image includes a set of a left-eye image (also referred to as a left-eye image) and a right-eye image (also referred to as a right-eye image), and is an image that can be displayed stereoscopically, that is, a stereoscopic image. (3D image).
  • the stereo camera 300 shoots the observation object successively in time sequence while synchronizing the first camera 61 and the second camera 62 in accordance with the control by the image processing apparatus 200A, so that a plurality of first left-eye cameras are used.
  • An image 5L and a plurality of first right-eye images 5R can be acquired. That is, the stereo camera 300 acquires the time-series first left-eye image 5L and the time-series first right-eye image 5R, respectively.
  • the stereo camera 300 can acquire one first left-eye image 5L and one first right-eye image 5R in accordance with control by the image processing apparatus 200A.
  • the stereo camera 300 Various operations of the stereo camera 300 are controlled based on control signals supplied from the image processing apparatus 200A via the input / output unit 41 and the communication line DL1.
  • the first left-eye image 5L and the first right-eye image 5R may be color images or monochrome images.
  • the generated one or more first left-eye images 5L and one or more first right-eye images 5R are supplied to the input / output unit 41 of the image processing apparatus 200A via the communication line DL1.
  • the line-of-sight detection sensor 47 detects the line-of-sight information of the observer who is observing the screen of the display unit 43 included in the image processing apparatus 200A.
  • the display unit 43 and the line-of-sight detection sensor 47 are fixed to each other with a predetermined arrangement relationship.
  • an image of the observer is obtained by photographing, and by analyzing the image, the direction of the line of sight of the observer is detected as line-of-sight information.
  • the analysis of the image can be realized, for example, by detecting the orientation of the face using pattern matching, and identifying the white-eye portion and the black-eye portion in both eyes using a color difference.
  • the line-of-sight information obtained by the line-of-sight detection sensor 47 is supplied to the detection unit 13 (FIG. 2) of the image processing apparatus 200A via the communication line DL2.
  • the detection unit 13 performs detection processing for detecting a portion (also referred to as a region of interest) that is observed by the observer from the stereoscopic image displayed on the screen of the display unit 43 using the supplied line-of-sight information.
  • the communication lines DL1 and DL2 may be wired lines or wireless lines.
  • the image processing apparatus 200 ⁇ / b> A mainly includes a CPU 11 ⁇ / b> A, an input / output unit 41, an operation unit 42, a display unit 43, a ROM 44, a RAM 45, and a storage device 46. This is realized by executing a program on a computer.
  • the input / output unit 41 includes an input / output interface such as a USB interface or a Bluetooth (registered trademark) interface, an interface for connecting to a LAN or the Internet such as a multimedia drive and a network adapter, and the like. Exchange data between the two. Specifically, the input / output unit 41 supplies various control signals for the CPU 11A to control the stereo camera 300 and the line-of-sight detection sensor 47 to the stereo camera 300 via the communication lines DL1 and DL2, for example. . Further, the input / output unit 41 supplies the first left-eye image 5L and the first right-eye image 5R captured by the stereo camera 300 and the line-of-sight information acquired by the line-of-sight detection sensor 47 to the functional unit of the image processing apparatus 200A. .
  • an input / output interface such as a USB interface or a Bluetooth (registered trademark) interface
  • an interface for connecting to a LAN or the Internet such as a multimedia drive and a network adapter, and the like. Exchange data between the two.
  • the input / output unit 41 also receives the first left-eye image 5L and the first right-eye image 5R by receiving a storage medium such as an optical disk in which the first left-eye image 5L and the first right-eye image 5R are stored in advance. It can be supplied to the functional unit of the image processing apparatus 200A.
  • a storage medium such as an optical disk in which the first left-eye image 5L and the first right-eye image 5R are stored in advance. It can be supplied to the functional unit of the image processing apparatus 200A.
  • CG computer graphics
  • the operation unit 42 includes, for example, a keyboard or a mouse. When the operator operates the operation unit 42, setting of various control parameters for the image processing apparatus 200A and various operation modes of the image processing apparatus 200A are performed. Settings are made.
  • the functional unit of the image processing apparatus 200 ⁇ / b> A is configured to perform processing according to each operation mode set from the operation unit 42.
  • the display unit 43 is configured by, for example, a liquid crystal display screen for 3D display corresponding to a 3D display system such as a parallax barrier system. Further, the display unit 43 includes an image processing unit (not shown) that converts a stereoscopic image into an image format corresponding to the three-dimensional display method in the display unit 43, and the display unit 43 converts the necessary conversion by the image processing unit. The processed stereoscopic image is displayed on the display screen. As a three-dimensional display method in the display unit 43, for example, the left-eye image and the right-eye image are alternately switched at a high speed and displayed on the display unit 43, and each shutter corresponding to the left eye and the right eye is synchronized with the switching.
  • the display unit 43 displays the first left-eye image 5L, the first right-eye image 5R, and various setting information related to the image processing apparatus 200A supplied from the stereo camera 300 as a two-dimensional image or character information as an observer. It can also be displayed so that it can be visually recognized.
  • ROM (Read Only Memory) 44 is a read-only memory and stores a program PG1 for operating the CPU 11A.
  • a readable / writable nonvolatile memory (for example, a flash memory) may be used instead of the ROM 44.
  • a RAM (Random Access Memory) 45 is a readable / writable volatile memory, and an image storage unit that temporarily stores various images acquired by the image processing apparatus 200A and various stereoscopic images generated by the image processing apparatus 200A.
  • the CPU 11A functions as a work memory for temporarily storing processing information.
  • the storage device 46 is configured by, for example, a readable / writable nonvolatile memory such as a flash memory, a hard disk device, or the like, and permanently records information such as various control parameters and various operation modes of the image processing device 200A.
  • the storage device 46 also detects the left eye index image 6L (FIG. 2) and the right eye index image 6R in the detection program PG2 and the three-dimensional index image generation unit 18 (FIG. 2) executed in the detection unit 13 (FIG. 2) described later.
  • the original index image 6S (FIGS. 2 and 10) used for generating (FIG. 2) is also permanently stored.
  • a CPU (Central Processing Unit) 11A is a control processing device that controls and controls each functional unit of the image processing device 200A, and executes control and processing according to the program PG1 and the like stored in the ROM 44.
  • the CPU 11A includes a stereoscopic image acquisition unit 12, a detection unit 13, a determination unit 14, an observer information acquisition unit 15a, an environment information acquisition unit 15b, a parallax generation unit 16, a position specification unit 17a, a size specification unit 17b, and a stereoscopic index image generation unit. 18 and the combination unit 19 (FIG. 2).
  • the CPU 11A uses these functional units and the like to display the first left-eye image 5L and the first right-eye image 5R representing the image of the observation object, that is, the first three-dimensional image G5 in time series (FIG. 2).
  • the second left-eye image 7L (FIG. 2) and the second time-series image each including the image of the observation object and the image of the index object for making the stereoscopic image of the observation object stand out.
  • a right-eye image 7R (FIG. 2) that is, a time-series second stereoscopic image G7 (FIG. 2) is generated.
  • the CPU 11A is observed farther than the time-series first stereoscopic image G5 of the observation object under the same image display conditions.
  • a time-series stereoscopic image (also referred to as “stereoscopic index image”) G6 (FIG. 2) of the index object having such parallax is generated.
  • the time-series stereoscopic index image G6 has a perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 corresponding to the difference between the representative value of the parallax of the first stereoscopic image G5 and the parallax of the stereoscopic index image G6. Generated to increase in time series.
  • the CPU 11A combines the first three-dimensional image G5 and the generated three-dimensional index image G6 in time-series order, and thereby the time-series second three-dimensional image G7, that is, the time-series second left-eye image 7L and the second right-eye image.
  • An image 7R is generated.
  • the perspective difference between the first stereoscopic image G5 related to the observation object and the stereoscopic index image G6 related to the index object increases in time series. That is, in the second stereoscopic image G7, the three-dimensionalization is performed such that the perspective is dynamically expanded, thereby improving the sense of depth that the observer who observes the second stereoscopic image G7 learns. Can be.
  • the CPU 11A controls the operations of the stereo camera 300 and the line-of-sight detection sensor 47, and controls the display unit 43 to display various images, calculation results, various control information, and the like on the display unit 43.
  • the CPU 11 A, the input / output unit 41, the operation unit 42, the display unit 43, the ROM 44, the RAM 45, the storage device 46, and the like are electrically connected via a signal line 49. Therefore, for example, the CPU 11A performs control of the stereo camera 300 via the input / output unit 41, acquisition of image information from the stereo camera 300, acquisition of line-of-sight information from the line-of-sight detection sensor 47, display on the display unit 43, and the like. It can be executed at a predetermined timing.
  • the function units of the three-dimensional index image generation unit 18 and the combination unit 19 are realized by executing a predetermined program by the CPU 11A. Each of these function units is, for example, a dedicated hardware circuit. It may be realized.
  • the right-eye image and the left-eye image constituting the stereoscopic image have a relationship in which the positions of pixels corresponding to the same part of the object are shifted from each other in the left-right direction (X-axis direction in FIG. 3). Yes.
  • the amount of displacement of the position of the pixel capturing the same part of the object between the left-eye image and the right-eye image more specifically, the target pixel in the left-eye image corresponding to the same part of the object, respectively.
  • the position (X coordinate) of the corresponding pixel in the image space of the right-eye image is subtracted from the position of the target pixel (X-coordinate) in the image space of the left-eye image by Equation (1).
  • the subtraction result is also referred to as “parallax”.
  • the parallax value is negative, the same part of the object corresponding to the target pixel in the left-eye image and the corresponding pixel in the right-eye image is more than the display screen. Observed nearby. If the parallax value is zero, the same portion is observed at the same position as the display screen. If the parallax value is negative, the same portion is observed farther than the display screen.
  • FIG. 3 is a diagram for explaining an example of parallax between the left-eye image 23L and the right-eye image 23R constituting the stereo image.
  • the left-eye image 23L is an example of the first left-eye image 5L (FIGS. 1 and 2) of the subject photographed by the first camera 61
  • the right-eye image 23R is relative to the first camera 61.
  • This is an example of the first right-eye image 5R (FIGS. 1 and 2) of the subject photographed by the second camera 62 provided with a predetermined baseline length in the horizontal direction (+ X direction in FIG. 3).
  • the left-eye image 23L and the right-eye image 23R are arranged in the horizontal direction (the X axis in FIG. 5) so that the Y coordinates of the upper ends (lower ends) of both the images are equal to each other. (Direction).
  • foreground subject images 66a and 66b of the same near-side subject located in the + Z direction with respect to the stereo camera 300 are taken, respectively, and the stereo camera 300
  • far-field subject images 67a and 67b are photographed for the same far-side subject that is farther from the near-side subject in the + Z direction.
  • the pixel 68a on the foreground subject image 66a and the pixel 68b on the foreground subject image 66b are pixels corresponding to the same point of the near-side subject, respectively
  • the pixel 69b is a pixel corresponding to the same point of the far-side subject.
  • the parallax 9a is a parallax between the pixel 68a and the pixel 68b
  • the parallax 9b is a parallax between the pixel 69a and the pixel 69b.
  • Both the parallax 9a and the parallax 9b have positive values, and the size of the parallax 9a corresponding to the near subject is larger than that of the parallax 9b corresponding to the far subject. Therefore, when the left-eye image 23L and the right-eye image 23R are displayed as stereoscopic images on the display screen of the display unit 43 in this state, the point on the near subject corresponding to the parallax 9a is the parallax 9b. Are observed closer to the point on the far-side subject corresponding to, and both of these two points are observed closer to the display screen.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the image processing apparatus 200A according to the embodiment.
  • the stereoscopic image acquisition unit 12 illustrated in FIG. 2 includes a plurality of first left-eye images 5L (FIG. 2) each including images representing the observation target in time series, and the observation target. Via the input / output unit 41, image information related to a plurality of first right-eye images 5R (FIG. 2) including each image represented in series and having a parallax with each of the plurality of first left-eye images 5L. Get.
  • the acquired time-series first left-eye image 5L and right-eye index image 5R are supplied to the detection unit 13, the determination unit 14, and the combination unit 19, respectively.
  • FIG. 4 and 5 are diagrams illustrating first stereoscopic images G5a and G5b, respectively, as an example of the first stereoscopic image G5 (FIG. 2) acquired by the stereoscopic image acquisition unit 12 (FIG. 2) of the image processing apparatus 200A. It is.
  • the first left-eye image 5L1 and the first right-eye image 5R1 constituting the first stereoscopic image G5a are images in which the observation object is photographed synchronously at a certain time t1, and the first The first left-eye image 5L2 and the first right-eye image 5R2 constituting the stereoscopic image G5b (FIG. 5) were taken in synchronization with each other at the time t2 when a predetermined time has elapsed from the time t1. It is an image. That is, the first stereoscopic images G5a and G5b constitute a time-series first stereoscopic image G5.
  • first left-eye images 5L1 and 5L2 constitute a plurality of first left-eye images each including images representing the observation target in time series, that is, time-series first left-eye images 5L.
  • first right-eye images 5R1 and 5R2 constitute a plurality of first right-eye images each including images representing the observation object in time series, that is, time-series first right-eye images 5R. Yes.
  • the observation object images 1L1 and 1L2 are images of the observation object in the first left-eye images 5L1 and 5L2, respectively.
  • the observation object images 1R1 and 1R2 are the observations in the first right-eye images 5R1 and 5R2, respectively. It is an image of an object.
  • the observation object images 1L1 and 1R1 have the same size in the image space, and the observation object images 1L2 and 1R2 have the same size in the image space.
  • the size of the observation object image 1L1 is larger than the size of the observation object image 1L2.
  • the position of the observation object image 1R1 in the first right-eye image 5R1 is shifted to the left ( ⁇ X side) with respect to the position of the observation object image 1L1 in the first left-eye image 5L1.
  • the position of the observation object image 1R2 in the first right-eye image 5R2 is also shifted to the left ( ⁇ X side) with respect to the position of the observation object image 1L2 in the first left-eye image 5L2.
  • the first left-eye image 5L1 and the first right-eye image 5R1 have a positive parallax with each other, and the first left-eye image 5L2 and the first right-eye image 5R2 are mutually positive. It has a number of parallaxes.
  • the position corresponding to the outer edge of the observation object image 1L1 in the first left-eye image 5L1 is indicated by a broken line so that the comparison is easy.
  • the position corresponding to the outer edge of the observation object image 1L2 in the first left-eye image 5L2 is indicated by a broken line.
  • Detection unit 13 The detection unit 13 illustrated in FIG. 2 performs detection processing for detecting each of the attention areas that are predicted to attract the viewer's eyes in the first stereoscopic image G5 according to a preset detection rule.
  • the detection unit 13 performs the detection process by executing the detection program PG2 (FIG. 2) stored in the storage device 46 in advance.
  • the detection program PG2 is a program that implements a method for detecting each of the attention areas that are predicted to attract the viewer's eyes in the first stereoscopic image G5 according to a preset detection rule.
  • the detection program PG2 for example, a process of detecting a region of interest based on the observer's line-of-sight information supplied from the line-of-sight detection sensor 47 and the mutual arrangement relationship between the line-of-sight detection sensor 47 and the display unit 43 is realized.
  • the program is adopted.
  • the detection program PG2 for example, a program that realizes a process of acquiring color information of each image constituting the first stereoscopic image G5 and detecting a color area different from the surrounding area as an attention area, and paying attention to an area brighter than the surrounding area Even if a program that realizes a process for detecting an area or a program that realizes a process for detecting a person area in the first stereoscopic image G5 using a person detection algorithm and detecting the area as an attention area is adopted. It does not impair usability.
  • the attention areas 38a and 38b shown in FIG. 4 are examples of attention areas in the first left-eye images 5L1 and 5L2, respectively, and the attention areas 39a and 39b are attention in the first right-eye images 5R1 and 5R2, respectively. It is an example of a field.
  • the attention areas 38a, 38b, 39a, and 39b are rectangular areas that are in contact with the outer edges of the observation object images 1L1, 1L2, 1R1, and 1R2. These areas may be detected as the attention areas as they are.
  • the detection unit 13 When the region of interest is detected by the detection unit 13, the detection unit 13 generates region information 31 (FIG. 2) related to the detected region of interest. Each of the generated region information 31 is supplied to the determination unit 14.
  • Determining unit 14 The determination unit 14 illustrated in FIG. 2 performs parallax for each combination in which a plurality of time-series first left-eye images 5L and a plurality of time-series first right-eye images 5R correspond to each other in time-series order.
  • a representative parallax 32 which is a representative value, is determined.
  • An example of a specific procedure in which the determination unit 14 determines the representative parallax 32 will be described below by taking, as an example, a case where the two sets of first stereoscopic images illustrated in FIG. 4 are acquired.
  • the determining unit 14 determines the representative parallax 32 by sequentially executing the following steps (a-1) to (a-4).
  • the determination unit 14 First, the determination unit 14 first determines the region of interest 38a and the first right eye in the first left eye image 5L1 based on the region information 31 corresponding to the first left eye image 5L1 and the first right eye image 5R1, respectively.
  • the attention area 39a in the work image 5R1 is specified.
  • the determination unit 14 performs the matching process using the correlation calculation method between the corresponding attention areas, that is, between the attention areas 38a and 39a, thereby obtaining the attention area.
  • Each corresponding pixel in the attention area 39a corresponding to each attention pixel in 38a is specified.
  • the determination unit 14 acquires, as each parallax, a subtraction result obtained by subtracting the X coordinate of each corresponding pixel from the X coordinate of each target pixel.
  • a correlation calculation method used for the matching processing for example, an NCC (Normalized Cross Correlation) method, an SAD (Sum of Absolute Difference) method, or a POC (Phase Only Correlation) method is employed.
  • the determination unit 14 determines the representative parallax 32 (FIG. 2) between the first left-eye image 5L1 and the first right-eye image 5R1. .
  • the representative parallax 32 for example, one of an average value, a maximum value, a minimum value, a mode value, and a median value for each parallax between the attention areas 38a and 39a may be employed.
  • the representative parallax 32 may be determined based on the parallax position of a part of the attention area such as the center of gravity position of the attention area or each pixel on the contour of the image on the attention area.
  • the determination unit 14 performs the steps (a-1) to (a-4) for the first left-eye image 5L2 and the first right-eye image 5R2 in the same manner, thereby performing the first left-eye image 5L2.
  • a representative parallax 32 between the image 5L2 and the first right-eye image 5R2 is determined.
  • the determined representative parallax 32 is supplied to the parallax generation unit 16.
  • steps (a-1) to (a-4) the attention area is specified, and the representative parallax 32 is determined based on the image information of the specified attention area.
  • the determination unit 14 covers each of the entire regions of the corresponding first left-eye image and first right-eye image, and each processing step corresponding to steps (a-2) to (a-4).
  • the representative parallax 32 between the first left-eye image 5L1 and the first right-eye image 5R1, and the representative between the first left-eye image 5L2 and the first right-eye image 5R2. Even if the parallax 32 is determined, the usefulness of the present invention is not impaired.
  • Observer information acquisition unit 15a The observer information acquisition unit 15a illustrated in FIG. 2 analyzes the image of the observer photographed by the line-of-sight detection sensor 47 using a technique such as template matching, for example, and assumes the observation assumed for the second stereoscopic image G7.
  • Type information 33 which is information related to the type of the person, is acquired.
  • the observer information acquisition unit 15a acquires, for example, the type information 33 related to the type of the observer stored in the representative position information 36 from the storage device 46 via the operation unit 42 according to the set operation mode.
  • the type information 33 may be acquired.
  • the type information 33 for example, information on the age of the observer, information on the patient's disease, and the like are employed.
  • the acquired type information 33 is supplied to the parallax generation unit 16.
  • Environmental information acquisition unit 15b acquires, for example, a statistical distribution state of each pixel value in an image related to the observation environment captured by the line-of-sight detection sensor 47, or stores it in advance via the operation unit 42.
  • the environment information 34 which is information related to the observation environment assumed for the second stereoscopic image G7, is acquired.
  • As the environment information 34 for example, an index value for each stage divided into three stages from the dark side to the bright side of the observation environment is adopted.
  • the acquired environment information 34 is supplied to the parallax generation unit 16.
  • ⁇ Parallax generator 16 The parallax generation unit 16 illustrated in FIG. 2 generates a plurality of index parallaxes 35 that are a plurality of parallaxes respectively corresponding to a plurality of time-series stereoscopic index images G6 generated by the stereoscopic index image generation unit 18. In the generation processing of the plurality of index parallaxes 35, the parallax generation unit 16 determines the plurality of index parallaxes for the plurality of representative parallaxes 32 respectively corresponding to the time-series first stereoscopic images G5 determined by the determination unit 14. A plurality of index parallaxes 35 are generated so that each subtraction result obtained by subtracting a plurality of representative parallaxes 32 from 35 in order of time series sequentially decreases.
  • the parallax generation unit 16 uses the time-series stereoscopic index image G6 respectively corresponding to the time-series first stereoscopic image G5, rather than the time-series first stereoscopic image G5, under the same image display conditions. Each of them generates a plurality of index parallaxes 35 so that they are observed more distantly, and corresponds to the difference between the representative parallax 32 of the first stereoscopic image G5 and the index parallax 35 of the stereoscopic index image G6. A plurality of index parallaxes 35 are generated so that the perspective difference between the one-dimensional image G5 and the stereoscopic index image G6 increases in time series.
  • FIG. 10 shows time-series stereoscopic index images G6 (shown in FIGS. 6 and 7, respectively) generated by the parallax generation unit 16 corresponding to the first stereoscopic images G5a and G5b shown in FIGS. 4 and 5, respectively. It is a figure for demonstrating an example of the production
  • the line segment 81a is a line segment indicating temporal changes in the representative parallax 32 corresponding to the time-series first stereoscopic images G5a and G5b acquired at times t1 and t2, respectively.
  • a point p1 is obtained by drawing the value dm1 of the representative parallax 32 of the first stereoscopic image G5a with respect to time t1.
  • a point p2 is obtained by drawing the value dm2 of the representative parallax 32 of the first stereoscopic image G5b with respect to the time t2.
  • the line segment 81b is a line segment indicating temporal changes in the index parallax 35 relating to the stereoscopic index images G6a (FIG. 6) and G6b (FIG. 7) respectively corresponding to the first stereoscopic images G5a and G5b.
  • a point p3 is obtained by drawing the value di1 of the index parallax 35 of the stereoscopic index image G6a with respect to time t1.
  • a point p4 is obtained by drawing the value di2 of the index parallax 35 of the stereoscopic index image G6b with respect to time t2.
  • the line segment 81c is a line segment indicating a temporal change in a subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35.
  • a point p5 is obtained by drawing a value su1 as a subtraction result obtained by subtracting the representative parallax 32 of the first stereoscopic image G5a from the index parallax 35 of the stereoscopic index image G6a with respect to time t1.
  • a point p6 is obtained by drawing a subtraction result su2 obtained by subtracting the representative parallax 32 of the first stereoscopic image G5b from the index parallax 35 of the stereoscopic index image G6b with respect to time t2.
  • the parallax generation unit 16 first time-seriesly represents the representative parallax 32 of the first stereoscopic image G5 from the index parallax 35 of the stereoscopic index image G6.
  • Subtraction result values su1 and su2 obtained by subtraction in order are set.
  • the setting is performed by setting negative values su1 and su2 so that the values su1 and su2 satisfy the relationship of the expression (2). If the value su1 has already been set, only the value su2 is set.
  • the parallax generation unit 16 uses the set values su1 and su2 and the values dm1 and dm2 of the representative parallax 32 supplied from the determination unit 14 as equations (3) and (4). And a plurality of index parallaxes 35 relating to the stereoscopic index images G6a and G6b, respectively, are generated by calculating the values di1 and di2 of the multiple index parallaxes 35 relating to the stereoscopic index images G6a and G6b, respectively.
  • the parallax generation unit 16 when the first stereoscopic image G5 is not time-sequential and is configured by one first left-eye image 5L and first right-eye image 5R, that is, only dm1 is acquired from the values dm1 and dm2.
  • the parallax generation unit 16 generates a plurality of index parallaxes 35 respectively related to the stereoscopic index images G6a and G6b by setting the value dm1 to the value dm2.
  • the plurality of generated index parallaxes 35 are supplied to the stereoscopic index image generation unit 18.
  • the mode of reduction from the value su1 to the value su2 that is, the mode of time-series reduction of the subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35 is related to the parallax generation unit 16 set in advance.
  • the operation mode for example, according to at least one of the value of the representative parallax 32, the time-series change rate of the representative parallax 32, the type information 33, the environment information 34, and the pixel value information of the first stereoscopic image G5. Can be set.
  • the increase rate of the time-series perspective difference between the observation object image and the index object image in FIG. 5 is the value of the representative parallax 32, the time-series change rate of the representative parallax 32, type information 33, environment information 34, and It can be set according to at least one of the pixel value information of the first stereoscopic image G5.
  • the parallax generation unit 16 When a time-series decrease mode is set for the subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35 according to the value of the representative parallax 32, the parallax generation unit 16, for example, The larger the value of the representative parallax 32 at t1, that is, the closer the distance of the first stereoscopic image G5a observed from the predetermined reference origin, the smaller the rate of decrease from the value su1 to the value su2.
  • the setting is such that when the distance of the first stereoscopic image G5 is short, the time-series increase rate of the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 is smaller than when the distance is long. This is performed based on the fact that the depth sensation that an observer who observes the second stereoscopic image G7 can remember is improved.
  • the parallax generation unit 16 When a time-series decrease mode is set for a subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35 according to the time-series change rate of the representative parallax 32, the parallax generation unit 16 For example, the larger the time-series change rate of the representative parallax 32, that is, the greater the change rate of the distance of the first stereoscopic image G5 observed from the predetermined reference origin, the value from the value su1. The rate of decrease to su2 is set small.
  • the setting is such that when the change rate of the distance of the first stereoscopic image G5 is large, the time-series increase rate of the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 is compared with the case where the change rate is small. This is based on the fact that even if the image size is small, the depth feeling that the observer who observes the second stereoscopic image G7 can remember can be improved.
  • the parallax generation unit 16 When the type information 33 corresponds to an infant or an elderly person, the value su1 is changed to the value su2 compared to the case where the type information 33 corresponds to a young group of 10's to 20's. Set the decrease rate of. The setting is performed based on the fact that when the observer is an infant or an elderly person, poor physical condition and eye fatigue are more likely to occur due to the influence of visual changes than the younger generation.
  • the parallax generation unit 16 When a time-series reduction mode is set for the subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35 according to the environment information 34 about the observation environment, the parallax generation unit 16 The illuminance of the observation environment is estimated based on the type information 33, and when the illuminance is high, the decrease rate from the value su1 to the value su2 is set smaller than when the illuminance is low. This setting allows the second stereoscopic image G7 to be observed even when the time-series increase rate of the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 is small when the illumination intensity of the observation environment is high compared to when the illumination environment is low. This is based on the fact that the depth perceived by the observer can be improved.
  • a time-series reduction mode is set for the subtraction result (difference) obtained by subtracting the representative parallax 32 from the index parallax 35 according to at least one pixel value information of the entire first stereoscopic image G5 and the attention area.
  • the decrease rate from the value su1 to the value su2 is set smaller than when the pixel value is small.
  • This setting is not necessary when the pixel value of the first stereoscopic image G5 is large, even if the time-series increase rate of the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 is small compared to when the pixel value is small. This is performed based on the fact that the depth feeling that the observer who observes the stereoscopic image G7 can remember is improved.
  • the index parallax 35 is generated based on the information regarding the first stereoscopic image G5 at two times. Even if the index parallax 35 is generated in the same manner as the setting example of FIG. 10 based on the information about the first stereoscopic image G5 at three or more times, the usefulness of the present invention is not impaired. If the index parallax 35 is generated based on information about the first stereoscopic image G5 at each of three or more times, the index parallax 35 is generated based on information about the first stereoscopic image G5 at two times. In comparison, the time-series fluctuation of the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 can be stabilized, and the discomfort felt by the observer observing the second stereoscopic image G7 can be further reduced.
  • the generation process for generating the index parallax 35 by the method illustrated in FIG. 10 is repeated based on the information regarding the first stereoscopic image G5 at two times, for example, the index parallax 35 in the previous generation process and A value obtained by weighting a reduction rate of the difference from the representative parallax 32 and the reduction rate in the generation process of the index parallax 35 based on information on the first stereoscopic image G5 at two times in the generation process being processed. Even if the average value is adopted as the final value of the reduction rate in the generation process during the process and the index parallax 35 is generated, the usefulness of the present invention is not impaired.
  • Position specifying part 17a The position specifying unit 17a illustrated in FIG. 2 generates representative position information 36 that is information regarding the position of the three-dimensional index image G6 at each time.
  • the position of the three-dimensional index image G6 is also referred to as a “representative position” because it is a position related to each of the left-eye index image 6L and the right-eye index image 6R constituting the stereoscopic index image G6.
  • the generated representative position information 36 is supplied to the stereoscopic index image generation unit 18.
  • the stereoscopic index image generation unit 18 determines the positions in the image space of the left-eye index image 6L and the right-eye index image 6R constituting the stereoscopic index image G6 based on the representative position information 36, the index parallax 35, and the like.
  • the left eye index image 6L and the right eye index image 6R are generated.
  • the position specifying unit 17a can perform a plurality of methods as a method for generating the representative position information 36 of the stereoscopic index image G6 according to the set operation mode.
  • -About representative position generation mode 1 When the representative position generation mode 1 is set, the position specifying unit 17a follows the time-series position change of the attention area in the image space of the first stereoscopic image G5, and the position of the stereoscopic index image G6 is timed.
  • Representative position information 36 which is information about the representative position of the three-dimensional index image G6 at each time, is generated so as to change in series.
  • FIG. 11 is a diagram illustrating an example of a time-series change in the position of the three-dimensional index image G6 in the representative position generation mode 1.
  • the first left-eye image 5L3 at time t1 (FIG. 10) and the first left-eye image 5L4 at time t2 (FIG. 10) are displayed superimposed on the same image space.
  • the first left-eye image 5L3 includes a left-eye observation object image 1L3 related to the observation object
  • the first left-eye image 5L4 includes a left-eye observation object image 1L4 related to the observation object.
  • the image areas of the first left-eye images 5L3 and 5L4 are detected as attention areas by the detection unit 13.
  • the position of the observation object image for the left eye is changed from the position of the observation object image 1L3 along the arrow Y1 to the observation object image 1L4. It has moved to the position.
  • the left-eye index image 6L3 related to the three-dimensional index image G6 at time t1 is displayed in a manner arranged in the first left-eye image 5L3.
  • the left-eye index image 6L4 related to the stereoscopic index image G6 at the time t2 is displayed in a manner arranged in the first left-eye image 5L4.
  • the left-eye index images 6L3 and 6L4 are respectively generated by the three-dimensional index image generation unit 18 based on the representative position information 36 corresponding to the times t1 and t2 generated by the position specifying unit 17a.
  • the position of the left-eye index image related to the stereoscopic index image G6 follows the time-series position change of the observation object image, that is, the attention area, and the left-eye index.
  • the position is moved from the position of the image 6L3 to the position of the left eye index image 6L4 along the arrow Y2.
  • the stereoscopic index image G6 is generated based on the representative position information 36 generated by the position specifying unit 17a set in the representative position generation mode 1, the first stereoscopic image G5 is displayed. Since the relative positional relationship between the attention area and the three-dimensional index image G6 does not vary with time, it is possible to improve the sense of depth that an observer who observes the second three-dimensional image G7 learns.
  • -About representative position generation mode 2 When the representative position generation mode 2 is set, the position designating unit 17a moves the predetermined index object image in the stereoscopic index image G6 toward a predetermined vanishing point (FOE) in time series.
  • the representative position information 36 that is information related to the representative position of the three-dimensional index image G6 at each time is generated.
  • the vanishing point is a fixed point determined by the relative movement direction of the index object with respect to the camera, and is determined by setting the movement direction of the index object in advance.
  • FIG. 12 is a diagram illustrating an example of a time-series change in the position of the three-dimensional index image G6 in the representative position generation mode 2.
  • the left eye index image 6L5 related to the stereoscopic index image G6 at time t1 (FIG. 10) is arranged in the image space of the first left eye image 5L5 related to the first stereoscopic image G5 at time t1. It is displayed. Further, the left-eye index image 6L6 related to the stereoscopic index image G6 at time t2 (FIG. 10) is displayed in a manner arranged in the image space of the first left-eye image 5L6 related to the first stereoscopic image G5 at time t2. Yes.
  • the left-eye index images 6L5 and 6L6 are respectively generated by the three-dimensional index image generating unit 18 based on the representative position information 36 corresponding to the times t1 and t2 generated by the position specifying unit 17a.
  • the position of the left-eye index image moves along the two-dimensional movement vectors 91 a and 91 b toward the vanishing point 104 during the elapse of time from time t ⁇ b> 1 to time t ⁇ b> 2. It has moved from the position of 6L5 to the position of the left eye index image 6L6.
  • the three-dimensional index image G6 is generated based on the representative position information 36 generated by the position specifying unit 17a set in the representative position generation mode 2, a predetermined value in the three-dimensional index image G6 is set. Since the three-dimensional index image G6 at each time is generated so that the image of the index object moves away toward a predetermined vanishing point in time series, a depth feeling that an observer who observes the second three-dimensional image G7 remembers Can be improved.
  • the size of the left-eye index image is generated with the passage of time due to the size information 37 generated by the size specifying unit 17 b described later, but the size is not changed. Even if the left-eye index image is moved from the position of the left-eye index image 6L5 toward the vanishing point 104 to the position of the left-eye index image 6L6, the usefulness of the present invention is not impaired.
  • the image of the predetermined index object in the three-dimensional index image G6 is moved in time series. However, even if the movement is not performed, that is, the index object Even if the position of the image is fixed in time, the usefulness of the present invention is not impaired.
  • Size designation part 17b The size designating unit 17b shown in FIG. 2 shows the size of the 3D index image G6 in the image space at each time so as to reduce the size of the index object appearing in the 3D index image G6 in time series.
  • the size information 37 which is information about the length, is generated.
  • the generated size information 37 is supplied to the stereoscopic index image generation unit 18.
  • the stereoscopic index image generation unit 18 sets the size in the image space of the left-eye index image 6L and the right-eye index image 6R constituting the stereoscopic index image G6 based on the size information 37, the index parallax 35, and the like.
  • An index image 6L and a right-eye index image 6R are generated.
  • the stereoscopic index image generation unit 18 determines the size of the index object appearing in the stereoscopic index image G6.
  • the perspective difference between the first stereoscopic image G5 and the stereoscopic index image G6 can be changed while decreasing in time series.
  • An observer who observes the second stereoscopic image G7 can learn not only the sense of depth due to the perspective difference but also the sense of depth due to the reduction in the size of the index object, so that the sense of depth that the observer can remember can be improved.
  • the size designation unit 17b does not change the size in the image space of the left-eye index image 6L and the right-eye index image 6R constituting the stereoscopic index image G6 in time series, that is, the image of the index object image. Even if the size is fixed in time, the usefulness of the present invention is not impaired.
  • the stereoscopic index image generation unit 18 shown in FIG. 2 includes an index parallax 35 (FIG. 2), representative position information 36 (FIG. 2), size information 37 (FIG. 2), and an original index image 6S (FIG. 2). Based on the time-series solid index of the index object having a parallax that is observed farther than the time-series first stereoscopic image G5 (FIG. 2) of the observation object under the same image display conditions. An image G6 (FIG. 2) is generated.
  • the time-series stereoscopic index image G6 is a perspective of the first stereoscopic image G5 and the stereoscopic index image G6 corresponding to the difference between the representative parallax of the first stereoscopic image G5 and the parallax of the stereoscopic index image G6.
  • the difference is generated so as to increase in time series.
  • the generated time-series stereoscopic index image G6 is supplied to the combination unit 19.
  • the combination unit 19 combines the generated time-series plurality of stereoscopic index images G6 and the time-series plurality of first stereoscopic images G5 in time-series order, thereby generating a time-series second stereoscopic image G7, that is, A time-series second left-eye image 7L and second right-eye image 7R are generated.
  • FIG. 6 and 7 are diagrams showing three-dimensional index images G6a and G6b, respectively, as an example of the three-dimensional index image G6 (FIG. 2) generated by the three-dimensional index image generating unit 18.
  • the left-eye index image 6L1 and the right-eye index image 6R1 constituting the stereoscopic index image G6a are images in which index objects at a certain time t1 are respectively expressed in synchronization
  • the stereoscopic index image G6b are images in which the index objects are respectively expressed synchronously at time t2 when a predetermined time has elapsed from time t1. That is, the stereoscopic index images G6a and G6b constitute a time-series stereoscopic index image G6 (FIG. 2).
  • the times t1 and t2 related to the index object are the same as the times t1 and t2 related to the first stereoscopic image G5a (FIG. 4) and the first stereoscopic image G5b (FIG. 5), respectively.
  • times t1 and t2 related to a second stereoscopic image G7a (FIG. 8) and a second stereoscopic image G7b (FIG. 9), which will be described later, are also the first stereoscopic image G5a (FIG. 4) and the first stereoscopic image G5b (FIG. 5). It is the same time as the time t1 and t2 concerning each.
  • the left-eye index images 6L1 and 6L2 are shown in a form arranged in the image spaces of the first left-eye images 5L1 (FIG. 4) and 5L2 (FIG. 5), respectively.
  • the right-eye index images 6R1 and 6R2 The right eye images 5R1 (FIG. 4) and 5R2 (FIG. 5) are respectively shown in a manner arranged in the image space.
  • the left-eye index images 6L1 and 6L2 constitute a plurality of left-eye index images 6L each including images representing the index objects in time series, that is, time-series left-eye index images 6L (FIG. 2). Yes.
  • the right-eye index images 6R1 and 6R2 constitute a plurality of right-eye index images 6R each including images representing the index objects in time series, that is, time-series right-eye index images 6R.
  • the left-eye index image 6L1 and the right-eye index image 6R1 have the same size in the image space, and the left-eye index image 6L2 and the right-eye index image 6R2 have the same size in the image space.
  • the size of the left-eye index image 6L1 is larger than the size of the left-eye index image 6L2.
  • the position of the right eye index image 6R1 in the image space of the first right eye image 5R1 is shifted to the right (+ X side) with respect to the position of the left eye index image 6L1 in the image space of the first left eye image 5L1.
  • the position of the right eye index image 6R2 in the image space of the first right eye image 5R2 is also shifted to the right (+ X side) with respect to the position of the left eye index image 6L2 in the image space of the first left eye image 5L2.
  • the left-eye index image 6L1 and the right-eye index image 6R1 have a negative parallax with each other
  • the left-eye index image 6L2 and the right-eye index image 6R2 have a negative parallax with each other. ing.
  • a position corresponding to the outer edge of the left-eye index image 6L1, that is, the index object image in the image space of the first left-eye image 5L1, so that comparison is easy. Is indicated by a broken line.
  • a position corresponding to the outer edge of the left-eye index image 6L2 in the first left-eye image 5L2 that is, the index object image is indicated by a broken line.
  • the time-series stereoscopic index image G6 related to the index object shown in FIGS. 6 and 7 is farther than the time-series first stereoscopic image G5 related to the observation object shown in FIGS. 4 and 5.
  • the time-series stereoscopic index image G6 is a perspective of the first stereoscopic image G5 and the stereoscopic index image G6 corresponding to the difference between the parallax representative value of the first stereoscopic image G5 and the parallax of the stereoscopic index image G6. The difference is generated so as to increase in time series.
  • FIG. 13 is a diagram for explaining an example of a method for generating the three-dimensional index image G6 (FIG. 2).
  • the three-dimensional index image generation unit 18 acquires the original index image 6S (FIG. 2) that is an image related to the index object specified in advance by the specifying process from the operation unit 42 from the storage device 46, and also acquires the original index image.
  • a three-dimensional index image G6 is generated.
  • the original index image 6S, the intermediate index image 6C, the left-eye index image 6L, and the right-eye index image 6R shown in FIG. 13 are the first left-eye image 5L and the first first-eye image 5L that are arranged so that the image spaces coincide with each other. It is shown in a form arranged in an image space corresponding to the right-eye image 5R.
  • the left-eye index image 6L and the right-eye index image 6R related to the stereoscopic index image G6 may be, for example, specific markers.
  • the specific marker may have a unique characteristic and can be easily distinguished from an object originally included in the left-eye image GL and the right-eye image GR by the user.
  • Intrinsic features can be realized, for example, by shape, color, texture, and the like.
  • the specific marker may be a marker formed of CG or the like.
  • the specific marker includes, for example, various simple shapes such as a rod (rectangle), a triangle, and an arrow, and various objects such as a vase and a butterfly, in addition to the star shape shown in FIG. Conceivable. This makes it difficult for the observer to confuse the object originally included in the first left-eye image 5L and the first right-eye image 5R with the specific marker.
  • the specific marker has a specific shape, a specific color, a specific texture, and the like, but is translucent, an image display based on the left-eye image GL and the right-eye image GR is displayed. It becomes difficult to be disturbed.
  • the original index image 6S is stored in the storage device 46 as image information in a form in which pixel coordinates in the image space and pixel values are associated with each pixel corresponding to each part of the marker, for example.
  • the original index image 6S is acquired by the stereoscopic index image generation unit 18 and used to generate the left-eye index image 6L and the right-eye index image 6R that form the stereoscopic index image G6.
  • the intermediate index image 6C represents an image of the original index image 6S that is virtually arranged at a position specified based on the representative position information 36 specified by the position specifying unit 17a.
  • the original index image 6S is arranged so that the spatial center-of-gravity position of the original index image 6S matches the position specified by the representative position information 36.
  • the left-eye index image 6L is shown at a position where the intermediate index image 6C is moved in the ⁇ X direction along the path 111 parallel to the X axis. Further, the index image for right eye 6R is shown at a position where the intermediate index image 6C is moved in the + X direction along the path 112 parallel to the X axis.
  • the three-dimensional index image generation unit 18 obtains the X coordinates of the positions (the center of gravity position, etc.) of the left-eye index image 6L and the right-eye index image 6R using the expressions (5) and (6), respectively.
  • the Y coordinates of the positions of the left eye index image 6L and the right eye index image 6R the Y coordinates of the positions specified by the representative position information 36 are employed as they are.
  • the three-dimensional index image generation unit 18 obtains the obtained left-eye index image 6L and the original index image 6S along the paths 113 and 114, respectively.
  • the left-eye index image 6L and the right-eye index image 6R are generated by translating to the respective positions of the right-eye index image 6R.
  • the index parallax 35 is generated for the left-eye index image 6L and the right-eye index image 6R.
  • the position of the intermediate index image 6C is matched with the position of the left-eye index image 6L, and the index parallax 35 is allotted to the right-eye index image 6R. Even if the position of the index image 6R for use is specified, the usefulness of the present invention is not impaired.
  • the original index image 6S is directly moved to the positions of the left-eye index image 6L and the right-eye index image 6R, thereby generating the left-eye index image 6L and the right-eye index image 6R.
  • the original index image 6S is once moved to the position of the intermediate index image 6C and then moved to the positions of the left-eye index image 6L and the right-eye index image 6R, the left-eye index image 6L and Even if the index image 6R for the right eye is generated, the usefulness of the present invention is not impaired.
  • FIG. 14 and 15 are diagrams each illustrating an example of the three-dimensional index image.
  • a left-eye index image 6La configured by two markers on a rectangle is shown in a form arranged in the second left-eye image 7La.
  • the second left-eye image 7La has an image region surrounded by the outer edge 107.
  • the second left-eye image 7La includes a first left-eye image 5L having an image region surrounded by the outer edge 106, and the left-eye index image 6La includes an outer edge 106 of the first left-eye image 5L.
  • the second left-eye image 7La is included in an area 108 surrounded by the outer edge 107 of the second left-eye image 7La.
  • the left-eye index image 6La is composed of a rectangular image pattern.
  • the image pattern is acquired by the image pattern stored in advance in the storage device 46 or the like being read out by the three-dimensional index image generation unit 18.
  • this image pattern for example, an image pattern showing a specific pattern in which relatively large dots are randomly arranged may be employed.
  • the operation mode of the position specifying unit 17a is set to the representative position generation mode 1.
  • the position designating unit 17a sets the position of the left-eye index image 6La based on the representative position information 36 output from the detection unit 13 that detects the observation object image 1L as a region of interest in the time series of the observation object image 1L.
  • the representative position information 36 is generated so as to move following a specific movement.
  • a left-eye index image 6 ⁇ / b> Lb composed of frame-shaped markers is shown in a form arranged on the second left-eye image 7 ⁇ / b> Lb.
  • the difference between the second left-eye image 7Lb and the second left-eye image 7La is the difference in shape between the left-eye index image 6Lb and the left-eye index image 6La and the presence or absence of the movement of the representative position.
  • the position specifying unit 17a displays the initial representative position of the left-eye index image 6Lb shown in FIG. 15 (such as an intermediate position between the left-eye index image and the right-eye index image).
  • a stereoscopic index image G6 (FIG. 2) related to the left-eye index image 6La (FIG. 14) or the left-eye index image 6Lb (FIG. 15), and a first stereoscopic image G5 (FIG. 2) related to the first left-eye image 5L.
  • the second stereoscopic image G7 (FIG. 2) by the combining unit 19, usually, for example, the image relating to the region 108 (FIGS. 14 and 15) is also combined.
  • the first index image 6La related to the left-eye index image 6Lb or the three-dimensional index image G6 related to the left-eye index image 6Lb is displayed on the first stereoscopic image G5 related to the first left-eye image 5L without combining the areas 108. Even if the one-dimensional image G5 and the three-dimensional index image G6 are combined, the usefulness of the present invention is not impaired.
  • Combination part 19 The combination unit 19 illustrated in FIG. 2 combines the first stereoscopic image G5 supplied from the stereoscopic image acquisition unit 12 and the stereoscopic index image G6 supplied from the stereoscopic index image generation unit 18 to generate a time series.
  • a second stereoscopic image G7 that is, a time-series second left-eye image 7L and second right-eye image 7R is generated.
  • FIG. 8 and 9 are diagrams showing second stereoscopic images G7a and G7b, respectively, as an example of the time-series second stereoscopic image G7 (FIG. 2) generated by the combination unit 19.
  • the second left-eye image 7L1 and the second right-eye image 7R1 constituting the second stereoscopic image G7a are images in which the observation object and the index object at a certain time t1 are respectively expressed in synchronization.
  • the second left-eye image 7L2 and the second right-eye image 7R2 constituting the second stereoscopic image G7b are the observation object and the index at a time t2 when a predetermined time has elapsed from the time t1. It is an image in which the object is expressed in synchronization with each other. That is, the second stereoscopic images G7a and G7b constitute a time-series second stereoscopic image G7 (FIG. 2).
  • the second stereoscopic image G7a (FIG. 8) is generated by combining the first stereoscopic image G5a (FIG. 4) and the stereoscopic index image G6a (FIG. 6) by the combining unit 19.
  • the second stereoscopic image G7b (FIG. 9) is generated by combining the first stereoscopic image G5b (FIG. 5) and the stereoscopic index image G6b (FIG. 7) by the combining unit 19.
  • the time-series second stereoscopic image G7 constituted by the second stereoscopic images G7a and G7b
  • the time-series stereoscopic index image relating to the object is more than the time-series first stereoscopic image relating to the observation object indicated by the observation object images 1L1 and 1L2 and the observation object images 1R1 and 1R2, respectively. Observed in the distance. Further, the perspective difference between the time-series stereoscopic index image related to the index object and the time-series first stereoscopic image related to the observation target is observed so as to increase in time series.
  • the index object is observed so as to move away from the observation target in time-series.
  • the perspective of the observation target object and the index target object is observed while spreading dynamically (in time series).
  • Such three-dimensionalization is performed. Therefore, the sense of depth that an observer who observes the second stereoscopic image G7 can remember can be improved.
  • ⁇ Operation flow of image processing apparatus > 16 to 18 are flowcharts showing an operation flow S100A as an example of the operation flow of the image processing apparatus 200A according to the embodiment.
  • the operation flow S100A is an example of an operation flow when the generation process of the second stereoscopic image G7 is started from the situation where the first stereoscopic image G5, the stereoscopic index image G6, and the second stereoscopic image G7 are not generated. Is shown.
  • the operation flow S100A is realized by the CPU 11A reading and executing the program PG1 in the ROM 44 and the detection program PG2 in the storage device 46. For example, execution of image processing relating to a stereoscopic image in the image processing apparatus 200A is requested in accordance with an operation of the operation unit 42 by the user, and the operation flow S100A is started.
  • step S110 in FIG. 16 the stereoscopic image acquisition unit 12 acquires a first stereoscopic image G5 related to the observation target.
  • step S120 the determination unit 14 determines the parallax representative parallax 32 of the first stereoscopic image G5. Note that when the attention area of the first stereoscopic image G5 is detected by the detection unit 13, the representative parallax 32 of the parallax is determined for the attention area.
  • step S130 the parallax generation unit 16, the position specification units 17a and 17b acquire the index parallax 35, the representative position information 36, and the size information 37 related to the stereoscopic image (stereoscopic index image G6) of the index object.
  • step S140 based on the index parallax 35, the representative position information 36, the size information 37, and the original index image 6S, the stereoscopic index image generation unit 18 generates a stereoscopic index image G6 related to the index object. Since the existing stereoscopic index image G6 does not exist at the start of step S140, for example, a predetermined parallax stored in the storage device 46 or the like is subtracted from the parallax of the first stereoscopic image G5 as the index parallax 35. The parallax is used as the index parallax 35. Similarly, as the representative position information 36, a predetermined initial position of the three-dimensional index image G6 is employed as the representative position information 36.
  • step S150 the combination unit 19 generates the second stereoscopic image G7 by combining the first stereoscopic image G5 and the stereoscopic index image G6.
  • the generated second stereoscopic image G7 is displayed on the display unit 43.
  • step S160 the stereoscopic image acquisition unit 12 acquires a new first stereoscopic image G5 related to the observation object.
  • step S170 the determination unit 14 determines the parallax representative parallax 32 of the first stereoscopic image G5. Note that when the attention area of the first stereoscopic image G5 is detected by the detection unit 13, the representative parallax 32 of the parallax is determined for the attention area.
  • step S180 the parallax generation unit 16 performs a new stereoscopic index so that the subtraction result obtained by subtracting the representative value of the parallax of the first stereoscopic image G5 from the parallax of the stereoscopic index image G6 (index parallax 35) decreases in time series.
  • the parallax (index parallax 35) related to the image G6 is acquired.
  • step S190 the size specifying unit 17b determines whether or not the operation mode related to the size specifying unit 17b is an operation mode for changing the size of the index object image in the image space.
  • step S190 If the operation mode for changing the size of the index object image in the image space is set as a result of the determination in step S190, the size designation unit 17b decreases the size in time series in step S200. Thus, the size information 37 is changed, and the process proceeds to step S210.
  • step S190 when the operation mode for changing the size of the index object image in the image space is not set, the size specifying unit 17b does not change the size information 37, and the processing is step. Moved to S210.
  • step S210 the position specifying unit 17a determines whether or not the operation mode related to the position specifying unit 17a is an operation mode for changing the representative position in the image space of the index object image.
  • step S210 when an operation mode for changing the representative position in the image space of the image of the index object is set, in step S220, the position specifying unit 17a determines the index according to the operation mode.
  • the representative position information 36 relating to the representative position in the image space of the object image is changed, and the process proceeds to step S230.
  • step S210 if the operation mode for changing the representative position in the image space of the index object image is not set, the representative position information 36 is not changed by the position specifying unit 17a, and the processing is performed. Is moved to step S230.
  • step S230 based on the index parallax 35, the representative position information 36, the size information 37, and the original index image 6S, the stereoscopic index image generation unit 18 generates a new stereoscopic index image G6 related to the index object.
  • the generated new three-dimensional index image G6 is a three-dimensional image having a parallax that is observed farther than the new first three-dimensional image G5 (step S160) of the observation object under the same image display conditions. .
  • step S240 the combination unit 19 generates a new second stereoscopic image G7 by combining the new first stereoscopic image G5 acquired in step 160 and the new stereoscopic index image G6 generated in step S230. To do.
  • the generated second stereoscopic image G7 is displayed on the display unit 43.
  • the index object is observed as if it is farther from the observation target than the second stereoscopic image G7 generated in step S150.
  • step S250 the stereoscopic image acquisition unit 12 determines whether acquisition of all the first stereoscopic images G5 related to the observation target has been completed.
  • step S250 If it is determined in step S250 that acquisition of all the first stereoscopic images G5 related to the observation target has not been completed, the process returns to step S160.
  • step S250 if acquisition of all the first stereoscopic images G5 related to the observation target has been completed, the processing related to the operation flow S100A is ended.
  • the perspective about the observation object and the index object dynamically spreads (time-series).
  • the three-dimensionalization is observed. Therefore, the sense of depth that an observer who observes the second stereoscopic image G7 can remember can be improved.
  • the image processing apparatus 200A generates the second stereoscopic image G7 and displays it on the display unit 43 each time a new first stereoscopic image G5 is acquired, thereby displaying the display unit A process of displaying a time-series second stereoscopic image G7 in 43 is performed.
  • the image processing apparatus 200A acquires the first time-series first stereoscopic images G5 recorded in advance, and each first three-dimensional image in the acquired time-series first three-dimensional images G5.
  • a time-series second stereoscopic image G7 is generated by collectively generating the second stereoscopic image G7 for each G5, and the time-series second stereoscopic image G7 that has been generated is displayed on the display unit 43 as a moving image. Even if the process of displaying as a stereoscopic image is performed, the usefulness of the present invention is not impaired.
  • Image processing system 200A Image processing apparatus 300 Stereo camera 5L First left eye image 5R First right eye image 6L Left eye index image 6R Right eye index image 6S Original index image 7L Second left eye image 7R Second right eye image 31 Area information 32 Representative parallax 33 Type information 34 Environment information 35 Index parallax 36 Representative position information 37 Size information G5 First stereoscopic image G6 Stereoscopic index image G7 Second stereoscopic image PG2 detection program

Abstract

 3D画像を見ている観察者が得られる奥行き感を向上させることを図る。該目的を達成するために、画像処理装置は、同一の画像表示条件において観察対象物の時系列的な第1立体画像よりも遠方に観察されるような視差を持った、時系列的な立体指標画像を生成する立体指標画像生成部と、第1立体画像と立体指標画像とを時系列順に組み合わせて、時系列的な第2立体画像を生成する組合せ部とを備える。そして、立体指標画像生成部は、第1立体画像の視差の代表値と立体指標画像の視差との差分に対応する遠近差が時系列的に増加するように、立体指標画像を生成するようにした。

Description

画像処理装置、そのプログラム、および画像処理方法
 本発明は、立体画像を生成する画像処理技術に関する。
 昨今、立体視が可能な動画(3D動画、立体動画、または立体視動画とも言う)を利用した3Dテレビが脚光を浴びている。3Dテレビでは、同一の物体を異なる視点から見た2つの画像が利用されて立体視が可能な画像(3D画像、立体画像、立体視画像とも言う)が生成される。
 この3D画像の技術では、左眼用の画像と右眼用の画像との間で物体の同一部分を示す画素の位置がずらされており、人間の眼の焦点調節機能が利用されて画像の奥行き感が観察者に与えられる。なお、左眼用の画像と右眼用の画像との間における物体の同一部分を捉えた画素の位置のずれ量は「視差」とも称される。
 この3D画像の技術は、種々の映像分野で採り入れられている。例えば、ステレオ画像から検出された視差が人の融合範囲に入るように調節されることで広い視野の範囲について画像の立体視が可能となる内視鏡装置が提案されている(例えば、特許文献1)。また、立体映像を表示し、その奥行き感を調整する場合に、基準となる参照用立体画像が表示される立体映像処理装置が提案されている(例えば、特許文献2)。
 ところで、例えば、設定される視差がある程度小さければ、画像が表示される画面の大きさ等によっては観察者が奥行き感を得にくい場合がある。つまり、観察者にとっては、同一の物体であっても、実際に目視する場合と比較して、3D画像上で見る場合には、実際の物体とは異なる様に見えることがあり得る。
 このような3D画像の技術の現状に対して、画面に変化を付けたり、面白味を付加するため、あるいは立体視を容易とするために、3次元画像の周囲に枠画像が表示される技術が提案されている(例えば、特許文献3)。この技術では、複数準備されている枠画像からどの枠画像を使うのか選択することが可能である。
特開平8-313825号公報 特開平11-155155号公報 国際公開第2003/092303号
 しかしながら、上記特許文献3の技術であっても、立体画像(3D画像)における奥行き感が観察者には十分に得られない場合もある。
 本発明は、上記課題に鑑みてなされたものであり、立体画像を観察する観察者が覚える奥行き感を向上させ得る技術を提供することを目的とする。
 上記の課題を解決するため、第1の態様に係る画像処理装置は、同一の画像表示条件において観察対象物の時系列的な第1立体画像よりも遠方に観察されるような視差を持った、時系列的な立体指標画像を生成する立体指標画像生成部と、前記第1立体画像と前記立体指標画像とを時系列順に組み合わせて、時系列的な第2立体画像を生成する組合せ部とを備え、前記立体指標画像生成部は、前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が時系列的に増加するように、前記立体指標画像を生成する。
 第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、予め設定された検出規則に従って、前記第1立体画像中で観察者の目を惹くものと予測される注目領域をそれぞれ検出する検出部、を更に備え、前記立体指標画像生成部は、前記注目領域を対象とした視差に基づいて前記代表値を決定する。
 第3の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記立体指標画像生成部は、前記代表値の時系列的な変化率に応じて、前記遠近差を変化させる。
 第4の態様に係る画像処理装置は、第2の態様に係る画像処理装置であって、前記立体指標画像生成部は、前記注目領域についての画素値に応じて、前記遠近差を変化させる。
 第5の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記第2立体画像について想定される観察者の種別に関する情報を取得する観察者情報取得部、を更に備え、前記立体指標画像生成部は、前記観察者の種別に応じて前記遠近差を変化させる。
 第6の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記第2立体画像について想定される観察環境に関する情報を取得する環境情報取得部、を更に備え、前記立体指標画像生成部は、前記観察環境に応じて前記遠近差を変化させる。
 第7の態様に係る画像処理装置は、第1から第6の何れか1つの態様に係る画像処理装置であって、前記立体指標画像生成部は、前記立体指標画像中に現れている指標用物体の大きさを時系列的に減少させつつ、前記遠近差を変化させる。
 第8の態様に係る画像処理装置は、第2から第7の何れか1つの態様に係る画像処理装置であって、前記立体指標画像生成部は、前記第1立体画像の画像空間における前記注目領域の時系列的な位置変化に追随して、前記立体指標画像の位置を時系列的に変化させる。
 第9の態様に係る画像処理装置は、第1から第7の何れか1つの態様に係る画像処理装置であって、前記立体指標画像生成部は、前記立体指標画像中の所定の指標用物体が時系列的に所定の消失点に向かって遠ざかるように、前記立体指標画像を生成する。
 第10の態様に係る画像処理装置は、同一の画像表示条件において、観察対象物の第1立体画像よりも遠方に観察されるような視差を持った、時系列的な立体指標画像を生成する立体指標画像生成部と、前記第1立体画像と時系列的な前記立体指標画像とをそれぞれ組み合わせて、時系列的な第2立体画像を生成する組合せ部と、を備え、前記立体指標画像生成部は、前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が、時系列的に増加するように、前記立体指標画像を生成する。
 第11の態様に係るプログラムは、画像処理装置に搭載されたコンピュータにおいて実行されることにより当該画像処理装置を第1から第10の何れか1つの態様に係る画像処理装置として機能させる。
 第12の態様に係る画像処理方法は、同一の画像表示条件において観察対象物の第1立体画像よりも遠方に観察されるような視差を持った立体指標画像を生成する立体指標画像生成工程と、前記第1立体画像と前記立体指標画像とを組み合わせて、第2立体画像を生成する組合せ工程と、前記第1立体画像と前記立体指標画像とのうち、少なくとも前記立体指標画像を時系列的に変化させつつ、前記立体指標画像生成工程と前記組合せ工程とを繰り返すことによって、第2立体画像の時系列な集合を得る繰返し工程と、を備え、前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が、前記第2立体画像の時系列的な集合において時系列的に増加するように、各繰返しサイクルで前記立体指標画像が生成される。
 第1から第10の何れの態様に係る画像処理装置または第11の態様に係るプログラムまたは第12の態様に係る画像処理方法によっても、第2立体画像は、観察対象物と立体指標画像との遠近差が時系列的に増加する、すなわち動的に遠近感を広げるように観察されるような立体化が行われていることにより、第2立体画像を観察する観察者が覚える奥行き感を向上させ得る。
図1は、実施形態に係る画像処理システムの概略構成の1例を示す図である。 図2は、実施形態に係る画像処理装置の機能的な構成の1例を示す図である。 図3は、視差を説明するための図である。 図4は、第1立体画像の1例を示す図である。 図5は、第1立体画像の1例を示す図である。 図6は、立体指標画像の1例を示す図である。 図7は、立体指標画像の1例を示す図である。 図8は、時系列的な第2立体画像の1例を示す図である。 図9は、時系列的な第2立体画像の1例を示す図である。 図10は、立体指標画像の視差の生成方法の1例を説明するための図である。 図11は、立体指標画像の位置を時系列的な変化の1例を示す図である。 図12は、立体指標画像の位置を時系列的な変化の1例を示す図である。 図13は、立体指標画像の生成方法の1例を説明するための図である。 図14は、立体指標画像の1例を示す図である。 図15は、立体指標画像の1例を示す図である。 図16は、画像処理装置の動作を示すフローチャートである。 図17は、画像処理装置の動作を示すフローチャートである。 図18は、画像処理装置の動作を示すフローチャートである。
 以下、本発明の一実施形態を図面に基づいて説明する。図面では同様な構成および機能を有する部分に同じ符号が付され、下記説明では重複説明が省略される。また、各図面は模式的に示されたものであり、例えば、各図面における画像上の表示物のサイズおよび位置関係等は正確に図示されたものではない。また、画像データと、該画像データに基づいて表示される画像とをまとめて「画像」と適宜総称する。更に、各図面では、画像の左上の画素が原点とされ、該画像の長辺に沿った方向(ここでは、横方向)がX軸方向とされ、該画像の短辺に沿った方向(ここでは縦方向)がY軸方向とされる。そして、各画像の右方向が+X方向とされ、各画像の下方向が+Y方向とされる。なお、図4~図6、および図8~図12には、直交するXYの2軸が付されている。また、図3には、直交するXYZの3軸が付されている。
 <実施形態について:>
 <画像処理システムの概略構成:>
 図1は、一実施形態に係る画像処理システム100Aの概略構成の1例を示す図である。図1に示されるように、画像処理システム100Aは、ステレオカメラ300と視線検出センサ47と画像処理装置200Aとを主に備えて構成されている。
 ◎ステレオカメラ300について:
 ステレオカメラ300は、第1カメラ61と第2カメラ62とを主に備えて構成されている。また、第1カメラ61および第2カメラ62は、それぞれ、不図示の撮影光学系および制御処理回路を主に備えて構成されている。また、第1カメラ61と第2カメラ62とは、水平方向に所定の基線長を隔てて設けられており、撮影光学系に入射した観察対象物からの光線情報を制御処理回路等で同期して処理することによって、観察対象物のステレオ画像を構成する、例えば、3456×2592画素サイズなどの所定サイズのデジタル画像をそれぞれ取得する。
 ステレオ画像は、左眼用の画像(左眼用画像とも言う)と右眼用の画像(右眼用画像とも言う)との組を含み、立体視が可能に表示され得る画像、すなわち立体画像(3D画像)である。
 ステレオカメラ300は、画像処理装置200Aによる制御に応じて第1カメラ61と第2カメラ62との同期をとりつつ観察対象物を時間順次に連続的に撮影することによって、複数の第1左目用画像5Lおよび複数の第1右目用画像5Rを取得し得る。すなわち、ステレオカメラ300は、時系列的な第1左目用画像5Lと時系列的な第1右目用画像5Rとをそれぞれ取得する。なお、ステレオカメラ300は、画像処理装置200Aによる制御に応じて1つの第1左目用画像5Lと1つの第1右目用画像5Rとを取得し得る。
 ステレオカメラ300の各種動作は、画像処理装置200Aから入出力部41および通信回線DL1を介して供給される制御信号に基づいて制御される。また、第1左目用画像5Lおよび第1右目用画像5Rは、カラー画像であってもモノクロ画像であってもよい。生成された1以上の第1左目用画像5Lおよび1以上の第1右目用画像5Rは、通信回線DL1を介して画像処理装置200Aの入出力部41へと供給される。
 ◎視線検出センサ47について:
 視線検出センサ47は、画像処理装置200Aに含まれる表示部43の画面を観察している観察者の視線情報を検出する。表示部43と視線検出センサ47とは、所定の配置関係を有して相互に固定されている。視線検出センサ47では、例えば、撮影によって観察者の画像が得られ、その画像が解析されることで、観察者の視線の方向が視線情報として検出される。ここで、画像の解析は、例えば、パターンマッチングを用いた顔の向きの検出、および色の違いを用いた両眼における白眼の部分と黒眼の部分の識別等によって実現され得る。また、視線検出センサ47で得られる視線情報は、通信回線DL2を介して画像処理装置200Aの検出部13(図2)へと供給される。検出部13は、供給された視線情報を用いて、表示部43の画面に表示された立体画像のうち観察者が注目している部分(注目領域とも称される)を検出する検出処理を行う。通信回線DL1およびDL2は、有線の回線であっても無線の回線であっても良い。
 ◎画像処理装置200Aの構成について:
 図1に示されるように、画像処理装置200Aは、CPU11A、入出力部41、操作部42、表示部43、ROM44、RAM45および記憶装置46を主に備えて構成されており、例えば、汎用のコンピュータでプログラムを実行することなどによって実現される。
 入出力部41は、例えばUSBインタフェース、またはBluetooth(登録商標)インタフェースなどの入出力インタフェース、マルチメディアドライブ、およびネットワークアダプタなどのLANやインターネットに接続するためのインタフェースなどを備えて構成され、CPU11Aとの間でデータの授受を行うものである。具体的には、入出力部41は、例えば、CPU11Aがステレオカメラ300および視線検出センサ47をそれぞれ制御するための各種の制御信号を、通信回線DL1およびDL2を介してステレオカメラ300へと供給する。また、入出力部41は、ステレオカメラ300が撮影した第1左目用画像5Lおよび第1右目用画像5Rと、視線検出センサ47が取得した視線情報とを画像処理装置200Aの機能部に供給する。入出力部41は、予め第1左目用画像5Lおよび第1右目用画像5Rが記憶された光ディスクなどの記憶媒体を受け付けることなどによっても、第1左目用画像5Lおよび第1右目用画像5Rを画像処理装置200Aの機能部に供給することができる。予め記憶された第1左目用画像5Lおよび第1右目用画像5Rとしては、例えば、CG(computer graphics)によって生成された画像が採用されてもよい。
 操作部42は、例えば、キーボードあるいはマウスなどによって構成されており、操作者が操作部42を操作することによって、画像処理装置200Aへの各種制御パラメータの設定、画像処理装置200Aの各種動作モードの設定などが行われる。また、画像処理装置200Aの機能部は、操作部42から設定される各動作モードに応じた処理を行うことができるように構成されている。
 表示部43は、例えば、パララックスバリア方式などの3次元表示方式に対応した3次元表示用の液晶表示画面などによって構成される。また、表示部43は、立体画像を表示部43における3次元表示方式に対応した画像形式に変換する不図示の画像処理部を備えており、表示部43は、該画像処理部によって必要な変換処理が施された立体画像をその表示画面に表示する。表示部43における3次元表示方式として、例えば、左目用画像および右目用画像を交互に高速で切り替えて表示部43に表示するとともに、該切り替えに同期して、左目および右目にそれぞれ対応した各シャッター部を交互に開閉可能な専用めがねを介して表示部43に表示された立体画像が観察される三次元表示方式が採用されたとしても本発明の有用性を損なうものではない。なお、表示部43は、ステレオカメラ300から供給される第1左目用画像5L、第1右目用画像5R、および画像処理装置200Aに関する各種設定情報などを、二次元の画像や文字情報として観察者に視認され得るように表示することもできる。
 ROM(Read Only Memory)44は、読出し専用メモリであり、CPU11Aを動作させるプログラムPG1などを格納している。なお、読み書き自在の不揮発性メモリ(例えば、フラッシュメモリ)が、ROM44に代えて使用されてもよい。
 RAM(Random Access Memory)45は、読み書き自在の揮発性メモリであり、画像処理装置200Aが取得した各種画像、ならびに画像処理装置200Aが生成する各種の立体画像などを一時的に記憶する画像格納部、CPU11Aの処理情報を一時的に記憶するワークメモリなどとして機能する。
 記憶装置46は、例えば、フラッシュメモリなどの読み書き自在な不揮発性メモリやハードディスク装置等によって構成されており、画像処理装置200Aの各種制御パラメータや各種動作モードなどの情報を恒久的に記録する。また、記憶装置46は、後述する検出部13(図2)において実行される検出プログラムPG2および立体指標画像生成部18(図2)において左目用指標画像6L(図2)および右目用指標画像6R(図2)の生成のために用いられる原指標画像6S(図2、図10)なども恒久的に記憶する。
 CPU(Central Processing Unit)11Aは、画像処理装置200Aの各機能部を統轄制御する制御処理装置であり、ROM44に格納されたプログラムPG1などに従った制御および処理を実行する。CPU11Aは、立体画像取得部12、検出部13、決定部14、観察者情報取得部15a、環境情報取得部15b、視差生成部16、位置指定部17a、サイズ指定部17b、立体指標画像生成部18および組合せ部19(それぞれ図2)としても機能する。
 CPU11Aは、これらの機能部などによって、観察対象物の画像を表現した時系列的な第1左目用画像5Lおよび第1右目用画像5R、すなわち時系列的な第1立体画像G5(図2)から、該観察対象物の画像と、該観察対象物の立体画像を目立たせるための指標用物体の画像とのそれぞれを含んだ時系列的な第2左目用画像7L(図2)および第2右目用画像7R(図2)、すなわち時系列的な第2立体画像G7(図2)を生成する。
 時系列的な第2左目用画像7Lおよび第2右目用画像7Rの生成処理において、CPU11Aは、同一の画像表示条件において観察対象物の時系列的な第1立体画像G5よりも遠方に観察されるような視差を持った、指標用物体の時系列的な立体画像(「立体指標画像」とも称される)G6(図2)を生成する。該時系列的な立体指標画像G6は、第1立体画像G5の視差の代表値と立体指標画像G6の視差との差分に対応した、第1立体画像G5と立体指標画像G6との遠近差が時系列的に増加するように生成される。CPU11Aは、第1立体画像G5と、生成した立体指標画像G6とを時系列順に組み合わせて、時系列的な第2立体画像G7、すなわち時系列的な第2左目用画像7Lおよび第2右目用画像7Rを生成する。
 該時系列的な第2立体画像G7においては、観察対象物に係る第1立体画像G5と、指標用物体に係る立体指標画像G6との遠近差が時系列的に増加する。すなわち、第2立体画像G7においては、動的に遠近感を広げるように観察されるような立体化が行われていることにより、第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得る。
 また、CPU11Aは、ステレオカメラ300および視線検出センサ47の動作の制御を行うとともに、表示部43を制御して、各種画像、算出結果、および各種制御情報などを表示部43に表示させる。
 CPU11A、入出力部41、操作部42、表示部43、ROM44、RAM45、記憶装置46等のそれぞれは、信号線49を介して電気的に接続されている。したがって、CPU11Aは、例えば、入出力部41を介したステレオカメラ300の制御およびステレオカメラ300からの画像情報の取得、視線検出センサ47からの視線情報の取得、および表示部43への表示等を所定のタイミングで実行できる。
 なお、画像処理装置200Aにおいては、立体画像取得部12、検出部13、決定部14、観察者情報取得部15a、環境情報取得部15b、視差生成部16、位置指定部17a、サイズ指定部17b、立体指標画像生成部18および組合せ部19の各機能部は、CPU11Aで所定のプログラムを実行することによって実現されているが、これらの各機能部はそれぞれ、例えば、専用のハードウェア回路などによって実現されてもよい。
 <立体画像の視差について:>
 次に、視差について説明する。立体画像(ステレオ画像)を構成する右目用画像と左目用画像とは、物体の同一部分に対応した画素の位置が互いに左右方向(図3のX軸方向)にずれている関係を有している。本願においては、左眼用画像と右眼用画像との間における物体の同一部分を捉えた画素の位置のずれ量、より詳細には、物体の同一部分にそれぞれ対応した左目用画像における注目画素と右目用画像における対応画素とにおいて、(1)式によって、左目用画像の画像空間における注目画素の位置(X座標)から右目用画像の画像空間における対応画素の位置(X座標)が減算された減算結果は、「視差」とも称される。
Figure JPOXMLDOC01-appb-M000001
 立体画像が表示部43の表示画面に表示された場合、視差の値が負であれば、左目用画像における注目画素および右目用画像における対応画素に対応した物体の同一部分は、表示画面よりも近方に観察される。また、視差の値が零であれば、該同一部分は、表示画面と同じ位置に観察される。また、視差の値が負であれば、該同一部分は、表示画面よりも遠方に観察される。
 図3は、ステレオ画像を構成する左目用画像23Lと右目用画像23Rとにおける視差の1例を説明するための図である。なお、左目用画像23Lは、第1カメラ61によって撮影された被写体の第1左目用画像5L(図1、図2)の1例であり、右目用画像23Rは、第1カメラ61に対して水平方向(図3の+X方向)に所定の基線長を隔てて設けられた第2カメラ62によって撮影された該被写体の第1右目用画像5R(図1、図2)の1例である。図3おいては、左目用画像23Lと右目用画像23Rとは、視差の把握を容易にするため該両画像の上端(下端)のY座標が等しくなるように水平方向(図5のX軸方向)に並べて表示されている。
 左目用画像23Lと、右目用画像23Rとには、ステレオカメラ300に対して+Z方向に位置する同一の近側被写体についての近景被写体像66aおよび66bがそれぞれ撮影されているとともに、ステレオカメラ300に対して+Z方向に該近側被写体より遠方にある同一の遠側被写体についての遠景被写体像67aおよび67bがそれぞれ撮影されている。また、近景被写体像66a上の画素68aおよび近景被写体像66b上の画素68bは、近側被写体の同一の点にそれぞれ対応した画素であり、遠景被写体像67a上の画素69aおよび遠景被写体像67b上の画素69bは、遠側被写体の同一の点にそれぞれ対応した画素である。
 視差9aは、画素68aと画素68bとの間における視差であり、視差9bは、画素69aと画素69bとの間における視差である。視差9aと視差9bは、ともに正の値を有しており、近側被写体に対応した視差9aの方が遠側被写体に対応した視差9bよりも視差の大きさが大きくなっている。従って、左目用画像23Lと右目用画像23Rとが、このままの状態で表示部43の表示画面に立体画像として表示された場合には、視差9aに対応した近側被写体上の点は、視差9bに対応した遠側被写体上の点よりも近方に観察されるとともに、これら2つの点は、ともに該表示画面よりも近方に観察される。
 <画像処理装置の機能的な構成:>
 次に、画像処理装置200Aの機能的な構成について説明する。図2は、実施形態に係る画像処理装置200Aの機能的な構成の1例を示すブロック図である。
 ○立体画像取得部12:
 図2に示される立体画像取得部12は、観察対象物を時系列に表現した各画像をそれぞれ含んだ複数の第1左目用画像5L(図2)に係る画像情報と、観察対象物を時系列に表現した各画像をそれぞれ含むとともに複数の第1左目用画像5Lとの間に視差をそれぞれ有する複数の第1右目用画像5R(図2)に係る画像情報とを入出力部41を介して取得する。取得された時系列的な第1左目用画像5Lおよび右目用指標画像5Rは、検出部13、決定部14、および組合せ部19のそれぞれへと供給される。
 図4および図5は、画像処理装置200Aの立体画像取得部12(図2)によって取得された第1立体画像G5(図2)の1例として、第1立体画像G5aおよびG5bをそれぞれ示す図である。
 第1立体画像G5a(図4)を構成する第1左目用画像5L1と第1右目用画像5R1とは、ある時刻t1において観察対象物が同期してそれぞれ撮影された画像であるとともに、第1立体画像G5b(図5)を構成する第1左目用画像5L2と第1右目用画像5R2とは、時刻t1から所定の時間が経過した時刻t2において該観察対象物が同期してそれぞれ撮影された画像である。すなわち、第1立体画像G5aおよびG5bは、時系列的な第1立体画像G5を構成している。また、第1左目用画像5L1および5L2は、観察対象物を時系列に表現した各画像をそれぞれ含んだ複数の第1左目用画像、すなわち時系列的な第1左目用画像5Lを構成している。また、第1右目用画像5R1および5R2は、観察対象物を時系列に表現した各画像をそれぞれ含んだ複数の第1右目用画像、すなわち時系列的な第1右目用画像5Rを構成している。
 また、観察対象物画像1L1および1L2は、それぞれ第1左目用画像5L1および5L2における観察対象物の画像であり、観察対象物画像1R1および1R2は、それぞれ第1右目用画像5R1および5R2における該観察対象物の画像である。観察対象物画像1L1および1R1は、相互に画像空間におけるサイズが等しく、観察対象物画像1L2および1R2も、相互に画像空間におけるサイズが等しい。また、観察対象物画像1L1のサイズは、観察対象物画像1L2のサイズよりも大きい。
 ここで、第1左目用画像5L1における観察対象物画像1L1の位置に対して、第1右目用画像5R1における観察対象物画像1R1の位置は、左(-X側)にずれた関係を有している。また、第1左目用画像5L2における観察対象物画像1L2の位置に対して、第1右目用画像5R2における観察対象物画像1R2の位置も、左(-X側)にずれた関係を有している。従って、第1左目用画像5L1と第1右目用画像5R1とは、相互に正数の視差を有しているとともに、第1左目用画像5L2と第1右目用画像5R2とは、相互に正数の視差を有している。なお、第1右目用画像5R1には、比較が容易となるように、第1左目用画像5L1における観察対象物画像1L1の外縁に対応する位置が破線で示されている。同様に、第1右目用画像5R2には、第1左目用画像5L2における観察対象物画像1L2の外縁に対応する位置が破線で示されている。
 ○検出部13:
 図2に示される検出部13は、予め設定された検出規則に従って、第1立体画像G5の中で観察者の目を惹くものと予測される注目領域をそれぞれ検出する検出処理を行う。検出部13は、該検出処理を、予め記憶装置46に記憶された検出プログラムPG2(図2)を実行することによって行う。検出プログラムPG2は、予め設定された検出規則に従って、第1立体画像G5の中で観察者の目を惹くものと予測される注目領域をそれぞれ検出する手法を実現するプログラムである。
 検出プログラムPG2としては、例えば、視線検出センサ47から供給された観察者の視線情報と、視線検出センサ47と表示部43との相互の配置関係とに基づいて注目領域を検出する処理を実現するプログラムが採用される。また、検出プログラムPG2として、例えば、第1立体画像G5を構成する各画像の色情報を取得し、周囲と異なる色領域を注目領域として検出する処理を実現するプログラム、周囲よりも明るい領域を注目領域として検出する処理を実現するプログラム、または人物検出アルゴリズムにより第1立体画像G5における人物領域を検出し、その領域を注目領域として検出する処理を実現するプログラムなどが採用されたとしても本発明の有用性を損なうものではない。
 ここで、図4に示される注目領域38aおよび38bは、それぞれ第1左目用画像5L1および5L2における注目領域の例であり、注目領域39aおよび39bは、それぞれ第1右目用画像5R1および5R2における注目領域の例である。図4に示されるように、注目領域38a、38b、39a、および39bは、観察対象物画像1L1、1L2、1R1、および1R2のそれぞれの外縁に接した矩形領域であるが、各観察対象物画像の領域がそのまま各注目領域として検出されてもよい。検出部13によって注目領域が検出されると、検出部13は、検出した注目領域に係る領域情報31(図2)を生成する。生成された領域情報31のそれぞれは、決定部14に供給される。
 ○決定部14:
 図2に示される決定部14は、時系列的な複数の第1左目用画像5Lと、時系列的な複数の第1右目用画像5Rとをそれぞれ時系列順に対応させた各組み合わせについて視差の代表値である代表視差32をそれぞれ決定する。決定部14が代表視差32をそれぞれ決定する具体的な手順の1例について、図4に示された2組みの第1立体画像が取得された場合を例として以下に説明する。決定部14は、例えば、以下の工程(a-1)~(a-4)を順次に実行することで、代表視差32を決定する。
 (a-1)決定部14は、先ず、第1左目用画像5L1と第1右目用画像5R1とにそれぞれ対応した領域情報31に基づいて第1左目用画像5L1における注目領域38aと第1右目用画像5R1における注目領域39aとをそれぞれ特定する。
 (a-2)注目領域がそれぞれ特定されると、決定部14は、対応する各注目領域間、すなわち注目領域38aおよび39a間において相関演算法などを用いたマッチング処理を行うことによって、注目領域38aにおける各注目画素に対応する注目領域39aにおける各対応画素をそれぞれ特定する。
 (a-3)そして、決定部14は、各注目画素のX座標から各対応画素のX座標をそれぞれ減算した減算結果を各視差として取得する。マッチング処理に用いられる相関演算手法としては、例えば、NCC(Normalized Cross Correlation)法、SAD(Sum of Absolute Difference)法、またはPOC(Phase Only Correlation)法などが採用される。
 (a-4)注目領域38aおよび39a間における各視差が取得されると決定部14は、第1左目用画像5L1および第1右目用画像5R1間での代表視差32(図2)を決定する。代表視差32としては、例えば、注目領域38aおよび39a間における各視差についての平均値、最大値、最小値、最頻値、および中央値のうち1つが採用され得る。また、例えば、注目領域の重心位置、または注目領域上の画像の輪郭上における各画素など注目領域の一部における各視差に基づいて代表視差32が決定されても良い。
 (a-5)決定部14は、第1左目用画像5L2と第1右目用画像5R2とについても、同様に工程(a-1)~(a-4)を実施することによって第1左目用画像5L2と第1右目用画像5R2との間での代表視差32を決定する。決定された代表視差32は、視差生成部16へと供給される。
 なお、工程(a-1)~(a-4)においては、注目領域が特定され、特定された注目領域の画像情報に基づいて代表視差32が決定されている。しかしながら、決定部14が、例えば、対応する第1左目用画像および第1右目用画像のそれぞれの領域全体を対象として、工程(a-2)~(a-4)にそれぞれ相当する各処理工程を行うことによって、第1左目用画像5L1と第1右目用画像5R1との間での代表視差32を決定するとともに、第1左目用画像5L2と第1右目用画像5R2との間での代表視差32を決定したとしても本発明の有用性を損なうものではない。
 ○観察者情報取得部15a:
 図2に示される観察者情報取得部15aは、例えば、視線検出センサ47が撮影した観察者の画像をテンプレートマッチングなどの手法を用いて解析することによって、第2立体画像G7について想定される観察者の種別に関する情報である種別情報33を取得する。また、観察者情報取得部15aが、例えば、操作部42を介して代表位置情報36に記憶された観察者の種別に関する種別情報33を、設定された動作モードに応じて記憶装置46から取得することなどによって、種別情報33が取得されても良い。種別情報33としては、例えば、観察者の年齢情報、観察者の持病に係る情報などが採用される。取得された種別情報33は、視差生成部16へと供給される。
 ○環境情報取得部15b:
 図2に示される環境情報取得部15bは、例えば、視線検出センサ47が撮影した観察環境に係る画像における各画素値の統計的な分布状態を取得することや、予め操作部42を介して記憶装置46に記憶された観察環境に関する情報を取得することなどによって、第2立体画像G7について想定される観察環境に関する情報である環境情報34を取得する。環境情報34としては、例えば、観察環境の照度が暗い側から明るい側へと3段階に分割された各段階についての指標値などが採用される。取得された環境情報34は、視差生成部16へと供給される。
 ○視差生成部16:
 図2に示される視差生成部16は、立体指標画像生成部18が生成する時系列的な複数の立体指標画像G6にそれぞれ対応した複数の視差である複数の指標視差35を生成する。該複数の指標視差35の生成処理において、視差生成部16は、決定部14によって決定された、時系列的な第1立体画像G5にそれぞれ対応した複数の代表視差32について、該複数の指標視差35から複数の代表視差32が時系列順にそれぞれ減算された各減算結果が順次に減少するように複数の指標視差35を生成する。
 従って、視差生成部16は、同一の画像表示条件において、時系列的な第1立体画像G5よりも、該時系列的な第1立体画像G5にそれぞれ対応する時系列的な立体指標画像G6の方が、それぞれ、より遠方に観察されるように複数の指標視差35を生成するとともに、第1立体画像G5の代表視差32と、立体指標画像G6の指標視差35との差分に対応した、第1立体画像G5と立体指標画像G6との遠近差が時系列的に増加するように複数の指標視差35を生成する。
 図10は、図4および図5にそれぞれ示された第1立体画像G5aおよびG5bに対応して視差生成部16がそれぞれ生成する時系列的な立体指標画像G6(図6および図7にそれぞれ示された立体指標画像G6aおよびG6b)の視差(指標視差35)の生成方法の1例を説明するための図である。
 線分81aは、時刻t1およびt2にそれぞれ取得された時系列的な第1立体画像G5aおよびG5bにそれぞれ対応した代表視差32の時間的な変化を示す線分である。点p1は、第1立体画像G5aの代表視差32の値dm1を時刻t1に対して描画したものである。また、点p2は、第1立体画像G5bの代表視差32の値dm2を時刻t2に対して描画したものである。
 線分81bは、第1立体画像G5aおよびG5bにそれぞれ対応した立体指標画像G6a(図6)およびG6b(図7)にそれぞれ係る指標視差35の時間的な変化を示す線分である。点p3は、立体指標画像G6aの指標視差35の値di1を時刻t1に対して描画したものである。また、点p4は、立体指標画像G6bの指標視差35の値di2を時刻t2に対して描画したものである。
 線分81cは、指標視差35から代表視差32を減算した減算結果(差分)の時間的な変化を示す線分である。点p5は、立体指標画像G6aの指標視差35から第1立体画像G5aの代表視差32を減算した減算結果の値su1を時刻t1に対して描画したものである。また、点p6は、立体指標画像G6bの指標視差35から第1立体画像G5bの代表視差32を減算した減算結果の値su2を時刻t2に対して描画したものである。
 立体指標画像G6aおよびG6bにそれぞれ関する複数の指標視差35を生成処理において、視差生成部16は、例えば、先ず、立体指標画像G6の指標視差35から第1立体画像G5の代表視差32を時系列順に減算した減算結果の値su1およびsu2を設定する。該設定は、値su1およびsu2が(2)式の関係をみたすように負数の値su1およびsu2を設定することによって行われる。なお、値su1が既に設定されている場合には、値su2のみが設定される。
 値su1およびsu2が設定されると、視差生成部16は、設定した値su1およびsu2と、決定部14から供給された代表視差32の値dm1およびdm2とを(3)式および(4)式に代入して立体指標画像G6aおよびG6bにそれぞれ関する複数の指標視差35の値di1およびdi2を算出することによって、立体指標画像G6aおよびG6bにそれぞれ関する複数の指標視差35をそれぞれ生成する。
Figure JPOXMLDOC01-appb-M000002
 なお、第1立体画像G5を時系列的ではなく、それぞれ1つの第1左目用画像5Lと第1右目用画像5Rによって構成されている場合、すなわち値dm1とdm2とのうちdm1のみが取得される場合には、視差生成部16は、値dm1を値dm2に設定することによって立体指標画像G6aおよびG6bにそれぞれ関する複数の指標視差35をそれぞれ生成する。生成された複数の指標視差35は、立体指標画像生成部18へと供給される。
 また、値su1から値su2への減少の態様、すなわち指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様は、予め設定された視差生成部16に係る動作モードに応じて、例えば、代表視差32の値、代表視差32の時系列的な変化率、種別情報33、環境情報34、および第1立体画像G5の画素値情報のうち少なくとも1つに応じて設定され得る。視差生成部16による該設定によって、第1立体画像G5と立体指標画像G6との観察に係る時系列的な遠近差の増加率、すなわち組合せ部19が生成する第2立体画像G7(図2)における観察対象物画像と指標用物体の画像との時系列的な遠近差の増加率を、代表視差32の値、代表視差32の時系列的な変化率、種別情報33、環境情報34、および第1立体画像G5の画素値情報のうち少なくとも1つに応じて設定することができる。
 代表視差32の値に応じて、指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様が設定される場合には、視差生成部16は、例えば、時刻t1における代表視差32の値が大きければ大きいほど、すなわち、所定の基準原点から観察される第1立体画像G5aの距離が近方であればあるほど、値su1から値su2への減少率を小さく設定する。該設定は、第1立体画像G5の距離が近い場合には、該距離が遠い場合に比べて第1立体画像G5と立体指標画像G6との遠近差の時系列的な増加率が小さくても、第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得ることに基づいて行われる。
 代表視差32の時系列的な変化率に応じて、指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様が設定される場合には、視差生成部16は、例えば、代表視差32の時系列的な変化率が大きければ大きいほど、すなわち、所定の基準原点から観察される第1立体画像G5の距離の変化率が大きければ大きいほど、値su1から値su2への減少率を小さく設定する。該設定は、第1立体画像G5の距離の変化率が大きい場合には、該変化率が小さい場合に比べて第1立体画像G5と立体指標画像G6との遠近差の時系列的な増加率が小さくても第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得ることに基づいて行われる。
 観察者の種別情報33に応じて、指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様が設定される場合においては、視差生成部16は、例えば、種別情報33が幼児または高齢者などに対応したものである場合には、種別情報33が10歳代~20歳代の若年層に対応したものである場合に比べて、値su1から値su2への減少率を小さく設定する。該設定は、観察者が幼児または高齢者などである場合には、若年層に比べて視覚的な変化の影響による体調不良や目の疲労が発生し易いことに基づいて行われる。
 観察環境についての環境情報34に応じて、指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様が設定される場合には、視差生成部16は、例えば、種別情報33に基づいて観察環境の照度を推定し、照度が高い場合には、低い場合に比べて、値su1から値su2への減少率を小さく設定する。該設定は、観察環境の照度が高い場合には低い場合に比べて第1立体画像G5と立体指標画像G6との遠近差の時系列的な増加率が小さくても第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得ることに基づいて行われる。
 第1立体画像G5の全体および注目領域のうち少なくとも1つの画素値情報に応じて、指標視差35から代表視差32を減算した減算結果(差分)についての時系列的な減少の態様が設定される場合には、第1立体画像G5の画素値が大きい場合には、画素値が小さい場合に比べて値su1から値su2への減少率を小さく設定する。該設定は、第1立体画像G5の画素値が大きい場合には、小さい場合に比べて第1立体画像G5と立体指標画像G6との遠近差の時系列的な増加率が小さくても第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得ることに基づいて行われる。
 図10に示される設定例では、立体指標画像G6の指標視差35の生成方法においては、2つの時刻における第1立体画像G5に関する情報に基づいて指標視差35の生成が行われているが、例えば、3以上の各時刻における第1立体画像G5に関する情報に基づいて図10の設定例と同様にして指標視差35の生成が行われたとしても本発明の有用性を損なうものではない。3以上の各時刻における第1立体画像G5に関する情報に基づいて指標視差35の生成が行われれば、2つの時刻における第1立体画像G5に関する情報に基づいて指標視差35の生成が行われる場合に比べて第1立体画像G5と立体指標画像G6との遠近差の時系列的な変動を安定化することができ、第2立体画像G7を観察する観察者が覚える違和感をより軽減し得る。
 同様に、2つの時刻における第1立体画像G5に関する情報に基づいて図10に示された手法によって指標視差35の生成する生成処理を繰り返す場合において、例えば、前回の生成処理における、指標視差35と代表視差32との差分の減少率に所定の重み付けをした値と、処理中の生成処理における2つの時刻における第1立体画像G5に関する情報に基づいた指標視差35の生成処理における該減少率との平均値を、該処理中の生成処理における該減少率の最終的な値として採用して指標視差35が生成されたとしても本発明の有用性を損なうものではない。
 ○位置指定部17a:
 図2に示された位置指定部17aは、各時刻における立体指標画像G6の位置に関する情報である代表位置情報36を生成する。立体指標画像G6の位置は、立体指標画像G6を構成する左目用指標画像6Lと右目用指標画像6Rとのそれぞれに関する位置であることから、「代表位置」とも称される。生成された代表位置情報36は、立体指標画像生成部18へと供給される。後述するように、立体指標画像生成部18は、代表位置情報36と指標視差35などに基づいて立体指標画像G6を構成する左目用指標画像6Lと右目用指標画像6Rの画像空間における位置をそれぞれ設定し、左目用指標画像6Lと右目用指標画像6Rとを生成する。
 なお、位置指定部17aは、設定された動作モードに応じて、立体指標画像G6の代表位置情報36の生成手法として複数の手法を行い得る。
 ・代表位置生成モード1について:
 位置指定部17aは、代表位置生成モード1が設定されている場合には、第1立体画像G5の画像空間における注目領域の時系列的な位置変化に追随して立体指標画像G6の位置が時系列的に変化するように、各時刻における立体指標画像G6の代表位置に関する情報である代表位置情報36をそれぞれ生成する。
 図11は、代表位置生成モード1における立体指標画像G6の位置の時系列的な変化の1例を示す図である。図11においては、時刻t1(図10)における第1左目用画像5L3と、時刻t2(図10)における第1左目用画像5L4とが同一の画像空間に重ねて表示されている。第1左目用画像5L3は、観察対象物に係る左目用の観察対象物画像1L3を含んでおり、第1左目用画像5L4は、観察対象物に係る左目用の観察対象物画像1L4を含んでいる。また、第1左目用画像5L3および5L4のそれぞれの画像領域は、検出部13によって注目領域として検出されている。
 図11に示されるように、時刻t1から時刻t2への時間経過の間に、左目用の観察対象物画像の位置は、矢印Y1に沿って観察対象物画像1L3の位置から観察対象物画像1L4の位置まで移動している。また、図11においては、時刻t1における立体指標画像G6に係る左目用指標画像6L3は、第1左目用画像5L3に配置された態様で表示されている。また、時刻t2における立体指標画像G6に係る左目用指標画像6L4は、第1左目用画像5L4に配置された態様で表示されている。
 左目用指標画像6L3および6L4は、位置指定部17aが生成した、時刻t1およびt2にそれぞれ対応した代表位置情報36に基づいて、立体指標画像生成部18によってそれぞれ生成されている。時刻t1から時刻t2への時間経過の間に、立体指標画像G6に係る左目用指標画像の位置は、観察対象物画像、すなわち注目領域の時系列的な位置変化に追随して、左目用指標画像6L3の位置から矢印Y2に沿って左目用指標画像6L4の位置まで移動されている。
 図11に示されるように、代表位置生成モード1に設定された位置指定部17aによって生成された代表位置情報36に基づいて立体指標画像G6が生成された場合には、第1立体画像G5の注目領域と、立体指標画像G6との相対的な位置関係が、時間的に変動しないため、第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得る。
 ・代表位置生成モード2について:
 位置指定部17aは、代表位置生成モード2が設定されている場合には、立体指標画像G6における所定の指標用物体の画像が時系列的に所定の消失点(Focus of Expansion:FOE)に向かって遠ざかるように、各時刻における立体指標画像G6の代表位置に関する情報である代表位置情報36をそれぞれ生成する。なお、消失点は、カメラに対する指標用物体の相対的な移動方向によって定められる定点であり、指標用物体の移動方向を予め設定しておくことによって求められる。
 図12は、代表位置生成モード2における立体指標画像G6の位置の時系列的な変化の1例を示す図である。図12においては、時刻t1(図10)における立体指標画像G6に係る左目用指標画像6L5が、時刻t1における第1立体画像G5に係る第1左目用画像5L5の画像空間に配置された態様で表示されている。また、時刻t2(図10)における立体指標画像G6に係る左目用指標画像6L6が、時刻t2における第1立体画像G5に係る第1左目用画像5L6の画像空間に配置された態様で表示されている。
 左目用指標画像6L5および6L6は、位置指定部17aが生成した、時刻t1およびt2にそれぞれ対応した代表位置情報36に基づいて、立体指標画像生成部18によってそれぞれ生成されている。
 図12に示されるように、時刻t1から時刻t2への時間経過の間に、左目用指標画像の位置は、消失点104に向けて2次元移動ベクトル91aおよび91bに沿って、左目用指標画像6L5の位置から左目用指標画像6L6の位置まで移動している。
 図12に示されるように、代表位置生成モード2に設定された位置指定部17aによって生成された代表位置情報36に基づいて立体指標画像G6が生成された場合には、立体指標画像G6における所定の指標用物体の画像が時系列的に所定の消失点に向かって遠ざかるように、各時刻における立体指標画像G6が生成されるため、第2立体画像G7を観察する観察者が覚える奥行き感を向上させ得る。
 なお、図12においては、後述するサイズ指定部17bが生成したサイズ情報37に起因して、時間の経過に従って左目用指標画像のサイズが小さく生成されているが、該サイズが変更されることなく、左目用指標画像6L5の位置から消失点104に向けて左目用指標画像6L6の位置まで左目用指標画像が移動されたとしても本発明の有用性を損なうものではない。
 また、上述した代表位置生成モード1および2においては、立体指標画像G6における所定の指標用物体の画像が時系列的に移動されているが、該移動が成されないとしても、すなわち、指標用物体の画像の位置が時間的に固定されているとしても本発明の有用性を損なうものではない。
 ○サイズ指定部17b:
 図2に示されるサイズ指定部17bは、立体指標画像G6中に現れている指標用物体の大きさを時系列的に減少させるように、各時刻における立体指標画像G6の画像空間上での大きさに関する情報であるサイズ情報37をそれぞれ生成する。生成されたサイズ情報37は、立体指標画像生成部18へと供給される。立体指標画像生成部18は、サイズ情報37と指標視差35などに基づいて立体指標画像G6を構成する左目用指標画像6Lと右目用指標画像6Rの画像空間における大きさをそれぞれ設定し、左目用指標画像6Lと右目用指標画像6Rとを生成する。
 サイズ指定部17bによって生成されたサイズ情報37に基づいて立体指標画像G6が生成される場合には、立体指標画像生成部18は、立体指標画像G6中に現れている指標用物体の大きさを時系列的に減少させつつ、第1立体画像G5と立体指標画像G6との遠近差を変化させ得る。第2立体画像G7を観察する観察者は、該遠近差による奥行き感だけでなく指標用物体の大きさの減少による奥行き感をも覚え得るので、該観察者が覚える奥行き感を向上させ得る。
 なお、サイズ指定部17bが、立体指標画像G6を構成する左目用指標画像6Lと右目用指標画像6Rの画像空間における大きさを時系列的に変更しないとしても、すなわち、指標用物体の画像の大きさが時間的に固定されているとしても本発明の有用性を損なうものではない。
 ○立体指標画像生成部18:
 図2に示される立体指標画像生成部18は、指標視差35(図2)、代表位置情報36(図2)、サイズ情報37(図2)、および原指標画像6S(図2)のそれぞれに基づいて、同一の画像表示条件において観察対象物の時系列的な第1立体画像G5(図2)よりも遠方に観察されるような視差を持った、指標用物体の時系列的な立体指標画像G6(図2)を生成する。なお、該時系列的な立体指標画像G6は、第1立体画像G5の視差の代表値と立体指標画像G6の視差との差分に対応した、第1立体画像G5と立体指標画像G6との遠近差が時系列的に増加するように生成される。
 生成された時系列的な立体指標画像G6は、組合せ部19へと供給される。組合せ部19は、生成された時系列的な複数の立体指標画像G6と、時系列的な複数の第1立体画像G5とを時系列順に組み合わせて、時系列的な第2立体画像G7、すなわち時系列的な第2左目用画像7Lおよび第2右目用画像7Rを生成する。
 図6および図7は、立体指標画像生成部18によって生成された立体指標画像G6(図2)の1例として、立体指標画像G6aおよびG6bをそれぞれ示す図である。
 立体指標画像G6a(図6)を構成する左目用指標画像6L1と右目用指標画像6R1とは、ある時刻t1における指標用物体が同期してそれぞれ表現された画像であるとともに、立体指標画像G6b(図7)を構成する左目用指標画像6L2と右目用指標画像6R2とは、時刻t1から所定の時間が経過した時刻t2において該指標用物体が同期してそれぞれ表現された画像である。すなわち、立体指標画像G6aとG6bとは、時系列的な立体指標画像G6(図2)を構成している。
 なお、該指標用物体に係る時刻t1およびt2は、第1立体画像G5a(図4)および第1立体画像G5b(図5)に係る時刻t1およびt2とそれぞれ同じ時刻である。また、後述する第2立体画像G7a(図8)および第2立体画像G7b(図9)に係る時刻t1およびt2も、第1立体画像G5a(図4)および第1立体画像G5b(図5)に係る時刻t1およびt2とそれぞれ同じ時刻である。
 左目用指標画像6L1および6L2は、第1左目用画像5L1(図4)および5L2(図5)の画像空間にそれぞれ配置された態様で示されており、右目用指標画像6R1および6R2は、第1右目用画像5R1(図4)および5R2(図5)の画像空間にそれぞれ配置された態様で示されている。
 左目用指標画像6L1および6L2は、指標用物体を時系列に表現した各画像をそれぞれ含んだ複数の左目用指標画像6L、すなわち時系列的な左目用指標画像6L(図2)を構成している。また、右目用指標画像6R1および6R2は、指標用物体を時系列に表現した各画像をそれぞれ含んだ複数の右目用指標画像6R、すなわち時系列的な右目用指標画像6Rを構成している。
 左目用指標画像6L1および右目用指標画像6R1は、相互に画像空間におけるサイズが等しく、左目用指標画像6L2および右目用指標画像6R2も、相互に画像空間におけるサイズが等しい。また、左目用指標画像6L1のサイズは、左目用指標画像6L2のサイズよりも大きい。
 ここで、第1左目用画像5L1の画像空間における左目用指標画像6L1の位置に対して、第1右目用画像5R1の画像空間における右目用指標画像6R1の位置は、右(+X側)にずれた関係を有している。また、第1左目用画像5L2の画像空間における左目用指標画像6L2の位置に対して、第1右目用画像5R2の画像空間における右目用指標画像6R2の位置も、右(+X側)にずれた関係を有している。従って、左目用指標画像6L1と右目用指標画像6R1とは、相互に負数の視差を有しているとともに、左目用指標画像6L2と右目用指標画像6R2とは、相互に負数の視差を有している。なお、第1右目用画像5R1の画像空間には、比較が容易となるように、第1左目用画像5L1の画像空間における左目用指標画像6L1、すなわち指標用物体の画像の外縁に対応した位置が破線で示されている。同様に、第1右目用画像5R2の画像空間には、第1左目用画像5L2における左目用指標画像6L2、すなわち指標用物体の画像の外縁に対応した位置が破線で示されている。
 図6および図7に示された指標用物体に係る時系列的な立体指標画像G6は、図4および図5に示された観察対象物に係る時系列的な第1立体画像G5よりも遠方に観察されるような視差(図2における指標視差35)を有している。また、該時系列的な立体指標画像G6は、第1立体画像G5の視差の代表値と立体指標画像G6の視差との差分に対応した、第1立体画像G5と立体指標画像G6との遠近差が時系列的に増加するように生成されている。
 ・立体指標画像G6の生成方法:
 図13は、立体指標画像G6(図2)の生成方法の1例を説明するための図である。立体指標画像生成部18は、操作部42からの特定処理などによって予め特定された指標用物体に係る画像である原指標画像6S(図2)を、記憶装置46から取得するとともに、原指標画像6Sと、視差生成部16、位置指定部17a、およびサイズ指定部17bからそれぞれ供給された指標視差35、代表位置情報36、およびサイズ情報37と、原指標画像6Sとに基づいて時系列的な立体指標画像G6を生成する。
 図13に示された原指標画像6S、中間指標画像6C、左目用指標画像6L、および右目用指標画像6Rは、それぞれ画像空間が一致するように配置された第1左目用画像5Lおよび第1右目用画像5Rに対応した画像空間に配置された態様で示されている。
 立体指標画像G6に係る左目用指標画像6Lおよび右目用指標画像6Rは、例えば、特定のマーカーであれば良い。特定のマーカーは、例えば、固有の特徴を有し、ユーザーによって左眼用画像GLおよび右眼用画像GRに元々含まれる物体とは容易に区別可能なものであれば良い。固有の特徴は、例えば、形状、色、およびテクスチャー等によって実現され得る。
 第1左目用画像5Lおよび第1右目用画像5Rが実在する物体を捉えた画像である場合、特定のマーカーは、CG等で形成されたマーカー等であれば良い。このとき、特定のマーカーとしては、例えば、図13に示された星形の他、棒(矩形)、三角形、および矢印等といった各種の単純な形状、ならびに花瓶および蝶等といった各種のオブジェ等が考えられる。これにより、観察者が第1左目用画像5Lと第1右目用画像5Rとに元々含まれる物体と特定のマーカーとを混同し難くなる。
 また、特定のマーカーが、固有の形状、固有の色、および固有のテクスチャー等を有する一方で、半透明なものであれば、左眼用画像GLおよび右眼用画像GRに基づく画像の表示が阻害され難くなる。
 原指標画像6Sは、例えば、マーカーの各部位にそれぞれ対応した各画素について、画像空間における画素座標と、画素値とが対応づけられた態様の画像情報として記憶装置46に記憶されている。原指標画像6Sは、立体指標画像生成部18によって取得されて立体指標画像G6を構成する左目用指標画像6Lおよび右目用指標画像6Rの生成に用いられる。
 中間指標画像6Cは、位置指定部17aによって指定された代表位置情報36に基づいて特定される位置に仮想的に配置された、原指標画像6Sの画像を表している。原指標画像6Sは、例えば、原指標画像6Sの空間的な重心位置が、代表位置情報36によって特定される位置に一致するように配置される。
 左目用指標画像6Lは、中間指標画像6CがX軸に平行な経路111に沿って-X方向に移動された位置に示されている。また、右目用指標画像6Rは、中間指標画像6Cが、X軸に平行な経路112に沿って+X方向に移動された位置に示されている。立体指標画像生成部18は、左目用指標画像6Lおよび右目用指標画像6Rの位置(重心位置など)のX座標を、(5)式および(6)式によってそれぞれ求める。左目用指標画像6Lおよび右目用指標画像6Rの位置のY座標としては、代表位置情報36によって特定される位置のY座標がそのまま採用される。
Figure JPOXMLDOC01-appb-M000003
 左目用指標画像6Lおよび右目用指標画像6Rの位置がそれぞれ求められると、立体指標画像生成部18は、原指標画像6Sを経路113および114にそれぞれ沿って、求められた左目用指標画像6Lおよび右目用指標画像6Rの各位置までそれぞれ平行移動させることによって左目用指標画像6Lおよび右目用指標画像6Rを生成する。
 (5)式および(6)式によって左目用指標画像6Lおよび右目用指標画像6Rの位置が特定された場合には、左目用指標画像6Lと右目用指標画像6Rとに対して指標視差35がそれぞれ半分ずつ均等に割り振られているが、例えば、中間指標画像6Cの位置と左目用指標画像6Lの位置とを一致させるとともに、右目用指標画像6Rに対して指標視差35を全て割り振ることによって右目用指標画像6Rの位置が特定されたとしても本発明の有用性を損なうものではない。
 また、図13の例では、原指標画像6Sが左目用指標画像6Lおよび右目用指標画像6Rの位置にそれぞれ直接移動されることによって、左目用指標画像6Lおよび右目用指標画像6Rが生成されているが、原指標画像6Sが、一旦、中間指標画像6Cの位置に移動された後、左目用指標画像6Lおよび右目用指標画像6Rの位置にそれぞれ移動されることによって、左目用指標画像6Lおよび右目用指標画像6Rが生成されたとしても本発明の有用性を損なうものではない。
 ・立体指標画像G6の他の例について:
 図14および図15は、立体指標画像の1例をそれぞれ示す図である。図14においては、矩形上の2つのマーカーによって構成された左目用指標画像6Laが第2左目用画像7Laに配置された態様で示されている。より詳細には、第2左目用画像7Laは、外縁107によって囲まれた画像領域を有している。第2左目用画像7Laの内部には、外縁106によって囲まれた画像領域を有する第1左目用画像5Lが内包されており、左目用指標画像6Laは、第1左目用画像5Lの外縁106と、第2左目用画像7Laの外縁107とによって囲まれた領域108に内包されて配置されている。
 左目用指標画像6Laは、矩形状の画像パターンによって構成されている。該画像パターンは、記憶装置46等に予め格納された画像パターンが立体指標画像生成部18によって読み出されることによって取得される。この画像パターンとしては、例えば、比較的大きなドットがランダムに配列された特定の模様を示す画像パターンなどが採用され得る。
 なお、左目用指標画像6Laが採用された場合には、位置指定部17aの動作モードは代表位置生成モード1に設定される。位置指定部17aは、例えば、観察対象物画像1Lを注目領域として検出する検出部13が出力する代表位置情報36に基づいて、左目用指標画像6Laの位置が、観察対象物画像1Lの時系列的な移動に追随して移動するように代表位置情報36を生成する。
 図15においては、枠状のマーカーによって構成された左目用指標画像6Lbが第2左目用画像7Lbに配置された態様で示されている。第2左目用画像7Lbと第2左目用画像7La(図14)との差異は、左目用指標画像6Lbと左目用指標画像6Laとの形状の相違および代表位置の移動の有無である。左目用指標画像6Lbが採用された場合には、位置指定部17aは、図15に示された左目用指標画像6Lbの初期の代表位置(左目用指標画像と右目用指標画像との中間位置など)を恒久的に示す代表位置情報36を生成し、左目用指標画像6Lbの代表位置の時系列的な移動は行われない。左目用指標画像6La(図14)または左目用指標画像6Lb(図15)に係る立体指標画像G6(図2)と、第1左目用画像5Lに係る第1立体画像G5(図2)とが、組合せ部19によって第2立体画像G7(図2)として組み合わされる場合には、通常、例えば、領域108(図14、図15)に係る画像も併せて組み合わされる。なお、領域108が組み合わされることなく、第1左目用画像5Lに係る第1立体画像G5上に左目用指標画像6Laまたは左目用指標画像6Lbに係る立体指標画像G6が表示されるように、第1立体画像G5と立体指標画像G6とが組み合わされたとしても本発明の有用性を損なうものではない。
 ○組合せ部19:
 図2に示される組合せ部19は、立体画像取得部12から供給される第1立体画像G5と、立体指標画像生成部18から供給される立体指標画像G6とを組み合わせることによって、時系列的な第2立体画像G7、すなわち時系列的な第2左目用画像7Lおよび第2右目用画像7Rを生成する。
 図8および図9は、組合せ部19によって生成された時系列的な第2立体画像G7(図2)の1例として、第2立体画像G7aおよびG7bをそれぞれ示す図である。
 第2立体画像G7a(図8)を構成する第2左目用画像7L1と第2右目用画像7R1とは、ある時刻t1における観察対象物と指標用物体とが同期してそれぞれ表現された画像であるとともに、第2立体画像G7b(図9)を構成する第2左目用画像7L2と第2右目用画像7R2とは、時刻t1から所定の時間が経過した時刻t2において該観察対象物と該指標用物体とが同期してそれぞれ表現された画像である。すなわち、第2立体画像G7aとG7bとは、時系列的な第2立体画像G7(図2)を構成している。
 ここで、第2立体画像G7a(図8)は、第1立体画像G5a(図4)と立体指標画像G6a(図6)とが組合せ部19によって組み合わされて生成されている。また、第2立体画像G7b(図9)は、第1立体画像G5b(図5)と、立体指標画像G6b(図7)とが組合せ部19によって組み合わされて生成されている。
 従って、第2立体画像G7aおよびG7bによって構成された時系列的な第2立体画像G7においては、左目用指標画像6L1および6L2と、右目用指標画像6R1および6R2とのそれぞれによって示された指標用物体に係る時系列的な立体指標画像は、観察対象物画像1L1および1L2と、観察対象物画像1R1および1R2とのそれぞれよって示された観察対象物に係る時系列的な第1立体画像よりも遠方に観察される。また、指標用物体に係る該時系列的な立体指標画像と、観察対象物に係る該時系列的な第1立体画像との遠近差は、時系列的に増加するように観察される。
 すなわち、第2立体画像G7aおよびG7bによって構成された時系列的な第2立体画像G7においては、観察対象物に対して指標用物体が時系列的に遠ざかる様に観察される。このように、組合せ部19によって生成された時系列的な第2立体画像G7においては、観察対象物と指標用対象物とについての遠近感が動的(時系列的)に広がりつつ観察されるような立体化が行われている。従って、第2立体画像G7を観察する観察者が覚える奥行き感が向上され得る。
 <画像処理装置の動作フロー:>
 図16~図18は、実施形態に係る画像処理装置200Aの動作フローの1例として、動作フローS100Aを示すフローチャートである。なお、動作フローS100Aは、第1立体画像G5、立体指標画像G6、および第2立体画像G7が生成等されていない状況から第2立体画像G7の生成処理が開始される場合の動作フローの例を示している。
 動作フローS100Aは、CPU11AによってROM44内のプログラムPG1と記憶装置46内の検出プログラムPG2とが読み込まれて実行されることで実現される。例えば、ユーザーによる操作部42の操作に応じて画像処理装置200Aにおける立体画像に係る画像処理の実行が要求され、動作フローS100Aが開始される。
 図16におけるステップS110においては、立体画像取得部12が観察対象物に係る第1立体画像G5を取得する。
 ステップS120では、決定部14が、第1立体画像G5の視差の代表視差32を決定する。なお、検出部13によって第1立体画像G5の注目領域が検出された場合には、注目領域を対象として視差の代表視差32が決定される。
 ステップS130では、視差生成部16、位置指定部17a、および17bが、指標用物体の立体画像(立体指標画像G6)に係る指標視差35、代表位置情報36、およびサイズ情報37をそれぞれ取得する。
 ステップS140では、指標視差35、代表位置情報36、およびサイズ情報37と、原指標画像6Sとに基づいて、立体指標画像生成部18が指標物体に係る立体指標画像G6を生成する。なお、ステップS140の開始時点では、既存の立体指標画像G6が存在しないため、指標視差35としては、例えば、第1立体画像G5の視差から記憶装置46などに記憶された所定の視差が減算された視差などが指標視差35として採用される。また、代表位置情報36としても、同様に、立体指標画像G6の所定の初期位置が代表位置情報36として採用される。
 ステップS150では、組合せ部19が第1立体画像G5と立体指標画像G6とを組み合わせることによって第2立体画像G7を生成する。また、生成された第2立体画像G7は、表示部43に表示される。
 ステップS160では、立体画像取得部12が観察対象物に係る新たな第1立体画像G5を取得する。
 ステップS170では、決定部14が、第1立体画像G5の視差の代表視差32を決定する。なお、検出部13によって第1立体画像G5の注目領域が検出された場合には、注目領域を対象として視差の代表視差32が決定される。
 ステップS180では、視差生成部16が、立体指標画像G6の視差(指標視差35)から第1立体画像G5の視差の代表値を減算した減算結果が時系列的に減少するように新たな立体指標画像G6に係る視差(指標視差35)を取得する。
 ステップS190では、サイズ指定部17bによって、サイズ指定部17bに係る動作モードが、指標用物体の画像の画像空間におけるサイズを変更する動作モードであるか否かが判断される。
 ステップS190での判断の結果、指標用物体の画像の画像空間におけるサイズを変更する動作モードが設定されていた場合には、ステップS200において、サイズ指定部17bが、該サイズが時系列的に減少するようにサイズ情報37を変更し、処理はステップS210に移される。
 ステップS190での判断の結果、指標用物体の画像の画像空間におけるサイズを変更する動作モードが設定されていなかった場合には、サイズ指定部17bによるサイズ情報37の変更は行われず、処理はステップS210に移される。
 ステップS210では、位置指定部17aによって、位置指定部17aに係る動作モードが、指標用物体の画像の画像空間における代表位置を変更する動作モードであるか否かが判断される。
 ステップS210での判断の結果、指標用物体の画像の画像空間における代表位置を変更する動作モードが設定されていた場合には、ステップS220において、位置指定部17aが、その動作モードに応じて指標用物体の画像の画像空間における代表位置に係る代表位置情報36を変更し、処理はステップS230に移される。
 ステップS210での判断の結果、指標用物体の画像の画像空間における代表位置を変更する動作モードが設定されていなかった場合には、位置指定部17aによる代表位置情報36の変更は行われず、処理は、ステップS230に移される。
 ステップS230では、指標視差35、代表位置情報36、およびサイズ情報37と、原指標画像6Sとに基づいて、立体指標画像生成部18が指標用物体に係る新たな立体指標画像G6を生成する。生成された新たな立体指標画像G6は、同一の画像表示条件において観察対象物についての新たな第1立体画像G5(ステップS160)よりも遠方に観察されるような視差を持った立体画像となる。
 ステップS240では、組合せ部19が、ステップ160において取得された新たな第1立体画像G5と、ステップS230において生成された新たな立体指標画像G6とを組み合わせることによって新たな第2立体画像G7を生成する。また、生成された第2立体画像G7は、表示部43に表示される。該新たな第2立体画像G7においては、ステップS150において生成された第2立体画像G7に比べて、指標用物体が観察対象物から遠ざかった様に観察される。
 ステップS250では、立体画像取得部12によって、観察対象物に係る全ての第1立体画像G5の取得が完了したか否かが判断される。
 ステップS250での判断の結果、観察対象物に係る全ての第1立体画像G5の取得が完了していなければ、処理はステップS160へと戻される。
 ステップS250での判断の結果、観察対象物に係る全ての第1立体画像G5の取得が完了していれば、動作フローS100Aに係る処理は終了される。
 上述した動作フローによれば、組合せ部19によって生成された時系列的な第2立体画像G7においては、観察対象物と指標用対象物とについての遠近感が動的(時系列的)に広がりつつ観察されるような立体化が行われている。従って、第2立体画像G7を観察する観察者が覚える奥行き感が向上され得る。
 <変形例について:>
 以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
 例えば、上述した動作フローS100Aでは、画像処理装置200Aは、新たな第1立体画像G5が取得される毎に、第2立体画像G7を生成するとともに、表示部43に表示することによって、表示部43に時系列的な第2立体画像G7を表示する処理を行う。これに対して、例えば、画像処理装置200Aが、予め録画された時系列的な第1立体画像G5が一括して取得し、取得した時系列的な第1立体画像G5における各第1立体画像G5に対してそれぞれ第2立体画像G7を一括生成することによって、時系列的な第2立体画像G7を生成し、生成処理が完了した時系列的な第2立体画像G7を表示部43に動画の立体画像として表示する処理を行ったとしても本発明の有用性を損なうものではない。
 100A 画像処理システム
 200A 画像処理装置
 300 ステレオカメラ
 5L 第1左目用画像
 5R 第1右目用画像
 6L 左目用指標画像
 6R 右目用指標画像
 6S 原指標画像
 7L 第2左目用画像
 7R 第2右目用画像
 31 領域情報
 32 代表視差
 33 種別情報
 34 環境情報
 35 指標視差
 36 代表位置情報
 37 サイズ情報
 G5 第1立体画像
 G6 立体指標画像
 G7 第2立体画像
 PG2 検出プログラム

Claims (12)

  1.  同一の画像表示条件において観察対象物の時系列的な第1立体画像よりも遠方に観察されるような視差を持った、時系列的な立体指標画像を生成する立体指標画像生成部と、
     前記第1立体画像と前記立体指標画像とを時系列順に組み合わせて、時系列的な第2立体画像を生成する組合せ部と、
    を備え、
     前記立体指標画像生成部は、前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が時系列的に増加するように、前記立体指標画像を生成する画像処理装置。
  2.  請求項1に記載された画像処理装置であって、
     予め設定された検出規則に従って、前記第1立体画像中で観察者の目を惹くものと予測される注目領域をそれぞれ検出する検出部、
    を更に備え、
     前記立体指標画像生成部は、前記注目領域を対象とした視差に基づいて前記代表値を決定する画像処理装置。
  3.  請求項1または請求項2に記載された画像処理装置であって、
     前記立体指標画像生成部は、前記代表値の時系列的な変化率に応じて、前記遠近差を変化させる画像処理装置。
  4.  請求項2に記載された画像処理装置であって、
     前記立体指標画像生成部は、前記注目領域についての画素値に応じて、前記遠近差を変化させる画像処理装置。
  5.  請求項1または請求項2に記載された画像処理装置であって、
     前記第2立体画像について想定される観察者の種別に関する情報を取得する観察者情報取得部、
    を更に備え、
     前記立体指標画像生成部は、前記観察者の種別に応じて前記遠近差を変化させる画像処理装置。
  6.  請求項1または請求項2に記載された画像処理装置であって、
     前記第2立体画像について想定される観察環境に関する情報を取得する環境情報取得部、
    を更に備え、
     前記立体指標画像生成部は、前記観察環境に応じて前記遠近差を変化させる画像処理装置。
  7.  請求項1から請求項6の何れか1つの請求項に記載された画像処理装置であって、
     前記立体指標画像生成部は、前記立体指標画像中に現れている指標用物体の大きさを時系列的に減少させつつ、前記遠近差を変化させる画像処理装置。
  8.  請求項2から請求項7の何れか1つの請求項に記載された画像処理装置であって、
     前記立体指標画像生成部は、前記第1立体画像の画像空間における前記注目領域の時系列的な位置変化に追随して、前記立体指標画像の位置を時系列的に変化させる画像処理装置。
  9.  請求項1から請求項7の何れか1つの請求項に記載された画像処理装置であって、
     前記立体指標画像生成部は、前記立体指標画像中の所定の指標用物体が時系列的に所定の消失点に向かって遠ざかるように、前記立体指標画像を生成する画像処理装置。
  10.  同一の画像表示条件において、観察対象物の第1立体画像よりも遠方に観察されるような視差を持った、時系列的な立体指標画像を生成する立体指標画像生成部と、
     前記第1立体画像と時系列的な前記立体指標画像とをそれぞれ組み合わせて、時系列的な第2立体画像を生成する組合せ部と、
    を備え、
     前記立体指標画像生成部は、前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が、時系列的に増加するように、前記立体指標画像を生成する画像処理装置。
  11.  画像処理装置に搭載されたコンピュータにおいて実行されることにより当該画像処理装置を請求項1から請求項10の何れか1つの請求項に記載の画像処理装置として機能させるプログラム。
  12.  同一の画像表示条件において観察対象物の第1立体画像よりも遠方に観察されるような視差を持った立体指標画像を生成する立体指標画像生成工程と、
     前記第1立体画像と前記立体指標画像とを組み合わせて、第2立体画像を生成する組合せ工程と、
     前記第1立体画像と前記立体指標画像とのうち、少なくとも前記立体指標画像を時系列的に変化させつつ、前記立体指標画像生成工程と前記組合せ工程とを繰り返すことによって、第2立体画像の時系列な集合を得る繰返し工程と、
    を備え、
     前記第1立体画像の視差の代表値と前記立体指標画像の視差との差分に対応する遠近差が、前記第2立体画像の時系列的な集合において時系列的に増加するように、各繰返しサイクルで前記立体指標画像が生成される画像処理方法。
PCT/JP2012/051744 2011-01-31 2012-01-27 画像処理装置、そのプログラム、および画像処理方法 WO2012105427A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011017845 2011-01-31
JP2011-017845 2011-01-31

Publications (1)

Publication Number Publication Date
WO2012105427A1 true WO2012105427A1 (ja) 2012-08-09

Family

ID=46602643

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/051744 WO2012105427A1 (ja) 2011-01-31 2012-01-27 画像処理装置、そのプログラム、および画像処理方法

Country Status (1)

Country Link
WO (1) WO2012105427A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274421A (ja) * 1992-03-30 1993-10-22 Toshiba Corp カーソル制御装置
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
WO2010150554A1 (ja) * 2009-06-26 2010-12-29 パナソニック株式会社 立体視画像表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274421A (ja) * 1992-03-30 1993-10-22 Toshiba Corp カーソル制御装置
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
WO2010150554A1 (ja) * 2009-06-26 2010-12-29 パナソニック株式会社 立体視画像表示装置

Similar Documents

Publication Publication Date Title
US9967555B2 (en) Simulation device
JP2020516090A (ja) ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
WO2006001361A1 (ja) 立体視画像作成方法および装置
US11659158B1 (en) Frustum change in projection stereo rendering
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JP5476910B2 (ja) 画像生成装置、画像生成方法、および、プログラム
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP2018500690A (ja) 拡大3d画像を生成するための方法およびシステム
KR101821141B1 (ko) 3차원 영상 시스템 및 그 영상 재생 방법
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
JP2017098596A (ja) 画像生成方法及び画像生成装置
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
WO2012105427A1 (ja) 画像処理装置、そのプログラム、および画像処理方法
JP5311526B1 (ja) 3d立体視画像作成方法、3d立体視画像作成システム及び3d立体視画像作成プログラム
CN107229340B (zh) 一种信息处理方法以及电子设备
KR101173280B1 (ko) 주시각 제어를 위한 입체 영상 신호의 처리 방법 및 장치
CN115190286B (zh) 一种2d图像转换方法及装置
Chappuis et al. Subjective evaluation of an active crosstalk reduction system for mobile autostereoscopic displays
JP2013047875A (ja) 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム
JP2012199759A (ja) 情報処理装置、そのプログラム、および情報処理方法
JP5428723B2 (ja) 画像生成装置、画像生成方法、および、プログラム
JP6746033B1 (ja) 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム
KR101067965B1 (ko) 입체 영상 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12742659

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12742659

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP