WO2005112475A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2005112475A1
WO2005112475A1 PCT/JP2005/007865 JP2005007865W WO2005112475A1 WO 2005112475 A1 WO2005112475 A1 WO 2005112475A1 JP 2005007865 W JP2005007865 W JP 2005007865W WO 2005112475 A1 WO2005112475 A1 WO 2005112475A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
images
monocular
monocular images
Prior art date
Application number
PCT/JP2005/007865
Other languages
English (en)
French (fr)
Other versions
WO2005112475A9 (ja
Inventor
Hideaki Yoshida
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP05737297A priority Critical patent/EP1744564A4/en
Publication of WO2005112475A1 publication Critical patent/WO2005112475A1/ja
Publication of WO2005112475A9 publication Critical patent/WO2005112475A9/ja
Priority to US11/586,044 priority patent/US20070035618A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing

Definitions

  • the present invention relates to an image processing apparatus suitable for an electronic camera or the like that captures a stereo image.
  • the system controller includes a stereo adapter detector that detects whether the stereo adapter is attached, and an automatic exposure (AE) controller that analyzes the subject image signal related to the photometric area and calculates the photometric information required for exposure control.
  • AE automatic exposure
  • a photometry area setting unit for setting the photometry area described above is provided, and the photometry area setting unit has a function of setting different photometry areas in the normal shooting mode and the stereo shooting mode, respectively. It discloses a technique for setting an optimal photometric area for each of a normal shooting mode and a stereo shooting mode.
  • a method of projecting two images of the same subject (hereinafter, referred to as a monocular image) mutually shifted according to parallax on the left and right sides of one image frame.
  • a monocular image in order to obtain a three-dimensional effect from one image in which the monocular images are arranged on the left and right (hereinafter, referred to as an integrated image)
  • the left and right monocular images in the integrated image are right-eye or left-eye, respectively.
  • Observe with. Combine the two images observed with the left and right eyes into one
  • an image having a three-dimensional effect can be recognized.
  • This perceived image (hereinafter referred to as a fusion image) gives perspective to each part according to the amount of displacement of each part of the left and right monocular images.
  • a black-level band-shaped image (hereinafter referred to as a supplementary image) is arranged in the periphery of the integrated image and in the center in the horizontal direction, and only the area surrounded by the supplementary image is made effective.
  • a method of easily recognizing the range of a simple monochromatic image is adopted.
  • the degree of publicity of the integrated image is low, and it may not be recognized that the integrated image having the accompanying image is a stereoscopic image.
  • the integrated image may be subjected to the same image processing as that of a general monocular image, or may be erroneously recognized as an image due to a shooting error and may not be subjected to necessary image processing. There was a point.
  • the fused image is obtained by observing the left and right monocular images with the left and right eyes, respectively.
  • the present invention provides an image processing apparatus that can easily distinguish an integrated image from a monocular image and that can effectively support fusion for recognizing a fused image from the integrated image. Aim.
  • the image processing apparatus for a plurality of monocular images of the same subject obtained with a predetermined parallax, includes ancillary images arranged on a part or all of the edges of the plurality of monocular images.
  • An incidental image setting means for setting; an image pattern setting means for setting each image pattern arranged on the incidental image with a predetermined relative positional relationship with each of the monocular images of the plurality of monocular images;
  • a plurality of monocular images are provided, and integrated image generating means for generating one integrated image based on the plurality of monochromatic images and the supplementary image on which the image pattern is arranged is provided. .
  • the supplementary image setting means sets supplementary images to be arranged on a part or all of the edges of the plurality of monocular images.
  • the image pattern setting means sets each image pattern arranged on the incidental image with a predetermined relative positional relationship to each of the plurality of monocular images.
  • the integrated image generating means is provided with a plurality of monocular images of the same subject obtained with a predetermined parallax, and a single image based on the plurality of monocular images and ancillary images on which image patterns are arranged. Generate an integrated image.
  • FIG. 1 is a block diagram showing an electronic camera incorporating an image processing device according to a first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing a configuration of a mirror type stereo adapter in FIG. 1.
  • FIG. 3 is an explanatory diagram for explaining an integrated image.
  • FIG. 4 is an explanatory view showing another example of an incidental image.
  • FIG. 5 is an explanatory view showing another example of the accompanying image.
  • FIG. 6 is an explanatory diagram showing an image pattern of a character “T” when a three-dimensional “STREO” character string is adopted as a fusion support pattern.
  • FIG. 7 is an explanatory diagram showing an example of a data format of an image file.
  • FIG. 1 is a block diagram showing an electronic camera in which the image processing device according to the first embodiment of the present invention is incorporated. (First Embodiment)
  • the electronic camera includes a camera body 1, a lens unit 5 having a lens barrel, and a stereo adapter 10 for capturing a stereo image.
  • a mirror type stereo adapter 10 is detachably attached to the lens unit 5.
  • the stereo adapter 10 has a configuration in which mirrors 11 and 12 are arranged at positions separated by parallax, respectively, and mirrors 13 and 14 for guiding light reflected by these mirrors 11 and 12 to the camera side are arranged. Te ru.
  • the light that has passed through the mirrors 11 and 13 and the mirrors 12 and 14 in the stereo adapter 10 is respectively transmitted through the photographing lens group 21 in the lens unit 5, the exposure control mechanism 22, and the half mirror in the camera body 1. Guided to 31.
  • the lens unit 5 includes a photographic lens group 21, an exposure control mechanism 22, a lens driving mechanism 23, a lens driver 24, and an exposure control driver 25.
  • the imaging lens group 21 is a main imaging optical system capable of performing normal monocular imaging (monocular imaging) when the stereo adapter 10 is not attached, and is driven by the lens driving mechanism 23 to perform focusing and zooming. Is being adjusted!
  • the lens driving mechanism 23 is controlled by a lens driver 24.
  • the exposure control mechanism 22 controls the aperture of the photographing lens group 21 and a shutter device (not shown).
  • the exposure control mechanism 22 is controlled by an exposure control driver 25.
  • the light guided from the lens unit 5 to the camera body 1 passes through the half mirror 31 and is guided to the CCD color image sensor 34 via the low-pass and infrared cut filter system 32 to form an image. It is supposed to be.
  • the CCD color image sensor 34 is driven and controlled by a CCD driver 35 to convert an optical image of a subject into an electric signal.
  • a CCD driver 35 As the CCD color imaging device 34, for example, an interline type with a vertical overflow drain structure and a progressive (sequential) scanning type is employed.
  • FIG. 2 is an explanatory diagram showing a configuration of the mirror type stereo adapter in FIG.
  • a stereo adapter 10 of a set of mirrors is detachable from a lens unit 5 having a lens barrel mounted on the camera body 1.
  • mirrors 11 and 12 are respectively arranged at positions apart from each other by parallax.
  • the mirrors 13 and 14 for guiding the light reflected by the camera to the camera are arranged.
  • the light incident on the right-eye viewing mirror 11 of the stereo adapter 10 forms an image on the region R of the imaging surface 34 a of the CCD color imaging device 34 via the mirror 13 and the imaging lens group 21.
  • the light incident on the left-eye viewing mirror 12 is imaged on the area L of the imaging surface 34a of the CCD color imaging device 34 via the mirror 14 and the imaging lens group 21. .
  • the signal photoelectrically converted by the CCD color image sensor 34 is passed through a pre-processing circuit 36 including AZD conversion and the like, to a digital process circuit for performing color signal generation processing, matrix conversion processing, and other various digital processing. Given to 39.
  • color image data is generated by processing the digitized image signal.
  • An LCD display unit 40 is connected to the digital process circuit 39, and a memory card 42 such as a CF (Compact Flash Memory Card) or a smart media is connected via a card interface (IF) 41. .
  • the LCD display section 40 performs display based on color image data, and the memory card 42 stores color image data.
  • the memory card 42 can be loaded into an external personal computer 60. Then, the image recorded on the memory card 42 can be displayed on the personal computer 60 and image processing can be performed. Further, the image recorded on the memory card 42 can be printed out by a printer (not shown).
  • the half mirror 31 is configured so that an incident subject image is partially reflected, and is configured to guide the reflected light to the AF sensor module 45.
  • the AF sensor module 45 performs focus detection based on a light beam that has entered through the photographing lens group 21.
  • the AF sensor module 45 includes a separator lens 46 for dividing a pupil and an AF sensor 47 including a line sensor.
  • a system controller 50 constituted by a CPU and the like is used to control each unit in the camera body 1 and the lens cutout 5 as a whole.
  • the system controller 50 includes a lens driver 24, an exposure control driver 25, a CCD driver 35, a pre-process circuit 36, a digital process circuit 39, an AF sensor module 45, an operation switch section 52, and the like.
  • Operation display section 53, nonvolatile memory (EEPROM) 51, stereo switching Switch (SW) 54 is connected.
  • the operation switch unit 52 includes various switch powers such as a release switch and a shooting mode setting.
  • the operation display unit 53 is a display unit for displaying an operation state, a mode state, and the like of the camera.
  • the EEPROM 51 is a memory for storing various setting information and the like.
  • the stereo switch 54 is a switch for switching modes when the stereo adapter 10 is mounted on the lens unit 5. Note that, here, the shooting mode switching is performed by operating the stereo switching switch 54. The switching is not limited to this. For example, a detection function may be provided in the stereo adapter 10 so that the shooting mode is automatically switched.
  • the system controller 50 controls the exposure control mechanism 22 and the CCD driver 35 to drive the CCD color image sensor 34 to perform exposure (charge accumulation) and signal reading.
  • the system controller 50 supplies the output of the CCD 34 to the digital process circuit 39 via the pre-process circuit 36 to perform various kinds of signal processing, and records the signals on the memory card 42 via the card interface 41.
  • the strobe 57 emits flash light, and is controlled by the system controller 50 via the exposure control driver 25 in the lens unit 5!
  • the system controller 50 further includes an exposure control unit 50d and a photometric area setting unit 50e.
  • the exposure control unit 50d analyzes the subject image signal relating to the photometric area and calculates exposure information necessary for exposure control.
  • the photometric area setting unit 50e sets a photometric area for the exposure control unit 50d.
  • the system controller 50 further includes an additional image setting unit 50a, an integrated image generation unit 50b, and an image file generation unit 50c.
  • the integrated image generation unit 50b is for generating an integrated image including two monocular images.
  • the image file generation unit 50c can convert the integrated image into an electronic image file in a predetermined format and output the electronic image file.
  • the image file generation unit 50c performs a compression process on the integrated image as necessary, and generates a digital image file of a predetermined format shown in FIG. 7 to which attached data (metadata) is added.
  • the incidental image setting section 50a is for setting an incidental image that defines an effective range of each monocular image included in the integrated image.
  • the supplementary image is set as a band of a predetermined level on the edge of the integrated image.
  • the incidental image setting unit 50a instructs the integrated image generation unit 50b on the incidental image to be set, and the integrated image generation unit 50b generates the incidental image in the integrated image according to the instruction of the incidental image setting unit 50a.
  • the additional image setting unit 50a can set an arbitrary image pattern as the additional image.
  • vignetting actually occurs at a boundary portion, or a shift occurs in an image forming position.
  • a predetermined portion in the LR area is trimmed to set the range of an effective monochromatic image (hereinafter referred to as an image frame).
  • the additional image setting unit 50a sets an additional image so as to surround this image frame.
  • the supplementary image setting unit 50a as an image pattern setting means includes a predetermined image pattern (hereinafter, referred to as an image) for identifying that the image is an integrated image in the supplementary image. At least a predetermined image pattern (hereinafter referred to as a fusion support pattern) for supporting the fusion by discriminating pattern and! / ⁇ ⁇ ) and observing the integrated image to enable easy fusion image acquisition. You can now make settings to include one.
  • a predetermined image pattern hereinafter, referred to as an image
  • a fusion support pattern for supporting the fusion by discriminating pattern and! / ⁇ ⁇
  • the supplementary image setting unit 50a adopts the character string "STEREO” as an image pattern that also serves as the identification pattern and the fusion support pattern.
  • the auxiliary image setting unit 50a arranges the image pattern “STEREO” in the lower or upper auxiliary image portion of each monocular image.
  • the supplementary image setting unit 50a arranges the same pattern of “STEREO”, which is the fusion support pattern, in such a manner that their relative positions are coincident with each monocular image, for example. That is, assuming that the image frame size and magnification of the left and right monocular images are the same, and the shape and size of the fusion support pattern are the same, the relative positions with respect to each monocular image match.
  • the fusion support pattern is located at a reference position where depth is not felt in the fusion image, that is, on the image frame plane.
  • each fusion support pattern arranged corresponding to each monocular image do not necessarily have to match, and by appropriately setting the shape and size of the pattern and the relative position to each monocular image, a predetermined It is also possible to support fusion by localizing with a sense of depth or presenting it as a three-dimensional shape.
  • FIG. 3 is an explanatory diagram for explaining an integrated image.
  • the subject optical image incident via the stereo adapter 10 forms an image on the imaging surface of the CCD color imaging device 34 via the imaging lens group 21, the exposure control mechanism 22, the half mirror 31, and the filter system 32.
  • one image including the left and right monocular images L and R is obtained by the CCD color imaging device.
  • the image signal from the CCD color image sensor 34 is input to the controller 50 via the pre-processing circuit 36.
  • the incidental image setting unit 50a in the controller 50 sets a band-like incidental image area that divides the range of an effective monochromatic image in consideration of vignetting and deviation of an image forming position. Based on the setting of the incidental image setting section 50a, the integrated image generating section 50b generates an integrated image including the incidental image.
  • FIG. 3 shows an integrated image generated by the integrated image generation unit 50b.
  • the shaded portion in FIG. 3 indicates a band-shaped incidental image set by the incidental image setting section 50a. That is, as shown in FIG. 3, the integrated image includes left and right monocurricular images 71L and 71R and a band-shaped incidental image 7Is arranged on the edges thereof. Note that L and R in FIG. 3 indicate that the left and right monochromatic images are arranged! / !!
  • the supplementary image setting unit 50a displays the character pattern 72L, 72R of “STEREO”, which is an image pattern that combines the identification pattern and the fusion support pattern, on the supplementary image 71s. .
  • the integrated image generation unit 50b arranges the character patterns 72L and 72R in the accompanying image 7Is below the monocular images 71L and 71R, respectively.
  • These character patterns 72L and 72R are configured, for example, in the same shape and the same size, and have the same relative positional relationship to the monocular images 71L and 71R, respectively. Set to one.
  • the supplementary image setting unit 50a can set the relative positional relationship of the character patterns 72L, 72R to the monochromatic images 71L, 71R based on the image frame of each monochromatic image 71L, 71R.
  • the integrated image shown in FIG. 3 includes character patterns 72L and 72R of “STERO” indicating that the image is an integrated image on the supplementary image 71a. It can be easily identified.
  • the character patterns 72L and 72R have the same relative positional relationship to the monocular images 71L and 71R, respectively, and have the same shape and size. Is located on the image frame plane. Therefore, it is easy to form a fusion image by attempting fusion so that the character string “STERO” overlaps when recognizing the image.
  • the image file generation unit 50c converts the integrated image generated by the integrated image generation unit 50b into an electronic image file in a predetermined format. That is, the image file generation unit 50c performs a compression process on the integrated image as necessary, and generates a digital image file of a predetermined format to which the attached data (metadata) is added. For example, the image file generating unit 50c codes the attached image in terms of the range and the luminance level on the integrated image and outputs the metadata as metadata.
  • the electronic image file of the integrated image from the image file generation unit 50c is provided to the digital process circuit 39.
  • the digital process circuit 39 can display the integrated image on the display screen of the LCD 40 based on the input electronic image file. Further, the digital process circuit 39 can also provide the input electronic image file to the memory card 42 via the card IF 41 and record it.
  • the relative positional relationship with respect to the left and right monocular images is mutually different.
  • Two image patterns of the same size and shape are included as an identification pattern and a fusion support pattern.
  • the identification pattern is not limited to a fuzzy character as long as it is an image pattern that can be identified as an integrated image.
  • the arrangement position is also free. It may be composed only of.
  • the fusion support pattern may be a pair of image patterns arranged in a predetermined positional relationship in each monocular image, depending on the display position including the depth direction in the fusion image. Image patterns of shapes and sizes having a predetermined relationship with each other can be adopted.
  • the example in which the present invention is applied to an electronic camera can be applied to a single image processing apparatus that processes an image captured by a force electronic camera. Similar functions can be achieved by a program such as a personal computer that processes a captured image.
  • the force fusion support pattern described in the example in which the supplementary images are arranged in a band shape on the entire edge of the left and right monocular images is arranged on the upper or lower incident image of the left and right monocular images. It should just be arranged. Therefore, the auxiliary image 75D may be arranged only below the integrated image as shown in FIG. 4, and as shown in FIG. 5, the left and right monocular images 71L, The accompanying image 77s may be arranged on the edge of the 71R. Although not shown, ancillary images may be arranged only above the integrated image. Further, the supplementary image may be arranged at a part of one edge of each monocular image.
  • the two fusion support patterns provided for the left and right monocular images, respectively, are formed in a shape or the like according to the depth direction in the fusion image.
  • the fusion support pattern itself can be configured to be stereoscopically viewed.
  • FIG. 6 is an explanatory diagram showing an image pattern of a character “T” in the case where a three-dimensional “STREO” character string is adopted as the fusion support pattern.
  • the pattern of the surface of the character ⁇ (the solid portion in Fig. 6) has a relative positional relationship to the left and right monocular images. different.
  • the pattern on the back side of the letter T (not shown) has the same relative position with respect to the left and right monochromatic images. That is, the pattern on the back side of the character ⁇ is localized in the image frame plane, which is the reference position in the depth direction in the fusion image, the front side of the character T protrudes forward, and the side of the character T is shaded in FIG.
  • the three-dimensional character that is displayed according to the image shown in (1) is recognized. The same applies to other characters.
  • a pattern having unevenness on the surface can be set, and the pattern can be set so that the color and brightness of the side surface have gradation. is there.
  • the stereo system has been described as a binocular system corresponding to the left and right eyes.
  • the present invention is similarly applied to a general multi-view stereo system having three or more eyes. Of course it is possible.
  • each of the above-described embodiments an example is described in which one image in which a monocular image is arranged on the left and right is acquired by a camera, and an additional image is set for this image.
  • each monocular image obtained by separately photographing with two cameras is separately input, and one integrated image is generated based on each monocular image and ancillary image. It is clear that this can be applied.

Abstract

統合画像と単眼視画像との識別を容易にすると共に、融合を効果的に支援する。  所定の視差を有して得られた同一被写体の複数のモノキュラ画像について、上記複数のモノキュラ画像の縁辺の一部又は全部に配置する付帯画像を設定する付帯画像設定手段50aと、上記複数のモノキュラ画像の各モノキュラ画像に夫々所定の相対位置関係を有して上記付帯画像上に配置される各画像パターンを設定する画像パターン設定手段50aと、上記複数のモノキュラ画像が与えられ、上記複数のモノキュラ画像と上記画像パターンが配置された上記付帯画像とに基づく1枚の統合画像を生成する統合画像生成手段50bとを具備したことを特徴とする。

Description

画像処理装置
技術分野
[0001] 本発明は、ステレオ画像を撮像する電子カメラ等に好適な画像処理装置に関する 背景技術
[0002] 画像を立体的情報を含んで撮影記録し、これを再生観察する方式には多種多様な 提案がある。その中でも、左右両眼の視点に対応する視差を持った 2画像を記録し、 これを左右両眼に対してそれぞれ提示する 、わゆる 2眼式ステレオ方式は、構成が 最も簡単で安価な割に効果が大きいため、旧くから今日に至るまで利用されている。
[0003] この 2眼式ステレオ方式において、いわゆるパーソナルユースに対しては、同時に は 1人し力観察できないという制約はあるものの、最も基本的かつ古典的な方法であ るステレオペア画像を用いる方式が、極めて安価にまた鮮明な画像を観察できる方 式として、今日、なお広く使用されている。
[0004] そして、ステレオアダプタを用いたステレオ撮像装置としては、例えば、特開 2002 — 218506号公報(以下、文献 1という)に開示されたものがある。文献 1では、システ ムコントローラに、ステレオアダプタの装着を検出するステレオアダプタ検出部、測光 エリアに関する被写体画像信号を解析して露出制御に必要な測光情報を算出する ための自動露出 (AE)制御部、及び上述の測光エリアの設定を行う測光エリア設定 部を設けて、測光エリア設定部が、通常撮影モード時とステレオ撮影モードとでそれ ぞれ異なる測光エリアを設定する機能を有しており、通常撮影モード及びステレオ撮 影モードそれぞれに最適な測光エリアを設定する技術を開示している。
[0005] このように、 2眼式ステレオ方式では、 1枚の画枠の中の左右に、視差に応じて相互 にずれた同一被写体の 2つの画像 (以下、モノキユラ画像という)を映し出す方法を採 用する。即ち、 2眼式ステレオ方式では、左右にモノキユラ画像が配置された 1枚の画 像 (以下、統合画像という)から立体感を得るために、統合画像中の左右のモノキユラ 画像を夫々右目又は左目で観察する。左右の目で観察した 2つの画像を、 1つの画 像として融合させることによって、立体感を有する画像を認識することができる。この 認識上の画像 (以下、融合画像という)は、左右のモノキユラ画像の各部のずれ量に 応じて、各部に遠近感を生じさせる。
[0006] ところで、ステレオアダプタ内のミラーや絞り等の光学系の誤差等に起因して、統合 画像の全領域が立体視に寄与するモノキユラ画像となるとは限らない。例えば、モノ キユラ画像の縁辺部及び各モノキユラ画像同士の境界部は立体視に寄与せず、画 像品位を悪ィ匕させてしまうことがある。そこで、統合画像の周辺及び左右方向の中央 部分には、例えば黒レベルの帯状の画像 (以下、付帯画像という)を配置し、付帯画 像によって囲まれた領域のみを有効とすることで、有効なモノキユラ画像の範囲を容 易に認識可能にする方法が採用されることがある。
[0007] このような付帯画像を含む統合画像に対しては、当然のことながら、一般の単眼視 画像に対する画像処理と異なる処理を施した方がよい。例えば、一般の単眼視画像 に対する露出補正は、画像中央部の輝度レベルを基準にするのに対し、統合画像 では画像中央の付帯画像部分ではなぐ各モノキユラ画像の中央位置の輝度レベル を基準にした方がよい。
[0008] ところが、一般に、統合画像についての周知度は低ぐ付帯画像を有する統合画像 が立体視用の画像であることが認識されないことがある。このため、統合画像に一般 の単眼視画像と同様の画像処理が施されてしまうこともあり、あるいは、撮影ミスによ る画像と誤認識され、必要な画像処理が施されないこともあるという問題点があった。
[0009] また、上述したように、融合画像は、左右のモノキユラ画像を夫々左右の目で観察 することによって得られる。ところが、このような画像の融合には個人差があり、適正な 統合画像を観察しても、必ずしも、融合画像を得ることができるとは限らないという問 題点もあった。
[0010] 本発明は統合画像と単眼視画像とを容易に識別可能にすると共に、統合画像から 融合画像を認識するための融合を効果的に支援することができる画像処理装置を提 供することを目的とする。
発明の開示
課題を解決するための手段 [0011] 本発明に係る画像処理装置は、所定の視差を有して得られた同一被写体の複数 のモノキユラ画像について、上記複数のモノキユラ画像の縁辺の一部又は全部に配 置する付帯画像を設定する付帯画像設定手段と、上記複数のモノキユラ画像の各モ ノキユラ画像に夫々所定の相対位置関係を有して上記付帯画像上に配置される各 画像パターンを設定する画像パターン設定手段と、上記複数のモノキユラ画像が与 えられ、上記複数のモノキユラ画像と上記画像パターンが配置された上記付帯画像 とに基づく 1枚の統合画像を生成する統合画像生成手段とを具備したことを特徴とす る。
[0012] 本発明にお 、て、付帯画像設定手段は、複数のモノキユラ画像の縁辺の一部又は 全部に配置する付帯画像を設定する。画像パターン設定手段は、複数のモノキユラ 画像の各モノキユラ画像に夫々所定の相対位置関係を有して付帯画像上に配置さ れる各画像パターンを設定する。統合画像生成手段には、所定の視差を有して得ら れた同一被写体の複数のモノキユラ画像が与えられ、これらの複数のモノキユラ画像 と画像パターンが配置された付帯画像とに基づく 1枚の統合画像を生成する。
図面の簡単な説明
[0013] [図 1]本発明の第 1の実施の形態に係る画像処理装置が組込まれた電子カメラを示 すブロック図。
[図 2]図 1中のミラー式ステレオアダプタの構成を示す説明図。
[図 3]統合画像を説明するための説明図。
[図 4]付帯画像の他の例を示す説明図。
[図 5]付帯画像の他の例を示す説明図。
[図 6]融合支援パターンとして立体的な「STREO」の文字列を採用する場合の「T」 の文字の画像パターンを示す説明図。
[図 7]画像ファイルのデータフォーマットの一例を示す説明図。
発明を実施するための最良の形態
[0014] 以下、図面を参照して本発明の実施の形態について詳細に説明する。図 1は本発 明の第 1の実施の形態に係る画像処理装置が組込まれた電子カメラを示すブロック 図である。 [0015] (第 1の実施形態)
図 1において、電子カメラは、カメラ本体 1と、レンズ鏡筒を有するレンズユニット 5と 、ステレオ画像撮影用のステレオアダプタ 10とによって構成されている。電子カメラは 、レンズユニット 5にミラー式のステレオアダプタ 10が着脱自在に取り付けられている 。ステレオアダプタ 10は、視差程度離れた位置にミラー 11、 12がそれぞれ配置され 、更にこれらのミラー 11、 12によって反射された光をカメラ側に導くためのミラー 13、 14が配置された構成となって 、る。
[0016] ステレオアダプタ 10内のミラー 11、 13及びミラー 12、 14を通過した光は、それぞれ レンズユニット 5内の撮影レンズ群 21を介して露出制御機構 22、更にはカメラ本体 1 内のハーフミラー 31に導かれる。
[0017] レンズユニット 5は、撮影レンズ群 21と、露出制御機構 22と、レンズ駆動機構 23と、 レンズドライバ 24と、露出制御ドライバ 25とを有して構成されて ヽる。
[0018] 撮影レンズ群 21は、ステレオアダプタ 10が装着していない状態では通常の単眼視 の撮像 (モノキユラ撮像)が可能な主撮像光学系であり、レンズ駆動機構 23によって 駆動されてフォーカシングゃズーミングの調節が行われるようになって!/、る。レンズ駆 動機構 23は、レンズドライバ 24によって制御される。露出制御機構 22は、撮影レン ズ群 21の絞り及びシャツタ装置(図示せず)を制御するようになっている。露出制御 機構 22は、露出制御ドライバ 25によって制御される。
[0019] レンズユニット 5からカメラ本体 1に導かれた光は、ハーフミラー 31を通過して、ロー パス及び赤外カット用のフィルタ系 32を介して CCDカラー撮像素子 34に導かれて 結像されるようになっている。 CCDカラー撮像素子 34は、 CCDドライバ 35によって 駆動制御されて、被写体の光学像を電気信号に変換する。なお、 CCDカラー撮像 素子 34としては、例えば、縦型オーバフロードレイン構造のインターライン型で、プロ グレツシブ (順次)走査型のものが採用される。
[0020] 図 2は図 1中のミラー式ステレオアダプタの構成を示す説明図である。
[0021] 図 2において、カメラ本体 1に装着されたレンズ鏡筒を有するレンズユニット 5に、ミラ 一式のステレオアダプタ 10が着脱可能となっている。このステレオアダプタ 10は、視 差程度離れた位置にミラー 11、 12がそれぞれ配置され、更にこれらのミラー 11、 12 で反射された光をカメラ側に導くためのミラー 13、 14が配置されて構成される。
[0022] ステレオアダプタ 10の右眼視用ミラー 11に入射された光は、ミラー 13及び撮影レ ンズ群 21を介して CCDカラー撮像素子 34の撮像面 34aの領域 Rに結像される。同 様に、左眼視用ミラー 12に入射された光は、ミラー 14及び撮影レンズ群 21を介して CCDカラー撮像素子 34の撮像面 34aの領域 Lに結像されるようになって 、る。
[0023] CCDカラー撮像素子 34によって光電変換された信号は、 AZD変 等を含む プリプロセス回路 36を介して、色信号生成処理、マトリックス変換処理、その他各種 のデジタル処理を行うためのデジタルプロセス回路 39に与えられる。このデジタルプ ロセス回路 39において、デジタル化された画像信号を処理することにより、カラー画 像データが生成される。
[0024] デジタルプロセス回路 39には、 LCD表示部 40が接続されると共に、カードインター フェース(IF) 41を介して CF (Compact Flash Memory Card)やスマートメディ ァ等のメモリカード 42が接続される。 LCD表示部 40はカラー画像データに基づく表 示を行うものであり、メモリカード 42はカラー画像データを格納するものである。
[0025] なお、メモリカード 42は、外部のパーソナルコンピュータ 60に装填が可能である。そ して、メモリカード 42に記録された画像は、パーソナルコンピュータ 60上で表示、画 像処理等が可能である。更に、メモリカード 42に記録された画像を、図示しないプリ ンタによってプリントアウトすることも可能である。
[0026] ハーフミラー 31は、入射される被写体像が一部反射されるように構成されているも ので、反射光を AFセンサモジュール 45に導くようになつている。 AFセンサモジユー ル 45は、撮影レンズ群 21を通って入射された光線に基づいて焦点検出を行うため のものである。 AFセンサモジュール 45は、瞳分割用のセパレータレンズ 46と、ライン センサで構成される AFセンサ 47を有して構成されて 、る。
[0027] CPU等によって構成されるシステムコントローラ 50は、カメラ本体 1及びレンズュ- ット 5内の各部を統括的に制御するためのものである。システムコントローラ 50には、 上述したレンズドライバ 24と、露出制御ドライバ 25と、 CCDドライバ 35と、プリプロセ ス回路 36と、デジタルプロセス回路 39と、 AFセンサモジュール 45の他、操作スイツ チ部 52と、操作表示部 53と、不揮発性メモリ (EEPROM) 51と、ステレオ切り替えス イッチ(SW) 54とが接続されて 、る。
[0028] 操作スィッチ部 52は、レリーズスィッチや撮影モード設定等の各種スィッチ力ゝら構 成される。操作表示部 53は、カメラの操作状態及びモード状態等を表示するための 表示部である。
[0029] EEPROM51は、各種設定情報等を記憶するためのメモリである。そして、ステレオ 切り替えスィッチ 54は、ステレオアダプタ 10がレンズユニット 5に装着される際にモー ドを切り替えるための切り替えスィッチである。なお、ここでは、撮影モード切り替えは ステレオ切り替えスィッチ 54を操作して行うようにしている力 これに限られるものでは ない。例えば、ステレオアダプタ 10内に検出機能を設けて自動的に撮影モードの切 り替えが行われるようにしてもよ 、。
[0030] システムコントローラ 50は、露出制御機構 22と CCDドライバ 35による CCDカラー 撮像素子 34の駆動を制御して、露光 (電荷蓄積)及び信号の読み出しを行う。システ ムコントローラ 50は、 CCD34の出力をプリプロセス回路 36を介してデジタルプロセス 回路 39に与えて各種信号処理を施し、カードインターフェース 41を介してメモリカー ド 42に記録させるようになって 、る。
[0031] ストロボ 57は、閃光を発光するもので、レンズユニット 5内の露出制御ドライバ 25を 介して、システムコントローラ 50によって制御されるようになって!/、る。
[0032] システムコントローラ 50は、更に、露出制御部 50d及び測光エリア設定部 50eを有 している。露出制御部 50dは、測光エリアに関する被写体画像信号を解析して露出 制御に必要な露光情報を算出するためのものである。また、測光エリア設定部 50eは 、露出制御部 50dに対して、測光エリアの設定を行うようになっている。
[0033] 本実施の形態においては、システムコントローラ 50は、更に、付帯画像設定部 50a 、統合画像生成部 50b及び画像ファイル生成部 50cを有して 、る。
[0034] 統合画像生成部 50bは、 2つのモノキユラ画像を含む統合画像を生成するためのも のである。画像ファイル生成部 50cは、統合画像を所定フォーマットの電子画像ファ ィルに変換して出力することができるようになつている。例えば、画像ファイル生成部 50cは、統合画像を必要に応じて圧縮処理し、付属データ (メタデータ)を付加した図 7示す所定フォーマットのデジタル画像ファイルを生成する。 [0035] 付帯画像設定部 50aは、統合画像中に含まれる各モノキユラ画像の有効範囲を規 定する付帯画像を設定するためのものである。付帯画像は、統合画像の縁辺に所定 レベルの帯状に設定される。付帯画像設定部 50aは、設定すべき付帯画像を統合画 像生成部 50bに指示するようになっており、統合画像生成部 50bは付帯画像設定部 50aの指示に従って、統合画像中に付帯画像を含めるようになつている。なお、付帯 画像設定部 50aは、付帯画像として任意の画像パターンを設定することができる。
[0036] 図 2の LRの各領域に結像された被写体光学像は、実際には境界部にケラレが生じ ていたり、或いは結像位置にずれが生じていたりする。このケラレ及び位置ずれ等を 補正すベぐ LR領域中の所定部分をトリミングして有効なモノキユラ画像の範囲(以 下、画枠という)を設定する。付帯画像設定部 50aは、この画枠を囲むように、付帯画 像を設定する。
[0037] 更に、本実施の形態においては、画像パターン設定手段としての付帯画像設定部 50aは、付帯画像中に、画像が統合画像であることを識別するための所定の画像パ ターン (以下、識別パターンと!/ヽぅ)及び統合画像の観察による融合を支援して容易 に融合画像を得ることを可能にするための所定の画像パターン (以下、融合支援バタ ーンと 、う)の少なくとも一方を含めるための設定を行うことができるようになって 、る。
[0038] 例えば、付帯画像設定部 50aは、識別パターン及び融合支援パターンを兼用した 画像パターンとして、「STEREO」の文字列を採用する。付帯画像設定部 50aは、画 像パターン「STEREO」を、各モノキユラ画像の下方又は上方の付帯画像部分に、 夫々配置させる。この場合には、付帯画像設定部 50aは、融合支援パターンである「 STEREO」の同一パターンを、夫々各モノキユラ画像に対して相対的な位置を例え ば一致させて配置する。即ち、左右のモノキユラ画像の画枠サイズ及び倍率が同一 で、融合支援パターンの形状及びサイズが同一であるものとすると、各モノキユラ画 像に対する相対位置が一致しているので、この場合には、融合支援パターンは、融 合画像中において、奥行きを感じない基準位置、即ち、画枠平面上に定位すること になる。
[0039] なお、融合支援パターンを画枠平面上に定位させることによって、融合を効果的に 支援することができるものと考えられる力 各モノキユラ画像の絵柄等によっては必ず しも融合支援パターンを画枠平面上に定位させる必要はない。即ち、各モノキユラ画 像に対応して配置する各融合支援パターンの形状及びサイズは必ずしも一致させる 必要はなぐパターンの形状及びサイズ並びに各モノキユラ画像に対する相対的な 位置を適宜設定することによって、所定の奥行き感を有するように定位させ、或いは 立体的な形状として提示することで、融合を支援することも可能である。
[0040] 次に、このように構成された実施の形態の作用について図 3を参照して説明する。
図 3は統合画像を説明するための説明図である。
[0041] V、ま、ステレオ切り替えスィッチ 54によって、ステレオ撮影モードが指示されて!、る ものとする。ステレオアダプタ 10を介して入射した被写体光学像は、撮影レンズ群 21 、露出制御機構 22、ハーフミラー 31及びフィルタ系 32を介して CCDカラー撮像素 子 34の撮像面に結像する。図 2に示すように、 CCDカラー撮像素子 34によって、左 右のモノキユラ画像 L, Rを含む 1枚の画像が得られる。 CCDカラー撮像素子 34から の画像信号はプリプロセス回路 36を介してコントローラ 50に入力される。
[0042] コントローラ 50内の付帯画像設定部 50aは、ケラレや結像位置のずれを考慮して、 有効なモノキユラ画像の範囲を区画する帯状の付帯画像の領域を設定する。付帯画 像設定部 50aの設定に基づいて、統合画像生成部 50bは、付帯画像を含む統合画 像を生成する。
[0043] 図 3は統合画像生成部 50bが生成する統合画像を示している。図 3の斜線部によつ て、付帯画像設定部 50aが設定した帯状の付帯画像を示している。即ち、統合画像 は、図 3に示すように、左右のモノキユラ画像 71L, 71Rと、その縁辺に配置される帯 状の付帯画像 7 Isを含んでいる。なお、図 3中の L, Rは左右のモノキユラ画像が配置 されて!/ヽることを示して!/、る。
[0044] 更に、本実施の形態においては、付帯画像設定部 50aは、識別パターン及び融合 支援パターンを兼用した画像パターンである「STEREO」の文字パターン 72L, 72R を、付帯画像 71s上に表示させる。図 3に示すように、統合画像生成部 50bは、文字 パターン 72L, 72Rをそれぞれモノキユラ画像 71L, 71R下方の付帯画像 7 Is部分 に配置する。これらの文字パターン 72L, 72Rは、例えば、同一形状、同一サイズに 構成され、それぞれ、モノキユラ画像 71L, 71Rに対する相対位置関係が相互に同 一に設定される。
[0045] 例えば、付帯画像設定部 50aは、各モノキユラ画像 71L, 71Rの画枠を基準として 、文字パターン 72L, 72Rのモノキユラ画像 71L, 71Rに対する相対位置関係を設 定することができる。
[0046] 図 3に示す統合画像は、付帯画像 71a上に、統合画像であることを示す「STERO」 の文字パターン 72L, 72Rを含むことから、これらの文字パターン 72L, 72Rによって 、統合画像であることを容易に識別することができる。
[0047] また、文字パターン 72L, 72Rは、夫々モノキユラ画像 71L, 71Rに対する相対位 置関係が相互に同一であり、同一形状及びサイズのパターンであることから、融合画 像上では、「STERO」の文字列が画枠平面に定位する。従って、画像の認識時に文 字列「STERO」が重なるように融合を試みることによって、融合画像の形成が容易と なる。
[0048] 画像ファイル生成部 50cは、統合画像生成部 50bが生成した統合画像を所定フォ 一マットの電子画像ファイルに変換する。即ち、画像ファイル生成部 50cは、統合画 像を必要に応じて圧縮処理し、付属データ (メタデータ)を付加した所定フォーマット のデジタル画像ファイルを生成する。例えば、画像ファイル生成部 50cは、付帯画像 については、統合画像上の範囲及び輝度レベル等をコードィ匕して、メタデータとして 出力することちでさる。
[0049] 画像ファイル生成部 50cからの統合画像の電子画像ファイルは、デジタルプロセス 回路 39に与えられる。デジタルプロセス回路 39は、入力された電子画像ファイルに 基づいて、統合画像を LCD40の表示画面に表示させることができる。また、デジタ ルプロセス回路 39は、入力された電子画像ファイルをカード IF41を介してメモリカー ド 42に与えて、記録させることもできる。
[0050] このように本実施の形態にぉ 、ては、左右のモノキユラ画像及びその領域を区画す る付帯画像を含む統合画像には、左右のモノキユラ画像に対して相対位置関係が相 互に同一で、同一サイズ及び形状の 2つの画像パターンが識別パターン及び融合支 援パターンとして含まれて 、る。
[0051] 従って、統合画像の再生時には、識別パターンによって統合画像であることを容易 に識別することができ、また、画像の認識時には、融合支援パターンによって容易に 融合画像の形成が可能である。
[0052] なお、識別パターンとしては、統合画像であることを識別可能にする画像パターン であればよぐ文字に限定されるものではなぐまた、配置する位置も自由であり、 1つ の画像パターンのみによって構成してもよ 、。
[0053] また、融合支援パターンとしては、各モノキユラ画像にそれぞれ所定の位置関係を 有して配置される一対の画像パターンであればよぐ融合画像中の奥行き方向を含 む表示位置に応じて相互に所定の関係を有する形状及びサイズの画像パターンを 採用することができる。
[0054] なお、第 1の実施の形態においては、電子カメラに適用した例を説明した力 電子 カメラによって撮像された画像を処理する単独の画像処理装置にも適用することがで き、また、撮像画像を処理するパーソナルコンピュータ等のプログラムによって、同様 の機能を達成することも可能である。
[0055] また、図 3では付帯画像が左右のモノキユラ画像の全縁辺部に帯状に配置されて いる例について説明した力 融合支援パターンは、左右のモノキユラ画像の上方又 は下方の付帯画像上に配置すればよい。従って、図 4に示すように、統合画像の下 方のみに付帯画像 75Dを配置するようにしてもよぐまた、図 5に示すように、統合画 像の上方を除く左右のモノキユラ画像 71L, 71Rの縁辺に付帯画像 77sを配置する ようにしてもよい。また、図示しないが統合画像の上方のみに付帯画像を配置するよ うにしてもよい。更に、付帯画像を各モノキユラ画像の 1縁辺の 1部に配置するように してちよい。
[0056] (第 2の実施の形態)
上述したように、左右のモノキユラ画像に対してそれぞれ設けられる 2つの融合支援 パターンは、融合画像中の奥行き方向に応じた形状等に形成される。例えば、融合 支援パターンそのものを立体視させるように構成することも可能である。
[0057] 図 6は融合支援パターンとして立体的な「STREO」の文字列を採用する場合の「T 」の文字の画像パターンを示す説明図である。図 6に示すように、 Τの文字の表面(図 6の無地部分)のパターンは、左右のモノキユラ画像に対する相対位置関係が相互に 異なる。これに対し、 Tの文字の図示しない裏面のパターンは、左右のモノキユラ画 像に対する相対位置が同一である。即ち、 τの文字の裏面のパターンは融合画像中 では奥行き方向の基準位置である画枠平面に定位し、 Tの文字の表面は手前側に 飛び出し、 Tの文字の側面が図 6の斜線部に示す画像に応じた表示となる立体文字 が認識されることになる。なお、他の文字についても同様である。
[0058] また、表面が平面形状の例を示したが、表面に凹凸を有するパターンを設定するこ ともでき、また、側面の色や輝度がグラデーションを有するようにパターンを設定する ことも可能である。
[0059] なお、上記各実施の形態においては、ステレオ方式として、左右両眼に対応する 2 眼式として説明したが、 3眼以上の一般の多眼式ステレオ方式に対しても同様に適 用可能であることはもちろんである。
[0060] また、上記各実施の形態においては、左右にモノキユラ画像が配置された 1枚の画 像をカメラによって取得し、この画像に対して付帯画像の設定等を行う例にっ 、て説 明したが、例えば 2台のカメラで別々に撮影して得られた各モノキユラ画像が別々に 入力され、これらの各モノキユラ画像及び付帯画像等に基づいて、 1枚の統合画像を 生成するもの〖こ適用することができることは明らかである。
[0061] 更に、本発明を動画に適用することができることも明らかである。

Claims

請求の範囲
[1] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像について、上記 複数のモノキユラ画像の縁辺の一部又は全部に配置する付帯画像を設定する付帯 画像設定手段と、
上記複数のモノキユラ画像の各モノキユラ画像に夫々所定の相対位置関係を有し て上記付帯画像上に配置される各画像パターンを設定する画像パターン設定手段 と、
上記複数のモノキユラ画像が与えられ、上記複数のモノキユラ画像と上記画像バタ ーンが配置された上記付帯画像とに基づく 1枚の統合画像を生成する統合画像生 成手段とを具備したことを特徴とする画像処理装置。
[2] 上記画像パターン設定手段は、上記付帯画像上に配置する各画像パターンとして 、上記各モノキユラ画像に対する相対位置関係が相互に同一のパターンを用いるこ とを特徴とする請求項 1に記載の画像処理装置。
[3] 上記画像パターン設定手段は、上記各モノキユラ画像に夫々所定の相対位置関係 を有して上記付帯画像上に配置される各画像パターンとして、形状が相互に同一の ノターンを用いることを特徴とする請求項 1に記載の画像処理装置。
[4] 上記画像パターン設定手段は、上記統合画像の各モノキユラ画像を融合させて 1 枚の画像として認識する場合にぉ ヽて、上記各画像パターンに基づく画像が立体的 に表されるように、上記各画像パターンの形状及び上記各モノキユラ画像に対する相 対位置関係を決定することを特徴とする請求項 1に記載の画像処理装置。
[5] 上記複数のモノキユラ画像は、撮像手段によって 1枚の画像に配列された状態で上 記統合画像生成手段に入力されることを特徴とする請求項 1に記載の画像処理装置
[6] 上記画像パターン設定手段によって設定される画像パターンは、文字パターンで あることを特徴とする請求項 1に記載の画像処理装置。
[7] 上記画像パターン設定手段によって設定される画像パターンは、上記統合画像が 立体視画像であることを示すパターンであることを特徴とする請求項 1に記載の画像 処理装置。 上記統合画像と所定の付随データとに基づいて所定フォーマットの画像ファイルを 生成する画像ファイル生成手段を更に具備したことを特徴とする請求項 1に記載の画 像処理装置。
PCT/JP2005/007865 2004-04-26 2005-04-26 画像処理装置 WO2005112475A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05737297A EP1744564A4 (en) 2004-04-26 2005-04-26 IMAGE PROCESSOR
US11/586,044 US20070035618A1 (en) 2004-04-26 2006-10-24 Image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004130126A JP2005311983A (ja) 2004-04-26 2004-04-26 画像処理装置
JP2004-130126 2004-04-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/586,044 Continuation US20070035618A1 (en) 2004-04-26 2006-10-24 Image processing apparatus

Publications (2)

Publication Number Publication Date
WO2005112475A1 true WO2005112475A1 (ja) 2005-11-24
WO2005112475A9 WO2005112475A9 (ja) 2006-01-05

Family

ID=35394533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/007865 WO2005112475A1 (ja) 2004-04-26 2005-04-26 画像処理装置

Country Status (5)

Country Link
US (1) US20070035618A1 (ja)
EP (1) EP1744564A4 (ja)
JP (1) JP2005311983A (ja)
CN (1) CN1947430A (ja)
WO (1) WO2005112475A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4993578B2 (ja) * 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US8487982B2 (en) * 2007-06-07 2013-07-16 Reald Inc. Stereoplexing for film and video applications
US9524700B2 (en) * 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
CN102498720B (zh) * 2009-06-24 2015-09-02 杜比实验室特许公司 在3d或多视图视频数据中嵌入字幕和/或图形叠层的方法
KR101801017B1 (ko) * 2010-02-09 2017-11-24 코닌클리케 필립스 엔.브이. 3d 비디오 포맷 검출
JP5873813B2 (ja) * 2010-02-19 2016-03-01 トムソン ライセンシングThomson Licensing ステレオロゴ挿入
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
WO2012145191A1 (en) 2011-04-15 2012-10-26 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
JP6017735B2 (ja) 2014-10-14 2016-11-02 オリンパス株式会社 撮像システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160143A (ja) * 1995-12-12 1997-06-20 Nikon Corp ステレオカメラ
JPH09327042A (ja) * 1996-06-04 1997-12-16 Sony Corp 3次元立体映像信号変換装置の撮影用のビデオカメラ装置及び該装置に用いられる光学アダプター装置
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2002077943A (ja) * 2000-08-29 2002-03-15 Olympus Optical Co Ltd 画像取り扱い装置
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
US6765568B2 (en) * 2000-06-12 2004-07-20 Vrex, Inc. Electronic stereoscopic media delivery system
EP1501317A4 (en) * 2002-04-25 2006-06-21 Sharp Kk Image data generation device, image data reproduction device and image data recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160143A (ja) * 1995-12-12 1997-06-20 Nikon Corp ステレオカメラ
JPH09327042A (ja) * 1996-06-04 1997-12-16 Sony Corp 3次元立体映像信号変換装置の撮影用のビデオカメラ装置及び該装置に用いられる光学アダプター装置
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2002077943A (ja) * 2000-08-29 2002-03-15 Olympus Optical Co Ltd 画像取り扱い装置
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1744564A4 *

Also Published As

Publication number Publication date
CN1947430A (zh) 2007-04-11
JP2005311983A (ja) 2005-11-04
EP1744564A4 (en) 2010-08-04
WO2005112475A9 (ja) 2006-01-05
EP1744564A1 (en) 2007-01-17
US20070035618A1 (en) 2007-02-15

Similar Documents

Publication Publication Date Title
JP3841630B2 (ja) 画像取り扱い装置
WO2005112475A1 (ja) 画像処理装置
US8599245B2 (en) Image processing apparatus, camera, and image processing method
KR100947394B1 (ko) 3d 화상 파일, 촬상 장치, 화상 재생 장치, 및 화상 가공장치
JP5827988B2 (ja) 立体画像撮像装置
WO2005115016A1 (ja) 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
US20110090313A1 (en) Multi-eye camera and method for distinguishing three-dimensional object
CN102959467A (zh) 单眼立体成像装置
US20130113793A1 (en) Image processing device, image processing method, and image processing program
JP5530322B2 (ja) 表示装置および表示方法
JP2010068182A (ja) 3次元撮影装置および方法並びにプログラム
US8648953B2 (en) Image display apparatus and method, as well as program
CN102986232B (zh) 图像处理装置及方法
CN102959967B (zh) 图像输出装置及方法
JP2011035643A (ja) 多眼撮影方法および装置、並びにプログラム
CN103782234B (zh) 立体图像捕捉设备和方法
US20120307016A1 (en) 3d camera
JP2002218506A (ja) 撮像装置
JP4536231B2 (ja) 撮像装置
JP3939127B2 (ja) 撮像装置
JP4589651B2 (ja) 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP4398197B2 (ja) カメラ
CN104054333A (zh) 图像处理装置、方法以及程序及其记录介质
JP2006238086A (ja) 立体写真用デジタルカメラ及び立体写真撮影方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

COP Corrected version of pamphlet

Free format text: PAGES 2/4-3/4, DRAWINGS, REPLACED BY NEW PAGES 2/4-3/4

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005737297

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11586044

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580013145.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005737297

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11586044

Country of ref document: US