WO2012165123A1 - 撮影装置、撮影選択方法および記録媒体 - Google Patents

撮影装置、撮影選択方法および記録媒体 Download PDF

Info

Publication number
WO2012165123A1
WO2012165123A1 PCT/JP2012/062191 JP2012062191W WO2012165123A1 WO 2012165123 A1 WO2012165123 A1 WO 2012165123A1 JP 2012062191 W JP2012062191 W JP 2012062191W WO 2012165123 A1 WO2012165123 A1 WO 2012165123A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
image data
camera
photographing means
imaging
Prior art date
Application number
PCT/JP2012/062191
Other languages
English (en)
French (fr)
Inventor
望 藤原
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12792167.4A priority Critical patent/EP2717096A4/en
Priority to US14/119,037 priority patent/US20140098200A1/en
Priority to JP2013517945A priority patent/JP5999089B2/ja
Publication of WO2012165123A1 publication Critical patent/WO2012165123A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing

Definitions

  • the present invention relates to a photographing apparatus, a photographing selection method, and a recording medium, and particularly to a photographing apparatus, a photographing selection method, and a recording medium for generating stereoscopic image data.
  • Patent Document 1 describes a compound eye camera in which a left-eye camera and a right-eye camera can be arranged at positions shifted by a parallax in the horizontal direction even when the camera body is tilted by 90 degrees.
  • the compound eye camera described in Patent Document 1 has a revolution mechanism that rotates the left-eye camera and the right-eye camera about 90 degrees around a common axis. For this reason, when shooting is performed with the camera body tilted 90 degrees, the left eye is captured by rotating the left-eye camera and the right-eye camera approximately 90 degrees using the revolution mechanism.
  • the camera for the right eye and the camera for the right eye can be arranged at positions shifted by the amount of parallax in the horizontal direction.
  • the compound eye camera described in Patent Document 1 has a movable part called a revolving mechanism that rotates a left-eye camera and a right-eye camera.
  • the movable part may not operate normally due to wear of the contact portion, and is likely to cause a failure.
  • the left-eye camera and the right-eye camera are rotated as a method of making the left-eye camera and the right-eye camera have a positional relationship shifted in the horizontal direction by the amount of parallax.
  • a technique that does not require a movable part is desired.
  • An object of the present invention is to provide a photographing apparatus, a photographing selection method, and a recording medium that can solve the above-described problems.
  • the photographing apparatus of the present invention 3 or more photographing means, Detection means for detecting the tilt of the device; Control means for selecting, based on the detection result of the detection means, two imaging means that are displaced in the horizontal direction in a situation where the detection means detects an inclination from among the three or more imaging means. .
  • the shooting selection method of the present invention includes: A shooting selection method in a shooting apparatus including three or more shooting means, Detecting the tilt of the imaging device; Based on the inclination of the photographing apparatus, two photographing means that are displaced in the horizontal direction in the situation where the detecting means detects the inclination are selected from the three or more photographing means.
  • the recording medium of the present invention is To a computer connected to three or more photographing means, A detection procedure for detecting the tilt of the imaging device; And a control procedure for selecting, from among the three or more photographing means, two photographing means that are shifted in the horizontal direction in a situation where the detecting means detects the inclination based on the inclination of the photographing device. It is a computer-readable recording medium which memorize
  • the left-eye camera and the right-eye camera are horizontally arranged even when the photographing apparatus is tilted by 90 degrees without requiring a movable part that rotates the left-eye camera and the right-eye camera. It becomes possible to make the positional relationship shifted by the amount of parallax.
  • FIG. 1 is a block diagram illustrating a photographing apparatus 1 according to an embodiment of the present invention.
  • 1 is a front view of a photographing apparatus 1.
  • FIG. It is the figure which showed an example of decision information.
  • 3 is a flowchart for explaining the operation of the photographing apparatus 1;
  • 1 is a block diagram illustrating an imaging device including a camera 11, a camera 12, a camera 13, a tilt sensor 14, and a control unit 15.
  • FIG. It is a front view of the imaging device 1 to which the additional camera 61 was added. It is the figure which showed an example of the decision information.
  • FIG. 1 is a block diagram showing a photographing apparatus 1 according to an embodiment of the present invention.
  • FIG. 2 is a front view of the photographing apparatus 1.
  • the photographing apparatus 1 is, for example, a mobile phone or a smartphone. Note that the photographing apparatus 1 is not limited to a mobile phone or a smartphone.
  • a portable game machine for example, a tablet PC (Personal Computer), a notebook PC, a PHS (Personal Handyphone System), a PDA (Personal Data Assistance, Personal Digital Assistants).
  • a portable information communication device for individuals a tablet, or a 3D imaging device.
  • the photographing apparatus 1 includes cameras 11, 12 and 13, a tilt sensor 14, and a control unit 15.
  • the camera 11 can be generally referred to as first photographing means.
  • the camera 11 is provided on the front surface 1 a of the photographing apparatus 1 and generates photographed image data 111 when the subject 2 is photographed.
  • the camera 12 can generally be referred to as second photographing means.
  • the camera 12 is provided on the front surface 1 a of the photographing apparatus 1 and generates photographed image data 121 when the subject 2 is photographed.
  • the camera 12 is provided at a location shifted from the camera 11 in the horizontal direction.
  • the camera 12 is provided at a position that is shifted from the camera 11 by the distance r1 in the horizontal direction and not from the camera 11 in the vertical direction in the reference state.
  • the reference state a state in which the horizontal direction A of the photographing apparatus 1 is the horizontal direction and the vertical direction B of the photographing apparatus 1 is the vertical direction is used.
  • the distance r1 is a value larger than 0.
  • the camera 13 can generally be referred to as third photographing means.
  • the camera 13 is provided on the front surface 1a of the photographing apparatus 1 and generates photographed image data 131 when the subject 2 is photographed.
  • the camera 13 is provided at a position shifted from the camera 11 in the vertical direction.
  • the camera 13 is provided at a position that is shifted from the camera 11 by a distance r2 in the vertical direction and not shifted from the camera 11 in the horizontal direction in the reference state.
  • the distance r2 is a value larger than 0.
  • the distance r2 may be longer, shorter or equal to the distance r1.
  • the tilt sensor 14 can be generally referred to as detection means.
  • the tilt sensor 14 detects the tilt of the photographing apparatus 1.
  • the inclination sensor 14 includes, for example, a gravity sensor, and the inclination of the photographing apparatus 1 with respect to the direction of gravity, for example, gravity is directed toward the bottom surface 1b (see FIG. 2), the right surface 1c, or the top surface. Whether it is directed to the 1d side or the left side 1e is detected.
  • the photographing apparatus 1 when the photographing apparatus 1 is in the reference state, the inclination of the photographing apparatus 1 is 0 degree, and when the photographing apparatus 1 is viewed from the front 1a, the photographing apparatus 1 is normal to the front 1a from the reference state.
  • the rotation angle when rotating counterclockwise about the axis is used as the inclination of the photographing apparatus 1.
  • the inclination sensor 14 determines that the gravity is directed toward the bottom surface 1b when the inclination of the photographing apparatus 1 is 0 degree or more and less than 45 degrees or 315 degrees or more and less than 360 degrees. Further, the inclination sensor 14 determines that the gravity is directed to the right side surface 1c when the inclination of the photographing apparatus 1 is not less than 45 degrees and less than 135 degrees. Further, the tilt sensor 14 determines that the gravity is directed toward the upper surface 1d when the tilt of the photographing apparatus 1 is not less than 135 degrees and less than 225 degrees. The tilt sensor 14 determines that the gravity is directed toward the left side surface 1e when the tilt of the photographing apparatus 1 is 225 degrees or more and less than 315 degrees.
  • Control unit 15 can be generally referred to as control means.
  • the control unit 15 Based on the detection result of the tilt sensor 14, the control unit 15 converts two cameras that are displaced in the horizontal direction in the situation where the tilt of the photographing apparatus 1 is detected from among the cameras 11 to 13 into stereoscopic image data. Are selected as the two shooting execution cameras used to generate the.
  • the imaging execution camera can be generally referred to as imaging execution means.
  • control unit 15 shifts the cameras 11 and 12 or the cameras 11 and 13 that are displaced in the horizontal direction in a state where the tilt of the photographing apparatus 1 is detected based on the detection result of the tilt sensor 14. Select as two shooting execution cameras.
  • the control unit 15 selects the cameras 11 and 12 as two photographing execution cameras. Further, when the detection result of the inclination sensor 14 indicates that the inclination of the photographing apparatus 1 is 90 degrees, the control unit 15 selects the cameras 11 and 13 as two photographing execution cameras.
  • the control unit 15 generates stereoscopic image data based on captured image data (hereinafter referred to as “selected image data”) generated by each of the two imaging execution cameras.
  • the control unit 15 selects, based on the detection result of the inclination sensor 14, the selected image data that is the right-eye image data out of the two selected image data and the selected image that is the left-eye image data out of the two selected image data. Data.
  • the control unit 15 includes a storage unit 15a and a processing unit 15b.
  • the storage unit 15a stores selection image data, stereoscopic image data, and determination information indicating the relationship between the tilt of the photographing apparatus 1, the photographing execution camera, the right-eye image data, and the left-eye image data.
  • FIG. 3 is a diagram showing an example of decision information.
  • the determination information 31 indicates that the camera 11 and 12 are the shooting execution cameras, the shot image data 111 is the right-eye image data, and the shot image is taken in the situation of the tilt of the shooting apparatus 1 in which the direction of gravity is the bottom surface 1b side. It indicates that the data 121 is left-eye image data. In this case, the captured image data 111 and 121 are selected image data, the camera 11 is a right-eye camera, and the camera 12 is a left-eye camera.
  • the determination information 31 includes the cameras 11 and 13 as shooting execution cameras, the shooting image data 111 as right-eye image data, and shooting image data when the direction of gravity is the right side surface 1c side and the tilt of the shooting apparatus 1 is.
  • 131 indicates that the image data is for the left eye.
  • the captured image data 111 and 131 are selected image data
  • the camera 11 is a right-eye camera
  • the camera 13 is a left-eye camera.
  • the cameras 11 and 12 are the photographing execution cameras
  • the photographed image data 121 is the right-eye image data
  • the photographed image data 111 Indicates left-eye image data.
  • the captured image data 111 and 121 are selected image data
  • the camera 12 is a right-eye camera
  • the camera 11 is a left-eye camera.
  • the cameras 11 and 13 become photographing execution cameras, the photographed image data 131 becomes right-eye image data, and the photographed image data.
  • Reference numeral 111 denotes left-eye image data.
  • the captured image data 111 and 131 are selected image data
  • the camera 13 is a right eye camera
  • the camera 11 is a left eye camera.
  • the processing unit 15b controls the photographing apparatus 1. For example, the processing unit 15b uses the detection result of the tilt sensor 14 and the determination information 31 in the storage unit 15a to determine the imaging execution camera, the right-eye image data, and the left-eye image data.
  • FIG. 4 is a flowchart for explaining the operation of the photographing apparatus 1.
  • the processing unit 15b When the processing unit 15b receives a user start instruction via an operation switch (not shown), the processing unit 15b operates the tilt sensor 14 to detect the tilt of the photographing apparatus 1 (step S401).
  • the processing unit 15b receives the detection result of the tilt sensor 14, refers to the determination information 31 in the storage unit 15a, and according to the detection result of the tilt sensor 14, the two shooting execution cameras and the right-eye image data. And left-eye image data are determined (step S402).
  • the processing unit 15b when the detection result of the inclination sensor 14 indicates the state of inclination of the photographing apparatus 1 in which the direction of gravity is the bottom surface 1b side (for example, the inclination of the photographing apparatus 1 is 0 degree), the processing unit 15b Then, the cameras 11 and 12 are selected as the shooting execution cameras, and the shot image data 111 is determined as the right-eye image data, and the shot image data 121 is determined as the left-eye image data.
  • the processing unit 15b operates the two photographing execution cameras determined in step S402 (step S403) to photograph the subject 2.
  • the processing unit 15b generates stereoscopic image data based on the right-eye image data and the left-eye image data from the two photographing execution cameras (step S404).
  • the processing unit 15b combines the right-eye image data and the left-eye image data in a 3D image file format, for example, a CIPA (Camera & Imaging Products Association) multi-picture format format to generate stereoscopic image data. Generate.
  • a CIPA Cosmetica & Imaging Products Association
  • the processing unit 15b When the processing unit 15b captures a 3D still image, the processing unit 15b ends the still image capturing with the end of step S404.
  • the processing unit 15b returns the process to step S401 when the step S404 is ended when shooting the 3D moving image. For this reason, when the orientation (tilt) of the photographing apparatus 1 changes during the photographing of the 3D moving image, the photographing execution camera is switched so that the photographing of the 3D moving image is continued.
  • the processing unit 15b receives a user's end instruction via an operation switch (not shown), the processing unit 15b ends the shooting of the 3D moving image.
  • the tilt sensor 14 detects the tilt of the photographing apparatus 1. Based on the detection result of the tilt sensor 14, the control unit 15 selects two cameras that are displaced in the horizontal direction from the cameras 11 to 13 when the tilt sensor 14 detects the tilt.
  • FIG. 5 is a block diagram illustrating a photographing apparatus including the camera 11, the camera 12, the camera 13, the tilt sensor 14, and the control unit 15.
  • the camera 12 is provided at a position shifted from the camera 11 in the horizontal direction
  • the camera 13 is provided at a position shifted from the camera 11 in the vertical direction.
  • the control unit 15 selects the cameras 11 and 12 or the cameras 11 and 13 that are shifted in the horizontal direction in a situation where the tilt of the photographing apparatus 1 is detected.
  • control unit 15 further generates stereoscopic image data based on the captured image data generated by each of the two selected cameras (imaging execution cameras).
  • the processing unit 15b when the quality of the captured image data generated by each of the two selected cameras (imaging execution cameras) is different, the processing unit 15b reduces the difference in the quality of the captured image data. Also good.
  • the quality of the shot image data generated by each of the two shooting execution cameras (for example, the brightness of the image, the number of pixels, or the width of the shooting range) May be different.
  • the processing unit 15b corrects the captured image data so that the brightness of the images specified by the captured image data generated by each of the two shooting execution cameras matches or the difference in brightness is reduced. To do.
  • the processing unit 15b corrects the captured image data so that the number of pixels of the captured image data generated by each of the two imaging execution cameras is equal or the difference in the number of pixels is small.
  • the processing unit 15b takes a captured image so that the widths of the shooting ranges specified by the shot image data generated by each of the two shooting execution cameras match or the difference in the widths of the shooting ranges becomes small. Correct the data.
  • the quality of the stereoscopic image data can be improved.
  • the inclination sensor 14 detects the inclination of the photographing apparatus 1 using a gravity sensor.
  • the inclination sensor 14 includes an acceleration sensor or a gyro sensor instead of the gravity sensor, and the acceleration sensor or the gyro sensor. May be used to detect the tilt of the photographing apparatus 1.
  • the three cameras 11 to 13 are used as the photographing means, but the number of photographing means may be three or more.
  • a camera (hereinafter referred to as “additional camera”) that is provided on the front surface 1a of the photographing apparatus 1 and generates the photographed image data 611 when the subject 2 is photographed may be added as the fourth photographing unit. .
  • FIG. 6 is a front view of the photographing apparatus 1 to which the additional camera 61 is added.
  • the additional camera 61 is provided at a location shifted from the camera 11 in each of the horizontal direction and the vertical direction.
  • the additional camera 61 is provided at a position shifted from the camera 11 by the distance r1 and the distance r2 in the horizontal direction and the vertical direction in the reference state.
  • the storage unit 15 a stores the determination information 71 instead of the determination information 31. Further, the processing unit 15b determines the photographing execution camera, the right-eye image data, and the left-eye image data using the detection result of the tilt sensor 14 and the determination information 71 in the storage unit 15a.
  • FIG. 7 is a diagram showing an example of the decision information 71.
  • the determination information 71 indicates that, in the situation where the photographing apparatus 1 is tilted so that the direction of gravity is on the bottom surface 1 b side, the cameras 11 and 12 serve as photographing execution cameras, and the photographed image data 111 serves as right-eye image data. It indicates that the data 121 is left-eye image data. In this case, the captured image data 111 and 121 are selected image data, the camera 11 is a right-eye camera, and the camera 12 is a left-eye camera.
  • the determination information 71 includes the cameras 12 and 61 as shooting execution cameras, the shooting image data 121 as right-eye image data, and shooting image data when the direction of gravity is the right side 1c side and the tilt of the shooting apparatus 1 is.
  • Reference numeral 611 denotes left-eye image data.
  • the captured image data 121 and 611 are selected image data
  • the camera 12 is a right-eye camera
  • the camera 61 is a left-eye camera.
  • the cameras 61 and 13 are photographing execution cameras, the photographed image data 611 is right-eye image data, and the photographed image data 131 is. Indicates left-eye image data.
  • the captured image data 611 and 131 are selected image data, the camera 61 is a right-eye camera, and the camera 13 is a left-eye camera.
  • the determination information 71 indicates that the camera 13 and 11 are the shooting execution cameras, the shot image data 131 is the right-eye image data, and the shot image data in the situation of the tilt of the shooting apparatus 1 in which the direction of gravity is the left side 1e side.
  • Reference numeral 111 denotes left-eye image data.
  • the captured image data 131 and 111 are selected image data
  • the camera 13 is a right eye camera
  • the camera 11 is a left eye camera.
  • the processing unit 15b When the processing unit 15b receives the detection result of the tilt sensor 14, the processing unit 15b refers to the determination information 71 in the storage unit 15a, and according to the detection result of the tilt sensor 14, the two shooting execution cameras, the right-eye image data, and the left eye Image data.
  • the processing unit 15b determines that the cameras 12 and 61 are selected as the photographing execution cameras, the photographed image data 121 is the right-eye image data, and the photographed image data 611 is the left-eye image data.
  • the processing unit 15b operates the two shooting execution cameras to generate stereoscopic image data based on the right-eye image data and the left-eye image data from the two shooting execution cameras.
  • the processing unit 15b uses the cameras 11 and 12, or the cameras 12 and 13, or the camera that are displaced in the horizontal direction in a situation where the inclination sensor 14 detects the inclination based on the detection result of the inclination sensor 14. 14 and 61 or cameras 61 and 11 are selected. For this reason, in a situation where four cameras are used, it is possible to select two cameras having a shift in the amount of parallax in the horizontal direction even if the photographing apparatus 1 is tilted. Moreover, it becomes possible to use two cameras existing on the upper side at the time of shooting among the four cameras as shooting execution cameras.
  • the photographing apparatus 1 may be realized by a computer connected to three or more cameras.
  • the computer reads and executes a program recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory) readable by the computer, and functions as the tilt sensor 14 and the control unit 15.
  • a recording medium such as a CD-ROM (Compact Disk Read Only Memory) readable by the computer, and functions as the tilt sensor 14 and the control unit 15.
  • the recording medium is not limited to the CD-ROM and can be changed as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Cameras In General (AREA)

Abstract

 撮影装置は、3つ以上の撮影手段と、自装置の傾きを検出する検出手段と、検出手段の検出結果に基づいて、3つ以上の撮影手段の中から、傾きが検出された状況で水平方向にずれている2つの撮影手段を選択する制御手段と、を含む。

Description

撮影装置、撮影選択方法および記録媒体
 本発明は、撮影装置、撮影選択方法および記録媒体に関し、特には、立体視用画像データを生成するための撮影装置、撮影選択方法および記録媒体に関する。
 近年、3D(3 Dimensional)映像が急速に広まりつつある。
 3D映像を作成するには、人間の目線と同様に水平方向に視差分ずれた位置から左眼用カメラと右眼用カメラとを用いて、右目用映像と左目用映像を生成する必要がある。
 左眼用カメラが右眼用カメラと水平方向に視差分ずれた位置に配置された撮影装置では、撮影装置が例えば90度傾けられた場合、2つのカメラは鉛直方向にずれてしまい、水平方向での視差分のずれが無くなり、立体視用画像データを生成できなくなる。
 特許文献1には、カメラ本体が90度傾けられても、左眼用カメラと右眼用カメラとを水平方向に視差分ずれた位置に配置可能な複眼カメラが記載されている。
 特許文献1に記載の複眼カメラは、左眼用カメラと右眼用カメラとを共通の軸を中心として略90度回転させる公転機構を有する。このため、カメラ本体を90度傾けて撮影が行われる場合には、公転機構を用いて左眼用カメラと右眼用カメラとを略90度回転させた状態で撮影を行うことで、左眼用カメラと右眼用カメラとを水平方向に視差分ずれた位置に配置することが可能になる。
特開2009-177565号公報
 特許文献1に記載の複眼カメラは、左眼用カメラと右眼用カメラとを回転する公転機構という可動部を有する。可動部は、例えば、接触箇所の摩耗が原因で正常に動作しなくなるおそれがあり、故障の原因となる可能性が高い。
 このため、カメラ本体が90度傾けられても、左眼用カメラと右眼用カメラとを水平方向に視差分ずれた位置関係にする手法として、左眼用カメラと右眼用カメラとを回転する可動部を必要としない手法が望まれるという課題があった。
 本発明の目的は、上記課題を解決可能な撮影装置、撮影選択方法および記録媒体を提供することである。
 本発明の撮影装置は、
 3つ以上の撮影手段と、
 自装置の傾きを検出する検出手段と、
 前記検出手段の検出結果に基づいて、前記3つ以上の撮影手段の中から、前記検出手段が傾きを検出した状況で水平方向にずれている2つの撮影手段を選択する制御手段と、を含む。
 本発明の撮影選択方法は、
 3つ以上の撮影手段を含む撮影装置での撮影選択方法であって、
 前記撮影装置の傾きを検出し、
 前記撮影装置の傾きに基づいて、前記3つ以上の撮影手段の中から、前記検出手段が傾きを検出した状況で水平方向にずれている2つの撮影手段を選択する。
 本発明の記録媒体は、
 3つ以上の撮影手段に接続されたコンピュータに、
 前記撮影装置の傾きを検出する検出手順と、
 前記撮影装置の傾きに基づいて、前記3つ以上の撮影手段の中から、前記検出手段が傾きを検出した状況で水平方向にずれている2つの撮影手段を選択する制御手順と、を実行させるためのプロクラムを記憶したコンピュータ読み取り可能な記録媒体である。
 本発明によれば、左眼用カメラと右眼用カメラとを回転する可動部を必要とせずに、撮影装置が90度傾けられても左眼用カメラと右眼用カメラとを水平方向に視差分ずれた位置関係にすることが可能になる。
本発明の一実施形態の撮影装置1を示したブロック図である。 撮影装置1の正面図である。 決定情報の一例を示した図である。 撮影装置1の動作を説明するためのフローチャートである。 カメラ11とカメラ12とカメラ13と傾きセンサ14と制御部15からなる撮影装置を示したブロック図である。 追加カメラ61が追加された撮影装置1の正面図である。 決定情報71の一例を示した図である。
 以下、本発明の一実施形態を図面を参照して説明する。
 図1は、本発明の一実施形態の撮影装置1を示したブロック図である。図2は、撮影装置1の正面図である。
 撮影装置1は、例えば、携帯電話機またはスマートフォンである。なお、撮影装置1は、携帯電話機またはスマートフォンに限らず、例えば、携帯型ゲーム機、タブレット型PC(Personal Computer)、ノート型PC、PHS(Personal Handyphone System)、PDA(Personal Data Assistance,Personal Digital Assistants:個人向け携帯型情報通信機器)、タブレット、または、3D用撮影装置でもよい。
 撮影装置1は、カメラ11、12および13と、傾きセンサ14と、制御部15と、を含む。
 カメラ11は、一般的に第1撮影手段と呼ぶことができる。カメラ11は、撮影装置1の正面1aに設けられており、被写体2を撮影した場合に撮影画像データ111を生成する。
 カメラ12は、一般的に第2撮影手段と呼ぶことができる。カメラ12は、撮影装置1の正面1aに設けられており、被写体2を撮影した場合に撮影画像データ121を生成する。
 カメラ12は、水平方向においてカメラ11とずれた場所に設けられている。本実施形態では、カメラ12は、基準状態で、水平方向においてカメラ11と距離r1ずれており垂直方向ではカメラ11とずれていない場所に設けられている。なお、本実施形態では、基準状態として、撮影装置1の横方向Aが水平方向となっており撮影装置1の縦方向Bが鉛直方向となっている状態が用いられる。また、距離r1は0よりも大きい値である。
 カメラ13は、一般的に第3撮影手段と呼ぶことができる。カメラ13は、撮影装置1の正面1aに設けられており、被写体2を撮影した場合に撮影画像データ131を生成する。
 カメラ13は、垂直方向においてカメラ11とずれた場所に設けられている。本実施形態では、カメラ13は、基準状態で、垂直方向においてカメラ11と距離r2ずれており水平方向ではカメラ11とずれていない場所に設けられている。なお、距離r2は0よりも大きい値である。また、距離r2は距離r1よりも長くてもよいし短くてもよいし等しくてもよい。
 傾きセンサ14は、一般的に検出手段と呼ぶことができる。
 傾きセンサ14は、撮影装置1の傾きを検出する。傾きセンサ14は、例えば重力センサを有し、重力の向きに対する撮影装置1の傾き、例えば、重力が、底面1b(図2参照)側に向いているか、右側面1c側に向いているか、上面1d側に向いているか、左側面1e側に向いているか、を検出する。
 本実施形態では、撮影装置1が基準状態にあるときの撮影装置1の傾きを0度とし、撮影装置1を正面1aから見たときに、撮影装置1が、基準状態から正面1aの法線を軸にして反時計回りに回転していくときの回転角度を、撮影装置1の傾きとして用いる。
 本実施形態では、傾きセンサ14は、撮影装置1の傾きが0度以上45度未満または315度以上360度未満のとき、重力が底面1b側に向いていると判断する。また、傾きセンサ14は、撮影装置1の傾きが45度以上135度未満のとき、重力が右側面1c側に向いていると判断する。また、傾きセンサ14は、撮影装置1の傾きが135度以上225度未満のとき、重力が上面1d側に向いていると判断する。また、傾きセンサ14は、撮影装置1の傾きが225度以上315度未満のとき、重力が左側面1e側に向いていると判断する。
 制御部15は、一般的に制御手段と呼ぶことができる。
 制御部15は、傾きセンサ14の検出結果に基づいて、カメラ11~13の中から、撮影装置1の傾きが検出された状況で水平方向にずれている2つのカメラを、立体視用画像データを生成するために用いる2つの撮影実行カメラとして選択する。なお、撮影実行カメラは、一般的に撮影実行手段と呼ぶことができる。
 本実施形態では、制御部15は、傾きセンサ14の検出結果に基づいて、撮影装置1の傾きが検出された状況で水平方向にずれている、カメラ11および12、または、カメラ11および13を、2つの撮影実行カメラとして選択する。
 例えば、制御部15は、傾きセンサ14の検出結果が、撮影装置1の傾きが0度である旨を示す場合には、カメラ11および12を2つの撮影実行カメラとして選択する。また、制御部15は、傾きセンサ14の検出結果が、撮影装置1の傾きが90度である旨を示す場合には、カメラ11および13を2つの撮影実行カメラとして選択する。
 制御部15は、2つの撮影実行カメラのそれぞれが生成した撮影画像データ(以下「選択画像データ」と称する)を基に立体視用画像データを生成する。
 なお、制御部15は、傾きセンサ14の検出結果に基づいて、2つの選択画像データのうち右目用画像データとする選択画像データと、2つの選択画像データのうち左目用画像データとする選択画像データと、を決定する。
 制御部15は、格納部15aと処理部15bとを含む。
 格納部15aは、選択画像データと、立体視用画像データと、撮影装置1の傾きと撮影実行カメラと右目用画像データと左目画像データとの関係を示した決定情報と、を格納する。
 図3は、決定情報の一例を示した図である。
 図3において、決定情報31は、重力の向きが底面1b側となる撮影装置1の傾きの状況では、カメラ11および12が撮影実行カメラとなり、撮影画像データ111が右目用画像データとなり、撮影画像データ121が左目用画像データとなることを示す。この場合、撮影画像データ111および121が選択画像データとなり、カメラ11が右眼用カメラとなり、カメラ12が左目用カメラとなる。
 また、決定情報31は、重力の向きが右側面1c側となる撮影装置1の傾きの状況では、カメラ11および13が撮影実行カメラとなり、撮影画像データ111が右目用画像データとなり、撮影画像データ131が左目用画像データとなることを示す。この場合、撮影画像データ111および131が選択画像データとなり、カメラ11が右眼用カメラとなり、カメラ13が左目用カメラとなる。
 また、決定情報31は、重力の向きが上面1d側となる撮影装置1の傾きの状況では、カメラ11および12が撮影実行カメラとなり、撮影画像データ121が右目用画像データとなり、撮影画像データ111が左目用画像データとなることを示す。この場合、撮影画像データ111および121が選択画像データとなり、カメラ12が右眼用カメラとなり、カメラ11が左目用カメラとなる。
 また、決定情報31は、重力の向きが左側面1e側となる撮影装置1の傾きの状況では、カメラ11および13が撮影実行カメラとなり、撮影画像データ131が右目用画像データとなり、撮影画像データ111が左目用画像データとなることを示す。この場合、撮影画像データ111および131が選択画像データとなり、カメラ13が右眼用カメラとなり、カメラ11が左目用カメラとなる。
 処理部15bは、撮影装置1を制御する。例えば、処理部15bは、傾きセンサ14の検出結果と格納部15a内の決定情報31とを用いて、撮影実行カメラと右目用画像データと左目用画像データとを決定する。
 次に、動作を説明する。
 図4は、撮影装置1の動作を説明するためのフローチャートである。
 処理部15bは、操作スイッチ(不図示)を介してユーザの開始指示を受け取ると、傾きセンサ14を動作させて、撮影装置1の傾きを検出する(ステップS401)。
 続いて、処理部15bは、傾きセンサ14の検出結果を受け取り、格納部15a内の決定情報31を参照し、傾きセンサ14の検出結果に応じて、2つの撮影実行カメラと、右目用画像データと左目用画像データと、を決定する(ステップS402)。
 例えば、傾きセンサ14の検出結果が、重力の向きが底面1b側となる撮影装置1の傾きの状況(一例としては、撮影装置1の傾きが0度)を示す場合には、処理部15bは、カメラ11および12を撮影実行カメラとして選択し、撮影画像データ111を右目用画像データとし、撮影画像データ121を左目用画像データとする決定を行う。
 続いて、処理部15bは、ステップS402で決定した2つの撮影実行カメラを動作させて(ステップS403)、被写体2を撮影させる。
 続いて、処理部15bは、2つの撮影実行カメラからの右目用画像データと左目用画像データとを基に立体視用画像データを生成する(ステップS404)。
 例えば、処理部15bは、右目用画像データと左目用画像データとを3D画像用のファイル形式、一例としてはCIPA(Camera & Imaging Products Association)マルチピクチャフォーマット形式で合成して立体視用画像データを生成する。
 処理部15bは、3Dの静止画を撮影する際には、ステップS404の終了に伴い静止画の撮影を終了する。
 なお、処理部15bは、3D動画を撮影する際には、ステップS404を終了すると処理をステップS401に戻す。このため、3D動画の撮影中に撮影装置1の向き(傾き)が変わると、引き続き3D動画の撮影が継続されるように撮影実行カメラが切り替わる。処理部15bは、操作スイッチ(不図示)を介してユーザの終了指示を受け取ると、3D動画の撮影を終了する。
 次に、本実施形態の効果を説明する。
 本実施形態によれば、傾きセンサ14は、撮影装置1の傾きを検出する。制御部15は、傾きセンサ14の検出結果に基づいて、カメラ11~13の中から、傾きセンサ14が傾きを検出した状況で水平方向にずれている2つのカメラを選択する。
 このため、撮影装置1が傾いていても、水平方向での視差分のずれを有する2つのカメラを選択することが可能になる。よって、撮影装置1の向きに関わらず、良好な3D撮影が可能になる。
 このため、例えば撮影装置1が携帯電話機である場合、縦画面表示を行っている場合でも横画面表示を行っている場合でも、どちらでも3D撮影が可能となる。なお、この効果は、カメラ11とカメラ12とカメラ13と傾きセンサ14と制御部15からなる撮影装置でも奏する。図5は、カメラ11とカメラ12とカメラ13と傾きセンサ14と制御部15からなる撮影装置を示したブロック図である。
 また、本実施形態では、カメラ12は水平方向においてカメラ11とずれた場所に設けられ、カメラ13は垂直方向においてカメラ11とずれた位置に設けられている。制御部15は、傾きセンサ14の検出結果に基づいて、撮影装置1の傾きが検出された状況で水平方向にずれている、カメラ11および12、または、カメラ11および13を選択する。
 この場合、3つのカメラを用いた状況において、撮影装置1が傾いていても、水平方向での視差分のずれを有する2つのカメラを選択することが可能になる。
 また、本実施形態では、制御部15は、さらに、選択された2つのカメラ(撮影実行カメラ)のそれぞれが生成した撮影画像データを基に立体視用画像データを生成する。
 この場合、撮影装置1の向きに関わらず、立体視用画像データを生成することが可能になる。
 なお、上記実施形態において、処理部15bは、選択された2つのカメラ(撮影実行カメラ)のそれぞれが生成した撮影画像データの品質が異なる場合に、それら撮影画像データの品質の差を小さくしてもよい。
 例えば、2つの撮影実行カメラの仕様(スペック)が異なる場合、2つの撮影実行カメラのそれぞれが生成した撮影画像データの品質(例えば、画像の明るさ、画素数、または、撮影範囲の広さ)が異なる可能性がある。
 このため、処理部15bは、例えば、2つの撮影実行カメラのそれぞれが生成した撮影画像データにて特定される画像の明るさが一致または明るさの差が小さくなるように、撮影画像データを補正する。
 また、処理部15bは、例えば、2つの撮影実行カメラのそれぞれが生成した撮影画像データの画素数が一致または画素数の差が小さくなるように、撮影画像データを補正する。
 また、処理部15bは、例えば、2つの撮影実行カメラのそれぞれが生成した撮影画像データにて特定される撮影範囲の広さが一致または撮影範囲の広さの差が小さくなるように、撮影画像データを補正する。
 この場合、立体視用画像データの品質を向上することが可能になる。
 なお、上記実施形態において、傾きセンサ14は重力センサを用いて撮影装置1の傾きを検出したが、傾きセンサ14は、重力センサの代わりに加速度センサまたはジャイロセンサを有し、加速度センサまたはジャイロセンサを用いて、撮影装置1の傾きを検出してもよい。
 また、上記実施形態では、撮影手段として3つのカメラ11~13を用いたが、撮影手段の数は3以上であってもよい。
 例えば、撮影装置1の正面1aに設けられており、被写体2を撮影した場合に撮影画像データ611を生成するカメラ(以下「追加カメラ」と称する)が、第4撮影手段として追加されてもよい。
 図6は、追加カメラ61が追加された撮影装置1の正面図である。
 図6において、追加カメラ61は、水平方向および垂直方向のそれぞれにおいてカメラ11とずれた場所に設けられている。本実施形態では、追加カメラ61は、基準状態で、水平方向および鉛直方向のそれぞれについてカメラ11と距離r1および距離r2ずれた場所に設けられている。
 なお、追加カメラ61が存在する状況では、格納部15aは、決定情報31の代わりに決定情報71を格納する。また、処理部15bは、傾きセンサ14の検出結果と格納部15a内の決定情報71とを用いて、撮影実行カメラと右目用画像データと左目用画像データとを決定する。
 図7は、決定情報71の一例を示した図である。
 図7において、決定情報71は、重力の向きが底面1b側となる撮影装置1の傾きの状況では、カメラ11および12が撮影実行カメラとなり、撮影画像データ111が右目用画像データとなり、撮影画像データ121が左目用画像データとなることを示す。この場合、撮影画像データ111および121が選択画像データとなり、カメラ11が右眼用カメラとなり、カメラ12が左目用カメラとなる。
 また、決定情報71は、重力の向きが右側面1c側となる撮影装置1の傾きの状況では、カメラ12および61が撮影実行カメラとなり、撮影画像データ121が右目用画像データとなり、撮影画像データ611が左目用画像データとなることを示す。この場合、撮影画像データ121および611が選択画像データとなり、カメラ12が右眼用カメラとなり、カメラ61が左目用カメラとなる。
 また、決定情報71は、重力の向きが上面1d側となる撮影装置1の傾きの状況では、カメラ61および13が撮影実行カメラとなり、撮影画像データ611が右目用画像データとなり、撮影画像データ131が左目用画像データとなることを示す。この場合、撮影画像データ611および131が選択画像データとなり、カメラ61が右眼用カメラとなり、カメラ13が左目用カメラとなる。
 また、決定情報71は、重力の向きが左側面1e側となる撮影装置1の傾きの状況では、カメラ13および11が撮影実行カメラとなり、撮影画像データ131が右目用画像データとなり、撮影画像データ111が左目用画像データとなることを示す。この場合、撮影画像データ131および111が選択画像データとなり、カメラ13が右眼用カメラとなり、カメラ11が左目用カメラとなる。
 処理部15bは、傾きセンサ14の検出結果を受け取ると、格納部15a内の決定情報71を参照し、傾きセンサ14の検出結果に応じて、2つの撮影実行カメラと、右目用画像データと左目用画像データと、を決定する。
 例えば、傾きセンサ14の検出結果が、重力の向きが右側面1c側となる撮影装置1の傾きの状況(一例としては、撮影装置1の傾きが90度)を示す場合には、処理部15bは、カメラ12および61を撮影実行カメラとして選択し、撮影画像データ121を右目用画像データとし、撮影画像データ611を左目用画像データとする決定を行う。
 その後、処理部15bは、2つの撮影実行カメラを動作させ、2つの撮影実行カメラからの右目用画像データと左目用画像データとを基に立体視用画像データを生成する。
 この場合、処理部15bは、傾きセンサ14の検出結果に基づいて、傾きセンサ14が傾きを検出した状況で水平方向にずれている、カメラ11および12、または、カメラ12および13、または、カメラ14および61、または、カメラ61および11を選択する。このため、4つのカメラを用いた状況において、撮影装置1が傾いていても、水平方向での視差分のずれを有する2つのカメラを選択することが可能になる。また、4つのカメラのうち撮影時に上側に存在する2つのカメラを、撮影実行カメラとして使用することが可能になる。
 また、撮影装置1は、3つ以上のカメラに接続されたコンピュータにて実現されてもよい。この場合、コンピュータは、コンピュータにて読み取り可能なCD-ROM(Compact Disk Read Only Memory)のような記録媒体に記録されたプログラムを読込み実行して、傾きセンサ14および制御部15として機能する。記録媒体は、CD-ROMに限らず適宜変更可能である。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年5月27日に出願された日本出願特願2011-119200を基礎とする優先権を主張し、その開示の全てをここに取り込む。
   1   撮影装置
   11~13、61 カメラ
   14  傾きセンサ
   15  制御部
   15a 格納部
   15b 処理部

Claims (7)

  1.  3つ以上の撮影手段と、
     自装置の傾きを検出する検出手段と、
     前記検出手段の検出結果に基づいて、前記3つ以上の撮影手段の中から、前記検出手段が傾きを検出した状況で水平方向にずれている2つの撮影手段を選択する制御手段と、を含む撮影装置。
  2.  前記3つ以上の撮影手段は、第1撮影手段と、水平方向において前記第1撮影手段とずれた場所に設けられた第2撮影手段と、垂直方向において前記第1撮影手段とずれた位置に設けられた第3撮影手段と、の3つの撮影手段であり、
     前記制御手段は、前記検出手段の検出結果に基づいて、前記検出手段が傾きを検出した状況で水平方向にずれている、前記第1撮影手段と前記第2撮影手段、または、前記第1撮影手段と前記第3撮影手段を選択する、請求項1に記載の撮影装置。
  3.  前記3つ以上の撮影手段は、第1撮影手段と、水平方向において前記第1撮影手段とずれた場所に設けられた第2撮影手段と、垂直方向において前記第1撮影手段とずれた位置に設けられた第3撮影手段と、水平方向および垂直方向のそれぞれにおいて前記第1撮影手段とずれた場所に設けられた第4撮影手段と、の4つの撮影手段であり、
     前記制御手段は、前記検出手段の検出結果に基づいて、前記検出手段が傾きを検出した状況で水平方向にずれている、前記第1撮影手段と前記第2撮影手段、または、前記第2撮影手段と前記第3撮影手段、または、前記第3撮影手段と前記第4撮影手段、または、前記第4撮影手段と前記第1撮影手段を選択する、請求項1に記載の撮影装置。
  4.  前記制御手段は、さらに、選択された2つの撮影手段のそれぞれが生成した撮影画像データを基に立体視用画像データを生成する、請求項1から3のいずれか1項に記載の撮影装置。
  5.  前記制御手段は、さらに、選択された2つの撮影手段のそれぞれが生成した撮影画像データの品質が異なる場合に、該撮影画像データの品質の差を小さくする、請求項1から4のいずれか1項に記載の撮影装置。
  6.  3つ以上の撮影手段を含む撮影装置での撮影選択方法であって、
     前記撮影装置の傾きを検出し、
     前記撮影装置の傾きに基づいて、前記3つ以上の撮影手段の中から、前記傾きが検出された状況で水平方向にずれている2つの撮影手段を選択する、撮影選択方法。
  7.  3つ以上の撮影手段に接続されたコンピュータに、
     前記撮影装置の傾きを検出する検出手順と、
     前記撮影装置の傾きに基づいて、前記3つ以上の撮影手段の中から、前記傾きが検出された状況で水平方向にずれている2つの撮影手段を選択する制御手順と、を実行させるためのプログラムを記憶したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/062191 2011-05-27 2012-05-11 撮影装置、撮影選択方法および記録媒体 WO2012165123A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12792167.4A EP2717096A4 (en) 2011-05-27 2012-05-11 IMAGING DEVICE, PICTURE SELECTION PROCEDURE AND RECORDING MEDIUM
US14/119,037 US20140098200A1 (en) 2011-05-27 2012-05-11 Imaging device, imaging selection method and recording medium
JP2013517945A JP5999089B2 (ja) 2011-05-27 2012-05-11 撮影装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-119200 2011-05-27
JP2011119200 2011-05-27

Publications (1)

Publication Number Publication Date
WO2012165123A1 true WO2012165123A1 (ja) 2012-12-06

Family

ID=47258987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/062191 WO2012165123A1 (ja) 2011-05-27 2012-05-11 撮影装置、撮影選択方法および記録媒体

Country Status (4)

Country Link
US (1) US20140098200A1 (ja)
EP (1) EP2717096A4 (ja)
JP (1) JP5999089B2 (ja)
WO (1) WO2012165123A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013148587A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for managing orientation in devices with multiple imaging sensors
EP2919067A1 (en) * 2014-03-12 2015-09-16 Ram Srikanth Mirlay Multi-planar camera apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113141497A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d拍摄装置、3d拍摄方法及3d显示终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016591A (ja) * 1999-07-02 2001-01-19 Fuji Photo Film Co Ltd 圧縮符号化装置および方法
JP2004264492A (ja) * 2003-02-28 2004-09-24 Sony Corp 撮影方法及び撮像装置
JP2006033476A (ja) * 2004-07-16 2006-02-02 Sharp Corp 撮影装置、表示装置及び撮影表示装置
JP2009177565A (ja) 2008-01-25 2009-08-06 Fujifilm Corp 複眼カメラ及び撮影方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142166A (ja) * 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
JP2005210217A (ja) * 2004-01-20 2005-08-04 Olympus Corp ステレオカメラ
JP4448844B2 (ja) * 2006-11-22 2010-04-14 富士フイルム株式会社 複眼撮像装置
US20100194860A1 (en) * 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle
JP5621303B2 (ja) * 2009-04-17 2014-11-12 ソニー株式会社 撮像装置
JP2010258583A (ja) * 2009-04-22 2010-11-11 Panasonic Corp 立体画像表示装置、立体画像再生装置および立体画像視認システム
TW201040581A (en) * 2009-05-06 2010-11-16 J Touch Corp Digital image capturing device with stereo image display and touch functions
KR20110020082A (ko) * 2009-08-21 2011-03-02 엘지전자 주식회사 이동 단말기의 제어 장치 및 그 방법
US8922625B2 (en) * 2009-11-19 2014-12-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
KR20120010764A (ko) * 2010-07-27 2012-02-06 엘지전자 주식회사 이동 단말기 및 3차원 영상 제어 방법
JP2012199759A (ja) * 2011-03-22 2012-10-18 Konica Minolta Holdings Inc 情報処理装置、そのプログラム、および情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016591A (ja) * 1999-07-02 2001-01-19 Fuji Photo Film Co Ltd 圧縮符号化装置および方法
JP2004264492A (ja) * 2003-02-28 2004-09-24 Sony Corp 撮影方法及び撮像装置
JP2006033476A (ja) * 2004-07-16 2006-02-02 Sharp Corp 撮影装置、表示装置及び撮影表示装置
JP2009177565A (ja) 2008-01-25 2009-08-06 Fujifilm Corp 複眼カメラ及び撮影方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2717096A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013148587A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for managing orientation in devices with multiple imaging sensors
EP2919067A1 (en) * 2014-03-12 2015-09-16 Ram Srikanth Mirlay Multi-planar camera apparatus
CN106575072A (zh) * 2014-03-12 2017-04-19 拉姆·斯里坎斯·米莱 多平面摄像机设备

Also Published As

Publication number Publication date
EP2717096A1 (en) 2014-04-09
EP2717096A4 (en) 2015-11-25
US20140098200A1 (en) 2014-04-10
JPWO2012165123A1 (ja) 2015-02-23
JP5999089B2 (ja) 2016-09-28

Similar Documents

Publication Publication Date Title
US20240107172A1 (en) Image processing device and associated methodology for generating panoramic images
JP6518069B2 (ja) 表示装置、撮像システム、表示装置の制御方法、プログラム、及び記録媒体
JP5522018B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
US20120033046A1 (en) Image processing apparatus, image processing method, and program
JP5640155B2 (ja) 立体画像撮像装置及びその合焦状態確認用画像表示方法
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP5955417B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5547356B2 (ja) 撮影装置、方法、記憶媒体及びプログラム
JP5999089B2 (ja) 撮影装置
JP2013113877A (ja) 立体撮影装置およびそれを用いた携帯端末装置
JP2007006162A (ja) 画像処理装置
JP2011091750A (ja) 立体画像撮像装置及びその制御方法
JP2013253995A (ja) ステレオ撮影装置
JP6319081B2 (ja) 端末装置、撮影システム、及び撮影方法
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
JP2014155126A (ja) 表示装置、表示方法およびプログラム
US20150035952A1 (en) Photographing apparatus, display apparatus, photographing method, and computer readable recording medium
JP2011259341A (ja) 撮像装置
US20230384236A1 (en) Information processing apparatus, imaging apparatus, information processing method, and non-transitory computer readable medium
KR20150016871A (ko) 촬상 장치, 표시 장치, 촬상 방법 및 촬상 프로그램
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2007295391A (ja) 撮影機能付き携帯情報端末
JP5875268B2 (ja) 撮像装置
JP2013115467A (ja) 立体撮影装置およびそれを用いた携帯端末装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792167

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012792167

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14119037

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013517945

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE