JP5231119B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP5231119B2
JP5231119B2 JP2008198133A JP2008198133A JP5231119B2 JP 5231119 B2 JP5231119 B2 JP 5231119B2 JP 2008198133 A JP2008198133 A JP 2008198133A JP 2008198133 A JP2008198133 A JP 2008198133A JP 5231119 B2 JP5231119 B2 JP 5231119B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
camera
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008198133A
Other languages
Japanese (ja)
Other versions
JP2010041076A (en
JP2010041076A5 (en
Inventor
三義 洲脇
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2008198133A priority Critical patent/JP5231119B2/en
Priority to CN201110344425.0A priority patent/CN102438103B/en
Priority to CN200910161802XA priority patent/CN101640811B/en
Publication of JP2010041076A publication Critical patent/JP2010041076A/en
Publication of JP2010041076A5 publication Critical patent/JP2010041076A5/ja
Application granted granted Critical
Publication of JP5231119B2 publication Critical patent/JP5231119B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)

Description

本発明は、被写体を複数の角度から観察できるような表示を可能とした表示装置に関する。 The present invention relates to a display device that enables display so that a subject can be observed from a plurality of angles.

特許文献1において、被写体を複数の角度から撮影するための機構が開示されている。この特許文献1の機構では、円柱状の筐体にカメラを固定することができるようになっている。このような構成において、被写体を囲む円周に沿って筐体を移動させながら筐体に固定されたカメラによって逐次撮影を行うことにより、被写体の3次元的な情報を得ることができる。これによって、例えば表示部に表示された被写体を回転させたりして、被写体を複数の角度から鑑賞することが可能である。
特開2002−374454号公報
Patent Document 1 discloses a mechanism for photographing a subject from a plurality of angles. In the mechanism disclosed in Patent Document 1, the camera can be fixed to a cylindrical housing. In such a configuration, three-dimensional information of the subject can be obtained by sequentially capturing images with a camera fixed to the casing while moving the casing along the circumference surrounding the subject. Thus, the subject can be viewed from a plurality of angles, for example, by rotating the subject displayed on the display unit.
JP 2002-374454 A

ここで、特許文献1においては、被写体を等距離、多方向から撮影するための筐体が必要である。このため、撮影状況に即応して撮影ができるとは限らない。これに対し、ユーザ自身が手動でカメラを操作して被写体を複数の角度から撮影を行うのであれば、撮影状況に即応しての撮影を行うことができる。しかしながら、この場合にはカメラが手振れしたりする等して正しい角度から被写体を撮影できずに正確な3次元情報を得られないおそれがある。   Here, in patent document 1, the housing | casing for image | photographing a to-be-photographed object from multiple directions from equal distance is required. For this reason, it is not always possible to shoot in response to the shooting situation. On the other hand, if the user manually operates the camera to shoot the subject from a plurality of angles, the user can shoot immediately in accordance with the shooting situation. However, in this case, there is a possibility that accurate three-dimensional information cannot be obtained because the subject cannot be photographed from the correct angle due to camera shake or the like.

本発明は、上記の事情に鑑みてなされたもので、特別な装置を必要とせずに、被写体の正確な3次元情報を得られる表示装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a display device that can obtain accurate three-dimensional information of a subject without requiring a special device.

上記の目的を達成するために、本発明の第1の態様の表示装置は、撮影時における表示装置の動きを検出する動き検出部と、被写体と撮影位置との位置関係を検出する位置関係検出部と、前記動き検出部で検出された表示装置の動きに基づき、前記被写体を囲む複数の相異なる撮影位置で得られた複数の画像のうち、許容の条件を満たす画像のそれぞれが等価な位置関係となるように補正する画像補正部と、前記位置関係に従った警告を発する警告部と、前記補正された画像を表示する表示部とを具備し、前記位置検出部の検出結果に従い、前記被写体に係る画像の拡大縮小を行い、前記動き検出部の検出結果に従い、前期被写体に係る画像の削除を行うことを特徴とする。 In order to achieve the above object, a display device according to a first aspect of the present invention includes a motion detection unit that detects a movement of the display device during shooting, and a positional relationship detection that detects a positional relationship between a subject and a shooting position. And a plurality of images obtained at a plurality of different shooting positions surrounding the subject based on the movement of the display device detected by the motion detection unit and each of the images satisfying the allowable condition An image correction unit that corrects the relationship to be a relationship, a warning unit that issues a warning according to the positional relationship, and a display unit that displays the corrected image, and according to the detection result of the position detection unit, The image related to the subject is enlarged / reduced, and the image related to the previous subject is deleted according to the detection result of the motion detection unit .

本発明によれば、別な装置を必要とせずに、被写体の正確な3次元情報を得られる表示装置を提供することができる。 According to the present invention, without the need for special equipment, it is possible to provide a display device obtained an accurate three-dimensional information of the object.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るカメラの構成を示す図である。図1に示すカメラ100は、制御部101と、操作部102と、撮影部103と、画像処理部104と、表示部105と、記録部106と、動き検出部107と、通信部108とを有している。また、カメラ100は、通信部108によってパーソナルコンピュータ(PC)200と通信自在に接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a camera according to an embodiment of the present invention. A camera 100 illustrated in FIG. 1 includes a control unit 101, an operation unit 102, an imaging unit 103, an image processing unit 104, a display unit 105, a recording unit 106, a motion detection unit 107, and a communication unit 108. Have. The camera 100 is connected to a personal computer (PC) 200 through a communication unit 108 so as to be able to communicate.

制御部101は、カメラ100の各部の動作を制御する。この制御部101は、ユーザの操作部102の操作を受けてその操作内容に応じた各種のシーケンスの制御を行う。また、制御部101は、詳細は後述する3次元(3D)表示を行うために必要な画像を得るための撮影(以下、3D撮影と称する)の際に、画像補正部としての画像処理部に画像補正の指示をすることも行う。   The control unit 101 controls the operation of each unit of the camera 100. The control unit 101 receives various operations from the user operation unit 102 and controls various sequences according to the operation content. In addition, the control unit 101 uses an image processing unit serving as an image correction unit during shooting (hereinafter referred to as 3D shooting) for obtaining an image necessary for performing three-dimensional (3D) display, which will be described in detail later. The image correction is also instructed.

操作部102は、ユーザがカメラ100を操作するための各種の操作部材である。この操作部102は、例えばユーザが3D撮影の実行をカメラ100に指示するための操作部材、ユーザが3D表示の際の各種操作を行うための操作部材等を含む。   The operation unit 102 is various operation members for the user to operate the camera 100. The operation unit 102 includes, for example, an operation member for the user to instruct the camera 100 to execute 3D shooting, an operation member for the user to perform various operations for 3D display, and the like.

撮影部103は、撮影レンズ、撮像素子、アナログ/デジタル(A/D)変換部等を有して構成されている。このような構成の撮影部103は、撮影レンズを介して入射した撮影光を被写体像として撮像素子に結像させ、この結像させた被写体像を光電変換によって電気信号(画像信号)に変換する。さらに、撮影部103は、A/D変換部により、撮像素子で得られた撮像信号をデジタル化して画像を得る。   The photographing unit 103 includes a photographing lens, an image sensor, an analog / digital (A / D) conversion unit, and the like. The imaging unit 103 having such a configuration forms imaging light incident through the imaging lens as an object image on an image sensor, and converts the formed object image into an electrical signal (image signal) by photoelectric conversion. . Further, the imaging unit 103 obtains an image by digitizing the imaging signal obtained by the imaging element by the A / D conversion unit.

画像処理部104は、撮影部103で得られた画像に対して種々の画像処理を施す。この画像処理は、ホワイトバランス補正処理や階調補正処理等が含まれる。また、画像処理部104は画像補正部としての機能も有しており、撮影部103で得られた画像とカメラ100の動きとから、適切な3D表示が行えるように撮影部103で得られた画像を補正する。さらに、画像処理部104は、後述する3D撮影の際に画像中の被写体の動きを検出するための被写体検出も行う。画像中の被写体は、例えば画像中の高コントラスト部分を検出することによって検出できる。   The image processing unit 104 performs various image processing on the image obtained by the photographing unit 103. This image processing includes white balance correction processing, gradation correction processing, and the like. Further, the image processing unit 104 also has a function as an image correction unit, and is obtained by the photographing unit 103 so that appropriate 3D display can be performed from the image obtained by the photographing unit 103 and the movement of the camera 100. Correct the image. Furthermore, the image processing unit 104 also performs subject detection for detecting the movement of the subject in the image at the time of 3D shooting described later. The subject in the image can be detected, for example, by detecting a high contrast portion in the image.

表示部105は、制御部101の制御に従って画像処理部104で処理された画像及び記録部106に記録される画像を表示する。この表示部105は、例えば液晶ディスプレイから構成されている。記録部106は、画像処理部104で処理された画像を記録する。この記録部106は、例えばカメラ100に対して着脱自在に構成されたメモリである。   The display unit 105 displays the image processed by the image processing unit 104 and the image recorded in the recording unit 106 under the control of the control unit 101. The display unit 105 is composed of a liquid crystal display, for example. The recording unit 106 records the image processed by the image processing unit 104. The recording unit 106 is a memory configured to be detachable from the camera 100, for example.

画像処理部104とともに位置検出部としての機能を有する動き検出部107は、3D撮影時における撮影部103と被写体との位置関係を検出するために、カメラ100の動きを検出する。ここで、動き検出部107の構成は特に限定されるものではなく、種々のものを適用できる。ここではその一例について説明する。本実施形態においては、カメラ100の動きとして、図2の矢印Aで示すカメラ100の並進方向の移動と、図2の矢印Bで示すカメラ100の回転とを検出する。なお、図2では1方向の並進移動とその方向周りの回転についてのみ示しているが、実際には矢印Aに沿った軸と矢印Aに直交する軸とを含む3軸、及びそれぞれの軸周りの回転も検出する。   The motion detection unit 107 that functions as a position detection unit together with the image processing unit 104 detects the movement of the camera 100 in order to detect the positional relationship between the imaging unit 103 and the subject during 3D imaging. Here, the configuration of the motion detection unit 107 is not particularly limited, and various types can be applied. Here, an example will be described. In the present embodiment, the movement of the camera 100 is detected as a translational movement of the camera 100 indicated by an arrow A in FIG. 2 and a rotation of the camera 100 indicated by an arrow B in FIG. Note that FIG. 2 shows only translation in one direction and rotation around that direction, but actually three axes including an axis along arrow A and an axis orthogonal to arrow A, and around each axis. Rotation is also detected.

図3(a)は、カメラ100の並進方向の移動を検出するための構成の一例を示す図である。図3(a)に示す並進移動検出部は、カメラ100に固定された2枚の電極12と、電極12に対して架橋されカメラ100の並進移動に伴って移動可能な電極11とを有して構成されている。   FIG. 3A is a diagram illustrating an example of a configuration for detecting the movement of the camera 100 in the translation direction. 3A includes two electrodes 12 fixed to the camera 100, and an electrode 11 that is bridged with respect to the electrode 12 and is movable along with the translational movement of the camera 100. Configured.

図3(a)において、カメラ100が矢印A方向に移動すると、この移動に伴って電極11に加速度が発生して電極11も矢印A方向に移動する。図3(b)に示すような電極11の加速度の変化は、電極11と電極12の間の静電容量の変化として検出できる。図3(b)に示すようにして得られた加速度を積分すれば、図3(c)に示すような電極11の移動速度が得られる。さらに、図3(c)に示すようにして得られた移動速度を積分すれば、図3(d)に示すような電極11の移動量、即ちカメラ100の並進方向の移動量が得られる。これによって後述する3D撮影の際の各画像の撮影位置を検出することが可能である。   In FIG. 3A, when the camera 100 moves in the direction of arrow A, acceleration is generated in the electrode 11 along with this movement, and the electrode 11 also moves in the direction of arrow A. A change in acceleration of the electrode 11 as shown in FIG. 3B can be detected as a change in capacitance between the electrode 11 and the electrode 12. If the acceleration obtained as shown in FIG. 3B is integrated, the moving speed of the electrode 11 as shown in FIG. 3C can be obtained. Further, by integrating the movement speed obtained as shown in FIG. 3C, the movement amount of the electrode 11 as shown in FIG. 3D, that is, the movement amount of the camera 100 in the translation direction can be obtained. This makes it possible to detect the shooting position of each image at the time of 3D shooting described later.

図4(a)は、カメラ100の回転を検出するための構成の一例を示す図である。図4(a)に示す回転検出部は、電圧印加によって振動する一対の圧電素子13を有して構成されている。   FIG. 4A is a diagram illustrating an example of a configuration for detecting the rotation of the camera 100. The rotation detection unit shown in FIG. 4A includes a pair of piezoelectric elements 13 that vibrate when a voltage is applied.

カメラ100に図示矢印で示す角速度が発生したときに、コリオリの力(時計回転の場合には進行方向に対して90度右向きの力、反時計回転の場合には進行方向に対して90度左向きの力となる)によって、振動している圧電素子対13が変形する。この変形によって生じる電圧変化を検出することによって、角速度を検出することができる。また、角速度を積分すれば、図4(b)に示すようにして回転量(回転角度)が得られる。これによって後述する3D撮影の際のカメラ100の傾きを検出することが可能である。   When the angular velocity indicated by the arrow shown in the figure is generated in the camera 100, a Coriolis force (a force that is 90 degrees to the right in the direction of travel in the case of clockwise rotation and 90 degrees to the left of the direction of movement in the case of counterclockwise rotation) Therefore, the vibrating piezoelectric element pair 13 is deformed. By detecting a voltage change caused by this deformation, the angular velocity can be detected. If the angular velocity is integrated, a rotation amount (rotation angle) can be obtained as shown in FIG. Accordingly, it is possible to detect the tilt of the camera 100 at the time of 3D shooting described later.

図1に戻って、通信部108は、カメラ100とPC200との通信を仲介するインターフェース回路である。なお、カメラ100とPC200との通信方式は特に限定されるものではなく、USBケーブル等を用いた有線通信でも、無線LAN等を用いた無線通信でも良い。   Returning to FIG. 1, the communication unit 108 is an interface circuit that mediates communication between the camera 100 and the PC 200. Note that the communication method between the camera 100 and the PC 200 is not particularly limited, and may be wired communication using a USB cable or the like, or wireless communication using a wireless LAN or the like.

PC200は、カメラ100で撮影された画像等を表示したり編集したりするためのソフトウェアがインストールされている。カメラ100によって3D撮影がなされた場合、この3D撮影の結果として得られる画像群をPC200に送信することでPC200上でも3D表示を行うことが可能である。   The PC 200 is installed with software for displaying and editing images taken by the camera 100. When 3D shooting is performed by the camera 100, it is possible to perform 3D display on the PC 200 by transmitting an image group obtained as a result of the 3D shooting to the PC 200.

以下、3D撮影について説明する。本実施形態における3D撮影では、ユーザが手動でカメラ100を移動させて被写体を囲む複数の相違なる位置(角度)で撮影を行う。図5は、3D撮影の概要を示す図である。図5に示すように、ユーザは、被写体300の周囲に沿ってカメラ100を移動させる。このとき、カメラ100の制御部101は、等しい時間間隔で撮影部103を制御して連続撮影を実行する。これにより、被写体300を複数の撮影位置(撮影角度)から撮影することが可能である。この複数の撮影角度で撮影された画像をユーザの操作に従って適宜表示部105に表示させることで、表示部105において被写体300を回転させたりして、複数の角度から観察することが可能である。なお、図5に示す3D撮影では表示部105に表示された被写体300を画面内の左右方向に回転させて観察することが可能である。   Hereinafter, 3D imaging will be described. In 3D shooting in the present embodiment, the user manually moves the camera 100 and performs shooting at a plurality of different positions (angles) surrounding the subject. FIG. 5 is a diagram showing an outline of 3D imaging. As shown in FIG. 5, the user moves the camera 100 along the periphery of the subject 300. At this time, the control unit 101 of the camera 100 performs continuous shooting by controlling the shooting unit 103 at equal time intervals. Thereby, the subject 300 can be photographed from a plurality of photographing positions (photographing angles). By appropriately displaying images captured at a plurality of shooting angles on the display unit 105 according to a user operation, the subject 300 can be rotated on the display unit 105 and observed from a plurality of angles. In the 3D shooting shown in FIG. 5, it is possible to observe the subject 300 displayed on the display unit 105 by rotating it in the horizontal direction in the screen.

ここで、適切な3D表示を行うためには、3D画像に用いる画像が等価な位置関係を有している必要がある。この等価な位置関係とは、(1)それぞれの画像の撮影位置が等間隔であること、(2)それぞれの画像の撮影位置から被写体300までの距離が等距離であること、(3)それぞれの撮影位置でユーザが意図する方向(即ち被写体300の方向)にカメラ100が正しく向いていること、である。   Here, in order to perform appropriate 3D display, it is necessary that the images used for the 3D image have an equivalent positional relationship. This equivalent positional relationship is that (1) the shooting positions of the respective images are equally spaced, (2) the distance from the shooting position of each image to the subject 300 is equal, (3) each The camera 100 is correctly oriented in the direction intended by the user (that is, the direction of the subject 300) at the shooting position.

まず、(1)については、ユーザがカメラ100を等速で移動させることができればそれぞれの画像の撮影位置が等間隔となる。しかしながら、例えば2°毎等の所定の間隔で撮影を行うとしても、ユーザの手の移動速度を一定に保つことは困難であり、この結果、撮影間隔が1°になったり、3°になったりする可能性が高い。このようなカメラ100の移動速度の変化については上述のように並進移動検出部によって検出できる。この移動速度と連写の時間間隔の積が撮影間隔であることから、実際に3D表示に使用する画像の枚数よりも多くの画像を取得しておき、この大量の画像の中から、撮影間隔が等間隔となるような画像群のみを3D表示に使用する画像として採用するようにする。   First, regarding (1), if the user can move the camera 100 at a constant speed, the shooting positions of the respective images are equally spaced. However, even if shooting is performed at predetermined intervals such as every 2 °, it is difficult to keep the moving speed of the user's hand constant. As a result, the shooting interval becomes 1 ° or 3 °. There is a high possibility that Such a change in the moving speed of the camera 100 can be detected by the translational movement detector as described above. Since the product of the moving speed and the continuous shooting time interval is the shooting interval, more images than the number of images actually used for 3D display are acquired, and the shooting interval is selected from the large number of images. Only an image group with equal intervals is adopted as an image used for 3D display.

次に、(2)については、ユーザが被写体300を囲む円周上で正しくカメラ100を移動させることができれば、各撮影位置において被写体を等距離で撮影することができる。しかしながら、手動での移動では、カメラ100を正しく円状に移動させることは困難である。このため、例えば図2の位置Aから位置Bまでカメラ100を移動させる際に、被写体300を中心とした円状軌跡400に対してずれ401が生じる可能性が高い。   Next, regarding (2), if the user can move the camera 100 correctly on the circumference surrounding the subject 300, the subject can be photographed at the same distance at each photographing position. However, with manual movement, it is difficult to move the camera 100 in a correct circular shape. Therefore, for example, when the camera 100 is moved from the position A to the position B in FIG. 2, there is a high possibility that a shift 401 occurs with respect to the circular locus 400 centered on the subject 300.

図6(a)は、カメラ100の移動時に起こり得る円状軌跡400からのずれの一例を示した図である。3D撮影の際に、カメラ100を円状軌跡400に追従して移動させることができれば距離差は0となる。しかしながら、カメラ100を円状軌跡400に完全に追従させて移動させるのは困難であるため、通常は、図6(a)に示すようにしてカメラ100と被写体300との距離が撮影位置によって変化してしまう。このような距離差が発生すると、撮影により得られる画像中の被写体の大きさが変化する。即ち、被写体300とカメラ100との距離が近ければ画像中の被写体が大きくなり、被写体300とカメラ100との距離が遠ければ画像中の被写体が小さくなる。なお、このような被写体300との距離変化は上述した動き検出部107ではなかなか検出できない。したがって、本実施形態では、撮影された画像中の被写体の大きさによって被写体300との距離変化を検出する。画像中の被写体の大きさ変化が検出された場合には、拡大又は縮小の処理によって被写体部分の画像を補正する。   FIG. 6A is a diagram illustrating an example of a deviation from the circular locus 400 that may occur when the camera 100 moves. If the camera 100 can be moved following the circular trajectory 400 during 3D shooting, the distance difference is zero. However, since it is difficult to move the camera 100 so as to completely follow the circular locus 400, the distance between the camera 100 and the subject 300 usually varies depending on the shooting position as shown in FIG. Resulting in. When such a distance difference occurs, the size of the subject in the image obtained by shooting changes. That is, when the distance between the subject 300 and the camera 100 is short, the subject in the image becomes large, and when the distance between the subject 300 and the camera 100 is long, the subject in the image becomes small. Note that such a change in distance from the subject 300 cannot be easily detected by the motion detection unit 107 described above. Therefore, in the present embodiment, a change in distance from the subject 300 is detected based on the size of the subject in the captured image. When a change in the size of the subject in the image is detected, the image of the subject portion is corrected by enlargement or reduction processing.

さらに、(3)については、カメラ100の角度変化は回転検出部によって検出できる。図6(b)は、カメラ100の移動時に起こり得るカメラ100の角度変化の一例を示した図である。カメラ100を移動させる際にカメラ100が煽られたりしてしまうと、カメラ100が被写体300を見る角度が変化してしまう。このような画像を3D表示に採用してしまうと、スムーズに被写体を回転させられないような画像が得られる。したがって、このような画像は3D表示には採用しないようにする。その代わりに、この画像の直近の撮影位置で得られた少なくとも2枚の画像を合成して補正画像を生成する。   Furthermore, regarding (3), the angle change of the camera 100 can be detected by the rotation detection unit. FIG. 6B is a diagram illustrating an example of a change in the angle of the camera 100 that may occur when the camera 100 is moved. If the camera 100 is beaten when the camera 100 is moved, the angle at which the camera 100 views the subject 300 changes. If such an image is employed for 3D display, an image that cannot smoothly rotate the subject is obtained. Therefore, such an image is not adopted for 3D display. Instead, a corrected image is generated by synthesizing at least two images obtained at the most recent photographing position of the image.

なお、ユーザの手振れの状態や移動速度の変化によっては、被写体が画像の中央ではなく、画像内の上下左右の何れかに偏って配置されることもあり得る。このような場合は、被写体部分の画像をシフトすることで被写体が画像の中央に来るように補正することが好ましい。   Note that depending on the state of hand shake of the user and a change in the moving speed, the subject may be arranged not on the center of the image but on either the top, bottom, left or right side of the image. In such a case, it is preferable to correct so that the subject comes to the center of the image by shifting the image of the subject portion.

図7は、3D撮影後の画像補正の具体例を示す図である。ここで、図7は、撮影位置が等間隔となるように選択された5枚の画像を補正する際の具体例について示した図である。   FIG. 7 is a diagram illustrating a specific example of image correction after 3D imaging. Here, FIG. 7 is a diagram showing a specific example when correcting five images selected so that the photographing positions are equally spaced.

まず、図7(a)に示す5枚の画像501〜505のうち、画像501、505については被写体部分の大きさが他の画像と同一(即ち距離変化がなし)であり、且つカメラ100の角度変化もない状態で得られている。これらの画像については補正を行わずに3D表示用の画像として採用する。   First, among the five images 501 to 505 shown in FIG. 7A, the images 501 and 505 have the same subject size as that of the other images (that is, no change in distance), and It is obtained without any change in angle. These images are employed as 3D display images without correction.

次に、図7(a)に示す5枚の画像501〜505のうち、画像503については被写体の部分の大きさが他の画像よりも小さい。これは、画像503の撮影時には、カメラ100が軌跡400上よりも遠い位置にあったことを意味している。このような画像503については被写体部分を拡大し、これによって得られる補正画像503aを3D表示用の画像として採用する。   Next, among the five images 501 to 505 shown in FIG. 7A, the size of the subject portion of the image 503 is smaller than the other images. This means that when the image 503 was captured, the camera 100 was at a position farther from the locus 400. For such an image 503, the subject portion is enlarged, and a corrected image 503a obtained thereby is adopted as an image for 3D display.

また、図7(a)に示す5枚の画像501〜505のうち、画像502、504については角度変化が検出された画像である。これらの場合には、画像502を不採用として画像501と画像503aから補正画像502aを生成するとともに、画像504を不採用として画像503aと画像505から補正画像504aを生成し、これら画像502a、504aを3D表示用の画像として採用する。   Also, among the five images 501 to 505 shown in FIG. 7A, the images 502 and 504 are images in which an angle change is detected. In these cases, the corrected image 502a is generated from the images 501 and 503a without using the image 502, and the corrected image 504a is generated from the images 503a and 505 without using the image 504, and these images 502a and 504a are generated. Is adopted as an image for 3D display.

以上のようにして補正を行うことにより、図7(b)に示すようにスムーズな3D表示を行うことが可能な画像を生成することができる。   By performing the correction as described above, it is possible to generate an image capable of performing smooth 3D display as shown in FIG. 7B.

以上のような3D撮影が可能なカメラの制御について以下に説明する。図8は、本発明の一実施形態に係るカメラのメインの動作について示すフローチャートである。ここで、本実施形態のカメラは、一般的な撮影もできるカメラを想定しているが、図8では一般的な撮影に係る制御については図示を省略している。   Control of the camera capable of 3D shooting as described above will be described below. FIG. 8 is a flowchart showing the main operation of the camera according to the embodiment of the present invention. Here, the camera of the present embodiment is assumed to be a camera that can also perform general photographing, but in FIG. 8, illustration of control related to general photographing is omitted.

カメラ100が起動されると、制御部101は、ユーザによる操作部102の操作によって3D撮影の実行が指示されたか否かを判定する(ステップ211)。ステップS211の判定において、3D表示の実行が指示された場合に、制御部101は、撮影部103を制御して被写体の撮影を実行する(ステップS212)。また、制御部101は、撮影に同期してカメラ100及び画像中の被写体の動き検出を行う(ステップS213)。カメラ100の動きは動き検出部107において検出することができる。また、画像中の被写体の動きは、画像処理部104において検出することができる。ステップS213における動き検出の結果は、撮影部103によって得られた画像と関連付けしておく。   When the camera 100 is activated, the control unit 101 determines whether execution of 3D imaging is instructed by an operation of the operation unit 102 by the user (step 211). If execution of 3D display is instructed in the determination in step S211, the control unit 101 controls the photographing unit 103 to perform photographing of the subject (step S212). In addition, the control unit 101 detects the movement of the camera 100 and the subject in the image in synchronization with shooting (step S213). The movement of the camera 100 can be detected by the movement detection unit 107. Further, the movement of the subject in the image can be detected by the image processing unit 104. The result of motion detection in step S213 is associated with the image obtained by the photographing unit 103.

動き検出の後、制御部101は、カメラ100の角度変化(カメラ100の回転)が検出されたか否か及び画像中の被写体が中央から許容範囲以上外れているか否かを判定する(ステップS214)。ステップS214の判定において、カメラ100の角度変化が検出された場合又は画像中の被写体が中央から許容範囲以上外れている場合に、制御部101はユーザに対して音や発光等によって警告を行う(ステップS215)。この警告により、ユーザは3D撮影時においてカメラ100の傾きや移動速度に注意を向けることが可能である。一方、ステップS214の判定において、カメラ100の傾きがなく、且つ画像中の被写体が中央から許容範囲以上外れていない場合に、制御部101はステップS215の処理をスキップする。   After the motion detection, the control unit 101 determines whether or not an angle change of the camera 100 (rotation of the camera 100) has been detected and whether or not the subject in the image is out of the allowable range from the center (step S214). . In the determination in step S214, when a change in the angle of the camera 100 is detected or when the subject in the image is outside the allowable range from the center, the control unit 101 gives a warning to the user by sound, light emission, or the like ( Step S215). This warning allows the user to pay attention to the tilt and movement speed of the camera 100 during 3D shooting. On the other hand, if it is determined in step S214 that the camera 100 is not tilted and the subject in the image is not more than the allowable range from the center, the control unit 101 skips the process in step S215.

次に、制御部101は、画像中の被写体の大きさが許容範囲以上変化しているか否かを判定する(ステップS216)。ステップS216の判定において、画像中の被写体の大きさが許容範囲以上変化している場合に、制御部101はユーザに対して音や発光等によって警告を行う(ステップS217)。この警告により、ユーザは3D撮影時においてカメラ100と被写体との距離に注意を向けることが可能である。一方、ステップS216の判定において、画像中の被写体の大きさが許容範囲以上変化していない場合に、制御部101はステップS217の処理をスキップする。   Next, the control unit 101 determines whether or not the size of the subject in the image has changed beyond an allowable range (step S216). If it is determined in step S216 that the size of the subject in the image has changed beyond an allowable range, the control unit 101 warns the user by sound or light emission (step S217). With this warning, the user can pay attention to the distance between the camera 100 and the subject during 3D shooting. On the other hand, if it is determined in step S216 that the size of the subject in the image has not changed beyond the allowable range, the control unit 101 skips the process in step S217.

次に、制御部101は、ユーザによる操作部102の操作によって3D撮影の終了が指示されたか否かを判定する(ステップ218)。ステップS218の判定において、3D表示の終了が指示されていない場合には、処理がステップS212に戻り、制御部101は、次の撮影を実行する。即ち、ユーザによる操作部102の操作によって3D撮影の終了が指示されるまで撮影が繰り返されることになる。なお、各撮影の時間間隔は等間隔となるようにする。一方、ステップS218の判定において、3D表示の終了が指示された場合には、3D撮影の結果として得られた画像を用いて正しい3D表示を行えるように、制御部101は画像補正処理を行う(ステップS219)。この画像補正処理の詳細については後述する。画像補正処理の後、制御部101は、画像補正処理によって得られる一連の画像群を1つのフォルダにまとめて記録部106に記録させた後(ステップS220)、図8に示す処理を終了させる。   Next, the control unit 101 determines whether or not the end of 3D imaging is instructed by the operation of the operation unit 102 by the user (step 218). If the end of 3D display is not instructed in the determination in step S218, the process returns to step S212, and the control unit 101 executes the next shooting. That is, the shooting is repeated until the end of 3D shooting is instructed by the operation of the operation unit 102 by the user. It should be noted that the time intervals of the shootings are made equal. On the other hand, when the end of 3D display is instructed in the determination in step S218, the control unit 101 performs image correction processing so that correct 3D display can be performed using an image obtained as a result of 3D imaging ( Step S219). Details of the image correction processing will be described later. After the image correction process, the control unit 101 collects a series of image groups obtained by the image correction process into one folder and records it in the recording unit 106 (step S220), and then ends the process shown in FIG.

また、ステップS211の判定において、3D表示の実行が指示されていない場合に、制御部101は、ユーザによる操作部102の操作によって3D表示の指示がなされたか否かを判定する(ステップS221)。ステップS221の判定において、3D表示の指示がなされていない場合には、処理がステップS211に戻る。一方、ステップS221の判定において、3D表示の指示がなされた場合に、制御部101は、3D表示処理を実行する(ステップS222)。この3D表示処理については後述する。3D表示処理の後、制御部101は、ユーザによる操作部102の操作によって3D表示の終了が指示されたか否かを判定する(ステップS223)。ステップS223の判定において、3D表示の終了が指示されていない場合には、処理がステップS222に戻り、制御部101は、3D表示処理を継続する。一方、ステップS223の判定において、3D表示の終了が指示された場合に、制御部101は図8の処理を終了させる。   Further, when the execution of 3D display is not instructed in the determination in step S211, the control unit 101 determines whether or not an instruction for 3D display has been given by the operation of the operation unit 102 by the user (step S221). If it is determined in step S221 that no 3D display instruction has been given, the process returns to step S211. On the other hand, when a 3D display instruction is given in the determination in step S221, the control unit 101 executes a 3D display process (step S222). This 3D display process will be described later. After the 3D display process, the control unit 101 determines whether the end of 3D display is instructed by the operation of the operation unit 102 by the user (step S223). If the end of 3D display is not instructed in the determination in step S223, the process returns to step S222, and the control unit 101 continues the 3D display process. On the other hand, when the end of 3D display is instructed in the determination in step S223, the control unit 101 ends the process of FIG.

次に、画像補正処理について説明する。図9は、画像補正処理について示したフローチャートである。図9において、まず、制御部101は基準画像を選択する。ここでは、例えば、図8の3D撮影によって得られる一連の画像の中で最初に撮影された画像を基準画像とする(ステップS301)。ここで、基準画像とは、3D表示に必要な画像と不必要な画像との取捨選択を行うための基準となる画像である。この基準画像中の被写体300とカメラ100との距離が等間隔となるように補正を行うとともに、基準画像を基準として撮影位置が等間隔となるように画像を採用していく。   Next, image correction processing will be described. FIG. 9 is a flowchart showing image correction processing. In FIG. 9, first, the control unit 101 selects a reference image. Here, for example, the first image captured in the series of images obtained by the 3D imaging in FIG. 8 is set as the reference image (step S301). Here, the reference image is an image serving as a reference for selecting an image necessary for 3D display and an unnecessary image. Corrections are made so that the distances between the subject 300 and the camera 100 in the reference image are equally spaced, and images are adopted so that the shooting positions are equally spaced with reference to the reference image.

次に、制御部101は、基準画像に対して所定の撮影間隔だけ離れた撮影位置の画像を選択する(ステップS302)。そして、制御部101は、3D表示に必要な全ての撮影位置の画像に対して判定を行ったか否かを判定する(ステップS303)。   Next, the control unit 101 selects an image at a shooting position that is separated from the reference image by a predetermined shooting interval (step S302). Then, the control unit 101 determines whether or not determination has been performed on images at all shooting positions necessary for 3D display (step S303).

ステップS303の判定において、3D表示に必要な全ての撮影位置の画像に対して判定を行っていない場合、制御部101は、ステップS302において選択した画像の撮影時に、カメラ100が、ユーザが意図する適切な撮影方向を向いていたか否かを、カメラ100に許容範囲以上の角度変化があったか否かによって判定する(ステップS304)。ステップS304の判定において、カメラ100の許容範囲以上の角度変化がある場合に、制御部101は、ステップS302において選択した画像を不採用とする(ステップS305)。その後、処理がステップS302に戻り、制御部101は次の画像の選択を行う。   In the determination in step S303, if the determination is not made for all images at the shooting positions necessary for 3D display, the control unit 101 indicates that the camera 100 is intended by the user when shooting the image selected in step S302. It is determined whether or not the camera 100 is in an appropriate shooting direction based on whether or not the camera 100 has an angle change that exceeds an allowable range (step S304). If it is determined in step S304 that there is an angle change that exceeds the allowable range of the camera 100, the control unit 101 rejects the image selected in step S302 (step S305). Thereafter, the process returns to step S302, and the control unit 101 selects the next image.

一方、ステップS304の判定において、カメラ100の許容範囲以上の角度変化がない場合に、制御部101は、基準画像中の被写体の大きさに対し、ステップS302において選択した画像中の被写体の大きさの変化量が許容範囲以上であるか否かを判定する(ステップS306)。ステップS306の判定において、被写体の大きさの変化量が許容範囲以上である場合に、制御部101は、ステップS302において選択した画像中の被写体の大きさを補正する処理を行う(ステップS307)。   On the other hand, in the determination in step S304, when there is no change in angle beyond the allowable range of the camera 100, the control unit 101 compares the size of the subject in the image selected in step S302 with respect to the size of the subject in the reference image. It is determined whether or not the amount of change is greater than or equal to an allowable range (step S306). If it is determined in step S306 that the amount of change in the subject size is greater than or equal to the allowable range, the control unit 101 performs a process of correcting the subject size in the image selected in step S302 (step S307).

ここで、ステップS307の補正処理について説明する。図10は、被写体の大きさ補正処理について示すフローチャートである。まず、制御部101は、補正対象の画像中の被写体の高さH1を検出する(ステップS321)。次に、制御部101は、基準画像中の被写体の高さH0を検出する(ステップS322)。なお、基準画像中の被写体の高さH0については予め検出しておくようにしても良い。H1とH0を検出することによって画像中の被写体の高さの変化量H1/H0を算出することができる。したがって、制御部101は、画像処理部104により、補正対象の画像中の中央部分(被写体を含む正方形領域)の高さと幅とをそれぞれH0/H1倍して補正を行う(ステップS323)。   Here, the correction process in step S307 will be described. FIG. 10 is a flowchart illustrating the subject size correction process. First, the control unit 101 detects the height H1 of the subject in the correction target image (step S321). Next, the control unit 101 detects the height H0 of the subject in the reference image (step S322). Note that the height H0 of the subject in the reference image may be detected in advance. By detecting H1 and H0, it is possible to calculate the amount of change H1 / H0 in the height of the subject in the image. Therefore, the control unit 101 uses the image processing unit 104 to perform correction by multiplying the height and width of the central portion (square area including the subject) in the correction target image by H0 / H1 (step S323).

以後、図9に戻って説明を続ける。ステップS303の判定において、3D表示に必要な全ての撮影位置の画像に対して判定を行った場合、制御部101は、選択された画像の中に不採用とした画像があるか否かを識別する(ステップS308)。不採用とした画像がある場合には、その不採用とした画像を除去し、さらに、不採用とした画像の前後の撮影位置を含む少なくとも2枚の画像を合成することで、不採用とした撮影位置で得られるべき補正画像を生成する(ステップS309)。その後、制御部101は、図9の処理を終了させる。   Thereafter, returning to FIG. 9, the description will be continued. In the determination in step S303, when the determination is made for all the images at the photographing positions necessary for 3D display, the control unit 101 identifies whether there is an image that has not been adopted among the selected images. (Step S308). If there is a rejected image, the rejected image is removed, and further, at least two images including the shooting positions before and after the rejected image are combined and rejected. A corrected image to be obtained at the shooting position is generated (step S309). Thereafter, the control unit 101 ends the process of FIG.

次に、3D表示について説明する。図11は、3D表示の処理について示すフローチャートである。上述のように、3D表示は、カメラ100とPC200の何れでも行うことが可能である。ここでは、カメラ100の表示部105上に3D表示を行う例について説明するが、図11に示すフローチャートの処理はPC200における3D表示の際にも適用できる。   Next, 3D display will be described. FIG. 11 is a flowchart illustrating 3D display processing. As described above, 3D display can be performed by either the camera 100 or the PC 200. Here, an example in which 3D display is performed on the display unit 105 of the camera 100 will be described, but the processing of the flowchart shown in FIG. 11 can also be applied to 3D display on the PC 200.

3D表示の際に、制御部101は、まず、3D表示用にフォルダにまとめられた画像群の中の基準画像(3D撮影時に最初に撮影された画像)を表示部105に表示させる(ステップS401)。その後、制御部101は、ユーザによる操作部102の操作により、表示部105被写体300を左右方向に回転させるように指示されたか否かを判定する(ステップS402)。ステップS402の判定において、回転操作指示がなされていない場合に、制御部101は、図11の処理を抜けて図8の処理に復帰する。一方、ステップS402の判定において、回転操作指示がなされた場合に、制御部101は、図12に示すようにして、ユーザの操作方向に従って被写体が右方向又は左方向に回転されるように表示部105に表示させる画像の切り換えを行う(ステップS403)。その後、制御部101は、図11の処理を抜けて図8の処理に復帰する。   At the time of 3D display, the control unit 101 first causes the display unit 105 to display a reference image (an image first captured at the time of 3D shooting) in an image group collected in a folder for 3D display (step S401). ). Thereafter, the control unit 101 determines whether or not an instruction to rotate the display unit 105 subject 300 in the left-right direction is given by the operation of the operation unit 102 by the user (step S402). If it is determined in step S402 that a rotation operation instruction has not been issued, the control unit 101 exits the process of FIG. 11 and returns to the process of FIG. On the other hand, when a rotation operation instruction is given in the determination in step S402, the control unit 101 displays the display unit so that the subject is rotated rightward or leftward according to the user's operation direction as shown in FIG. The image displayed on 105 is switched (step S403). Thereafter, the control unit 101 exits the process of FIG. 11 and returns to the process of FIG.

以上説明したように、本実施形態によれば、ユーザが手動でカメラ100を移動させて被写体300を囲む複数の位置で撮影することで得られた画像を用いて正しい3D表示を行うことが可能である。即ち、ユーザが手動でカメラ100を移動させる際に生じ得るカメラ100の角度変化や速度変化、被写体300との相対距離の変化を考慮して画像を補正することにより、被写体の正しい3D情報を得ることができ、これによって適切な3D表示を行うことが可能となる。   As described above, according to the present embodiment, it is possible to perform correct 3D display using images obtained by manually moving the camera 100 and shooting at a plurality of positions surrounding the subject 300. It is. That is, correct 3D information of the subject is obtained by correcting the image in consideration of a change in the angle and speed of the camera 100 that may occur when the user manually moves the camera 100, and a change in the relative distance to the subject 300. This makes it possible to perform appropriate 3D display.

ここで、上述の例においては、3D撮影によって得られた画像の補正をカメラ100において行っている。しかしながら、図9で示した補正処理を実行できるのであれば、例えばネットワーク上に設けられたサーバ等で補正処理を行えるようにしても良い。この場合には、3D撮影の際の各撮影位置におけるカメラ100の角度変化、速度変化等の情報を画像と関連付けて記録し、画像とともにこれらの情報も送信する必要がある。   Here, in the above-described example, the camera 100 corrects an image obtained by 3D shooting. However, if the correction process shown in FIG. 9 can be executed, the correction process may be performed by, for example, a server provided on the network. In this case, it is necessary to record information such as an angle change and a speed change of the camera 100 at each shooting position at the time of 3D shooting in association with the image, and transmit the information together with the image.

また、上述の例では、3D撮影の際に、被写体300の周囲で且つ地表に対して平行な方向にのみカメラ100を移動させて撮影を行う例について説明している。これに対し、さらに、被写体300の周囲で且つ地表に対して垂直な方向にカメラ100を移動させて撮影を行うようにしても良い。このようにすれば、3D表示の際に被写体300を画面の上下方向に回転させることもできるようになる。さらに、上述の例においては、3D撮影の際に、カメラ100が角度変化してしまった場合には、そのとき得られる画像を3D表示には採用しないようにしている。これに対し、図13に示すように、角度変化が発生してしまった際に得られた画像502と画像504を合成して上下方向に動きのある画像503bを生成することで、地表に対して平行な方向以外の画像を得るようにしても良い。   In the above-described example, an example is described in which shooting is performed by moving the camera 100 only in the direction around the subject 300 and parallel to the ground surface during 3D shooting. On the other hand, the camera 100 may be moved around the subject 300 in a direction perpendicular to the ground surface for shooting. In this way, the subject 300 can be rotated in the vertical direction of the screen during 3D display. Further, in the above-described example, when the camera 100 changes its angle during 3D shooting, the image obtained at that time is not adopted for 3D display. On the other hand, as shown in FIG. 13, by synthesizing the image 502 and the image 504 obtained when the angle change has occurred, an image 503b that moves in the vertical direction is generated. Alternatively, images other than parallel directions may be obtained.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係るカメラの構成を示す図である。It is a figure which shows the structure of the camera which concerns on one Embodiment of this invention. 動き検出部で検出できるカメラの並進及び回転について示す図である。It is a figure shown about translation and rotation of the camera which can be detected with a motion detection part. カメラの並進方向の移動を検出する並進移動検出部について説明するため図である。It is a figure for demonstrating the translation movement detection part which detects the movement of the translation direction of a camera. カメラの回転を検出する回転検出部について説明するための図である。It is a figure for demonstrating the rotation detection part which detects rotation of a camera. 3D撮影の概要を示す図である。It is a figure which shows the outline | summary of 3D imaging | photography. 図6(a)はカメラの移動時に起こり得る円状軌跡からのずれの一例を示した図であり、図6(b)はカメラの移動時に起こり得るカメラの角度変化の一例を示した図である。FIG. 6A is a diagram showing an example of a deviation from a circular trajectory that can occur when the camera moves, and FIG. 6B is a diagram that shows an example of a camera angle change that can occur when the camera moves. is there. 3D撮影後の画像補正の具体例を示す図である。It is a figure which shows the specific example of the image correction after 3D imaging | photography. 本発明の一実施形態に係るカメラのメインの動作について示すフローチャートである。It is a flowchart shown about the main operation | movement of the camera which concerns on one Embodiment of this invention. 画像補正処理について示したフローチャートである。It is the flowchart shown about the image correction process. 被写体の大きさ補正処理について示すフローチャートである。6 is a flowchart illustrating subject size correction processing; 3D表示の処理について示すフローチャートである。It is a flowchart shown about the process of 3D display. 3D表示の際の画像の回転について示す図である。It is a figure shown about rotation of the image in the case of 3D display. 本発明の実施形態の変形例について示す図である。It is a figure shown about the modification of embodiment of this invention.

符号の説明Explanation of symbols

100…カメラ、101…制御部、102…操作部、103…撮影部、104…画像処理部、105…表示部、106…記録部、107…動き検出部、108…通信部、200…パーソナルコンピュータ(PC)   DESCRIPTION OF SYMBOLS 100 ... Camera, 101 ... Control part, 102 ... Operation part, 103 ... Imaging | photography part, 104 ... Image processing part, 105 ... Display part, 106 ... Recording part, 107 ... Motion detection part, 108 ... Communication part, 200 ... Personal computer (PC)

Claims (2)

被写体を複数の角度から観察し、撮影して前記被写体に係る画像を得る撮影部を有する表示装置において、前記撮影時における前記表示装置の動きを検出する動き検出部と、前記被写体と前記撮影部との位置関係を検出する位置検出部と、前記位置検出部で検出された位置関係に基づき、前記被写体を囲む複数の相違なる位置で前記撮影部によって得られた複数の画像のうち、許容の条件を満たす画像のそれぞれが等価な位置関係となるように補正する画像補正部と、前記位置関係に従った警告を発する警告部と、 前記補正された画像を表示する表示部と、を具備し、前記位置検出部の検出結果に従い、前記被写体に係る画像の拡大縮小を行い、前記動き検出部の検出結果に従い、前期被写体に係る画像の削除を行うことを特徴とする表示装置。 In a display device having a photographing unit for observing and photographing a subject from a plurality of angles to obtain an image related to the subject, a motion detecting unit for detecting a movement of the display device at the time of photographing , the subject and the photographing unit And a position detection unit that detects a positional relationship between the plurality of images obtained by the photographing unit at a plurality of different positions surrounding the subject based on the positional relationship detected by the position detection unit. comprising an image correcting unit for each satisfying image is corrected so as to be equivalent to the positional relationship, a warning unit for issuing a warning in accordance with the positional relationship, and a display unit for displaying the corrected image A display device , wherein the image relating to the subject is enlarged or reduced according to the detection result of the position detection unit, and the image relating to the previous subject is deleted according to the detection result of the motion detection unit. Place. 前記画像補正部は、前記位置検出部によって検出された位置関係に基づいて、前記撮影部で得られた複数の画像の中から撮影位置が等間隔である画像群を選択することを特徴とする請求項1に記載の表示装置。   The image correction unit selects an image group having shooting positions at equal intervals from a plurality of images obtained by the shooting unit based on the positional relationship detected by the position detection unit. The display device according to claim 1.
JP2008198133A 2008-07-31 2008-07-31 Display device Expired - Fee Related JP5231119B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008198133A JP5231119B2 (en) 2008-07-31 2008-07-31 Display device
CN201110344425.0A CN102438103B (en) 2008-07-31 2009-07-30 The method for imaging of camera and camera
CN200910161802XA CN101640811B (en) 2008-07-31 2009-07-30 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008198133A JP5231119B2 (en) 2008-07-31 2008-07-31 Display device

Publications (3)

Publication Number Publication Date
JP2010041076A JP2010041076A (en) 2010-02-18
JP2010041076A5 JP2010041076A5 (en) 2011-08-18
JP5231119B2 true JP5231119B2 (en) 2013-07-10

Family

ID=41615553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008198133A Expired - Fee Related JP5231119B2 (en) 2008-07-31 2008-07-31 Display device

Country Status (2)

Country Link
JP (1) JP5231119B2 (en)
CN (2) CN102438103B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019292A (en) * 2010-07-06 2012-01-26 Sharp Corp Imaging inspection device of 3d camera module and imaging inspection method thereof, imaging inspection control program of 3d camera module, imaging correction method of 3d camera module, imaging correction control program of 3d camera module, readable recording medium, 3d camera module and electronic information apparatus
JP5892060B2 (en) * 2012-12-25 2016-03-23 カシオ計算機株式会社 Display control apparatus, display control system, display control method, and program
US10547774B2 (en) 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09187037A (en) * 1995-12-27 1997-07-15 Canon Inc Image processor
JP2000305207A (en) * 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2001324305A (en) * 2000-05-17 2001-11-22 Minolta Co Ltd Image correspondent position detector and range finder equipped with the same
JP2002230585A (en) * 2001-02-06 2002-08-16 Canon Inc Method for displaying three-dimensional image and recording medium
JP4566908B2 (en) * 2003-02-18 2010-10-20 パナソニック株式会社 Imaging system
JP4172352B2 (en) * 2003-07-11 2008-10-29 ソニー株式会社 Imaging apparatus and method, imaging system, and program
JP4130641B2 (en) * 2004-03-31 2008-08-06 富士フイルム株式会社 Digital still camera and control method thereof
CN101015199B (en) * 2004-07-07 2011-10-19 日本电气株式会社 Wide field-of-view image input method and device
JP4479396B2 (en) * 2004-07-22 2010-06-09 セイコーエプソン株式会社 Image processing apparatus, image processing method, and image processing program
US8159594B2 (en) * 2004-09-21 2012-04-17 Nikon Corporation Electronic device
JP2006113807A (en) * 2004-10-14 2006-04-27 Canon Inc Image processor and image processing program for multi-eye-point image
JP4517813B2 (en) * 2004-10-15 2010-08-04 株式会社ニコン Panning camera and video editing program
JP2006217478A (en) * 2005-02-07 2006-08-17 Sony Ericsson Mobilecommunications Japan Inc Apparatus and method for photographing image
JP4285422B2 (en) * 2005-03-04 2009-06-24 日本電信電話株式会社 Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium
JP2007214887A (en) * 2006-02-09 2007-08-23 Fujifilm Corp Digital still camera and image composition method
JP4757085B2 (en) * 2006-04-14 2011-08-24 キヤノン株式会社 IMAGING DEVICE AND ITS CONTROL METHOD, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP4315971B2 (en) * 2006-11-09 2009-08-19 三洋電機株式会社 Imaging device

Also Published As

Publication number Publication date
JP2010041076A (en) 2010-02-18
CN102438103A (en) 2012-05-02
CN101640811B (en) 2012-01-11
CN101640811A (en) 2010-02-03
CN102438103B (en) 2015-10-14

Similar Documents

Publication Publication Date Title
CN107026973B (en) Image processing device, image processing method and photographic auxiliary equipment
KR100385089B1 (en) Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
JP5063749B2 (en) Imaging control system, imaging apparatus control apparatus, control method therefor, and program
KR101339193B1 (en) Camera platform system
WO2011016358A1 (en) Electronic device, control method, program, and image capturing system
CN110572564A (en) Information processing apparatus, information processing method, and storage medium
JP5231119B2 (en) Display device
KR100585822B1 (en) Monitor system use panorama image and control method the system
CN110351475B (en) Image pickup system, information processing apparatus, control method therefor, and storage medium
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
JP2005086279A (en) Imaging apparatus and vehicle provided with imaging apparatus
JP2007089042A (en) Imaging apparatus
CN103636187B (en) Camera head
JP2021027584A (en) Image processing device, image processing method, and program
US11184547B2 (en) Imaging device, method for controlling imaging device, and recording medium
JP2010278738A (en) Imaging device and imaging method
JP2004088558A (en) Monitoring system, method, program, and recording medium
WO2021014598A1 (en) Imaging device, imaging system, image processing device, imaging method, image processing method, and program
US20210409607A1 (en) Control apparatus, control method, and storage medium
JP2013012848A (en) Camera device and control method therefor
WO2021020358A1 (en) Image processing device, image processing method, program, and storage medium
US11516390B2 (en) Imaging apparatus and non-transitory storage medium
US11356632B2 (en) Display-information generating apparatus, information processing apparatus, and imaging system
JP7128695B2 (en) Shooting operation data collection device and program
JP2005210507A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5231119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees