JP2018081534A - Image processing device, imaging apparatus, and control method - Google Patents

Image processing device, imaging apparatus, and control method Download PDF

Info

Publication number
JP2018081534A
JP2018081534A JP2016223925A JP2016223925A JP2018081534A JP 2018081534 A JP2018081534 A JP 2018081534A JP 2016223925 A JP2016223925 A JP 2016223925A JP 2016223925 A JP2016223925 A JP 2016223925A JP 2018081534 A JP2018081534 A JP 2018081534A
Authority
JP
Japan
Prior art keywords
image data
image
processing apparatus
depth
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016223925A
Other languages
Japanese (ja)
Inventor
田中 裕樹
Hiroki Tanaka
裕樹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016223925A priority Critical patent/JP2018081534A/en
Publication of JP2018081534A publication Critical patent/JP2018081534A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of generating stereoscopic image data effectively having depth feeling even when a photographing angle corresponding to the image data is a wide angle.SOLUTION: A digital camera 100 for generating stereoscopic image data corresponding to image data is provided. The digital camera 100 acquires image data, and depth information indicating a depth in a depth direction of a subject corresponding to the image data. The digital camera 100 sets a background plane for the stereoscopic image data in accordance with photographing information corresponding to the image data. The digital camera 100 generates stereoscopic image data by using the background plane that has been set and on the basis of the image data and the depth information.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、撮像装置および制御方法に関する。   The present invention relates to an image processing device, an imaging device, and a control method.

樹脂や石膏粉末などの記録材を積層することで立体を造形する装置である3Dプリンタが広く普及し始めている。3Dプリンタを用いて、撮影画像と、その奥行きを示す距離情報に基づいて、撮影画像を立体的なレリーフ、即ち立体画像を出力する装置やシステムが提案されている。   3D printers, which are devices for modeling solids by laminating recording materials such as resin and gypsum powder, are beginning to become widespread. An apparatus or system has been proposed that uses a 3D printer to output a stereoscopic relief of a captured image, that is, a stereoscopic image, based on the captured image and distance information indicating the depth.

立体画像を出力する方法として、3Dプリンタを用いた方法以外にも、熱膨張性シートを熱変形させることで立体を造形する方法や、型押し印刷やエンボス加工印刷や、レーザー彫刻など様々な方法が考えられる。いずれの出力方法も、出力する立体画像の最大高低差に制約があったり、高低差を付けるほど多くの記録材を積層するので、コストがかかる。特許文献1は、隣り合う複数の被写体の境界線を実際より差が際立つように、被写体ごとの奥行き方向の位置関係を強調して立体出力を行う立体画像出力装置を開示している。また、特許文献2は、立体画像を厚さの上限値に収まるようにして出力する立体画像出力装置を開示している。   As a method for outputting a stereoscopic image, in addition to a method using a 3D printer, various methods such as a method of modeling a solid by thermally deforming a thermally expansible sheet, embossing printing, laser engraving, etc. Can be considered. In any of the output methods, there is a restriction on the maximum height difference of the stereoscopic image to be output, and the more recording materials are stacked as the height difference is added, the cost increases. Patent Document 1 discloses a stereoscopic image output apparatus that performs stereoscopic output by emphasizing the positional relationship in the depth direction for each subject so that the boundary lines of a plurality of adjacent subjects are more conspicuous. Patent Document 2 discloses a stereoscopic image output apparatus that outputs a stereoscopic image so as to be within the upper limit value of the thickness.

特開2008−213320号公報JP 2008-213320 A 特許第4998317号公報Japanese Patent No. 4998317

魚眼レンズや焦点距離の短い広角レンズ等の、広い画角で撮影できるレンズを用いた撮影を行う場合を想定する。魚眼レンズ等の広角なレンズを用いて撮影した画像を、従来の立体画像出力装置で出力する場合、撮影範囲が広いので、近距離から遠距離までの奥行き方向に広範囲の被写体を撮影されることが多い。したがって、画像中の領域を全て立体表現するために、多くの記録材を必要とする。また、厚さに上限がある立体画像出力装置では、立体画像に出力しても、立体化される領域が少なく、所望の立体感を得ることができない。本発明は、画像データに対応する撮影画角が広角である場合であっても、効果的に奥行き感を持たせた立体画像データを生成することができる画像処理装置の提供を目的とする。   A case is assumed where shooting is performed using a lens capable of shooting with a wide angle of view, such as a fish-eye lens or a wide-angle lens with a short focal length. When an image shot using a wide-angle lens such as a fisheye lens is output by a conventional stereoscopic image output device, the shooting range is wide, so a wide range of subjects can be shot in the depth direction from a short distance to a long distance. Many. Therefore, a large number of recording materials are required to three-dimensionally represent all the areas in the image. In addition, in a stereoscopic image output device having an upper limit in thickness, even if a stereoscopic image is output, there are few regions to be stereoscopicized and a desired stereoscopic effect cannot be obtained. An object of the present invention is to provide an image processing apparatus that can generate stereoscopic image data with a sense of depth effectively even when the shooting angle of view corresponding to the image data is a wide angle.

本発明の一実施形態の画像処理装置は、画像データに対応する立体画像データを生成する画像処理装置であって、前記画像データと、前記画像データに対応する被写体の奥行き方向の深さを示す深度情報とを取得する第1の取得手段と、前記画像データに対応する撮影画角に応じて、前記立体画像データの背景面を設定する設定手段と、前記背景面を用いて、前記画像データと前記深度情報とに基づいて、前記立体画像データを生成する生成手段とを備える。   An image processing apparatus according to an embodiment of the present invention is an image processing apparatus that generates stereoscopic image data corresponding to image data, and indicates the depth in the depth direction of the image data and a subject corresponding to the image data. A first acquisition unit that acquires depth information; a setting unit that sets a background surface of the stereoscopic image data according to a shooting angle of view corresponding to the image data; and the image data using the background surface. And generating means for generating the stereoscopic image data based on the depth information.

本発明の画像処理装置によれば、画像データに対応する撮影画角が広角である場合であっても、効果的に奥行き感を持たせた立体画像データを生成することができる。   According to the image processing apparatus of the present invention, even when the shooting angle of view corresponding to the image data is a wide angle, it is possible to generate stereoscopic image data with a sense of depth effectively.

本実施形態の画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus of this embodiment. 撮影画像と深度情報とを説明する図である。It is a figure explaining a picked-up image and depth information. イメージセンササイズと焦点距離と撮影画角との関係を示す図である。It is a figure which shows the relationship between an image sensor size, a focal distance, and an imaging | photography angle of view. レンズの特性を説明する図である。It is a figure explaining the characteristic of a lens. 撮影画角から背景面への変換処理を説明する図である。It is a figure explaining the conversion process from an imaging | photography angle of view to a background surface. 立体画像データの生成処理を説明する図である。It is a figure explaining the production | generation process of stereo image data. 立体画像データの生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of stereo image data.

図1は、本実施形態の画像処理装置の構成例を示す図である。
本実施形態の画像処理装置は、撮像装置の一例としてのデジタルカメラ100である。デジタルカメラ100は、撮像により取得された画像データに対応する立体画像データを生成する機能を有する撮像装置である。デジタルカメラ100は、内部バス102乃至LCD116を備える。LCDは、Liquid Crystal Displyの略称である。内部バス102は、各ブロックを接続する。システム制御部101は、内部バス102で接続された各ブロックの制御を行う。
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to the present embodiment.
The image processing apparatus of this embodiment is a digital camera 100 as an example of an imaging apparatus. The digital camera 100 is an imaging device having a function of generating stereoscopic image data corresponding to image data acquired by imaging. The digital camera 100 includes an internal bus 102 through an LCD 116. LCD is an abbreviation for Liquid Crystal Display. The internal bus 102 connects each block. The system control unit 101 controls each block connected by the internal bus 102.

FLASHメモリコントローラ103は、システム制御部101に制御されて、FLASHメモリ104に対する不揮発性データの読み書きを行う。システム制御部101は、FLASHメモリ104に格納されたプログラムを元に動作し、撮像によって得られた画像データなどの不揮発性データをFLASHメモリ104に格納する。DRAMコントローラ105は、各ブロックからの要求に基づき、DRAM106に対するデータの読み書きを行う。DRAMは、Dynamic Random Access Memoryの略称である。DRAM106には、動作中の一時データなどが格納される。   The FLASH memory controller 103 is controlled by the system control unit 101 to read / write nonvolatile data from / to the FLASH memory 104. The system control unit 101 operates based on a program stored in the FLASH memory 104 and stores non-volatile data such as image data obtained by imaging in the FLASH memory 104. The DRAM controller 105 reads and writes data to and from the DRAM 106 based on requests from each block. DRAM is an abbreviation for Dynamic Random Access Memory. The DRAM 106 stores temporary data during operation.

操作部107は、ユーザの操作にしたがって、システム制御部101に指令を伝える。操作部107は、デジタルカメラ100の外装に設けられたボタン等を有する。撮像部108は、被写体を撮影する撮像部である。撮像部108は、レンズと、被写体光を光電変換して像信号を出力するCCDやCMOS素子等の撮像素子(イメージセンサ)とを有する。CCDは、Charge Coupled Deviceの略称である。CMOSは、Complementary Metal Oxide Semiconductorの略称である。撮像部108は、システム制御部101の制御によって、撮像素子で得られた像信号を画像信号処理部109に渡す。また、撮像部108は、システム制御部101の制御によって、撮像素子で得られた視点の異なる2像(視点画像)の領域毎のピントのずれ量、つまりデフォーカス量を測定する。また、撮像部108は、システム制御部101の制御にしたがって撮影時の撮影情報を取得する。すなわち、システム制御部101は、撮影情報を取得する第2の取得手段として機能する。撮影情報は、撮影時の焦点距離、撮影に用いられたレンズ特性、イメージセンササイズのうちの少なくともいずれかを含む。   The operation unit 107 transmits a command to the system control unit 101 in accordance with a user operation. The operation unit 107 has buttons and the like provided on the exterior of the digital camera 100. The imaging unit 108 is an imaging unit that photographs a subject. The imaging unit 108 includes a lens and an imaging element (image sensor) such as a CCD or CMOS element that photoelectrically converts subject light and outputs an image signal. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. The imaging unit 108 passes the image signal obtained by the imaging element to the image signal processing unit 109 under the control of the system control unit 101. Further, the imaging unit 108 measures the amount of defocus, that is, the defocus amount, for each region of two images (viewpoint images) with different viewpoints obtained by the imaging device, under the control of the system control unit 101. Further, the imaging unit 108 acquires shooting information at the time of shooting according to the control of the system control unit 101. That is, the system control unit 101 functions as a second acquisition unit that acquires shooting information. The shooting information includes at least one of a focal length at the time of shooting, a lens characteristic used for shooting, and an image sensor size.

画像信号処理部109は、システム制御部101の指示に基づいて、撮影により得られた画像データをDRAM106に格納する。また、画像信号処理部109は、撮影と同時に、撮像部108が測定したデフォーカス量を画像データとともにDRAM106に格納する。また、画像信号処理部109は、画像データを表示用に縮小して、DRAM106に設けられた表示用フレームメモリに格納する。   The image signal processing unit 109 stores image data obtained by photographing in the DRAM 106 based on an instruction from the system control unit 101. The image signal processing unit 109 stores the defocus amount measured by the imaging unit 108 in the DRAM 106 together with the image data at the same time as shooting. Further, the image signal processing unit 109 reduces the image data for display and stores it in a display frame memory provided in the DRAM 106.

深度情報生成部110は、システム制御部101の制御にしたがって、DRAM106に格納された画像データと、デフォーカス量とに基づき、画像の領域毎の深度情報を生成して、DRAM106に格納する。すなわち、システム制御部101は、画像データと、画像データに対応する深度情報とを取得する第1の取得手段として機能する。本実施形態において、深度情報は、画像データに対応する被写体の奥行き方向の深さを示す。深度情報には、撮像手段としてのカメラから被写体までの距離(被写体距離)を絶対値として距離値で表わすデータや、画像データにおける相対的な距離関係(画像の深度)を示すデータ(視差量の分布、デフォーカス量の分布等)を含む。   The depth information generation unit 110 generates depth information for each area of the image based on the image data stored in the DRAM 106 and the defocus amount under the control of the system control unit 101, and stores the depth information in the DRAM 106. That is, the system control unit 101 functions as a first acquisition unit that acquires image data and depth information corresponding to the image data. In the present embodiment, the depth information indicates the depth in the depth direction of the subject corresponding to the image data. The depth information includes data representing the distance from the camera as the imaging means to the subject (subject distance) as an absolute value, and data indicating the relative distance relationship (depth of the image) in the image data (parallax amount). Distribution, defocus amount distribution, etc.).

深度情報に関して、さまざまな実施形態がある。つまり、被写体の深さに対応するデータが示す情報は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の距離(被写体距離)や深さの相対関係を表す情報であればよい。例えば、システム制御部101が、合焦位置を変更する制御を行い、撮影された複数の撮像画像データが取得される。それぞれの撮像画像データの合焦領域と、撮像画像データの合焦位置情報から深度情報を取得することができる。この他にも、撮像素子が瞳分割型の画素構成を有する場合、一対の像信号の位相差から各画素に対する深度情報を取得可能である。具体的には、撮像素子は、撮像光学系の異なる瞳部分領域を通過する一対の光束が光学像としてそれぞれ結像したものを電気信号に変換し、対をなす画像データ(視点画像)を複数の光電変換部から出力する。対をなす画像データ間の相関演算によって各領域の像ずれ量が算出され、像ずれ量の分布を表す像ずれマップが算出される。あるいはさらに像ずれ量がデフォーカス量に換算され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。このデフォーカス量を撮像光学系や撮像素子の条件に基づいて被写体距離に換算すると、被写体距離の分布を表す距離マップデータが得られる。像ずれマップデータ、デフォーカスマップデータ、あるいはデフォーカス量から変換される被写体距離の距離マップデータを取得可能である。   There are various embodiments for depth information. That is, the information indicated by the data corresponding to the depth of the subject directly represents the subject distance from the imaging device to the subject in the image, or the relative relationship between the distance (subject distance) and the depth of the subject in the image. May be used as long as it represents information. For example, the system control unit 101 performs control to change the in-focus position, and a plurality of photographed captured image data is acquired. Depth information can be acquired from the focus area of each captured image data and the focus position information of the captured image data. In addition, when the imaging device has a pupil-divided pixel configuration, depth information for each pixel can be acquired from the phase difference between a pair of image signals. Specifically, the imaging device converts a pair of light beams that pass through different pupil partial regions of the imaging optical system into optical signals, and converts a plurality of pairs of image data (viewpoint images). Output from the photoelectric converter. The image shift amount of each region is calculated by the correlation calculation between the paired image data, and an image shift map representing the distribution of the image shift amount is calculated. Alternatively, the image shift amount is further converted into a defocus amount, and a defocus map representing the distribution of the defocus amount (distribution on the two-dimensional plane of the captured image) is generated. When this defocus amount is converted into the subject distance based on the conditions of the imaging optical system and the imaging element, distance map data representing the distribution of the subject distance is obtained. Image shift map data, defocus map data, or distance map data of the subject distance converted from the defocus amount can be acquired.

また、被写体への投光から反射光を受けるまでの遅延時間を測定して被写体までの距離計測を行うTOF(Time Of Flight)法を用いて画像内における撮像装置から被写体までの被写体距離を直接的に取得してもよい。TOF法では、投光手段により被写体(対象物)にパルス光を投射して、その反射光を撮像部108で受光し、このパルス光の飛行時間(遅れ時間)を測定することで被写体距離(対象物までの距離)を測り、深度情報を取得する。   In addition, the subject distance from the imaging device to the subject in the image is directly measured using the TOF (Time Of Flight) method that measures the delay time from the light projection to the subject and receiving the reflected light to measure the distance to the subject. May be acquired automatically. In the TOF method, pulse light is projected onto a subject (target object) by a light projecting means, the reflected light is received by the imaging unit 108, and the flight time (delay time) of the pulse light is measured to measure the subject distance ( Measure the distance to the object) and obtain depth information.

撮影情報取得部111は、撮像部108から撮影時の撮影情報を取得し、DRAM106に格納する。画角情報生成部112は、撮影情報取得部111が取得した撮影情報情報に基づいて、記録した撮影画像の撮影範囲(以下、「撮影画角」と記述)を生成する。背景面変換部113は、画角情報生成部112が生成した撮影画角に基づいて、立体画像データの背景面を設定する。立体画像データ生成部114は、DRAM106から画像データを取得する。また、立体画像データ生成部114は、深度情報生成部110が生成した深度情報を取得する。そして、立体画像データ生成部114は、システム制御部101の制御にしたがって、背景面を用いて、画像データと深度情報とに基づき、立体画像データを生成する。立体画像データの出力先として、外部の3Dプリンタなどを接続することで、出力した立体画像データを実体化することができる。   The shooting information acquisition unit 111 acquires shooting information at the time of shooting from the imaging unit 108 and stores it in the DRAM 106. The angle-of-view information generation unit 112 generates a shooting range (hereinafter referred to as “shooting angle of view”) of the recorded shot image based on the shooting information information acquired by the shooting information acquisition unit 111. The background surface conversion unit 113 sets the background surface of the stereoscopic image data based on the shooting angle of view generated by the angle of view information generation unit 112. The stereoscopic image data generation unit 114 acquires image data from the DRAM 106. In addition, the stereoscopic image data generation unit 114 acquires the depth information generated by the depth information generation unit 110. Then, the stereoscopic image data generation unit 114 generates stereoscopic image data based on the image data and the depth information using the background surface under the control of the system control unit 101. By connecting an external 3D printer or the like as the output destination of the stereoscopic image data, the output stereoscopic image data can be materialized.

LCDコントローラ115は、DRAM106に格納された表示用フレームメモリの内容を読み出して、LCD116に表示する。なお、図1に示して説明したデジタルカメラ100の構成は一例であり、以下に説明する動作を実行できるのであれば、デジタルカメラ100の構成は、図1に示した構成に限定されるものではない。   The LCD controller 115 reads the content of the display frame memory stored in the DRAM 106 and displays it on the LCD 116. The configuration of the digital camera 100 illustrated in FIG. 1 is an example, and the configuration of the digital camera 100 is not limited to the configuration illustrated in FIG. 1 as long as operations described below can be performed. Absent.

図2は、撮影画像と深度情報とを説明する図である。
図2に示す例では、深度情報は、距離マップである。図2(A)は、画像を撮影した時の撮影状況を示す図である。被写体として人物201が、奥行き方向のd1に位置している。101は、デジタルカメラ100の撮影画角を示す。zは、カメラの光軸方向を示す。yは、地面に垂直の軸を示す。
FIG. 2 is a diagram for explaining a captured image and depth information.
In the example shown in FIG. 2, the depth information is a distance map. FIG. 2A is a diagram illustrating a shooting situation when an image is shot. A person 201 is positioned as d1 in the depth direction as a subject. Reference numeral 101 denotes a shooting angle of view of the digital camera 100. z indicates the optical axis direction of the camera. y indicates an axis perpendicular to the ground.

図2(B)は、デジタルカメラ100を用いて、図2(B)に示す撮影状況により得られた撮影画像200を示す。人物201に加えて、背景には樹木202が写っている。xは、水平方向を示す。yは、垂直方向の軸を示す。   FIG. 2B shows a photographed image 200 obtained using the digital camera 100 according to the photographing situation shown in FIG. In addition to the person 201, a tree 202 is shown in the background. x indicates the horizontal direction. y represents a vertical axis.

図2(C)は、図2(A)に示す撮影状況で得られた撮影画像200に対する距離マップ220を示す。深度情報生成部110は、例えば、撮像部108から取得した画像データの領域毎のデフォーカス量を用いて、距離マップ220を生成する。距離マップ220においては、色が濃い領域が手前、薄い領域が奥に位置することを示す。カメラに近い、画像の下部分が最も濃く、次いで人物201がやや濃い色になっている。本実施形態では、デジタルカメラ100は、撮影時に、撮影画像200と、距離マップ220を生成するためのデフォーカス量とを取得する。   FIG. 2C shows a distance map 220 for the captured image 200 obtained in the imaging state shown in FIG. For example, the depth information generation unit 110 generates the distance map 220 using the defocus amount for each area of the image data acquired from the imaging unit 108. In the distance map 220, it is shown that a dark color area is located on the near side and a thin area is located on the back side. The lower part of the image close to the camera is the darkest, and then the person 201 is a slightly darker color. In the present embodiment, the digital camera 100 acquires a captured image 200 and a defocus amount for generating the distance map 220 at the time of shooting.

次に、撮影画像200と距離マップ220とに基づく立体画像データの生成処理について説明する。図2(D)は、画像の撮影状況と、立体画像データとの関係を示す。250は、生成される立体画像データである。図2(D)に示すように、立体画像データ生成部114は、距離マップ220に基づいて、人物201より遠い領域を立体画像データ250の背景面240とし、背景面240から人物201に奥行きを付ける。立体画像データ生成部114では、背景面変換部113で設定した背景面240を用いて、奥行きを付ける。   Next, stereoscopic image data generation processing based on the captured image 200 and the distance map 220 will be described. FIG. 2D shows the relationship between the image capturing situation and the stereoscopic image data. Reference numeral 250 denotes generated stereoscopic image data. As shown in FIG. 2D, the stereoscopic image data generation unit 114 sets a region farther than the person 201 as the background surface 240 of the stereoscopic image data 250 based on the distance map 220, and sets the depth from the background surface 240 to the person 201. wear. The stereoscopic image data generation unit 114 adds depth using the background surface 240 set by the background surface conversion unit 113.

以下に、図3を参照して、撮影画角の算出処理について説明する。画角情報生成部112は、撮影情報取得部111で取得した撮影情報をもとに、2つの関係式を用いて、撮影画角を算出する。1つ目の関係式は、焦点距離と撮影画角の関係を示す式である。   Hereinafter, with reference to FIG. 3, the calculation process of the shooting angle of view will be described. The angle-of-view information generation unit 112 calculates a shooting angle of view using two relational expressions based on the shooting information acquired by the shooting information acquisition unit 111. The first relational expression is an expression showing the relation between the focal length and the shooting angle of view.

図3は、撮影情報に含まれるイメージセンササイズと、焦点距離と、撮影画角との関係を説明する図である。
図3の301は撮像部108を構成するイメージセンサであり、Xはイメージセンサの垂直方向のサイズである。302は撮像部108を構成するレンズであり、Fはレンズからイメージセンサまでの距離を示す焦点距離である。θは撮影画角である。
FIG. 3 is a diagram illustrating the relationship among the image sensor size, the focal length, and the shooting angle of view included in the shooting information.
Reference numeral 301 in FIG. 3 denotes an image sensor that constitutes the imaging unit 108, and X denotes a vertical size of the image sensor. Reference numeral 302 denotes a lens constituting the imaging unit 108, and F denotes a focal length indicating a distance from the lens to the image sensor. θ is a shooting angle of view.

図3より、撮影画角θと焦点距離F、イメージセンサ垂直サイズXは次式で表せる。
tan(θ/2)=X/(2×F) ・・・式1
上記の式1は後述するレンズの特性により、関係式が変化する。式1では一般的なレンズに用いられる、平射影方式の場合の関係式を示している。上記の関係式より、撮影画角θについて表すと次式になり、次式より撮影画角を算出する。
θ=180/π×2arctan(X/(2×F))[度] ・・・式2
画角情報生成部112は、水平方向の撮影画角を、垂直方向の撮影画角と同様の算出方法で算出する。
From FIG. 3, the shooting angle of view θ, the focal length F, and the image sensor vertical size X can be expressed by the following equations.
tan (θ / 2) = X / (2 × F) Equation 1
In the above formula 1, the relational expression changes depending on the characteristics of the lens described later. Expression 1 shows a relational expression in the case of the flat projection method used for a general lens. From the above relational expression, the shooting angle of view θ is expressed as follows, and the shooting angle of view is calculated from the following expression.
θ = 180 / π × 2 arctan (X / (2 × F)) [degrees] Equation 2
The angle-of-view information generation unit 112 calculates the horizontal shooting angle of view by the same calculation method as the vertical shooting angle of view.

2つ目の関係式は、レンズ特性と撮影画角の関係を示す式である。以下に、レンズの特性と種類について述べる。図4は、レンズの特性を説明する図である。
一般的にレンズの種類は射影方式によって定義される。図4を参照して、射影方式の原理、特に、正射影方式の原理を説明する。半球面Gは、レンズによって結像面上に結像される画像の範囲を直径とした仮想球面である。ここで、すべての射影方式において、画像の中心Oが球面Gの天頂に相当する。そして、画像内の一点P(これを像点と呼ぶ)に着目する。それぞれの射影方式による画像における中心Oからその像点Pまでの距離(これを像高と呼ぶ)は入射光の天頂角(入射角と呼ぶ)と特定の関係がある。
The second relational expression is an expression showing the relationship between the lens characteristics and the shooting angle of view. The characteristics and types of lenses will be described below. FIG. 4 is a diagram illustrating the characteristics of the lens.
In general, the type of lens is defined by the projection method. With reference to FIG. 4, the principle of the projection method, in particular, the principle of the orthographic projection method will be described. The hemispherical surface G is a virtual spherical surface whose diameter is a range of an image formed on the imaging surface by the lens. Here, the center O of the image corresponds to the zenith of the spherical surface G in all projection methods. Then, pay attention to one point P (referred to as an image point) in the image. The distance (referred to as image height) from the center O to the image point P in each projection method image has a specific relationship with the zenith angle (referred to as the incident angle) of the incident light.

像高をrp、入射角をφとしてその関係を数式で表す。
(a)等距離射影方式(Equidistant Projection)
像高rpは、入射角φに比例する。一般的な魚眼レンズに多い。
rp∝φ ・・・式3
(b)平射影方式(Stereographic Projection)
像高rpは、入射角φの半角の正接に比例する。一般的なレンズに用いられることが多い。
rp∝tan(φ/2) ・・・式4
(c)等立体角射影方式(Equisolidangle Projection)
像高rpは、入射角φの半角の正弦に比例する。
rp∝sin(φ/2) ・・・式5
被写体のとる立体角と像の面積とが比例するという特徴があり、画面上の面積を測定することで、被写体の面積比を正しく算出できる。この特徴が、全天の雲量測定や森林の植生分布などの測量に利用される。
(d)正射影方式(Orthographic Projection)
像高rpは、入射角φの正弦に比例する。
rp∝sinφ ・・・式6
The relationship is expressed by a mathematical expression where the image height is rp and the incident angle is φ.
(A) Equidistant projection method (Equidistant Projection)
The image height rp is proportional to the incident angle φ. Many common fisheye lenses.
rp∝φ ... Formula 3
(B) Stereographic Projection (Stereographic Projection)
The image height rp is proportional to the tangent of the half angle of the incident angle φ. It is often used for general lenses.
rp∝tan (φ / 2) Equation 4
(C) Equi-solid angle projection method
The image height rp is proportional to the half sine of the incident angle φ.
rp∝sin (φ / 2) Equation 5
The feature is that the solid angle taken by the subject is proportional to the area of the image, and the area ratio of the subject can be calculated correctly by measuring the area on the screen. This feature is used for surveying the amount of cloud cover and the distribution of forest vegetation.
(D) Orthographic Projection (Orthographic Projection)
The image height rp is proportional to the sine of the incident angle φ.
rp∝sinφ ・ ・ ・ Formula 6

式6で示す関係は、天球をそのままフィルム面、像側に射影したものに等しい。画面に占める面光源の面積が撮影した場所での照度に比例という特徴があり、これより照度測定や建築照明など学術研究用途に利用されることが多い。
式1のイメージセンサ垂直サイズX/2は、像高rpの最大値を示しているので、X/2=rpに置き換えると、次式となる。
rp=F・tan(θ/2) ・・・式7
式4と同様に、入射角φ、つまり撮影画角θは、レンズ特性である撮影画角θの正接及び、焦点距離F、イメージセンササイズrpによって、撮影画角θが変化することがわかる。像高と入射角には、レンズ特性に合わせて前述したような関係式が成り立つ。画角情報生成部112は、撮影情報取得部111で取得した撮影情報であるイメージセンササイズと、焦点距離と、レンズ特性とのうち、少なくともいずれか1つに基づいて、撮影画角を算出する。
The relationship expressed by Equation 6 is equivalent to the celestial sphere projected directly onto the film surface and the image side. It is characterized by the fact that the area of the surface light source occupying the screen is proportional to the illuminance at the location where the image was taken.
Since the image sensor vertical size X / 2 in Expression 1 indicates the maximum value of the image height rp, when it is replaced with X / 2 = rp, the following expression is obtained.
rp = F · tan (θ / 2) Equation 7
Similar to Equation 4, it can be seen that the incident angle φ, that is, the photographing field angle θ, varies depending on the tangent of the photographing field angle θ, which is the lens characteristic, the focal length F, and the image sensor size rp. For the image height and the incident angle, the above-described relational expression is established according to the lens characteristics. The angle-of-view information generation unit 112 calculates a shooting angle of view based on at least one of the image sensor size, the focal length, and the lens characteristics that are the shooting information acquired by the shooting information acquisition unit 111. .

図5は、背景面変換部による撮影画角から背景面への変換処理を説明する図である。
図5(A)の501は、撮影画角を示す。502は、水平方向の撮影画角を示す。また、503は、垂直方向の撮影画角を示す。504は、背景面変換部113が変換した背景面を示す。背景面変換部113は、撮影画角が閾値より大きい場合に、図5に示すように撮影画角(角度)から平面球面変換を行う。これにより、背景面を曲面に設定する。また、撮影画角が閾値より小さい場合は、背景面を平面に設定する。
FIG. 5 is a diagram for explaining the conversion process from the shooting angle of view to the background plane by the background plane conversion unit.
Reference numeral 501 in FIG. 5A denotes a shooting angle of view. Reference numeral 502 denotes a horizontal field of view. Reference numeral 503 denotes a vertical field of view. Reference numeral 504 denotes a background surface converted by the background surface conversion unit 113. When the shooting field angle is larger than the threshold, the background surface conversion unit 113 performs planar spherical conversion from the shooting field angle (angle) as shown in FIG. This sets the background surface to a curved surface. If the shooting angle of view is smaller than the threshold, the background surface is set to a plane.

平面球面変換について、図5(B),(C)を用いて説明する。図5(B)は、仮想的な球面上に設けられた撮影領域を示す図である。中心Oが、撮影時のデジタルカメラ100の位置である。Sは、撮影画角501の中心を示す。   Planar spherical transformation will be described with reference to FIGS. FIG. 5B is a diagram illustrating an imaging region provided on a virtual spherical surface. The center O is the position of the digital camera 100 at the time of shooting. S indicates the center of the shooting angle of view 501.

図5(C)は、図5(B)に示す球面を撮影画角501の中心Sを通る水平軸上の面で切り出したときの平面図である。図5(C)のOは、球の中心を示す。rは、球の半径を示す。Pは、撮影画角内の座標を示す。三角形OPSと三角形OP’S’とは、相似であり、撮影画角内の点P(x、y)から球面状の点P’(x’、y’)を算出することが可能である。背景面変換部113は、撮影画角の範囲内で点P(x、y)を移動させ、球面上の座標点P’(x’、y’)を算出することで、背景面を球面に変換する。   FIG. 5C is a plan view when the spherical surface shown in FIG. 5B is cut out by a plane on the horizontal axis passing through the center S of the shooting angle of view 501. O in FIG. 5C indicates the center of the sphere. r indicates the radius of the sphere. P indicates coordinates within the shooting angle of view. The triangle OPS and the triangle OP ′S ′ are similar, and a spherical point P ′ (x ′, y ′) can be calculated from the point P (x, y) within the shooting angle of view. The background surface conversion unit 113 moves the point P (x, y) within the range of the shooting angle of view, and calculates the coordinate point P ′ (x ′, y ′) on the spherical surface, thereby making the background surface a spherical surface. Convert.

図6は、背景面に曲面を設定した場合の立体画像データの生成処理を説明する図である。
図6(A)の600は、撮影画角が180度で撮影可能な円周魚眼レンズ(等距離射影方式のレンズ)で撮影した場合に得られる画像データを示す。点601は、画像中心であり、デジタルカメラ100の撮影方向の中心である。円602の内部が、円周魚眼レンズを通った光をイメージセンサで取り込んだ領域である。撮影画角が180度であるので、円602に沿った領域には、デジタルカメラの撮影方向から90度の領域が撮影されている。また、等距離射影方式のレンズを用いるので、円603には60度の領域が撮影されている。また、円604には、30度の領域が撮影されている。
FIG. 6 is a diagram for explaining a process of generating stereoscopic image data when a curved surface is set on the background surface.
Reference numeral 600 in FIG. 6A indicates image data obtained when a circumferential fisheye lens (equal distance projection type lens) that can be photographed at a photographing field angle of 180 degrees is photographed. A point 601 is the center of the image, and is the center of the shooting direction of the digital camera 100. The inside of the circle 602 is an area in which light that has passed through the circumferential fisheye lens is captured by the image sensor. Since the field angle of view is 180 degrees, an area 90 degrees from the photographing direction of the digital camera is photographed in the area along the circle 602. In addition, since an equidistance projection type lens is used, an area of 60 degrees is photographed on the circle 603. Further, an area of 30 degrees is photographed in the circle 604.

図6(B)の610は、画像データ600を用いた立体画像データの背景面を示す。撮影画角が180度であるので、背景面610は、180度の半球となっている。図6(B)の点611は、背景面610における図6(A)の点601に対応する点である。点615は、背景面610における図6(A)の点605に対応する点である。   Reference numeral 610 in FIG. 6B denotes a background surface of stereoscopic image data using the image data 600. Since the shooting angle of view is 180 degrees, the background surface 610 is a hemisphere of 180 degrees. A point 611 in FIG. 6B corresponds to the point 601 in FIG. 6A on the background surface 610. A point 615 corresponds to the point 605 in FIG. 6A on the background surface 610.

点620は、背景面610の半球の中心であり、デジタルカメラ100の撮影位置である。点611は、画像データ600の画像中心の点601と対応している。したがって、矢印630の方向を中心として撮影を行ったことになる。立体画像データ生成部114は、背景面610上の各領域から中心620に向かって、深度情報に基づいて奥行きを付ける。点615に対応する領域を例にとると、立体画像データ生成部114は、矢印625の方向に向かって奥行き付けを行う。これにより、画像データに対応する被写体が、深度情報が示す深さに応じて、背景面から突出する。立体画像データ生成部114は、奥行き付けの処理を背景面610の全領域に対して行うことで、立体画像データを生成する。   A point 620 is the center of the hemisphere of the background surface 610 and is the shooting position of the digital camera 100. A point 611 corresponds to a point 601 at the center of the image data 600. Therefore, photographing is performed with the direction of the arrow 630 as the center. The stereoscopic image data generation unit 114 adds a depth from each region on the background surface 610 toward the center 620 based on the depth information. Taking the region corresponding to the point 615 as an example, the stereoscopic image data generation unit 114 performs depthing in the direction of the arrow 625. Accordingly, the subject corresponding to the image data protrudes from the background surface according to the depth indicated by the depth information. The stereoscopic image data generation unit 114 generates stereoscopic image data by performing depthing processing on the entire area of the background surface 610.

図7は、立体画像データの生成処理を説明するフローチャートである。
ステップS701において、システム制御部101が、撮影画像とデフォーカス量をDRAM106に格納する。また、撮影情報取得部111が、撮像部108より撮影情報を取得し、DRAM106に格納する。続いて、ステップS702において、深度情報生成部110が、撮影画像に対応する深度情報を生成する。例えば、深度情報生成部110は、ステップS701で取得されたデフォーカス量を用いて、距離マップを生成する。
FIG. 7 is a flowchart for describing the generation processing of stereoscopic image data.
In step S <b> 701, the system control unit 101 stores the captured image and the defocus amount in the DRAM 106. Further, the shooting information acquisition unit 111 acquires shooting information from the imaging unit 108 and stores it in the DRAM 106. Subsequently, in step S702, the depth information generation unit 110 generates depth information corresponding to the captured image. For example, the depth information generation unit 110 generates a distance map using the defocus amount acquired in step S701.

次に、ステップS703において、画角情報生成部112が、撮影情報取得部111によって取得された撮影情報に基づいて、撮影画像に対応する撮影画角を生成する。続いて、ステップS704において、背景面変換部113が、ステップS703で生成された撮影画角が閾値より大きいかを判断する。撮影画角が閾値より大きい場合は、処理がステップS705に進む。撮影画角が閾値以下である場合は、処理がステップS706に進む。続いて、ステップS705において、背景面変換部113が、生成された撮影画角に基づいて、曲面を算出し、立体画像データの背景を算出した曲面として設定する。そして、処理がステップS707に進む。ステップS706において、背景面変換部113が、立体画像データの背景を平面として設定する。そして、処理がステップS707に進む。ステップS707において、立体画像データ生成部114が、背景面変換部113が設定した背景面を用いて立体画像データを生成する。   Next, in step S <b> 703, the view angle information generation unit 112 generates a shooting angle of view corresponding to the shot image based on the shooting information acquired by the shooting information acquisition unit 111. Subsequently, in step S704, the background surface conversion unit 113 determines whether the shooting angle of view generated in step S703 is larger than a threshold value. If the shooting angle of view is larger than the threshold, the process proceeds to step S705. If the shooting angle of view is equal to or smaller than the threshold, the process proceeds to step S706. Subsequently, in step S705, the background surface conversion unit 113 calculates a curved surface based on the generated shooting angle of view, and sets the background of the stereoscopic image data as the calculated curved surface. Then, the process proceeds to step S707. In step S706, the background surface conversion unit 113 sets the background of the stereoscopic image data as a plane. Then, the process proceeds to step S707. In step S707, the stereoscopic image data generation unit 114 generates stereoscopic image data using the background surface set by the background surface conversion unit 113.

なお、本実施形態では、立体画像データを実体として出力する方式として、3Dプリンタによる出力方式を採用するが、従来技術で採用している他の方式で立体画像を出力してもよい。また、本発明は、外部で撮影された画像と、その深度情報とを入力して、立体画像データを出力する3Dプリンタなどの出力装置や、コンピュータ上のプログラムにも適用可能である。   In this embodiment, a 3D printer output method is employed as a method for outputting stereoscopic image data as an entity, but a stereoscopic image may be output by another method employed in the prior art. The present invention is also applicable to an output device such as a 3D printer that inputs an externally captured image and depth information thereof and outputs stereoscopic image data, and a program on a computer.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
101 システム制御部
100 Digital Camera 101 System Control Unit

Claims (11)

画像データに対応する立体画像データを生成する画像処理装置であって、
前記画像データと、前記画像データに対応する被写体の奥行き方向の深さを示す深度情報とを取得する第1の取得手段と、
前記画像データに対応する撮影画角に応じて、前記立体画像データの背景面を設定する設定手段と、
前記背景面を用いて、前記画像データと前記深度情報とに基づいて、前記立体画像データを生成する生成手段とを備える
ことを特徴とする画像処理装置。
An image processing apparatus that generates stereoscopic image data corresponding to image data,
First acquisition means for acquiring the image data and depth information indicating the depth of the subject corresponding to the image data;
Setting means for setting a background surface of the stereoscopic image data according to a shooting angle of view corresponding to the image data;
An image processing apparatus comprising: generating means for generating the stereoscopic image data based on the image data and the depth information using the background surface.
前記撮影情報を取得する第2の取得手段と、
前記撮影情報に基づいて、前記撮影画角を算出する算出手段とを備え、
前記設定手段は、前記算出された撮影画角に応じて、前記背景面を設定する
ことを特徴とする請求項1に記載の画像処理装置。
Second acquisition means for acquiring the imaging information;
Calculating means for calculating the shooting angle of view based on the shooting information;
The image processing apparatus according to claim 1, wherein the setting unit sets the background surface according to the calculated shooting angle of view.
前記第2の取得手段は、前記撮影情報として、撮像素子のサイズ、焦点距離、またはレンズ特性のうちの少なくともいずれかを取得する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the second acquisition unit acquires at least one of a size, a focal length, and lens characteristics of the image sensor as the shooting information.
前記設定手段は、
前記撮影画角が閾値より大きいかを判断し、
前記撮影画角が前記閾値より大きい場合に、前記背景面を曲面に設定する
ことを特徴とする請求項2または請求項3に記載の画像処理装置。
The setting means includes
Determining whether the angle of view is greater than a threshold;
The image processing apparatus according to claim 2, wherein the background surface is set to be a curved surface when the shooting angle of view is larger than the threshold value.
前記設定手段は、前記撮影画角が前記閾値以下である場合に、前記背景面を平面に設定する
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the setting unit sets the background surface to a plane when the shooting angle of view is equal to or less than the threshold value.
前記生成手段は、前記背景面から、前記画像データの領域毎に前記深度情報が示す深さに応じた奥行きを付けることによって、前記立体画像データを生成する
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The said generation | production means produces | generates the said stereo image data by attaching | subjecting the depth according to the depth which the said depth information shows for every area | region of the said image data from the said background surface. The image processing apparatus according to any one of the above.
前記生成手段は、前記画像データに対応する被写体を、前記深度情報が示す深さに応じて、前記背景面から突出させる
ことを特徴とする請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the generation unit causes a subject corresponding to the image data to protrude from the background surface according to a depth indicated by the depth information.
前記深度情報は、撮影される複数の視点画像の視差量に基づく像ずれマップ、デフォーカス量に基づくデフォーカスマップ、画像データにおける各被写体の相対的な距離関係を示す距離マップ、またはTOF法により取得された、被写体までの距離を示す距離情報のうちのいずれかである
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The depth information is obtained by an image shift map based on the amount of parallax of a plurality of viewpoint images to be photographed, a defocus map based on a defocus amount, a distance map indicating a relative distance relationship between subjects in image data, or a TOF method. The image processing apparatus according to claim 1, wherein the image processing apparatus is any one of acquired distance information indicating a distance to a subject.
被写体光を光電変換して前記画像データを出力する撮像素子を備える
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置として機能する撮像装置。
An image pickup apparatus that functions as an image processing apparatus according to claim 1, further comprising: an image pickup device that photoelectrically converts subject light and outputs the image data.
画像データに対応する立体画像データを生成する画像処理装置の制御方法であって、
前記画像データと、前記画像データに対応する被写体の奥行き方向の深さを示す深度情報とを取得する工程と、
前記画像データに対応する撮影画角に応じて、前記立体画像データの背景面を設定する工程と、
前記背景面を用いて、前記画像データと前記深度情報とに基づいて、前記立体画像データを生成する工程とを有する
ことを特徴とする制御方法。
A control method of an image processing apparatus for generating stereoscopic image data corresponding to image data,
Obtaining the image data and depth information indicating a depth in a depth direction of a subject corresponding to the image data;
Setting a background surface of the stereoscopic image data according to a shooting angle of view corresponding to the image data;
And a step of generating the stereoscopic image data based on the image data and the depth information using the background surface.
コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置が備える各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit included in the image processing apparatus according to any one of claims 1 to 7.
JP2016223925A 2016-11-17 2016-11-17 Image processing device, imaging apparatus, and control method Pending JP2018081534A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016223925A JP2018081534A (en) 2016-11-17 2016-11-17 Image processing device, imaging apparatus, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016223925A JP2018081534A (en) 2016-11-17 2016-11-17 Image processing device, imaging apparatus, and control method

Publications (1)

Publication Number Publication Date
JP2018081534A true JP2018081534A (en) 2018-05-24

Family

ID=62198989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016223925A Pending JP2018081534A (en) 2016-11-17 2016-11-17 Image processing device, imaging apparatus, and control method

Country Status (1)

Country Link
JP (1) JP2018081534A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7435592B2 (en) 2019-03-27 2024-02-21 ソニーグループ株式会社 Image processing device, image processing method, program, imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7435592B2 (en) 2019-03-27 2024-02-21 ソニーグループ株式会社 Image processing device, image processing method, program, imaging device
US11985420B2 (en) 2019-03-27 2024-05-14 Sony Group Corporation Image processing device, image processing method, program, and imaging device

Similar Documents

Publication Publication Date Title
US10425638B2 (en) Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
TWI692967B (en) Image device
CN108432230B (en) Imaging device and method for displaying an image of a scene
JP2017112602A (en) Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
EP3480648B1 (en) Adaptive three-dimensional imaging system
US20150358597A1 (en) Systems And Methods For Obtaining Image Depth Information
JP7378219B2 (en) Imaging device, image processing device, control method, and program
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
US10356381B2 (en) Image output apparatus, control method, image pickup apparatus, and storage medium
WO2021104308A1 (en) Panoramic depth measurement method, four-eye fisheye camera, and binocular fisheye camera
JP5929037B2 (en) Imaging device
KR20200124271A (en) Imaging device, image processing device, and image processing method
CN108881717A (en) A kind of Depth Imaging method and system
JP2010276433A (en) Imaging device, image processor, and distance measuring device
CN111213364A (en) Shooting equipment control method, shooting equipment control device and shooting equipment
KR20220121533A (en) Method and device for restoring image obtained from array camera
JP2011211551A (en) Image processor and image processing method
JP2018081534A (en) Image processing device, imaging apparatus, and control method
Ueno et al. Compound-Eye Camera Module as Small as 8.5$\times $8.5$\times $6.0 mm for 26 k-Resolution Depth Map and 2-Mpix 2D Imaging
TWM594322U (en) Camera configuration system with omnidirectional stereo vision
CN115393555A (en) Three-dimensional image acquisition method, terminal device and storage medium
KR20200033601A (en) Apparatus and method for processing image
JP2016131297A (en) Stereoscopic image generation device, stereoscopic image generation method and program
JP2016099322A (en) Imaging device, control method of imaging device, and program