JP2018042106A - Image output device, image output method, and imaging apparatus - Google Patents

Image output device, image output method, and imaging apparatus Download PDF

Info

Publication number
JP2018042106A
JP2018042106A JP2016174835A JP2016174835A JP2018042106A JP 2018042106 A JP2018042106 A JP 2018042106A JP 2016174835 A JP2016174835 A JP 2016174835A JP 2016174835 A JP2016174835 A JP 2016174835A JP 2018042106 A JP2018042106 A JP 2018042106A
Authority
JP
Japan
Prior art keywords
depth information
image data
image
information
image output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016174835A
Other languages
Japanese (ja)
Other versions
JP6772006B2 (en
Inventor
田中 裕樹
Hiroki Tanaka
裕樹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016174835A priority Critical patent/JP6772006B2/en
Publication of JP2018042106A publication Critical patent/JP2018042106A/en
Application granted granted Critical
Publication of JP6772006B2 publication Critical patent/JP6772006B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image output device capable of, when representing multiple subjects that are photographed in a picked-up image, in a stereoscopic manner, efficiently representing the multiple subjects in the stereoscopic manner within a range of an upper limit value for thickness of a device that outputs a stereoscopic image.SOLUTION: The present invention relates to an image output device 100 comprising: acquisition means for acquiring image data including multiple subjects; generation means 111 for generating depth information corresponding to distances of the multiple subjects in the image data; detection means 110 for detecting feature information for each of regions of the multiple subjects in the image data; conversion means 112 for converting the generated depth information into depth information based on the feature information that is detected for each region; and output means 113 for outputting stereoscopic image data based on the image data and the depth information.SELECTED DRAWING: Figure 1

Description

本発明は、画像出力装置、画像出力方法、及び撮像装置に関し、特に入力された画像と距離情報から立体画像を出力する画像出力装置に関する。   The present invention relates to an image output apparatus, an image output method, and an imaging apparatus, and more particularly to an image output apparatus that outputs a stereoscopic image from an input image and distance information.

近年、樹脂や石膏粉末などの記録材を積層することで立体を造形する装置である、3Dプリンタが広く普及し始めている。そして、この3Dプリンタを用いて、撮影画像と、その奥行きを示す距離情報を元に、撮影画像を立体的なレリーフ、すなわち立体画像を出力する装置やシステムが提供されるようになった。立体画像を出力する方法としては、3Dプリンタ以外にも、熱膨張性シートを熱変形させることで立体を造形する方法や、型押し印刷やエンボス加工印刷や、レーザー彫刻など様々なものが提供されている。いずれの出力方法も、出力する立体画像の厚さに上限値があったり、厚みをつけるほど多くの記録材を積層するためにコストが掛かる恐れがある。3Dプリンタは、他の方式に比べて厚さの最大高低差が大きいので、立体画像をそのまま出力が可能となるが、大量の記録材を必要とする。   2. Description of the Related Art In recent years, 3D printers, which are apparatuses that form a three-dimensional object by laminating recording materials such as resin and gypsum powder, have started to be widely used. Then, using this 3D printer, an apparatus and a system for outputting a three-dimensional relief of a photographed image, that is, a three-dimensional image, based on a photographed image and distance information indicating the depth have been provided. In addition to 3D printers, there are various 3D printer output methods, such as a method of forming a 3D by thermally deforming a thermally expandable sheet, embossing printing, embossing printing, and laser engraving. ing. In any of the output methods, there is a fear that there is an upper limit on the thickness of the stereoscopic image to be output, and that the cost increases because more recording materials are stacked as the thickness is increased. A 3D printer has a large maximum height difference compared to other methods, so that a 3D image can be output as it is, but a large amount of recording material is required.

そこで、特許文献1および特許文献2では、厚さの上限値がある立体画像出力方法や、厚さを圧縮した際の立体画像出力方法について記載されている。具体的には、特許文献1では、隣り合う複数の被写体の境界線を実際より差が際立つように立体出力を行う方法が開示されている。つまり、奥行き方向に手前の人物1と奥の人物2の境界において、人物1の境界を実際より手前になるよう、人物2の境界を実際より奥になるよう立体出力する方法が開示されている。境界の厚さの差分を大きくすることで、厚さを圧縮した場合でも、被写体ごとの奥行き方向の位置関係を強調することが可能となる。また、特許文献2では、厚さの上限値がある立体画像の出力方法において、画素毎の高さを厚さの上限値で除して、その剰余に画素の高さを置き換えて、立体画像を出力することで、厚さの上限値に収まるような方法を開示している。   Therefore, Patent Document 1 and Patent Document 2 describe a stereoscopic image output method having an upper limit value of the thickness and a stereoscopic image output method when the thickness is compressed. Specifically, Patent Document 1 discloses a method of performing a three-dimensional output so that a difference between the boundaries of a plurality of adjacent subjects is more conspicuous than the actual one. In other words, a method is disclosed in which a three-dimensional output is performed so that the boundary of the person 1 is closer to the front than the actual boundary at the boundary between the person 1 and the rear person 2 in the depth direction. . By increasing the boundary thickness difference, it is possible to emphasize the positional relationship in the depth direction for each subject even when the thickness is compressed. Further, in Patent Document 2, in a stereoscopic image output method having an upper limit value of thickness, the height of each pixel is divided by the upper limit value of thickness, and the height of the pixel is replaced with the remainder to obtain a stereoscopic image. Is output so that the value falls within the upper limit of the thickness.

特開2008−213320号公報JP 2008-213320 A 特許第4998317号公報Japanese Patent No. 4998317

しかしながら、従来の立体画像の出力装置では、複数の注目被写体が写った撮影画像を立体画像として出力する際に、記録材を多く消費してしまったり、厚さの上限があるなかでは最適な立体表現を得られないことがあった。例えば、特許文献1の装置では、境界線を際立たせることができるが、被写体自身の立体感、つまり被写体内の凹凸は圧縮されているので立体感を十分に表現することが難しい。また、特許文献2の装置では、z軸方向の高さがなだらかに変化する領域が、厚さの上限値で割り切れる毎に高さがノコギリ状に変化してしまうので、人物などの被写体を立体的に表現すると見た目の違和感が大きい立体画像となってしまう。   However, the conventional stereoscopic image output device consumes a large amount of recording material when outputting a captured image including a plurality of objects of interest as a stereoscopic image, or is an optimal stereoscopic image within the upper limit of the thickness. Sometimes I couldn't get an expression. For example, in the apparatus of Patent Document 1, the boundary line can be emphasized, but it is difficult to sufficiently express the stereoscopic effect because the stereoscopic effect of the subject itself, that is, the unevenness in the subject is compressed. Further, in the apparatus of Patent Document 2, the area where the height in the z-axis direction changes gradually changes in a sawtooth shape every time it is divisible by the upper limit value of the thickness. If expressed in terms of expression, it will result in a stereoscopic image with a large discomfort.

本発明は、上記課題を鑑みて、撮影画像に写った複数の被写体を立体表現する際に、立体画像を出力する装置の厚さの上限値の範囲内で複数の被写体を効率よく立体表現することができる画像出力装置を提供することを目的とする。   In view of the above problems, the present invention efficiently expresses a plurality of subjects within the range of the upper limit value of the thickness of an apparatus that outputs a stereoscopic image when the subjects are captured in a stereoscopic manner. It is an object of the present invention to provide an image output apparatus that can perform the above-described process.

上記の課題を解決するために、本発明の画像出力装置は、複数の被写体を含む画像データを取得する取得手段と、前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成手段と、前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出手段と、前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換手段と、前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力手段と、を備えることを特徴とする。   In order to solve the above-described problem, an image output apparatus according to the present invention includes an acquisition unit that acquires image data including a plurality of subjects, and generation that generates depth information corresponding to the distance between the plurality of subjects in the image data. Means for detecting feature information for each region of the plurality of subjects in the image data; and converting the generated depth information into depth information based on the detected feature information for each region. Conversion means for outputting, and output means for outputting stereoscopic image data based on the image data and the depth information.

本発明によれば、撮影画像に写った複数の被写体を立体表現する際に、立体画像を出力する装置の厚さの上限値の範囲内で複数の被写体を効率よく立体表現することができる画像出力装置を提供することができる。   According to the present invention, when a plurality of subjects appearing in a captured image are three-dimensionally represented, an image that can efficiently represent a plurality of subjects three-dimensionally within the range of the upper limit value of the thickness of a device that outputs a three-dimensional image. An output device can be provided.

実施例の立体画像データ出力機能付きデジタルカメラのブロック図である。It is a block diagram of a digital camera with a stereoscopic image data output function of an embodiment. 撮影画像と距離情報と立体出力を例示した概略図である。It is the schematic which illustrated the picked-up image, distance information, and three-dimensional output. 撮影画像と距離情報と立体出力を例示した概略図である。It is the schematic which illustrated the picked-up image, distance information, and three-dimensional output. 立体出力を生成するフローを示すフローチャートである。It is a flowchart which shows the flow which produces | generates a solid output. 距離情報変換部のブロック図である。It is a block diagram of a distance information conversion part. 生成した立体出力データを例示した概略図である。It is the schematic which illustrated the produced | generated solid output data. 厚さ情報を反映した立体出力データを例示した概略図である。It is the schematic which illustrated the solid output data reflecting thickness information. 特徴の関係を反映した立体出力データを例示した概略図である。It is the schematic which illustrated the solid output data which reflected the relationship of the characteristic.

以下、本発明を実施するための最良の形態について図面などを参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

本実施形態に係る立体画像データ出力機能付きデジタルカメラの構成について図1を参照して説明する。図1に示すデジタルカメラ(画像出力装置)100は、立体画像データ出力機能付きデジタルカメラ本体である。内部バス102は、各ブロックを接続する内部バスである。システム制御部101は、内部バス102で接続された各ブロックの制御を行う。FLASHメモリコントローラ103は、システム制御部101からの要求に基づき、FLASHメモリ104に対する不揮発性データの読み書きを行う。システム制御部101は、FLASHメモリ104に格納されたプログラムを元に動作し、撮影した画像などの不揮発性データをFLASHメモリ104に格納する。DRAMコントローラ105は、各ブロックからの要求に基づきDRAM106に対するデータの読み書きを行う。システム制御部101や各ブロックは、動作中の一時データなどのDRAM106に格納して用いる。   A configuration of a digital camera with a stereoscopic image data output function according to the present embodiment will be described with reference to FIG. A digital camera (image output device) 100 shown in FIG. 1 is a digital camera body with a stereoscopic image data output function. The internal bus 102 is an internal bus that connects each block. The system control unit 101 controls each block connected by the internal bus 102. The FLASH memory controller 103 reads / writes nonvolatile data from / to the FLASH memory 104 based on a request from the system control unit 101. The system control unit 101 operates based on a program stored in the FLASH memory 104 and stores non-volatile data such as a captured image in the FLASH memory 104. The DRAM controller 105 reads and writes data to and from the DRAM 106 based on requests from each block. The system control unit 101 and each block are used by being stored in the DRAM 106 such as temporary data during operation.

操作部107は、デジタルカメラの外装に設けられたボタン等で構成され、使用者はそれを操作することで、システム制御部101へ指示を伝えることができる。撮像部108は、被写体を撮影する撮像部である。また、撮像部108は、被写体の光学像を取り込むレンズ及び光学像を電気信号に変換するCCDやCMOS素子等のイメージセンサで構成される。イメージセンサでは、取り込んだ光学像の領域毎のピントのずれ量、つまりデフォーカス量を測定する。   The operation unit 107 is configured by buttons or the like provided on the exterior of the digital camera, and the user can transmit instructions to the system control unit 101 by operating the buttons. The imaging unit 108 is an imaging unit that photographs a subject. The imaging unit 108 includes a lens that captures an optical image of a subject and an image sensor such as a CCD or a CMOS element that converts the optical image into an electrical signal. The image sensor measures the amount of focus shift, that is, the defocus amount for each area of the captured optical image.

画像信号処理部109は、システム制御部101の指示に基づき、撮像部108を制御して被写体を撮影して得られた画像データをDRAM106に格納する。また、撮影と同時に、撮像部108で測定したデフォーカス量を、画像データとともにDRAM106に格納する。さらに、画像データを表示用に縮小して、DRAM106に設けた表示用フレームメモリに格納する。特徴検出部(検出手段)110は、DRAM106に格納された画像データから、注目被写体として人物の顔を検出し、その位置とサイズをシステム制御部101に通知する。システム制御部101は、位置とサイズを元に、注目被写体のスコアを付け、最もスコアが高い注目被写体を主被写体として取り扱う。   The image signal processing unit 109 stores the image data obtained by photographing the subject by controlling the imaging unit 108 in the DRAM 106 based on an instruction from the system control unit 101. Simultaneously with the shooting, the defocus amount measured by the imaging unit 108 is stored in the DRAM 106 together with the image data. Further, the image data is reduced for display and stored in a display frame memory provided in the DRAM 106. The feature detection unit (detection unit) 110 detects the face of a person as a target subject from the image data stored in the DRAM 106 and notifies the system control unit 101 of the position and size. The system control unit 101 assigns a score of the subject of interest based on the position and size, and treats the subject of interest with the highest score as the main subject.

厚さ情報取得部114は、外部の3Dプリンタなどの立体出力を実体化する機器の出力する厚さの上限値となる厚さ情報を取得する。距離情報生成部(生成手段)111は、DRAM106に格納された画像データと、デフォーカス量を元に、画像の領域毎の距離マップ(深度情報)を生成して、DRAM106に格納する。距離情報変換部(変換手段)112は、特徴検出部110の結果を元に、システム制御部101の制御に応じて、距離マップを立体出力の奥行き情報に変換する。立体出力生成部(出力手段)113は、DRAM106に格納された画像データと、距離情報変換部112で変換した立体出力の奥行き情報の2つを合わせて、立体画像データとして外部に出力する。出力先として外部の3Dプリンタなどを接続することで、出力した立体画像データを実体化することができる。LCDコントローラ115は、DRAM106に格納された表示用フレームメモリの内容を読み出して、LCD(Liquid Crystal Display)116に表示する。   The thickness information acquisition unit 114 acquires thickness information that is an upper limit value of the thickness output by a device that materializes stereoscopic output such as an external 3D printer. The distance information generation unit (generation unit) 111 generates a distance map (depth information) for each area of the image based on the image data stored in the DRAM 106 and the defocus amount, and stores the distance map in the DRAM 106. The distance information conversion unit (conversion unit) 112 converts the distance map into three-dimensional output depth information according to the control of the system control unit 101 based on the result of the feature detection unit 110. The stereoscopic output generation unit (output unit) 113 combines the two pieces of image data stored in the DRAM 106 and the stereoscopic output depth information converted by the distance information conversion unit 112, and outputs them as stereoscopic image data to the outside. By connecting an external 3D printer or the like as an output destination, the output stereoscopic image data can be materialized. The LCD controller 115 reads the contents of the display frame memory stored in the DRAM 106 and displays the contents on an LCD (Liquid Crystal Display) 116.

なお、図1に示して説明した立体画像データ出力機能付きデジタルカメラの構成は一例であり、以下に説明する動作を実行できるのであれば、本発明に係る立体画像データ出力機能付きデジタルカメラの構成は、図1に示した構成に限定されるものではない。   The configuration of the digital camera with the stereoscopic image data output function illustrated in FIG. 1 is an example, and the configuration of the digital camera with the stereoscopic image data output function according to the present invention can be performed as long as the operations described below can be performed. Is not limited to the configuration shown in FIG.

次に、立体画像データ出力機能付きデジタルカメラ100の立体画像データ出力処理について説明する。まず、図2および図3を参照して、デジタルカメラ100の撮影画像と撮影時に取得する付加情報について説明する。ここで、本実施形態における付加情報とは、撮影画像の距離マップと、撮影画像から検出した特徴情報である。図2(A)は、画像を撮影した時の状況を横から俯瞰した概略図である。デジタルカメラ100はデジタルカメラ本体であって、被写体として人物201と202が、デジタルカメラ100からの異なる距離d1とd2に位置している。軸zはカメラの光軸方向で、軸yは地面に垂直の軸を示している。図2(B)に示す画像200は、デジタルカメラ100を用いて、図2(A)に示した撮影状況により得られた撮影画像である。人物201と202に加えて、背景には樹木203が写っている。なお、軸xは水平方向、軸yは垂直方向の軸を示している。   Next, stereoscopic image data output processing of the digital camera 100 with a stereoscopic image data output function will be described. First, a captured image of the digital camera 100 and additional information acquired at the time of shooting will be described with reference to FIGS. Here, the additional information in the present embodiment is a distance map of the captured image and feature information detected from the captured image. FIG. 2A is a schematic view of the situation when an image is taken as seen from the side. The digital camera 100 is a digital camera body, and persons 201 and 202 as subjects are located at different distances d1 and d2 from the digital camera 100. The axis z is the optical axis direction of the camera, and the axis y is an axis perpendicular to the ground. An image 200 illustrated in FIG. 2B is a captured image obtained using the digital camera 100 according to the capturing state illustrated in FIG. In addition to the persons 201 and 202, a tree 203 is shown in the background. The axis x indicates the horizontal direction, and the axis y indicates the vertical axis.

図2(C)に示す距離マップ220は、図2(A)に示した撮影時に得られた撮影画像200に対する距離マップである。距離マップ220は、撮像部108から取得した画像データの領域毎のデフォーカス量を用いて、距離情報生成部111が生成する。距離マップ220においては、色が濃い領域が手前、薄い領域が奥に位置することを示す。デジタルカメラ100に近い人物201が最も濃く、次いで人物202がやや濃くなっている。   A distance map 220 illustrated in FIG. 2C is a distance map with respect to the captured image 200 obtained at the time of capturing illustrated in FIG. The distance map 220 is generated by the distance information generation unit 111 using the defocus amount for each area of the image data acquired from the imaging unit 108. In the distance map 220, it is shown that a dark color area is located on the near side and a thin area is located on the back side. The person 201 close to the digital camera 100 is the darkest, and then the person 202 is a little darker.

図2(D)は、撮影画像200に対して、特徴検出部110が注目被写体として検出した人物201と202の位置とサイズを枠211と212で囲った図である。本実施形態に係るデジタルカメラ100では、撮影時に図2(B)の撮影画像と、付加情報として図2(C)の距離マップと、図2(D)の特徴情報を取得する。   FIG. 2D is a diagram in which frames 211 and 212 surround the positions and sizes of the persons 201 and 202 detected by the feature detection unit 110 as the subject of interest with respect to the photographed image 200. The digital camera 100 according to the present embodiment acquires the captured image of FIG. 2B, the distance map of FIG. 2C as additional information, and the feature information of FIG.

次に、撮影画像と上記の付加情報を元に行う立体出力処理について説明する。図3は、画像を撮影した時の状況を横から俯瞰した概略図と立体出力の関係を示す図である。距離情報変換部112は、図2(C)に示した距離マップ220を立体出力の奥行き情報に変換する。特徴検出部110が注目被写体として検出した人物201と202の奥行き方向の存在範囲H1を立体化範囲として立体出力の奥行き情報に変換を行う。図3に示すように、人物202より遠い無限遠の領域が背景240となり、人物201と202は奥行きを付けている。立体出力生成部113では、図2(B)に示した撮影画像200と距離情報変換部112で変換した立体出力の奥行き情報を元に立体化を行う。   Next, a description will be given of a stereoscopic output process performed based on the captured image and the additional information. FIG. 3 is a diagram illustrating a relationship between a schematic diagram in which a situation when an image is captured is viewed from the side and a three-dimensional output. The distance information conversion unit 112 converts the distance map 220 shown in FIG. 2C into depth information of stereoscopic output. The feature detection unit 110 converts the existence range H1 in the depth direction of the persons 201 and 202 detected as the subject of interest into a three-dimensional range and converts it into three-dimensional output depth information. As shown in FIG. 3, an infinite region far from the person 202 is the background 240, and the persons 201 and 202 have a depth. The three-dimensional output generation unit 113 performs three-dimensionalization based on the captured image 200 shown in FIG. 2B and the depth information of the three-dimensional output converted by the distance information conversion unit 112.

次に、図4を参照して、本実施形態に係る立体出力データの生成処理について説明する。図4は、システム制御部101の制御に基づき、立体出力生成部113が立体出力を生成する処理を示すフローチャートである。まず、ステップS301では、撮像部108で撮影した信号を、画像信号処理部109を経由して、撮影画像とデフォーカス量をDRAM106に格納する。次に、ステップS302では、ステップS301で取得したデフォーカス量を用いて、距離情報生成部111で撮影画像に対応する距離マップを生成する。次に、ステップS303では、特徴検出部100でDRAM106に格納された撮影画像から、特徴となる被写体およびそれらの位置関係を検出する。   Next, with reference to FIG. 4, processing for generating stereoscopic output data according to the present embodiment will be described. FIG. 4 is a flowchart illustrating a process in which the three-dimensional output generation unit 113 generates a three-dimensional output based on the control of the system control unit 101. First, in step S <b> 301, the captured image and the defocus amount are stored in the DRAM 106 by the signal captured by the imaging unit 108 via the image signal processing unit 109. Next, in step S302, the distance information generation unit 111 generates a distance map corresponding to the captured image using the defocus amount acquired in step S301. In step S303, the feature detection unit 100 detects the subject to be featured and their positional relationship from the captured image stored in the DRAM 106.

次に、ステップS304では、ステップS303で検出した被写体、およびそれらの位置関係に基づいて、距離情報変換部112で予め与えられた最大厚さの制約を満たすように立体出力の奥行き情報に変換する。そして、ステップS305では、距離情報変換部112で変換した立体出力の奥行き情報を基に立体出力生成部113で立体化を行う。立体出力生成部113で生成した立体出力データをDRAM106に格納し、立体出力生成フローを終える。こうして生成された立体出力データは、例えば、背景から順次スライス状に出力することで、接続された外部の3Dプリンタなどで実体化することができる。   Next, in step S304, based on the subject detected in step S303 and their positional relationship, the distance information conversion unit 112 converts the depth information into three-dimensional output so as to satisfy the maximum thickness constraint given in advance. . In step S305, the three-dimensional output generation unit 113 performs three-dimensionalization based on the three-dimensional output depth information converted by the distance information conversion unit 112. The three-dimensional output data generated by the three-dimensional output generation unit 113 is stored in the DRAM 106, and the three-dimensional output generation flow ends. The three-dimensional output data generated in this way can be materialized by, for example, an external 3D printer connected by sequentially outputting the output data in a slice form from the background.

次に、本実施形態に係る距離情報変換部112の変換処理について、図5を用いて詳細に説明する。図5は、距離情報変換部112の構成を示すブロック図である。距離情報変換部112では、図5に示すように、被写体変換部150と、厚さ情報変換部151と、距離比較変換部152を用いて距離マップの変換処理を行う。   Next, the conversion process of the distance information conversion unit 112 according to the present embodiment will be described in detail with reference to FIG. FIG. 5 is a block diagram illustrating a configuration of the distance information conversion unit 112. As shown in FIG. 5, the distance information conversion unit 112 performs distance map conversion processing using a subject conversion unit 150, a thickness information conversion unit 151, and a distance comparison conversion unit 152.

次に、被写体変換部150の処理について、図6を参照して説明する。図6(A)は、画像を撮影した時の状況を横から俯瞰した概略図である。図6(A)に示す奥行きH2は、人物201の奥行き方向の範囲を示し、奥行きH3は、人物202の奥行き方向の範囲を示している。被写体変換部150では、先に示した図2(C)の距離マップ220より、特徴検出部110が検出した人物201、202の奥行きH2、H3の範囲を、人物201、202ごとに各々に対応した2つの立体出力の奥行き情報に変換を行う。図6(B)は、被写体変換部150で変換した立体出力の奥行き情報を用いて人物201と202を立体化したものを横から見た図である。変換した立体出力の奥行き情報を用いて、背景240から人物201と202の各々に対してz軸方向に奥行きH2、H3の奥行きが付けられ、立体化されている。以上のように、被写体変換部150では、距離マップから、特徴検出部110が検出した被写体毎に立体出力の奥行き情報に変換を行う。   Next, the processing of the subject conversion unit 150 will be described with reference to FIG. FIG. 6A is a schematic view of the situation when an image is taken from the side. A depth H <b> 2 illustrated in FIG. 6A indicates a range in the depth direction of the person 201, and a depth H <b> 3 indicates a range in the depth direction of the person 202. In the subject conversion unit 150, the range of the depths H2 and H3 of the persons 201 and 202 detected by the feature detection unit 110 from the distance map 220 of FIG. The depth information of the two three-dimensional outputs is converted. FIG. 6B is a side view of the three-dimensional figures of the persons 201 and 202 using the three-dimensional output depth information converted by the subject conversion unit 150. Using the converted depth information of the three-dimensional output, the depths H2 and H3 are added in the z-axis direction from the background 240 to each of the persons 201 and 202, and are three-dimensionalized. As described above, the subject conversion unit 150 converts the depth map into depth information of a stereoscopic output for each subject detected by the feature detection unit 110.

厚さ情報変換部151および距離比較変換部152について図7および図8を参照して説明する。厚さ情報変換部151および距離比較変換部152では、被写体変換部150で変換した立体出力の奥行き情報に対してさらに変換処理を行う。まず、厚さ情報変換部151の処理について図7を用いて説明する。厚さ情報変換部151では、厚さ情報取得部114で取得した厚さ情報を用いて変換を行う。図7は、変換した立体出力の奥行き情報が厚さの上限値を超えてしまう場合の、立体出力の奥行き情報を変換する方法を示す図である。図7に示す厚さ情報Hは、厚さ情報取得部114で取得した厚さ情報である。距離比較変換部152は、厚さ情報Hと立体出力の奥行き情報H3またはH2との比較結果に応じて、厚さ情報Hの制約に収まるように変換を行う。つまり、取得した厚さ情報Hより立体出力の奥行き情報H3またはH2が大きくなってしまう場合、取得した厚さ情報Hにあわせて、人物201、202ごとに奥行き情報を圧縮し、厚さ情報Hの制約に収まるように変換を行う。本実施形態では、人物201、202の奥行きが厚さの上限値を超えていたため、人物201、202の奥行きが厚さ情報Hより小さくなるように厚さ情報H2及び、H3を圧縮している。   The thickness information conversion unit 151 and the distance comparison conversion unit 152 will be described with reference to FIGS. The thickness information conversion unit 151 and the distance comparison conversion unit 152 further perform conversion processing on the depth information of the stereoscopic output converted by the subject conversion unit 150. First, the processing of the thickness information conversion unit 151 will be described with reference to FIG. The thickness information conversion unit 151 performs conversion using the thickness information acquired by the thickness information acquisition unit 114. FIG. 7 is a diagram illustrating a method for converting the depth information of the stereoscopic output when the converted depth information of the stereoscopic output exceeds the upper limit value of the thickness. The thickness information H illustrated in FIG. 7 is the thickness information acquired by the thickness information acquisition unit 114. The distance comparison conversion unit 152 performs conversion so as to be within the constraints of the thickness information H according to the comparison result between the thickness information H and the depth information H3 or H2 of the three-dimensional output. That is, when the depth information H3 or H2 of the three-dimensional output becomes larger than the acquired thickness information H, the depth information is compressed for each person 201, 202 in accordance with the acquired thickness information H, and the thickness information H Conversion is performed so as to fit within the constraints. In the present embodiment, since the depth of the persons 201 and 202 exceeds the upper limit value of the thickness, the thickness information H2 and H3 are compressed so that the depth of the persons 201 and 202 is smaller than the thickness information H. .

次に、距離比較変換部152の処理について図8を参照して説明する。距離比較変換部152では、特徴の奥行き方向の距離における位置関係を用いて変換を行う。図8は、変換した立体出力の奥行き情報を人物201と202の奥行き方向の距離の位置関係を反映して変換する方法を示す図である。奥行き方向の距離とは、先に示した図2(A)の人物201と202の奥行き方向の位置を示す距離d1とd2である。図2(A)の距離d1とd2からわかるように、人物202に対して、人物201は、z軸方向に近い距離に位置している。しかし、図6(B)に示した立体出力の奥行き情報では、人物201の奥行き情報H2は、人物202の奥行き情報H3より、遠い距離に位置している。そのため、人物201と202の奥行き方向の距離d1とd2を反映して立体出力の奥行き情報の変換を行う。以下に奥行き方向の位置に基づいて立体出力の奥行き情報を変換する方法を3つ説明する。   Next, the processing of the distance comparison conversion unit 152 will be described with reference to FIG. The distance comparison / conversion unit 152 performs conversion using the positional relationship in the distance in the depth direction of the feature. FIG. 8 is a diagram illustrating a method of converting the converted depth information of the three-dimensional output by reflecting the positional relationship between the distances in the depth direction of the persons 201 and 202. The distance in the depth direction is the distances d1 and d2 indicating the positions in the depth direction of the persons 201 and 202 shown in FIG. As can be seen from the distances d1 and d2 in FIG. 2A, the person 201 is located at a distance close to the z-axis direction with respect to the person 202. However, in the depth information of the three-dimensional output shown in FIG. 6B, the depth information H2 of the person 201 is located farther than the depth information H3 of the person 202. Therefore, the depth information of the three-dimensional output is converted by reflecting the distances d1 and d2 of the persons 201 and 202 in the depth direction. Three methods for converting the depth information of the stereoscopic output based on the position in the depth direction will be described below.

1つ目の変換方法では、図8(A)に示すように、人物202の背景240からの高低差より人物201の高低差が大きくなるように人物201の高低差にオフセット(オフセット付加量)501を付け、人物202の高低差より大きくなるように変換を行う。2つ目の図8(B)では、図8(A)とは反対に人物202の高低差にマイナスのオフセットをつけることで人物202の高低差が人物201より小さくなるように変換を行う。3つ目の図8(C)では、人物202の高低差を圧縮比率を変更することで人物201の高低差より小さくなるように変換を行う。上記3つの変換を使い分けたり、組み合わせて用いることで、立体出力の奥行き情報に特徴毎の距離の位置関係を反映する。使い分けとしては、前述の厚さ情報を用いて、厚さの上限値に対して奥行き情報に余裕がある場合は、図8(A)の方法を用いる。反対に、厚さの上限値に近い場合は図8(B)や図8(C)を用いて、厚さの上限値を超えないよう制御する。   In the first conversion method, as shown in FIG. 8A, an offset (offset addition amount) is added to the height difference of the person 201 so that the height difference of the person 201 is larger than the height difference of the person 202 from the background 240. 501 is added, and conversion is performed so as to be larger than the height difference of the person 202. In FIG. 8B, the conversion is performed so that the height difference of the person 202 becomes smaller than that of the person 201 by adding a negative offset to the height difference of the person 202 in contrast to FIG. 8A. In the third part (C) of FIG. 8, the height difference of the person 202 is converted to be smaller than the height difference of the person 201 by changing the compression ratio. By using these three conversions properly or in combination, the positional relationship of the distance for each feature is reflected in the depth information of the three-dimensional output. As for proper use, when the depth information has a margin with respect to the upper limit value of the thickness using the thickness information described above, the method of FIG. 8A is used. On the contrary, when it is close to the upper limit value of the thickness, control is performed so as not to exceed the upper limit value of the thickness by using FIG. 8B or 8C.

なお、本実施形態では、立体出力データを実体として出力する方式として、3Dプリンタを挙げているが、他の方式で立体画像を出力する場合でも、同様の効果が得られる。また、本実施形態では、距離マップをカメラから得た領域毎のデフォーカス量から生成しているが、2眼の撮像系により得た視差画像を用いたり、異なる焦点距離で撮影した複数枚の画像から焦点距離毎の領域を検出するなど他の方法で生成してもよい。また、本実施形態では、画像を撮影する機能を持つデジタルカメラとして説明しているが、外部で撮影された画像と、その距離マップを入力して、立体出力データを出力する3Dプリンタなどの出力装置や、コンピューター上のプログラムであってもよい。   In this embodiment, a 3D printer is cited as a method for outputting stereoscopic output data as an entity, but the same effect can be obtained even when a stereoscopic image is output by another method. In this embodiment, the distance map is generated from the defocus amount for each region obtained from the camera. However, a plurality of images taken at different focal lengths using parallax images obtained by a two-lens imaging system are used. You may produce | generate by another method, such as detecting the area | region for every focal distance from an image. In the present embodiment, the digital camera has a function of capturing an image. However, an externally captured image and its distance map are input and output from a 3D printer or the like that outputs stereoscopic output data. It may be a device or a program on a computer.

また、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。   Moreover, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 デジタルカメラ
111 距離情報生成部
112 距離情報変換部
113 立体出力生成部
DESCRIPTION OF SYMBOLS 100 Digital camera 111 Distance information generation part 112 Distance information conversion part 113 Three-dimensional output generation part

Claims (9)

複数の被写体を含む画像データを取得する取得手段と、
前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成手段と、
前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出手段と、
前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換手段と、
前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力手段と、
を備える
ことを特徴とする画像出力装置。
Acquisition means for acquiring image data including a plurality of subjects;
Generating means for generating depth information corresponding to the distances of the plurality of subjects of the image data;
Detecting means for detecting feature information for each region of the plurality of subjects in the image data;
Conversion means for converting the generated depth information into depth information based on the detected feature information for each region;
Output means for outputting stereoscopic image data based on the image data and the depth information;
An image output apparatus comprising:
前記変換手段は、予め決められた最大厚さの制約を満たすように前記奥行き情報に変換する
ことを特徴とする請求項1に記載の画像出力装置。
The image output apparatus according to claim 1, wherein the conversion unit converts the depth information so as to satisfy a predetermined maximum thickness constraint.
前記生成手段は、前記画像データの領域毎のデフォーカス量を用いて前記深度情報を生成する
ことを特徴とする請求項1または2に記載の画像出力装置。
The image output apparatus according to claim 1, wherein the generation unit generates the depth information by using a defocus amount for each region of the image data.
前記複数の被写体の領域毎の深度情報と前記予め決められた最大厚さを比較する比較手段
をさらに備え、
前記変換手段は、前記比較手段の比較結果に応じて、前記深度情報を前記奥行き情報に変換する
ことを特徴とする請求項2または3に記載の画像出力装置。
Comparing means for comparing depth information for each region of the plurality of subjects with the predetermined maximum thickness,
The image output apparatus according to claim 2, wherein the conversion unit converts the depth information into the depth information according to a comparison result of the comparison unit.
前記変換手段は、前記比較手段の結果に応じて、前記領域毎に厚さ方向にオフセット付加量を付ける
ことを特徴とする請求項4に記載の画像出力装置。
The image output apparatus according to claim 4, wherein the conversion unit adds an offset addition amount in the thickness direction for each region according to the result of the comparison unit.
前記変換手段は、前記比較手段の結果に応じて、前記領域毎に距離の圧縮比率を変更する
ことを特徴とする請求項4に記載の画像出力装置。
The image output apparatus according to claim 4, wherein the conversion unit changes a compression ratio of the distance for each region according to a result of the comparison unit.
前記検出手段は、前記画像から前記特徴情報として、人物の顔を検出する
ことを特徴とする請求項1〜6のいずれか1項に記載の画像出力装置。
The image output apparatus according to claim 1, wherein the detection unit detects a human face as the feature information from the image.
複数の被写体を含む画像データを取得する取得工程と、
前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成工程と、
前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出工程と、
前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換工程と、
前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力工程と、
を有する
ことを特徴とする画像出力方法。
An acquisition step of acquiring image data including a plurality of subjects;
A generation step of generating depth information corresponding to the distances of the plurality of subjects of the image data;
A detection step of detecting feature information for each region of the plurality of subjects in the image data;
A conversion step of converting the generated depth information into depth information based on the detected feature information for each region;
An output step of outputting stereoscopic image data based on the image data and the depth information;
An image output method comprising:
請求項1〜7のいずれか1項に記載の画像出力装置の各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means of the image output device of any one of Claims 1-7.
JP2016174835A 2016-09-07 2016-09-07 Image output device, image output method, and image pickup device Active JP6772006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016174835A JP6772006B2 (en) 2016-09-07 2016-09-07 Image output device, image output method, and image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016174835A JP6772006B2 (en) 2016-09-07 2016-09-07 Image output device, image output method, and image pickup device

Publications (2)

Publication Number Publication Date
JP2018042106A true JP2018042106A (en) 2018-03-15
JP6772006B2 JP6772006B2 (en) 2020-10-21

Family

ID=61626427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016174835A Active JP6772006B2 (en) 2016-09-07 2016-09-07 Image output device, image output method, and image pickup device

Country Status (1)

Country Link
JP (1) JP6772006B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11325853A (en) * 1998-05-19 1999-11-26 Minolta Co Ltd Three-dimensional shape input device
JP2000348208A (en) * 1999-06-07 2000-12-15 Minolta Co Ltd Device and method for generating three-dimensional data
JP2000357007A (en) * 1999-06-15 2000-12-26 Minolta Co Ltd Three-dimensional data processor
JP2001045518A (en) * 1999-07-27 2001-02-16 Minolta Co Ltd Three-dimensional data acquisition device, stereoscopic model generating device and three-dimensional data acquisition method
JP2016131297A (en) * 2015-01-13 2016-07-21 キヤノン株式会社 Stereoscopic image generation device, stereoscopic image generation method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11325853A (en) * 1998-05-19 1999-11-26 Minolta Co Ltd Three-dimensional shape input device
JP2000348208A (en) * 1999-06-07 2000-12-15 Minolta Co Ltd Device and method for generating three-dimensional data
JP2000357007A (en) * 1999-06-15 2000-12-26 Minolta Co Ltd Three-dimensional data processor
JP2001045518A (en) * 1999-07-27 2001-02-16 Minolta Co Ltd Three-dimensional data acquisition device, stereoscopic model generating device and three-dimensional data acquisition method
JP2016131297A (en) * 2015-01-13 2016-07-21 キヤノン株式会社 Stereoscopic image generation device, stereoscopic image generation method and program

Also Published As

Publication number Publication date
JP6772006B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
US20110292045A1 (en) Three-dimensional image output device and three-dimensional image output method
JP2009210840A (en) Stereoscopic image display device and method, and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP7104294B2 (en) Rangefinder camera
US10356381B2 (en) Image output apparatus, control method, image pickup apparatus, and storage medium
TW201044858A (en) Imaging apparatus, imaging control method, and recording medium
JP5929037B2 (en) Imaging device
JP2017027520A (en) Three-dimensional (3d) data generation device and method, program, and recording medium
JP2018074361A (en) Imaging apparatus, imaging method, and program
TWI554105B (en) Electronic device and image processing method thereof
KR100735447B1 (en) Stereo camera module for hand held device
JP6104066B2 (en) Image processing apparatus and image processing method
JP4871315B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP2017011652A (en) Image processing device, imaging apparatus, image processing method and program
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2009239391A (en) Compound eye photographing apparatus, control method therefor, and program
JP6772006B2 (en) Image output device, image output method, and image pickup device
JP5743769B2 (en) Image processing apparatus and image processing method
JP2009239390A (en) Compound eye photographing apparatus, control method therefor, and program
JP2016131297A (en) Stereoscopic image generation device, stereoscopic image generation method and program
JP2015080169A (en) Image-capturing device and control method therefor
JP2013118472A (en) Image processing apparatus, imaging apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R151 Written notification of patent or utility model registration

Ref document number: 6772006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151