JP2018042106A - Image output device, image output method, and imaging apparatus - Google Patents
Image output device, image output method, and imaging apparatus Download PDFInfo
- Publication number
- JP2018042106A JP2018042106A JP2016174835A JP2016174835A JP2018042106A JP 2018042106 A JP2018042106 A JP 2018042106A JP 2016174835 A JP2016174835 A JP 2016174835A JP 2016174835 A JP2016174835 A JP 2016174835A JP 2018042106 A JP2018042106 A JP 2018042106A
- Authority
- JP
- Japan
- Prior art keywords
- depth information
- image data
- image
- information
- image output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、画像出力装置、画像出力方法、及び撮像装置に関し、特に入力された画像と距離情報から立体画像を出力する画像出力装置に関する。 The present invention relates to an image output apparatus, an image output method, and an imaging apparatus, and more particularly to an image output apparatus that outputs a stereoscopic image from an input image and distance information.
近年、樹脂や石膏粉末などの記録材を積層することで立体を造形する装置である、3Dプリンタが広く普及し始めている。そして、この3Dプリンタを用いて、撮影画像と、その奥行きを示す距離情報を元に、撮影画像を立体的なレリーフ、すなわち立体画像を出力する装置やシステムが提供されるようになった。立体画像を出力する方法としては、3Dプリンタ以外にも、熱膨張性シートを熱変形させることで立体を造形する方法や、型押し印刷やエンボス加工印刷や、レーザー彫刻など様々なものが提供されている。いずれの出力方法も、出力する立体画像の厚さに上限値があったり、厚みをつけるほど多くの記録材を積層するためにコストが掛かる恐れがある。3Dプリンタは、他の方式に比べて厚さの最大高低差が大きいので、立体画像をそのまま出力が可能となるが、大量の記録材を必要とする。 2. Description of the Related Art In recent years, 3D printers, which are apparatuses that form a three-dimensional object by laminating recording materials such as resin and gypsum powder, have started to be widely used. Then, using this 3D printer, an apparatus and a system for outputting a three-dimensional relief of a photographed image, that is, a three-dimensional image, based on a photographed image and distance information indicating the depth have been provided. In addition to 3D printers, there are various 3D printer output methods, such as a method of forming a 3D by thermally deforming a thermally expandable sheet, embossing printing, embossing printing, and laser engraving. ing. In any of the output methods, there is a fear that there is an upper limit on the thickness of the stereoscopic image to be output, and that the cost increases because more recording materials are stacked as the thickness is increased. A 3D printer has a large maximum height difference compared to other methods, so that a 3D image can be output as it is, but a large amount of recording material is required.
そこで、特許文献1および特許文献2では、厚さの上限値がある立体画像出力方法や、厚さを圧縮した際の立体画像出力方法について記載されている。具体的には、特許文献1では、隣り合う複数の被写体の境界線を実際より差が際立つように立体出力を行う方法が開示されている。つまり、奥行き方向に手前の人物1と奥の人物2の境界において、人物1の境界を実際より手前になるよう、人物2の境界を実際より奥になるよう立体出力する方法が開示されている。境界の厚さの差分を大きくすることで、厚さを圧縮した場合でも、被写体ごとの奥行き方向の位置関係を強調することが可能となる。また、特許文献2では、厚さの上限値がある立体画像の出力方法において、画素毎の高さを厚さの上限値で除して、その剰余に画素の高さを置き換えて、立体画像を出力することで、厚さの上限値に収まるような方法を開示している。 Therefore, Patent Document 1 and Patent Document 2 describe a stereoscopic image output method having an upper limit value of the thickness and a stereoscopic image output method when the thickness is compressed. Specifically, Patent Document 1 discloses a method of performing a three-dimensional output so that a difference between the boundaries of a plurality of adjacent subjects is more conspicuous than the actual one. In other words, a method is disclosed in which a three-dimensional output is performed so that the boundary of the person 1 is closer to the front than the actual boundary at the boundary between the person 1 and the rear person 2 in the depth direction. . By increasing the boundary thickness difference, it is possible to emphasize the positional relationship in the depth direction for each subject even when the thickness is compressed. Further, in Patent Document 2, in a stereoscopic image output method having an upper limit value of thickness, the height of each pixel is divided by the upper limit value of thickness, and the height of the pixel is replaced with the remainder to obtain a stereoscopic image. Is output so that the value falls within the upper limit of the thickness.
しかしながら、従来の立体画像の出力装置では、複数の注目被写体が写った撮影画像を立体画像として出力する際に、記録材を多く消費してしまったり、厚さの上限があるなかでは最適な立体表現を得られないことがあった。例えば、特許文献1の装置では、境界線を際立たせることができるが、被写体自身の立体感、つまり被写体内の凹凸は圧縮されているので立体感を十分に表現することが難しい。また、特許文献2の装置では、z軸方向の高さがなだらかに変化する領域が、厚さの上限値で割り切れる毎に高さがノコギリ状に変化してしまうので、人物などの被写体を立体的に表現すると見た目の違和感が大きい立体画像となってしまう。 However, the conventional stereoscopic image output device consumes a large amount of recording material when outputting a captured image including a plurality of objects of interest as a stereoscopic image, or is an optimal stereoscopic image within the upper limit of the thickness. Sometimes I couldn't get an expression. For example, in the apparatus of Patent Document 1, the boundary line can be emphasized, but it is difficult to sufficiently express the stereoscopic effect because the stereoscopic effect of the subject itself, that is, the unevenness in the subject is compressed. Further, in the apparatus of Patent Document 2, the area where the height in the z-axis direction changes gradually changes in a sawtooth shape every time it is divisible by the upper limit value of the thickness. If expressed in terms of expression, it will result in a stereoscopic image with a large discomfort.
本発明は、上記課題を鑑みて、撮影画像に写った複数の被写体を立体表現する際に、立体画像を出力する装置の厚さの上限値の範囲内で複数の被写体を効率よく立体表現することができる画像出力装置を提供することを目的とする。 In view of the above problems, the present invention efficiently expresses a plurality of subjects within the range of the upper limit value of the thickness of an apparatus that outputs a stereoscopic image when the subjects are captured in a stereoscopic manner. It is an object of the present invention to provide an image output apparatus that can perform the above-described process.
上記の課題を解決するために、本発明の画像出力装置は、複数の被写体を含む画像データを取得する取得手段と、前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成手段と、前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出手段と、前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換手段と、前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力手段と、を備えることを特徴とする。 In order to solve the above-described problem, an image output apparatus according to the present invention includes an acquisition unit that acquires image data including a plurality of subjects, and generation that generates depth information corresponding to the distance between the plurality of subjects in the image data. Means for detecting feature information for each region of the plurality of subjects in the image data; and converting the generated depth information into depth information based on the detected feature information for each region. Conversion means for outputting, and output means for outputting stereoscopic image data based on the image data and the depth information.
本発明によれば、撮影画像に写った複数の被写体を立体表現する際に、立体画像を出力する装置の厚さの上限値の範囲内で複数の被写体を効率よく立体表現することができる画像出力装置を提供することができる。 According to the present invention, when a plurality of subjects appearing in a captured image are three-dimensionally represented, an image that can efficiently represent a plurality of subjects three-dimensionally within the range of the upper limit value of the thickness of a device that outputs a three-dimensional image. An output device can be provided.
以下、本発明を実施するための最良の形態について図面などを参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
本実施形態に係る立体画像データ出力機能付きデジタルカメラの構成について図1を参照して説明する。図1に示すデジタルカメラ(画像出力装置)100は、立体画像データ出力機能付きデジタルカメラ本体である。内部バス102は、各ブロックを接続する内部バスである。システム制御部101は、内部バス102で接続された各ブロックの制御を行う。FLASHメモリコントローラ103は、システム制御部101からの要求に基づき、FLASHメモリ104に対する不揮発性データの読み書きを行う。システム制御部101は、FLASHメモリ104に格納されたプログラムを元に動作し、撮影した画像などの不揮発性データをFLASHメモリ104に格納する。DRAMコントローラ105は、各ブロックからの要求に基づきDRAM106に対するデータの読み書きを行う。システム制御部101や各ブロックは、動作中の一時データなどのDRAM106に格納して用いる。
A configuration of a digital camera with a stereoscopic image data output function according to the present embodiment will be described with reference to FIG. A digital camera (image output device) 100 shown in FIG. 1 is a digital camera body with a stereoscopic image data output function. The
操作部107は、デジタルカメラの外装に設けられたボタン等で構成され、使用者はそれを操作することで、システム制御部101へ指示を伝えることができる。撮像部108は、被写体を撮影する撮像部である。また、撮像部108は、被写体の光学像を取り込むレンズ及び光学像を電気信号に変換するCCDやCMOS素子等のイメージセンサで構成される。イメージセンサでは、取り込んだ光学像の領域毎のピントのずれ量、つまりデフォーカス量を測定する。
The
画像信号処理部109は、システム制御部101の指示に基づき、撮像部108を制御して被写体を撮影して得られた画像データをDRAM106に格納する。また、撮影と同時に、撮像部108で測定したデフォーカス量を、画像データとともにDRAM106に格納する。さらに、画像データを表示用に縮小して、DRAM106に設けた表示用フレームメモリに格納する。特徴検出部(検出手段)110は、DRAM106に格納された画像データから、注目被写体として人物の顔を検出し、その位置とサイズをシステム制御部101に通知する。システム制御部101は、位置とサイズを元に、注目被写体のスコアを付け、最もスコアが高い注目被写体を主被写体として取り扱う。
The image
厚さ情報取得部114は、外部の3Dプリンタなどの立体出力を実体化する機器の出力する厚さの上限値となる厚さ情報を取得する。距離情報生成部(生成手段)111は、DRAM106に格納された画像データと、デフォーカス量を元に、画像の領域毎の距離マップ(深度情報)を生成して、DRAM106に格納する。距離情報変換部(変換手段)112は、特徴検出部110の結果を元に、システム制御部101の制御に応じて、距離マップを立体出力の奥行き情報に変換する。立体出力生成部(出力手段)113は、DRAM106に格納された画像データと、距離情報変換部112で変換した立体出力の奥行き情報の2つを合わせて、立体画像データとして外部に出力する。出力先として外部の3Dプリンタなどを接続することで、出力した立体画像データを実体化することができる。LCDコントローラ115は、DRAM106に格納された表示用フレームメモリの内容を読み出して、LCD(Liquid Crystal Display)116に表示する。
The thickness
なお、図1に示して説明した立体画像データ出力機能付きデジタルカメラの構成は一例であり、以下に説明する動作を実行できるのであれば、本発明に係る立体画像データ出力機能付きデジタルカメラの構成は、図1に示した構成に限定されるものではない。 The configuration of the digital camera with the stereoscopic image data output function illustrated in FIG. 1 is an example, and the configuration of the digital camera with the stereoscopic image data output function according to the present invention can be performed as long as the operations described below can be performed. Is not limited to the configuration shown in FIG.
次に、立体画像データ出力機能付きデジタルカメラ100の立体画像データ出力処理について説明する。まず、図2および図3を参照して、デジタルカメラ100の撮影画像と撮影時に取得する付加情報について説明する。ここで、本実施形態における付加情報とは、撮影画像の距離マップと、撮影画像から検出した特徴情報である。図2(A)は、画像を撮影した時の状況を横から俯瞰した概略図である。デジタルカメラ100はデジタルカメラ本体であって、被写体として人物201と202が、デジタルカメラ100からの異なる距離d1とd2に位置している。軸zはカメラの光軸方向で、軸yは地面に垂直の軸を示している。図2(B)に示す画像200は、デジタルカメラ100を用いて、図2(A)に示した撮影状況により得られた撮影画像である。人物201と202に加えて、背景には樹木203が写っている。なお、軸xは水平方向、軸yは垂直方向の軸を示している。
Next, stereoscopic image data output processing of the
図2(C)に示す距離マップ220は、図2(A)に示した撮影時に得られた撮影画像200に対する距離マップである。距離マップ220は、撮像部108から取得した画像データの領域毎のデフォーカス量を用いて、距離情報生成部111が生成する。距離マップ220においては、色が濃い領域が手前、薄い領域が奥に位置することを示す。デジタルカメラ100に近い人物201が最も濃く、次いで人物202がやや濃くなっている。
A
図2(D)は、撮影画像200に対して、特徴検出部110が注目被写体として検出した人物201と202の位置とサイズを枠211と212で囲った図である。本実施形態に係るデジタルカメラ100では、撮影時に図2(B)の撮影画像と、付加情報として図2(C)の距離マップと、図2(D)の特徴情報を取得する。
FIG. 2D is a diagram in which frames 211 and 212 surround the positions and sizes of the
次に、撮影画像と上記の付加情報を元に行う立体出力処理について説明する。図3は、画像を撮影した時の状況を横から俯瞰した概略図と立体出力の関係を示す図である。距離情報変換部112は、図2(C)に示した距離マップ220を立体出力の奥行き情報に変換する。特徴検出部110が注目被写体として検出した人物201と202の奥行き方向の存在範囲H1を立体化範囲として立体出力の奥行き情報に変換を行う。図3に示すように、人物202より遠い無限遠の領域が背景240となり、人物201と202は奥行きを付けている。立体出力生成部113では、図2(B)に示した撮影画像200と距離情報変換部112で変換した立体出力の奥行き情報を元に立体化を行う。
Next, a description will be given of a stereoscopic output process performed based on the captured image and the additional information. FIG. 3 is a diagram illustrating a relationship between a schematic diagram in which a situation when an image is captured is viewed from the side and a three-dimensional output. The distance
次に、図4を参照して、本実施形態に係る立体出力データの生成処理について説明する。図4は、システム制御部101の制御に基づき、立体出力生成部113が立体出力を生成する処理を示すフローチャートである。まず、ステップS301では、撮像部108で撮影した信号を、画像信号処理部109を経由して、撮影画像とデフォーカス量をDRAM106に格納する。次に、ステップS302では、ステップS301で取得したデフォーカス量を用いて、距離情報生成部111で撮影画像に対応する距離マップを生成する。次に、ステップS303では、特徴検出部100でDRAM106に格納された撮影画像から、特徴となる被写体およびそれらの位置関係を検出する。
Next, with reference to FIG. 4, processing for generating stereoscopic output data according to the present embodiment will be described. FIG. 4 is a flowchart illustrating a process in which the three-dimensional
次に、ステップS304では、ステップS303で検出した被写体、およびそれらの位置関係に基づいて、距離情報変換部112で予め与えられた最大厚さの制約を満たすように立体出力の奥行き情報に変換する。そして、ステップS305では、距離情報変換部112で変換した立体出力の奥行き情報を基に立体出力生成部113で立体化を行う。立体出力生成部113で生成した立体出力データをDRAM106に格納し、立体出力生成フローを終える。こうして生成された立体出力データは、例えば、背景から順次スライス状に出力することで、接続された外部の3Dプリンタなどで実体化することができる。
Next, in step S304, based on the subject detected in step S303 and their positional relationship, the distance
次に、本実施形態に係る距離情報変換部112の変換処理について、図5を用いて詳細に説明する。図5は、距離情報変換部112の構成を示すブロック図である。距離情報変換部112では、図5に示すように、被写体変換部150と、厚さ情報変換部151と、距離比較変換部152を用いて距離マップの変換処理を行う。
Next, the conversion process of the distance
次に、被写体変換部150の処理について、図6を参照して説明する。図6(A)は、画像を撮影した時の状況を横から俯瞰した概略図である。図6(A)に示す奥行きH2は、人物201の奥行き方向の範囲を示し、奥行きH3は、人物202の奥行き方向の範囲を示している。被写体変換部150では、先に示した図2(C)の距離マップ220より、特徴検出部110が検出した人物201、202の奥行きH2、H3の範囲を、人物201、202ごとに各々に対応した2つの立体出力の奥行き情報に変換を行う。図6(B)は、被写体変換部150で変換した立体出力の奥行き情報を用いて人物201と202を立体化したものを横から見た図である。変換した立体出力の奥行き情報を用いて、背景240から人物201と202の各々に対してz軸方向に奥行きH2、H3の奥行きが付けられ、立体化されている。以上のように、被写体変換部150では、距離マップから、特徴検出部110が検出した被写体毎に立体出力の奥行き情報に変換を行う。
Next, the processing of the
厚さ情報変換部151および距離比較変換部152について図7および図8を参照して説明する。厚さ情報変換部151および距離比較変換部152では、被写体変換部150で変換した立体出力の奥行き情報に対してさらに変換処理を行う。まず、厚さ情報変換部151の処理について図7を用いて説明する。厚さ情報変換部151では、厚さ情報取得部114で取得した厚さ情報を用いて変換を行う。図7は、変換した立体出力の奥行き情報が厚さの上限値を超えてしまう場合の、立体出力の奥行き情報を変換する方法を示す図である。図7に示す厚さ情報Hは、厚さ情報取得部114で取得した厚さ情報である。距離比較変換部152は、厚さ情報Hと立体出力の奥行き情報H3またはH2との比較結果に応じて、厚さ情報Hの制約に収まるように変換を行う。つまり、取得した厚さ情報Hより立体出力の奥行き情報H3またはH2が大きくなってしまう場合、取得した厚さ情報Hにあわせて、人物201、202ごとに奥行き情報を圧縮し、厚さ情報Hの制約に収まるように変換を行う。本実施形態では、人物201、202の奥行きが厚さの上限値を超えていたため、人物201、202の奥行きが厚さ情報Hより小さくなるように厚さ情報H2及び、H3を圧縮している。
The thickness
次に、距離比較変換部152の処理について図8を参照して説明する。距離比較変換部152では、特徴の奥行き方向の距離における位置関係を用いて変換を行う。図8は、変換した立体出力の奥行き情報を人物201と202の奥行き方向の距離の位置関係を反映して変換する方法を示す図である。奥行き方向の距離とは、先に示した図2(A)の人物201と202の奥行き方向の位置を示す距離d1とd2である。図2(A)の距離d1とd2からわかるように、人物202に対して、人物201は、z軸方向に近い距離に位置している。しかし、図6(B)に示した立体出力の奥行き情報では、人物201の奥行き情報H2は、人物202の奥行き情報H3より、遠い距離に位置している。そのため、人物201と202の奥行き方向の距離d1とd2を反映して立体出力の奥行き情報の変換を行う。以下に奥行き方向の位置に基づいて立体出力の奥行き情報を変換する方法を3つ説明する。
Next, the processing of the distance
1つ目の変換方法では、図8(A)に示すように、人物202の背景240からの高低差より人物201の高低差が大きくなるように人物201の高低差にオフセット(オフセット付加量)501を付け、人物202の高低差より大きくなるように変換を行う。2つ目の図8(B)では、図8(A)とは反対に人物202の高低差にマイナスのオフセットをつけることで人物202の高低差が人物201より小さくなるように変換を行う。3つ目の図8(C)では、人物202の高低差を圧縮比率を変更することで人物201の高低差より小さくなるように変換を行う。上記3つの変換を使い分けたり、組み合わせて用いることで、立体出力の奥行き情報に特徴毎の距離の位置関係を反映する。使い分けとしては、前述の厚さ情報を用いて、厚さの上限値に対して奥行き情報に余裕がある場合は、図8(A)の方法を用いる。反対に、厚さの上限値に近い場合は図8(B)や図8(C)を用いて、厚さの上限値を超えないよう制御する。
In the first conversion method, as shown in FIG. 8A, an offset (offset addition amount) is added to the height difference of the
なお、本実施形態では、立体出力データを実体として出力する方式として、3Dプリンタを挙げているが、他の方式で立体画像を出力する場合でも、同様の効果が得られる。また、本実施形態では、距離マップをカメラから得た領域毎のデフォーカス量から生成しているが、2眼の撮像系により得た視差画像を用いたり、異なる焦点距離で撮影した複数枚の画像から焦点距離毎の領域を検出するなど他の方法で生成してもよい。また、本実施形態では、画像を撮影する機能を持つデジタルカメラとして説明しているが、外部で撮影された画像と、その距離マップを入力して、立体出力データを出力する3Dプリンタなどの出力装置や、コンピューター上のプログラムであってもよい。 In this embodiment, a 3D printer is cited as a method for outputting stereoscopic output data as an entity, but the same effect can be obtained even when a stereoscopic image is output by another method. In this embodiment, the distance map is generated from the defocus amount for each region obtained from the camera. However, a plurality of images taken at different focal lengths using parallax images obtained by a two-lens imaging system are used. You may produce | generate by another method, such as detecting the area | region for every focal distance from an image. In the present embodiment, the digital camera has a function of capturing an image. However, an externally captured image and its distance map are input and output from a 3D printer or the like that outputs stereoscopic output data. It may be a device or a program on a computer.
また、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Moreover, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
100 デジタルカメラ
111 距離情報生成部
112 距離情報変換部
113 立体出力生成部
DESCRIPTION OF
Claims (9)
前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成手段と、
前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出手段と、
前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換手段と、
前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力手段と、
を備える
ことを特徴とする画像出力装置。 Acquisition means for acquiring image data including a plurality of subjects;
Generating means for generating depth information corresponding to the distances of the plurality of subjects of the image data;
Detecting means for detecting feature information for each region of the plurality of subjects in the image data;
Conversion means for converting the generated depth information into depth information based on the detected feature information for each region;
Output means for outputting stereoscopic image data based on the image data and the depth information;
An image output apparatus comprising:
ことを特徴とする請求項1に記載の画像出力装置。 The image output apparatus according to claim 1, wherein the conversion unit converts the depth information so as to satisfy a predetermined maximum thickness constraint.
ことを特徴とする請求項1または2に記載の画像出力装置。 The image output apparatus according to claim 1, wherein the generation unit generates the depth information by using a defocus amount for each region of the image data.
をさらに備え、
前記変換手段は、前記比較手段の比較結果に応じて、前記深度情報を前記奥行き情報に変換する
ことを特徴とする請求項2または3に記載の画像出力装置。 Comparing means for comparing depth information for each region of the plurality of subjects with the predetermined maximum thickness,
The image output apparatus according to claim 2, wherein the conversion unit converts the depth information into the depth information according to a comparison result of the comparison unit.
ことを特徴とする請求項4に記載の画像出力装置。 The image output apparatus according to claim 4, wherein the conversion unit adds an offset addition amount in the thickness direction for each region according to the result of the comparison unit.
ことを特徴とする請求項4に記載の画像出力装置。 The image output apparatus according to claim 4, wherein the conversion unit changes a compression ratio of the distance for each region according to a result of the comparison unit.
ことを特徴とする請求項1〜6のいずれか1項に記載の画像出力装置。 The image output apparatus according to claim 1, wherein the detection unit detects a human face as the feature information from the image.
前記画像データの前記複数の被写体の距離に対応する深度情報を生成する生成工程と、
前記画像データにおける前記複数の被写体の領域毎の特徴情報を検出する検出工程と、
前記生成された深度情報を、前記領域毎に前記検出された特徴情報に基づいて、奥行き情報に変換する変換工程と、
前記画像データと前記奥行き情報に基づいて立体画像データを出力する出力工程と、
を有する
ことを特徴とする画像出力方法。 An acquisition step of acquiring image data including a plurality of subjects;
A generation step of generating depth information corresponding to the distances of the plurality of subjects of the image data;
A detection step of detecting feature information for each region of the plurality of subjects in the image data;
A conversion step of converting the generated depth information into depth information based on the detected feature information for each region;
An output step of outputting stereoscopic image data based on the image data and the depth information;
An image output method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174835A JP6772006B2 (en) | 2016-09-07 | 2016-09-07 | Image output device, image output method, and image pickup device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174835A JP6772006B2 (en) | 2016-09-07 | 2016-09-07 | Image output device, image output method, and image pickup device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018042106A true JP2018042106A (en) | 2018-03-15 |
JP6772006B2 JP6772006B2 (en) | 2020-10-21 |
Family
ID=61626427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016174835A Active JP6772006B2 (en) | 2016-09-07 | 2016-09-07 | Image output device, image output method, and image pickup device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6772006B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11325853A (en) * | 1998-05-19 | 1999-11-26 | Minolta Co Ltd | Three-dimensional shape input device |
JP2000348208A (en) * | 1999-06-07 | 2000-12-15 | Minolta Co Ltd | Device and method for generating three-dimensional data |
JP2000357007A (en) * | 1999-06-15 | 2000-12-26 | Minolta Co Ltd | Three-dimensional data processor |
JP2001045518A (en) * | 1999-07-27 | 2001-02-16 | Minolta Co Ltd | Three-dimensional data acquisition device, stereoscopic model generating device and three-dimensional data acquisition method |
JP2016131297A (en) * | 2015-01-13 | 2016-07-21 | キヤノン株式会社 | Stereoscopic image generation device, stereoscopic image generation method and program |
-
2016
- 2016-09-07 JP JP2016174835A patent/JP6772006B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11325853A (en) * | 1998-05-19 | 1999-11-26 | Minolta Co Ltd | Three-dimensional shape input device |
JP2000348208A (en) * | 1999-06-07 | 2000-12-15 | Minolta Co Ltd | Device and method for generating three-dimensional data |
JP2000357007A (en) * | 1999-06-15 | 2000-12-26 | Minolta Co Ltd | Three-dimensional data processor |
JP2001045518A (en) * | 1999-07-27 | 2001-02-16 | Minolta Co Ltd | Three-dimensional data acquisition device, stereoscopic model generating device and three-dimensional data acquisition method |
JP2016131297A (en) * | 2015-01-13 | 2016-07-21 | キヤノン株式会社 | Stereoscopic image generation device, stereoscopic image generation method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6772006B2 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
US9076214B2 (en) | Image acquisition apparatus and image processing apparatus using selected in-focus image data | |
US20110292045A1 (en) | Three-dimensional image output device and three-dimensional image output method | |
JP2009210840A (en) | Stereoscopic image display device and method, and program | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US9008412B2 (en) | Image processing device, image processing method and recording medium for combining image data using depth and color information | |
JP7104294B2 (en) | Rangefinder camera | |
US10356381B2 (en) | Image output apparatus, control method, image pickup apparatus, and storage medium | |
TW201044858A (en) | Imaging apparatus, imaging control method, and recording medium | |
JP5929037B2 (en) | Imaging device | |
JP2017027520A (en) | Three-dimensional (3d) data generation device and method, program, and recording medium | |
JP2018074361A (en) | Imaging apparatus, imaging method, and program | |
TWI554105B (en) | Electronic device and image processing method thereof | |
KR100735447B1 (en) | Stereo camera module for hand held device | |
JP6104066B2 (en) | Image processing apparatus and image processing method | |
JP4871315B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2017011652A (en) | Image processing device, imaging apparatus, image processing method and program | |
JP6732440B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP2009239391A (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP6772006B2 (en) | Image output device, image output method, and image pickup device | |
JP5743769B2 (en) | Image processing apparatus and image processing method | |
JP2009239390A (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2016131297A (en) | Stereoscopic image generation device, stereoscopic image generation method and program | |
JP2015080169A (en) | Image-capturing device and control method therefor | |
JP2013118472A (en) | Image processing apparatus, imaging apparatus and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200930 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6772006 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |