JP6300547B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP6300547B2 JP6300547B2 JP2014018181A JP2014018181A JP6300547B2 JP 6300547 B2 JP6300547 B2 JP 6300547B2 JP 2014018181 A JP2014018181 A JP 2014018181A JP 2014018181 A JP2014018181 A JP 2014018181A JP 6300547 B2 JP6300547 B2 JP 6300547B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- distance
- depth
- creating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus .
CCDやCMOS等の撮像素子を用いて画像を取得する撮像装置(例えば、デジタルカメラ)で、風景を撮影した画像データを後日、見直した場合、撮影時の雰囲気と異なることがある。これは、大気中の水蒸気やチリにより、撮影画像が肉眼で見るよりも彩度、鮮やかさ、奥行き感が異なることが要因の一つである。なお、CCDは、Charge Coupled Deviceの略称である。また、CMOSは、Complementary Metal Oxide Semiconductorの略称である。 When image data obtained by photographing a landscape is reviewed at a later date by an image pickup apparatus (for example, a digital camera) that acquires an image using an image pickup device such as a CCD or CMOS, the atmosphere at the time of shooting may differ. One of the factors is that the sense of saturation, vividness, and depth differ due to water vapor and dust in the atmosphere, as compared with the case where the photographed image is viewed with the naked eye. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.
ここで、奥行き感を向上させるため、奥行きを推定し、推定された奥行きに応じて、画像処理を変更させることが考えられる。特許文献1は、疑似立体動画像を生成するための奥行き推定データを生成する疑似立体画像生成装置を開示している。
Here, in order to improve the feeling of depth, it is conceivable to estimate the depth and change the image processing in accordance with the estimated depth.
特許文献1が開示する疑似立体画像生成装置は、奥行き情報を示す3種類の基本奥行きモデルを用いて、奥行き推定データを生成する。しかし、この疑似立体画像生成装置では、画像における遠景部分までの距離情報(遠距離情報)を得ることはできるが、画像の近景部分の距離情報(近距離情報)を得ることができない。したがって、この疑似立体画像生成装置では、近景部分に関しては不自然な画像となってしまう。
The pseudo-stereoscopic image generation device disclosed in
本発明は、撮影画像に関する精度の良い距離情報を作成し、作成した距離情報に応じた画像処理を実行する撮像装置の提供を目的とする。 An object of the present invention is to provide an imaging apparatus that creates accurate distance information about a captured image and executes image processing according to the created distance information.
本発明の一実施形態の撮像装置は、被写体を撮影して画像信号を出力する撮影手段と、前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、画素毎または複数の画素毎の距離情報を有する構図パターンが記憶された構図パターン記憶手段を有し、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、を備え、前記奥行き情報作成手段は、前記画像の所定の特徴量抽出領域について特徴量を抽出し、前記特徴量抽出領域のうち、前記第1の距離情報が作成されている前記特徴量抽出領域に対しては、欠落部分を補う必要がある前記特徴量抽出領域と判断し、欠落部分を周辺画像から推定して欠落部分を補って前記特徴量を抽出し、前記抽出した特徴量に基づいて、前記構図パターン記憶手段に記憶された構図パターンのうち、前記画像に対応する構図パターンを決定し、前記決定した構図パターンを用いて前記奥行き情報を作成し、前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、を備える。 An imaging apparatus according to an embodiment of the present invention includes a first distance that generates first distance information related to a distance between a photographing unit that photographs a subject and outputs an image signal, and a subject in a pixel of an image related to the image signal. A creation means; and a composition pattern storage means in which a composition pattern having distance information for each pixel or a plurality of pixels is stored, and depth information creation means for creating depth information related to the depth of the image , The depth information creation means extracts a feature amount for a predetermined feature amount extraction region of the image, and among the feature amount extraction regions, the feature amount extraction region for which the first distance information is created Determining the feature amount extraction region that needs to compensate for the missing part, estimating the missing part from the surrounding image and supplementing the missing part to extract the feature amount, based on the extracted feature amount, Serial composition pattern storage means of the stored composition patterns, said determining the corresponding composition pattern to the image, using the composition pattern described above determined to create the depth information, the depth information and the first distance information based on the bets comprises a second distance generating means for generating a second distance information about the distance to the object, and an image processing means for processing the image based on the second distance information.
本発明によれば、近距離から遠距離までの距離情報を作成することができ、距離に応じた画像処理を施すことで人間の記憶色の再現や遠近感の向上を図ることができる。 According to the present invention, distance information from a short distance to a long distance can be created, and human memory colors can be reproduced and a sense of perspective can be improved by performing image processing according to the distance.
(実施例1)
図1は、実施例1の撮像装置の構成を示す図である。
本実施例の撮像装置は、デジタルカメラである。なお、本発明の適用範囲は、デジタルカメラに限定されない。本発明は、デジタルビデオカメラ、カメラ付き携帯電話等の任意の撮像装置に適用可能である。
Example 1
FIG. 1 is a diagram illustrating a configuration of the imaging apparatus according to the first embodiment.
The imaging apparatus of the present embodiment is a digital camera. The application range of the present invention is not limited to a digital camera. The present invention can be applied to any imaging apparatus such as a digital video camera and a camera-equipped mobile phone.
図1は、第1の実施例に係るデジタルカメラの構成を示すブロック図である。
撮像素子100は、受光した被写体像を電気信号に変換して画像信号を出力するCCDやCMOSセンサ等の受光素子である。A/D変換器101は、撮像素子100のアナログ出力信号をデジタル信号に変換する。近距離情報作成部102は、撮像装置から被写体までの近距離情報を作成する(第1距離作成手段である)。近距離情報は、撮影された画像すなわち撮像素子100が出力する画像信号に係る画像の画素における被写体との距離に関する第1の距離情報である。具体的には、近距離情報は、当該画像の近景部分までの距離情報である。近距離情報作成処理の詳細については、後述する。
FIG. 1 is a block diagram illustrating the configuration of the digital camera according to the first embodiment.
The
構図パターン103は、各画素あるいは複数画素からなる矩形ブロック毎の距離情報を有するデータであり、構図パターン記憶手段として機能するメモリ111あるいは不揮発メモリ113に保持されている。奥行き情報作成部104は、構図パターンを用いて、奥行き情報を作成する。奥行き情報は、撮影された画像の遠景部分までの距離情報である。構図パターンの詳細については、後述する。
The
奥行き情報作成部104は、奥行き情報を作成する。具体的には、奥行き情報作成部104は、近距離情報作成部102が近距離情報を作成できなかった箇所について奥行き情報を作成する。奥行き情報作成処理の詳細については、後述する。
The depth
距離情報作成部105は、近距離情報が作成されなかった箇所に対して、奥行き情報作成部104によって作成された奥行き情報をマージして、画像データ中の各画素あるいは複数画素からなる矩形ブロック毎の距離情報を作成する。すなわち、距離情報作成部105は、近距離情報と奥行き情報とに基づいて、被写体までの距離に関する第2の距離情報を作成する第2距離作成手段として機能する。
The distance
画像処理部106は、距離情報作成部105が作成した距離情報が示す距離に応じて、画像の領域毎にフィルタ処理やコントラスト、明るさや色変更などの画像処理を実行する。このために、画像処理部106は、ホワイトバランスや黒レベル補正、シェーディング補正、キズ補正、ノイズリダクション、ガンマ補正、縮小拡大、歪補正などの画像処理を実行する複数の処理部を備える。また、画像処理部106は、不図示の画像バッファメモリ、画像データの圧縮処理や伸長処理を行う圧縮伸長部、モニタなどに表示する表示制御部、記録媒体に記憶する記憶処理部などを備える。
The
データ転送部107は、データ転送を行う複数のDirect Memory Accessコントローラ(不図示)のWRDMACとRDDMACとを備える。画像データは、WRDMACによってバス109に出力され、メモリコントローラ110を介してメモリ111に一時記憶される。メモリ111に一時記憶された画像データは、RDDMACによってメモリ111からバス109に出力され、画像処理部106に出力される。
The
バス108は、システムバスであり、バス109は、画像データバスである。なお、本実施形態では、システムバスと画像データバスとを分けているが、同一バスとしてもよい。
A
メモリコントローラ110は、システム制御部であるCPU114またはデータ転送部107からの指示に応じて、メモリ111にデータを書き込んだり、メモリ111からデータを読み出したりする。なお、A/D変換器101からの出力データがメモリ111に直接書き込まれる場合もある。メモリ111は、所定枚数の静止画像や所定時間の動画像、音声等のデータやシステム制御部114の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える記憶装置である。
The
不揮発性メモリコントローラ112は、システム制御部114からの指示に応じて、不揮発性メモリ113にデータを書き込んだり、不揮発性メモリ113からデータを読み出したりする。不揮発性メモリ113は、電気的に消去・記録可能なメモリである。不揮発性メモリ113として、例えばEEPROM等が用いられる。不揮発性メモリ113には、システム制御部114の動作用の定数、プログラム等が記憶される。
The
システム制御部114は、デジタルカメラの動作制御を司るマイクロコンピュータなどで構成される。システム制御部114は、デジタルカメラを構成する各処理部に対して様々な指示を行い、各種の制御処理を実行する。システム制御部114は、バス108を介して接続された近距離情報作成部102、奥行き情報作成部104、距離情報作成部105を制御する。また、システム制御部114は、画像処理部106、データ転送部107、メモリコントローラ110、不揮発性メモリコントローラ112、及び操作部115、撮像素子100を制御する。システム制御部114が備えるマイクロコンピュータは、不揮発性メモリ113に記録されたプログラムを実行する。
The
操作部115は、ユーザにより操作されるスイッチ(SW)やボタン等を含む。操作部115は、電源のON/OFF、シャッタのON/OFF等の操作に用いられる。本実施形態では、SWが半押しされると、システム制御部114が、AF制御を実行する。また、SWが全押しされると、システム制御部114が、奥行き情報の取得処理を実行する。
The
被写体認識部116は、画像データの局所的な特徴量に応じて画像データの領域分割を行って、領域毎の特徴量によって被写体を認識する。また、被写体認識部116は、領域毎に認識した被写体をグループ化する。被写体認識部116は、例えば、山、空、海、建物、人物、木、動物などをそれぞれのグループとして、領域毎の被写体認識情報として、奥行き情報作成部104に通知する。
The
次に、近距離情報作成処理について説明する。近距離情報作成部102は、各画素における被写体との距離を、複数の光電変換領域を持つ撮像素子を使用した位相差検出方式で算出する。つまり、近距離情報作成部102は、撮影光学系の異なる瞳領域を通過した光束が結像する像のずれ量に基づいて、位相差方式で近距離情報を算出する。
Next, short distance information creation processing will be described. The short distance
図2は、撮像素子の画素の構造を説明する図である。
撮像素子100は、図2に示す画素の構造を有する。図2(A)は、画素の正面図である。図2(B)は、画素の断面図である。1つの画素は、マイクロレンズ201と、光電変換部202、203を備える。このように、1つの画素に二つの光電変換部を配置することで、瞳分割が行われる。左右の画素をA画素、B画素、また左右それぞれの画素からの信号に係る像をそれぞれA像、B像と呼ぶものとする。
FIG. 2 is a diagram illustrating a pixel structure of the image sensor.
The
図3は、撮像素子の画素と光電変換部、カラーフィルターの配置を説明する平面図である。各画素における円は、マイクロレンズを表している。ここでは4列×4列のみを抜き出して示している。この撮像素子は各画素にR(赤色)、G(緑色)、B(青色)のカラーフィルターを規則的に並べることによって、一般的なベイヤー配列を形成している。1画素は、A像、B像のそれぞれに対応する画像信号を出力する2つの光電変換部を有している。例えば、図3に示す例では、左上のG画素は、左側の光電変換部300であるG1および右側の光電変換部301であるG2を有している。従って、図3の各画素における2つの光電変換部は、瞳分割によって異なる射出瞳を通過して光電変換される。なお、撮像素子は、各画素にR(赤色)、G(緑色)、B(青色)を左右2分割しているが、無色フィルタの焦点検出用の専用画素を配置してもよい。
FIG. 3 is a plan view for explaining the arrangement of the pixels of the image sensor, the photoelectric conversion unit, and the color filter. A circle in each pixel represents a microlens. Here, only 4 columns × 4 columns are extracted and shown. This image pickup element forms a general Bayer array by regularly arranging color filters of R (red), G (green), and B (blue) on each pixel. One pixel has two photoelectric conversion units that output image signals corresponding to the A image and the B image, respectively. For example, in the example illustrated in FIG. 3, the upper left G pixel includes G1 that is the left
図4は、物体像の結像状態を説明する図である。
図4を参照して、撮像素子を使用した被写体と距離の算出方法について説明する。400はレンズ、401は撮像素子の断面を表している。図3で示すような撮像素子による光学系では、例えば、図4のように、撮像素子よりも手前に物体像が形成されているときは、図4中のAで示される射出瞳の上側を通る半光束は、撮像素子上でA’のように下側にシフトする。また、Bで示される射出瞳の下側を通る半光束は、B’のように上側にシフトする。
FIG. 4 is a diagram for explaining the imaging state of the object image.
With reference to FIG. 4, a method of calculating the subject and distance using the image sensor will be described.
つまり、各画素において撮像光学系の瞳の半分ずつを通った光束で形成される一対の画像信号は、物体像の結像状態に応じて、図4の上下方向に位相がシフトしたものとなる。従って、システム制御部114は、2つの被写体像の相対位置関係であるずれ量をその相関から求めることによって、デフォーカス量を算出して、レンズおよび絞りの各情報を使用して被写体との距離を算出する。例えば、X(行)方向に8画素、Y(列)方向に6画素の矩形ブロックに分け、デフォーカス量と方向を算出すると、撮影レンズのレンズ繰り出し量が決定される。上記矩形ブロックにおける被写体距離をD、撮影レンズの繰り出し量、焦点距離をそれぞれP,fとすると、近似的に
D≒f^2 /P
の関係が成立する。この関係に基づいて、矩形ブロックに対応する撮影画像の近距離情報を求めることができる。
That is, a pair of image signals formed by a light beam that passes through half of the pupil of the imaging optical system in each pixel has a phase shifted in the vertical direction in FIG. 4 in accordance with the imaging state of the object image. . Accordingly, the
The relationship is established. Based on this relationship, it is possible to obtain the short distance information of the captured image corresponding to the rectangular block.
図5は、近距離情報を説明する図である。
画像イメージ500は、人物を撮影した画像データを示し、画像イメージ500に近距離情報を付加したものが、近距離情報イメージ501である。近距離情報イメージ501の各矩形ブロックに表示された値は、便宜上簡略化した被写体までの距離(単位はメートル)である。ただし、値が表示されていない箇所は無限遠を意味するものとする。また、近距離情報の算出方法として、別の算出方法を用いてもよい。また、この例では、撮像面位相差検出方式を用いて近距離情報を算出するが、別途測距センサを用いて位相差検出方式や三角測距などで距離情報を求めてもよい。また、この例では、矩形ブロック毎に距離情報を算出するが、画素毎に算出してもよい。
FIG. 5 is a diagram for explaining the short distance information.
An
図6乃至図8は、構図パターンの一例を示す図である。
図6の600,図7の700,図8の800は、いずれも風景を撮影した結果得られる画像イメージ図である。それぞれの画像イメージに対応した構図パターンが、構図パターン601、701、801である。
6 to 8 are diagrams illustrating examples of composition patterns.
6 in FIG. 6, 700 in FIG. 7, and 800 in FIG. 8 are image images obtained as a result of photographing a landscape. Composition patterns corresponding to the respective image images are
構図パターンは、X(行)方向、Y(列)方向の画素を複数まとめた矩形ブロック毎に分割されている。図6乃至図8に示す例では、矩形ブロック内に記載されている数値が大きいほど、距離が遠いことを示している。具体的には、画像イメージ600は画面中央に水平線があり、画面下から画面中央に向かって道が延びており、中央付近に消失点があり、画面中央より上は、空を示した画像イメージ図である。
The composition pattern is divided for each rectangular block in which a plurality of pixels in the X (row) direction and Y (column) direction are collected. In the examples shown in FIGS. 6 to 8, the larger the numerical value described in the rectangular block, the farther the distance is. Specifically, the
構図パターン601は、画面上側が全て遠景で、距離としては一律遠いパターンで、画面下側は、中央と左右で距離が異なっていることを示している。画像イメージ700は、画面下から画面中央に向かって道が延びており、中央付近に消失点がある。また、画面中央より上は空であるが、道の脇に街路樹があるため、空の一部が街路樹で隠れている画像イメージ図である。構図パターン701は、画面中央に向けて距離が遠くなるパターンを示している。画像イメージ800は画面中央に水平線があり、水平線より下は海を示し、水平線より上は空を示した画像イメージ図である。構図パターン801は、画面上側が全て遠景で、距離としては一律遠いパターンで、画面下側は左右で均一に距離が遠いパターンを示している。
The
図9は、撮影時における撮像装置の動作処理を説明するフローチャートである。
まず、システム制御部114が、操作部115のSWが半押しされたかを判断する(ステップS900)。SWが半押しされていない場合は、処理がステップS900に戻る。SWが半押しされた場合は、システム制御部114が、撮影を開始し、撮像素子100からの画像データをA/D変換器101を通して各処理部に取り込む。そして、処理がステップ901に進む。
FIG. 9 is a flowchart for explaining an operation process of the imaging apparatus at the time of shooting.
First, the
次に、システム制御部114が、撮影レンズを駆動して、オートフォーカス(AF)制御を実行する(ステップS901)。具体的には、システム制御部114は、像面あるいは専用測距センサを用いた位相差検出方式を適用して、デフォーカス量と方向を算出し、算出したデフォーカス量と方向とに基づいて、レンズ制御部(不図示)を制御する。
Next, the
次に、システム制御部114が、近距離情報を取得する(ステップS902)。具体的には、近距離情報作成部102が近距離情報を作成し、システム制御部114は、上記作成された近距離情報を取得する。システム制御部114は、メモリコントローラ110を制御して、近距離情報をメモリ111に一時的に記録するようにしてもよい。
Next, the
次に、システム制御部114が、操作部115が有するSWが全押しされたかを判断する(ステップS903)。SWが全押しされた場合は、処理がステップS904に進む。SWが全押しされていない場合は、処理がステップS901に戻り、再度AF制御が実行される。なお、AF制御は、カメラのモードに応じて、SW半押し時の1回のみ動作させてもよい。
Next, the
ステップ904において、システム制御部114が、奥行き情報を取得する(ステップS904)。具体的には、奥行き情報作成部104が、奥行き情報を作成し、システム制御部114が、作成された奥行き情報を取得する。システム制御部114が、メモリコントローラ110を制御して、奥行き情報をメモリ111に一時的に記録してもよい。奥行き情報の作成処理は、図10および図11を用いて後述する。
In step 904, the
次に、距離情報作成部105が、近距離情報と奥行き情報とに基づいて、距離情報を作成する(ステップS905)。システム制御部114が、メモリコントローラ110を制御して、作成された距離情報をメモリ111に一時的に記録してもよい。
Next, the distance
次に、システム制御部114が、画像処理部106を制御して、ステップ905で作成した距離情報が示す距離に応じて、画素または矩形ブロック毎に、領域毎にフィルタ処理やコントラスト、明るさや色変更などの画像処理を行う(ステップS906)。また、システム制御部114が、画像処理部106を制御して、その他の画像処理(ホワイトバランスや黒レベル補正、シェーディング補正、キズ補正、ノイズリダクション、ガンマ補正、縮小拡大、歪補正など)を行う。さらに、システム制御部114が、画像処理部106を制御して、画像データを圧縮して記録媒体に記憶、モニタなどへの表示を行い、撮影を完了させる。
Next, the
図10は、実施例1における奥行き情報の作成処理を説明するフローチャートである。システム制御部114が、奥行き情報作成部104を制御することで、奥行き情報の作成処理を実行する。
FIG. 10 is a flowchart illustrating the depth information creation process according to the first embodiment. The
まず、システム制御部114が、画像データの全矩形ブロックに近距離情報があるかを判断する(ステップS1000)。なお、ステップS1000において、システム制御部114が、画像データの全画素に近距離情報があるかを判断するようにしてもよい。
First, the
画像データの全矩形ブロックに近距離情報がある場合は、奥行き情報を作成する必要がない。したがって、この場合には、処理を終了する。画像データに近距離情報がない矩形ブロックがある場合は、その矩形ブロックについて奥行き情報を作成する必要がある。したがって、この場合は、処理がステップS1001に進む。 When all the rectangular blocks of the image data have short distance information, it is not necessary to create depth information. Therefore, in this case, the process ends. When there is a rectangular block with no short distance information in the image data, it is necessary to create depth information for the rectangular block. Therefore, in this case, the process proceeds to step S1001.
ステップ1001において、システム制御部114が、特徴量抽出領域に対して特徴量を抽出するかを判断する。
In step 1001, the
図11は、特徴量抽出領域を説明する図である。
特徴量抽出領域は、特徴量を抽出する対象とする領域である。図11には、画像データ1100における特徴量抽出領域を示す。画像データ1100は、図5中の画像データ500に対応する。図11中の点線枠(特徴量抽出領域枠)で囲まれたA乃至Iの領域が特徴量抽出領域である。
FIG. 11 is a diagram for explaining the feature amount extraction region.
The feature amount extraction region is a region from which a feature amount is extracted. FIG. 11 shows a feature amount extraction area in the
図10のステップS1001の判断処理で、システム制御部114が、特徴量抽出領域に対して特徴量を抽出すると判断した場合は、処理がステップS1002に進む。そして、システム制御部114が、特徴量として、例えば色ヒストグラムやエッジ(輪郭)情報を抽出(算出)し、処理がステップS1003に進む。システム制御部114が、特徴量抽出領域に対して特徴量を抽出しないと判断した場合は、処理がステップS1003に進む。
If the
ステップS1001における判断処理について、2つの具体例について説明する。ステップS1001における判断処理の1つ目の具体例は、以下のとおりである。システム制御部114は、特徴量抽出領域に対して近距離情報があるか否かを判断する。特徴量抽出領域に対して近距離情報がある場合に、システム制御部114が、特徴量抽出領域に対して特徴量を算出しないと判断する。特徴量抽出領域に対して近距離情報がない場合に、システム制御部114が、特徴量抽出領域に対して特徴量を算出すると判断する。
Two specific examples of the determination process in step S1001 will be described. A first specific example of the determination process in step S1001 is as follows. The
図11中の領域E、G、H、Iに対する近距離情報が取得でき、領域A、B、C、D、Fに対する近距離情報が取得できなかった場合を想定する。この場合には、領域E、G、H、Iについては、図10のステップS1001において特徴量を抽出しないと判断され、処理がステップS1003に進む。また、領域A、B、C、D、Fについては、図10のステップS1001において特徴量を抽出すると判断され、処理がステップS1002に進む。 Assume that short-distance information for regions E, G, H, and I in FIG. 11 can be acquired, but short-distance information for regions A, B, C, D, and F cannot be acquired. In this case, for regions E, G, H, and I, it is determined in step S1001 in FIG. 10 that no feature value is extracted, and the process proceeds to step S1003. For regions A, B, C, D, and F, it is determined in step S1001 in FIG. 10 that feature amounts are extracted, and the process proceeds to step S1002.
ステップS1001における判断処理の2つ目の具体例は、以下のとおりである。システム制御部114が、被写体認識部116を制御して、画像データから被写体を認識する被写体認識処理を実行する。システム制御部114が、被写体認識処理結果に基づいて、特徴量抽出領域が背景領域か否かを判断する。特徴量抽出領域が背景領域でない場合、システム制御部114が、特徴量を抽出しないと判断する。特徴量抽出領域が背景領域である場合、システム制御部114が、特徴量を抽出すると判断する。
A second specific example of the determination process in step S1001 is as follows. The
図11に示す画像データ1100中の領域E、Hからは被写体が認識される。したがって、領域E、Hは、背景領域でないので、システム制御部114は、特徴量を抽出しないと判断する。一方、領域A、B、C、D、F、G、Iからは被写体が認識されない。したがって、領域A、B、C、D、F、G、Iは、背景領域であるので、システム制御部114は、特徴量を抽出すると判断する。
A subject is recognized from areas E and H in the
ステップS1003において、システム制御部114が、画像データの全ての特徴量抽出領域について処理(S1001、S1002の処理)を行ったかを判断する(ステップS1003)。画像データの全ての特徴量抽出領域について処理を行った場合は、処理がステップS1004に進む。処理がされていない特徴量抽出領域がある場合は、ステップS1001に戻る。
In step S1003, the
ステップ1004において、システム制御部114が、奥行き情報作成部104を制御して、図11の領域AからIのうち、特徴量が抽出された領域の特徴量を比較・分析する。続いて、システム制御部114が、奥行き情報作成部104を制御して、ステップ1004における比較・分析処理結果と、近距離情報とに基づいて、奥行き情報の作成に用いる構図パターンを決定する(ステップS1005)。
In step 1004, the
構図パターンの決定について以下に説明する。近距離情報の有無に基づいて、特徴量を抽出するかの判断(S1001)を行った場合を想定する。図11中の領域AからCは、空であるので、システム制御部114は、これらの領域について、同じヒストグラムを算出する。領域D、Fは、空と地面を含むが、ほぼ同じヒストグラムが算出される。システム制御部114は、算出されたヒストグラムを比較することで、左右の類似度は高いが、画面上と画面中央の類似度は低いと判断する。
The determination of the composition pattern will be described below. A case is assumed in which it is determined whether or not to extract a feature amount based on the presence / absence of short-range information (S1001). Since areas A to C in FIG. 11 are empty, the
さらに、システム制御部114は、領域D、Fの特徴量(エッジ情報)に基づいて、画像データ1100中の水平線を検出する。E領域は、近距離情報があり、手前に物体がある可能性があるので、水平線の検出処理に利用しない。
Further, the
システム制御部114は、左右の類似度は高く、画面上と画面中央の類似度は低いというヒストグラムの分析結果と、水平線の検出処理結果に基づいて、図6の構図パターン601か図8の構図パターン801を奥行き情報の作成に用いる構図パターンの候補とする。さらに、絞り込み条件として、近距離情報により、中央と左右の近距離情報が異なることが分かる。したがって、システム制御部114は、構図パターン601を奥行き情報の作成に用いる構図パターンとして決定する。
The
一方、被写体認識処理結果に基づいて、特徴量を抽出するかの判断(S1001)を行った場合を想定する。図11中の領域AからCは、空であるので、システム制御部114は、これらの領域について、同じヒストグラムを算出する。同様に、領域G、Iは、道であり、ほぼ同じヒストグラムを示す。領域D、Fは、空と地面を含むが、ほぼ同じヒストグラムを示す。
On the other hand, a case is assumed in which it is determined whether to extract a feature amount (S1001) based on the subject recognition processing result. Since areas A to C in FIG. 11 are empty, the
また、領域Eには、手前に人物が写っているので、領域Eのヒストグラムは、領域D、Fのヒストグラムとは異なる。同様に、領域Hには、手前に人物が写っているので、領域Hのヒストグラムは、領域G、Iのヒストグラムとは異なる。さらに、領域A、D、Gについても、それぞれの領域が異なるため、ヒストグラムが異なる。システム制御部114は、上記のようにヒストグラムを比較することで、左右の類似度は高いが、上下の類似度は低いと判断する。
Further, since a person is shown in the foreground in the region E, the histogram of the region E is different from the histograms of the regions D and F. Similarly, since a person is shown in the foreground in the region H, the histogram of the region H is different from the histograms of the regions G and I. Further, since the regions A, D, and G are different, the histograms are different. The
さらに、システム制御部114は、領域D、Fの特徴量(エッジ情報)に基づいて、画像データ1100中の水平線を検出する。システム制御部114は、左右の類似度は高く、上下の類似度は低いというヒストグラムの比較結果と、水平線の検出処理結果に基づいて、図6の構図パターン601か図8の構図パターン801を奥行き情報の作成に用いる構図パターンの候補とする。さらに、絞り込み条件として、近距離情報により、中央と左右の近距離情報が異なることが分かる。したがって、システム制御部114は、構図パターン601を奥行き情報の作成に用いる構図パターンとして決定する。
Further, the
図10の説明に戻る。ステップ1006において、システム制御部114が、奥行き情報作成部104を制御して、構図パターンから奥行き情報を作成し、奥行き情報作成処理を終了する。
Returning to the description of FIG. In step 1006, the
本実施例によれば、撮影画像に関して近距離から奥行きまでの距離情報を作成することができる。したがって、距離に応じた画像処理を施すことが可能となり、人間の記憶色の再現や遠近感の向上を図ることができる。 According to the present embodiment, it is possible to create distance information from a short distance to a depth regarding a captured image. Therefore, it is possible to perform image processing according to distance, and it is possible to reproduce human memory colors and improve perspective.
(実施例2)
以下に、実施例2について説明する。なお、実施例2では、実施例1と異なる部分のみを説明し、同一の部分については、同一の符号を付すなどして詳細な説明を省略する。
(Example 2)
Example 2 will be described below. In the second embodiment, only portions different from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.
図12は、実施例2における奥行き情報の作成処理を説明するフローチャートである。
ステップ1200で、システム制御部114が、特徴量抽出領域に対して補間するかを判断する。システム制御部114が、特徴量抽出領域に対して補間すると判断した場合は、処理がステップS1002に進む。システム制御部114が、特徴量抽出領域に対して補間しないと判断した場合は、処理がステップS1201に進む。
FIG. 12 is a flowchart illustrating the depth information creation process according to the second embodiment.
In step 1200, the
ステップS1200における判断処理について、2つの具体例について説明する。ステップS1200における判断処理の1つ目の具体例は、以下のとおりである。システム制御部114は、特徴量抽出領域に対して近距離情報があるか否かを判断する。特徴量抽出領域に対して近距離情報がある場合に、システム制御部114が、特徴量抽出領域に対して補間すると判断する。特徴量抽出領域に対して近距離情報がない場合に、システム制御部114が、特徴量抽出領域に対して補間しないと判断する。
Two specific examples of the determination process in step S1200 will be described. A first specific example of the determination process in step S1200 is as follows. The
ステップS1200における判断処理の2つ目の具体例は、以下のとおりである。システム制御部114が、被写体認識部116を制御して、画像データから被写体を認識する被写体認識処理を実行する。システム制御部114が、被写体認識処理結果に基づいて、特徴量抽出領域が背景領域か否かを判断する。特徴量抽出領域が背景領域でない場合、システム制御部114が、特徴量抽出領域に対して補間すると判断する。例えば、図11の領域Eは、人物の顔によって背景が隠れてしまっている。つまり、領域Eは、背景領域でないので、システム制御部114が、特徴量抽出領域に対して補間すると判断する。特徴量抽出領域が背景領域である場合、システム制御部114が、特徴量抽出領域に対して補間しないと判断する。
A second specific example of the determination process in step S1200 is as follows. The
ステップ1201において、システム制御部114が、奥行き情報作成部を制御して、周辺画素から補間して特徴量抽出領域を補間してから、特徴量を抽出する(ステップS1201)。なお、周辺画素の領域の距離情報が特徴量抽出領域とほぼ同じ距離の場合には、補間は行わず、特徴量も抽出しない。
In step 1201, the
図13は、特徴点抽出領域が補間された画像データを示す図である。具体的には、図13には、画像データ1100に対して特徴量抽出領域を補間した後の画像データ1300を示す。
FIG. 13 is a diagram illustrating image data in which a feature point extraction region is interpolated. Specifically, FIG. 13 shows the
システム制御部114は、領域Eについては、まず、周辺画素から水平線を検出して、水平線を補間する。システム制御部114は、さらに、水平線より上の画素に対しては、空領域から補間し、水平線より下の画素に対しては、道領域から補間する。システム制御部114は、領域Hについては、道領域から補間する。
For the region E, the
実施例2では、背景が隠れてしまった特徴量抽出領域に対して、周辺画素から補間した上で特徴量を算出して、より多くの特徴量抽出領域に対して特徴量を比較・分析することで、構図パターンの選択精度を向上することができる。 In the second embodiment, a feature quantity is calculated after interpolating from surrounding pixels with respect to a feature quantity extraction area whose background is hidden, and the feature quantities are compared and analyzed with respect to a larger number of feature quantity extraction areas. As a result, the composition pattern selection accuracy can be improved.
(実施例3)
以下に、実施例3について説明する。なお、実施例3では、実施例1と異なる部分のみを説明し、同一の部分については、同一の符号を付すなどして詳細な説明を省略する。
(Example 3)
Example 3 will be described below. In the third embodiment, only portions different from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.
図14は、実施例3の撮像装置の構成を示す図である。
位置情報取得部1400は、GPSなどによって得られる撮影時の位置情報を取得する。姿勢判定部1401は、ジャイロや慣性航法センサによって得られる、撮像装置の姿勢を判定する。レンズ情報取得部1402は、撮影時のズーム倍率や絞り値などの情報を取得する。
FIG. 14 is a diagram illustrating the configuration of the imaging apparatus according to the third embodiment.
The position
通信部1403は、撮像装置と他装置1405(例えば、携帯電話や外部サーバなど)とを接続して通信を行う。通信規格としては、Wi−Fiに代表される無線通信や3G(第3世代移動通信システム)、LTE(Long Term Evolution )に代表される携帯電話通信などを用いるが、これらに限定されるわけではなく別の通信規格を用いてもよい。
A
奥行きマップ1404は、奥行き情報を作成するための距離情報を各画素あるいは複数画素からなる矩形ブロック毎に持ったデータである。この例では、奥行きマップ1404は、各撮影場所・方向に紐づけられた距離情報を保持している。例えば、奥行きマップ1404は、A地点のX方向、A地点のY方向、B地点のX方向、B地点のY方向に対するぞれぞれの距離情報を保持している。奥行きマップ1404は、メモリ111または不揮発メモリ113に保持されている。
The
図15は、実施例3における、奥行き情報の作成処理を説明するフローチャートである。
まず、システム制御部114が、レンズ情報取得部1402を制御して、レンズ情報を取得する(ステップS1500)。続いて、システム制御部114が、位置情報取得部1400を制御して、位置情報を取得する(ステップS1501)。
FIG. 15 is a flowchart illustrating the depth information creation process according to the third embodiment.
First, the
次に、システム制御部114が、姿勢判定部1401を制御して、撮像装置の姿勢を判定する(ステップS1502)。なお、ステップS1500からS1502までの処理の順番は順不同である。
Next, the
次に、システム制御部114が、奥行き情報作成部104を制御して、位置情報と姿勢情報から撮影方向の情報を作成し、レンズ情報から画角情報を作成する(ステップS1503)。そして、システム制御部114が、奥行き情報作成部104を制御して、ステップS1503において作成された撮影方向の情報と画角情報とから撮影場所を特定する。システム制御部114は、奥行きマップ1404から、上記撮影方向の情報と撮影場所とに紐付けられた距離情報を取得し、取得した距離情報に基づいて奥行き情報を作成する(ステップS1504)。
Next, the
(実施例4)
実施例4の撮像装置は、他装置1405と通信することで、他装置1405から奥行き情報を取得する。
Example 4
The imaging apparatus according to the fourth embodiment acquires depth information from the
図16は、実施例4における、奥行き情報の作成処理を説明するフローチャートである。なお、図15と同一の部分については説明を省略する。
ステップ1600において、システム制御部114が、奥行き情報作成部104を制御して、撮影方向の情報、画角情報を、通信部1403を介して他装置1405に送信する。他装置1405には、撮影場所と撮影方向に紐づけられた距離情報を保持している奥行きマップが予め記憶されているものとする。他装置1405は、撮像装置から送信された撮影方向の情報と画角情報とから撮影場所を特定する。他装置1405が、奥行きマップから、上記撮影方向の情報と撮影場所とに紐付けられた距離情報を取得し、奥行き情報を作成する。そして、他装置1405が、作成した奥行き情報を撮像装置に送信する。撮像装置では、システム制御部114が、通信部1403を介して、他装置1405から送信された奥行き情報を受信(取得)する。
FIG. 16 is a flowchart for describing depth information creation processing according to the fourth embodiment. The description of the same parts as those in FIG. 15 is omitted.
In step 1600, the
以上、本発明を好適な実施例に基づき具体的に説明したが、本発明は、上述した実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。 The present invention has been specifically described above based on the preferred embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Needless to say.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
102 近距離情報作成部
104 奥行き情報作成部
105 距離情報作成部
102 Short distance
Claims (12)
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
画素毎または複数の画素毎の距離情報を有する構図パターンが記憶された構図パターン記憶手段を備え、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記画像の所定の特徴量抽出領域について特徴量を抽出し、
前記特徴量抽出領域のうち、前記第1の距離情報が作成されている前記特徴量抽出領域に対しては、
欠落部分を補う必要がある前記特徴量抽出領域と判断し、
欠落部分を周辺画像から推定して欠落部分を補って前記特徴量を抽出し、
前記抽出した特徴量に基づいて、前記構図パターン記憶手段に記憶された構図パターンのうち、前記画像に対応する構図パターンを決定し、
前記決定した構図パターンを用いて前記奥行き情報を作成し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、
を備える
ことを特徴とする撮像装置。 Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means comprising composition pattern storage means for storing a composition pattern having distance information for each pixel or a plurality of pixels, and creating depth information related to the depth of the image;
With
The depth information creating means includes
Extracting a feature amount for a predetermined feature amount extraction region of the image;
Among the feature amount extraction regions, for the feature amount extraction region in which the first distance information is created,
Judge as the feature extraction area that needs to compensate for the missing part,
Estimating the missing part from the surrounding image and supplementing the missing part to extract the feature amount,
Based on the extracted feature amount, among the composition patterns stored in the composition pattern storage means, a composition pattern corresponding to the image is determined,
Creating the depth information using the determined composition pattern;
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information ;
An imaging apparatus comprising:
ことを特徴とする請求項1に記載の撮像装置。 The first distance creating means creates the first distance information based on a shift amount between two images obtained by forming an image of a light beam that has passed through different pupil regions of the photographing optical system. The imaging device according to claim 1.
前記奥行き情報作成手段は、前記被写体の認識処理結果に基づいて、前記特徴量抽出領域のうち前記第1の距離情報が作成されている前記特徴量抽出領域に対しては欠陥部分を補う必要がある前記特徴量抽出領域と判断するThe depth information creation means needs to compensate for a defective portion in the feature quantity extraction area in which the first distance information is created among the feature quantity extraction areas based on the recognition processing result of the subject. Judge as a certain feature amount extraction area
ことを特徴とする請求項1又は2に記載の撮像装置。The imaging apparatus according to claim 1 or 2, wherein
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
撮影場所と撮影方向とに紐付けられた奥行き情報が記憶された奥行き記憶手段を備え、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記被写体の撮影時のレンズ情報から画角情報を作成し、
前記奥行き記憶手段に記憶された奥行き情報に基づいて、前記画角情報と前記撮影時の撮影方向の情報とに対応する奥行き情報を作成し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、
を備える
ことを特徴とする撮像装置。 Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means for creating depth information related to the depth of the image , comprising depth storage means for storing depth information associated with a shooting location and a shooting direction ;
With
The depth information creating means includes
Create angle-of-view information from lens information when shooting the subject,
Based on the depth information stored in the depth storage means, creates depth information corresponding to the angle of view information and the information of the shooting direction at the time of shooting ,
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information;
With
An imaging apparatus characterized by that.
ことを特徴とする請求項5に記載の撮像装置。The imaging apparatus according to claim 5.
ことを特徴とする請求項5又は6に記載の撮像装置。The imaging apparatus according to claim 5 or 6.
ことを特徴とする請求項5乃至7のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 5, wherein the image pickup apparatus is an image pickup apparatus.
被写体を撮影して画像信号を出力する撮影手段と、
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記被写体の撮影時のレンズ情報から画角情報を作成し、
前記通信手段を介して、前記画角情報と前記撮影時の撮影方向の情報とを前記外部装置に送信することで、当該外部装置から前記画角情報と前記撮影時の撮影方向の情報とに対応する奥行き情報を取得し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、
を備える
ことを特徴とする撮像装置。 Comprising communication means for communicating with an external device;
Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means for creating depth information related to the depth of the image;
With
The depth information creating means includes
Create angle-of-view information from lens information when shooting the subject,
By transmitting the angle of view information and the information of the shooting direction at the time of shooting to the external device via the communication unit, the angle of view information and the information of the shooting direction at the time of shooting are transmitted from the external device. Get the corresponding depth information,
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information;
With
An imaging apparatus characterized by that.
ことを特徴とする請求項9に記載の撮像装置。The imaging apparatus according to claim 9.
ことを特徴とする請求項9又は10に記載の撮像装置。The imaging apparatus according to claim 9 or 10, wherein
ことを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 9, wherein the image pickup apparatus is an image pickup apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014018181A JP6300547B2 (en) | 2014-02-03 | 2014-02-03 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014018181A JP6300547B2 (en) | 2014-02-03 | 2014-02-03 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015146500A JP2015146500A (en) | 2015-08-13 |
JP6300547B2 true JP6300547B2 (en) | 2018-03-28 |
Family
ID=53890560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014018181A Active JP6300547B2 (en) | 2014-02-03 | 2014-02-03 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6300547B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001116985A (en) * | 1999-10-21 | 2001-04-27 | Canon Inc | Camera with subject recognizing function and subject recognizing method |
JP4872245B2 (en) * | 2005-06-06 | 2012-02-08 | トヨタ自動車株式会社 | Pedestrian recognition device |
JP5375401B2 (en) * | 2009-07-22 | 2013-12-25 | カシオ計算機株式会社 | Image processing apparatus and method |
JP2012257105A (en) * | 2011-06-09 | 2012-12-27 | Olympus Corp | Stereoscopic image obtaining apparatus |
JP5917125B2 (en) * | 2011-12-16 | 2016-05-11 | キヤノン株式会社 | Image processing apparatus, image processing method, imaging apparatus, and display apparatus |
JP5881005B2 (en) * | 2011-12-19 | 2016-03-09 | シャープ株式会社 | Image processing apparatus, image capturing apparatus, image display apparatus, image processing method, and program |
JP2013205867A (en) * | 2012-03-27 | 2013-10-07 | Sony Corp | Information processing unit, method, and program |
-
2014
- 2014-02-03 JP JP2014018181A patent/JP6300547B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015146500A (en) | 2015-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107087107B (en) | Image processing apparatus and method based on dual camera | |
US10009540B2 (en) | Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data | |
US9313419B2 (en) | Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map | |
US8682104B2 (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
US9489747B2 (en) | Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor | |
US20110096143A1 (en) | Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium | |
CN102959943A (en) | Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program | |
US11682131B2 (en) | Image capturing apparatus and method of controlling image capturing apparatus | |
US9811909B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
US8896670B2 (en) | Image processing device, image processing method, and program | |
TWI469085B (en) | Image processing apparatus, image processing method and computer readable storage medium | |
JP2015073185A (en) | Image processing device, image processing method and program | |
KR101375988B1 (en) | Object detection device, object detection method, and recording medium | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
CN113315956B (en) | Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium | |
JP5440366B2 (en) | Image processing apparatus and method, and program | |
KR20170011555A (en) | Digital photographing apparatus and the method for the same | |
KR20160137289A (en) | Photographing apparatus and method for controlling the same | |
KR20160123757A (en) | Image photographig apparatus and image photographing metheod | |
JP6300547B2 (en) | Imaging device | |
JP7134601B2 (en) | Image processing device, image processing method, imaging device, and imaging device control method | |
US10447937B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area | |
JP7346021B2 (en) | Image processing device, image processing method, imaging device, program and recording medium | |
JP6729583B2 (en) | Image processing apparatus and method | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6300547 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |