JP6300547B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6300547B2
JP6300547B2 JP2014018181A JP2014018181A JP6300547B2 JP 6300547 B2 JP6300547 B2 JP 6300547B2 JP 2014018181 A JP2014018181 A JP 2014018181A JP 2014018181 A JP2014018181 A JP 2014018181A JP 6300547 B2 JP6300547 B2 JP 6300547B2
Authority
JP
Japan
Prior art keywords
information
image
distance
depth
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014018181A
Other languages
Japanese (ja)
Other versions
JP2015146500A (en
Inventor
江幡 裕也
裕也 江幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014018181A priority Critical patent/JP6300547B2/en
Publication of JP2015146500A publication Critical patent/JP2015146500A/en
Application granted granted Critical
Publication of JP6300547B2 publication Critical patent/JP6300547B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus .

CCDやCMOS等の撮像素子を用いて画像を取得する撮像装置(例えば、デジタルカメラ)で、風景を撮影した画像データを後日、見直した場合、撮影時の雰囲気と異なることがある。これは、大気中の水蒸気やチリにより、撮影画像が肉眼で見るよりも彩度、鮮やかさ、奥行き感が異なることが要因の一つである。なお、CCDは、Charge Coupled Deviceの略称である。また、CMOSは、Complementary Metal Oxide Semiconductorの略称である。   When image data obtained by photographing a landscape is reviewed at a later date by an image pickup apparatus (for example, a digital camera) that acquires an image using an image pickup device such as a CCD or CMOS, the atmosphere at the time of shooting may differ. One of the factors is that the sense of saturation, vividness, and depth differ due to water vapor and dust in the atmosphere, as compared with the case where the photographed image is viewed with the naked eye. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.

ここで、奥行き感を向上させるため、奥行きを推定し、推定された奥行きに応じて、画像処理を変更させることが考えられる。特許文献1は、疑似立体動画像を生成するための奥行き推定データを生成する疑似立体画像生成装置を開示している。   Here, in order to improve the feeling of depth, it is conceivable to estimate the depth and change the image processing in accordance with the estimated depth. Patent Document 1 discloses a pseudo stereoscopic image generation device that generates depth estimation data for generating a pseudo stereoscopic moving image.

特開2006−185033号公報JP 2006-185033 A

特許文献1が開示する疑似立体画像生成装置は、奥行き情報を示す3種類の基本奥行きモデルを用いて、奥行き推定データを生成する。しかし、この疑似立体画像生成装置では、画像における遠景部分までの距離情報(遠距離情報)を得ることはできるが、画像の近景部分の距離情報(近距離情報)を得ることができない。したがって、この疑似立体画像生成装置では、近景部分に関しては不自然な画像となってしまう。   The pseudo-stereoscopic image generation device disclosed in Patent Literature 1 generates depth estimation data using three types of basic depth models indicating depth information. However, with this pseudo-stereoscopic image generation device, it is possible to obtain distance information (far distance information) to a distant view portion in the image, but it is not possible to obtain distance information (short distance information) of a foreground portion of the image. Therefore, in this pseudo-stereoscopic image generation device, an unnatural image is generated in the foreground portion.

本発明は、撮影画像に関する精度の良い距離情報を作成し、作成した距離情報に応じた画像処理を実行する撮像装置の提供を目的とする。   An object of the present invention is to provide an imaging apparatus that creates accurate distance information about a captured image and executes image processing according to the created distance information.

本発明の一実施形態の撮像装置は、被写体を撮影して画像信号を出力する撮影手段と、前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、画素毎または複数の画素毎の距離情報を有する構図パターンが記憶された構図パターン記憶手段を有し、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、を備え、前記奥行き情報作成手段は、前記画像の所定の特徴量抽出領域について特徴量を抽出し、前記特徴量抽出領域のうち、前記第1の距離情報が作成されている前記特徴量抽出領域に対しては、欠落部分を補う必要がある前記特徴量抽出領域と判断し、欠落部分を周辺画像から推定して欠落部分を補って前記特徴量を抽出し、前記抽出した特徴量に基づいて、前記構図パターン記憶手段に記憶された構図パターンのうち、前記画像に対応する構図パターンを決定し、前記決定した構図パターンを用いて前記奥行き情報を作成し、前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、前記第2の距離情報に基づいて前記画像を処理する画像処理手段とを備える。 An imaging apparatus according to an embodiment of the present invention includes a first distance that generates first distance information related to a distance between a photographing unit that photographs a subject and outputs an image signal, and a subject in a pixel of an image related to the image signal. A creation means; and a composition pattern storage means in which a composition pattern having distance information for each pixel or a plurality of pixels is stored, and depth information creation means for creating depth information related to the depth of the image , The depth information creation means extracts a feature amount for a predetermined feature amount extraction region of the image, and among the feature amount extraction regions, the feature amount extraction region for which the first distance information is created Determining the feature amount extraction region that needs to compensate for the missing part, estimating the missing part from the surrounding image and supplementing the missing part to extract the feature amount, based on the extracted feature amount, Serial composition pattern storage means of the stored composition patterns, said determining the corresponding composition pattern to the image, using the composition pattern described above determined to create the depth information, the depth information and the first distance information based on the bets comprises a second distance generating means for generating a second distance information about the distance to the object, and an image processing means for processing the image based on the second distance information.

本発明によれば、近距離から遠距離までの距離情報を作成することができ、距離に応じた画像処理を施すことで人間の記憶色の再現や遠近感の向上を図ることができる。   According to the present invention, distance information from a short distance to a long distance can be created, and human memory colors can be reproduced and a sense of perspective can be improved by performing image processing according to the distance.

撮像装置の構成例を示す図である。It is a figure which shows the structural example of an imaging device. 撮像素子の画素の構造を説明する図である。It is a figure explaining the structure of the pixel of an image sensor. 撮像素子の画素と光電変換部の配置を説明する平面図である。It is a top view explaining arrangement | positioning of the pixel of an image pick-up element, and a photoelectric conversion part. 物体像の結像状態を説明する図である。It is a figure explaining the image formation state of an object image. 近距離情報を説明する図である。It is a figure explaining short distance information. 構図パターンの一例を示す図である。It is a figure which shows an example of a composition pattern. 構図パターンの一例を示す図である。It is a figure which shows an example of a composition pattern. 構図パターンの一例を示す図である。It is a figure which shows an example of a composition pattern. 撮影時における撮像装置の動作処理を説明するフローチャートである。It is a flowchart explaining the operation | movement process of the imaging device at the time of imaging | photography. 奥行き情報の作成処理を説明するフローチャートである。It is a flowchart explaining the creation process of depth information. 特徴量抽出領域を説明する図である。It is a figure explaining the feature-value extraction area | region. 奥行き情報の作成処理を説明するフローチャートである。It is a flowchart explaining the creation process of depth information. 特徴点抽出領域が補間された画像データを示す図である。It is a figure which shows the image data by which the feature point extraction area | region was interpolated. 撮像装置の構成を示す図である。It is a figure which shows the structure of an imaging device. 奥行き情報の作成処理を説明するフローチャートである。It is a flowchart explaining the creation process of depth information. 奥行き情報の作成処理を説明するフローチャートである。It is a flowchart explaining the creation process of depth information.

(実施例1)
図1は、実施例1の撮像装置の構成を示す図である。
本実施例の撮像装置は、デジタルカメラである。なお、本発明の適用範囲は、デジタルカメラに限定されない。本発明は、デジタルビデオカメラ、カメラ付き携帯電話等の任意の撮像装置に適用可能である。
Example 1
FIG. 1 is a diagram illustrating a configuration of the imaging apparatus according to the first embodiment.
The imaging apparatus of the present embodiment is a digital camera. The application range of the present invention is not limited to a digital camera. The present invention can be applied to any imaging apparatus such as a digital video camera and a camera-equipped mobile phone.

図1は、第1の実施例に係るデジタルカメラの構成を示すブロック図である。
撮像素子100は、受光した被写体像を電気信号に変換して画像信号を出力するCCDやCMOSセンサ等の受光素子である。A/D変換器101は、撮像素子100のアナログ出力信号をデジタル信号に変換する。近距離情報作成部102は、撮像装置から被写体までの近距離情報を作成する(第1距離作成手段である)。近距離情報は、撮影された画像すなわち撮像素子100が出力する画像信号に係る画像の画素における被写体との距離に関する第1の距離情報である。具体的には、近距離情報は、当該画像の近景部分までの距離情報である。近距離情報作成処理の詳細については、後述する。
FIG. 1 is a block diagram illustrating the configuration of the digital camera according to the first embodiment.
The imaging element 100 is a light receiving element such as a CCD or CMOS sensor that converts a received subject image into an electrical signal and outputs an image signal. The A / D converter 101 converts the analog output signal of the image sensor 100 into a digital signal. The short distance information creating unit 102 creates short distance information from the imaging device to the subject (first distance creating means). The short distance information is first distance information related to the distance between the captured image, that is, the pixel of the image related to the image signal output from the image sensor 100 and the subject. Specifically, the short distance information is distance information to the near view portion of the image. Details of the short distance information creation processing will be described later.

構図パターン103は、各画素あるいは複数画素からなる矩形ブロック毎の距離情報を有するデータであり、構図パターン記憶手段として機能するメモリ111あるいは不揮発メモリ113に保持されている。奥行き情報作成部104は、構図パターンを用いて、奥行き情報を作成する。奥行き情報は、撮影された画像の遠景部分までの距離情報である。構図パターンの詳細については、後述する。   The composition pattern 103 is data having distance information for each rectangular block composed of each pixel or a plurality of pixels, and is held in the memory 111 or the non-volatile memory 113 functioning as a composition pattern storage unit. The depth information creation unit 104 creates depth information using the composition pattern. The depth information is distance information to a distant view portion of the photographed image. Details of the composition pattern will be described later.

奥行き情報作成部104は、奥行き情報を作成する。具体的には、奥行き情報作成部104は、近距離情報作成部102が近距離情報を作成できなかった箇所について奥行き情報を作成する。奥行き情報作成処理の詳細については、後述する。   The depth information creation unit 104 creates depth information. Specifically, the depth information creation unit 104 creates depth information for a location where the short distance information creation unit 102 could not create the short distance information. Details of the depth information creation processing will be described later.

距離情報作成部105は、近距離情報が作成されなかった箇所に対して、奥行き情報作成部104によって作成された奥行き情報をマージして、画像データ中の各画素あるいは複数画素からなる矩形ブロック毎の距離情報を作成する。すなわち、距離情報作成部105は、近距離情報と奥行き情報とに基づいて、被写体までの距離に関する第2の距離情報を作成する第2距離作成手段として機能する。   The distance information creation unit 105 merges the depth information created by the depth information creation unit 104 with respect to the location where the short distance information has not been created, for each rectangular block including each pixel or a plurality of pixels in the image data. Create distance information. That is, the distance information creation unit 105 functions as a second distance creation unit that creates second distance information related to the distance to the subject based on the short distance information and the depth information.

画像処理部106は、距離情報作成部105が作成した距離情報が示す距離に応じて、画像の領域毎にフィルタ処理やコントラスト、明るさや色変更などの画像処理を実行する。このために、画像処理部106は、ホワイトバランスや黒レベル補正、シェーディング補正、キズ補正、ノイズリダクション、ガンマ補正、縮小拡大、歪補正などの画像処理を実行する複数の処理部を備える。また、画像処理部106は、不図示の画像バッファメモリ、画像データの圧縮処理や伸長処理を行う圧縮伸長部、モニタなどに表示する表示制御部、記録媒体に記憶する記憶処理部などを備える。   The image processing unit 106 executes image processing such as filter processing, contrast, brightness, and color change for each image area according to the distance indicated by the distance information created by the distance information creation unit 105. For this purpose, the image processing unit 106 includes a plurality of processing units that execute image processing such as white balance, black level correction, shading correction, scratch correction, noise reduction, gamma correction, reduction / enlargement, and distortion correction. The image processing unit 106 includes an image buffer memory (not shown), a compression / decompression unit that performs compression processing and decompression processing of image data, a display control unit that displays on a monitor, a storage processing unit that stores data in a recording medium, and the like.

データ転送部107は、データ転送を行う複数のDirect Memory Accessコントローラ(不図示)のWRDMACとRDDMACとを備える。画像データは、WRDMACによってバス109に出力され、メモリコントローラ110を介してメモリ111に一時記憶される。メモリ111に一時記憶された画像データは、RDDMACによってメモリ111からバス109に出力され、画像処理部106に出力される。   The data transfer unit 107 includes WRDMAC and RDDMAC of a plurality of Direct Memory Access controllers (not shown) that perform data transfer. The image data is output to the bus 109 by WRDMAC and temporarily stored in the memory 111 via the memory controller 110. The image data temporarily stored in the memory 111 is output from the memory 111 to the bus 109 by the RDDMAC and output to the image processing unit 106.

バス108は、システムバスであり、バス109は、画像データバスである。なお、本実施形態では、システムバスと画像データバスとを分けているが、同一バスとしてもよい。   A bus 108 is a system bus, and a bus 109 is an image data bus. In this embodiment, the system bus and the image data bus are separated, but the same bus may be used.

メモリコントローラ110は、システム制御部であるCPU114またはデータ転送部107からの指示に応じて、メモリ111にデータを書き込んだり、メモリ111からデータを読み出したりする。なお、A/D変換器101からの出力データがメモリ111に直接書き込まれる場合もある。メモリ111は、所定枚数の静止画像や所定時間の動画像、音声等のデータやシステム制御部114の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える記憶装置である。   The memory controller 110 writes data to the memory 111 or reads data from the memory 111 in response to an instruction from the CPU 114 or the data transfer unit 107 which is a system control unit. Note that output data from the A / D converter 101 may be directly written into the memory 111. The memory 111 is a storage device having a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, data such as sound, constants for operating the system control unit 114, programs, and the like.

不揮発性メモリコントローラ112は、システム制御部114からの指示に応じて、不揮発性メモリ113にデータを書き込んだり、不揮発性メモリ113からデータを読み出したりする。不揮発性メモリ113は、電気的に消去・記録可能なメモリである。不揮発性メモリ113として、例えばEEPROM等が用いられる。不揮発性メモリ113には、システム制御部114の動作用の定数、プログラム等が記憶される。   The non-volatile memory controller 112 writes data to the non-volatile memory 113 or reads data from the non-volatile memory 113 in accordance with instructions from the system control unit 114. The nonvolatile memory 113 is an electrically erasable / recordable memory. As the nonvolatile memory 113, for example, an EEPROM or the like is used. The nonvolatile memory 113 stores constants, programs, and the like for operating the system control unit 114.

システム制御部114は、デジタルカメラの動作制御を司るマイクロコンピュータなどで構成される。システム制御部114は、デジタルカメラを構成する各処理部に対して様々な指示を行い、各種の制御処理を実行する。システム制御部114は、バス108を介して接続された近距離情報作成部102、奥行き情報作成部104、距離情報作成部105を制御する。また、システム制御部114は、画像処理部106、データ転送部107、メモリコントローラ110、不揮発性メモリコントローラ112、及び操作部115、撮像素子100を制御する。システム制御部114が備えるマイクロコンピュータは、不揮発性メモリ113に記録されたプログラムを実行する。   The system control unit 114 includes a microcomputer that controls the operation of the digital camera. The system control unit 114 gives various instructions to each processing unit constituting the digital camera, and executes various control processes. The system control unit 114 controls the short distance information creation unit 102, the depth information creation unit 104, and the distance information creation unit 105 connected via the bus 108. In addition, the system control unit 114 controls the image processing unit 106, the data transfer unit 107, the memory controller 110, the nonvolatile memory controller 112, the operation unit 115, and the image sensor 100. The microcomputer included in the system control unit 114 executes a program recorded in the nonvolatile memory 113.

操作部115は、ユーザにより操作されるスイッチ(SW)やボタン等を含む。操作部115は、電源のON/OFF、シャッタのON/OFF等の操作に用いられる。本実施形態では、SWが半押しされると、システム制御部114が、AF制御を実行する。また、SWが全押しされると、システム制御部114が、奥行き情報の取得処理を実行する。   The operation unit 115 includes a switch (SW), a button, and the like operated by the user. The operation unit 115 is used for operations such as power ON / OFF and shutter ON / OFF. In the present embodiment, when the SW is half-pressed, the system control unit 114 executes AF control. When the SW is fully pressed, the system control unit 114 executes a depth information acquisition process.

被写体認識部116は、画像データの局所的な特徴量に応じて画像データの領域分割を行って、領域毎の特徴量によって被写体を認識する。また、被写体認識部116は、領域毎に認識した被写体をグループ化する。被写体認識部116は、例えば、山、空、海、建物、人物、木、動物などをそれぞれのグループとして、領域毎の被写体認識情報として、奥行き情報作成部104に通知する。   The subject recognizing unit 116 divides the region of the image data according to the local feature amount of the image data, and recognizes the subject based on the feature amount for each region. The subject recognition unit 116 groups subjects recognized for each region. The subject recognition unit 116 notifies the depth information creation unit 104 as subject recognition information for each region, for example, mountains, sky, sea, buildings, people, trees, animals, etc. as groups.

次に、近距離情報作成処理について説明する。近距離情報作成部102は、各画素における被写体との距離を、複数の光電変換領域を持つ撮像素子を使用した位相差検出方式で算出する。つまり、近距離情報作成部102は、撮影光学系の異なる瞳領域を通過した光束が結像する像のずれ量に基づいて、位相差方式で近距離情報を算出する。   Next, short distance information creation processing will be described. The short distance information creation unit 102 calculates the distance from the subject in each pixel by a phase difference detection method using an image sensor having a plurality of photoelectric conversion regions. That is, the short distance information creation unit 102 calculates the short distance information by the phase difference method based on the amount of deviation of the image formed by the light flux that has passed through different pupil regions of the photographing optical system.

図2は、撮像素子の画素の構造を説明する図である。
撮像素子100は、図2に示す画素の構造を有する。図2(A)は、画素の正面図である。図2(B)は、画素の断面図である。1つの画素は、マイクロレンズ201と、光電変換部202、203を備える。このように、1つの画素に二つの光電変換部を配置することで、瞳分割が行われる。左右の画素をA画素、B画素、また左右それぞれの画素からの信号に係る像をそれぞれA像、B像と呼ぶものとする。
FIG. 2 is a diagram illustrating a pixel structure of the image sensor.
The image sensor 100 has a pixel structure shown in FIG. FIG. 2A is a front view of a pixel. FIG. 2B is a cross-sectional view of the pixel. One pixel includes a microlens 201 and photoelectric conversion units 202 and 203. As described above, pupil division is performed by arranging two photoelectric conversion units in one pixel. The left and right pixels are referred to as A pixel and B pixel, and the images related to the signals from the left and right pixels are respectively referred to as A image and B image.

図3は、撮像素子の画素と光電変換部、カラーフィルターの配置を説明する平面図である。各画素における円は、マイクロレンズを表している。ここでは4列×4列のみを抜き出して示している。この撮像素子は各画素にR(赤色)、G(緑色)、B(青色)のカラーフィルターを規則的に並べることによって、一般的なベイヤー配列を形成している。1画素は、A像、B像のそれぞれに対応する画像信号を出力する2つの光電変換部を有している。例えば、図3に示す例では、左上のG画素は、左側の光電変換部300であるG1および右側の光電変換部301であるG2を有している。従って、図3の各画素における2つの光電変換部は、瞳分割によって異なる射出瞳を通過して光電変換される。なお、撮像素子は、各画素にR(赤色)、G(緑色)、B(青色)を左右2分割しているが、無色フィルタの焦点検出用の専用画素を配置してもよい。   FIG. 3 is a plan view for explaining the arrangement of the pixels of the image sensor, the photoelectric conversion unit, and the color filter. A circle in each pixel represents a microlens. Here, only 4 columns × 4 columns are extracted and shown. This image pickup element forms a general Bayer array by regularly arranging color filters of R (red), G (green), and B (blue) on each pixel. One pixel has two photoelectric conversion units that output image signals corresponding to the A image and the B image, respectively. For example, in the example illustrated in FIG. 3, the upper left G pixel includes G1 that is the left photoelectric conversion unit 300 and G2 that is the right photoelectric conversion unit 301. Therefore, the two photoelectric conversion units in each pixel in FIG. 3 are photoelectrically converted through different exit pupils by pupil division. In the imaging device, R (red), G (green), and B (blue) are divided into left and right parts for each pixel, but a dedicated pixel for focus detection of a colorless filter may be arranged.

図4は、物体像の結像状態を説明する図である。
図4を参照して、撮像素子を使用した被写体と距離の算出方法について説明する。400はレンズ、401は撮像素子の断面を表している。図3で示すような撮像素子による光学系では、例えば、図4のように、撮像素子よりも手前に物体像が形成されているときは、図4中のAで示される射出瞳の上側を通る半光束は、撮像素子上でA’のように下側にシフトする。また、Bで示される射出瞳の下側を通る半光束は、B’のように上側にシフトする。
FIG. 4 is a diagram for explaining the imaging state of the object image.
With reference to FIG. 4, a method of calculating the subject and distance using the image sensor will be described. Reference numeral 400 denotes a lens, and 401 denotes a cross section of the image sensor. In the optical system using the image pickup device as shown in FIG. 3, for example, when an object image is formed in front of the image pickup device as shown in FIG. 4, the upper side of the exit pupil shown by A in FIG. The half-light flux passing through is shifted downward as A ′ on the image sensor. Further, the half light flux passing through the lower side of the exit pupil indicated by B shifts upward as shown by B ′.

つまり、各画素において撮像光学系の瞳の半分ずつを通った光束で形成される一対の画像信号は、物体像の結像状態に応じて、図4の上下方向に位相がシフトしたものとなる。従って、システム制御部114は、2つの被写体像の相対位置関係であるずれ量をその相関から求めることによって、デフォーカス量を算出して、レンズおよび絞りの各情報を使用して被写体との距離を算出する。例えば、X(行)方向に8画素、Y(列)方向に6画素の矩形ブロックに分け、デフォーカス量と方向を算出すると、撮影レンズのレンズ繰り出し量が決定される。上記矩形ブロックにおける被写体距離をD、撮影レンズの繰り出し量、焦点距離をそれぞれP,fとすると、近似的に
D≒f^2 /P
の関係が成立する。この関係に基づいて、矩形ブロックに対応する撮影画像の近距離情報を求めることができる。
That is, a pair of image signals formed by a light beam that passes through half of the pupil of the imaging optical system in each pixel has a phase shifted in the vertical direction in FIG. 4 in accordance with the imaging state of the object image. . Accordingly, the system control unit 114 calculates a defocus amount by obtaining a deviation amount, which is a relative positional relationship between two subject images, from the correlation thereof, and uses each information of the lens and the diaphragm to determine the distance from the subject. Is calculated. For example, if the defocus amount and direction are calculated by dividing the rectangular block of 8 pixels in the X (row) direction and 6 pixels in the Y (column) direction, the lens extension amount of the taking lens is determined. Assuming that the subject distance in the rectangular block is D, the taking-out amount of the photographing lens, and the focal length are P and f, respectively, approximately D≈f ^ 2 / P
The relationship is established. Based on this relationship, it is possible to obtain the short distance information of the captured image corresponding to the rectangular block.

図5は、近距離情報を説明する図である。
画像イメージ500は、人物を撮影した画像データを示し、画像イメージ500に近距離情報を付加したものが、近距離情報イメージ501である。近距離情報イメージ501の各矩形ブロックに表示された値は、便宜上簡略化した被写体までの距離(単位はメートル)である。ただし、値が表示されていない箇所は無限遠を意味するものとする。また、近距離情報の算出方法として、別の算出方法を用いてもよい。また、この例では、撮像面位相差検出方式を用いて近距離情報を算出するが、別途測距センサを用いて位相差検出方式や三角測距などで距離情報を求めてもよい。また、この例では、矩形ブロック毎に距離情報を算出するが、画素毎に算出してもよい。
FIG. 5 is a diagram for explaining the short distance information.
An image image 500 shows image data obtained by photographing a person, and a short distance information image 501 is obtained by adding short distance information to the image image 500. The value displayed in each rectangular block of the short distance information image 501 is a distance to the subject (unit: meters) simplified for convenience. However, a location where no value is displayed means infinity. Also, another calculation method may be used as the short distance information calculation method. Further, in this example, the short distance information is calculated using the imaging surface phase difference detection method, but the distance information may be obtained by a phase difference detection method, a triangular distance measurement, or the like using a separate distance measuring sensor. In this example, distance information is calculated for each rectangular block, but may be calculated for each pixel.

図6乃至図8は、構図パターンの一例を示す図である。
図6の600,図7の700,図8の800は、いずれも風景を撮影した結果得られる画像イメージ図である。それぞれの画像イメージに対応した構図パターンが、構図パターン601、701、801である。
6 to 8 are diagrams illustrating examples of composition patterns.
6 in FIG. 6, 700 in FIG. 7, and 800 in FIG. 8 are image images obtained as a result of photographing a landscape. Composition patterns corresponding to the respective image images are composition patterns 601, 701, and 801.

構図パターンは、X(行)方向、Y(列)方向の画素を複数まとめた矩形ブロック毎に分割されている。図6乃至図8に示す例では、矩形ブロック内に記載されている数値が大きいほど、距離が遠いことを示している。具体的には、画像イメージ600は画面中央に水平線があり、画面下から画面中央に向かって道が延びており、中央付近に消失点があり、画面中央より上は、空を示した画像イメージ図である。   The composition pattern is divided for each rectangular block in which a plurality of pixels in the X (row) direction and Y (column) direction are collected. In the examples shown in FIGS. 6 to 8, the larger the numerical value described in the rectangular block, the farther the distance is. Specifically, the image 600 has a horizontal line at the center of the screen, a road extends from the bottom of the screen toward the center of the screen, a vanishing point near the center, and an image image diagram showing the sky above the center of the screen. It is.

構図パターン601は、画面上側が全て遠景で、距離としては一律遠いパターンで、画面下側は、中央と左右で距離が異なっていることを示している。画像イメージ700は、画面下から画面中央に向かって道が延びており、中央付近に消失点がある。また、画面中央より上は空であるが、道の脇に街路樹があるため、空の一部が街路樹で隠れている画像イメージ図である。構図パターン701は、画面中央に向けて距離が遠くなるパターンを示している。画像イメージ800は画面中央に水平線があり、水平線より下は海を示し、水平線より上は空を示した画像イメージ図である。構図パターン801は、画面上側が全て遠景で、距離としては一律遠いパターンで、画面下側は左右で均一に距離が遠いパターンを示している。   The composition pattern 601 indicates that the upper side of the screen is a distant view and the distance is uniformly distant, and the lower side of the screen indicates that the distance is different between the center and the left and right. The image 700 has a path extending from the bottom of the screen toward the center of the screen, and has a vanishing point near the center. Moreover, although it is empty above the center of the screen, there is a roadside tree on the side of the road, so that a part of the sky is hidden by the roadside tree. A composition pattern 701 shows a pattern whose distance increases toward the center of the screen. The image image 800 is an image image diagram having a horizontal line at the center of the screen, showing the sea below the horizontal line, and showing the sky above the horizontal line. In the composition pattern 801, the upper side of the screen is a distant view, the pattern is uniformly distant from the distance, and the lower side of the screen is a pattern that is uniformly far from the left and right.

図9は、撮影時における撮像装置の動作処理を説明するフローチャートである。
まず、システム制御部114が、操作部115のSWが半押しされたかを判断する(ステップS900)。SWが半押しされていない場合は、処理がステップS900に戻る。SWが半押しされた場合は、システム制御部114が、撮影を開始し、撮像素子100からの画像データをA/D変換器101を通して各処理部に取り込む。そして、処理がステップ901に進む。
FIG. 9 is a flowchart for explaining an operation process of the imaging apparatus at the time of shooting.
First, the system control unit 114 determines whether the SW of the operation unit 115 is half-pressed (step S900). If SW is not half pressed, the process returns to step S900. When the SW is half-pressed, the system control unit 114 starts shooting and takes in the image data from the image sensor 100 to each processing unit through the A / D converter 101. Then, the process proceeds to step 901.

次に、システム制御部114が、撮影レンズを駆動して、オートフォーカス(AF)制御を実行する(ステップS901)。具体的には、システム制御部114は、像面あるいは専用測距センサを用いた位相差検出方式を適用して、デフォーカス量と方向を算出し、算出したデフォーカス量と方向とに基づいて、レンズ制御部(不図示)を制御する。   Next, the system control unit 114 drives the photographic lens to execute autofocus (AF) control (step S901). Specifically, the system control unit 114 calculates a defocus amount and direction by applying a phase difference detection method using an image plane or a dedicated distance sensor, and based on the calculated defocus amount and direction. The lens control unit (not shown) is controlled.

次に、システム制御部114が、近距離情報を取得する(ステップS902)。具体的には、近距離情報作成部102が近距離情報を作成し、システム制御部114は、上記作成された近距離情報を取得する。システム制御部114は、メモリコントローラ110を制御して、近距離情報をメモリ111に一時的に記録するようにしてもよい。   Next, the system control unit 114 acquires short distance information (step S902). Specifically, the short distance information creation unit 102 creates the short distance information, and the system control unit 114 acquires the created short distance information. The system control unit 114 may control the memory controller 110 to temporarily record the short distance information in the memory 111.

次に、システム制御部114が、操作部115が有するSWが全押しされたかを判断する(ステップS903)。SWが全押しされた場合は、処理がステップS904に進む。SWが全押しされていない場合は、処理がステップS901に戻り、再度AF制御が実行される。なお、AF制御は、カメラのモードに応じて、SW半押し時の1回のみ動作させてもよい。   Next, the system control unit 114 determines whether the SW included in the operation unit 115 has been fully pressed (step S903). If SW is fully pressed, the process proceeds to step S904. If SW is not fully pressed, the process returns to step S901, and AF control is executed again. The AF control may be operated only once when the SW is half-pressed according to the camera mode.

ステップ904において、システム制御部114が、奥行き情報を取得する(ステップS904)。具体的には、奥行き情報作成部104が、奥行き情報を作成し、システム制御部114が、作成された奥行き情報を取得する。システム制御部114が、メモリコントローラ110を制御して、奥行き情報をメモリ111に一時的に記録してもよい。奥行き情報の作成処理は、図10および図11を用いて後述する。   In step 904, the system control unit 114 acquires depth information (step S904). Specifically, the depth information creation unit 104 creates depth information, and the system control unit 114 acquires the created depth information. The system control unit 114 may temporarily record the depth information in the memory 111 by controlling the memory controller 110. Depth information creation processing will be described later with reference to FIGS. 10 and 11.

次に、距離情報作成部105が、近距離情報と奥行き情報とに基づいて、距離情報を作成する(ステップS905)。システム制御部114が、メモリコントローラ110を制御して、作成された距離情報をメモリ111に一時的に記録してもよい。   Next, the distance information creation unit 105 creates distance information based on the short distance information and the depth information (step S905). The system control unit 114 may control the memory controller 110 to temporarily record the created distance information in the memory 111.

次に、システム制御部114が、画像処理部106を制御して、ステップ905で作成した距離情報が示す距離に応じて、画素または矩形ブロック毎に、領域毎にフィルタ処理やコントラスト、明るさや色変更などの画像処理を行う(ステップS906)。また、システム制御部114が、画像処理部106を制御して、その他の画像処理(ホワイトバランスや黒レベル補正、シェーディング補正、キズ補正、ノイズリダクション、ガンマ補正、縮小拡大、歪補正など)を行う。さらに、システム制御部114が、画像処理部106を制御して、画像データを圧縮して記録媒体に記憶、モニタなどへの表示を行い、撮影を完了させる。   Next, the system control unit 114 controls the image processing unit 106 to perform filter processing, contrast, brightness, and color for each region for each pixel or rectangular block according to the distance indicated by the distance information created in step 905. Image processing such as change is performed (step S906). Further, the system control unit 114 controls the image processing unit 106 to perform other image processing (white balance, black level correction, shading correction, scratch correction, noise reduction, gamma correction, reduction / enlargement, distortion correction, and the like). . Further, the system control unit 114 controls the image processing unit 106 to compress the image data, store it in a recording medium, display it on a monitor, etc., and complete photographing.

図10は、実施例1における奥行き情報の作成処理を説明するフローチャートである。システム制御部114が、奥行き情報作成部104を制御することで、奥行き情報の作成処理を実行する。   FIG. 10 is a flowchart illustrating the depth information creation process according to the first embodiment. The system control unit 114 controls the depth information creation unit 104 to execute depth information creation processing.

まず、システム制御部114が、画像データの全矩形ブロックに近距離情報があるかを判断する(ステップS1000)。なお、ステップS1000において、システム制御部114が、画像データの全画素に近距離情報があるかを判断するようにしてもよい。   First, the system control unit 114 determines whether short distance information is present in all rectangular blocks of image data (step S1000). In step S1000, the system control unit 114 may determine whether all pixels of the image data have short distance information.

画像データの全矩形ブロックに近距離情報がある場合は、奥行き情報を作成する必要がない。したがって、この場合には、処理を終了する。画像データに近距離情報がない矩形ブロックがある場合は、その矩形ブロックについて奥行き情報を作成する必要がある。したがって、この場合は、処理がステップS1001に進む。   When all the rectangular blocks of the image data have short distance information, it is not necessary to create depth information. Therefore, in this case, the process ends. When there is a rectangular block with no short distance information in the image data, it is necessary to create depth information for the rectangular block. Therefore, in this case, the process proceeds to step S1001.

ステップ1001において、システム制御部114が、特徴量抽出領域に対して特徴量を抽出するかを判断する。   In step 1001, the system control unit 114 determines whether to extract a feature amount from the feature amount extraction region.

図11は、特徴量抽出領域を説明する図である。
特徴量抽出領域は、特徴量を抽出する対象とする領域である。図11には、画像データ1100における特徴量抽出領域を示す。画像データ1100は、図5中の画像データ500に対応する。図11中の点線枠(特徴量抽出領域枠)で囲まれたA乃至Iの領域が特徴量抽出領域である。
FIG. 11 is a diagram for explaining the feature amount extraction region.
The feature amount extraction region is a region from which a feature amount is extracted. FIG. 11 shows a feature amount extraction area in the image data 1100. The image data 1100 corresponds to the image data 500 in FIG. Areas A to I surrounded by a dotted line frame (feature quantity extraction area frame) in FIG. 11 are feature quantity extraction areas.

図10のステップS1001の判断処理で、システム制御部114が、特徴量抽出領域に対して特徴量を抽出すると判断した場合は、処理がステップS1002に進む。そして、システム制御部114が、特徴量として、例えば色ヒストグラムやエッジ(輪郭)情報を抽出(算出)し、処理がステップS1003に進む。システム制御部114が、特徴量抽出領域に対して特徴量を抽出しないと判断した場合は、処理がステップS1003に進む。   If the system control unit 114 determines in the determination process in step S1001 of FIG. 10 that a feature amount is extracted from the feature amount extraction region, the process proceeds to step S1002. Then, the system control unit 114 extracts (calculates), for example, a color histogram and edge (contour) information as the feature amount, and the process proceeds to step S1003. If the system control unit 114 determines that no feature amount is extracted from the feature amount extraction region, the process proceeds to step S1003.

ステップS1001における判断処理について、2つの具体例について説明する。ステップS1001における判断処理の1つ目の具体例は、以下のとおりである。システム制御部114は、特徴量抽出領域に対して近距離情報があるか否かを判断する。特徴量抽出領域に対して近距離情報がある場合に、システム制御部114が、特徴量抽出領域に対して特徴量を算出しないと判断する。特徴量抽出領域に対して近距離情報がない場合に、システム制御部114が、特徴量抽出領域に対して特徴量を算出すると判断する。   Two specific examples of the determination process in step S1001 will be described. A first specific example of the determination process in step S1001 is as follows. The system control unit 114 determines whether there is short-distance information for the feature amount extraction region. When there is short distance information for the feature amount extraction region, the system control unit 114 determines that the feature amount is not calculated for the feature amount extraction region. When there is no short-distance information for the feature quantity extraction region, the system control unit 114 determines to calculate a feature quantity for the feature quantity extraction region.

図11中の領域E、G、H、Iに対する近距離情報が取得でき、領域A、B、C、D、Fに対する近距離情報が取得できなかった場合を想定する。この場合には、領域E、G、H、Iについては、図10のステップS1001において特徴量を抽出しないと判断され、処理がステップS1003に進む。また、領域A、B、C、D、Fについては、図10のステップS1001において特徴量を抽出すると判断され、処理がステップS1002に進む。   Assume that short-distance information for regions E, G, H, and I in FIG. 11 can be acquired, but short-distance information for regions A, B, C, D, and F cannot be acquired. In this case, for regions E, G, H, and I, it is determined in step S1001 in FIG. 10 that no feature value is extracted, and the process proceeds to step S1003. For regions A, B, C, D, and F, it is determined in step S1001 in FIG. 10 that feature amounts are extracted, and the process proceeds to step S1002.

ステップS1001における判断処理の2つ目の具体例は、以下のとおりである。システム制御部114が、被写体認識部116を制御して、画像データから被写体を認識する被写体認識処理を実行する。システム制御部114が、被写体認識処理結果に基づいて、特徴量抽出領域が背景領域か否かを判断する。特徴量抽出領域が背景領域でない場合、システム制御部114が、特徴量を抽出しないと判断する。特徴量抽出領域が背景領域である場合、システム制御部114が、特徴量を抽出すると判断する。   A second specific example of the determination process in step S1001 is as follows. The system control unit 114 controls the subject recognition unit 116 to execute subject recognition processing for recognizing the subject from the image data. The system control unit 114 determines whether the feature amount extraction region is a background region based on the subject recognition processing result. If the feature amount extraction region is not the background region, the system control unit 114 determines that the feature amount is not extracted. If the feature amount extraction region is a background region, the system control unit 114 determines to extract a feature amount.

図11に示す画像データ1100中の領域E、Hからは被写体が認識される。したがって、領域E、Hは、背景領域でないので、システム制御部114は、特徴量を抽出しないと判断する。一方、領域A、B、C、D、F、G、Iからは被写体が認識されない。したがって、領域A、B、C、D、F、G、Iは、背景領域であるので、システム制御部114は、特徴量を抽出すると判断する。   A subject is recognized from areas E and H in the image data 1100 shown in FIG. Therefore, since the areas E and H are not background areas, the system control unit 114 determines not to extract feature amounts. On the other hand, no subject is recognized from the regions A, B, C, D, F, G, and I. Therefore, since the areas A, B, C, D, F, G, and I are background areas, the system control unit 114 determines to extract feature amounts.

ステップS1003において、システム制御部114が、画像データの全ての特徴量抽出領域について処理(S1001、S1002の処理)を行ったかを判断する(ステップS1003)。画像データの全ての特徴量抽出領域について処理を行った場合は、処理がステップS1004に進む。処理がされていない特徴量抽出領域がある場合は、ステップS1001に戻る。   In step S1003, the system control unit 114 determines whether or not all the feature amount extraction regions of the image data have been processed (steps S1001 and S1002) (step S1003). If processing has been performed for all the feature amount extraction regions of the image data, the processing proceeds to step S1004. If there is a feature amount extraction region that has not been processed, the process returns to step S1001.

ステップ1004において、システム制御部114が、奥行き情報作成部104を制御して、図11の領域AからIのうち、特徴量が抽出された領域の特徴量を比較・分析する。続いて、システム制御部114が、奥行き情報作成部104を制御して、ステップ1004における比較・分析処理結果と、近距離情報とに基づいて、奥行き情報の作成に用いる構図パターンを決定する(ステップS1005)。   In step 1004, the system control unit 114 controls the depth information creation unit 104 to compare and analyze the feature amounts of the regions from which the feature amounts have been extracted from the regions A to I in FIG. Subsequently, the system control unit 114 controls the depth information creation unit 104 to determine a composition pattern to be used for creation of depth information based on the comparison / analysis processing result in step 1004 and the short-range information (step S1005).

構図パターンの決定について以下に説明する。近距離情報の有無に基づいて、特徴量を抽出するかの判断(S1001)を行った場合を想定する。図11中の領域AからCは、空であるので、システム制御部114は、これらの領域について、同じヒストグラムを算出する。領域D、Fは、空と地面を含むが、ほぼ同じヒストグラムが算出される。システム制御部114は、算出されたヒストグラムを比較することで、左右の類似度は高いが、画面上と画面中央の類似度は低いと判断する。   The determination of the composition pattern will be described below. A case is assumed in which it is determined whether or not to extract a feature amount based on the presence / absence of short-range information (S1001). Since areas A to C in FIG. 11 are empty, the system control unit 114 calculates the same histogram for these areas. Regions D and F include the sky and the ground, but substantially the same histogram is calculated. By comparing the calculated histograms, the system control unit 114 determines that the similarity between the left and right sides is high, but the similarity between the screen and the center of the screen is low.

さらに、システム制御部114は、領域D、Fの特徴量(エッジ情報)に基づいて、画像データ1100中の水平線を検出する。E領域は、近距離情報があり、手前に物体がある可能性があるので、水平線の検出処理に利用しない。   Further, the system control unit 114 detects a horizontal line in the image data 1100 based on the feature amounts (edge information) of the regions D and F. The E region has short-range information and there is a possibility that there is an object in the foreground, so it is not used for the horizontal line detection process.

システム制御部114は、左右の類似度は高く、画面上と画面中央の類似度は低いというヒストグラムの分析結果と、水平線の検出処理結果に基づいて、図6の構図パターン601か図8の構図パターン801を奥行き情報の作成に用いる構図パターンの候補とする。さらに、絞り込み条件として、近距離情報により、中央と左右の近距離情報が異なることが分かる。したがって、システム制御部114は、構図パターン601を奥行き情報の作成に用いる構図パターンとして決定する。   The system control unit 114 determines the composition pattern 601 in FIG. 6 or the composition in FIG. 8 based on the analysis result of the histogram that the similarity between the left and right is high and the similarity between the screen and the center of the screen is low, and the horizontal line detection processing result. The pattern 801 is used as a composition pattern candidate used for creating depth information. Furthermore, it can be seen that, as a narrowing-down condition, the short distance information in the center and the short distance information on the left and right differ depending on the short distance information. Therefore, the system control unit 114 determines the composition pattern 601 as a composition pattern used for creating depth information.

一方、被写体認識処理結果に基づいて、特徴量を抽出するかの判断(S1001)を行った場合を想定する。図11中の領域AからCは、空であるので、システム制御部114は、これらの領域について、同じヒストグラムを算出する。同様に、領域G、Iは、道であり、ほぼ同じヒストグラムを示す。領域D、Fは、空と地面を含むが、ほぼ同じヒストグラムを示す。   On the other hand, a case is assumed in which it is determined whether to extract a feature amount (S1001) based on the subject recognition processing result. Since areas A to C in FIG. 11 are empty, the system control unit 114 calculates the same histogram for these areas. Similarly, regions G and I are roads and show substantially the same histogram. Regions D and F include the sky and the ground, but show substantially the same histogram.

また、領域Eには、手前に人物が写っているので、領域Eのヒストグラムは、領域D、Fのヒストグラムとは異なる。同様に、領域Hには、手前に人物が写っているので、領域Hのヒストグラムは、領域G、Iのヒストグラムとは異なる。さらに、領域A、D、Gについても、それぞれの領域が異なるため、ヒストグラムが異なる。システム制御部114は、上記のようにヒストグラムを比較することで、左右の類似度は高いが、上下の類似度は低いと判断する。   Further, since a person is shown in the foreground in the region E, the histogram of the region E is different from the histograms of the regions D and F. Similarly, since a person is shown in the foreground in the region H, the histogram of the region H is different from the histograms of the regions G and I. Further, since the regions A, D, and G are different, the histograms are different. The system control unit 114 compares the histograms as described above, and determines that the left and right similarities are high, but the upper and lower similarities are low.

さらに、システム制御部114は、領域D、Fの特徴量(エッジ情報)に基づいて、画像データ1100中の水平線を検出する。システム制御部114は、左右の類似度は高く、上下の類似度は低いというヒストグラムの比較結果と、水平線の検出処理結果に基づいて、図6の構図パターン601か図8の構図パターン801を奥行き情報の作成に用いる構図パターンの候補とする。さらに、絞り込み条件として、近距離情報により、中央と左右の近距離情報が異なることが分かる。したがって、システム制御部114は、構図パターン601を奥行き情報の作成に用いる構図パターンとして決定する。   Further, the system control unit 114 detects a horizontal line in the image data 1100 based on the feature amounts (edge information) of the regions D and F. The system control unit 114 sets the composition pattern 601 in FIG. 6 or the composition pattern 801 in FIG. 8 to the depth based on the histogram comparison result that the left and right similarity is high and the vertical similarity is low and the horizontal line detection processing result. The composition pattern is used as a candidate for composition. Furthermore, it can be seen that, as a narrowing-down condition, the short distance information in the center and the short distance information on the left and right differ depending on the short distance information. Therefore, the system control unit 114 determines the composition pattern 601 as a composition pattern used for creating depth information.

図10の説明に戻る。ステップ1006において、システム制御部114が、奥行き情報作成部104を制御して、構図パターンから奥行き情報を作成し、奥行き情報作成処理を終了する。   Returning to the description of FIG. In step 1006, the system control unit 114 controls the depth information creation unit 104 to create depth information from the composition pattern, and the depth information creation processing ends.

本実施例によれば、撮影画像に関して近距離から奥行きまでの距離情報を作成することができる。したがって、距離に応じた画像処理を施すことが可能となり、人間の記憶色の再現や遠近感の向上を図ることができる。   According to the present embodiment, it is possible to create distance information from a short distance to a depth regarding a captured image. Therefore, it is possible to perform image processing according to distance, and it is possible to reproduce human memory colors and improve perspective.

(実施例2)
以下に、実施例2について説明する。なお、実施例2では、実施例1と異なる部分のみを説明し、同一の部分については、同一の符号を付すなどして詳細な説明を省略する。
(Example 2)
Example 2 will be described below. In the second embodiment, only portions different from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.

図12は、実施例2における奥行き情報の作成処理を説明するフローチャートである。
ステップ1200で、システム制御部114が、特徴量抽出領域に対して補間するかを判断する。システム制御部114が、特徴量抽出領域に対して補間すると判断した場合は、処理がステップS1002に進む。システム制御部114が、特徴量抽出領域に対して補間しないと判断した場合は、処理がステップS1201に進む。
FIG. 12 is a flowchart illustrating the depth information creation process according to the second embodiment.
In step 1200, the system control unit 114 determines whether to interpolate the feature amount extraction region. If the system control unit 114 determines to interpolate with respect to the feature amount extraction region, the process proceeds to step S1002 . If the system control unit 114 determines not to interpolate the feature amount extraction region, the process proceeds to step S1201 .

ステップS1200における判断処理について、2つの具体例について説明する。ステップS1200における判断処理の1つ目の具体例は、以下のとおりである。システム制御部114は、特徴量抽出領域に対して近距離情報があるか否かを判断する。特徴量抽出領域に対して近距離情報がある場合に、システム制御部114が、特徴量抽出領域に対して補間すると判断する。特徴量抽出領域に対して近距離情報がない場合に、システム制御部114が、特徴量抽出領域に対して補間しないと判断する。   Two specific examples of the determination process in step S1200 will be described. A first specific example of the determination process in step S1200 is as follows. The system control unit 114 determines whether there is short-distance information for the feature amount extraction region. When there is short-distance information for the feature amount extraction region, the system control unit 114 determines to interpolate for the feature amount extraction region. When there is no short-distance information for the feature quantity extraction region, the system control unit 114 determines not to interpolate for the feature quantity extraction region.

ステップS1200における判断処理の2つ目の具体例は、以下のとおりである。システム制御部114が、被写体認識部116を制御して、画像データから被写体を認識する被写体認識処理を実行する。システム制御部114が、被写体認識処理結果に基づいて、特徴量抽出領域が背景領域か否かを判断する。特徴量抽出領域が背景領域でない場合、システム制御部114が、特徴量抽出領域に対して補間すると判断する。例えば、図11の領域Eは、人物の顔によって背景が隠れてしまっている。つまり、領域Eは、背景領域でないので、システム制御部114が、特徴量抽出領域に対して補間すると判断する。特徴量抽出領域が背景領域である場合、システム制御部114が、特徴量抽出領域に対して補間しないと判断する。   A second specific example of the determination process in step S1200 is as follows. The system control unit 114 controls the subject recognition unit 116 to execute subject recognition processing for recognizing the subject from the image data. The system control unit 114 determines whether the feature amount extraction region is a background region based on the subject recognition processing result. If the feature amount extraction region is not a background region, the system control unit 114 determines to interpolate with respect to the feature amount extraction region. For example, in the region E in FIG. 11, the background is hidden by the face of the person. That is, since the area E is not a background area, the system control unit 114 determines to interpolate with respect to the feature amount extraction area. When the feature amount extraction region is a background region, the system control unit 114 determines not to interpolate with respect to the feature amount extraction region.

ステップ1201において、システム制御部114が、奥行き情報作成部を制御して、周辺画素から補間して特徴量抽出領域を補間してから、特徴量を抽出する(ステップS1201)。なお、周辺画素の領域の距離情報が特徴量抽出領域とほぼ同じ距離の場合には、補間は行わず、特徴量も抽出しない。   In step 1201, the system control unit 114 controls the depth information creation unit to interpolate from the surrounding pixels to interpolate the feature amount extraction region, and then extract the feature amount (step S1201). When the distance information of the peripheral pixel region is approximately the same distance as the feature amount extraction region, no interpolation is performed and no feature amount is extracted.

図13は、特徴点抽出領域が補間された画像データを示す図である。具体的には、図13には、画像データ1100に対して特徴量抽出領域を補間した後の画像データ1300を示す。   FIG. 13 is a diagram illustrating image data in which a feature point extraction region is interpolated. Specifically, FIG. 13 shows the image data 1300 after the feature amount extraction region is interpolated with respect to the image data 1100.

システム制御部114は、領域Eについては、まず、周辺画素から水平線を検出して、水平線を補間する。システム制御部114は、さらに、水平線より上の画素に対しては、空領域から補間し、水平線より下の画素に対しては、道領域から補間する。システム制御部114は、領域Hについては、道領域から補間する。   For the region E, the system control unit 114 first detects a horizontal line from surrounding pixels and interpolates the horizontal line. Further, the system control unit 114 interpolates from the sky region for pixels above the horizontal line, and interpolates from the road region for pixels below the horizontal line. The system control unit 114 interpolates the area H from the road area.

実施例2では、背景が隠れてしまった特徴量抽出領域に対して、周辺画素から補間した上で特徴量を算出して、より多くの特徴量抽出領域に対して特徴量を比較・分析することで、構図パターンの選択精度を向上することができる。   In the second embodiment, a feature quantity is calculated after interpolating from surrounding pixels with respect to a feature quantity extraction area whose background is hidden, and the feature quantities are compared and analyzed with respect to a larger number of feature quantity extraction areas. As a result, the composition pattern selection accuracy can be improved.

(実施例3)
以下に、実施例3について説明する。なお、実施例3では、実施例1と異なる部分のみを説明し、同一の部分については、同一の符号を付すなどして詳細な説明を省略する。
(Example 3)
Example 3 will be described below. In the third embodiment, only portions different from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.

図14は、実施例3の撮像装置の構成を示す図である。
位置情報取得部1400は、GPSなどによって得られる撮影時の位置情報を取得する。姿勢判定部1401は、ジャイロや慣性航法センサによって得られる、撮像装置の姿勢を判定する。レンズ情報取得部1402は、撮影時のズーム倍率や絞り値などの情報を取得する。
FIG. 14 is a diagram illustrating the configuration of the imaging apparatus according to the third embodiment.
The position information acquisition unit 1400 acquires position information at the time of shooting obtained by GPS or the like. The posture determination unit 1401 determines the posture of the imaging device obtained by a gyro or an inertial navigation sensor. The lens information acquisition unit 1402 acquires information such as zoom magnification and aperture value at the time of shooting.

通信部1403は、撮像装置と他装置1405(例えば、携帯電話や外部サーバなど)とを接続して通信を行う。通信規格としては、Wi−Fiに代表される無線通信や3G(第3世代移動通信システム)、LTE(Long Term Evolution )に代表される携帯電話通信などを用いるが、これらに限定されるわけではなく別の通信規格を用いてもよい。   A communication unit 1403 performs communication by connecting an imaging device and another device 1405 (for example, a mobile phone or an external server). As communication standards, wireless communication typified by Wi-Fi, 3G (third generation mobile communication system), cellular phone communication typified by LTE (Long Term Evolution), etc. are used, but are not limited to these. Alternatively, another communication standard may be used.

奥行きマップ1404は、奥行き情報を作成するための距離情報を各画素あるいは複数画素からなる矩形ブロック毎に持ったデータである。この例では、奥行きマップ1404は、各撮影場所・方向に紐づけられた距離情報を保持している。例えば、奥行きマップ1404は、A地点のX方向、A地点のY方向、B地点のX方向、B地点のY方向に対するぞれぞれの距離情報を保持している。奥行きマップ1404は、メモリ111または不揮発メモリ113に保持されている。 The depth map 1404 is data having distance information for creating depth information for each rectangular block composed of each pixel or a plurality of pixels. In this example, the depth map 1404 holds distance information associated with each shooting location / direction. For example, the depth map 1404 holds distance information for the X direction at point A, the Y direction at point A, the X direction at point B, and the Y direction at point B. The depth map 1404 is held in the memory 111 or the nonvolatile memory 113.

図15は、実施例3における、奥行き情報の作成処理を説明するフローチャートである。
まず、システム制御部114が、レンズ情報取得部1402を制御して、レンズ情報を取得する(ステップS1500)。続いて、システム制御部114が、位置情報取得部1400を制御して、位置情報を取得する(ステップS1501)。
FIG. 15 is a flowchart illustrating the depth information creation process according to the third embodiment.
First, the system control unit 114 controls the lens information acquisition unit 1402 to acquire lens information (step S1500). Subsequently, the system control unit 114 controls the position information acquisition unit 1400 to acquire position information (step S1501).

次に、システム制御部114が、姿勢判定部1401を制御して、撮像装置の姿勢を判定する(ステップS1502)。なお、ステップS1500からS1502までの処理の順番は順不同である。   Next, the system control unit 114 controls the posture determination unit 1401 to determine the posture of the imaging device (step S1502). Note that the order of processing from step S1500 to step S1502 is in no particular order.

次に、システム制御部114が、奥行き情報作成部104を制御して、位置情報と姿勢情報から撮影方向の情報を作成し、レンズ情報から画角情報を作成する(ステップS1503)。そして、システム制御部114が、奥行き情報作成部104を制御して、ステップS1503において作成された撮影方向の情報と画角情報とから撮影場所を特定する。システム制御部114は、奥行きマップ1404から、上記撮影方向の情報と撮影場所とに紐付けられた距離情報を取得し、取得した距離情報に基づいて奥行き情報を作成する(ステップS1504)。 Next, the system control unit 114 controls the depth information creation unit 104 to create shooting direction information from the position information and orientation information, and create field angle information from the lens information (step S1503). Then, the system control unit 114 controls the depth information creation unit 104 to identify the shooting location from the shooting direction information and the angle-of-view information created in step S1503. The system control unit 114 acquires distance information associated with the shooting direction information and the shooting location from the depth map 1404, and creates depth information based on the acquired distance information (step S1504).

(実施例4)
実施例4の撮像装置は、他装置1405と通信することで、他装置1405から奥行き情報を取得する。
Example 4
The imaging apparatus according to the fourth embodiment acquires depth information from the other apparatus 1405 by communicating with the other apparatus 1405.

図16は、実施例4における、奥行き情報の作成処理を説明するフローチャートである。なお、図15と同一の部分については説明を省略する。
ステップ1600において、システム制御部114が、奥行き情報作成部104を制御して、撮影方向の情報、画角情報を、通信部1403を介して他装置1405に送信する。他装置1405には、撮影場所と撮影方向に紐づけられた距離情報を保持している奥行きマップが予め記憶されているものとする。他装置1405は、撮像装置から送信された撮影方向の情報と画角情報とから撮影場所を特定する。他装置1405が、奥行きマップから、上記撮影方向の情報と撮影場所とに紐付けられた距離情報を取得し、奥行き情報を作成する。そして、他装置1405が、作成した奥行き情報を撮像装置に送信する。撮像装置では、システム制御部114が、通信部1403を介して、他装置1405から送信された奥行き情報を受信(取得)する。
FIG. 16 is a flowchart for describing depth information creation processing according to the fourth embodiment. The description of the same parts as those in FIG. 15 is omitted.
In step 1600, the system control unit 114 controls the depth information creation unit 104 to transmit shooting direction information and field angle information to the other device 1405 via the communication unit 1403. It is assumed that the other apparatus 1405 stores in advance a depth map that holds distance information associated with a shooting location and a shooting direction. The other device 1405 identifies the shooting location from the shooting direction information and the angle-of-view information transmitted from the imaging device. The other apparatus 1405 obtains distance information associated with the information on the shooting direction and the shooting location from the depth map, and creates depth information. Then, the other apparatus 1405 transmits the created depth information to the imaging apparatus. In the imaging device, the system control unit 114 receives (acquires) depth information transmitted from the other device 1405 via the communication unit 1403.

以上、本発明を好適な実施例に基づき具体的に説明したが、本発明は、上述した実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。   The present invention has been specifically described above based on the preferred embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Needless to say.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

102 近距離情報作成部
104 奥行き情報作成部
105 距離情報作成部
102 Short distance information creation unit 104 Depth information creation unit 105 Distance information creation unit

Claims (12)

被写体を撮影して画像信号を出力する撮影手段と、
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
画素毎または複数の画素毎の距離情報を有する構図パターンが記憶された構図パターン記憶手段を備え、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記画像の所定の特徴量抽出領域について特徴量を抽出し、
前記特徴量抽出領域のうち、前記第1の距離情報が作成されている前記特徴量抽出領域に対しては、
欠落部分を補う必要がある前記特徴量抽出領域と判断し、
欠落部分を周辺画像から推定して欠落部分を補って前記特徴量を抽出し、
前記抽出した特徴量に基づいて、前記構図パターン記憶手段に記憶された構図パターンのうち、前記画像に対応する構図パターンを決定し、
前記決定した構図パターンを用いて前記奥行き情報を作成し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と
を備える
ことを特徴とする撮像装置。
Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means comprising composition pattern storage means for storing a composition pattern having distance information for each pixel or a plurality of pixels, and creating depth information related to the depth of the image;
With
The depth information creating means includes
Extracting a feature amount for a predetermined feature amount extraction region of the image;
Among the feature amount extraction regions, for the feature amount extraction region in which the first distance information is created,
Judge as the feature extraction area that needs to compensate for the missing part,
Estimating the missing part from the surrounding image and supplementing the missing part to extract the feature amount,
Based on the extracted feature amount, among the composition patterns stored in the composition pattern storage means, a composition pattern corresponding to the image is determined,
Creating the depth information using the determined composition pattern;
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information ;
An imaging apparatus comprising:
前記第1距離作成手段は、撮影光学系の異なる瞳領域を通過した光束が結像することで得られる2つの画像のずれ量に基づいて、前記第1の距離情報を作成する
ことを特徴とする請求項1に記載の撮像装置。
The first distance creating means creates the first distance information based on a shift amount between two images obtained by forming an image of a light beam that has passed through different pupil regions of the photographing optical system. The imaging device according to claim 1.
前記画像信号に係る画像からの被写体の認識処理を実行する認識手段を備え、Recognizing means for executing recognition processing of a subject from an image related to the image signal;
前記奥行き情報作成手段は、前記被写体の認識処理結果に基づいて、前記特徴量抽出領域のうち前記第1の距離情報が作成されている前記特徴量抽出領域に対しては欠陥部分を補う必要がある前記特徴量抽出領域と判断するThe depth information creation means needs to compensate for a defective portion in the feature quantity extraction area in which the first distance information is created among the feature quantity extraction areas based on the recognition processing result of the subject. Judge as a certain feature amount extraction area
ことを特徴とする請求項1又は2に記載の撮像装置。The imaging apparatus according to claim 1 or 2, wherein
前記奥行き情報作成手段は、前記抽出した特徴量と、前記画像の画素における前記第1の距離情報と、を用いて、前記画像に対する構図パターンを決定するThe depth information creating means determines a composition pattern for the image using the extracted feature amount and the first distance information in the pixels of the image.
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
被写体を撮影して画像信号を出力する撮影手段と、
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
撮影場所と撮影方向とに紐付けられた奥行き情報が記憶された奥行き記憶手段を備え、前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記被写体の撮影時のレンズ情報から画角情報を作成し、
前記奥行き記憶手段に記憶された奥行き情報に基づいて、前記画角情報と前記撮影時の撮影方向の情報とに対応する奥行き情報を作成し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、
を備える
ことを特徴とする撮像装置。
Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means for creating depth information related to the depth of the image , comprising depth storage means for storing depth information associated with a shooting location and a shooting direction ;
With
The depth information creating means includes
Create angle-of-view information from lens information when shooting the subject,
Based on the depth information stored in the depth storage means, creates depth information corresponding to the angle of view information and the information of the shooting direction at the time of shooting ,
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information;
With
An imaging apparatus characterized by that.
前記第1距離作成手段は、撮影光学系の異なる瞳領域を通過した光束が結像することで得られる2つの画像のずれ量に基づいて、前記第1の距離情報を作成するThe first distance creating means creates the first distance information based on a deviation amount between two images obtained by forming an image of a light beam that has passed through different pupil regions of the photographing optical system.
ことを特徴とする請求項5に記載の撮像装置。The imaging apparatus according to claim 5.
前記奥行き情報作成手段は、前記被写体の撮影時の位置情報と姿勢情報から前記撮影方向の情報を作成するThe depth information creation means creates the shooting direction information from position information and posture information at the time of shooting of the subject.
ことを特徴とする請求項5又は6に記載の撮像装置。The imaging apparatus according to claim 5 or 6.
前記奥行き情報作成手段は、前記画角情報と前記撮影方向の情報とから撮影場所を特定し、奥行きマップに基づいて前記撮影方向の情報と前記撮影場所とに紐付けられた距離情報を取得し、前記取得した距離情報に基づいて前記奥行き情報を作成するThe depth information creating means identifies a shooting location from the angle of view information and the shooting direction information, and acquires distance information associated with the shooting direction information and the shooting location based on a depth map. The depth information is created based on the acquired distance information
ことを特徴とする請求項5乃至7のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 5, wherein the image pickup apparatus is an image pickup apparatus.
外部装置と通信する通信手段を備え、
被写体を撮影して画像信号を出力する撮影手段と、
前記画像信号に係る画像の画素における被写体との距離に関する第1の距離情報を作成する第1距離作成手段と、
前記画像の奥行きに関する奥行き情報を作成する奥行き情報作成手段と、
を備え、
前記奥行き情報作成手段は、
前記被写体の撮影時のレンズ情報から画角情報を作成し、
前記通信手段を介して、前記画角情報と前記撮影時の撮影方向の情報とを前記外部装置に送信することで、当該外部装置から前記画角情報と前記撮影時の撮影方向の情報とに対応する奥行き情報を取得し、
前記第1の距離情報と前記奥行き情報とに基づいて、前記被写体までの距離に関する第2の距離情報を作成する第2距離作成手段と、
前記第2の距離情報に基づいて前記画像を処理する画像処理手段と、
を備える
ことを特徴とする撮像装置。
Comprising communication means for communicating with an external device;
Photographing means for photographing a subject and outputting an image signal;
First distance creating means for creating first distance information related to a distance from a subject in a pixel of an image related to the image signal;
Depth information creating means for creating depth information related to the depth of the image;
With
The depth information creating means includes
Create angle-of-view information from lens information when shooting the subject,
By transmitting the angle of view information and the information of the shooting direction at the time of shooting to the external device via the communication unit, the angle of view information and the information of the shooting direction at the time of shooting are transmitted from the external device. Get the corresponding depth information,
Second distance creating means for creating second distance information related to the distance to the subject based on the first distance information and the depth information;
Image processing means for processing the image based on the second distance information;
With
An imaging apparatus characterized by that.
前記第1距離作成手段は、撮影光学系の異なる瞳領域を通過した光束が結像することで得られる2つの画像のずれ量に基づいて、前記第1の距離情報を作成するThe first distance creating means creates the first distance information based on a deviation amount between two images obtained by forming an image of a light beam that has passed through different pupil regions of the photographing optical system.
ことを特徴とする請求項9に記載の撮像装置。The imaging apparatus according to claim 9.
前記奥行き情報作成手段は、前記被写体の撮影時の位置情報と姿勢情報から前記撮影方向の情報を作成するThe depth information creation means creates the shooting direction information from position information and posture information at the time of shooting of the subject.
ことを特徴とする請求項9又は10に記載の撮像装置。The imaging apparatus according to claim 9 or 10, wherein
前記外部装置は、前記画角情報と前記撮影方向の情報とから撮影場所を特定し、奥行きマップに基づいて前記撮影方向の情報と前記撮影場所とに紐付けられた距離情報を取得し、前記取得した距離情報に基づいて前記奥行き情報を作成するThe external device specifies a shooting location from the angle-of-view information and the shooting direction information, acquires distance information associated with the shooting direction information and the shooting location based on a depth map, and Create the depth information based on the acquired distance information
ことを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。The image pickup apparatus according to claim 9, wherein the image pickup apparatus is an image pickup apparatus.
JP2014018181A 2014-02-03 2014-02-03 Imaging device Active JP6300547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014018181A JP6300547B2 (en) 2014-02-03 2014-02-03 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014018181A JP6300547B2 (en) 2014-02-03 2014-02-03 Imaging device

Publications (2)

Publication Number Publication Date
JP2015146500A JP2015146500A (en) 2015-08-13
JP6300547B2 true JP6300547B2 (en) 2018-03-28

Family

ID=53890560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014018181A Active JP6300547B2 (en) 2014-02-03 2014-02-03 Imaging device

Country Status (1)

Country Link
JP (1) JP6300547B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116985A (en) * 1999-10-21 2001-04-27 Canon Inc Camera with subject recognizing function and subject recognizing method
JP4872245B2 (en) * 2005-06-06 2012-02-08 トヨタ自動車株式会社 Pedestrian recognition device
JP5375401B2 (en) * 2009-07-22 2013-12-25 カシオ計算機株式会社 Image processing apparatus and method
JP2012257105A (en) * 2011-06-09 2012-12-27 Olympus Corp Stereoscopic image obtaining apparatus
JP5917125B2 (en) * 2011-12-16 2016-05-11 キヤノン株式会社 Image processing apparatus, image processing method, imaging apparatus, and display apparatus
JP5881005B2 (en) * 2011-12-19 2016-03-09 シャープ株式会社 Image processing apparatus, image capturing apparatus, image display apparatus, image processing method, and program
JP2013205867A (en) * 2012-03-27 2013-10-07 Sony Corp Information processing unit, method, and program

Also Published As

Publication number Publication date
JP2015146500A (en) 2015-08-13

Similar Documents

Publication Publication Date Title
CN107087107B (en) Image processing apparatus and method based on dual camera
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
US9313419B2 (en) Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map
US8682104B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US20110096143A1 (en) Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
CN102959943A (en) Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
US11682131B2 (en) Image capturing apparatus and method of controlling image capturing apparatus
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
US8896670B2 (en) Image processing device, image processing method, and program
TWI469085B (en) Image processing apparatus, image processing method and computer readable storage medium
JP2015073185A (en) Image processing device, image processing method and program
KR101375988B1 (en) Object detection device, object detection method, and recording medium
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
CN113315956B (en) Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium
JP5440366B2 (en) Image processing apparatus and method, and program
KR20170011555A (en) Digital photographing apparatus and the method for the same
KR20160137289A (en) Photographing apparatus and method for controlling the same
KR20160123757A (en) Image photographig apparatus and image photographing metheod
JP6300547B2 (en) Imaging device
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
US10447937B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area
JP7346021B2 (en) Image processing device, image processing method, imaging device, program and recording medium
JP6729583B2 (en) Image processing apparatus and method
JP7458723B2 (en) Image processing device, imaging device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180227

R151 Written notification of patent or utility model registration

Ref document number: 6300547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151