JP2017175401A - Image processing device, method for controlling the same, imaging apparatus, and program - Google Patents

Image processing device, method for controlling the same, imaging apparatus, and program Download PDF

Info

Publication number
JP2017175401A
JP2017175401A JP2016059626A JP2016059626A JP2017175401A JP 2017175401 A JP2017175401 A JP 2017175401A JP 2016059626 A JP2016059626 A JP 2016059626A JP 2016059626 A JP2016059626 A JP 2016059626A JP 2017175401 A JP2017175401 A JP 2017175401A
Authority
JP
Japan
Prior art keywords
image
display
divided
display medium
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016059626A
Other languages
Japanese (ja)
Inventor
千里 石田
Chisato Ishida
千里 石田
晃彦 佐藤
Akihiko Sato
晃彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016059626A priority Critical patent/JP2017175401A/en
Publication of JP2017175401A publication Critical patent/JP2017175401A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device which enables a user to easily use distance information relating to an image for image processing, without depending on the display medium of an output destination and to provide a method for controlling the image processing device.SOLUTION: The image processing device acquires the information of a photographed image and the distance information of a subject image in the image. A division image generation part 108 generates a plurality of division images corresponding to the distance ranges of subjects respectively from the photographed image on the basis of the distance information and the information of the display medium. A system control part 103 receives the selection operation of the division images by an operation part 109, acquires the resolution information of the display medium of the output destination or the information of a display screen size, and instructs the division image generation part 108 to perform division processing. An image processing part 107 generates a display image from the division images whose number corresponds to the display medium on the basis of the plurality of division images divided by the division image generation part 108 and outputs the display image to the display medium.SELECTED DRAWING: Figure 1

Description

本発明は、画像情報および画像情報に関連する距離情報を利用した画像処理技術に関する。   The present invention relates to image processing technology using image information and distance information related to the image information.

撮影された画像内の被写体の距離情報を取得可能な撮像装置がある。特許文献1では、各被写体の距離情報を用いて、撮影シーン内の被写体の奥行方向における位置関係と、現在の合焦距離とを表す俯瞰マップを提示する技術が開示されている。撮影者は現在どの被写体に合焦しているかを容易に把握できる。カメラ本体部に設けられた液晶ディスプレイ等の表示部だけでなく、外部の表示媒体に対して接続が可能な撮像装置がある。また、デジタルカメラが表示媒体に応じて画像データの解像度を変換する技術がある。   There is an imaging device that can acquire distance information of a subject in a captured image. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for presenting an overhead map that represents the positional relationship in the depth direction of a subject in a shooting scene and the current in-focus distance using distance information of each subject. The photographer can easily grasp which subject is currently focused. There is an imaging device that can be connected to an external display medium as well as a display unit such as a liquid crystal display provided in the camera body. There is also a technique in which a digital camera converts the resolution of image data according to a display medium.

特開2010−177741号公報JP 2010-177741 A 特開2015−146500号公報JP 2015-146500 A

しかしながら、従来の装置において被写体の距離情報は、撮影時に装置内で行われる画像処理に専ら用いられており、撮影後にユーザが利用することは想定されていなかった。例えば、ユーザが撮影画像に対する画像編集を行うときに、被写体の距離情報を利用した画像処理を容易に行えるようにするための技術は提案されていなかった。
本発明は、画像に関連する距離情報を、出力先の表示媒体に依らず、ユーザが容易に画像処理に利用することが可能な画像処理装置およびその制御方法の提供を目的とする。
However, the distance information of the subject in the conventional apparatus is exclusively used for image processing performed in the apparatus at the time of shooting, and is not assumed to be used by the user after shooting. For example, when a user performs image editing on a captured image, a technique for easily performing image processing using distance information of a subject has not been proposed.
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and a control method therefor, in which a user can easily use distance information related to an image for image processing regardless of an output destination display medium.

本発明の一実施形態に係る画像処理装置は、撮影された画像の情報および当該画像に関連する距離情報を取得する取得手段と、前記距離情報から距離範囲を分割することにより、距離範囲が異なる複数の分割画像を前記画像から生成する生成手段と、前記分割画像の選択操作に用いられる操作手段と、前記操作手段により前記分割画像が選択される場合、表示媒体ごとに決定した数の前記分割画像から表示画像を生成して前記表示媒体に出力する制御を行う制御手段と、を備える。   An image processing apparatus according to an embodiment of the present invention has a distance range that is different from an acquisition unit that acquires information of a captured image and distance information related to the image, and the distance range is divided from the distance information. A generation unit that generates a plurality of divided images from the image, an operation unit that is used for the selection operation of the divided image, and when the divided image is selected by the operation unit, the number of the divisions determined for each display medium Control means for performing control for generating a display image from the image and outputting the display image to the display medium.

本発明の画像処理装置によれば、画像に関連する距離情報を、出力先の表示媒体に依らず、ユーザが容易に画像処理に利用することができる。   According to the image processing apparatus of the present invention, the distance information related to the image can be easily used for image processing by the user regardless of the output destination display medium.

本発明の実施形態に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on embodiment of this invention. 実施例1および実施例2に係る分割画像生成部の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a divided image generation unit according to Embodiment 1 and Embodiment 2. FIG. 実施例1における画像編集時の全体的な処理のフローチャートである。3 is a flowchart of overall processing during image editing according to the first exemplary embodiment. 実施例1における分割画像生成処理を説明するフローチャートである。6 is a flowchart for describing divided image generation processing according to the first exemplary embodiment. 実施例1における画像データおよびヒストグラムを例示する図である。6 is a diagram illustrating image data and a histogram in Embodiment 1. FIG. 実施例1における奥行き分割処理を説明する図である。It is a figure explaining the depth division | segmentation process in Example 1. FIG. 表示媒体Aに対応する各画像データを説明する図である。FIG. 4 is a diagram for explaining image data corresponding to a display medium A. 表示媒体Bに対応する各画像データを説明する図である。FIG. 4 is a diagram for explaining image data corresponding to a display medium B. 表示媒体A、Bへの各表示例を示す図である。It is a figure which shows each example of a display on the display media A and B. FIG. 実施例2における画像編集時の全体的な処理のフローチャートである。10 is a flowchart of overall processing during image editing in Embodiment 2. 実施例2における分割画像生成処理を説明するフローチャートである。10 is a flowchart for explaining divided image generation processing according to the second embodiment. 表示媒体Aに対する奥行き分割処理を説明する図である。It is a figure explaining the depth division process with respect to the display medium. 表示媒体Bに対する奥行き分割処理を説明する図である。It is a figure explaining the depth division process with respect to the display medium.

以下、図面を参照しながら本発明の好適な実施形態について、各実施例を挙げて説明する。
[実施例1]
図1、図2を参照して本発明の実施例1を説明する。図1は撮像装置の構成例を示すブロック図である。図2は分割画像生成部108の構成例を示すブロック図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[Example 1]
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus. FIG. 2 is a block diagram illustrating a configuration example of the divided image generation unit 108.

撮像装置100において、撮像部101は、レンズ、シャッタ、絞り、撮像素子を有する。撮像部101は、システム制御部103の指示により撮影動作を行い、撮影画像データを取得してメモリ105へ格納する。バス102は各ブロックを接続し、データや制御信号の送受を行う。   In the imaging apparatus 100, the imaging unit 101 includes a lens, a shutter, a diaphragm, and an imaging element. The imaging unit 101 performs a shooting operation according to an instruction from the system control unit 103, acquires captured image data, and stores the acquired image data in the memory 105. A bus 102 connects each block and transmits and receives data and control signals.

システム制御部103は、撮像装置100全体を制御する。システム制御部103はCPU(中央演算処理装置)を備え、不揮発性メモリ106に記憶されたプログラムを読み出して実行することで、後述する処理を実現する。またシステム制御部103は、撮像装置100に接続される表示媒体に対して表示制御を行う。例えば、システム制御部103は後述の表示部110や通信部111に対する表示切り替え処理を行い、表示媒体の解像度に合わせた表示画像データの生成処理を画像処理部107に指示する。   The system control unit 103 controls the entire imaging apparatus 100. The system control unit 103 includes a CPU (Central Processing Unit), and realizes processing to be described later by reading and executing a program stored in the nonvolatile memory 106. Further, the system control unit 103 performs display control on a display medium connected to the imaging apparatus 100. For example, the system control unit 103 performs display switching processing for the display unit 110 and the communication unit 111 described later, and instructs the image processing unit 107 to generate display image data in accordance with the resolution of the display medium.

距離情報取得部104は、撮像部101による撮影画像データに対応した被写体の距離情報を取得する。撮影画像データに対応した距離情報はメモリ105へ格納される。例えば、距離情報取得部104は撮像部101から、合焦位置を変更して撮影された複数の撮影画像データを取得する。そして、それぞれの撮影画像データの合焦領域と、撮影画像データの合焦位置情報から距離情報を取得する処理が行われる。この他にも、撮像部101の撮像素子が瞳分割された画素部で構成される場合、一対の被写体画像(視差画像)の信号の位相差から各画素に対する距離情報を取得することができる(特許文献2参照)。   The distance information acquisition unit 104 acquires subject distance information corresponding to the captured image data obtained by the imaging unit 101. The distance information corresponding to the captured image data is stored in the memory 105. For example, the distance information acquisition unit 104 acquires a plurality of captured image data captured by changing the in-focus position from the imaging unit 101. And the process which acquires distance information from the focusing area | region of each picked-up image data and the focusing position information of picked-up image data is performed. In addition, when the imaging device of the imaging unit 101 is configured by a pixel unit that is divided into pupils, distance information for each pixel can be acquired from a phase difference between signals of a pair of subject images (parallax images) ( Patent Document 2).

本発明は、画像における被写体の深さに対応する情報としてさまざまな実施形態での適用が可能である。つまり、被写体の深さに対応するデータが示す情報(深さ情報)は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の被写体距離や深さの相対関係を表す情報であればよい。
具体的には、撮像素子は、撮像光学系の異なる瞳領域を通過する一対の光束が光学像としてそれぞれ結像したものを、対をなす画像データとして複数の光電変換部から出力することができる。対をなす画像間の相関演算によって各領域の像ずれ量が算出され、像ずれ量の分布を表す像ずれマップが算出される。あるいはさらに像ずれ量がデフォーカス量に換算され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。このデフォーカス量を撮像光学系や撮像素子の条件に基づいて被写体距離に換算すると、被写体距離の分布を表す距離マップデータが得られる。以上のように本実施形態では、撮像装置は、像ずれマップデータ、デフォーカスマップデータ、あるいはデフォーカス量から変換される被写体距離の距離マップデータを取得すればよい。なお、各マップデータの各データはブロック単位で持っていてもよいし、画素単位でもっていてもよい。このとき、通常の画像データのように最小単位ごとに8bit程度のbit数を割り当て、距離画像として画像処理や表示、記録などを画像処理と同様に行う形態をとってもよい。
本実施形態においては、距離情報は各画素の値が距離を表す距離画像の形式を有するが、その形式は限定されない。例えば距離情報として、撮影シーン内に存在する特定被写体(例えば人物)の領域の位置および距離を表す情報であってもよい。なお、距離情報取得部104により距離情報を生成する方法について特に制限は無く、特許文献1等に開示された各種の方法を用いることができる。
The present invention can be applied in various embodiments as information corresponding to the depth of a subject in an image. That is, the information (depth information) indicated by the data corresponding to the depth of the subject directly represents the subject distance from the imaging device to the subject in the image, or the subject distance and depth of the subject in the image. Any information indicating a relative relationship may be used.
Specifically, the imaging device can output a pair of light beams that pass through different pupil regions of the imaging optical system as optical images, as a pair of image data, from a plurality of photoelectric conversion units. . An image shift amount of each region is calculated by a correlation calculation between the paired images, and an image shift map representing a distribution of the image shift amounts is calculated. Alternatively, the image shift amount is further converted into a defocus amount, and a defocus map representing the distribution of the defocus amount (distribution on the two-dimensional plane of the captured image) is generated. When this defocus amount is converted into the subject distance based on the conditions of the imaging optical system and the imaging element, distance map data representing the distribution of the subject distance is obtained. As described above, in this embodiment, the imaging apparatus may acquire image shift map data, defocus map data, or distance map data of a subject distance converted from the defocus amount. Note that each piece of map data may be stored in units of blocks or in units of pixels. At this time, as in normal image data, the number of bits of about 8 bits may be assigned for each minimum unit, and image processing, display, recording, and the like may be performed as a distance image in the same manner as image processing.
In the present embodiment, the distance information has a format of a distance image in which the value of each pixel represents a distance, but the format is not limited. For example, the distance information may be information indicating the position and distance of a region of a specific subject (for example, a person) existing in the shooting scene. In addition, there is no restriction | limiting in particular about the method of producing | generating distance information by the distance information acquisition part 104, The various methods disclosed by patent document 1 etc. can be used.

メモリ105は、撮像部101によって得られた撮影画像データや、距離情報取得部104で取得された撮影画像データに関連した距離情報等の各種データを記憶する。メモリ105は、所定枚数の撮影画像データの格納に十分な記憶容量を有する。不揮発性メモリ106は、電気的に消去および記録可能なメモリであり、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)等が用いられる。不揮発性メモリ106には、システム制御部103の動作用の定数、設定値、プログラム等が記憶される。ここでのプログラムは、後述する各フローチャートの処理を実行するためのプログラムである。   The memory 105 stores various data such as captured image data obtained by the imaging unit 101 and distance information related to the captured image data acquired by the distance information acquisition unit 104. The memory 105 has a storage capacity sufficient to store a predetermined number of photographed image data. The nonvolatile memory 106 is an electrically erasable and recordable memory. For example, an EEPROM (Electrically Erasable Programmable Read-Only Memory) is used. The nonvolatile memory 106 stores constants, setting values, programs, and the like for operation of the system control unit 103. The program here is a program for executing processing of each flowchart described later.

画像処理部107は、システム制御部103からの指示にしたがって、撮像部101や、メモリ105から読み出された撮影画像データに対して、所定の画素補間、縮小等のリサイズ処理や色変換処理を行う。また画像処理部107は、距離情報を用いて算出される個々の距離範囲に対して、ぼかし処理、シャープネス処理、色変換処理等の画像処理を行う。   In accordance with an instruction from the system control unit 103, the image processing unit 107 performs predetermined resizing processing such as pixel interpolation and reduction, and color conversion processing on the captured image data read from the imaging unit 101 and the memory 105. Do. The image processing unit 107 performs image processing such as blurring processing, sharpness processing, and color conversion processing on each distance range calculated using the distance information.

分割画像生成部108は、メモリ105から読み出された撮影画像データと、距離情報と、表示媒体情報を取得し、所定の画像(奥行き分割画像)のデータを生成し、メモリ105へ格納する。奥行き分割画像とは、撮影画像データ内の所定の距離範囲に含まれる被写体像を抽出した画像である。奥行き分割画像のデータを、以下では「分割画像データ」という。例えば、奥行き方向(撮影方向に沿う方向)において距離範囲を3つの距離範囲に分割する場合を想定する。第1の距離範囲を撮像装置に最も近い距離範囲とし、第3の距離範囲を撮像装置から最も遠い距離範囲とする。第1の分割画像データは、第1の距離範囲内の被写体像を含む画像(近景被写体の画像)のデータである。第2の分割画像データは、第2の距離範囲内の被写体像を含む画像(中間距離の被写体画像)のデータである。第3の分割画像データは、第3の距離範囲内の被写体像を含む画像(遠景被写体の画像)のデータである。このように分割画像データは、撮影画像全体を被写体の距離範囲に応じて分割したときの画像のデータである。   The divided image generation unit 108 acquires captured image data, distance information, and display medium information read from the memory 105, generates data of a predetermined image (depth divided image), and stores the data in the memory 105. A depth division image is an image obtained by extracting a subject image included in a predetermined distance range in captured image data. The data of the depth division image is hereinafter referred to as “division image data”. For example, it is assumed that the distance range is divided into three distance ranges in the depth direction (the direction along the shooting direction). The first distance range is the distance range closest to the imaging device, and the third distance range is the distance range farthest from the imaging device. The first divided image data is data of an image (an image of a foreground subject) including a subject image within the first distance range. The second divided image data is data of an image including a subject image within the second distance range (subject image at an intermediate distance). The third divided image data is data of an image including a subject image within the third distance range (an image of a distant subject). As described above, the divided image data is image data when the entire captured image is divided according to the distance range of the subject.

図2を参照し、分割画像生成部108の内部構成に関して説明する。分割画像生成部108は、距離範囲分割処理部201と、分割画像生成用マスクデータ生成処理部202と、分割画像データ生成処理部203とで構成される。   With reference to FIG. 2, an internal configuration of the divided image generation unit 108 will be described. The divided image generation unit 108 includes a distance range division processing unit 201, a divided image generation mask data generation processing unit 202, and a divided image data generation processing unit 203.

距離範囲分割処理部(以下、分割処理部という)201は、メモリ105から取得した距離情報を用いて、被写体の距離範囲を複数に分割する。被写体の距離範囲の分割により、被写体の距離範囲分割情報が生成される。   A distance range division processing unit (hereinafter referred to as a division processing unit) 201 divides the distance range of the subject into a plurality of pieces using the distance information acquired from the memory 105. By dividing the subject distance range, subject distance range division information is generated.

分割画像生成用マスクデータ生成処理部(以下、マスク生成処理部という)202は、分割処理部201から被写体の距離範囲分割情報を取得し、分割画像生成用のマスク画像データを生成する。分割画像データ生成処理部(以下、データ生成処理部という)203は、メモリ105から取得した撮影画像データと、分割画像生成用のマスク画像データとを用いて、複数の分割画像データを生成する。生成された分割画像データは、メモリ105へ撮影画像データと対応付けて格納される。   A divided image generation mask data generation processing unit (hereinafter referred to as a mask generation processing unit) 202 acquires distance range division information of a subject from the division processing unit 201 and generates mask image data for generating a divided image. A divided image data generation processing unit (hereinafter referred to as a data generation processing unit) 203 generates a plurality of pieces of divided image data using captured image data acquired from the memory 105 and mask image data for generating divided images. The generated divided image data is stored in the memory 105 in association with the captured image data.

図1の操作部109は、ユーザの操作情報を撮像装置100の制御情報に変換し、システム制御部103へ通知するユーザインターフェース部である。表示部110は、メモリ105から取得した画像データをLCD(液晶ディスプレイ)等の表示媒体に表示する。通信部111は、表示媒体を備える外部装置との間で、制御コマンドやデータの送受信を行うための通信インターフェース部である。例えば通信部111は、USB(Universal Serial Bus)やHDMI(登録商標)(High-Definition Multimedia Interface)等の規格に基づく有線接続で外部装置と通信を行う。あるいは、無線LAN(Local Area Network)やBlueTooth(登録商標)等の規格に基づく無線接続により外部装置との通信を行ってもよい。また、撮像装置100と外部装置とは直接接続されてもよいし、サーバーやインターネット等のネットワークを介して接続されてもよい。本実施形態においては、少なくとも通信部111が接続される外部装置の表示媒体に対して、表示媒体情報の受信や、撮影画像に関する表示画像データの送信ができるものとする。   An operation unit 109 in FIG. 1 is a user interface unit that converts user operation information into control information of the imaging apparatus 100 and notifies the system control unit 103 of the control information. The display unit 110 displays the image data acquired from the memory 105 on a display medium such as an LCD (liquid crystal display). The communication unit 111 is a communication interface unit for transmitting / receiving control commands and data to / from an external device including a display medium. For example, the communication unit 111 communicates with an external device through a wired connection based on a standard such as USB (Universal Serial Bus) or HDMI (registered trademark) (High-Definition Multimedia Interface). Alternatively, communication with an external apparatus may be performed by wireless connection based on a standard such as a wireless local area network (LAN) or BlueTooth (registered trademark). Further, the imaging apparatus 100 and the external apparatus may be directly connected, or may be connected via a network such as a server or the Internet. In the present embodiment, it is assumed that display medium information can be received and display image data related to a captured image can be transmitted to at least a display medium of an external device to which the communication unit 111 is connected.

記録媒体I/F部112は、記録媒体113とのインターフェース部である。記録媒体113は、撮影画像データや、撮影画像データに関連した距離情報を記録する媒体であり、半導体メモリを用いたメモリカードや磁気ディスク等から構成される。
図1、図2に示す構成は一例である。そのため、以下に説明する動作の実行が可能であれば、本発明に係る撮像装置100の構成は図1、図2に示す構成に限定されない。
The recording medium I / F unit 112 is an interface unit with the recording medium 113. The recording medium 113 is a medium for recording captured image data and distance information related to the captured image data, and includes a memory card using a semiconductor memory, a magnetic disk, or the like.
The configuration shown in FIGS. 1 and 2 is an example. Therefore, the configuration of the imaging apparatus 100 according to the present invention is not limited to the configurations illustrated in FIGS. 1 and 2 as long as the operations described below can be performed.

以下、図3〜図9を参照して、本実施形態の動作を説明する。図3は、全体的な処理の流れを説明するフローチャートである。図4は、分割画像生成処理を説明するフローチャートである。図5および図6は分割処理の説明図であり、図5(A)は撮影画像データを例示し、図5(B)は画素値のヒストグラムを例示する。図6(A)は被写体距離を最大分割画像数(Nと記す)で分割した例を示す。図6(B)は奥行き分割画像を説明する図である。   The operation of this embodiment will be described below with reference to FIGS. FIG. 3 is a flowchart for explaining the overall processing flow. FIG. 4 is a flowchart for explaining the divided image generation processing. FIG. 5 and FIG. 6 are explanatory diagrams of the division processing. FIG. 5A illustrates captured image data, and FIG. 5B illustrates a histogram of pixel values. FIG. 6A shows an example in which the subject distance is divided by the maximum number of divided images (denoted as N). FIG. 6B is a diagram for explaining a depth-divided image.

実施形態としては、撮影された画像データに対して、距離情報を利用したリフォーカス処理や色空間変換等の画像処理を行う形態がある。リフォーカス処理は、画像データの記録後に焦点位置を再調節した画像データを生成する処理である。ユーザは撮像装置100を用いて、特定の距離の被写体に対して所望の画像処理を行い、撮影画像に対する画像編集等を行うことができる。   As an embodiment, there is a form in which image processing such as refocus processing using color information and color space conversion is performed on captured image data. The refocus processing is processing for generating image data in which the focus position is readjusted after recording the image data. The user can use the imaging device 100 to perform desired image processing on a subject at a specific distance, and to perform image editing on a captured image.

図7および図8は、異なる表示媒体に対応する、奥行き分割画像、表示画像データ、表示画像データと分割画像データとの対応付けを説明する図である。異なる表示媒体とは、例えば、表示解像度が高い表示媒体Aと、表示解像度が低い表示媒体Bである。表示媒体Aは、PC(パーソナルコンピュータ)のディスプレイのように、ユーザが細部の画像編集を行う目的上、十分な表示解像度が確保できる。一方、表示媒体Bは、撮像装置本体部に付設の表示パネルのように、ユーザが細部の画像編集を行う目的においては十分な表示解像度が得られない。図7は表示媒体Aに対する奥行き分割画像を例示し、図8は表示媒体Bに対する奥行き分割画像を例示する。図9(A)は表示媒体Aへの表示例を示し、図9(B)は表示媒体Bへの表示例を示す概略図である。   FIG. 7 and FIG. 8 are diagrams for explaining the correspondence between depth-divided images, display image data, and display image data and divided image data corresponding to different display media. The different display media are, for example, a display medium A with a high display resolution and a display medium B with a low display resolution. The display medium A can ensure a sufficient display resolution for the purpose of performing detailed image editing by the user, such as a display of a PC (personal computer). On the other hand, the display medium B cannot provide a sufficient display resolution for the purpose of the user performing detailed image editing, like a display panel attached to the main body of the imaging apparatus. FIG. 7 illustrates a depth division image for the display medium A, and FIG. 8 illustrates a depth division image for the display medium B. FIG. 9A shows a display example on the display medium A, and FIG. 9B is a schematic diagram showing a display example on the display medium B.

まず、図3のフローチャートを参照して、画像編集時の全体的な処理に関して説明する。S301において、システム制御部103は、メモリ105から撮影画像データと撮影画像データに対する距離情報を取得する。システム制御部103はさらに、不揮発性メモリ106から最大分割画像数Nを取得し、メモリ105に記憶する。最大分割画像数Nは分割画像の最大数であって、固定値または可変値である。例えば、最大分割画像数Nは、ユーザの指定により決定される。   First, the overall processing at the time of image editing will be described with reference to the flowchart of FIG. In step S <b> 301, the system control unit 103 acquires captured image data and distance information for the captured image data from the memory 105. Further, the system control unit 103 acquires the maximum number of divided images N from the nonvolatile memory 106 and stores it in the memory 105. The maximum number of divided images N is the maximum number of divided images, and is a fixed value or a variable value. For example, the maximum number N of divided images is determined by user designation.

S302において、システム制御部103は表示先の表示媒体情報を取得する。本実施例における表示媒体情報は、表示媒体の表示解像度や、表示パネルの大きさ(画面サイズ)等の情報である。また表示媒体情報は、例えば不揮発性メモリ106内に記憶されており、撮像装置100が接続可能な表示媒体に関する情報である。この場合、システム制御部103は撮像装置100に接続された表示媒体の表示媒体情報を不揮発性メモリ106から取得する。この他、システム制御部103は通信部111を介して接続が検出された表示媒体から表示媒体情報を取得する。   In step S <b> 302, the system control unit 103 acquires display destination display medium information. The display medium information in this embodiment is information such as the display resolution of the display medium and the size (screen size) of the display panel. The display medium information is information related to a display medium that is stored in, for example, the nonvolatile memory 106 and to which the imaging apparatus 100 can be connected. In this case, the system control unit 103 acquires the display medium information of the display medium connected to the imaging device 100 from the nonvolatile memory 106. In addition, the system control unit 103 acquires display medium information from the display medium whose connection is detected via the communication unit 111.

続いてシステム制御部103は表示媒体情報から、表示画像データ上で、ユーザが分別可能とする分割画像の枚数を決定するための表示枚数情報(Mと記す)を算出する。本実施例において、表示枚数情報Mは、表示媒体情報に対応して不揮発性メモリ106に記憶されている。例えば、表示媒体情報が表示解像度を示す場合、表示解像度が高いほど、表示枚数情報Mの値が大きい。また、表示媒体情報が表示媒体の大きさ(表示画面サイズ)を示す場合に、表示媒体のサイズが大きいほど、表示枚数情報Mの値が大きい。   Subsequently, the system control unit 103 calculates display number information (denoted as M) for determining the number of divided images that can be sorted by the user on the display image data from the display medium information. In this embodiment, the display number information M is stored in the nonvolatile memory 106 corresponding to the display medium information. For example, when the display medium information indicates the display resolution, the value of the display number information M is larger as the display resolution is higher. When the display medium information indicates the size of the display medium (display screen size), the larger the display medium size, the larger the value of the display number information M.

S303において、分割画像生成部108はシステム制御部103の指示により、分割画像データを生成する。メモリ105に格納されている撮影画像データと、距離情報と、最大分割画像数Nを用いて、N枚の分割画像データを生成する処理が実行され、生成されたN枚の分割画像データがメモリ105へ格納される。S303の分割画像生成処理の詳細に関しては、図4のフローチャートを用いて後述する。   In step S <b> 303, the divided image generation unit 108 generates divided image data according to an instruction from the system control unit 103. Using the captured image data stored in the memory 105, the distance information, and the maximum number of divided images N, a process of generating N pieces of divided image data is executed, and the generated N pieces of divided image data are stored in the memory. 105 is stored. Details of the divided image generation processing of S303 will be described later with reference to the flowchart of FIG.

S304において、システム制御部103は画像処理部107へ指示し、メモリ105に格納されている表示枚数情報Mと、N枚の分割画像データから、表示媒体に合わせて表示画像データを生成する。データ処理の詳細については後述する。S305において、システム制御部103は、メモリ105から読み出した表示画像データにしたがって、表示媒体に画像を表示させる制御を行う。具体的な表示例に関しては後述する。本実施例においては、撮像装置100に対して同時に複数の表示媒体との接続が検出されている場合、最も解像度が高い表示媒体のみ表示を行うものとする。この場合にシステム制御部103は、複数の表示媒体のうちで、最も表示解像度が高い表示媒体情報を用いてS303の処理を行う。以降のS304、S305を表示先となる表示媒体の数だけ繰り返すことで、それぞれの表示媒体に対応した表示画像データを生成してもよい。   In step S304, the system control unit 103 instructs the image processing unit 107 to generate display image data in accordance with the display medium from the display number information M stored in the memory 105 and the N pieces of divided image data. Details of the data processing will be described later. In step S <b> 305, the system control unit 103 performs control to display an image on the display medium according to the display image data read from the memory 105. A specific display example will be described later. In the present embodiment, when connection to a plurality of display media is detected simultaneously with respect to the imaging apparatus 100, only the display medium with the highest resolution is displayed. In this case, the system control unit 103 performs the process of S303 using display medium information having the highest display resolution among the plurality of display media. Display image data corresponding to each display medium may be generated by repeating the subsequent S304 and S305 as many times as the number of display media to be displayed.

S306において、システム制御部103は操作部109がユーザ操作を検出したかどうかを判定する。ユーザ操作が検出された場合、S307へ処理を進め、ユーザ操作が検出されない場合には、S305へ処理を戻す。S307において、システム制御部103は、ユーザ操作について判定する。ユーザ操作が、奥行き分割画像に対する画像処理の操作であると判定された場合、S308に処理を進める。またユーザ操作が、奥行き分割画像に対する画像処理の操作でない場合には、S309へ移行する。奥行き分割画像に対する画像処理の操作においては、ユーザ操作により、少なくとも奥行き分割画像の選択操作が行われるものとする。この選択操作は、例えば、表示媒体がタッチパネル形式の場合、表示画像データの面内座標の指定により行われる。ユーザによるタッチ操作が検出された際に、システム制御部103は、表示画像上でタッチされた位置の座標から、S304で生成した情報を用いて、分割画像データを選択する。この他にも、操作部109のキー入力による選択操作がある。この場合、システム制御部103は、キー入力に対応した分割画像を強調して表示する制御を行い、ユーザは所望の分割画像データを選択するためのキー操作を行う。   In step S306, the system control unit 103 determines whether the operation unit 109 has detected a user operation. If a user operation is detected, the process proceeds to S307. If no user operation is detected, the process returns to S305. In step S307, the system control unit 103 determines a user operation. If it is determined that the user operation is an image processing operation on the depth-division image, the process proceeds to S308. If the user operation is not an image processing operation for the depth-division image, the process proceeds to S309. In the image processing operation on the depth-divided image, at least a depth-divided image selection operation is performed by a user operation. This selection operation is performed, for example, by designating in-plane coordinates of display image data when the display medium is a touch panel format. When a touch operation by the user is detected, the system control unit 103 selects divided image data from the coordinates of the position touched on the display image, using the information generated in S304. In addition, there is a selection operation by key input of the operation unit 109. In this case, the system control unit 103 performs control to emphasize and display the divided image corresponding to the key input, and the user performs a key operation for selecting desired divided image data.

S308において、画像処理部107はシステム制御部103の指示により、選択された奥行き分割画像に対する指定の画像処理を実行する。指定の画像処理とは、例えば、ユーザが選択した奥行き分割画像が対応する距離範囲に対する、画像のぼかし処理や、シャープネス処理、色変換処理等の処理である。これらの画像処理は、ユーザが分割画像を選択することで実施可能となる、分割画像に対する画像処理である。その後、S303へ戻り、処理を続行する。   In step S <b> 308, the image processing unit 107 executes designated image processing on the selected depth division image according to an instruction from the system control unit 103. The designated image processing is, for example, processing such as image blurring processing, sharpness processing, and color conversion processing for the distance range corresponding to the depth division image selected by the user. These image processes are image processes for the divided images that can be performed by the user selecting the divided images. Thereafter, the process returns to S303 to continue the processing.

S309において、システム制御部103はユーザ操作について判定する。ユーザ操作が画像編集モードの終了操作である場合、S310へ処理を進め、画像編集モードの終了操作でない場合には、S305へ処理を戻す。S310において、システム制御部103は、画像処理済みのデータを記録する制御を行う。画像処理が施された画像データは、記録媒体I/F部112を介して記録媒体113に保存され、一連の処理を終了する。   In step S309, the system control unit 103 determines a user operation. If the user operation is an end operation in the image editing mode, the process proceeds to S310. If the user operation is not an end operation in the image editing mode, the process returns to S305. In step S310, the system control unit 103 performs control to record the image processed data. The image data that has been subjected to image processing is stored in the recording medium 113 via the recording medium I / F unit 112, and a series of processing ends.

次に、図4のフローチャートと、図5および図6を参照して、分割画像生成処理に関して説明する。本実施例においては、最大分割画像数Nを、N=5とする。つまり、図5(A)の撮影画像データから、図6(B)に示す5つの奥行き分割画像1から5が生成されるものとする。   Next, the divided image generation process will be described with reference to the flowchart of FIG. 4 and FIGS. 5 and 6. In this embodiment, the maximum number of divided images N is N = 5. That is, it is assumed that five depth division images 1 to 5 shown in FIG. 6B are generated from the captured image data of FIG.

図4のS401において、分割画像データの参照変数(iと記す)の値がゼロに初期化される(i=0)。S402において、分割処理部201は距離情報から、奥行き方向にて被写体が存在する距離の分布を算出する。距離情報は、各画素の値が撮影画像内の被写体の距離を表す距離画像の形式である。そのため、分割処理部201は画素値のヒストグラムを取得することによって、被写体に関する距離別ヒストグラムとして扱う。図5(B)は、図5(A)の撮影画像データに対応する被写体距離の分布頻度を示すヒストグラムである。図5(B)の横軸は奥行き方向の距離を表し、縦軸は分布頻度を表す。   In S401 of FIG. 4, the value of the reference variable (denoted i) of the divided image data is initialized to zero (i = 0). In step S <b> 402, the division processing unit 201 calculates a distribution of distances where the subject exists in the depth direction from the distance information. The distance information is in the form of a distance image in which the value of each pixel represents the distance of the subject in the captured image. For this reason, the division processing unit 201 obtains a histogram of pixel values and handles it as a histogram by distance related to the subject. FIG. 5B is a histogram showing the distribution frequency of the subject distance corresponding to the captured image data of FIG. The horizontal axis in FIG. 5B represents the distance in the depth direction, and the vertical axis represents the distribution frequency.

S403において、分割処理部201は図5(B)に例示したヒストグラムと、最大分割画像数Nから、i番目の分割区間に対する距離範囲情報を算出する。図6(A)を用いて具体例を説明する。これは被写体に関する距離別ヒストグラムにおいて、横軸方向に5分割した距離範囲を例示する。N=5の場合、分割1から分割5の距離範囲情報が算出される。最大分割画像数Nで区切る距離範囲については、あらかじめ不揮発性メモリ106に定数としてデータが保持される。または分割処理部201は、図5(B)のヒストグラムを用いて、被写体の存在頻度が低い距離の順にN個の分割範囲(分割された距離範囲)を決定する。   In step S403, the division processing unit 201 calculates distance range information for the i-th divided section from the histogram illustrated in FIG. 5B and the maximum number of divided images N. A specific example will be described with reference to FIG. This exemplifies a distance range divided into five in the horizontal axis direction in the distance histogram for the subject. When N = 5, the distance range information of division 1 to division 5 is calculated. For the distance range divided by the maximum number of divided images N, data is previously stored in the nonvolatile memory 106 as constants. Alternatively, the division processing unit 201 uses the histogram of FIG. 5B to determine N division ranges (divided distance ranges) in the order of distances where the subject presence frequency is low.

S404において、マスク生成処理部202はi番目の距離範囲情報から、分割画像生成用マスクデータを生成する。具体的には、S403で算出されたi番目の分割画像に対する距離範囲情報を用いて、距離情報である距離画像に対して、画素値を2値化する処理が実行される。つまり、距離範囲内の画素値を1とし、距離範囲外の画素値を0とする処理が行われ、分割画像生成用マスクデータが生成される。   In step S404, the mask generation processing unit 202 generates divided image generation mask data from the i-th distance range information. Specifically, using the distance range information for the i-th divided image calculated in S403, a process of binarizing the pixel value is executed for the distance image that is the distance information. That is, the process of setting the pixel value within the distance range to 1 and the pixel value outside the distance range to 0 is performed, and divided image generation mask data is generated.

S405において、データ生成処理部203は、撮影画像データとi番目の分割画像生成用マスクデータを用いて、i番目の分割画像データを生成する。具体的には、撮影画像データの各画素に対して、分割画像生成用マスクデータの画素値を乗算する処理が実行される。それにより、分割画像生成用マスクデータの画素値が1である領域のみが、撮影画像データからそれぞれ抽出されて、図6(B)の奥行き分割画像のデータが生成される。次にS406において、参照変数iのインクリメントが行われて、i値が1だけ増加する。S407では、参照変数iの値が最大分割画像数Nと比較され、「i>N」であるかどうかが判定される。参照変数iの値が最大分割画像数Nより大きい場合、分割画像生成処理を終了する。参照変数iの値が最大分割画像数N以下である場合、S403に戻って処理を続行する。
分割画像生成部108は以上の処理を行うことで、撮影画像データに対し、最大分割画像数N個の距離範囲で分割した奥行き分割画像のデータを、表示媒体に応じて生成する。
In step S405, the data generation processing unit 203 generates i-th divided image data using the captured image data and the i-th divided image generation mask data. Specifically, a process of multiplying each pixel of the captured image data by the pixel value of the divided image generation mask data is executed. Thereby, only the region where the pixel value of the divided image generation mask data is 1 is extracted from the captured image data, and the data of the depth divided image in FIG. 6B is generated. Next, in S406, the reference variable i is incremented and the i value is increased by one. In S407, the value of the reference variable i is compared with the maximum number of divided images N, and it is determined whether or not “i> N”. If the value of the reference variable i is larger than the maximum number N of divided images, the divided image generation process ends. If the value of the reference variable i is equal to or less than the maximum number of divided images N, the process returns to S403 and continues.
By performing the above processing, the divided image generation unit 108 generates data of the depth divided image obtained by dividing the captured image data in the distance range of the maximum number of divided images N according to the display medium.

次に、図7から図9を参照して、表示媒体A、Bに対応する分割画像データと表示画像データを説明する。表示枚数情報Mについては、高解像度の表示媒体Aに対応した表示枚数情報をM=5とし、低解像度の表示媒体Bに対応した表示枚数情報をM=3とする。   Next, the divided image data and display image data corresponding to the display media A and B will be described with reference to FIGS. Regarding the display number information M, the display number information corresponding to the high resolution display medium A is M = 5, and the display number information corresponding to the low resolution display medium B is M = 3.

図7(A)は、表示媒体Aに対する分割画像として分割画像1から5を示す。図7(B)は、表示媒体Aに対する表示画像を示す。図7(C)は、表示媒体Aに対する表示画像と奥行き分割画像との対応付けの説明図である。解像度の高い表示媒体Aの場合、N=M=5である。よって分割画像生成部108が生成したN枚の分割画像データは、図6(B)に示す分割画像データと同じである。つまり、図7(C)に示すように、分割画像1から5がすべて選択される。画像処理部107は分割画像1から5の画像データに基づいて表示画像データを生成してメモリ105に格納する。   FIG. 7A shows divided images 1 to 5 as divided images for the display medium A. FIG. FIG. 7B shows a display image on the display medium A. FIG. 7C is an explanatory diagram of the association between the display image and the depth-divided image with respect to the display medium A. In the case of the display medium A with high resolution, N = M = 5. Therefore, the N pieces of divided image data generated by the divided image generation unit 108 are the same as the divided image data shown in FIG. That is, as shown in FIG. 7C, all the divided images 1 to 5 are selected. The image processing unit 107 generates display image data based on the image data of the divided images 1 to 5 and stores the display image data in the memory 105.

図8(A)は、表示媒体Bに対する分割画像として分割画像1から3を示す。図8(B)は、表示媒体Bに対する表示画像を示す。図8(C)は、表示媒体Bに対する表示画像と奥行き分割画像との対応付けの説明図である。解像度の低い表示媒体Bの場合、N>M(=3)である。よって、分割画像生成部108で生成したN枚の分割画像データのうち、距離範囲が隣り合う分割画像を合成する処理が実行され、M枚の分割画像データが生成される。具体的には、図6(B)の分割画像1と分割画像2とが合成されて、図8(A)の分割画像1が生成される。図6(B)の分割画像3と分割画像4とが合成されて、図8(A)の分割画像2が生成される。図8(C)に示すように、合成処理により生成された分割画像1から3のデータが選択される。画像処理部107は、3枚の分割画像データに基づいて図8(B)の表示画像データを生成する。   FIG. 8A shows divided images 1 to 3 as divided images for the display medium B. FIG. 8B shows a display image on the display medium B. FIG. 8C is an explanatory diagram of the association between the display image and the depth-divided image on the display medium B. In the case of the display medium B having a low resolution, N> M (= 3). Therefore, a process of combining the divided images having the adjacent distance ranges among the N divided image data generated by the divided image generation unit 108 is executed, and M divided image data is generated. Specifically, the divided image 1 and the divided image 2 in FIG. 6B are combined to generate the divided image 1 in FIG. The divided image 3 and the divided image 4 in FIG. 6B are combined to generate the divided image 2 in FIG. As shown in FIG. 8C, data of the divided images 1 to 3 generated by the synthesis process is selected. The image processing unit 107 generates display image data shown in FIG. 8B based on the three pieces of divided image data.

N枚の分割画像データに基づいて、N未満のM枚の画像データを生成するために行う合成処理に関しては、本実施例に限定されず、合成処理の対象となる分割画像データが、距離範囲として隣接していればよい。例えば、撮影時の撮影条件や撮影画像の解析結果に基づいて、合成対象とする分割画像データが選択される。具体的には、撮影画像データに関して合焦している距離範囲が取得できる場合、制御部は合焦している距離範囲に含まれる分割画像データを合成に使用せず、それ以外の距離範囲に対応した分割画像データを優先的に選択して合成する制御を行う。この他には、顔検出されたときの距離範囲や、個人認証により登録された人物が検出されたときの距離範囲が取得可能である。この場合、制御部は、それらの距離範囲に含まれる分割画像データをできるだけ合成しないように制御する。合成する分割画像データを適切に選択することによって、顔検出された画像、または登録された人物の画像に対して、合成処理の影響を抑制した画像処理が行われる。   The combining process performed to generate M image data less than N based on the N divided image data is not limited to the present embodiment, and the divided image data to be combined is a distance range. As long as they are adjacent. For example, the divided image data to be combined is selected based on the shooting conditions at the time of shooting and the analysis result of the shot image. Specifically, when the distance range focused on the captured image data can be acquired, the control unit does not use the divided image data included in the focused distance range for synthesis, and the other distance range. Control for preferentially selecting and combining the corresponding divided image data is performed. In addition, it is possible to acquire a distance range when a face is detected and a distance range when a person registered by personal authentication is detected. In this case, the control unit performs control so that the divided image data included in these distance ranges are not combined as much as possible. By appropriately selecting the divided image data to be combined, image processing in which the influence of the combining process is suppressed is performed on the face-detected image or the registered person image.

システム制御部103は、表示枚数情報Mに応じて生成された分割画像データに基づき、各分割画像の距離関係や、撮影画角に対応する表示画像データの生成の制御を行う。具体的には、それぞれの分割画像データに対して、距離が近い画像(奥行き方向の距離が小さい画像)ほど、画像サイズが小さくなるように画像処理部107がリサイズ処理を行う。リサイズ処理後の画像データを表示画像データとして配置することで、撮影画角内の表示画像が取得される。例えば、図7(C)、図8(C)に示すように、至近距離に対応する奥行き分割画像が手前に配置され、遠距離に対応する奥行き分割画像が奥に配置される。その際には、すべての分割画像データについて、少なくとも画像の一部が見えるように配置された表示画像データが生成される。表示画像データの配置は、システム制御部103および画像処理部107により行われるが、このような表示画像データの生成例に限定されない。ユーザは、すべての分割画像データを分別して選択可能である。システム制御部103は、ユーザの操作指示にしたがって、被写体距離が増加する方向または減少する方向で画像を配置して表示させる制御を行う。例えば、手前から奥へという並べ方ではなく、右から左に向かって距離が大きくなるように画像データを配置することができる。   Based on the divided image data generated according to the display number information M, the system control unit 103 controls the generation of display image data corresponding to the distance relationship between the divided images and the shooting angle of view. Specifically, for each divided image data, the image processing unit 107 performs resizing processing so that the closer the image is (the smaller the distance in the depth direction), the smaller the image size. By arranging the image data after the resizing process as display image data, a display image within the shooting angle of view is acquired. For example, as shown in FIGS. 7C and 8C, the depth division image corresponding to the closest distance is arranged in front, and the depth division image corresponding to the long distance is arranged in the back. At that time, display image data arranged so that at least a part of the image can be seen is generated for all the divided image data. The arrangement of the display image data is performed by the system control unit 103 and the image processing unit 107, but is not limited to such a display image data generation example. The user can select all the divided image data separately. The system control unit 103 performs control to arrange and display images in a direction in which the subject distance increases or decreases in accordance with a user operation instruction. For example, the image data can be arranged so that the distance increases from the right to the left instead of from the front to the back.

またシステム制御部103は、図7(C)または図8(C)に示すように、表示画像データの座標(X,Y)と、分割画像の選択先とを対応付けた選択情報を、メモリ105へ記憶する。座標(X,Y)はユーザにより指定された座標であり、X座標は水平座標を表し、Y座標は垂直座標を表す。図7(C)は、ユーザが分割画像2上に座標を指定した例を示す。システム制御部103は分割画像2に含まれる被写体(主被写体等)を特定することができる。   Further, as shown in FIG. 7C or FIG. 8C, the system control unit 103 stores selection information in which the coordinates (X, Y) of the display image data and the selection destination of the divided image are associated with each other in the memory. It memorizes to 105. The coordinates (X, Y) are coordinates designated by the user, the X coordinate represents the horizontal coordinate, and the Y coordinate represents the vertical coordinate. FIG. 7C shows an example in which the user designates coordinates on the divided image 2. The system control unit 103 can specify a subject (main subject or the like) included in the divided image 2.

図9は、表示媒体に応じた表示画像データにより、表示画面に画像が表示される例を示す。図9(A)に示すように、解像度の高い表示媒体Aは、図7(B)の表示画像データを用いて画像を表示する。また図9(B)に示すように、解像度の低い表示媒体Bは、図8(B)の表示画像データを用いて画像を表示する。つまり、表示媒体Bでは、表示媒体Aに比べて、表示枚数を減らして画像が表示されるので、ユーザの視認性が向上する。   FIG. 9 shows an example in which an image is displayed on the display screen by display image data corresponding to the display medium. As shown in FIG. 9A, the display medium A with high resolution displays an image using the display image data of FIG. 7B. Further, as shown in FIG. 9B, the display medium B with a low resolution displays an image using the display image data of FIG. 8B. That is, in the display medium B, compared with the display medium A, the number of displayed images is reduced and the image is displayed, so that the visibility of the user is improved.

本実施例では、撮影情報や撮影条件、被写体の検出情報に基づいて分割方法が決定される。具体的には、焦点が合っている主被写体の画像と、その前後の画像に分割する場合に、主被写体の前後については解像度に応じた分割数が設定されて複数の分割画像データが生成される。また、マクロ撮影の場合には、至近距離範囲を優先して分割数を大きくし、遠距離範囲の分割数を小さくする設定が行われる。ポートレート撮影では、最大サイズの被写体(顔)と、その前後の画像に分割する処理が行われる。最大サイズの被写体の前後については解像度に応じた分割数が設定されて複数の分割画像データが生成される。顔検出機能を有する撮像装置の場合には、所定サイズ以上の顔が検出された主要な距離範囲と、当該距離範囲以外の範囲に分割される。また、ユーザが登録している被写体が検出された主要な距離範囲と、当該距離範囲以外の範囲に分割される。主要な距離範囲と、それ以外の距離範囲とを区分けし、主要でない距離範囲については解像度に合わせて分割が行われる。   In this embodiment, the division method is determined based on shooting information, shooting conditions, and subject detection information. Specifically, when dividing the image of the main subject in focus and the images before and after the image, a plurality of divided image data is generated by setting the number of divisions according to the resolution before and after the main subject. The In the case of macro photography, a setting is made to increase the number of divisions with priority on the close range and decrease the number of divisions in the long range. In portrait photography, a process of dividing a subject (face) of the maximum size and images before and after the subject is performed. A number of divisions corresponding to the resolution is set before and after the subject of the maximum size, and a plurality of pieces of divided image data are generated. In the case of an imaging apparatus having a face detection function, it is divided into a main distance range in which a face of a predetermined size or more is detected and a range other than the distance range. Further, it is divided into a main distance range in which a subject registered by the user is detected and a range other than the distance range. The main distance range and the other distance ranges are divided, and the non-main distance range is divided according to the resolution.

本実施例では、撮影画像データに関連する距離情報を利用して、撮影画像を被写体の距離範囲に応じて複数の画像に分割する。各画像は、ユーザが選択可能な状態で提示される。表示画像の生成時に表示媒体情報を用いることで、所望の表示媒体に応じた画像表示を行える。よって、様々な表示媒体に応じて、特定の距離に存在する被写体を対象とした画像処理データを提供することができる。   In this embodiment, the captured image is divided into a plurality of images according to the distance range of the subject using distance information related to the captured image data. Each image is presented in a state that can be selected by the user. By using the display medium information when generating the display image, it is possible to display an image corresponding to a desired display medium. Therefore, image processing data for a subject existing at a specific distance can be provided according to various display media.

[実施例2]
次に実施例2を説明する。実施例1では、表示画像データの生成時にシステム制御部103が表示媒体情報に基づいて表示枚数を制御する例を説明した。実施例2では、分割画像生成部108が分割画像データを生成する時に、表示媒体情報に基づいて分割画像枚数を制御する例を説明する。なお、実施例1の場合と同様の構成については既に使用した符号を用いることにより、それらの詳細な説明を省略し、主に相違点を説明する。
[Example 2]
Next, Example 2 will be described. In the first embodiment, the example in which the system control unit 103 controls the display number based on the display medium information when generating the display image data has been described. In the second embodiment, an example in which the number of divided images is controlled based on display medium information when the divided image generation unit 108 generates divided image data will be described. In addition, about the structure similar to the case of Example 1, the detailed description is abbreviate | omitted by using the code | symbol already used, and a difference is mainly demonstrated.

本実施例では、図2において分割画像生成部108が距離情報だけでなく、表示媒体情報を用いて、分割画像データを生成する。つまり、分割処理部201は、メモリ105から取得した距離情報と、表示媒体情報を取得し、被写体の距離範囲を複数に分割する。   In the present embodiment, in FIG. 2, the divided image generation unit 108 generates divided image data using not only the distance information but also the display medium information. That is, the division processing unit 201 acquires the distance information acquired from the memory 105 and the display medium information, and divides the distance range of the subject into a plurality.

図10および図11のフローチャート、図1、図2、図5、図9、図12、図13を参照して本実施例を詳細に説明する。図12は、奥行き方向の距離について最大分割画像数Nで分割した例を説明する図である。図13は、奥行き方向の距離について最大分割画像数Nよりも小さい分割数で分割した例を説明する図である。本実施例における撮影画像データとヒストグラムは、図5に示すとおりである。   The present embodiment will be described in detail with reference to the flowcharts of FIGS. 10 and 11 and FIGS. 1, 2, 5, 9, 12, and 13. FIG. FIG. 12 is a diagram for explaining an example in which the distance in the depth direction is divided by the maximum number N of divided images. FIG. 13 is a diagram for explaining an example in which the distance in the depth direction is divided by a division number smaller than the maximum division image number N. The captured image data and the histogram in this embodiment are as shown in FIG.

図10は画像編集時の全体的な処理の流れを説明するフローチャートである。S301、S302、S305〜S310の各処理は、実施例1にて図3で説明した処理と同様であるため、詳細な説明を割愛する。S302からS900へ進む。   FIG. 10 is a flowchart for explaining the overall processing flow during image editing. Since each process of S301, S302, S305 to S310 is the same as the process described in FIG. 3 in the first embodiment, a detailed description thereof is omitted. The process proceeds from S302 to S900.

S900において、分割画像生成部108はシステム制御部103の指示により、メモリ105に格納されている撮影画像データと、距離情報と、表示媒体情報と、最大分割画像数Nを用いて、N枚の分割画像データを生成する。生成されたN枚の分割画像データはメモリ105へ格納される。S900の分割画像生成処理に関しては、図11から図13を用いて後述する。   In S900, the divided image generation unit 108 uses the photographed image data stored in the memory 105, the distance information, the display medium information, and the maximum number N of divided images in accordance with an instruction from the system control unit 103. Split image data is generated. The generated N pieces of divided image data are stored in the memory 105. The divided image generation processing in S900 will be described later with reference to FIGS.

次のS901において、システム制御部103は画像処理部107へ指示し、メモリ105から読み出されたN枚の分割画像データから、表示画像データを生成する。生成された表示画像データは、メモリ105に格納されて表示制御が行われる。そしてS305以降の処理が実行される。   In next step S <b> 901, the system control unit 103 instructs the image processing unit 107 to generate display image data from N pieces of divided image data read from the memory 105. The generated display image data is stored in the memory 105 and display control is performed. And the process after S305 is performed.

図11のフローチャートを参照して、分割画像生成処理について説明する。S401、S402、S404〜S407の処理は、実施例1にて図4で説明した処理と同様であるため説明を割愛し、S103のみ説明する。S402からS103に進む。S103において、分割処理部201は距離別ヒストグラムと表示枚数情報Mから、i番目の分割区間に対する距離範囲情報を算出する。そしてS404に処理を進める。   The divided image generation processing will be described with reference to the flowchart of FIG. Since the processing of S401, S402, and S404 to S407 is the same as the processing described in FIG. 4 in the first embodiment, the description is omitted, and only S103 is described. The process proceeds from S402 to S103. In step S <b> 103, the division processing unit 201 calculates distance range information for the i-th divided section from the distance histogram and the display number information M. Then, the process proceeds to S404.

本実施例では、表示媒体Aの最大分割画像数Nを、N=5とする。図5(A)の撮影画像データから、図12(B)に示す分割画像1から5のデータが生成される。また、表示媒体Bの最大分割画像数Nを、N=3とする。図5(A)の撮影画像データから、図13(B)の分割画像1から3のデータが生成される。   In this embodiment, the maximum divided image number N of the display medium A is set to N = 5. From the captured image data of FIG. 5A, the data of the divided images 1 to 5 shown in FIG. Further, the maximum divided image number N of the display medium B is set to N = 3. From the captured image data of FIG. 5A, the data of the divided images 1 to 3 of FIG. 13B are generated.

システム制御部103は、図12(B)や図13(B)に示す分割画像データから、各分割画像の距離関係と撮影画角に応じて表示画像データを生成する制御を行う。例えば、近距離に対応する奥行き分割画像を手前にし、遠距離に対応する奥行き分割画像を奥に配置し、すべての分割画像の少なくとも一部が見えるように配置した表示画像データが出力される(図9)。また、ユーザが指定した表示画像データの座標と、座標が選択された分割画像とを対応付けた選択情報はメモリ105へ記憶される。実施例1の場合と同様に、細部の画像編集を行う上で十分な表示解像度が確保できない表示媒体Bでは、表示媒体Aに比べて表示枚数を減らすことで、ユーザの視認性が向上する。   The system control unit 103 performs control to generate display image data from the divided image data shown in FIGS. 12B and 13B according to the distance relationship between the divided images and the shooting angle of view. For example, display image data is output such that a depth division image corresponding to a short distance is in front, a depth division image corresponding to a long distance is arranged in the back, and at least a part of all the division images can be seen ( FIG. 9). Further, selection information in which the coordinates of the display image data designated by the user are associated with the divided image for which the coordinates are selected is stored in the memory 105. As in the case of the first embodiment, in the display medium B in which sufficient display resolution cannot be ensured for performing detailed image editing, the number of displayed images is reduced compared to the display medium A, thereby improving the visibility of the user.

本実施例では、表示媒体情報に基づいて奥行き分割画像の枚数が決定される。よって複数の分割画像データを合成して表示枚数を削減する処理は不要である。本実施形態によれば、奥行き分割画像の生成時に表示媒体情報を用いることで、表示媒体ごとに決定された分割画像から表示媒体に応じた表示画像を生成することができる。   In this embodiment, the number of depth division images is determined based on the display medium information. Therefore, the process of combining a plurality of divided image data and reducing the number of displayed images is unnecessary. According to the present embodiment, by using the display medium information when generating the depth-divided image, it is possible to generate a display image corresponding to the display medium from the divided image determined for each display medium.

[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
101 撮像部
103 システム制御部
104 距離情報取得部
107 画像処理部
108 分割画像生成部
109 操作部
110 表示部
111 通信部
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Imaging part 103 System control part 104 Distance information acquisition part 107 Image processing part 108 Divided image generation part 109 Operation part 110 Display part 111 Communication part

Claims (12)

撮影された画像の情報および当該画像に関連する距離情報を取得する取得手段と、
前記距離情報から距離範囲を分割することにより、距離範囲が異なる複数の分割画像を前記画像から生成する生成手段と、
前記分割画像の選択操作に用いられる操作手段と、
前記操作手段により前記分割画像が選択される場合、表示媒体ごとに決定した数の前記分割画像から表示画像を生成して前記表示媒体に出力する制御を行う制御手段と、を備えることを特徴とする画像処理装置。
An acquisition means for acquiring information of a photographed image and distance information related to the image;
Generating means for generating a plurality of divided images having different distance ranges from the image by dividing the distance range from the distance information;
Operation means used for selecting the divided images;
Control means for generating a display image from the number of the divided images determined for each display medium and outputting to the display medium when the divided image is selected by the operation means. An image processing apparatus.
前記制御手段は、前記表示媒体の情報を取得して前記表示画像の生成に使用する前記分割画像の最大数を決定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit acquires information on the display medium and determines a maximum number of the divided images used for generating the display image. 前記制御手段は、前記表示媒体の情報を取得して前記生成手段が前記分割画像を生成する際の分割数を前記表示媒体ごとに決定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit acquires information about the display medium and determines the number of divisions when the generation unit generates the divided image for each display medium. . 前記表示媒体の情報は、表示解像度または表示画面サイズの情報を含むことを特徴とする請求項2または請求項3に記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the information on the display medium includes information on a display resolution or a display screen size. 前記制御手段は、第1の表示媒体に対して、第1の分割数で前記生成手段が生成した分割画像から第1の表示画像を生成する制御を行い、第2の表示媒体に対して、前記第1の分割数で前記生成手段が生成した分割画像を合成して前記第1の分割数よりも少ない第2の分割数の分割画像から第2の表示画像を生成する制御を行うことを特徴とする請求項2に記載の画像処理装置。   The control means controls the first display medium to generate a first display image from the divided images generated by the generation means with the first division number, and the second display medium Control is performed to generate a second display image from a divided image having a second division number smaller than the first division number by combining the divided images generated by the generation unit with the first division number. The image processing apparatus according to claim 2. 前記制御手段は、第1の表示媒体に対して、第1の分割数で前記生成手段が生成した分割画像から第1の表示画像を生成する制御を行い、第2の表示媒体に対して、前記第1の分割数よりも少ない第2の分割数で前記生成手段が生成した分割画像から前記表示画像を生成する制御を行うことを特徴とする請求項3に記載の画像処理装置。   The control means controls the first display medium to generate a first display image from the divided images generated by the generation means with the first division number, and the second display medium The image processing apparatus according to claim 3, wherein the display image is controlled to be generated from the divided image generated by the generation unit with a second division number smaller than the first division number. 前記第1の表示媒体は、前記第2の表示媒体よりも、表示解像度が高いか、または表示画面サイズが大きいことを特徴とする請求項5または6に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the first display medium has a higher display resolution or a larger display screen size than the second display medium. 前記制御手段は、前記複数の分割画像から生成された表示画像を前記表示媒体の画面に表示させる制御を行い、前記操作手段により指定された座標と選択された前記分割画像とを対応付けた情報を記憶手段に記憶することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   The control unit performs control to display a display image generated from the plurality of divided images on the screen of the display medium, and associates the coordinates designated by the operation unit with the selected divided image. The image processing apparatus according to claim 1, wherein the image processing apparatus is stored in a storage unit. 前記表示画像は、前記距離情報に係る奥行き方向に前記複数の分割画像をそれぞれ配置した画像であり、第1の距離情報に対応する第1の分割画像が、前記第1の距離情報よりも近距離である第2の距離情報に対応する第2の分割画像よりも奥に配置されることを特徴とする請求項8に記載の画像処理装置。   The display image is an image in which the plurality of divided images are arranged in the depth direction according to the distance information, and the first divided image corresponding to the first distance information is closer than the first distance information. The image processing apparatus according to claim 8, wherein the image processing apparatus is arranged behind the second divided image corresponding to the second distance information which is a distance. 請求項1から9のいずれか1項に記載の画像処理装置と撮像部を備える撮像装置。   An imaging device comprising the image processing device according to claim 1 and an imaging unit. 撮影された画像の情報および当該画像に関連する距離情報を処理する画像処理装置にて実行される制御方法であって、
前記画像の情報および前記距離情報を取得する取得工程と、
前記距離情報から距離範囲を分割することにより、距離範囲が異なる複数の分割画像を前記画像から生成する生成工程と、
操作手段により前記分割画像が選択される場合、表示媒体ごとに決定した数の前記分割画像から表示画像を生成して前記表示媒体に出力する制御工程と、を有することを特徴とする画像処理装置の制御方法。
A control method executed by an image processing apparatus that processes information of a captured image and distance information related to the image,
An acquisition step of acquiring the image information and the distance information;
Generating a plurality of divided images having different distance ranges from the image by dividing the distance range from the distance information;
And a control step of generating a display image from the number of the divided images determined for each display medium and outputting the display image to the display medium when the divided image is selected by an operation unit. Control method.
請求項11に記載の各工程を画像処理装置のコンピュータに実行させるプログラム。   A program for causing a computer of an image processing apparatus to execute each step according to claim 11.
JP2016059626A 2016-03-24 2016-03-24 Image processing device, method for controlling the same, imaging apparatus, and program Pending JP2017175401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059626A JP2017175401A (en) 2016-03-24 2016-03-24 Image processing device, method for controlling the same, imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059626A JP2017175401A (en) 2016-03-24 2016-03-24 Image processing device, method for controlling the same, imaging apparatus, and program

Publications (1)

Publication Number Publication Date
JP2017175401A true JP2017175401A (en) 2017-09-28

Family

ID=59972592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059626A Pending JP2017175401A (en) 2016-03-24 2016-03-24 Image processing device, method for controlling the same, imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP2017175401A (en)

Similar Documents

Publication Publication Date Title
JP7003238B2 (en) Image processing methods, devices, and devices
KR102480245B1 (en) Automated generation of panning shots
JP6525617B2 (en) Image processing apparatus and control method thereof
JP6112824B2 (en) Image processing method and apparatus, and program.
EP3048787B1 (en) Image processing apparatus, image pickup apparatus, image processing method, program, and storage medium
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2012248001A (en) Image processing apparatus, image processing method, and program
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2017135660A (en) Image processor, imaging apparatus, image processing method, and program
JP2013066058A (en) Image processing device, image processing method, and program
JP2018029270A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP2017143354A (en) Image processing apparatus and image processing method
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2017103695A (en) Image processing apparatus, image processing method, and program of them
JP2017228874A (en) Image processing apparatus and control method thereof, imaging device, program
JP6362433B2 (en) Image processing apparatus, control method therefor, and program
JP2015198340A (en) Image processing system and control method therefor, and program
JP2015198336A (en) Image processing system and its control method, and program
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2017175401A (en) Image processing device, method for controlling the same, imaging apparatus, and program
JP2013175821A (en) Image processing device, image processing method, and program