JP2017175400A - Image processing device, imaging apparatus, control method, and program - Google Patents

Image processing device, imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2017175400A
JP2017175400A JP2016059623A JP2016059623A JP2017175400A JP 2017175400 A JP2017175400 A JP 2017175400A JP 2016059623 A JP2016059623 A JP 2016059623A JP 2016059623 A JP2016059623 A JP 2016059623A JP 2017175400 A JP2017175400 A JP 2017175400A
Authority
JP
Japan
Prior art keywords
image
distance
display
information
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016059623A
Other languages
Japanese (ja)
Inventor
晃彦 佐藤
Akihiko Sato
晃彦 佐藤
千里 石田
Chisato Ishida
千里 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016059623A priority Critical patent/JP2017175400A/en
Publication of JP2017175400A publication Critical patent/JP2017175400A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device which enables a user to easily use the distance information of the subject of a photographed image for image processing, without depending on the display medium of a display destination.SOLUTION: An imaging apparatus 100 acquires the photographed image and the distance information relating to the photographed image and divides a distance range from the distance information, to generate a plurality of division images whose distance ranges are different from the photographed image. The imaging apparatus 100 determines the distance ranges corresponding to the division images on the basis of the information of the display medium. The imaging apparatus 100 displays a display image in which the plurality of division images are arranged on the screen of the display medium, to make the division images selectable.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、撮像装置、制御方法およびプログラムに関する。   The present invention relates to an image processing device, an imaging device, a control method, and a program.

撮影された画像内の被写体の距離情報を取得可能な撮像装置がある。特許文献1では、各被写体の距離情報を用いて、撮影シーン内の被写体の奥行方向における位置関係と、現在の合焦距離とを表す俯瞰マップを提示する技術が開示されている。撮影者は現在どの被写体に合焦しているかを容易に把握できる。また、カメラ本体部に設けられた液晶ディスプレイ等の表示部だけでなく、外部の表示媒体に対して接続が可能な撮像装置がある。また、デジタルカメラが表示媒体に応じて画像データの解像度を変換する技術が提案されている。   There is an imaging device that can acquire distance information of a subject in a captured image. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for presenting an overhead map that represents the positional relationship in the depth direction of a subject in a shooting scene and the current in-focus distance using distance information of each subject. The photographer can easily grasp which subject is currently focused. In addition, there is an imaging apparatus that can be connected to an external display medium as well as a display unit such as a liquid crystal display provided in the camera body. In addition, a technique has been proposed in which a digital camera converts the resolution of image data in accordance with a display medium.

特開2010−177741号公報JP 2010-177741 A 特開2015−146500号公報JP 2015-146500 A

しかしながら、従来の装置において被写体の距離情報は、撮影時に装置内で行われる画像処理に専ら用いられており、撮影後にユーザが利用することは想定されていなかった。例えば、ユーザが撮影画像に対する画像編集を行うときに、被写体の距離情報を利用した画像処理を容易に行えるようにするための技術は提案されていなかった。本発明は、画像に関連する距離情報を、出力先の表示媒体に依らず、ユーザが容易に画像処理に利用することを可能とする画像処理装置の提供を目的とする。   However, the distance information of the subject in the conventional apparatus is exclusively used for image processing performed in the apparatus at the time of shooting, and is not assumed to be used by the user after shooting. For example, when a user performs image editing on a captured image, a technique for easily performing image processing using distance information of a subject has not been proposed. An object of the present invention is to provide an image processing apparatus that allows a user to easily use distance information related to an image for image processing regardless of an output destination display medium.

本発明の一実施形態の画像処理装置は、撮影画像と前記撮影画像に関連する距離情報を取得する取得手段と、前記距離情報から距離範囲を分割することにより、距離範囲の異なる複数の分割画像を前記撮影画像から生成する生成手段と、前記複数の分割画像が配置された表示画像を、前記分割画像を選択可能に表示媒体の画面に表示する表示制御手段とを備える。前記生成手段は、前記表示媒体の情報に基づいて、前記分割画像に対応する距離範囲を決定する。   An image processing apparatus according to an embodiment of the present invention includes a captured image and distance information related to the captured image, and a plurality of divided images having different distance ranges by dividing the distance range from the distance information. Generating from the captured image, and display control means for displaying a display image on which the plurality of divided images are arranged on a screen of a display medium so that the divided images can be selected. The generation unit determines a distance range corresponding to the divided image based on information on the display medium.

本発明の画像処理装置によれば、表示先の表示媒体に依らず、撮影画像の被写体の距離情報をユーザが容易に画像処理へ利用することが可能となる。   According to the image processing apparatus of the present invention, it becomes possible for the user to easily use the distance information of the subject of the photographed image for image processing regardless of the display medium of the display destination.

撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging device. 分割画像生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a divided image generation part. 全体的な処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the whole process. 分割画像生成処理を説明するフローチャートである。It is a flowchart explaining a divided image generation process. 撮影画像データと分割画像データの一例を示す図である。It is a figure which shows an example of picked-up image data and divided image data. 表示画像データの生成を説明する図である。It is a figure explaining the production | generation of display image data. 被写体の距離別ヒストグラムと、奥行分割画像を示す図である。It is a figure which shows the histogram classified by distance of a to-be-photographed object, and a depth division image. 表示媒体Bに対応する奥行分割画像を示す図である。6 is a diagram showing a depth-divided image corresponding to display medium B. FIG. 表示画像データの表示媒体への表示例を示す図である。It is a figure which shows the example of a display on the display medium of display image data. 表示画像データの表示に関する変形例を説明する図である。It is a figure explaining the modification regarding the display of display image data.

[実施例1]
図1、図2を参照して本発明の実施例1を説明する。図1は、撮像装置の構成例を示すブロック図である。図2は、分割画像生成部108の構成例を示すブロック図である。
撮像装置100において、撮像部101は、レンズ、シャッタ、絞り、撮像素子を有する。撮像部101は、システム制御部103の指示により撮影動作を行い、撮影画像データを取得し、メモリ105へ格納する。バス102は各ブロックを接続し、データや制御信号の送受を行う。
[Example 1]
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus. FIG. 2 is a block diagram illustrating a configuration example of the divided image generation unit 108.
In the imaging apparatus 100, the imaging unit 101 includes a lens, a shutter, a diaphragm, and an imaging element. The imaging unit 101 performs a shooting operation according to an instruction from the system control unit 103, acquires captured image data, and stores the acquired image data in the memory 105. A bus 102 connects each block and transmits and receives data and control signals.

システム制御部103は、撮像装置100全体を制御する。システム制御部103はCPU(中央演算処理装置)を備え、不揮発性メモリ106に記憶されたプログラムを読み出して実行することで、後述する処理を実現する。また、システム制御部103は、撮像装置100に接続される表示媒体に対して表示制御を行う。例えば、システム制御部103は後述の表示部110や通信部111に対する表示切り替え処理を行い、表示媒体の解像度に合わせた表示画像データの生成処理を画像処理部107に指示する。   The system control unit 103 controls the entire imaging apparatus 100. The system control unit 103 includes a CPU (Central Processing Unit), and realizes processing to be described later by reading and executing a program stored in the nonvolatile memory 106. In addition, the system control unit 103 performs display control on a display medium connected to the imaging apparatus 100. For example, the system control unit 103 performs display switching processing for the display unit 110 and the communication unit 111 described later, and instructs the image processing unit 107 to generate display image data in accordance with the resolution of the display medium.

距離情報取得部104は、撮像部101による撮影画像データに対応した被写体の距離情報を取得する。撮影画像データに対応した距離情報はメモリ105へ格納される。例えば、距離情報取得部104は撮像部101から、合焦位置を変更して撮影された複数の撮影画像データを取得する。そして、それぞれの撮影画像データの合焦領域と、撮影画像データの合焦位置情報から距離情報を取得する処理が行われる。   The distance information acquisition unit 104 acquires subject distance information corresponding to the captured image data obtained by the imaging unit 101. The distance information corresponding to the captured image data is stored in the memory 105. For example, the distance information acquisition unit 104 acquires a plurality of captured image data captured by changing the in-focus position from the imaging unit 101. And the process which acquires distance information from the focusing area | region of each picked-up image data and the focusing position information of picked-up image data is performed.

この他にも、撮像部101の撮像素子が瞳分割された画素部で構成される場合、一対の被写体画像の信号の位相差から各画素に対する距離情報を取得することができる(特許文献2参照)。   In addition to this, when the imaging element of the imaging unit 101 is configured by a pixel unit obtained by pupil division, distance information for each pixel can be acquired from a phase difference between signals of a pair of subject images (see Patent Document 2). ).

本発明は、画像における被写体の深さに対応する情報としてさまざまな実施形態での適用が可能である。つまり、被写体の深さに対応するデータが示す情報(深さ情報)は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の被写体距離や深さの相対関係を表す情報であればよい。
具体的には、撮像素子は、撮像光学系の異なる瞳領域を通過する一対の光束が光学像としてそれぞれ結像したものを、対をなす画像データとして複数の光電変換部から出力することができる。対をなす画像間の相関演算によって各領域の像ずれ量が算出され、像ずれ量の分布を表す像ずれマップが算出される。あるいはさらに像ずれ量がデフォーカス量に換算され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。このデフォーカス量を光学系や撮像素子の条件に基づいて被写体距離に換算すると、被写体距離の分布を表す距離マップデータが得られる。以上のように本実施形態では、撮像装置100は、像ずれマップデータ、デフォーカスマップデータ、あるいはデフォーカス量から変換される被写体距離の距離マップデータを取得すればよい。なお、各マップデータの各データはブロック単位で持っていてもよいし、画素単位でもっていてもよい。このとき、通常の画像データのように最小単位ごとに8bit程度のbit数を割り当て、距離画像として画像処理や表示、記録などを画像処理と同様に行う形態をとってもよい。本実施形態においては、距離情報は各画素の値が距離を表す距離画像の形式を有するが、その形式は限定されない。例えば距離情報として、撮影シーン内に存在する特定被写体(例えば人物)の領域の位置および距離を表す情報であってもよい。なお、距離情報取得部104により距離情報を生成する方法について特に制限は無く、例えば特許文献1等に開示された各種の方法を用いることができる。
The present invention can be applied in various embodiments as information corresponding to the depth of a subject in an image. That is, the information (depth information) indicated by the data corresponding to the depth of the subject directly represents the subject distance from the imaging device to the subject in the image, or the subject distance and depth of the subject in the image. Any information indicating a relative relationship may be used.
Specifically, the imaging device can output a pair of light beams that pass through different pupil regions of the imaging optical system as optical images, as a pair of image data, from a plurality of photoelectric conversion units. . An image shift amount of each region is calculated by a correlation calculation between the paired images, and an image shift map representing a distribution of the image shift amounts is calculated. Alternatively, the image shift amount is further converted into a defocus amount, and a defocus map representing the distribution of the defocus amount (distribution on the two-dimensional plane of the captured image) is generated. When this defocus amount is converted into the subject distance based on the conditions of the optical system and the image sensor, distance map data representing the distribution of the subject distance is obtained. As described above, in this embodiment, the imaging apparatus 100 may acquire image shift map data, defocus map data, or distance map data of a subject distance converted from the defocus amount. Note that each piece of map data may be stored in units of blocks or in units of pixels. At this time, as in normal image data, the number of bits of about 8 bits may be assigned for each minimum unit, and image processing, display, recording, and the like may be performed as a distance image in the same manner as image processing. In the present embodiment, the distance information has a format of a distance image in which the value of each pixel represents a distance, but the format is not limited. For example, the distance information may be information indicating the position and distance of a region of a specific subject (for example, a person) existing in the shooting scene. In addition, there is no restriction | limiting in particular about the method of producing | generating distance information by the distance information acquisition part 104, For example, the various methods disclosed by patent document 1 etc. can be used.

メモリ105は、撮像部101によって得られた撮影画像データや、距離情報取得部104で取得された撮影画像データに関連した距離情報等の各種データを記憶する。メモリ105は、所定枚数の撮影画像データの格納に十分な記憶容量を有する。不揮発性メモリ106は、電気的に消去および記録可能なメモリであり、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory )等が用いられる。不揮発性メモリ106には、システム制御部103の動作用の定数、設定値、プログラム等が記憶される。ここでのプログラムは、後述する各フローチャートを実行するためのプログラムである。   The memory 105 stores various data such as captured image data obtained by the imaging unit 101 and distance information related to the captured image data acquired by the distance information acquisition unit 104. The memory 105 has a storage capacity sufficient to store a predetermined number of photographed image data. The nonvolatile memory 106 is an electrically erasable and recordable memory. For example, an EEPROM (Electrically Erasable Programmable Read-Only Memory) is used. The nonvolatile memory 106 stores constants, setting values, programs, and the like for operation of the system control unit 103. The program here is a program for executing each flowchart described later.

画像処理部107は、システム制御部103からの指示にしたがって、撮像部101や、メモリ105から読み出された撮影画像データに対して、所定の画素補間、縮小等のリサイズ処理や色変換処理を行う。また画像処理部107は、距離情報を用いて算出される個々の距離範囲に対して、ぼかし処理、シャープネス処理、色変換処理等の画像処理を行う。   In accordance with an instruction from the system control unit 103, the image processing unit 107 performs predetermined resizing processing such as pixel interpolation and reduction, and color conversion processing on the captured image data read from the imaging unit 101 and the memory 105. Do. The image processing unit 107 performs image processing such as blurring processing, sharpness processing, and color conversion processing on each distance range calculated using the distance information.

分割画像生成部108は、メモリ105から読み出された撮影画像データと、距離情報と、表示媒体情報を取得し、所定の画像(奥行分割画像)のデータを生成し、メモリ105へ格納する。奥行分割画像とは、撮影画像データ内の所定の距離範囲に含まれる被写体像を抽出した画像である。奥行分割画像のデータを、以下では「分割画像データ」という。   The divided image generation unit 108 acquires captured image data, distance information, and display medium information read from the memory 105, generates data of a predetermined image (depth divided image), and stores the data in the memory 105. A depth division image is an image obtained by extracting a subject image included in a predetermined distance range in captured image data. The data of the depth division image is hereinafter referred to as “division image data”.

例えば、奥行方向(撮影方向に沿う方向)において距離範囲を3つの距離範囲に分割する場合を想定する。第1の距離範囲を撮像装置に最も近い距離範囲とし、第3の距離範囲を撮像装置から最も遠い距離範囲とする。第1の分割画像データは、第1の距離範囲内の被写体像を含む画像(近景被写体の画像)のデータである。第2の分割画像データは、第2の距離範囲内の被写体像を含む画像(中間距離の被写体画像)のデータである。第3の分割画像データは、第3の距離範囲内の被写体像を含む画像(遠景被写体の画像)のデータである。このように分割画像データは、撮影画像全体を被写体の距離範囲に応じて分割したときの画像のデータである。   For example, it is assumed that the distance range is divided into three distance ranges in the depth direction (the direction along the shooting direction). The first distance range is the distance range closest to the imaging device, and the third distance range is the distance range farthest from the imaging device. The first divided image data is data of an image (an image of a foreground subject) including a subject image within the first distance range. The second divided image data is data of an image including a subject image within the second distance range (subject image at an intermediate distance). The third divided image data is data of an image including a subject image within the third distance range (an image of a distant subject). As described above, the divided image data is image data when the entire captured image is divided according to the distance range of the subject.

図2を参照し、分割画像生成部108の内部構成に関して説明する。分割画像生成部108は、距離範囲分割処理部201と、分割画像生成用マスクデータ生成処理部202と、分割画像データ生成処理部203とを備える。距離範囲分割処理部(以下、分割処理部という)201は、メモリ105から取得した距離情報を用いて、被写体の距離範囲を複数に分割する。被写体の距離範囲の分割により、被写体の距離範囲分割情報が生成される。   With reference to FIG. 2, an internal configuration of the divided image generation unit 108 will be described. The divided image generation unit 108 includes a distance range division processing unit 201, a divided image generation mask data generation processing unit 202, and a divided image data generation processing unit 203. A distance range division processing unit (hereinafter referred to as a division processing unit) 201 divides the distance range of the subject into a plurality of pieces using the distance information acquired from the memory 105. By dividing the subject distance range, subject distance range division information is generated.

分割画像生成用マスクデータ生成処理部(以下、マスク生成処理部という)202は、分割処理部201から、被写体の距離範囲分割情報を取得し、分割画像生成用のマスク画像データを生成する。分割画像データ生成処理部(以下、データ生成処理部という)203は、メモリ105から取得した撮影画像データと、分割画像生成用のマスク画像データとを用いて、複数の分割画像データを生成する。生成された分割画像データは、メモリ105へ撮影画像データと対応付けて格納される。   A divided image generation mask data generation processing unit (hereinafter referred to as a mask generation processing unit) 202 acquires distance range division information of a subject from the division processing unit 201 and generates mask image data for generating a divided image. A divided image data generation processing unit (hereinafter referred to as a data generation processing unit) 203 generates a plurality of pieces of divided image data using captured image data acquired from the memory 105 and mask image data for generating divided images. The generated divided image data is stored in the memory 105 in association with the captured image data.

図1の説明に戻る。操作部109は、ユーザの操作情報を撮像装置100の制御情報に変換し、システム制御部103へ通知するユーザインタフェース部である。表示部110は、メモリ105から取得した画像データをLCD(液晶ディスプレイ)等の表示媒体に表示する。   Returning to the description of FIG. The operation unit 109 is a user interface unit that converts user operation information into control information of the imaging apparatus 100 and notifies the system control unit 103 of the control information. The display unit 110 displays the image data acquired from the memory 105 on a display medium such as an LCD (liquid crystal display).

通信部111は、表示媒体を備える外部装置との間で、制御コマンドやデータの送受信を行うための通信インタフェース部である。例えば通信部111は、USB(Universal Serial Bus)やHDMI(登録商標)(High-Definition Multimedia Interface)等の規格に基づく有線接続で外部装置と通信を行う。あるいは、無線LAN(Local Area Network)やBlueTooth(登録商標)等の規格に基づく無線接続により外部装置との通信を行ってもよい。また、撮像装置100と外部装置とは直接接続されてもよいし、サーバーやインターネット等のネットワークを介して接続されてもよい。本実施形態においては、少なくとも通信部111が接続される外部装置の表示媒体に対して、表示媒体情報の受信や、撮影画像に関する表示画像データの送信ができるものとする。   The communication unit 111 is a communication interface unit for transmitting / receiving control commands and data to / from an external device including a display medium. For example, the communication unit 111 communicates with an external device through a wired connection based on a standard such as USB (Universal Serial Bus) or HDMI (registered trademark) (High-Definition Multimedia Interface). Alternatively, communication with an external apparatus may be performed by wireless connection based on a standard such as a wireless local area network (LAN) or BlueTooth (registered trademark). Further, the imaging apparatus 100 and the external apparatus may be directly connected, or may be connected via a network such as a server or the Internet. In the present embodiment, it is assumed that display medium information can be received and display image data related to a captured image can be transmitted to at least a display medium of an external device to which the communication unit 111 is connected.

記録媒体I/F部112は、記録媒体113とのインタフェース部である。記録媒体113は、撮影画像データや、撮影画像データに関連した距離情報を記録する媒体であり、半導体メモリを用いたメモリカードや磁気ディスク等から構成される。図1、図2に示す構成は一例である。そのため、以下に説明する動作の実行が可能であれば、本発明に係る撮像装置100の構成は図1、図2に示す構成に限定されない。   The recording medium I / F unit 112 is an interface unit with the recording medium 113. The recording medium 113 is a medium for recording captured image data and distance information related to the captured image data, and includes a memory card using a semiconductor memory, a magnetic disk, or the like. The configuration shown in FIGS. 1 and 2 is an example. Therefore, the configuration of the imaging apparatus 100 according to the present invention is not limited to the configurations illustrated in FIGS. 1 and 2 as long as the operations described below can be performed.

以下、図3乃至図10を参照して、本実施形態の動作を説明する。図3は、全体的な処理の流れを説明するフローチャートである。図4は、分割画像生成処理を説明するフローチャートである。   The operation of this embodiment will be described below with reference to FIGS. FIG. 3 is a flowchart for explaining the overall processing flow. FIG. 4 is a flowchart for explaining the divided image generation processing.

本実施形態では、撮影された画像データに対して、距離情報を利用したリフォーカス処理や色空間変換等の画像処理を行う。リフォーカス処理は、画像データの記録後に焦点位置を再調節した画像データを生成する処理である。ユーザは、撮像装置100を用いて、特定の距離の被写体に対して所望の画像処理を行い、撮影画像に対する画像編集等を行うことができる。   In this embodiment, image processing such as refocus processing using color information and color space conversion is performed on captured image data. The refocus processing is processing for generating image data in which the focus position is readjusted after recording the image data. Using the imaging device 100, the user can perform desired image processing on a subject at a specific distance, and perform image editing on a captured image.

また、撮像装置100は、例えば、表示媒体Aと表示媒体Bとに接続されるものとする。表示媒体Aは、例えばPCのディスプレイのような、細部の画像編集を行う上で十分な表示解像度が確保できる表示媒体である。表示媒体Bは、例えば撮像装置本体の表示パネルのような、細部の画像編集を行う上で十分な表示解像度が確保できない表示媒体である。   Moreover, the imaging device 100 shall be connected to the display medium A and the display medium B, for example. The display medium A is a display medium such as a PC display that can ensure a sufficient display resolution for performing detailed image editing. The display medium B is a display medium, such as a display panel of the imaging apparatus main body, which cannot secure a sufficient display resolution for performing detailed image editing.

図3のフローチャートを用いて、画像編集時の全体的な処理に関して説明する。
S301において、システム制御部103は、メモリ105から撮影画像データと撮影画像データに対する距離情報を取得する。システム制御部103はさらに、不揮発性メモリ106から、最大分割画像数Nを取得し、メモリ105に記憶する。最大分割画像数Nは分割画像の最大数であって、固定値または可変値である。例えば、最大分割画像数Nは、ユーザの指定により決定される。
The overall processing at the time of image editing will be described using the flowchart of FIG.
In step S <b> 301, the system control unit 103 acquires captured image data and distance information for the captured image data from the memory 105. Further, the system control unit 103 acquires the maximum number of divided images N from the nonvolatile memory 106 and stores it in the memory 105. The maximum number of divided images N is the maximum number of divided images, and is a fixed value or a variable value. For example, the maximum number N of divided images is determined by user designation.

S302において、システム制御部103は表示先の表示媒体情報を取得する。本実施例における表示媒体情報は、表示媒体の表示解像度や、表示パネルの大きさ(画面サイズ)等の情報である。また、表示媒体情報は、例えば、不揮発性メモリ106内に記憶されており、撮像装置100が接続可能な表示媒体に関する情報である。この場合、システム制御部103は、撮像装置100に接続された表示媒体の表示媒体情報を不揮発性メモリ106から取得する。この他、システム制御部103は、通信部111を介して接続が検出された表示媒体から表示媒体情報を取得する。   In step S <b> 302, the system control unit 103 acquires display destination display medium information. The display medium information in this embodiment is information such as the display resolution of the display medium and the size (screen size) of the display panel. Further, the display medium information is information related to a display medium that is stored in the nonvolatile memory 106 and is connectable to the imaging device 100, for example. In this case, the system control unit 103 acquires the display medium information of the display medium connected to the imaging device 100 from the nonvolatile memory 106. In addition, the system control unit 103 acquires display medium information from the display medium whose connection is detected via the communication unit 111.

S303において、分割画像生成部108が、システム制御部103の指示により、分割画像データを生成する。メモリ105に格納されている撮影画像データと、距離情報と、最大分割画像数Nを用いて、N枚の分割画像データを生成する処理が実行され、生成されたN枚の分割画像データがメモリ105へ格納される。S303の分割画像生成処理の詳細に関しては、図4のフローチャートを用いて後述する。   In step S <b> 303, the divided image generation unit 108 generates divided image data according to an instruction from the system control unit 103. Using the captured image data stored in the memory 105, the distance information, and the maximum number of divided images N, a process of generating N pieces of divided image data is executed, and the generated N pieces of divided image data are stored in the memory. 105 is stored. Details of the divided image generation processing of S303 will be described later with reference to the flowchart of FIG.

図5は、撮影画像データと分割画像データの一例を示す図である。
図5(A)は、N=5の場合の撮影画像データを示す。図5(B)は、図5(A)の撮影画像データから生成される分割画像データを示す。
FIG. 5 is a diagram illustrating an example of the captured image data and the divided image data.
FIG. 5A shows captured image data when N = 5. FIG. 5B shows divided image data generated from the captured image data of FIG.

図3の説明に戻る。S304において、画像処理部107が、システム制御部103の指示により、メモリ105に格納されている表示媒体の表示解像度と、N枚の分割画像データから、表示媒体に応じた表示画像データを生成する。画像処理部107は、例えば、図5(B)に示すそれぞれの分割画像データに対して、距離が近いものほど画像サイズが小さくなるようにリサイズしてから、表示画像データとして配置することで、撮影画角を表現する。   Returning to the description of FIG. In step S <b> 304, the image processing unit 107 generates display image data corresponding to the display medium from the display resolution of the display medium stored in the memory 105 and the N pieces of divided image data according to an instruction from the system control unit 103. . For example, the image processing unit 107 resizes the divided image data shown in FIG. 5B so that the closer the distance, the smaller the image size, and then arranges the divided image data as display image data. Represents the shooting angle of view.

図6は、表示画像データの生成を説明する図である。
画像処理部107は、例えば、図6(A)に示すように、近距離に対応する奥行分割画像1を手前に、遠距離に対応する奥行分割画像5を奥に、すべての奥行分割画像データについて少なくとも一部が見えるように配置して、表示画像データを生成する。分割画像データの配置方法は、図6(A)に示す表示画像データの生成時の配置に限定されない。全ての奥行分割画像をユーザが分別して選択可能で、被写体距離が増加もしくは減少する方向で配置されていればよい。例えば、手前から奥という並べ方ではなく、右から左に向かって距離が大きくなるように奥行分割画像を配置してもよい。
FIG. 6 is a diagram for explaining generation of display image data.
For example, as illustrated in FIG. 6A, the image processing unit 107 sets all the depth division image data with the depth division image 1 corresponding to the short distance in front and the depth division image 5 corresponding to the long distance to the back. The display image data is generated by arranging so that at least a part is visible. The arrangement method of the divided image data is not limited to the arrangement at the time of generating the display image data shown in FIG. All the depth-divided images can be selected and selected by the user, and it is sufficient that they are arranged in a direction in which the subject distance increases or decreases. For example, the depth-divided images may be arranged so that the distance increases from the right to the left instead of from the front to the back.

画像処理部107は、生成した表示画像データを記憶手段(メモリ105)に格納する。また、画像処理部107は、図6(B)に示すように、表示画像データ上の座標と、この座標が指定された場合に選択される奥行分割画像との対応情報をメモリ105に格納する。   The image processing unit 107 stores the generated display image data in the storage unit (memory 105). Further, as shown in FIG. 6B, the image processing unit 107 stores correspondence information between the coordinates on the display image data and the depth division image selected when the coordinates are designated in the memory 105. .

S305において、システム制御部103が、メモリ105から読み出した表示画像データを、表示媒体の画面に表示させる。具体的には、システム制御部103は、奥行分割画像を選択可能に表示する。本実施形態においては、撮像装置100に対して同時に複数の表示媒体との接続が検出されている場合、例えば、最も解像度が高い表示媒体のみ表示を行う。この場合にシステム制御部103は、複数の表示媒体のうちで、最も表示解像度が高い表示媒体情報を用いてS303の処理を行う。以降のS304、S305を表示先となる表示媒体の数だけ繰り返すことで、それぞれの表示媒体に対応した表示画像データを生成してもよい。   In S305, the system control unit 103 displays the display image data read from the memory 105 on the screen of the display medium. Specifically, the system control unit 103 displays a depth-division image so that it can be selected. In the present embodiment, when connection with a plurality of display media is detected simultaneously with respect to the imaging apparatus 100, for example, only the display medium with the highest resolution is displayed. In this case, the system control unit 103 performs the process of S303 using display medium information having the highest display resolution among the plurality of display media. Display image data corresponding to each display medium may be generated by repeating the subsequent S304 and S305 as many times as the number of display media to be displayed.

S306において、システム制御部103が、操作部109がユーザ操作を検出したかどを判定する。ユーザ操作が検出された場合、S307へ処理を進め、ユーザ操作が検出されない場合には、S305へ処理を戻す。S307において、システム制御部103は、ユーザ操作について判定する。ユーザ操作が、分割画像に対する画像処理の操作であると判定された場合、S308に処理を進める。またユーザ操作が、奥行分割画像に対する画像処理の操作でない場合には、S309へ処理が進む。   In step S306, the system control unit 103 determines whether the operation unit 109 has detected a user operation. If a user operation is detected, the process proceeds to S307. If no user operation is detected, the process returns to S305. In step S307, the system control unit 103 determines a user operation. If it is determined that the user operation is an image processing operation on the divided image, the process proceeds to S308. If the user operation is not an image processing operation for the depth-divided image, the process proceeds to S309.

奥行分割画像に対する画像処理の操作においては、ユーザ操作により、少なくとも奥行分割画像の選択操作が行われるものとする。この選択操作は、例えば、表示媒体がタッチパネル形式の場合、表示画像データの面内座標の指定により行われる。ユーザによるタッチ操作が検出された際に、システム制御部103は、表示画像データ上のタッチされた座標と、S304でメモリ105に格納された、座標と分割画像データとの対応情報とに基づいて、奥行分割画像を選択する。この他にも、操作部109のキー入力による選択操作がある。この場合、システム制御部103は、キー入力に対応した奥行分割画像を強調して表示する制御を行い、ユーザは所望の奥行分割画像を選択するためのキー操作を行う。   In the image processing operation for the depth division image, at least the depth division image selection operation is performed by the user operation. This selection operation is performed, for example, by designating in-plane coordinates of display image data when the display medium is a touch panel format. When a touch operation by the user is detected, the system control unit 103, based on the touched coordinates on the display image data and the correspondence information between the coordinates and the divided image data stored in the memory 105 in S304. Select a depth-divided image. In addition, there is a selection operation by key input of the operation unit 109. In this case, the system control unit 103 performs control to highlight and display the depth divided image corresponding to the key input, and the user performs a key operation for selecting a desired depth divided image.

S308において、画像処理部107はシステム制御部103の指示により、選択された奥行分割画像に対する所定の画像処理を実行する。所定の画像処理とは、例えば、ユーザが選択した奥行分割画像が対応する距離範囲に対する、画像のぼかし処理や、シャープネス処理、色変換処理等の処理である。これらの画像処理は、ユーザが分割画像を選択することで実施可能となる奥行分割画像に対する画像処理である。その後、S303へ戻り、処理を続行する。   In step S <b> 308, the image processing unit 107 executes predetermined image processing on the selected depth division image according to an instruction from the system control unit 103. The predetermined image processing is, for example, processing such as image blurring processing, sharpness processing, color conversion processing, or the like for the distance range corresponding to the depth division image selected by the user. These image processes are image processes for depth divided images that can be performed by the user selecting a divided image. Thereafter, the process returns to S303 to continue the processing.

S309において、システム制御部103はユーザ操作について判定する。ユーザ操作が画像編集モードの終了操作である場合、S310へ処理を進め、画像編集モードの終了操作でない場合には、S305へ処理を戻す。S310において、システム制御部103は、画像処理済みのデータを記録する制御を行う。画像処理が施された画像データは、記録媒体I/F部112を介して記録媒体113に保存され、一連の処理を終了する。   In step S309, the system control unit 103 determines a user operation. If the user operation is an end operation in the image editing mode, the process proceeds to S310. If the user operation is not an end operation in the image editing mode, the process returns to S305. In step S310, the system control unit 103 performs control to record the image processed data. The image data that has been subjected to image processing is stored in the recording medium 113 via the recording medium I / F unit 112, and a series of processing ends.

図4は、分割画像生成処理の例を説明するフローチャートである。
本実施形態においては、最大分割画像数Nを、N=5とする。つまり、図5(A)の撮影画像データから、図5(B)に示す5つの奥行分割画像1から5が生成される。
FIG. 4 is a flowchart illustrating an example of the divided image generation process.
In the present embodiment, the maximum number of divided images N is N = 5. That is, five depth division images 1 to 5 shown in FIG. 5B are generated from the captured image data of FIG.

図4のS401において、分割画像データの参照変数(iと記す)の値がゼロに初期化される(i=0)。S402において、分割処理部201が、距離情報に基づいて、奥行方向にて被写体が存在する距離の分布を(被写体の距離別ヒストグラム)を求める。距離情報は、画素値が撮影画像内に出現する被写体の距離(被写体距離)を表す距離画像の形式である。したがって、被写体の距離別ヒストグラムは、距離画像の画素値の度数、つまり被写体距離の分布頻度を示す。   In S401 of FIG. 4, the value of the reference variable (denoted i) of the divided image data is initialized to zero (i = 0). In step S <b> 402, the division processing unit 201 obtains a distribution of distances in which the subject exists in the depth direction (histogram by subject distance) based on the distance information. The distance information is in the form of a distance image in which the pixel value represents the distance of the subject (subject distance) that appears in the captured image. Therefore, the subject distance histogram shows the frequency of pixel values of the distance image, that is, the distribution frequency of the subject distance.

図7は、被写体の距離別ヒストグラムと、奥行分割画像を示す図である。
図7(A)は、被写体の距離別ヒストグラムを示す。図7(A)の横軸は奥行方向の距離を表し、縦軸は分布頻度を表す。図7(B)は、表示媒体Aに対応する奥行分割画像を示す。図8は、表示媒体Bに対応する奥行分割画像を示す。
FIG. 7 is a diagram illustrating a distance-by-distance histogram of a subject and a depth-division image.
FIG. 7A shows a histogram by distance of the subject. In FIG. 7A, the horizontal axis represents the distance in the depth direction, and the vertical axis represents the distribution frequency. FIG. 7B shows a depth division image corresponding to the display medium A. FIG. 8 shows a depth-divided image corresponding to the display medium B.

図4のS403において、分割処理部201が、表示媒体の情報から、閾値Sを算出する。閾値Sは、被写体距離の分布頻度に関する閾値である。本実施形態において、閾値Sは、不揮発性メモリ106に、表示媒体の解像度に関連付けて予め記録されているものとする。また、閾値Sは、表示媒体の解像度が高いほど、小さくなるように設定される。例えば、表示媒体Aに対しては、図7(B)に示す閾値S1が設定される。表示媒体Bに対しては、図8(A)に示す閾値S2が設定される。   In S403 of FIG. 4, the division processing unit 201 calculates a threshold value S from the display medium information. The threshold value S is a threshold value related to the subject distance distribution frequency. In the present embodiment, it is assumed that the threshold value S is recorded in advance in the nonvolatile memory 106 in association with the resolution of the display medium. The threshold value S is set to be smaller as the resolution of the display medium is higher. For example, for the display medium A, a threshold value S1 shown in FIG. 7B is set. For the display medium B, a threshold value S2 shown in FIG.

また、図1を参照して説明したように、距離情報は、撮像部101の合焦位置を変更して算出されるので、近距離になるほど、距離の分解能が高くなり、被写体の出現頻度が分散する。したがって、図8(B)に示すように、表示先が表示媒体Bの場合に、閾値Sに対して、奥行方向の距離に応じて重み付けを行い、距離が遠距離になるに従って値が大きくなる閾値S(i)を算出してもよい。少なくとも本処理では、表示媒体の情報に応じて、奥行分割画像が配置された表示画像データの表示を行う際の操作性や視認性を留意した閾値Sが算出されればよい。   Further, as described with reference to FIG. 1, the distance information is calculated by changing the in-focus position of the imaging unit 101. Therefore, the closer to the distance, the higher the resolution of the distance, and the appearance frequency of the subject. scatter. Therefore, as shown in FIG. 8B, when the display destination is the display medium B, the threshold S is weighted according to the distance in the depth direction, and the value increases as the distance increases. The threshold value S (i) may be calculated. At least in this process, a threshold value S in consideration of operability and visibility when displaying display image data in which a depth-divided image is arranged may be calculated according to information on the display medium.

図4のS403において、分割処理部201が、被写体の距離別ヒストグラムと、最大分割画像数Nと、閾値Sとに基づいて、i番目の分割区間に対する距離範囲情報を算出する。最大分割画像数Nで区切る距離範囲については、あらかじめ不揮発性メモリ106に定数としてデータが保持される。分割処理部201が、図7(A)の距離別ヒストグラムを用いて、被写体の出現頻度が低い距離の順にN個の分割範囲(距離範囲)を決定してもよい。   In S403 of FIG. 4, the division processing unit 201 calculates distance range information for the i-th divided section based on the subject distance histogram, the maximum number N of divided images, and the threshold value S. For the distance range divided by the maximum number of divided images N, data is previously stored in the nonvolatile memory 106 as constants. The division processing unit 201 may determine N division ranges (distance ranges) in descending order of the frequency of appearance of the subject using the distance histogram of FIG.

次に、分割処理部201が、N個の距離に対して、分布頻度が閾値Sを超える距離範囲を、i番目の奥行分割画像に対応する距離範囲とする。例えば、N=5の場合、分割処理部201は、まず、図7(A)に示す被写体の距離別ヒストグラムを、横軸方向に5分割することにより、図7(B)に示す分割1から分割5という5つに分割された距離範囲を決定する。例えば、3番目(i=3)の距離範囲に含まれる距離区間は、図7(A)中の距離区間A、距離区間B、距離区間Cである。表示媒体Aに関しては、閾値S1を超えている距離範囲は、距離区間A、距離区間B、距離区間Cである。したがって、3番目(i=3)の奥行分割画像に対応する距離範囲は、距離区間A、距離区間B、距離区間Cとなる。   Next, the division processing unit 201 sets a distance range in which the distribution frequency exceeds the threshold value S for N distances as a distance range corresponding to the i-th depth division image. For example, when N = 5, the division processing unit 201 first divides the subject distance histogram shown in FIG. 7A into five in the horizontal axis direction, thereby dividing from the division 1 shown in FIG. A distance range divided into five, ie, division 5, is determined. For example, the distance sections included in the third (i = 3) distance range are distance section A, distance section B, and distance section C in FIG. Regarding the display medium A, the distance ranges exceeding the threshold S1 are the distance section A, the distance section B, and the distance section C. Therefore, the distance ranges corresponding to the third (i = 3) depth division image are the distance section A, the distance section B, and the distance section C.

図8(B)に示す例では、閾値S2を超えている距離範囲は、距離区間Aである。したがって、3番目の奥行分割画像に対応する距離範囲は、距離区間Aとなる。また、図8(B)に示す例では、閾値S(3)を超えている距離範囲は、距離区間Aと距離区間Cである。したがって、3番目の奥行分割画像に対応する距離範囲は、距離区間Aと距離区間Cとなる。   In the example shown in FIG. 8B, the distance range exceeding the threshold S2 is the distance section A. Therefore, the distance range corresponding to the third depth division image is the distance section A. In the example shown in FIG. 8B, the distance ranges exceeding the threshold S (3) are the distance section A and the distance section C. Therefore, the distance range corresponding to the third depth division image is the distance section A and the distance section C.

なお、システム制御部103が複数の表示媒体に表示画像を同時に表示する場合に、画像処理部107が、以下の処理を実行してもよい。画像処理部107は、各々の表示媒体の情報に基づいて、複数の閾値Sを算出し、閾値Sのうち、最小となる閾値Sを用いて、奥行分割画像に対応する距離範囲を決定する。   Note that when the system control unit 103 displays display images on a plurality of display media at the same time, the image processing unit 107 may execute the following processing. The image processing unit 107 calculates a plurality of threshold values S based on the information of each display medium, and uses the smallest threshold value S among the threshold values S to determine a distance range corresponding to the depth divided image.

次に、図4のS404において、マスク生成処理部202が、i番目の距離範囲情報から、分割画像生成用マスクデータを生成する。具体的には、S403で算出されたi番目の分割画像に対する距離範囲情報を用いて、距離情報である距離画像に対して、画素値を2値化する処理が実行される。つまり、距離範囲内の画素値を1とし、距離範囲外の画素値を0とする処理が行われ、分割画像生成用マスクデータが生成される。   Next, in S404 of FIG. 4, the mask generation processing unit 202 generates divided image generation mask data from the i-th distance range information. Specifically, using the distance range information for the i-th divided image calculated in S403, a process of binarizing the pixel value is executed for the distance image that is the distance information. That is, the process of setting the pixel value within the distance range to 1 and the pixel value outside the distance range to 0 is performed, and divided image generation mask data is generated.

S405において、データ生成処理部203が、撮影画像データとi番目の分割画像生成用マスクデータを用いて、i番目の分割画像データを生成する。具体的には、撮影画像データの各画素に対して、分割画像生成用マスクデータの画素値を乗算する処理が実行される。それにより、分割画像生成用マスクデータの画素値が1である領域のみが、撮影画像データからそれぞれ抽出され、図7(B)の奥行分割画像のデータが生成される。   In step S405, the data generation processing unit 203 generates i-th divided image data using the captured image data and the i-th divided image generation mask data. Specifically, a process of multiplying each pixel of the captured image data by the pixel value of the divided image generation mask data is executed. Thereby, only the area | region where the pixel value of the mask data for division | segmentation image generation is 1 is each extracted from picked-up image data, and the data of the depth division | segmentation image of FIG. 7 (B) are produced | generated.

次にS406において、参照変数iのインクリメントが行われて、i値が1だけ増加する。S407では、参照変数iの値が最大分割画像数Nと比較され、「i>N」であるかどうかが判定される。参照変数iの値が最大分割画像数Nより大きい場合、分割画像生成処理を終了する。参照変数iの値が最大分割画像数N以下である場合、S403に戻って処理を続行する。分割画像生成部108は以上の処理を行うことで、撮影画像データに対し、最大分割画像数N個の距離範囲で分割した奥行分割画像のデータを、表示媒体に応じて生成する。   Next, in S406, the reference variable i is incremented and the i value is increased by one. In S407, the value of the reference variable i is compared with the maximum number of divided images N, and it is determined whether or not “i> N”. If the value of the reference variable i is larger than the maximum number N of divided images, the divided image generation process ends. If the value of the reference variable i is equal to or less than the maximum number of divided images N, the process returns to S403 and continues. By performing the above processing, the divided image generation unit 108 generates depth divided image data obtained by dividing the captured image data by a distance range of the maximum number of divided images N according to the display medium.

図9は、表示画像データの表示媒体への表示例を示す図である。
システム制御部103は、図7(B)を参照して説明した処理により生成された奥行分割画像が配置された表示画像データを表示部110に表示させる。これにより、表示媒体Aに対しては、図9(A)のように、撮影画像データ内の全ての距離範囲に含まれる被写体が表示される。表示媒体Bに対しては、図8(A)を参照して説明した処理により生成された奥行分割画像が配置された表示画像データが表示される。これにより、図9(B)のように、撮影画像データ内の頻度の高い被写体のみが抽出されて表示される。
FIG. 9 is a diagram illustrating a display example of display image data on a display medium.
The system control unit 103 causes the display unit 110 to display the display image data in which the depth division images generated by the processing described with reference to FIG. Thereby, on the display medium A, as shown in FIG. 9A, subjects included in all distance ranges in the captured image data are displayed. On the display medium B, display image data in which the depth-divided image generated by the process described with reference to FIG. 8A is arranged is displayed. As a result, as shown in FIG. 9B, only high-frequency subjects in the captured image data are extracted and displayed.

(表示に関する変形例)
図10は、表示画像データの表示に関する変形例を説明する図である。
図3のS304での表示画像データの生成処理時に、システム制御部103が、それぞれの奥行分割画像データの面内における被写体領域の検出を行うことで、最終的な表示に用いる領域を決定する。すなわち、システム制御部103は、表示画像データを表示する際に、各々の奥行分割画像において被写体が含まれる領域のみを表示する。
(Modifications related to display)
FIG. 10 is a diagram illustrating a modification example regarding display of display image data.
At the time of the display image data generation process in S304 of FIG. 3, the system control unit 103 detects a subject area in the plane of each depth division image data, thereby determining an area used for final display. That is, when displaying the display image data, the system control unit 103 displays only an area including the subject in each depth division image.

この例では、表示媒体Bに対する奥行分割画像(図8(A))が生成されたものとする。画像処理部107は、各々の奥行分割画像に対して、被写体領域の判定を行う。具体的には、図10(A)に示すように、それぞれの奥行分割画像に対して、水平方向の画素に対する画素値を探索することで、被写体領域の判定を行う。   In this example, it is assumed that a depth division image (FIG. 8A) for the display medium B is generated. The image processing unit 107 determines a subject area for each depth-divided image. Specifically, as shown in FIG. 10A, the subject area is determined by searching the pixel values for the pixels in the horizontal direction for each of the depth divided images.

画像処理部107は、図4のS406の処理で説明したように、奥行分割画像データ生成時のマスク処理により、被写体でない領域の画素は0値となっていることを利用して、画素値を探索する。そして、画像処理部107は、探索した結果を用いて、それぞれの奥行分割画像の面内の高さ方向に対する被写体を含む領域と、被写体を含まない領域との境界線を算出する。最終的には、画像処理部107は、面内の高さ方向で、最も被写体が含まれる領域が高い境界線を表示領域の上端として、表示画像データを生成する。その結果、図10(B)のように、被写体が含まれる領域のみが表示され、図9(B)に示す表示例よりも、被写体が含まれる領域がより大きく表示される。以上説明した実施形態によれば、表示媒体に依らず、ユーザが、特定の距離範囲に存在する被写体を選択して画像処理を行うことが可能となる。   As described in the processing of S406 in FIG. 4, the image processing unit 107 uses the fact that the pixels in the non-subject region have 0 values by the mask processing at the time of generating the depth-division image data. Explore. Then, the image processing unit 107 calculates a boundary line between the region including the subject and the region not including the subject with respect to the height direction in the plane of each depth division image using the search result. Eventually, the image processing unit 107 generates display image data with the boundary line having the highest region including the subject in the in-plane height direction as the upper end of the display region. As a result, as shown in FIG. 10B, only the area including the subject is displayed, and the area including the subject is displayed larger than the display example shown in FIG. According to the embodiment described above, it is possible for the user to select a subject existing in a specific distance range and perform image processing regardless of the display medium.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
103 システム制御部
108 分割画像生成部
DESCRIPTION OF SYMBOLS 100 Imaging device 103 System control part 108 Divided image generation part

Claims (11)

撮影画像と前記撮影画像に関連する距離情報を取得する取得手段と、
前記距離情報から距離範囲を分割することにより、距離範囲の異なる複数の分割画像を前記撮影画像から生成する生成手段と、
前記複数の分割画像が配置された表示画像を、前記分割画像を選択可能に表示媒体の画面に表示する表示制御手段とを備え、
前記生成手段は、前記表示媒体の情報に基づいて、前記分割画像に対応する距離範囲を決定する
ことを特徴とする画像処理装置。
An acquisition means for acquiring a captured image and distance information related to the captured image;
Generating means for generating a plurality of divided images having different distance ranges from the captured image by dividing the distance range from the distance information;
Display control means for displaying a display image in which the plurality of divided images are arranged on a screen of a display medium so that the divided images can be selected;
The image processing apparatus, wherein the generation unit determines a distance range corresponding to the divided image based on information of the display medium.
前記生成手段は、前記距離情報に基づいて、被写体距離の分布頻度を求め、前記求めた分布頻度に基づいて、前記距離範囲を分割する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the generation unit obtains a subject distance distribution frequency based on the distance information, and divides the distance range based on the obtained distribution frequency.
前記生成手段は、
前記表示媒体の情報に基づいて、前記被写体距離の分布頻度に関する閾値を算出し、
前記分割により得られる距離範囲のうち、前記分布頻度が前記閾値を超える距離範囲を、前記分割画像に対応する距離範囲として決定する
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
The generating means includes
Based on the information of the display medium, a threshold relating to the distribution frequency of the subject distance is calculated,
The image processing according to claim 1 or 2, wherein a distance range in which the distribution frequency exceeds the threshold among the distance ranges obtained by the division is determined as a distance range corresponding to the divided image. apparatus.
前記生成手段は、前記被写体距離が大きいほど、前記距離範囲に対応する前記閾値として大きい値を算出する
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the generation unit calculates a larger value as the threshold corresponding to the distance range as the subject distance is larger.
前記表示制御手段が複数の前記表示媒体に前記表示画像を同時に表示する場合に、前記生成手段は、各々の表示媒体の情報に基づいて、複数の前記閾値を算出し、算出した前記閾値のうち、最小となる閾値を用いて、前記分割画像に対応する距離範囲を決定する
ことを特徴とする請求項3または請求項4に記載の画像処理装置。
When the display control means simultaneously displays the display image on a plurality of display media, the generation means calculates a plurality of the threshold values based on information of each display medium, and among the calculated threshold values The image processing apparatus according to claim 3, wherein a distance range corresponding to the divided image is determined using a minimum threshold value.
前記表示制御手段は、前記表示画像を表示する際に、各々の前記分割画像において被写体が含まれる領域のみを表示する
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
6. The image processing according to claim 1, wherein the display control unit displays only a region including a subject in each of the divided images when displaying the display image. apparatus.
前記表示媒体の情報は、表示解像度の情報または前記表示媒体の画面サイズの情報を含む
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display medium information includes display resolution information or screen size information of the display medium.
前記表示制御手段は、前記表示画像の座標と前記分割画像との対応情報を記憶手段に記憶する
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display control unit stores correspondence information between the coordinates of the display image and the divided images in a storage unit.
前記撮影画像を取得する取得部を備える
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置として機能する撮像装置。
The image capturing apparatus according to claim 1, further comprising an acquisition unit configured to acquire the captured image.
撮影画像と前記撮影画像に関連する距離情報を取得する取得工程と、
前記距離情報から距離範囲を分割することにより、距離範囲の異なる複数の分割画像を前記撮影画像から生成する生成工程と、
前記複数の分割画像が配置された表示画像を、前記分割画像を選択可能に表示媒体の画面に表示する表示制御工程とを有し、
前記生成工程では、前記表示媒体の情報に基づいて、前記分割画像に対応する距離範囲を決定する
ことを特徴とする画像処理装置の制御方法。
An acquisition step of acquiring a captured image and distance information related to the captured image;
Generating a plurality of divided images having different distance ranges from the captured image by dividing the distance range from the distance information; and
A display control step of displaying the display image in which the plurality of divided images are arranged on a screen of a display medium so that the divided images can be selected;
In the generation step, a distance range corresponding to the divided image is determined based on information on the display medium.
コンピュータを請求項1乃至8のいずれか1項に記載の画像処理装置が備える各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit included in the image processing apparatus according to any one of claims 1 to 8.
JP2016059623A 2016-03-24 2016-03-24 Image processing device, imaging apparatus, control method, and program Pending JP2017175400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059623A JP2017175400A (en) 2016-03-24 2016-03-24 Image processing device, imaging apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059623A JP2017175400A (en) 2016-03-24 2016-03-24 Image processing device, imaging apparatus, control method, and program

Publications (1)

Publication Number Publication Date
JP2017175400A true JP2017175400A (en) 2017-09-28

Family

ID=59972310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059623A Pending JP2017175400A (en) 2016-03-24 2016-03-24 Image processing device, imaging apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP2017175400A (en)

Similar Documents

Publication Publication Date Title
KR102278776B1 (en) Image processing method, apparatus, and apparatus
KR102480245B1 (en) Automated generation of panning shots
US9521320B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP6029380B2 (en) Image processing apparatus, imaging apparatus including image processing apparatus, image processing method, and program
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2012248001A (en) Image processing apparatus, image processing method, and program
JP2013061850A (en) Image processing apparatus and image processing method for noise reduction
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2017135660A (en) Image processor, imaging apparatus, image processing method, and program
JP2018029270A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP2017060010A (en) Imaging device, method of controlling imaging device, and program
JP2013066058A (en) Image processing device, image processing method, and program
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2023033355A (en) Image processing device and control method therefor
JP2017228874A (en) Image processing apparatus and control method thereof, imaging device, program
JP6362433B2 (en) Image processing apparatus, control method therefor, and program
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2013175821A (en) Image processing device, image processing method, and program
JP2017228873A (en) Image processing apparatus, imaging device, control method and program
JP2017175400A (en) Image processing device, imaging apparatus, control method, and program
JP2017028606A (en) Imaging apparatus