JP2016178694A - Image display device, image composition device, and image display method - Google Patents

Image display device, image composition device, and image display method Download PDF

Info

Publication number
JP2016178694A
JP2016178694A JP2016115143A JP2016115143A JP2016178694A JP 2016178694 A JP2016178694 A JP 2016178694A JP 2016115143 A JP2016115143 A JP 2016115143A JP 2016115143 A JP2016115143 A JP 2016115143A JP 2016178694 A JP2016178694 A JP 2016178694A
Authority
JP
Japan
Prior art keywords
image
unit
selection unit
selection
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016115143A
Other languages
Japanese (ja)
Other versions
JP6211139B2 (en
Inventor
黛 忠隆
Tadataka Mayuzumi
忠隆 黛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016115143A priority Critical patent/JP6211139B2/en
Publication of JP2016178694A publication Critical patent/JP2016178694A/en
Application granted granted Critical
Publication of JP6211139B2 publication Critical patent/JP6211139B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device which capable of intuitively selecting a subject intended by a user, an image composition device with the device, and an image display method.SOLUTION: A selection part is selected by user's operation on a touch operation part 214. The selected selection part is magnified and displayed on a display part 208. When a sliding operation is applied to the magnified and displayed selection part, a selection part changed in shape in accordance with the sliding operation is magnified and displayed on the display part 208.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示装置、画像合成装置、及び画像表示方法に関する。   The present invention relates to an image display device, an image composition device, and an image display method.

従来、複数の画像を合成して1枚の合成画像を得る機能を有する画像合成装置に関する提案が各種なされている。例えば、特許文献1は、特に動画像における合成の高速化、簡略化を目的とし、予め複数の画像を合成しておき、合成画像の更新の必要があるときにはこの合成済みの画像を用いるようにしている。   Conventionally, various proposals have been made regarding an image composition apparatus having a function of combining a plurality of images to obtain a single composite image. For example, Patent Document 1 aims at speeding up and simplifying the synthesis of moving images in particular, and a plurality of images are synthesized in advance, and this synthesized image is used when it is necessary to update the synthesized image. ing.

特開平10−210364号公報Japanese Patent Laid-Open No. 10-210364

海等の多くの人が集まる場所において、ユーザが特定の人物のみを撮影しようと思っても、その人物の周辺の他の人物も撮影されてしまうことがある。プライバシーの保護の観点から見れば、他の人物が撮影されてしまうことは望ましくないが、背景もその撮影場所の雰囲気を知るための重要な情報であり、残しておくことが望ましいと考えられる。さらに、ユーザが意図している被写体についても鮮明な画像として残しておくことが望ましい。   In a place where many people gather, such as the sea, even if the user wants to photograph only a specific person, other persons around that person may also be photographed. From the viewpoint of privacy protection, it is not desirable that other people be photographed, but the background is also important information for knowing the atmosphere of the photographing location, and it is desirable to leave it behind. Furthermore, it is desirable to leave the subject intended by the user as a clear image.

本発明は、前記の事情に鑑みてなされたもので、ユーザが意図した被写体を直感的に選択できる画像表示装置、それを備えた画像合成装置、及び画像表示方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image display device capable of intuitively selecting a subject intended by a user, an image composition device including the image display device, and an image display method. .

前記の目的を達成するために、本発明の第1の態様の画像表示装置は、画像を表示する表示部と、前記画像における一部の領域を選択部としてタッチ入力によって選択するためのタッチ操作部とを具備し、前記表示部は、前記選択部を拡大表示し、前記拡大表示された前記選択部に対して前記タッチ操作部によるスライド入力がなされた場合に、前記スライド入力に応じて形状が変更された前記選択部を拡大表示することを特徴とする。   In order to achieve the above object, an image display device according to a first aspect of the present invention includes a display unit that displays an image, and a touch operation for selecting a part of the region in the image by a touch input as a selection unit. And the display unit enlarges and displays the selection unit, and when the slide operation is performed by the touch operation unit on the enlarged selection unit, the display unit is shaped according to the slide input. The selection section in which the change is made is enlarged and displayed.

前記の目的を達成するために、本発明の第2の態様の画像合成装置は、請求項1に記載の画像表示装置と、画像を取得する画像取得部と、前記選択部と前記選択部以外の領域である非選択部とのうちの何れに対して視認性を低下させる処理を行うかを選択するための操作部と、前記操作部による選択に従って、前記選択部の画像と前記非選択部の画像との一方の視認性を他方に対して低下させるように、前記画像取得部による前記選択部の画像と前記非選択部の画像との取得を制御する制御部と、前記制御部の制御によって前記画像取得部で取得された前記選択部の画像と前記非選択部の画像と合成して1つの合成画像を取得する合成部とを具備することを特徴とする。   In order to achieve the above object, an image composition device according to a second aspect of the present invention is the image display device according to claim 1, an image acquisition unit that acquires an image, the selection unit, and other than the selection unit. An operation unit for selecting which of the non-selection unit that is a region of which the process of reducing the visibility is performed, and the image of the selection unit and the non-selection unit according to the selection by the operation unit A control unit that controls acquisition of the image of the selection unit and the image of the non-selection unit by the image acquisition unit so as to reduce the visibility of one of the image and the other, and control of the control unit And a combining unit that combines the image of the selection unit acquired by the image acquisition unit and the image of the non-selection unit to acquire one combined image.

前記の目的を達成するために、本発明の第3の態様の画像表示方法は、画像を表示することと、タッチ入力を受けて、前記表示された画像における一部の領域を選択部として選択することと、前記画像の前期選択部を表示部に拡大表示することと、前記拡大表示された前記選択部に対してスライド入力がなされた場合に、前記スライド入力に応じて形状が変更された前記選択部を前記表示部に拡大表示することとを具備することを特徴とする。   In order to achieve the above object, an image display method according to a third aspect of the present invention displays an image, receives a touch input, and selects a part of the displayed image as a selection unit. And when the slide input is made to the enlarged selection part, the shape is changed according to the slide input. And displaying the selection unit on the display unit in an enlarged manner.

本発明によれば、ユーザが意図した被写体を直感的に選択できる画像表示装置、それを備えた画像合成装置、及び画像表示方法を提供することができる。   According to the present invention, it is possible to provide an image display device capable of intuitively selecting a subject intended by a user, an image composition device including the image display device, and an image display method.

本発明の一実施形態に係る画像合成装置を備えた撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device provided with the image composition apparatus which concerns on one Embodiment of this invention. 図1に示した撮像装置の動作を示すフローチャートである。2 is a flowchart illustrating an operation of the imaging apparatus illustrated in FIG. 1. 選択部が選択される際の表示例を示す図である。It is a figure which shows the example of a display when a selection part is selected. 視認性低下処理が行われた場合の表示例を示す図である。It is a figure which shows the example of a display when a visibility fall process is performed. 絞りの開口量を制御することによって視認性を低下させる処理としての通常撮影と通常外撮影とのタイミングチャートである。6 is a timing chart of normal shooting and non-normal shooting as processing for reducing visibility by controlling the aperture amount of a diaphragm. 操作環を操作して絞りを変更する様子を示した図である。It is the figure which showed a mode that an operating ring was operated and a diaphragm was changed. 視認性低下処理の変形例を示す図である。It is a figure which shows the modification of a visibility fall process.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る画像合成装置を備えた撮像装置の構成を示す図である。図1は、本実施形態をレンズ交換式のデジタルカメラに適用した場合の構成例である。したがって、撮像装置1は、交換レンズ100と、本体200と、を有している。撮像装置1は、レンズ交換式でなくとも良い。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an imaging apparatus including an image composition device according to an embodiment of the present invention. FIG. 1 is a configuration example when the present embodiment is applied to an interchangeable lens digital camera. Therefore, the imaging apparatus 1 includes the interchangeable lens 100 and the main body 200. The imaging device 1 may not be a lens interchangeable type.

交換レンズ100は、撮影レンズ102と、レンズ駆動部104と、レンズ位置検出部106と、絞り108と、絞り駆動部110と、レンズ情報記憶部112と、操作環114と、レンズ制御部116と、通信部118と、を有している。   The interchangeable lens 100 includes a photographing lens 102, a lens driving unit 104, a lens position detection unit 106, a diaphragm 108, a diaphragm driving unit 110, a lens information storage unit 112, an operation ring 114, and a lens control unit 116. And a communication unit 118.

撮影レンズ102は、フォーカスレンズ及びズームレンズ等の複数のレンズを有するレンズ群である。この撮影レンズ102は、図示しない被写体からの光を、本体200に設けられた撮像素子に結像させる。フォーカスレンズは、撮影レンズ102の焦点調節のためのレンズであり、ズームレンズは、撮影レンズ102の画角調整のためのレンズである。   The photographing lens 102 is a lens group having a plurality of lenses such as a focus lens and a zoom lens. The photographing lens 102 forms an image of light from a subject (not shown) on an image sensor provided in the main body 200. The focus lens is a lens for adjusting the focus of the photographing lens 102, and the zoom lens is a lens for adjusting the angle of view of the photographing lens 102.

レンズ駆動部104は、レンズ制御部116による制御に従って撮影レンズ102のフォーカスレンズやズームレンズを駆動する。このレンズ駆動部104は、撮影レンズ102に含まれるそれぞれのレンズを駆動するためのモータと、これらのモータを駆動する駆動回路と、を有している。レンズ位置検出部106は、フォーカスレンズ及びズームレンズの駆動位置を検出する。レンズ位置検出部106は、例えばエンコーダにより構成されている。   The lens driving unit 104 drives the focus lens and the zoom lens of the photographing lens 102 according to control by the lens control unit 116. The lens driving unit 104 includes a motor for driving each lens included in the photographing lens 102 and a driving circuit for driving these motors. The lens position detection unit 106 detects the driving positions of the focus lens and the zoom lens. The lens position detection unit 106 is configured by an encoder, for example.

絞り108は、開閉自在に構成されており、撮影レンズ102を介して撮像素子に結像される光の量を調節する。また、絞り108の開口量によって、撮像素子に結像される被写体の像のボケ具合も調節される。   The diaphragm 108 is configured to be openable and closable, and adjusts the amount of light that is imaged on the image sensor via the photographing lens 102. Further, the degree of blur of the subject image formed on the image sensor is also adjusted by the aperture amount of the diaphragm 108.

絞り駆動部110は、レンズ制御部116による制御に従って絞り108を駆動する。この絞り駆動部110は、絞りを駆動するためのモータと、その駆動回路と、を有している。   The aperture driving unit 110 drives the aperture 108 according to the control by the lens control unit 116. The diaphragm drive unit 110 includes a motor for driving the diaphragm and a drive circuit for the motor.

レンズ情報記憶部112は、撮影レンズ102の焦点距離、Fナンバー、収差情報といった撮影レンズ102のレンズ情報を記憶する。   The lens information storage unit 112 stores lens information of the photographing lens 102 such as the focal length, F number, and aberration information of the photographing lens 102.

操作環114は、交換レンズ100の外周に回転操作自在に配置されている。操作環114は、ユーザが手動で撮影レンズ102のフォーカスレンズ及びズームレンズの操作並びに絞り108の操作をするための操作部材である。   The operation ring 114 is disposed on the outer periphery of the interchangeable lens 100 so as to be freely rotatable. The operation ring 114 is an operation member for the user to manually operate the focus lens and zoom lens of the photographing lens 102 and the aperture 108.

レンズ制御部116は、通信部118を介して本体200の制御部216と通信自在に接続されている。レンズ制御部116は、制御部216の制御に従って、レンズ駆動部104及び絞り駆動部110を制御する。また、レンズ制御部116は、AF動作の時等において、レンズ位置検出部106で検出されたレンズ位置やレンズ情報記憶部112に記憶されているレンズ情報を、通信部118を介して本体200に送信することも行う。   The lens control unit 116 is communicatively connected to the control unit 216 of the main body 200 via the communication unit 118. The lens control unit 116 controls the lens driving unit 104 and the aperture driving unit 110 according to the control of the control unit 216. In addition, the lens control unit 116 transmits the lens position detected by the lens position detection unit 106 and the lens information stored in the lens information storage unit 112 to the main body 200 via the communication unit 118 during an AF operation or the like. Also send.

通信部118は、レンズ制御部116と制御部216との通信のための交換レンズ100側のインターフェイスである。   The communication unit 118 is an interface on the interchangeable lens 100 side for communication between the lens control unit 116 and the control unit 216.

また、本体200は、撮像部202と、顏検出部204と、画像処理部206と、表示部208と、記録部210と、操作部212と、タッチ操作部214と、制御部216と、通信部218と、を有している。ここで、撮像部202又は画像処理部206が画像取得部の一例として機能する。   In addition, the main body 200 includes an imaging unit 202, a wrinkle detection unit 204, an image processing unit 206, a display unit 208, a recording unit 210, an operation unit 212, a touch operation unit 214, a control unit 216, and communication. Part 218. Here, the imaging unit 202 or the image processing unit 206 functions as an example of an image acquisition unit.

撮像部202は、撮像素子、A/D変換回路等を有している。撮像素子は、画素としての光電変換素子が2次元状に配置された受光面を有して構成されている。それぞれの画素は、撮影レンズ102を介して結像された被写体の像を電気信号(画像信号)に変換する。また、撮像素子は、電子シャッタ機能によって露光量を調節する。撮像素子の露光動作は、制御部216によって制御される。A/D変換回路は、撮像素子で得られた画像信号を、デジタル信号としての画像データに変換する。   The imaging unit 202 includes an imaging element, an A / D conversion circuit, and the like. The image sensor has a light receiving surface on which photoelectric conversion elements as pixels are two-dimensionally arranged. Each pixel converts an image of a subject formed through the photographing lens 102 into an electric signal (image signal). In addition, the image sensor adjusts the exposure amount by an electronic shutter function. The exposure operation of the image sensor is controlled by the control unit 216. The A / D conversion circuit converts an image signal obtained by the image sensor into image data as a digital signal.

顏検出部204は、画像データにおける人物の顏に相当する部分を検出する。顏検出部204による顏検出の手法としては、周知の手法を用いることができる。例えば、顏の特徴部(目、鼻、口等)のパターンを顏検出部204に記憶させておき、この顏の特徴部のパターンと画像データとのマッチングを取ることにより、画像データにおける顏に相当する部分を検出する。   The eyelid detection unit 204 detects a portion corresponding to a person's eyelid in the image data. A well-known method can be used as a method of wrinkle detection by the wrinkle detection unit 204. For example, by storing the pattern of the feature part (eyes, nose, mouth, etc.) of the eyelid in the eyelid detection unit 204 and matching the pattern of the feature part of the eyelid with the image data, The corresponding part is detected.

画像処理部206は、画像データに対して画像処理を施す。画像処理部206が施す画像処理は、ホワイトバランス補正処理及びγ補正処理等の画像データに対応した画像を表示部208に表示させるために必要な各種の処理、並びに圧縮処理、伸張処理等が含まれる。また、画像処理部206は、合成部を有している。合成部は、選択部を含む画像データと背景部を含む画像データとを合成して1枚の合成画像データを生成する。選択部は、画像データにおける主要被写体の領域であって、手動又は自動で選択される。一方、背景部は、画像データにおける背景被写体の領域であって選択部以外の領域である。   The image processing unit 206 performs image processing on the image data. The image processing performed by the image processing unit 206 includes various types of processing necessary for displaying an image corresponding to image data such as white balance correction processing and γ correction processing on the display unit 208, and compression processing and expansion processing. It is. In addition, the image processing unit 206 includes a synthesis unit. The synthesizing unit synthesizes the image data including the selection unit and the image data including the background unit to generate one piece of synthesized image data. The selection unit is an area of the main subject in the image data, and is selected manually or automatically. On the other hand, the background portion is a region of the background subject in the image data and is a region other than the selection portion.

表示部208は、画像処理部206によって処理された画像データに基づく画像等の各種の画像を表示する。表示部208は、例えば液晶ディスプレイで構成されている。   The display unit 208 displays various images such as an image based on the image data processed by the image processing unit 206. The display unit 208 is configured by, for example, a liquid crystal display.

記録部210は、画像処理部206によって圧縮処理された画像データから生成される画像ファイルが記録される。記録部210は、例えば本体200に着脱自在なメモリカードで構成されている。記録部210を本体200に内蔵させるようにしても良い。   The recording unit 210 records an image file generated from the image data compressed by the image processing unit 206. The recording unit 210 is configured by a memory card that is detachable from the main body 200, for example. The recording unit 210 may be built in the main body 200.

操作部212は、ユーザが撮像装置1の各種の操作を行うための複数の操作部材を有して構成されている。操作部材としては、レリーズボタン、モードダイアル、電源ボタン等が含まれる。レリーズボタンは、ユーザが本体200に対して撮影開始の指示をするための操作部材である。モードダイアルは、ユーザが本体200に対して動作モードの設定の指示をするための操作部材である。電源ボタンは、ユーザが本体200に対して電源のオン又はオフを指示するための操作部材である。   The operation unit 212 includes a plurality of operation members for the user to perform various operations on the imaging device 1. The operation members include a release button, a mode dial, a power button, and the like. The release button is an operation member for the user to instruct the main body 200 to start photographing. The mode dial is an operation member for the user to instruct the main body 200 to set the operation mode. The power button is an operation member for the user to instruct the main body 200 to turn on or off the power.

タッチ操作部214は、例えば表示部208の表示画面の上に形成されている。タッチ操作部214は、例えば静電容量式のタッチ操作部であり、ユーザの指等の表示部208の表示画面への接触があった場合に、その接触位置を検出する。このタッチ操作部214により、ユーザによるタッチ操作を検出する。   The touch operation unit 214 is formed on the display screen of the display unit 208, for example. The touch operation unit 214 is, for example, a capacitive touch operation unit, and detects a contact position when the display unit 208 such as a user's finger contacts the display screen. The touch operation unit 214 detects a touch operation by the user.

制御部216は、本体200の各ブロックの動作を制御する。例えば、制御部216は、撮像部202の撮像素子に同期信号(垂直同期信号及び水平同期信号)を入力することによって、撮像素子の露光動作(電子シャッタ動作)を制御する。また、制御部216は、表示部208に同期信号(垂直同期信号及び水平同期信号)を入力することによって、表示部208の表示動作を制御する。また、制御部216は、画像データから画像ファイルを生成し、生成した画像ファイルを記録部210に記録することも行う。この他、制御部216は、操作識別部としての機能も有し、ユーザによって操作部212又はタッチ操作部214が操作された場合には、その操作の内容を識別することも行う。   The control unit 216 controls the operation of each block of the main body 200. For example, the control unit 216 controls the exposure operation (electronic shutter operation) of the imaging device by inputting a synchronization signal (vertical synchronization signal and horizontal synchronization signal) to the imaging device of the imaging unit 202. The control unit 216 controls the display operation of the display unit 208 by inputting synchronization signals (vertical synchronization signal and horizontal synchronization signal) to the display unit 208. The control unit 216 also generates an image file from the image data and records the generated image file in the recording unit 210. In addition, the control unit 216 also has a function as an operation identification unit. When the operation unit 212 or the touch operation unit 214 is operated by the user, the control unit 216 also identifies the content of the operation.

さらに、制御部216は、領域分割部、パラメータ設定部としての機能も有している。領域分割部としての機能は、画像データを選択部と背景部とに分割する機能である。領域分割部の機能が、画像データにおける選択部の位置を特定しておくだけの機能であっても良い。パラメータ設定部としての機能は、選択部又は背景部に対して行う視認性低下処理の際の処理パラメータを設定する。詳細については後述するが、本実施形態では、プライバシーの保護を目的として、選択部と背景部の何れかの視認性を低下させる(見えにくくする又は見えなくする)処理を施す。この処理として、本実施形態では、選択部と背景部とで露光のパラメータを変えたり、選択部と背景部とで画像処理のパラメータを変えたりする。パラメータ設定部としての機能は、これらのパラメータを設定する機能である。   Further, the control unit 216 has functions as an area dividing unit and a parameter setting unit. The function as an area dividing unit is a function of dividing image data into a selection unit and a background unit. The function of the area dividing unit may be a function that only specifies the position of the selection unit in the image data. The function as the parameter setting unit sets a processing parameter in the visibility reduction process performed on the selection unit or the background unit. Although details will be described later, in the present embodiment, for the purpose of protecting privacy, a process for reducing the visibility of the selection unit and the background unit (making it invisible or invisible) is performed. As this processing, in the present embodiment, exposure parameters are changed between the selection unit and the background unit, and image processing parameters are changed between the selection unit and the background unit. The function as a parameter setting unit is a function for setting these parameters.

通信部218は、レンズ制御部116と制御部216との通信のための本体200側のインターフェイスである。   The communication unit 218 is an interface on the main body 200 side for communication between the lens control unit 116 and the control unit 216.

図2は、図1に示した撮像装置1の動作を示すフローチャートである。図2の動作は、制御部216が主体となって行われる。   FIG. 2 is a flowchart showing the operation of the imaging apparatus 1 shown in FIG. The operation in FIG. 2 is performed mainly by the control unit 216.

図2において、制御部216は、本体200の電源がオンされたか否かを判定している(ステップS101)。ステップS101において、電源がオンされたと判定するまで、制御部216は、スタンバイ状態を継続する。   In FIG. 2, the control unit 216 determines whether the power source of the main body 200 is turned on (step S101). In step S101, the control unit 216 continues the standby state until it is determined that the power is turned on.

ステップS101において、電源がオンされたと判定した場合に、制御部216は、撮像装置1の動作モードが撮影モードであるか否かを判定する(ステップS102)。本実施形態では、撮像装置1が撮影モードと再生モードとを動作モードとして少なくとも有している。撮影モードは、記録用の画像を得るためのモードである。一方、再生モードは、記録された画像を再生するためのモードである。   If it is determined in step S101 that the power is turned on, the control unit 216 determines whether or not the operation mode of the imaging device 1 is the shooting mode (step S102). In the present embodiment, the imaging apparatus 1 has at least a shooting mode and a playback mode as operation modes. The shooting mode is a mode for obtaining an image for recording. On the other hand, the playback mode is a mode for playing back recorded images.

ステップS102において、撮像装置1の動作モードが撮影モードであると判定した場合に、制御部216は、ライブビュー表示動作を行う(ステップS103)。ライブビュー表示動作において、制御部216は、撮像部202を予め定められたフレームレートで連続動作させ、この連続動作によって撮像部202から逐次得られる画像データを画像処理部206に入力する。そして、制御部216は、画像処理部206において表示用の画像処理がなされた画像データを表示部208に入力することにより、撮像部202を介して逐次得られる画像データに対応した画像を表示部208にリアルタイムで表示させる。このようなライブビュー表示動作によって表示部208に表示された画像により、ユーザは、撮影構図等を確認することが可能である。   When it is determined in step S102 that the operation mode of the imaging apparatus 1 is the shooting mode, the control unit 216 performs a live view display operation (step S103). In the live view display operation, the control unit 216 continuously operates the imaging unit 202 at a predetermined frame rate, and inputs image data sequentially obtained from the imaging unit 202 by this continuous operation to the image processing unit 206. Then, the control unit 216 inputs image data that has been subjected to image processing for display in the image processing unit 206 to the display unit 208, thereby displaying images corresponding to the image data sequentially obtained via the imaging unit 202. 208 is displayed in real time. The user can check the shooting composition and the like from the image displayed on the display unit 208 by such a live view display operation.

ここで、後述の処理によって合成画像がライブビュー表示されていた場合には、ステップS103においては表示の更新をしない。   Here, when the synthesized image is displayed in live view by the process described later, the display is not updated in step S103.

ライブビュー表示動作の後、制御部216は、レンズ制御部116との通信により、レンズ位置等のレンズ状態を取得する(ステップS104)。制御部216は、レンズ位置の情報に基づき、必要に応じてライブビュー表示中の撮影レンズ102の焦点調節を行う。   After the live view display operation, the control unit 216 acquires a lens state such as a lens position through communication with the lens control unit 116 (step S104). Based on the lens position information, the control unit 216 adjusts the focus of the photographing lens 102 during live view display as necessary.

次に、制御部216は、タッチ操作部214の出力から、ユーザによりタッチ操作がなされたか否かを判定する(ステップS105)。タッチ操作とは、ユーザが、表示部208の表示画面上の特定の位置に指等を接触させる操作を言う。なお、ユーザの指等が既に接触している場合にはタッチ操作がなされていないと判定する。   Next, the control unit 216 determines from the output of the touch operation unit 214 whether or not a touch operation has been performed by the user (step S105). The touch operation refers to an operation in which the user touches a specific position on the display screen of the display unit 208 with a finger or the like. When the user's finger or the like is already in contact, it is determined that no touch operation has been performed.

ステップS105において、ユーザによりタッチ操作がなされたと判定した場合に、制御部216は、ユーザによりタッチ操作がなされた表示画面上の位置に選択表示を行う(ステップS106)。   If it is determined in step S105 that the touch operation has been performed by the user, the control unit 216 performs selective display at a position on the display screen where the user has performed the touch operation (step S106).

選択表示は、表示画面上の選択部の位置をユーザに明示するための表示である。図3(a)に示すようにして表示画面上の主要被写体(人物)の位置に、ユーザの指Fが接触した場合に、選択表示として、例えば図3(b)に示す選択枠302を表示させる。なお、選択枠302の範囲は予め定めた範囲とする。さらに、選択枠302の詳細が分かるように、選択枠302内の画像の拡大画像304を表示させる。このような選択表示により、選択部の仮の選択が行われる。ここで、選択部が選択された場合、その位置(座標)を記憶しておく。選択部の位置は、画像データにおける選択部と背景部とを識別するための情報である。   The selection display is a display for clearly indicating to the user the position of the selection unit on the display screen. When the user's finger F touches the position of the main subject (person) on the display screen as shown in FIG. 3A, for example, a selection frame 302 shown in FIG. Let Note that the range of the selection frame 302 is a predetermined range. Further, an enlarged image 304 of the image in the selection frame 302 is displayed so that details of the selection frame 302 can be understood. By such selection display, provisional selection of the selection unit is performed. Here, when the selection unit is selected, the position (coordinates) is stored. The position of the selection part is information for identifying the selection part and the background part in the image data.

次に、制御部216は、ユーザにより、撮影指示がなされたか否かを判定する(ステップS107)。ここでは、例えばレリーズボタンが押された場合に撮影指示がなされたと判定する。   Next, the control unit 216 determines whether or not a shooting instruction has been given by the user (step S107). Here, for example, it is determined that a shooting instruction has been issued when the release button is pressed.

ステップS107において、撮影指示がなされたと判定した場合に、制御部216は、撮影動作及び記録動作を行う(ステップS108)。撮影動作に先立って、制御部216は、撮影レンズ102の焦点調節及び露光量演算を行う。焦点調節の方式は、例えば山登りAF方式を用いることができる。山登りAF方式においては、例えば顏検出部204で検出された顏周辺のコントラストが最大となるように撮影レンズ102を駆動することによって、顏検出部204で検出された顏に撮影レンズ102を合焦させる。また、露光量演算においては、例えば顏検出部204で検出された顏周辺の露光量(明るさ)が適正となるように、撮影時における絞り108の開口量及び撮像部202の露光時間を設定する。ただし、後述の通常外撮影がなされる場合の露光量演算においては、絞り108の開口量を固定とし、露光時間を調節することによって撮像部202の露光量を調節する。焦点調節及び露光量演算の後、制御部216は、露光量演算の結果に従って絞り108の開口量を制御しつつ、露光量演算の結果に従った露光時間で撮像部202を動作させる。そして、制御部216は、撮像部202から得られた画像データを画像処理部206に入力する。その後、制御部216は、画像処理部206において記録用の画像処理がなされた画像データを、画像ファイルとして記録部210に記録する。このようにしてステップS108の処理が行われる。ステップS108の処理の終了後、制御部216は、処理をステップS101に戻す。また、ステップS107において、撮影指示がなされていないと判定した場合にも、制御部216は、処理をステップS101に戻す。   If it is determined in step S107 that a shooting instruction has been issued, the control unit 216 performs a shooting operation and a recording operation (step S108). Prior to the photographing operation, the control unit 216 performs focus adjustment of the photographing lens 102 and exposure amount calculation. As a focus adjustment method, for example, a mountain climbing AF method can be used. In the hill-climbing AF method, for example, by driving the photographing lens 102 so that the contrast around the eyelid detected by the eyelid detection unit 204 is maximized, the photographing lens 102 is focused on the eyelid detected by the eyelid detection unit 204. Let Further, in the exposure amount calculation, for example, the aperture amount of the aperture 108 and the exposure time of the imaging unit 202 are set so that the exposure amount (brightness) around the eyelid detected by the eyelid detection unit 204 is appropriate. To do. However, in the exposure amount calculation when non-normal shooting is performed, which will be described later, the exposure amount of the imaging unit 202 is adjusted by fixing the aperture amount of the diaphragm 108 and adjusting the exposure time. After the focus adjustment and the exposure amount calculation, the control unit 216 controls the aperture amount of the diaphragm 108 according to the exposure amount calculation result, and operates the imaging unit 202 with the exposure time according to the exposure amount calculation result. Then, the control unit 216 inputs the image data obtained from the imaging unit 202 to the image processing unit 206. Thereafter, the control unit 216 records the image data on which the image processing for recording has been performed in the image processing unit 206 in the recording unit 210 as an image file. In this way, the process of step S108 is performed. After the process of step S108 ends, the control unit 216 returns the process to step S101. Also, when it is determined in step S107 that no shooting instruction has been given, the control unit 216 returns the process to step S101.

また、ステップS105において、タッチ操作がなされていないと判定した場合に、制御部216は、選択部が選択済みであるか、即ちタッチ操作がなされた後であるか否かを判定する(ステップS109)。ステップS109において、選択部が選択済みであると判定した場合に、制御部216は、ユーザにより選択部の範囲変更の操作がなされたか否かを判定する(ステップS110)。範囲変更の操作は、例えば選択部(選択枠302又は拡大画像304)に対してタッチ操作がなされている状態で、接触位置を時間的に変化させる操作(スライド操作と言う)である。図3(b)及び図3(c)にスライド操作を示す。図3(b)は、選択枠302に対して矢印A方向のスライド操作がなされた例を示している。また、図3(c)は、拡大画像304に対して矢印B方向のスライド操作がなされた例を示している。   If it is determined in step S105 that the touch operation has not been performed, the control unit 216 determines whether the selection unit has been selected, that is, after the touch operation has been performed (step S109). ). If it is determined in step S109 that the selection unit has been selected, the control unit 216 determines whether or not the user has performed an operation for changing the range of the selection unit (step S110). The range changing operation is, for example, an operation (referred to as a slide operation) for temporally changing the contact position while a touch operation is performed on the selection unit (the selection frame 302 or the enlarged image 304). FIG. 3B and FIG. 3C show the slide operation. FIG. 3B shows an example in which a slide operation in the direction of arrow A is performed on the selection frame 302. FIG. 3C shows an example in which a slide operation in the direction of arrow B is performed on the enlarged image 304.

ステップS110において、範囲変更の操作がなされたと判定した場合に、制御部216は、ユーザによる範囲変更の操作に従って選択部の範囲を変更する。また、この変更に伴って表示部208に表示させている選択枠302の範囲及び拡大画像304の範囲も変更する(ステップS111)。例えば、図3(c)に示すスライド操作がなされた場合、図3(d)に示すようにして矢印B方向に沿って選択枠302及び拡大画像304が拡大される。このような範囲変更の処理を経て、最終的な選択部の選択が行われる。これにより、画像データが選択部と背景部とに分割される。   When it is determined in step S110 that the range change operation has been performed, the control unit 216 changes the range of the selection unit according to the range change operation by the user. In accordance with this change, the range of the selection frame 302 and the range of the enlarged image 304 displayed on the display unit 208 are also changed (step S111). For example, when the slide operation shown in FIG. 3C is performed, the selection frame 302 and the enlarged image 304 are enlarged along the arrow B direction as shown in FIG. After such range change processing, the final selection unit is selected. As a result, the image data is divided into a selection portion and a background portion.

範囲変更の操作がなされていない場合又は範囲変更を行った後、制御部216は、背景部を変更するか、即ち背景部に対して視認性を低下させる処理を行うか否かを判定する(ステップS112)。例えば、ステップS110又はS111の後、制御部216は、図4(a)に示すような2つのソフトウェアボタン306及び308を表示部208に表示させる。背景除去ボタン306は、ユーザが背景部に対して視認性を低下させる処理を行うように指示するためのボタンである。一方、対象除去ボタン308は、ユーザが選択部に対して視認性を低下させる処理を行うように指示するためのボタンである。ステップS112においては、タッチ操作部214の出力から、背景除去ボタン306の位置にユーザの指等が接触したか否かを判定する。   When the range change operation is not performed or after the range change is performed, the control unit 216 determines whether to change the background portion, that is, whether to perform a process of reducing the visibility on the background portion ( Step S112). For example, after step S110 or S111, the control unit 216 causes the display unit 208 to display two software buttons 306 and 308 as shown in FIG. The background removal button 306 is a button for instructing the user to perform processing for reducing the visibility of the background portion. On the other hand, the target removal button 308 is a button for instructing the user to perform processing for reducing the visibility to the selection unit. In step S112, it is determined from the output of the touch operation unit 214 whether or not the user's finger or the like has touched the position of the background removal button 306.

ステップS112において、背景部を変更すると判定した場合に、制御部216は、選択部を通常撮影する(ステップS113)。また、制御部216は、背景部を通常外撮影する(ステップS114)。また、ステップS112において、選択部を変更すると判定した場合に、制御部216は、選択部を通常外撮影する(ステップS115)。また、制御部216は、背景部を通常撮影する(ステップS116)。ここで、通常外撮影とは、通常撮影における撮影条件(例えばライブビュー表示時の露光条件及び画像処理条件)と異なる条件で行う撮影のことを言う。通常撮影及び通常外撮影の詳細については後述する。   If it is determined in step S112 that the background portion is to be changed, the control unit 216 normally photographs the selection unit (step S113). In addition, the control unit 216 captures the background portion outside normal (step S114). Further, when it is determined in step S112 that the selection unit is to be changed, the control unit 216 performs non-normal shooting of the selection unit (step S115). In addition, the control unit 216 normally captures the background portion (step S116). Here, non-normal shooting refers to shooting performed under conditions different from shooting conditions in normal shooting (for example, exposure conditions and image processing conditions during live view display). Details of normal shooting and non-normal shooting will be described later.

選択部及び背景部を異なる条件で撮影した後、制御部216は、異なる条件で撮影された主要被写体画像としての選択部の画像データ(又は選択部を含む全体の画像データ)と背景画像としての背景部の画像データ(又は背景部を含む全体の画像データ)とを画像処理部206に入力する。画像処理部206は、入力された2つの画像データを合成して合成画像データを生成する。そして、制御部216は、合成画像データを表示部208に入力し、合成画像をライブビュー表示する(ステップS117)。その後、制御部216は、処理をステップS107に移行させる。ここで、合成の際、合成画像データにおける選択部に対応する部分については、制御部216から入力された選択部の画像データを合成する。一方、合成画像データにおける背景部に対応する部分については、制御部216から入力された背景部の画像データを合成する。   After photographing the selection part and the background part under different conditions, the control part 216 uses the image data of the selection part (or the entire image data including the selection part) as the main subject image photographed under different conditions and the background image as the background image. The image data of the background part (or the entire image data including the background part) is input to the image processing unit 206. The image processing unit 206 combines the two input image data to generate combined image data. Then, the control unit 216 inputs the composite image data to the display unit 208 and displays the composite image in a live view (step S117). Thereafter, the control unit 216 shifts the processing to step S107. Here, at the time of synthesis, for the portion corresponding to the selection unit in the composite image data, the image data of the selection unit input from the control unit 216 is synthesized. On the other hand, for the portion corresponding to the background portion in the combined image data, the image data of the background portion input from the control unit 216 is combined.

図4(b)は、背景部に対して視認性を低下させる処理を行った後の合成画像の表示例を示している。図4(b)に示す表示例では、選択部としての顏周辺部が鮮明な画像として表示され、その他の部分が不鮮明な画像として表示される。これにより、ユーザが意図した被写体のみを鮮明な画像として残しつつ、その他の部分の視認性を低下させてプライバシーの保護も図ることが可能である。
図4(c)は、選択部に対して視認性を低下させる処理を行った後の合成画像の表示例を示している。図4(c)に示す例の表示では、選択部としての顏周辺部が黒く塗りつぶされ、その他の部分が鮮明な画像として表示される。この場合も、ユーザが意図した被写体のみを鮮明な画像として残しつつ、その他の部分の視認性を低下させてプライバシーの保護も図ることが可能である。
FIG. 4B shows a display example of a composite image after performing a process of reducing visibility on the background portion. In the display example shown in FIG. 4B, the periphery of the eyelid as the selection unit is displayed as a clear image, and the other part is displayed as a blurred image. Accordingly, it is possible to protect privacy by reducing visibility of other portions while leaving only a subject intended by the user as a clear image.
FIG. 4C shows a display example of a composite image after the process of reducing the visibility is performed on the selection unit. In the display of the example shown in FIG. 4C, the periphery of the eyelid as the selection part is painted black, and the other part is displayed as a clear image. Also in this case, it is possible to protect privacy by reducing the visibility of other portions while leaving only the subject intended by the user as a clear image.

なお、画像の視認性(背景部又は選択部の画像の見え)は、ユーザの好みによって変更できるようしても良い。例えばユーザのタッチ操作部214の操作を受けて、通常外撮影により得られた選択部又は背景部の画像データにおけるコントラスト、透明度、彩度等を変更する画像処理を画像処理部206において行うようにしても良い。   Note that the visibility of the image (the appearance of the image in the background portion or the selection portion) may be changed according to the user's preference. For example, the image processing unit 206 performs image processing for changing the contrast, transparency, saturation, and the like in the image data of the selection unit or the background unit obtained by non-normal shooting in response to the user's operation on the touch operation unit 214. May be.

また、ステップS102において、撮像装置1の動作モードが撮影モードでないと判定した場合に、制御部216は、撮像装置1の動作モードが再生モードであるか否かを判定する(ステップS118)。   If it is determined in step S102 that the operation mode of the imaging apparatus 1 is not the shooting mode, the control unit 216 determines whether or not the operation mode of the imaging apparatus 1 is the reproduction mode (step S118).

ステップS118において、撮像装置の動作モードが再生モードであると判定した場合に、制御部216は、画像再生の処理を行う(ステップS119)。画像再生の処理については簡単に説明する。画像再生の処理において、制御部216は、記録部210に記録されている画像ファイルの一覧を表示部208に表示させる。ユーザは、一覧表示された画像ファイルの中から所望の画像ファイルを操作部212又はタッチ操作部214を操作して選択する。この選択を受け、制御部216は、記録部210から対応する画像ファイルを読み出し、この画像ファイルに記録されている圧縮済みの画像データを画像処理部206に入力する。画像処理部206は、入力された圧縮画像データを伸張する。そして、制御部216は、伸張された画像データを表示部208に入力して表示部208に画像を表示させる。   If it is determined in step S118 that the operation mode of the imaging apparatus is the reproduction mode, the control unit 216 performs image reproduction processing (step S119). The image reproduction process will be briefly described. In the image reproduction process, the control unit 216 causes the display unit 208 to display a list of image files recorded in the recording unit 210. The user selects a desired image file from the list-displayed image files by operating the operation unit 212 or the touch operation unit 214. Upon receiving this selection, the control unit 216 reads the corresponding image file from the recording unit 210 and inputs the compressed image data recorded in the image file to the image processing unit 206. The image processing unit 206 decompresses the input compressed image data. Then, the control unit 216 inputs the decompressed image data to the display unit 208 and causes the display unit 208 to display an image.

画像再生の処理の後、制御部216は、操作部212又はタッチ操作部214により、再生する画像を変更する操作がなされたか否かを判定する(ステップS120)。ステップS120において、再生する画像を変更する操作がなされたと判定した場合に、制御部216は、記録部210から変更後の画像ファイルを読み出す(ステップS121)。そして、制御部216は、処理をステップS119に戻して、変更後の画像ファイルを再生する。また、ステップS120において、再生する画像を変更する操作がなされてないと判定した場合に、制御部216は、処理をステップS101に戻す。   After the image reproduction process, the control unit 216 determines whether an operation for changing the image to be reproduced has been performed by the operation unit 212 or the touch operation unit 214 (step S120). If it is determined in step S120 that an operation for changing the image to be reproduced has been performed, the control unit 216 reads the changed image file from the recording unit 210 (step S121). Then, the control unit 216 returns the process to step S119 to reproduce the changed image file. If it is determined in step S120 that the operation for changing the image to be reproduced has not been performed, the control unit 216 returns the process to step S101.

また、ステップS118において、撮像装置の動作モードが再生モードでないと判定した場合に、制御部216は、処理をステップS101に戻す。なお、撮影モード及び再生モード以外の動作モードがある場合には、制御部216は、その動作モードに対応した処理を行う。   If it is determined in step S118 that the operation mode of the imaging apparatus is not the playback mode, the control unit 216 returns the process to step S101. When there is an operation mode other than the shooting mode and the playback mode, the control unit 216 performs processing corresponding to the operation mode.

次に、通常撮影及び通常外撮影について説明する。通常外撮影においては、通常撮影と異なる撮影条件で撮影を行うことによって、選択部又は背景部の視認性を低下させる。まず、絞り108の開口量を制御することによって視認性を低下させる例を説明する。   Next, normal shooting and non-normal shooting will be described. In non-normal shooting, the visibility of the selection portion or the background portion is lowered by shooting under shooting conditions different from normal shooting. First, an example in which the visibility is lowered by controlling the opening amount of the diaphragm 108 will be described.

図5は、絞り108の開口量を制御することによって視認性を低下させる処理としての通常撮影と通常外撮影とのタイミングチャートである。ここで、図5は、背景部の視認性を低下させる例を示している。また、図5は、撮像素子の露光時間をローリングシャッタ方式の電子シャッタによって制御する例を示している。撮像素子の露光時間をグローバルシャッタ方式の電子シャッタによって制御するようにしても良い。   FIG. 5 is a timing chart of normal shooting and non-normal shooting as processing for reducing the visibility by controlling the opening amount of the aperture 108. Here, FIG. 5 shows an example in which the visibility of the background portion is lowered. FIG. 5 shows an example in which the exposure time of the image sensor is controlled by a rolling shutter type electronic shutter. The exposure time of the image sensor may be controlled by a global shutter electronic shutter.

ライブビュー表示中の撮影(露光制御)は、制御部216で生成される垂直同期信号に同期して行われる。また、交換レンズ100内の処理は、垂直同期信号に同期したレンズ同期信号に同期して行われる。   Shooting (exposure control) during live view display is performed in synchronization with a vertical synchronization signal generated by the control unit 216. The processing in the interchangeable lens 100 is performed in synchronization with the lens synchronization signal synchronized with the vertical synchronization signal.

垂直同期信号の間隔によってライブビュー表示のフレームレートが決定される。ここで、図5の例では、4フレームの撮影毎に1フレームの合成画像の表示を行う。ただし、4フレームのうちの2フレームについては使用しない。図5の斜線が未使用フレームである。4フレーム毎に表示を行うのは、電子シャッタの方式がローリングシャッタ方式のためである。   The frame rate of the live view display is determined by the interval of the vertical synchronization signal. Here, in the example of FIG. 5, a composite image of one frame is displayed every four frames. However, 2 of the 4 frames are not used. The hatched lines in FIG. 5 are unused frames. The display is performed every four frames because the electronic shutter method is the rolling shutter method.

選択部を通常撮影する際、制御部216は、カメラ本体内処理B1として、撮像素子の露光時間設定等を行った後、撮像部202の動作を開始させる。図5の例は、ローリングシャッタ方式であるので、撮像素子の行単位で撮像及び画像信号の読み出しが行われる。この撮像素子の動作と並行して、制御部216は、交換レンズ100のレンズ制御部116に対して、合焦調節のための撮影レンズ102のレンズ駆動指示及び絞り108の開口量を第1の所定の開口量(例えばライブビュー表示時の開口量)とする絞り駆動指示を含む本体−レンズ間通信信号BLを出力する。   When the selection unit normally shoots, the control unit 216 starts the operation of the imaging unit 202 after setting the exposure time of the imaging element or the like as the camera body processing B1. Since the example in FIG. 5 is a rolling shutter system, imaging and image signal reading are performed in units of rows of the imaging device. In parallel with the operation of the image sensor, the control unit 216 gives the lens control unit 116 of the interchangeable lens 100 a first lens drive instruction for the photographing lens 102 and an opening amount of the diaphragm 108 for focusing adjustment. A main body-lens communication signal BL including an aperture driving instruction with a predetermined opening amount (for example, an opening amount during live view display) is output.

本体−レンズ間通信信号BLを受けたレンズ制御部116は、レンズ内処理L1として、制御部216に対して、本体−レンズ間通信信号BLを受けた旨をレンズ−本体間通信信号LBとして出力する。その後、レンズ制御部116は、レンズ内処理L2として、レンズ駆動部104及び絞り駆動部110を制御して、撮影レンズ102の合焦調節及び絞り108の駆動を行う。   Upon receiving the main body-lens communication signal BL, the lens control unit 116 outputs, as in-lens processing L1, to the control unit 216 that the main body-lens communication signal BL has been received as a lens-main body communication signal LB. To do. After that, the lens control unit 116 controls the lens driving unit 104 and the aperture driving unit 110 as in-lens processing L2 to adjust the focus of the photographing lens 102 and drive the aperture 108.

このように、通常撮影では、通常外撮影に比べて絞り108を閉じることによって相対的に被写界深度を深くする。これにより、選択部を鮮明な画像とする。   As described above, in the normal shooting, the depth of field is relatively deepened by closing the aperture 108 as compared with the non-normal shooting. Thereby, a selection part is made into a clear image.

一方、背景部を通常外撮影する際、制御部216は、カメラ本体内処理B1として、撮像素子の露光時間設定等を行った後、撮像部202の動作を開始させる。この撮像素子の動作と並行して、制御部216は、交換レンズ100のレンズ制御部116に対して、合焦調節のための撮影レンズ102のレンズ駆動指示及び絞り108の開口量を第1の所定の開口量よりも大きな第2の所定の開口量(例えば開放絞り)とする絞り駆動指示を含む本体−レンズ間通信信号BLを出力する。   On the other hand, when the background part is photographed outside the normal state, the control unit 216 starts the operation of the imaging unit 202 after setting the exposure time of the imaging element or the like as the camera body processing B1. In parallel with the operation of the image sensor, the control unit 216 gives the lens control unit 116 of the interchangeable lens 100 a first lens drive instruction for the photographing lens 102 and an opening amount of the diaphragm 108 for focusing adjustment. A body-lens communication signal BL including an aperture driving instruction for setting a second predetermined aperture (for example, an open aperture) larger than the predetermined aperture is output.

本体−レンズ間通信信号BLを受けたレンズ制御部116は、レンズ内処理L1として、制御部216に対して、本体−レンズ間通信信号BLを受けた旨をレンズ−本体間通信信号LBとして出力する。その後、レンズ制御部116は、レンズ内処理L2として、レンズ駆動部104及び絞り駆動部110を制御して、撮影レンズ102の合焦調節及び絞り108の駆動を行う。   Upon receiving the main body-lens communication signal BL, the lens control unit 116 outputs, as in-lens processing L1, to the control unit 216 that the main body-lens communication signal BL has been received as a lens-main body communication signal LB. To do. After that, the lens control unit 116 controls the lens driving unit 104 and the aperture driving unit 110 as in-lens processing L2 to adjust the focus of the photographing lens 102 and drive the aperture 108.

このように、通常外撮影では、通常撮影に比べて絞り108を開くことによって相対的に被写界深度を浅くする。これにより、画像全体を不鮮明にして視認性を低下させる。   As described above, in non-normal shooting, the depth of field is relatively reduced by opening the aperture 108 as compared with normal shooting. This blurs the entire image and reduces visibility.

通常撮影で得られた画像における選択部と通常外撮影で得られた画像における背景部とを合成することにより、選択部を鮮明な画像として残しつつ、背景部を不鮮明な画像とすることが可能である。図5とは逆に、通常撮影で得られた画像における背景部と通常外撮影で得られた画像における選択部とを合成することにより、背景部を鮮明な画像として残しつつ、選択部を不鮮明な画像とすることも可能である。   By combining the selection part in the image obtained by normal shooting and the background part in the image obtained by non-normal shooting, it is possible to leave the selection part as a clear image and make the background part unclear. It is. Contrary to FIG. 5, by combining the background portion in the image obtained by normal shooting and the selection portion in the image obtained by non-normal shooting, the selection portion is unclear while leaving the background portion as a clear image. It is also possible to make a simple image.

以上説明したように、本実施形態では、選択部と背景部との一方の視認性を他方に対して低下させる処理を行った上で両者を合成することにより、ユーザが鮮明な画像として残したい部分を鮮明にしつつ、残りの部分の視認性を落としてプライバシーの保護を図ることが可能である。   As described above, in this embodiment, the user wants to leave a clear image by performing a process of reducing the visibility of one of the selection unit and the background unit with respect to the other and then combining the two. While clearing the portion, it is possible to protect the privacy by reducing the visibility of the remaining portion.

また、選択部の選択をタッチ操作部214で行うことができるので、選択部の選択を容易に行うことが可能である。   In addition, since the selection unit can be selected by the touch operation unit 214, the selection unit can be easily selected.

[変形例]
以下、本実施形態の変形例について説明する。
前述の例では、タッチ操作部214によって選択部の選択を行うようにしているが、選択部を自動で検出するようにしても良い。例えば、撮像装置1に主要被写体検出部を持たせておき、主要被写体検出部が、撮影画面内で静止している被写体の領域を検出した場合に、その領域を選択部とすることができる。また、主要被写体検出部が、撮影画面内に占める面積が所定の割合以上の被写体の領域を検出した場合に、その領域を選択部とすることもできる。ここで、主要被写体検出部としては例えば顏検出部204を用いることが可能である。
[Modification]
Hereinafter, modifications of the present embodiment will be described.
In the above example, the selection unit is selected by the touch operation unit 214, but the selection unit may be automatically detected. For example, the imaging device 1 may have a main subject detection unit, and when the main subject detection unit detects a region of a stationary subject in the shooting screen, that region can be used as a selection unit. In addition, when the main subject detection unit detects a region of a subject whose area in the shooting screen occupies a predetermined ratio or more, that region can be used as the selection unit. Here, for example, the eyelid detection unit 204 can be used as the main subject detection unit.

前述の例では、絞り108の開口量を固定としているが、ユーザの操作によって微調整できるようにしても良い。例えば、図6に示すようにして、ユーザが操作環114を矢印C方向に沿って回転させれば、絞り108の開口量が変化するので、この状態の絞り108を用いて通常撮影又は通常外撮影を行うようにしても良い。   In the above-described example, the opening amount of the diaphragm 108 is fixed, but it may be finely adjusted by a user operation. For example, as shown in FIG. 6, when the user rotates the operation ring 114 along the direction of arrow C, the aperture of the diaphragm 108 changes. Shooting may be performed.

また、図5の例では、絞り108の開口量を変化させることによって視認性を低下させている。しかしながら、視認性低下処理は、絞り108の開口量を変化させる処理に限定されるものではない。例えば、通常外撮影において、撮影レンズ102を非合焦状態とする(ピンボケさせる)ようにして視認性を低下させるようにしても良い。   In the example of FIG. 5, the visibility is lowered by changing the opening amount of the diaphragm 108. However, the visibility reduction process is not limited to the process of changing the opening amount of the diaphragm 108. For example, in non-normal shooting, visibility may be reduced by setting the taking lens 102 out of focus (out of focus).

また、図7(a)に示すように、露光時間を長くすることによって、画像のボケを多くして視認性を低下させた画像を生成するようにしても良い。さらには、図7(b)に示すように、複数枚の画像を撮影し、これらの画像を平均化することによって画像のボケを多くして視認性を低下させた画像を生成するようにしても良い。露光時間を長くする方式では、視認性を低下させる側(例えば背景部)のリニアな軌跡を画像として残すことが可能である。また、複数枚の画像を合成する方式では、撮影後でも処理が可能である。このため、撮像装置1とは異なる画像合成装置(例えばパーソナルコンピュータ)においても処理を行うことが可能である。   Further, as shown in FIG. 7A, by increasing the exposure time, an image with reduced visibility by increasing the blur of the image may be generated. Furthermore, as shown in FIG. 7B, a plurality of images are taken, and these images are averaged to increase the image blur and generate an image with reduced visibility. Also good. In the method in which the exposure time is lengthened, it is possible to leave a linear locus on the side (for example, the background portion) that reduces visibility as an image. In addition, the method of combining a plurality of images can be processed even after shooting. For this reason, it is possible to perform processing also in an image composition device (for example, a personal computer) different from the imaging device 1.

この他、画像データにローパスフィルタ処理を掛ける等してぼかすようにしても良い。さらに、画像処理によって画像をぼかす場合には、画像全体をぼかしてから必要な部分(選択部又は背景部)を切り出すようにしても良いし、必要な部分(選択部又は背景部)を切り出してからその部分をぼかすようにしても良い。さらに、視認性を低下させる処理として、ぼかしを施すのではなく、視認性を低下させる部分を、図4(c)に示すように特定の色(例えば黒)で塗りつぶすようにしても良い。   In addition, the image data may be blurred by applying a low-pass filter process or the like. Further, when blurring an image by image processing, a necessary part (selection part or background part) may be cut out after blurring the entire image, or a necessary part (selection part or background part) may be cut out. You may make it blur. Furthermore, as a process of reducing visibility, instead of blurring, a portion that reduces visibility may be painted with a specific color (for example, black) as shown in FIG.

さらに、前述の実施形態では、2枚の画像データを合成して1枚の合成画像データを合成しているが、3枚以上の画像データを合成して1枚の合成画像データを合成するようにしても良い。   Furthermore, in the above-described embodiment, two pieces of image data are combined to combine one piece of combined image data. However, three or more pieces of image data are combined to combine one piece of combined image data. Anyway.

以上実施形態に基づいて本発明を説明したが、本発明は前述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described based on the above embodiment, the present invention is not limited to the above-described embodiment, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、前述したような課題を解決でき、前述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…交換レンズ、102…撮影レンズ、104…レンズ駆動部、106…レンズ位置検出部、108…絞り、110…絞り駆動部、112…レンズ情報記憶部、114…操作環、116…レンズ制御部、118…通信部、200…本体、202…撮像部、204…顏検出部、206…画像処理部、208…表示部、210…記録部、212…操作部、214…タッチ操作部、216…制御部、218…通信部。   DESCRIPTION OF SYMBOLS 100 ... Interchangeable lens, 102 ... Shooting lens, 104 ... Lens drive part, 106 ... Lens position detection part, 108 ... Diaphragm, 110 ... Diaphragm drive part, 112 ... Lens information storage part, 114 ... Operation ring, 116 ... Lens control part 118 ... Communication unit 200 ... Main body 202 ... Imaging unit 204 ... Haze detection unit 206 ... Image processing unit 208 ... Display unit 210 ... Recording unit 212 ... Operation unit 214 ... Touch operation unit 216 ... Control unit, 218... Communication unit.

Claims (7)

画像を表示する表示部と、
前記画像における一部の領域を選択部としてタッチ入力によって選択するためのタッチ操作部と、
を具備し、
前記表示部は、前記選択部を拡大表示し、
前記拡大表示された前記選択部に対して前記タッチ操作部によるスライド入力がなされた場合に、前記スライド入力に応じて形状が変更された前記選択部を拡大表示することを特徴とする画像表示装置。
A display for displaying an image;
A touch operation unit for selecting a partial region in the image as a selection unit by touch input;
Comprising
The display unit enlarges and displays the selection unit,
An image display device that enlarges and displays the selection unit whose shape has been changed in accordance with the slide input when a slide input is made by the touch operation unit on the enlarged selection unit .
請求項1に記載の画像表示装置と、
画像を取得する画像取得部と、
前記選択部と前記選択部以外の領域である非選択部とのうちの何れに対して視認性を低下させる処理を行うかを選択するための操作部と、
前記操作部による選択に従って、前記選択部の画像と前記非選択部の画像との一方の視認性を他方に対して低下させるように、前記画像取得部による前記選択部の画像と前記非選択部の画像との取得を制御する制御部と、
前記制御部の制御によって前記画像取得部で取得された前記選択部の画像と前記非選択部の画像と合成して1つの合成画像を取得する合成部と、
を具備することを特徴とする画像合成装置。
An image display device according to claim 1;
An image acquisition unit for acquiring images;
An operation unit for selecting which of the selection unit and the non-selection unit which is an area other than the selection unit to perform the process of reducing the visibility;
According to the selection by the operation unit, the image of the selection unit and the non-selection unit by the image acquisition unit so as to reduce the visibility of one of the image of the selection unit and the image of the non-selection unit relative to the other. A control unit that controls acquisition of the image of
A combining unit that combines the image of the selection unit acquired by the image acquisition unit and the image of the non-selection unit under the control of the control unit to acquire one combined image;
An image composition apparatus comprising:
前記画像取得部は、前記選択部の被写体を撮像して前記選択部の画像を取得するとともに、前記非選択部の被写体を撮像して前記非選択部の画像を取得し、
前記制御部は、前記選択部の画像と前記非選択部の画像とのうち、視認性を低下させるほうの撮像における絞りの開口量を他方の撮像における絞りの開口量よりも大きくする又は視認性を低下させるほうの撮像における露光時間を他方の撮像における露光時間と異ならせるように、前記画像取得部を制御することを特徴とする請求項2に記載の画像合成装置。
The image acquisition unit captures the subject of the selection unit to acquire the image of the selection unit, captures the subject of the non-selection unit and acquires the image of the non-selection unit,
The control unit increases the aperture amount of the diaphragm in the image capturing that reduces visibility among the image of the selecting unit and the image of the non-selecting unit, or the visibility of the aperture in the other image capturing. The image synthesizing apparatus according to claim 2, wherein the image acquisition unit is controlled so that an exposure time in the image pickup for decreasing the image quality is different from an exposure time in the other image pickup.
前記画像取得部は、入力された複数の画像に異なる画像処理を施して前記選択部の画像と前記非選択部の画像とを取得し、
前記制御部は、前記選択部の画像と前記非選択部の画像とのうち、視認性を低下させるほうの画像処理においてぼかし処理を施すように、前記画像取得部を制御することを特徴とする請求項2に記載の画像合成装置。
The image acquisition unit performs different image processing on the plurality of input images to acquire the image of the selection unit and the image of the non-selection unit,
The control unit controls the image acquisition unit to perform a blurring process in an image process that reduces visibility among an image of the selection unit and an image of the non-selection unit. The image composition device according to claim 2.
入力された画像を前記選択部と前記非選択部とに分割する領域分割部をさらに具備することを特徴とする請求項2乃至4の何れか1項に記載の画像合成装置。   5. The image synthesizing apparatus according to claim 2, further comprising an area dividing unit that divides an input image into the selection unit and the non-selection unit. 入力された画像における主要被写体の領域を検出する主要被写体検出部をさらに具備し、
前記領域分割部は、前記主要被写体検出部によって検出された前記主要被写体の領域を前記選択部とすることを特徴とする請求項5に記載の画像合成装置。
A main subject detection unit for detecting a region of the main subject in the input image;
The image synthesizing apparatus according to claim 5, wherein the region dividing unit uses the region of the main subject detected by the main subject detection unit as the selection unit.
画像を表示することと、
タッチ入力を受けて、前記表示された画像における一部の領域を選択部として選択することと、
前記画像の前期選択部を表示部に拡大表示することと、
前記拡大表示された前記選択部に対してスライド入力がなされた場合に、前記スライド入力に応じて形状が変更された前記選択部を前記表示部に拡大表示することと、
を具備することを特徴とする画像表示方法。
Displaying images,
Receiving a touch input and selecting a part of the displayed image as a selection unit;
Magnifying and displaying the previous part of the image on the display unit;
When a slide input is made on the enlarged selection portion, the selection portion whose shape is changed according to the slide input is enlarged on the display portion;
An image display method comprising:
JP2016115143A 2016-06-09 2016-06-09 Image synthesizer Expired - Fee Related JP6211139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016115143A JP6211139B2 (en) 2016-06-09 2016-06-09 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016115143A JP6211139B2 (en) 2016-06-09 2016-06-09 Image synthesizer

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011285908A Division JP5951988B2 (en) 2011-12-27 2011-12-27 Image composition apparatus and image composition method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017084183A Division JP2017184243A (en) 2017-04-21 2017-04-21 Image composition device and image composition method

Publications (2)

Publication Number Publication Date
JP2016178694A true JP2016178694A (en) 2016-10-06
JP6211139B2 JP6211139B2 (en) 2017-10-11

Family

ID=57071596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115143A Expired - Fee Related JP6211139B2 (en) 2016-06-09 2016-06-09 Image synthesizer

Country Status (1)

Country Link
JP (1) JP6211139B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300221A (en) * 2006-04-27 2007-11-15 Olympus Imaging Corp Camera
JP2010130093A (en) * 2008-11-25 2010-06-10 Olympus Imaging Corp Imaging apparatus, and program for the same
JP2010231653A (en) * 2009-03-27 2010-10-14 Softbank Mobile Corp Display device, display method, and program
JP2011199662A (en) * 2010-03-19 2011-10-06 Sony Corp Image processing apparatus, image processing method, image processing program, and recording medium having image processing program recorded therein

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300221A (en) * 2006-04-27 2007-11-15 Olympus Imaging Corp Camera
JP2010130093A (en) * 2008-11-25 2010-06-10 Olympus Imaging Corp Imaging apparatus, and program for the same
JP2010231653A (en) * 2009-03-27 2010-10-14 Softbank Mobile Corp Display device, display method, and program
JP2011199662A (en) * 2010-03-19 2011-10-06 Sony Corp Image processing apparatus, image processing method, image processing program, and recording medium having image processing program recorded therein

Also Published As

Publication number Publication date
JP6211139B2 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP5136669B2 (en) Image processing apparatus, image processing method, and program
JP5907738B2 (en) Imaging apparatus, display method, and program
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP5719223B2 (en) Image recording apparatus, recording method, and program
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP2010003251A (en) Image resizing device and image resizing method
JP5915514B2 (en) Image processing apparatus, image processing method, and program
JP2014017579A (en) Imaging device, image processing method, and image processing program
US9088722B2 (en) Image processing method, computer-readable recording medium, and image processing apparatus
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP5009204B2 (en) Image capturing apparatus and image composition method in image capturing apparatus
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP5951988B2 (en) Image composition apparatus and image composition method
JP2015159550A (en) Imaging apparatus, imaging method, and program
JP6211139B2 (en) Image synthesizer
JP2017184243A (en) Image composition device and image composition method
JP6925827B2 (en) Image processing device and image processing method
JP6084310B2 (en) Imaging apparatus and imaging method
KR20130092213A (en) Digital photographing apparatus and control method thereof
JP2013115656A (en) Photographing apparatus
JP5731087B1 (en) Image processing apparatus, display apparatus, image processing method, and program
JP2010050876A (en) Camera
JP2014207580A (en) Photographing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170912

R151 Written notification of patent or utility model registration

Ref document number: 6211139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees