JP2016103841A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2016103841A
JP2016103841A JP2016000250A JP2016000250A JP2016103841A JP 2016103841 A JP2016103841 A JP 2016103841A JP 2016000250 A JP2016000250 A JP 2016000250A JP 2016000250 A JP2016000250 A JP 2016000250A JP 2016103841 A JP2016103841 A JP 2016103841A
Authority
JP
Japan
Prior art keywords
image
unit
display
image data
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016000250A
Other languages
Japanese (ja)
Other versions
JP6084310B2 (en
Inventor
健世 伊藤
Takeyo Ito
健世 伊藤
真希 戸井田
Maki Toida
真希 戸井田
いづみ 佐久間
Izumi Sakuma
いづみ 佐久間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016000250A priority Critical patent/JP6084310B2/en
Publication of JP2016103841A publication Critical patent/JP2016103841A/en
Application granted granted Critical
Publication of JP6084310B2 publication Critical patent/JP6084310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining a plurality of images desired by a suer by one photographing operation and an imaging method.SOLUTION: The imaging apparatus includes an imaging part which images a subject and generates the image data of the subject, a display part which can display information including an image, an image processing part which performs a plurality of types of processing different from each other to one image data and synthesizes a plurality of image data each having the plurality of types of processing with a set layout, and a display control part which allows the display part to display a synthetic image synthesized by the image processing part.SELECTED DRAWING: Figure 1

Description

本発明は、被写体を撮像して該被写体の画像データを生成する撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method for imaging a subject and generating image data of the subject.

従来、被写体を撮像して該被写体の画像データを生成する撮像装置において、対象物について一連のパターン撮影を行う際に、一連の見本画像に対応した複数のガイド画像データに基づく複数のガイド画像を画面上で同時に表示する技術が知られている(例えば、特許文献1を参照)。この技術によれば、複数のガイド画像を画面上で同時に表示するため、撮影手順の設定が容易であり、複数の画像の撮影を効率よく実施することができる。   2. Description of the Related Art Conventionally, in an imaging device that captures a subject and generates image data of the subject, a plurality of guide images based on a plurality of guide image data corresponding to a series of sample images are obtained when a series of pattern photographing is performed on an object. A technique for simultaneously displaying on a screen is known (see, for example, Patent Document 1). According to this technique, since a plurality of guide images are simultaneously displayed on the screen, it is easy to set a shooting procedure, and it is possible to efficiently capture a plurality of images.

特開2004−215157号公報JP 2004-215157 A

ところで、撮影画像に対して、複数の画像処理を組み合わせることによって視覚的な効果を生じさせるアート効果を付与する場合には、互いに異なる複数のアート効果を付与した画像を並べて比較したいという要求がある。   By the way, when an art effect that produces a visual effect by combining a plurality of image processes is provided to a photographed image, there is a demand for comparing images provided with a plurality of different art effects side by side. .

しかしながら、上述した従来技術は、1つの被写体に対して複数の画像を撮影することが前提となっているため、1回の撮影動作によってユーザが所望する複数の画像を得ることができなかった。   However, since the above-described prior art is based on the premise that a plurality of images are captured with respect to one subject, a plurality of images desired by the user cannot be obtained by a single capturing operation.

本発明は、上記に鑑みてなされたものであって、1回の撮影動作によってユーザが所望する複数の画像を得ることができる撮像装置および撮像方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an imaging apparatus and an imaging method capable of obtaining a plurality of images desired by a user by one imaging operation.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、被写体を撮像して該被写体の画像データを生成する撮像部と、前記撮像部が生成した画像データに画像処理を施す画像処理部と、前記画像処理部が画像処理を施した画像データに対応する画像を表示可能な表示部と、前記画像処理部が互いに異なる複数の画像処理をそれぞれ施した複数の画像の中から選択される1つの画像を主画像とするとともに、該主画像以外の画像を該主画像と識別可能な副画像として前記表示部に一括して表示させる表示制御部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data of the subject, and performs image processing on the image data generated by the imaging unit. An image processing unit that performs image processing, a display unit that can display an image corresponding to image data that has been subjected to image processing by the image processing unit, and a plurality of images that the image processing unit has performed a plurality of different image processes. A display control unit that makes one image selected from the main image a main image and collectively displays an image other than the main image on the display unit as a sub-image that can be distinguished from the main image; It is characterized by.

本発明に係る撮像装置は、上記発明において、前記表示部に重ねて設けられ、外部からの接触位置に応じた信号の入力を受け付けるタッチパネルを備え、前記表示制御部は、前記タッチパネルにおける外部からの接触位置に対応する画像を前記主画像とすることを特徴とする。   In the above invention, the imaging device according to the present invention includes a touch panel that is provided so as to overlap the display unit and receives an input of a signal according to a contact position from the outside, and the display control unit is provided on the touch panel from the outside. The image corresponding to the contact position is the main image.

本発明に係る撮像装置は、上記発明において、前記表示制御部は、前記表示部に、前記主画像および前記副画像を個別の領域に分割して表示させることを特徴とする。   The imaging apparatus according to the present invention is characterized in that, in the above invention, the display control unit causes the display unit to display the main image and the sub-image divided into individual regions.

本発明に係る撮像装置は、上記発明において、前記表示制御部は、前記表示部に、前記主画像を前記副画像よりも大きく表示させることを特徴とする。   In the imaging device according to the present invention, in the above invention, the display control unit causes the display unit to display the main image larger than the sub-image.

本発明に係る撮像装置は、上記発明において、前記表示制御部は、前記表示部に、前記主画像を前記副画像よりも大きく表示させ、かつ前記副画像を前記主画像に重畳して表示させることを特徴とする。   In the imaging device according to the present invention, in the above invention, the display control unit causes the display unit to display the main image larger than the sub image, and to display the sub image superimposed on the main image. It is characterized by that.

本発明に係る撮像装置は、上記発明において、前記画像処理部は、前記画像データに対して、複数の画像処理を組み合わせることにより視覚的な効果を生じさせる特殊効果処理を行うことを特徴とする。   The image pickup apparatus according to the present invention is characterized in that, in the above invention, the image processing unit performs special effect processing that causes a visual effect by combining a plurality of image processings on the image data. .

本発明に係る撮像装置は、上記発明において、前記撮像部は、所定の時間間隔で連続して画像データを生成し、前記表示制御部は、前記表示部に、前記主画像を基準として時間的に前後する撮像タイミングに生成された画像データを前記副画像として設定し、前記主画像および前記副画像を時間の経過に沿って並べて表示させることを特徴とする。   In the imaging device according to the present invention, in the above invention, the imaging unit generates image data continuously at a predetermined time interval, and the display control unit temporally sets the display unit on the basis of the main image. The image data generated at the imaging timing before and after is set as the sub-image, and the main image and the sub-image are displayed side by side with the passage of time.

本発明によれば、画像処理部が互いに異なる複数の画像処理をそれぞれ施した複数の画像の中から選択される1つの画像を主画像とするとともに、該主画像以外の画像を該主画像と識別可能な副画像として表示部に一括して表示させるため、1回の撮影動作によってユーザが所望する複数の画像を得ることが可能となる。   According to the present invention, one image selected from a plurality of images each subjected to a plurality of different image processes by the image processing unit is set as a main image, and an image other than the main image is set as the main image. Since the sub-images that can be identified are collectively displayed on the display unit, a plurality of images desired by the user can be obtained by one photographing operation.

図1は、本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 図2は、アート効果画像処理部が行うアート効果画像処理の概要を示す図である。FIG. 2 is a diagram showing an outline of art effect image processing performed by the art effect image processing unit. 図3は、画像合成部が生成する合成画像の表示例を示す図である。FIG. 3 is a diagram illustrating a display example of a composite image generated by the image composition unit. 図4は、画像合成部が生成する合成画像の別な表示例(第2例)を示す図である。FIG. 4 is a diagram illustrating another display example (second example) of the composite image generated by the image composition unit. 図5は、画像合成部が生成する合成画像の別な表示例(第3例)を示す図である。FIG. 5 is a diagram illustrating another display example (third example) of the composite image generated by the image composition unit. 図6は、画像合成部が生成する合成画像の別な表示例(第4例)を示す図である。FIG. 6 is a diagram illustrating another display example (fourth example) of the composite image generated by the image composition unit. 図7は、本発明の実施の形態1に係る撮像装置の背面側の構成を示す図である。FIG. 7 is a diagram illustrating a configuration on the back side of the imaging apparatus according to Embodiment 1 of the present invention. 図8は、本発明の実施の形態1に係る撮像装置が行う処理の概要を示すフローチャートである。FIG. 8 is a flowchart showing an outline of processing performed by the imaging apparatus according to Embodiment 1 of the present invention. 図9は、本発明の実施の形態1に係る撮像装置が行うレイアウト変更処理の概要を示す図である。FIG. 9 is a diagram showing an outline of the layout change process performed by the imaging apparatus according to Embodiment 1 of the present invention. 図10は、本発明の実施の形態1に係る撮像装置が行う画像処理変更処理の概要を示す図である。FIG. 10 is a diagram showing an overview of the image processing change process performed by the imaging apparatus according to Embodiment 1 of the present invention. 図11は、本発明の実施の形態1に係る撮像装置が行う切出し範囲変更処理の概要を示す図である。FIG. 11 is a diagram showing an outline of the cutout range changing process performed by the imaging apparatus according to Embodiment 1 of the present invention. 図12は、本発明の実施の形態1に係る撮像装置の表示部の表示画面の周縁でタッチ入力がなされていない場合の処理を具体的に示す図である。FIG. 12 is a diagram specifically illustrating a process when no touch input is made at the periphery of the display screen of the display unit of the imaging apparatus according to Embodiment 1 of the present invention. 図13は、本発明の実施の形態2に係る撮像装置が行う処理の概要を示すフローチャートである。FIG. 13 is a flowchart illustrating an outline of processing performed by the imaging apparatus according to Embodiment 2 of the present invention. 図14は、本発明の実施の形態2に係る撮像装置の表示部の表示画面の内部でタッチ入力がなされた場合の処理を具体的に示す図である。FIG. 14 is a diagram specifically illustrating processing when a touch input is made inside the display screen of the display unit of the imaging apparatus according to Embodiment 2 of the present invention. 図15は、レイアウト変更処理の別な例を示す図である。FIG. 15 is a diagram illustrating another example of the layout change process. 図16は、副画像を分割して表示する際にその倍率を変えて表示する場合の表示例を示す図である。FIG. 16 is a diagram illustrating a display example in the case where the sub-image is divided and displayed, and the magnification is changed. 図17は、分割された副画像を不規則に並べて配置する場合の表示例を示す図である。FIG. 17 is a diagram illustrating a display example when the divided sub-images are irregularly arranged. 図18は、1つの画像に含まれている複数の被写体を分割して副画像を生成する場合の表示例を示す図である。FIG. 18 is a diagram illustrating a display example when a plurality of subjects included in one image are divided to generate a sub-image. 図19は、1つの画像に含まれている複数の人物を人物ごとに表示する副画像を生成する場合の表示例を示す図である。FIG. 19 is a diagram illustrating a display example when generating a sub-image for displaying a plurality of persons included in one image for each person.

以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the accompanying drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。同図に示す撮像装置1は、本体部2と、本体部2に着脱自在なレンズ部3と、本体部2に対して移動可能に連結される可動式のモニタ部4と、を備える。撮像装置1の本体部2には、アクセサリ5を着脱自在に取付可能である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention. An imaging apparatus 1 shown in the figure includes a main body unit 2, a lens unit 3 that is detachable from the main body unit 2, and a movable monitor unit 4 that is movably connected to the main body unit 2. An accessory 5 can be detachably attached to the main body 2 of the imaging device 1.

本体部2は、シャッタ10と、シャッタ駆動部11と、撮像素子12と、撮像素子駆動部13と、信号処理部14と、A/D変換部15と、画像処理部16と、入力部17と、接眼表示部18と、アイセンサ19と、回動判定部20と、一時記録部21と、記録部22と、本体通信部23と、第2通信部24と、制御部25と、を備える。   The main body 2 includes a shutter 10, a shutter driving unit 11, an image sensor 12, an image sensor driving unit 13, a signal processing unit 14, an A / D conversion unit 15, an image processing unit 16, and an input unit 17. An eyepiece display unit 18, an eye sensor 19, a rotation determination unit 20, a temporary recording unit 21, a recording unit 22, a main body communication unit 23, a second communication unit 24, and a control unit 25. .

シャッタ10は、撮像素子12の状態を露光状態または遮光状態に設定する。シャッタ駆動部11は、ステッピングモータ等を用いて構成され、制御部25から入力される指示信号に応じてシャッタ10を駆動する。   The shutter 10 sets the state of the image sensor 12 to an exposure state or a light shielding state. The shutter drive unit 11 is configured using a stepping motor or the like, and drives the shutter 10 in accordance with an instruction signal input from the control unit 25.

撮像素子12は、レンズ部3が集光した光を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。撮像素子12は、被写体を撮像して該被写体hの画像データを生成する撮像部の少なくとも一部の機能を有する。
撮像素子駆動部13は、所定のタイミングで撮像素子12から画像データ(アナログ信号)を信号処理部14に出力させる。この意味で、撮像素子駆動部13は、電子シャッタとして機能する。
The imaging device 12 is configured using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like that receives the light collected by the lens unit 3 and converts it into an electrical signal. The imaging element 12 has at least a part of the function of an imaging unit that images a subject and generates image data of the subject h.
The image sensor drive unit 13 causes the signal processing unit 14 to output image data (analog signal) from the image sensor 12 at a predetermined timing. In this sense, the image sensor driving unit 13 functions as an electronic shutter.

信号処理部14は、撮像素子12から入力されるアナログ信号に対して、ノイズ低減処理およびゲインアップ処理等のアナログ処理を施してA/D変換部15に出力する。   The signal processing unit 14 performs analog processing such as noise reduction processing and gain increase processing on the analog signal input from the image sensor 12 and outputs the analog signal to the A / D conversion unit 15.

A/D変換部15は、信号処理部14から入力されるアナログ信号に対してA/D変換を行うことによってデジタルの画像データを生成し、制御部25に出力する。   The A / D conversion unit 15 generates digital image data by performing A / D conversion on the analog signal input from the signal processing unit 14 and outputs the digital image data to the control unit 25.

画像処理部16は、撮像素子12が生成した画像データに所定の画像処理を施す。画像処理部16は、基本画像処理部161と、アート効果画像処理部162と、画像合成部163とを有する。   The image processing unit 16 performs predetermined image processing on the image data generated by the image sensor 12. The image processing unit 16 includes a basic image processing unit 161, an art effect image processing unit 162, and an image composition unit 163.

基本画像処理部161は、画像データに対して、オプティカルブラック減算処理、ホワイトバランス(WB)調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理およびエッジ強調処理を含む基本の画像処理を行う。また、基本画像処理部161は、予め設定された各画像処理のパラメータに基づいて、自然な画像を再現する仕上がり効果処理を行って仕上がり効果画像データを生成する。ここで、各画像処理のパラメータとは、コントラスト、シャープネス、彩度、ホワイトバランスおよび階調の値である。   The basic image processing unit 161 performs basic image processing including optical black subtraction processing, white balance (WB) adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, and edge enhancement processing on image data. . In addition, the basic image processing unit 161 performs finish effect processing for reproducing a natural image based on preset image processing parameters to generate finish effect image data. Here, the parameters of each image processing are values of contrast, sharpness, saturation, white balance, and gradation.

アート効果画像処理部162は、1つの画像データに対して複数の画像処理を組み合わせることにより、視覚的な効果を生じさせるアート効果画像処理を行って処理画像データ(以下、「アート効果画像データ」という)を生成する。   The art effect image processing unit 162 performs art effect image processing for generating a visual effect by combining a plurality of image processings on one image data, thereby processing image data (hereinafter referred to as “art effect image data”). Generated).

図2は、アート効果画像処理部162が行うアート効果画像処理の概要を示す図である。図2ではアート効果画像処理として、ファンタジックフォーカス、ファンタジックフォーカス+スターライト、ファンタジックフォーカス+ホワイトエッジ、ポップアート、ポップアート+スターライト、ポップアート+ピンホール、ポップアート+ホワイトエッジ、トイフォト、ラフモノクローム、ジオラマの10種類が記載されている。以下、これらのアート効果画像処理について説明する。   FIG. 2 is a diagram showing an outline of art effect image processing performed by the art effect image processing unit 162. In Fig. 2, as the art effect image processing, Fantastic Focus, Fantastic Focus + Starlight, Fantastic Focus + White Edge, Pop Art, Pop Art + Starlight, Pop Art + Pinhole, Pop Art + White Edge, Toy Photo, Rough Monochrome Ten types of diorama are described. Hereinafter, the art effect image processing will be described.

ファンタジックフォーカスは、画像全体にぼかし処理を施し、ぼかす前の画像と一定の割合で合成するソフトフォーカスの効果を与える処理である。ファンタジックフォーカスは、中間の輝度をより明るくするトーンカーブ処理を行うことにより、柔らかいトーンの中で、被写体のディテールを残しながら、幸福な光に包まれたように美しく幻想的な雰囲気の画像を結像または生成する。ファンタジックフォーカスは、例えばトーンカーブ処理、ぼかし処理、アルファブレンド処理および画像合成処理等の画像処理を組み合わせることによって実現される。
ファンタジックフォーカス+スターライトは、ファンタジックフォーカスに加えて、画像中の高輝度部に対してクロスパターンを描写するクロスフィルター効果を施す処理である。
ファンタジックフォーカス+ホワイトエッジは、ファンタジックフォーカスに加えて、画像の中心部から周縁部に行くにしたがって徐々に白味を帯びる効果が施す処理である。このような白味の効果は、画像の中心からの距離が大きいほど周辺部が白くなるように画素値を変更することによって得られる。
Fantastic focus is a process that gives a soft focus effect in which the entire image is subjected to a blurring process and synthesized at a certain ratio with the image before blurring. Fantastic focus is a tone curve process that brightens the intermediate brightness, leaving the details of the subject in a soft tone and creating an image with a beautiful and fantastic atmosphere as if wrapped in a happy light. Image or produce. The fantastic focus is realized by combining image processing such as tone curve processing, blur processing, alpha blend processing, and image composition processing.
Fantastic focus + starlight is a process of applying a cross filter effect that draws a cross pattern to a high-luminance portion in an image in addition to the fantastic focus.
Fantastic focus + white edge is a process in which, in addition to the phantom focus, an effect of gradually becoming whiter is given from the center of the image to the periphery. Such a whiteness effect can be obtained by changing the pixel value so that the peripheral portion becomes whiter as the distance from the center of the image increases.

ポップアートは、色をカラフルに強調し、明るく楽しい雰囲気を表現する処理である。ポップアートは、例えば彩度強調処理およびコントラスト強調処理を組み合わせることによって実現される。全体に高コントラストで高彩度の効果である。
ポップアート+スターライトは、ポップアートとスターライトを重ねて施す処理である。この場合には、カラフルな画像にクロスフィルターを施した効果が得られる。
ポップアート+ピンホールは、ポップアートに加えて、画像の周縁部をシェーディングによって暗くして穴から覗き込むような効果を与えるトイフォト(ピンホール)を施す処理である。トイフォトの詳細については、後述する。
ポップアート+ホワイトエッジは、ポップアートとホワイトエッジを重ねて施す処理である。
Pop art is a process that emphasizes colors colorfully and expresses a bright and fun atmosphere. Pop art is realized by, for example, combining saturation enhancement processing and contrast enhancement processing. The overall effect is high contrast and high saturation.
Pop art + starlight is a process of applying pop art and starlight in layers. In this case, the effect of applying a cross filter to a colorful image can be obtained.
In addition to pop art, pop art + pinhole is a process of applying toy photo (pinhole) that darkens the periphery of an image by shading and gives an effect of looking through a hole. Details of the toy photo will be described later.
Pop art + white edge is a process in which pop art and white edge are overlapped.

トイフォトは、画像の中心からの距離が大きいほど輝度が小さく(暗く)なるようにして、あたかも穴から覗き込んで異空間に迷い込んだような効果を生じさせる処理である。トイフォトは、例えばローパスフィルタ処理、ホワイトバランス処理、コントラスト処理、色相・彩度処理に加え、輝度信号に対して周辺ほど小さい係数を乗じるシェーディング処理等の画像処理を組み合わせることによって実現される(トイフォト、シェーディングの詳細な内容については、例えば特開2010−74244号公報を参照)。   Toy photo is a process in which the brightness is reduced (darker) as the distance from the center of the image increases, and the effect is as if looking into a different space from a hole. Toy photo is realized by combining image processing such as low-pass filter processing, white balance processing, contrast processing, hue / saturation processing, and shading processing that multiplies the luminance signal by a smaller coefficient toward the periphery (toy photo). For details of photo and shading, see, for example, Japanese Patent Application Laid-Open No. 2010-74244.

ラフモノクロームは、高コントラストとフィルムの粒状のノイズを付加してモノクロ画像の力強さや荒々しさを表現する処理である。ラフモノクロームは、例えばエッジ強調処理、レベル補正最適化処理、ノイズパターン重畳処理、合成処理およびコントラスト処理等を組み合わせることによって実現される(ラフモノクロームの詳細な内容については、例えば特開2010−62836号公報を参照)。このうちノイズパターン重畳処理(ノイズ付加処理)は、予め作成したノイズパターン画像をもとの画像に加算する処理である。ノイズパターン画像は、例えば乱数などを発生させ、この乱数に基づいて生成してもよい。   Rough monochrome is a process of expressing the strength and roughness of a monochrome image by adding high contrast and grainy noise of the film. Rough monochrome is realized by combining, for example, edge enhancement processing, level correction optimization processing, noise pattern superimposition processing, synthesis processing, contrast processing, and the like (for details of rough monochrome, for example, Japanese Patent Application Laid-Open No. 2010-62836). See the publication). Among these, the noise pattern superimposing process (noise adding process) is a process of adding a noise pattern image created in advance to the original image. The noise pattern image may be generated based on, for example, a random number generated.

ジオラマは、高コントラストで高彩度の画像に、画像の周縁部をぼかすことにより、ミニチュア模型やおもちゃを見ているかのような雰囲気を画面上に作り出す処理である。ジオラマは、例えば色相・彩度処理、コントラスト処理、周辺ぼかし処理および合成処理等を組み合わせることによって実現される。このうち、周辺ぼかし処理は、画像の中心からの距離に応じ、周辺部ほどぼける度合いが大きくなるように、画像の位置に応じてローパス係数を変更しながらローパスフィルタ処理を行うものである。なお、周辺ぼかし処理として、画像の上下のみ、または画像の左右のみをぼかすようにしてもよい。   Diorama is a process that creates a high-contrast, high-saturation image on the screen by creating an atmosphere that looks like a miniature model or toy by blurring the periphery of the image. The diorama is realized by combining, for example, hue / saturation processing, contrast processing, peripheral blur processing, synthesis processing, and the like. Among these, the peripheral blur processing performs low-pass filter processing while changing the low-pass coefficient according to the position of the image so that the degree of blurring in the peripheral portion increases according to the distance from the center of the image. Note that as the peripheral blur processing, only the upper and lower sides of the image or only the left and right sides of the image may be blurred.

画像合成部163は、アート効果画像処理部162が互いに異なる複数のアート効果画像処理をそれぞれ施した複数のアート効果画像を合成する。図3は、画像合成部163が生成する合成画像の表示例を示す図である。同図に示す合成画像101は、4つの副画像102〜105を合成した画像である。副画像102〜104は、同じ画像データに対して3つの異なるアート効果画像処理を施すことによってそれぞれ生成されたものである。また、副画像105は、アート効果画像処理を施していない画像(撮像画像)である。なお、図3では、アート効果を模式的に示している。アート効果を模式的に示す点は、以下に説明するすべての図面についても同様である。   The image composition unit 163 synthesizes a plurality of art effect images obtained by the art effect image processing unit 162 performing a plurality of different art effect image processes. FIG. 3 is a diagram illustrating a display example of a composite image generated by the image composition unit 163. A composite image 101 shown in the figure is an image obtained by combining four sub-images 102 to 105. The sub-images 102 to 104 are generated by performing three different art effect image processes on the same image data. The sub-image 105 is an image (captured image) that has not been subjected to art effect image processing. FIG. 3 schematically shows the art effect. The point schematically showing the art effect is the same for all the drawings described below.

図4は、画像合成部163が生成する合成画像の別な表示例(第2例)を示す図である。同図に示す合成画像111は、1つの主画像113と、2つの副画像112、114を合成した画像である。主画像113は、合成画像111の右半分領域を占めている。また、副画像112、114は、合成画像111の左半分領域を縦に等分した大きさを有しており、主画像113よりも小さい。   FIG. 4 is a diagram illustrating another display example (second example) of the composite image generated by the image composition unit 163. A composite image 111 shown in the figure is an image obtained by combining one main image 113 and two sub-images 112 and 114. The main image 113 occupies the right half area of the composite image 111. The sub-images 112 and 114 have a size obtained by equally dividing the left half area of the composite image 111 in the vertical direction and are smaller than the main image 113.

図5は、画像合成部163が生成する合成画像の別な表示例(第3例)を示す図である。同図に示す合成画像121は、4つの副画像122〜125を合成した画像である。副画像122〜125は、それぞれ互いに同じ大きさを有する縦長の画像である。副画像122〜124は、同じ画像データに対して3つの異なるアート効果画像処理を施すことによってそれぞれ生成されたものである。また、副画像125は、アート効果画像処理を施していない画像である。   FIG. 5 is a diagram illustrating another display example (third example) of the composite image generated by the image composition unit 163. A composite image 121 shown in the figure is an image obtained by combining four sub-images 122 to 125. The sub-images 122 to 125 are vertically long images having the same size. The sub-images 122 to 124 are respectively generated by performing three different art effect image processes on the same image data. The sub-image 125 is an image that has not been subjected to art effect image processing.

図6は、画像合成部163が生成する合成画像の別な表示例(第4例)を示す図である。同図に示す合成画像131は、画面と等しい大きさを有する1つの主画像132に対して3つの副画像133〜135を重畳した態様を有する。主画像132、ならびに副画像133および134は、同じ画像データに対して3つの異なるアート効果画像処理を施すことによってそれぞれ生成されたものである。また、副画像135は、アート効果画像処理を施していない画像である。なお、副画像133〜135の表示位置は適宜変更することが可能である。   FIG. 6 is a diagram illustrating another display example (fourth example) of the composite image generated by the image composition unit 163. The composite image 131 shown in the figure has a mode in which three sub-images 133 to 135 are superimposed on one main image 132 having the same size as the screen. The main image 132 and the sub images 133 and 134 are respectively generated by performing three different art effect image processes on the same image data. The sub-image 135 is an image that has not been subjected to art effect image processing. Note that the display positions of the sub-images 133 to 135 can be changed as appropriate.

引き続き、撮像装置1の構成を説明する。入力部17は、静止画撮影時の撮影信号の入力を受け付けるレリーズボタン、撮像装置1のモード切り替えを指示する切替指示信号の入力を受け付けるモード切替ボタン、動画撮影の開始および終了を指示する信号の入力を受け付ける動画ボタン等を含む操作信号入力用のユーザーインターフェースを用いて実現される。   Next, the configuration of the imaging device 1 will be described. The input unit 17 is a release button for receiving an input of a shooting signal at the time of still image shooting, a mode switching button for receiving an input of a switching instruction signal for instructing mode switching of the imaging apparatus 1, and a signal for instructing start and end of moving image shooting. This is realized by using a user interface for operation signal input including a moving image button or the like for receiving input.

接眼表示部18は、電子ビューファインダ(EVF)である。接眼表示部18は、図3〜図6にそれぞれ示す合成画像101、111、121、131を表示可能である。
アイセンサ19は、接眼表示部18の近傍に設けられ、人の目が接眼表示部18の近くにあるか否かを検出する。
回動判定部20は、モニタ部4が回動によって本体部2から離れた状態になっているか否かを判定する。
The eyepiece display unit 18 is an electronic viewfinder (EVF). The eyepiece display unit 18 can display the composite images 101, 111, 121, and 131 shown in FIGS.
The eye sensor 19 is provided in the vicinity of the eyepiece display unit 18 and detects whether or not a human eye is near the eyepiece display unit 18.
The rotation determination unit 20 determines whether or not the monitor unit 4 is separated from the main body unit 2 by rotation.

一時記録部21は、A/D変換部15から入力される画像データ、画像処理部16から入力される画像処理後の画像データおよび撮像装置1の処理中の情報を一時的に記録する。一時記録部21は、揮発性メモリを用いて構成される。   The temporary recording unit 21 temporarily records image data input from the A / D conversion unit 15, image data after image processing input from the image processing unit 16, and information being processed by the imaging apparatus 1. The temporary recording unit 21 is configured using a volatile memory.

記録部22は、不揮発性メモリを用いて構成され、画像データ記録部221と、アート効果情報記録部222と、レイアウト情報記録部223と、プログラム記録部224と、を有する。   The recording unit 22 is configured using a non-volatile memory, and includes an image data recording unit 221, an art effect information recording unit 222, a layout information recording unit 223, and a program recording unit 224.

画像データ記録部221は、撮像素子12が生成した画像データを含む画像データを記録する。アート効果情報記録部222は、アート効果画像処理部162が行う各アート効果画像処理における画像処理の組み合わせ情報を記録する。
レイアウト情報記録部223は、画像合成部163が生成する合成画像のレイアウト情報(例えば、図3〜図6を参照)を記録する。
プログラム記録部224は、撮像装置1を動作させるための各種プログラム、撮像プログラム、およびプログラムの実行中に使用される各種データおよび画像処理部16による画像処理の動作に必要な各種パラメータ等を記録する。
The image data recording unit 221 records image data including image data generated by the image sensor 12. The art effect information recording unit 222 records image processing combination information in each art effect image processing performed by the art effect image processing unit 162.
The layout information recording unit 223 records the layout information (for example, see FIGS. 3 to 6) of the composite image generated by the image composition unit 163.
The program recording unit 224 records various programs for operating the imaging apparatus 1, imaging programs, various data used during execution of the programs, various parameters necessary for image processing operations by the image processing unit 16, and the like. .

なお、外部から装着されるメモリカード等のコンピュータ読取可能な記憶媒体を適用することによって記録部22の機能を実現することも可能である。   Note that the function of the recording unit 22 can be realized by applying a computer-readable storage medium such as a memory card mounted from the outside.

本体通信部23は、本体部2に装着されたレンズ部3との通信を行うための通信インターフェースである。本体通信部23には、レンズ部3との電気的な接点も含まれる。   The main body communication unit 23 is a communication interface for performing communication with the lens unit 3 attached to the main body unit 2. The main body communication unit 23 also includes an electrical contact with the lens unit 3.

第2通信部24は、本体部2に装着されるアクセサリ5との通信を行うためのインターフェースである。第2通信部24には、アクセサリ5との電気的な接点も含まれる。ここで、アクセサリ5は、本体部2との通信インターフェースであるアクセサリ通信部51を有する。アクセサリ5として、例えば補助光を投射するエレクトロニックフラッシュを挙げることができる。   The second communication unit 24 is an interface for performing communication with the accessory 5 attached to the main body unit 2. The second communication unit 24 also includes an electrical contact with the accessory 5. Here, the accessory 5 includes an accessory communication unit 51 that is a communication interface with the main body unit 2. As the accessory 5, for example, an electronic flash that projects auxiliary light can be cited.

制御部25は、CPU(Central Processing Unit)等を用いて構成される。制御部25は、撮像した画像に含まれる人物の顔を検出する顔検出部251と、後述するモニタ部4が有するタッチパネル42から受信した信号に応じたタッチ位置を検出するタッチ検出部252と、画像処理部16の動作を制御する画像処理制御部253と、接眼表示部18およびモニタ部4が有する表示部41の表示態様を制御する表示制御部254と、を有する。表示制御部254は、画像処理部16が互いに異なる複数の画像処理をそれぞれ施した複数の画像の中から選択される1つの画像を主画像とするとともに、該主画像以外の画像を該主画像と識別可能な副画像として、モニタ部が有する表示部41に一括して表示させる機能を有する。   The control unit 25 is configured using a CPU (Central Processing Unit) or the like. The control unit 25 includes a face detection unit 251 that detects a human face included in the captured image, a touch detection unit 252 that detects a touch position according to a signal received from the touch panel 42 included in the monitor unit 4 described below, The image processing control unit 253 controls the operation of the image processing unit 16, and the display control unit 254 controls the display mode of the display unit 41 included in the eyepiece display unit 18 and the monitor unit 4. The display control unit 254 sets a single image selected from a plurality of images to which the image processing unit 16 has performed a plurality of different image processes, as a main image, and displays an image other than the main image as the main image. As a sub-image that can be discriminated from the display unit 41 of the monitor unit.

制御部25は、画像データ記録部221が記録す画像データに基づいて、静止画撮影または動画撮影を行う際の露出条件の設定(AE処理)、および撮像装置1の焦点の自動調整(AF処理)を行う。制御部25は、バスを介して撮像装置1を構成する各部に対して制御信号や各種データの送信を行うことにより、撮像装置1の動作を統括して制御する。   Based on the image data recorded by the image data recording unit 221, the control unit 25 sets exposure conditions when performing still image shooting or moving image shooting (AE processing), and automatically adjusts the focus of the imaging apparatus 1 (AF processing). )I do. The control unit 25 performs overall control of the operation of the imaging device 1 by transmitting control signals and various data to each unit configuring the imaging device 1 via the bus.

制御部25は、入力部17から撮影動作の開始信号(操作信号)が入力された場合、撮影動作を開始する制御を行う。ここで、撮影動作とは、シャッタ駆動部11および撮像素子駆動部13の駆動によって撮像素子12が出力した画像データに対し、信号処理部14、A/D変換部15および画像処理部16が所定の処理を施す動作をいう。このように処理が施された画像データは、制御部25の制御のもと、所定の形式にしたがって圧縮され、記録部22に記録される。ここで、所定の形式としては、JPEG(Joint Photographic Experts Group)方式、MotionJPEG方式およびMP4(H.264)方式等を挙げることができる。   The control unit 25 performs control to start the shooting operation when a shooting operation start signal (operation signal) is input from the input unit 17. Here, the photographing operation means that the signal processing unit 14, the A / D conversion unit 15, and the image processing unit 16 are predetermined for the image data output from the imaging device 12 by driving the shutter driving unit 11 and the imaging device driving unit 13. This is the operation to perform the process. The image data thus processed is compressed according to a predetermined format and recorded in the recording unit 22 under the control of the control unit 25. Here, examples of the predetermined format include a JPEG (Joint Photographic Experts Group) system, a Motion JPEG system, and an MP4 (H.264) system.

以上の構成を有する本体部2に対して、音声入出力部、被写体に対して補助光(フラッシュ)を発光する補助光発光部、所定の通信ネットワークを介して外部の装置とデータの送受信を行う通信部などをさらに設けてもよい。   The main body 2 having the above configuration transmits and receives data to and from an external device via a voice input / output unit, an auxiliary light emitting unit that emits auxiliary light (flash) to the subject, and a predetermined communication network. A communication unit or the like may be further provided.

次に、レンズ部3の構成を説明する。レンズ部3は、光学系31と、レンズ駆動部32と、絞り33と、絞り駆動部34と、レンズ操作部35と、レンズ記録部36と、レンズ通信部37と、レンズ制御部38と、を備える。   Next, the configuration of the lens unit 3 will be described. The lens unit 3 includes an optical system 31, a lens driving unit 32, a diaphragm 33, a diaphragm driving unit 34, a lens operation unit 35, a lens recording unit 36, a lens communication unit 37, a lens control unit 38, Is provided.

光学系31は、1または複数のレンズを用いて構成される。光学系31は、所定の視野領域から光を集光する。光学系31は、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。   The optical system 31 is configured using one or a plurality of lenses. The optical system 31 collects light from a predetermined visual field region. The optical system 31 has an optical zoom function for changing the angle of view and a focus function for changing the focus.

レンズ駆動部32は、DCモータまたはステッピングモータ等を用いて構成され、光学系31のレンズを光軸L上で移動させることにより、光学系31のピント位置や画角等の変更を行う。   The lens driving unit 32 is configured using a DC motor, a stepping motor, or the like, and changes the focus position, the angle of view, and the like of the optical system 31 by moving the lens of the optical system 31 on the optical axis L.

絞り33は、光学系31が集光した光の入射量を制限することにより露出の調整を行う。
絞り駆動部34は、ステッピングモータ等を用いて構成され、絞り33を駆動する。
The diaphragm 33 adjusts the exposure by limiting the amount of incident light collected by the optical system 31.
The aperture drive unit 34 is configured using a stepping motor or the like, and drives the aperture 33.

レンズ操作部35は、例えばレンズ部3のレンズ鏡筒の周囲に設けられるリングであり、レンズ部3における光学ズームの操作を開始する操作信号の入力、またはレンズ部3におけるピント位置の調整を指示する指示信号の入力を受け付ける。なお、レンズ操作部35は、プッシュ式のスイッチ等であってもよい。   The lens operation unit 35 is, for example, a ring provided around the lens barrel of the lens unit 3, and instructs to input an operation signal for starting the optical zoom operation in the lens unit 3 or to adjust the focus position in the lens unit 3. An instruction signal input is received. The lens operation unit 35 may be a push switch or the like.

レンズ記録部36は、光学系31の光学特性に関する情報を記録するレンズ特性情報記録部361を有する。また、レンズ記録部36は、光学系31の位置および動きを決定するための制御用プログラムおよび各種パラメータを記録する。   The lens recording unit 36 includes a lens characteristic information recording unit 361 that records information on the optical characteristics of the optical system 31. The lens recording unit 36 records a control program and various parameters for determining the position and movement of the optical system 31.

レンズ通信部37は、レンズ部3が本体部2に装着されたときに、本体部2の本体通信部23と通信を行うための通信インターフェースである。レンズ通信部37には、本体部2との電気的な接点も含まれる。   The lens communication unit 37 is a communication interface for communicating with the main body communication unit 23 of the main body 2 when the lens unit 3 is attached to the main body 2. The lens communication unit 37 includes an electrical contact with the main body unit 2.

レンズ制御部38は、CPU(Central Processing Unit)等を用いて構成される。レンズ制御部38は、レンズ操作部35の操作信号または本体部2からの指示信号に応じてレンズ部3の動作を制御する。レンズ制御部38は、本体部2の制御部25との間で所定の周期でレンズ通信信号を送受信することによって、本体部2との動作の連携を図っている。具体的には、レンズ制御部38は、レンズ通信信号に含まれるレンズ操作部35の操作信号に応じて、レンズ駆動部32を駆動させてレンズ部3のピント合わせやズーム変更を行うとともに、絞り駆動部34を駆動させて絞り値の変更を行う。レンズ制御部38は、レンズ部3が本体部2に装着された際に、レンズ特性情報、ピント位置情報、焦点距離およびレンズ部3を識別する固有情報等を本体部2に送信する。   The lens control unit 38 is configured using a CPU (Central Processing Unit) or the like. The lens control unit 38 controls the operation of the lens unit 3 in accordance with an operation signal from the lens operation unit 35 or an instruction signal from the main body unit 2. The lens control unit 38 cooperates with the main body unit 2 by transmitting and receiving lens communication signals to and from the control unit 25 of the main body unit 2 at a predetermined cycle. Specifically, the lens control unit 38 drives the lens driving unit 32 in accordance with the operation signal of the lens operation unit 35 included in the lens communication signal to adjust the focus of the lens unit 3 and change the zoom. The drive unit 34 is driven to change the aperture value. When the lens unit 3 is mounted on the main body unit 2, the lens control unit 38 transmits lens characteristic information, focus position information, focal length, unique information for identifying the lens unit 3, and the like to the main body unit 2.

次に、モニタ部4の構成を説明する。モニタ部4は、表示部41と、タッチパネル42とを有する。表示部41およびタッチパネル42は、本体部2と電気的に接続されている。   Next, the configuration of the monitor unit 4 will be described. The monitor unit 4 includes a display unit 41 and a touch panel 42. The display unit 41 and the touch panel 42 are electrically connected to the main body unit 2.

表示部41は、画像データに対応する画像を表示可能な構成を有しており、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示部41における画像の表示方法には、撮影直後の画像データを所定時間(例えば3秒間)だけ表示するレックビュー表示、記録部22が記録する画像データを再生する再生表示、および撮像素子12が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するスルー画表示(ライブビュー表示)等が含まれる。また、表示部41は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。表示部41は、図3〜図6にそれぞれ示す合成画像101、111、121、131を表示可能である。   The display unit 41 has a configuration capable of displaying an image corresponding to the image data, and is configured using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like. The image display method in the display unit 41 includes a rec view display that displays image data immediately after shooting for a predetermined time (for example, 3 seconds), a reproduction display that reproduces image data recorded by the recording unit 22, and the image sensor 12. Examples include live view display (live view display) that sequentially displays live view images corresponding to continuously generated image data in time series. In addition, the display unit 41 appropriately displays operation information of the imaging device 1 and information related to shooting. The display unit 41 can display composite images 101, 111, 121, and 131 shown in FIGS.

タッチパネル42は、表示部41の表示画面上に重ねて設けられ、外部からの接触位置に応じた信号の入力を受け付ける。タッチパネル42の方式として、抵抗膜方式、静電容量方式、光学方式等のいずれの方式も適用可能である。   The touch panel 42 is provided on the display screen of the display unit 41 so as to receive an input of a signal corresponding to the contact position from the outside. As a method of the touch panel 42, any method such as a resistive film method, a capacitance method, and an optical method can be applied.

図7は、撮像装置1の背面側の構成を示す図であり、モニタ部4の本体部2に対する移動の態様を説明する図である。モニタ部4は、ヒンジおよび連結用のアームを有し、表示部41の表示画面の本体部2に対する傾斜角度を変更させるチルト機構6を介して本体部2に連結されている。図7(a)に示す場合、表示部41の表示画面は本体部2の背面と平行な状態にある。これに対し、図7(b)に示す場合、表示部41の表示画面は、本体部2の背面に対して傾斜している。図7(b)では表示部41の表示画面を図で上向きに傾斜させた場合を例示しているが、表示部41の表示画面を図で下向きに傾斜させることも可能である。   FIG. 7 is a diagram illustrating a configuration on the back side of the imaging device 1, and is a diagram illustrating a manner of movement of the monitor unit 4 with respect to the main body unit 2. The monitor unit 4 has a hinge and a connecting arm, and is connected to the main body unit 2 via a tilt mechanism 6 that changes the tilt angle of the display screen 41 with respect to the main body unit 2. In the case shown in FIG. 7A, the display screen of the display unit 41 is in a state parallel to the back surface of the main body unit 2. On the other hand, in the case illustrated in FIG. 7B, the display screen of the display unit 41 is inclined with respect to the back surface of the main body unit 2. Although FIG. 7B illustrates a case where the display screen of the display unit 41 is tilted upward in the figure, the display screen of the display unit 41 can be tilted downward in the figure.

以上の構成を有する撮像装置1は、撮影を行う撮影モード、および画像の再生を行う再生モードを設定することが可能である。このうち、撮影モードでは、1枚の画像に対して互いに異なる複数の画像処理をそれぞれ加えた複数の画像を所望のレイアウトで同時に表示するマルチ画像撮影モードを設定することができる。撮像装置1がマルチ画像撮影モードに設定されている場合、表示部41または接眼表示部18は、例えば図3〜図6のいずれかの表示態様で合成画像を表示する。その後、ユーザがレリーズボタン等によって撮影を行うと、撮像装置1は、表示部41または接眼表示部18が表示している態様の画像を撮影画像として撮影して記録部22に記録する。   The imaging apparatus 1 having the above configuration can set a shooting mode for shooting and a playback mode for playing back images. Among these, in the shooting mode, it is possible to set a multi-image shooting mode in which a plurality of images obtained by adding a plurality of different image processes to one image are simultaneously displayed in a desired layout. When the imaging device 1 is set to the multi-image shooting mode, the display unit 41 or the eyepiece display unit 18 displays a composite image in one of the display modes of FIGS. Thereafter, when the user performs shooting with a release button or the like, the imaging apparatus 1 captures an image in a mode displayed on the display unit 41 or the eyepiece display unit 18 as a captured image and records the image in the recording unit 22.

次に、撮像装置1が行う処理の概要について、図8に示すフローチャートを参照して説明する。   Next, an outline of processing performed by the imaging apparatus 1 will be described with reference to a flowchart shown in FIG.

まず、撮像装置1が撮影モードに設定されている場合(ステップS101:撮影モード)を説明する。この場合において、レンズ交換がなされたとき(ステップS102:Yes)、撮像装置1はレンズ通信を行う(ステップS103)。一方、撮影モードに設定されている場合において、レンズ交換がなされないとき(ステップS102:No)、撮像装置1は画像を取得し、スルー画表示を開始し、取得した画像を一次記録部21に仮記録する(ステップS104)。   First, the case where the imaging device 1 is set to the shooting mode (step S101: shooting mode) will be described. In this case, when the lens is exchanged (step S102: Yes), the imaging device 1 performs lens communication (step S103). On the other hand, when the lens is not exchanged in the shooting mode (step S102: No), the imaging device 1 acquires an image, starts displaying a through image, and stores the acquired image in the primary recording unit 21. Temporary recording is performed (step S104).

続いて、撮像装置1がマルチ画像撮影モードに設定されている場合(ステップS105:Yes)を説明する。この場合、入力部17からレイアウトを設定する信号が入力されれたとき(ステップS106:Yes)、画像処理制御部253は画像処理部16に対してレイアウトの設定情報を送信する(ステップS107)。ステップS106において、入力部17からレイアウトを設定する信号が入力されないとき(ステップS106:No)、撮像装置1は後述するステップS108へ移行する。   Subsequently, a case where the imaging device 1 is set to the multi-image shooting mode (step S105: Yes) will be described. In this case, when a signal for setting a layout is input from the input unit 17 (step S106: Yes), the image processing control unit 253 transmits layout setting information to the image processing unit 16 (step S107). In step S106, when a signal for setting a layout is not input from the input unit 17 (step S106: No), the imaging apparatus 1 proceeds to step S108 described later.

ステップS108において、画像合成部163は、設定されたレイアウトにしたがって画像を合成し、合成画像を生成する(ステップS108)。   In step S108, the image composition unit 163 composes images according to the set layout and generates a composite image (step S108).

この後、表示制御部254は、表示部41に合成画像を表示させる(ステップS109)。ここで表示する合成画像は、例えば図3〜図6にそれぞれ示す合成画像101〜131のいずれかである。   Thereafter, the display control unit 254 displays the composite image on the display unit 41 (step S109). The composite image displayed here is, for example, one of the composite images 101 to 131 shown in FIGS.

続いて、表示部41の表示画面の周縁でタッチ入力がなされた場合(ステップS110:Yes)、撮像装置1はタッチの種類に応じた処理を行う(ステップS111〜S116)。以下、タッチの種類に応じて、レイアウト変更、画像処理変更、および切り出し範囲変更の3つの処理を行うことができるものとして説明を行うが、これらの処理が一例に過ぎないことはいうまでもない。   Subsequently, when a touch input is made at the periphery of the display screen of the display unit 41 (step S110: Yes), the imaging device 1 performs processing according to the type of touch (steps S111 to S116). Hereinafter, description will be made assuming that three processes of layout change, image process change, and cutout range change can be performed according to the type of touch, but it goes without saying that these processes are merely examples. .

まず、レイアウト変更操作が入力された場合(ステップS111:Yes)を説明する。この場合、撮像装置1は、レイアウトを変更して表示部41で表示する(ステップS112)。具体的には、画像処理制御部253が画像合成部163に対してレイアウトの変更指示を送信した後、画像合成部163がレイアウトを変更して合成画像を生成する。その後、表示制御部254は、表示部41に変更後の合成画像を表示させる。   First, a case where a layout change operation is input (step S111: Yes) will be described. In this case, the imaging device 1 changes the layout and displays it on the display unit 41 (step S112). Specifically, after the image processing control unit 253 transmits a layout change instruction to the image composition unit 163, the image composition unit 163 changes the layout and generates a composite image. Thereafter, the display control unit 254 causes the display unit 41 to display the changed composite image.

図9は、レイアウト変更処理の概要を示す図である。表示部41が合成画像101を表示している状態で、ユーザが副画像103の周縁部をはじく(フリック)操作を行うと(図9(a))、タッチ検出部252はこの操作を検出してレイアウト変更処理と認識する。その後、画像合成部163は、異なるレイアウトを有する合成画像111を生成する(図9(b))。合成画像111では、合成画像101においてユーザの指ではじいた位置に表示されていた副画像103が主画像113として大きく表示される。なお、本実施の形態1において、レイアウト設定処理を先に行ってから撮影を行うようにしてもよい。   FIG. 9 is a diagram showing an outline of the layout change process. When the user performs a flicking operation on the peripheral edge of the sub-image 103 while the display unit 41 is displaying the composite image 101 (FIG. 9A), the touch detection unit 252 detects this operation. Is recognized as layout change processing. Thereafter, the image composition unit 163 generates a composite image 111 having a different layout (FIG. 9B). In the composite image 111, the sub-image 103 displayed at the position where the user's finger was flipped in the composite image 101 is displayed as a main image 113. In the first embodiment, shooting may be performed after the layout setting process is performed first.

本実施の形態1では、変更前のレイアウトと変更後のレイアウトとが1:1に対応している。このため、合成画像111を表示している状態でユーザが主画像113の周縁部をはじく操作を行った場合には、例えば図6に示す合成画像131と同様のレイアウトを有し、主画像113と同じアート効果処理が施された画像を主画像として表示する合成画像に遷移するようにしてもよい。   In the first embodiment, the layout before the change and the layout after the change correspond to 1: 1. Therefore, when the user performs an operation to flip the peripheral edge of the main image 113 while the composite image 111 is displayed, the main image 113 has a layout similar to that of the composite image 131 shown in FIG. You may make it change to the synthesized image which displays the image to which the same art effect process was performed as a main image.

レイアウト変更操作が入力されない場合(ステップS111:No)、撮像装置1は後述するステップS113へ移行する。   When the layout change operation is not input (step S111: No), the imaging apparatus 1 proceeds to step S113 described later.

次に、画像処理変更操作が入力された場合(ステップS113:Yes)を説明する。この場合、撮像装置1は、アート効果画像処理部162における処理内容を変更した後、画像合成部163で新たな合成画像を生成し、生成した合成画像を表示部41で表示する(ステップS114)。画像処理変更操作としては、例えば表示部41の表示画面の周縁部をこする(スワイプ)操作を行うことによって、こすった画像の表示を変更させることができる。   Next, a case where an image processing change operation is input (step S113: Yes) will be described. In this case, after changing the processing content in the art effect image processing unit 162, the imaging apparatus 1 generates a new composite image by the image composition unit 163, and displays the generated composite image on the display unit 41 (step S114). . As the image processing change operation, the display of the rubbed image can be changed by, for example, performing a swipe operation on the peripheral edge of the display screen of the display unit 41.

図10は、画像処理変更処理の概要を示す図である。表示部41が合成画像101を表示している状態で、ユーザが副画像104の周縁部を縦にこする操作を行う(図10(a))と、タッチ検出部252はこの操作を検出して画像処理変更処理と認識する。その後、アート効果画像処理部162は、こすられた副画像104におけるアート効果画像処理を変更して処理を行う。こすった後でアート効果画像処理部162が行うアート効果画像処理の内容は、予め設定しておいてもよいし、その都度ユーザが選択できるようにしてもよい。続いて、画像合成部163は、合成画像を再合成する。図10(b)は、再合成された合成画像の表示例を示す図である。合成画像141は、副画像144において変更前の副画像104と異なるアート効果画像処理が施されている。   FIG. 10 is a diagram showing an outline of the image processing change process. When the display unit 41 displays the composite image 101 and the user performs an operation of rubbing the peripheral portion of the sub-image 104 vertically (FIG. 10A), the touch detection unit 252 detects this operation. Is recognized as image processing change processing. Thereafter, the art effect image processing unit 162 changes the art effect image processing in the rubbed sub-image 104 to perform processing. The content of the art effect image processing performed by the art effect image processing unit 162 after rubbing may be set in advance or may be selected by the user each time. Subsequently, the image composition unit 163 resynthesizes the composite image. FIG. 10B is a diagram illustrating a display example of the recombined composite image. The composite image 141 is subjected to art effect image processing different from the sub-image 104 before the change in the sub-image 144.

画像処理変更操作が入力されない場合(ステップS113:No)、撮像装置1は後述するステップS115へ移行する。   When the image processing change operation is not input (step S113: No), the imaging apparatus 1 proceeds to step S115 described later.

次に、切出し範囲変更操作が入力された場合(ステップS115:Yes)を説明する。この場合、撮像装置1は、画像合成部163で新たに指定された切出し範囲の合成画像を生成し、表示部41で表示する(ステップS116)。具体的には、画像処理制御部253が画像合成部163に対して切出し範囲の変更指示を送信した後、画像合成部163が切出し範囲を変更して合成画像を生成する。その後、表示制御部254は、表示部41に変更後の合成画像を表示させる。   Next, a case where a cutout range changing operation is input (step S115: Yes) will be described. In this case, the imaging apparatus 1 generates a composite image of the cutout range newly designated by the image composition unit 163 and displays it on the display unit 41 (step S116). Specifically, after the image processing control unit 253 transmits an instruction to change the extraction range to the image composition unit 163, the image composition unit 163 changes the extraction range and generates a composite image. Thereafter, the display control unit 254 causes the display unit 41 to display the changed composite image.

図11は、切出し範囲変更処理の概要を示す図である。表示部41が合成画像101を表示している状態で、ユーザが副画像105の下端部をピンチインすると(図11(a))、タッチ検出部252はこの操作を検出して切出し範囲変更処理と認識する。その後、画像合成部163は、切出し範囲が異なる合成画像121を生成する(図11(a))。   FIG. 11 is a diagram showing an outline of the extraction range changing process. When the display unit 41 is displaying the composite image 101 and the user pinches in the lower end portion of the sub-image 105 (FIG. 11A), the touch detection unit 252 detects this operation and performs cutout range change processing. recognize. After that, the image composition unit 163 generates a composite image 121 having a different cutout range (FIG. 11A).

切出し範囲変更処理が入力されない場合(ステップS115:No)、撮像装置1はステップS101へ戻る。   When the extraction range changing process is not input (step S115: No), the imaging apparatus 1 returns to step S101.

次に、ステップS110において、表示部41の表示画面の周縁でタッチ入力がなされない場合(ステップS110:No)を説明する。この場合において、表示画面の内部でタッチ入力がなされたとき(ステップS117:Yes)、撮像装置1はタッチされた部分にピントを合わせて撮影を行う(ステップS118)。なお、ここでいう表示画面の周縁および内部は、適宜設定されている領域である。たとえば、周縁部を表示画面の外縁から1cm程度の幅の領域として設定し、それよりも内側の領域を表示画面の内部とすることができる。   Next, a case where touch input is not performed at the periphery of the display screen of the display unit 41 in step S110 (step S110: No) will be described. In this case, when a touch input is made inside the display screen (step S117: Yes), the imaging apparatus 1 focuses on the touched portion and performs shooting (step S118). Here, the periphery and the inside of the display screen are areas set as appropriate. For example, the peripheral portion can be set as a region having a width of about 1 cm from the outer edge of the display screen, and the region on the inner side can be set as the inside of the display screen.

続いて、撮像装置1がマルチ画像撮影モードに設定されている場合(ステップS119:Yes)、画像合成部163は画像の再合成を行い、表示部41が再合成した画像のレックビュー表示を行う(ステップS120)。その後、撮像装置1はステップS101へ戻る。   Subsequently, when the imaging apparatus 1 is set to the multi-image shooting mode (step S119: Yes), the image composition unit 163 performs image recomposition, and the display unit 41 performs rec view display of the recombined image. (Step S120). Thereafter, the imaging apparatus 1 returns to step S101.

ステップS117で表示画面の内部でタッチ入力がなされない場合(ステップS117:No)において、ユーザによる入力部17を介した撮影操作が行われたとき(ステップS121:Yes)、撮像装置1は撮影を行う(ステップS122)。ステップS121でユーザによる入力部17を介した撮影操作が行われないとき(ステップS121:No)、撮像装置1はステップS101へ戻る。   If no touch input is made inside the display screen in step S117 (step S117: No), when the user performs a shooting operation via the input unit 17 (step S121: Yes), the imaging apparatus 1 performs shooting. This is performed (step S122). When the user does not perform a shooting operation via the input unit 17 in step S121 (step S121: No), the imaging apparatus 1 returns to step S101.

図12は、上述したステップS117〜S120の処理を具体的に示す図である。図12(a)に示すように、ユーザが合成画像101の副画像102の中央部をタッチすると、タッチ検出部252がタッチ操作を検出し、制御部25がピント合わせ等の撮影動作を制御する。その後、画像合成部163は、タッチされた副画像102を主画像とするように再合成することによって新たな合成画像を生成する。図12(b)は、画像合成部163が生成した合成画像の表示例である。図12(b)に示す合成画像131における主画像132は、合成画像101でユーザがタッチした副画像102と同じアート効果処理が施されたアート効果画像である。副画像133〜135は、副画像103〜105にそれぞれ対応している。   FIG. 12 is a diagram specifically showing the processing of steps S117 to S120 described above. As shown in FIG. 12A, when the user touches the center of the sub-image 102 of the composite image 101, the touch detection unit 252 detects a touch operation, and the control unit 25 controls a shooting operation such as focusing. . Thereafter, the image composition unit 163 re-synthesizes the touched sub-image 102 as the main image to generate a new composite image. FIG. 12B is a display example of a composite image generated by the image composition unit 163. A main image 132 in the composite image 131 shown in FIG. 12B is an art effect image that has been subjected to the same art effect processing as the sub image 102 touched by the user in the composite image 101. The sub images 133 to 135 correspond to the sub images 103 to 105, respectively.

ステップS119において、撮像装置1がマルチ画像撮影モードに設定されていない場合(ステップS119:No)、撮像装置1はステップS101へ戻る。   In step S119, when the imaging device 1 is not set to the multi-image shooting mode (step S119: No), the imaging device 1 returns to step S101.

次に、ステップS105において、撮像装置1がマルチ画像撮影モードに設定されていない場合(ステップS105:No)を説明する。この場合、撮像装置1はステップS117へ移行する。   Next, a case where the imaging apparatus 1 is not set to the multi-image shooting mode in step S105 (step S105: No) will be described. In this case, the imaging device 1 proceeds to step S117.

次に撮像装置1が再生モードに設定されている場合(ステップS101:再生モード)を説明する。この場合、表示制御部254は、表示部41に対し、記録部22が記録する所定の画像を再生して表示させる(ステップS123)。   Next, the case where the imaging device 1 is set to the playback mode (step S101: playback mode) will be described. In this case, the display control unit 254 reproduces and displays a predetermined image recorded by the recording unit 22 on the display unit 41 (step S123).

続いて、入力部17から再生画像の変更指示が入力された場合(ステップS124:Yes)、表示制御部254は変更指示にしたがって表示部41に異なる画像を再生表示させる(ステップS125)。この後、撮像装置1はステップS101へ戻る。   Subsequently, when a reproduction image change instruction is input from the input unit 17 (step S124: Yes), the display control unit 254 reproduces and displays a different image on the display unit 41 according to the change instruction (step S125). Thereafter, the imaging apparatus 1 returns to step S101.

ステップS124において変更指示が入力されない場合(ステップS124:No)、撮像装置1はステップS101へ戻る。   If no change instruction is input in step S124 (step S124: No), the imaging apparatus 1 returns to step S101.

以上説明した本発明の実施の形態1によれば、画像処理部が互いに異なる複数の画像処理をそれぞれ施した複数の画像の中から選択される1つの画像を主画像とするとともに、該主画像以外の画像を該主画像と識別可能な副画像として表示部に一括して表示させるため、1回の撮影動作によってユーザが所望する複数の画像を得ることが可能となる。   According to the first embodiment of the present invention described above, one image selected from a plurality of images each subjected to a plurality of different image processing by the image processing unit is used as the main image, and the main image Since other images are collectively displayed on the display unit as sub-images that can be distinguished from the main image, a plurality of images desired by the user can be obtained by a single photographing operation.

また、本実施の形態1によれば、表示部に主画像を副画像よりも大きく表示させるため、ユーザは選択した画像を中心とする装飾画像を得ることができる。   Further, according to the first embodiment, the main image is displayed larger than the sub-image on the display unit, so that the user can obtain a decorative image centered on the selected image.

(実施の形態2)
本発明の実施の形態2は、異なる時間に撮影した画像をマルチ画像として使用することを特徴とする。本実施の形態2に係る撮像装置の構成は、実施の形態1で説明した撮像装置1の構成と同様である。
(Embodiment 2)
Embodiment 2 of the present invention is characterized in that images taken at different times are used as multi-images. The configuration of the imaging apparatus according to the second embodiment is the same as the configuration of the imaging apparatus 1 described in the first embodiment.

以下、図13のフローチャートを参照して、本実施の形態2に係る撮像装置1が行う処理の概要を説明する。なお、ステップS201〜S216の処理は、実施の形態1で図8を参照して説明したステップS101〜S116に順次対応している。   Hereinafter, an overview of processing performed by the imaging apparatus 1 according to Embodiment 2 will be described with reference to the flowchart of FIG. 13. Note that the processing in steps S201 to S216 sequentially corresponds to steps S101 to S116 described with reference to FIG. 8 in the first embodiment.

ステップS217において、表示部41の表示画面の内部でタッチ入力がなされた場合(ステップS217:Yes)、撮像装置1はタッチされた部分にピントを合わせて撮影を行う(ステップS218)。なお、ステップS217で表示画面の内部でタッチ入力がなされない場合(ステップS217:No)に続くステップS224、S225の処理は、実施の形態1で説明したステップS121、S122の処理に順次対応している。   In step S217, when a touch input is made inside the display screen of the display unit 41 (step S217: Yes), the imaging apparatus 1 focuses on the touched portion and performs shooting (step S218). Note that the processes in steps S224 and S225 subsequent to the case where no touch input is made inside the display screen in step S217 (step S217: No) sequentially correspond to the processes in steps S121 and S122 described in the first embodiment. Yes.

続いて、撮像装置1がマルチ画像撮影モードに設定されている場合(ステップS219:Yes)、ユーザがタッチした位置にステップS218で撮影した画像を配置する(ステップS220)。また、タッチした位置よりも時間的に前の画像を表示する領域に、一時記録部21が仮記録している画像(仮記録画像)の中から必要な分の画像を選択して該当する領域に配置する(ステップS221)。さらに、タッチした位置よりも時間的に後の画像を表示する領域に、ステップS218における撮影よりも後に撮影して一時記録部21に仮記録した画像を順次配置していく(ステップS222)。   Subsequently, when the imaging apparatus 1 is set to the multi-image shooting mode (step S219: Yes), the image shot in step S218 is arranged at the position touched by the user (step S220). In addition, in a region for displaying an image temporally prior to the touched position, a necessary region is selected from images temporarily recorded by the temporary recording unit 21 (temporary recording image), and the corresponding region. (Step S221). Further, images that are taken after the shooting in step S218 and temporarily recorded in the temporary recording unit 21 are sequentially arranged in an area where an image temporally after the touched position is displayed (step S222).

表示制御部254は、画像合成部163が生成した合成画像を表示部41に表示させる(ステップS223)。   The display control unit 254 displays the composite image generated by the image composition unit 163 on the display unit 41 (step S223).

図14は、上述したステップS217〜S223の処理を具体的に説明する図である。ここで、撮像装置1はマルチ画像撮影モードに設定されているものとする。図14(a)に示す合成画像201は、横に4つの領域を並べて表示しているスルー画像である。副画像202〜205は、すべて同じ画像を表示している。この後、ステップS217で副画像203がタッチされた場合、画像合成部163は、その撮影画像を左から2番目の領域に配置する(ステップS220)。   FIG. 14 is a diagram for specifically explaining the processing of steps S217 to S223 described above. Here, it is assumed that the imaging apparatus 1 is set to the multi-image shooting mode. A composite image 201 illustrated in FIG. 14A is a through image in which four regions are displayed side by side. The sub-images 202 to 205 all display the same image. Thereafter, when the sub image 203 is touched in step S217, the image composition unit 163 places the captured image in the second area from the left (step S220).

撮影後の合成画像は左から右の順で時系列に沿って配置されるものとすると、画像合成部163は、一番左の領域にステップS218で撮影した画像よりも所定時間だけ前に撮影した画像を一時記録部21から読み出して配置する(ステップS221)。   Assuming that the composite images after shooting are arranged in chronological order from left to right, the image composition unit 163 captures a predetermined time before the image captured in step S218 in the leftmost region. The read image is read from the temporary recording unit 21 and arranged (step S221).

続いて、画像合成部163は、ステップS218の撮影後に順次撮影した画像の中から所定の間隔を有する画像を一時記録部21から読み出して、画面の左から3番目および4番目の領域に順次配置する(ステップS222)。このようにして、画像合成部163は、図14(b)に示す合成画像211を生成する。合成画像211は、副画像212がもっとも早い時間に撮影した画像であり、副画像215がもっとも遅い時間に撮影した画像である。そして、画面内をタッチすることによって撮影した副画像203が主画像である。   Subsequently, the image composition unit 163 reads out images having a predetermined interval from the images sequentially taken after the shooting in step S218 from the temporary recording unit 21, and sequentially arranges them in the third and fourth areas from the left of the screen. (Step S222). In this way, the image composition unit 163 generates a composite image 211 illustrated in FIG. The composite image 211 is an image taken at the earliest time of the sub-image 212, and is an image taken at the latest time of the sub-image 215. A sub-image 203 captured by touching the screen is the main image.

ステップS224〜S228の処理は、実施の形態1で図8を参照して説明したステップS121〜S125の処理に順次対応している。   The processing in steps S224 to S228 sequentially corresponds to the processing in steps S121 to S125 described with reference to FIG. 8 in the first embodiment.

以上説明した本発明の実施の形態2によれば、画像処理部が互いに異なる複数の画像処理をそれぞれ施した複数の画像の中から選択される1つの画像を主画像とするとともに、該主画像以外の画像を該主画像と識別可能な副画像として表示部に一括して表示させるため、1回の撮影動作によってユーザが所望する複数の画像を得ることが可能となる。   According to the second embodiment of the present invention described above, one image selected from a plurality of images each subjected to a plurality of different image processing by the image processing unit is set as the main image, and the main image Since other images are collectively displayed on the display unit as sub-images that can be distinguished from the main image, a plurality of images desired by the user can be obtained by a single photographing operation.

また、本実施の形態2によれば、主画像と副画像を時系列に沿って表示させるため、ユーザは選択した画像の前後の被写体の動きを含む装飾画像を得ることができる。   Further, according to the second embodiment, the main image and the sub image are displayed in time series, so that the user can obtain a decorative image including the movement of the subject before and after the selected image.

(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した2つの実施の形態に限定されるべきものではない。例えば、本発明において、図15に示すようにレイアウトを変更することも可能である。同図に示す合成画像301は、主画像302と、主画像302よりも小さく、主画像302の底辺と右側面を囲むように配置された5つの副画像303〜307を有する。
(Other embodiments)
Up to this point, the mode for carrying out the present invention has been described, but the present invention should not be limited to the two embodiments described above. For example, in the present invention, the layout can be changed as shown in FIG. A composite image 301 shown in the figure includes a main image 302 and five sub-images 303 to 307 which are smaller than the main image 302 and are arranged so as to surround the bottom side and the right side surface of the main image 302.

また、本発明において、副画像を分割して表示する際にその倍率を変えて表示するようにしてもよい。図16は、この場合の表示例を示す図である。同図に示す合成画像311は、互いに倍率が異なる4つの副画像312〜315を横に4つ並べて配置されている。この副画像312〜315のいずれか1つが実際に撮像したのと同じ倍率の画像である場合には、その副画像が主画像に相当する。   In the present invention, when a sub-image is divided and displayed, the magnification may be changed and displayed. FIG. 16 is a diagram showing a display example in this case. In the composite image 311 shown in FIG. 4, four sub-images 312 to 315 having different magnifications are arranged side by side. When any one of the sub-images 312 to 315 is an image having the same magnification as that actually captured, the sub-image corresponds to the main image.

また、本発明において、分割された副画像を不規則に並べて配置してもよい。図17は、この場合の表示例を示す図である。同図に示す合成画像321は、4つの副画像322〜325が不規則に並べて配置されている。   In the present invention, the divided sub-images may be arranged irregularly. FIG. 17 is a diagram showing a display example in this case. In the composite image 321 shown in the figure, four sub-images 322 to 325 are irregularly arranged.

また、本発明において、1つの画像に含まれている複数の被写体を分割して副画像を生成してもよい。図18は、この場合の表示例を示す図である。同図に示す合成画像331は、3つの副画像332〜334と、これらの副画像332〜334がそれぞれ表示する被写体をすべて含む主画像335とを有する。このような画像は、制御部に被写体検出部を設けることによって生成することが可能となる。   In the present invention, a plurality of subjects included in one image may be divided to generate a sub-image. FIG. 18 is a diagram showing a display example in this case. The composite image 331 shown in the figure has three sub-images 332 to 334 and a main image 335 including all subjects displayed by these sub-images 332 to 334. Such an image can be generated by providing a subject detection unit in the control unit.

また、本発明において、1つの画像に含まれている複数の人物を1人ずつ表示する副画像を生成してもよい。図19は、この場合の表示例を示す図である。同図に示す合成画像341は、それぞれ1人の人物だけが写っている3つの副画像342〜344と、すべての人物が揃って写っている主画像345とが表示されている。   In the present invention, a sub-image that displays a plurality of persons included in one image one by one may be generated. FIG. 19 is a diagram showing a display example in this case. In the composite image 341 shown in the figure, three sub-images 342 to 344 each including only one person and a main image 345 including all persons are displayed.

このように、本発明は様々な実施の形態等を含みうるものであり、特許請求の範囲に記載された技術的思想を逸脱しない範囲内において設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments and the like, and design changes and the like can be made without departing from the technical idea described in the claims.

1 撮像装置
2 本体部
3 レンズ部
4 モニタ部
5 アクセサリ
6 チルト機構
12 撮像素子
16 画像処理部
17 入力部
41 表示部
42 タッチパネル
21 一時記録部
22 記録部
23 本体通信部
25 制御部
31 光学系
35 レンズ操作部
36 レンズ記録部
37 レンズ通信部
38 レンズ制御部
161 基本画像処理部
162 アート効果画像処理部
163 画像合成部
221 画像データ記録部
222 アート効果情報記録部
223 レイアウト情報記録部
224 プログラム記録部
251 顔検出部
252 タッチ検出部
253 画像処理制御部
254 表示制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Main body part 3 Lens part 4 Monitor part 5 Accessory 6 Tilt mechanism 12 Image sensor 16 Image processing part 17 Input part 41 Display part 42 Touch panel 21 Temporary recording part 22 Recording part 23 Main body communication part 25 Control part 31 Optical system 35 Lens operation unit 36 Lens recording unit 37 Lens communication unit 38 Lens control unit 161 Basic image processing unit 162 Art effect image processing unit 163 Image composition unit 221 Image data recording unit 222 Art effect information recording unit 223 Layout information recording unit 224 Program recording unit 251 Face detection unit 252 Touch detection unit 253 Image processing control unit 254 Display control unit

Claims (10)

被写体を撮像して該被写体の画像データを生成する撮像部と、
画像を含む情報を表示可能な表示部と、
1つの前記画像データに対して互いに異なる複数の処理を施し、前記複数の処理をそれぞれ施した複数の画像データを、設定されたレイアウトで合成する画像処理部と、
前記画像処理部が合成した合成画像を前記表示部に表示させる表示制御部と、
を備えたことを特徴とする撮像装置。
An imaging unit that images a subject and generates image data of the subject;
A display unit capable of displaying information including images;
An image processing unit that performs a plurality of different processes on the one image data, and synthesizes the plurality of image data subjected to the plurality of processes in a set layout;
A display control unit that causes the display unit to display a composite image synthesized by the image processing unit;
An imaging apparatus comprising:
前記レイアウトは、
前記複数の画像データにそれぞれ対応する複数の画像の一部が重なりを有することを特徴とする請求項1に記載の撮像装置。
The layout is
The imaging apparatus according to claim 1, wherein a part of the plurality of images respectively corresponding to the plurality of image data has an overlap.
前記レイアウトは、
前記複数の画像データにそれぞれ対応する複数の画像の一部が他の画像に対して傾いていることを特徴とする請求項1または2に記載の撮像装置。
The layout is
The imaging apparatus according to claim 1, wherein a part of the plurality of images respectively corresponding to the plurality of image data is inclined with respect to another image.
前記レイアウトは、
前記複数の画像データにそれぞれ対応する複数の画像の倍率が互いに異なることを特徴とする請求項1に記載の撮像装置。
The layout is
The imaging apparatus according to claim 1, wherein magnifications of a plurality of images respectively corresponding to the plurality of image data are different from each other.
前記レイアウトは、
前記複数の画像データにそれぞれ対応する複数の画像の一部のアスペクト比が他の画像のアスペクト比と異なることを特徴とする請求項1に記載の撮像装置。
The layout is
The imaging apparatus according to claim 1, wherein an aspect ratio of a part of a plurality of images respectively corresponding to the plurality of image data is different from an aspect ratio of another image.
前記レイアウトは、
前記複数の画像データにそれぞれ対応する複数の画像のうち1つの画像に含まれている複数の被写体を他の画像で分割してなることを特徴とする請求項5に記載の撮像装置。
The layout is
6. The imaging apparatus according to claim 5, wherein a plurality of subjects included in one image among a plurality of images respectively corresponding to the plurality of image data are divided by another image.
前記複数の画像データは、互いに異なるタイミングで生成された画像であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the plurality of image data are images generated at different timings. 前記表示部に重ねて設けられ、外部からの接触位置に応じた信号の入力を受け付けるタッチパネルを備え、
前記表示制御部は、
前記タッチパネルが選択入力を受け付けた位置に対応する画像を拡大して前記表示部に表示させることを特徴とする請求項1に記載の撮像装置。
A touch panel provided on the display unit and receiving a signal input according to a contact position from the outside,
The display control unit
The imaging apparatus according to claim 1, wherein an image corresponding to a position at which the touch panel receives a selection input is enlarged and displayed on the display unit.
前記画像処理部は、
前記処理として、1つの前記画像データに対して複数の画像処理を組み合わせることにより視覚的な効果を生じさせる特殊効果処理を行うことを特徴とする請求項1〜8のいずれか一項に記載の撮像装置。
The image processing unit
The special effect process which produces a visual effect by combining a plurality of image processes with respect to one said image data as said process is performed. Imaging device.
被写体を撮像して該被写体の画像データを生成する撮像ステップと、
1つの前記画像データに対して互いに異なる複数の処理を施す処理ステップと、
前記複数の処理がそれぞれ施された複数の画像データを、設定されたレイアウトで合成する合成ステップと、
前記合成ステップで合成した合成画像を表示する表示ステップと、
を有することを特徴とする撮像方法。
An imaging step of imaging a subject and generating image data of the subject;
Processing steps for performing a plurality of different processes on one image data;
A combining step of combining a plurality of image data subjected to the plurality of processes with a set layout;
A display step for displaying the combined image combined in the combining step;
An imaging method characterized by comprising:
JP2016000250A 2016-01-04 2016-01-04 Imaging apparatus and imaging method Active JP6084310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016000250A JP6084310B2 (en) 2016-01-04 2016-01-04 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016000250A JP6084310B2 (en) 2016-01-04 2016-01-04 Imaging apparatus and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012178889A Division JP6021512B2 (en) 2012-08-10 2012-08-10 Imaging device

Publications (2)

Publication Number Publication Date
JP2016103841A true JP2016103841A (en) 2016-06-02
JP6084310B2 JP6084310B2 (en) 2017-02-22

Family

ID=56089396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016000250A Active JP6084310B2 (en) 2016-01-04 2016-01-04 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6084310B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064171B1 (en) 2019-12-25 2021-07-13 Seiko Epson Corporation Method of controlling display device, and display device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002142148A (en) * 2000-11-06 2002-05-17 Olympus Optical Co Ltd Electronic camera and method for setting its photographic condition
JP2004200950A (en) * 2002-12-18 2004-07-15 Casio Comput Co Ltd Imaging apparatus and imaging control program
JP2007082084A (en) * 2005-09-16 2007-03-29 Fujifilm Corp Composite image creating apparatus, method and program thereof
JP2008134918A (en) * 2006-11-29 2008-06-12 Seiko Epson Corp Image processor and image processing determination method
JP2009027406A (en) * 2007-07-19 2009-02-05 Sony Corp Image processing apparatus, image processing method, and program
JP2010073002A (en) * 2008-09-19 2010-04-02 Hoya Corp Image processor and camera
JP2010130093A (en) * 2008-11-25 2010-06-10 Olympus Imaging Corp Imaging apparatus, and program for the same
JP2010183173A (en) * 2009-02-03 2010-08-19 Fujifilm Corp Imaging apparatus and through image display method thereof
JP2010271774A (en) * 2009-05-19 2010-12-02 Sony Corp Information processing apparatus, image magnification/reduction method, and program thereof
JP2011096134A (en) * 2009-10-30 2011-05-12 Olympus Imaging Corp Moving image forming device and moving image forming method
JP2011228801A (en) * 2010-04-15 2011-11-10 Nikon Corp Image display device,imaging device and image display program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002142148A (en) * 2000-11-06 2002-05-17 Olympus Optical Co Ltd Electronic camera and method for setting its photographic condition
JP2004200950A (en) * 2002-12-18 2004-07-15 Casio Comput Co Ltd Imaging apparatus and imaging control program
JP2007082084A (en) * 2005-09-16 2007-03-29 Fujifilm Corp Composite image creating apparatus, method and program thereof
JP2008134918A (en) * 2006-11-29 2008-06-12 Seiko Epson Corp Image processor and image processing determination method
JP2009027406A (en) * 2007-07-19 2009-02-05 Sony Corp Image processing apparatus, image processing method, and program
JP2010073002A (en) * 2008-09-19 2010-04-02 Hoya Corp Image processor and camera
JP2010130093A (en) * 2008-11-25 2010-06-10 Olympus Imaging Corp Imaging apparatus, and program for the same
JP2010183173A (en) * 2009-02-03 2010-08-19 Fujifilm Corp Imaging apparatus and through image display method thereof
JP2010271774A (en) * 2009-05-19 2010-12-02 Sony Corp Information processing apparatus, image magnification/reduction method, and program thereof
JP2011096134A (en) * 2009-10-30 2011-05-12 Olympus Imaging Corp Moving image forming device and moving image forming method
JP2011228801A (en) * 2010-04-15 2011-11-10 Nikon Corp Image display device,imaging device and image display program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064171B1 (en) 2019-12-25 2021-07-13 Seiko Epson Corporation Method of controlling display device, and display device

Also Published As

Publication number Publication date
JP6084310B2 (en) 2017-02-22

Similar Documents

Publication Publication Date Title
JP5769768B2 (en) Imaging apparatus, imaging method, and program
JP5281878B2 (en) IMAGING DEVICE, LIGHTING PROCESSING DEVICE, LIGHTING PROCESSING METHOD, AND LIGHTING PROCESSING PROGRAM
US8760534B2 (en) Image processing apparatus with function for specifying image quality, and method and storage medium
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP6021512B2 (en) Imaging device
JP5400486B2 (en) Imaging apparatus and imaging method
JP5750692B2 (en) Imaging apparatus, imaging program, and imaging method
JP6084310B2 (en) Imaging apparatus and imaging method
JP6242428B2 (en) Imaging apparatus and imaging method
JP5951988B2 (en) Image composition apparatus and image composition method
JP6925827B2 (en) Image processing device and image processing method
JP5964937B2 (en) Image processing method, electronic device, and program
JP5592778B2 (en) Imaging apparatus, imaging method, and imaging program
JP5911253B2 (en) Imaging device
JP6211139B2 (en) Image synthesizer
JP6320463B2 (en) Electronic device, imaging method and program
KR101411326B1 (en) Apparatus and method for retouching of image in digital image processing device
JP6218865B2 (en) Imaging apparatus and imaging method
JP2017055158A (en) Imaging device, imaging control method and imaging control program
JP5816732B2 (en) Imaging apparatus and imaging method
JP5797301B2 (en) Imaging apparatus and imaging method
JP5925275B2 (en) Imaging apparatus and imaging method
JP2017184243A (en) Image composition device and image composition method
JP2013207780A (en) Imaging apparatus, imaging method and imaging program
JP2016139927A (en) Image processing apparatus, image processing method, image processing program and imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170124

R151 Written notification of patent or utility model registration

Ref document number: 6084310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250