JP2014150476A - 撮影装置、画像処理方法、及び、画像処理プログラム - Google Patents

撮影装置、画像処理方法、及び、画像処理プログラム Download PDF

Info

Publication number
JP2014150476A
JP2014150476A JP2013019174A JP2013019174A JP2014150476A JP 2014150476 A JP2014150476 A JP 2014150476A JP 2013019174 A JP2013019174 A JP 2013019174A JP 2013019174 A JP2013019174 A JP 2013019174A JP 2014150476 A JP2014150476 A JP 2014150476A
Authority
JP
Japan
Prior art keywords
image
display
displayed
display area
live view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013019174A
Other languages
English (en)
Inventor
Shogo Shimamura
正吾 嶋村
Takeyo Ito
健世 伊藤
Maki Toida
真希 戸井田
Akira Tani
憲 谷
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013019174A priority Critical patent/JP2014150476A/ja
Priority to PCT/JP2014/052065 priority patent/WO2014119655A1/ja
Priority to CN201480006213.3A priority patent/CN104956657B/zh
Priority to EP14746887.0A priority patent/EP2953345A4/en
Publication of JP2014150476A publication Critical patent/JP2014150476A/ja
Priority to US14/802,505 priority patent/US9787906B2/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】所望の組み画像の画像データを簡単な操作で容易に生成する技術を提供する。
【解決手段】カメラ1は、複数の表示領域を有する表示パネル135と、撮影指示と表示位置変更指示を受け付ける操作部123と、被写体を撮像して画像を取得する撮像部を備える。また、カメラ1は、撮影指示を受け付けると、ある表示領域に表示される画像をライブビュー画像から撮影指示に応じて取得されたコマ画像に変更し、表示領域を指定した表示位置変更指示を受け付けると、指定された表示領域に表示される画像をライブビュー画像に変更するように表示パネル135を制御する表示制御部と、複数の表示領域に表示されている複数の画像の画像データを合成し、複数の画像を表示パネル135に表示されているようにレイアウトした組み画像の画像データを生成する組み画像処理部109cを備える。
【選択図】図1

Description

本発明は、複数回の撮影により取得した複数の画像をレイアウトして、一枚の画像としてなる組み画像の画像データを生成する撮影装置、画像処理方法、及び、画像処理プログラムに関する。
デジタルカメラやデジタルビデオカメラなどの撮影装置では、取得した画像がデジタルデータとして記憶または記録されるため、取得した画像を容易に加工することができる。このような特徴を活かした撮影装置の用途のひとつに組み写真がある。組み写真とは、複数回の撮影により取得した複数の写真をレイアウトしてなる合成写真のことである。
より詳しくは、撮影者が異なる場面、異なる視点による立体感を表現する画像、時間の流れに応じた撮影画像、及び、被写体の動きのある撮影画像から、撮影時の感情や想像を表現するために、複数の画像から構成される組み写真を生成する。そして、その組み画像によって撮影時の感情や想像を見る人に伝えようとする。この目的を達するため、組み写真の並び方や並べる順序にはシナリオがあり、そのシナリオは見る人の感情をよびおこす上でもとても重要である。
組み写真を取得する撮影装置は、例えば、特許文献1に開示されるような組み写真を構成する複数の写真を1回のシャッタ操作で取得するものと、例えば、特許文献2に開示されるような組み写真を構成する複数の写真の各々をそれぞれに対応するシャッタ操作で取得するものと、に大別される。
なお、特許文献1には、複数コマの画像を連続して撮影するとともに、その複数コマの画像を一覧表示するデジタルカメラが開示されている。特許文献2には、同一被写体について複数枚ずつ撮影された複数の異なる被写体の画像のうち、被写体毎に1枚ずつ選択された最適画像を合成して記録する撮像装置が開示されている。
特開2007−053616号公報 特許第4529561号公報
ところで、所望の組み写真を得るためには、組み写真の画像データを生成する際に、組み写真を構成する写真の配置位置を撮影装置の利用者が好みに応じて容易に変更し得ることが望ましい。
しかしながら、上述した特許文献1から特許文献2に開示される技術では、組み写真を構成する写真の配置位置を利用者が変更することはできない。
具体的に説明すると、特許文献1に開示されるデジタルカメラは、連続して撮影された複数の画像を撮影された順序で一覧表示する(つまり、組み写真として表示する)ように構成されているため、組み写真を構成する写真の配置位置を利用者が変更することはできない。
また、特許文献2に開示される撮像装置では、被写体毎に取得した複数枚の画像から被写体毎に1枚の画像を選択することができる。しかしながら、選択された画像の配置位置は、その画像が取得(撮影)された時点で決定されてしまうため、選択された画像の配置位置を利用者が変更することはできない。
なお、上述した技術的な課題は、写真(つまり、静止画像)でのみ生じるものではなく、動画像であっても生じ得る。つまり、静止画像、動画像を問わず、画像全般で生じ得る。
以上のような実情を踏まえ、本発明は、所望の組み画像を構成する画像の配置位置を簡単な操作で容易に変更する技術を提供することを目的とする。
本発明の第1の態様は、複数の表示領域を有する表示部と、撮影指示を受け付ける第1の受付部と、前記表示部の表示領域を指定した表示位置変更指示を受け付ける第2の受付部と、被写体を撮像して画像を取得する撮像部と、前記第1の受付部が撮影指示を受け付けると、前記複数の表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて前記撮像部により取得された画像に変更し、且つ、前記第2の受付部が前記表示位置変更指示を受け付けると、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更するように、前記表示部を制御する表示制御部と、前記複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する組み画像処理部と、を備える撮影装置を提供する。
本発明の第2の態様は、第1の態様に記載の撮影装置において、前記表示位置変更指示により指定される表示領域は、ブランク画像が表示されている表示領域である撮影装置を提供する。
本発明の第3の態様は、第1の態様に記載の撮影装置において、前記表示位置変更指示により指定される表示領域は、前記撮影指示に応じて前記撮像部により取得された画像が表示されている表示領域であり、前記表示制御部は、前記第2の受付部が前記表示位置変更指示を受け付けると、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更すると共に、当該変更前に前記ライブビュー画像が表示されていた表示領域に表示される画像を前記撮影指示に応じて前記撮像部により取得された画像に変更するように、前記表示部を制御する撮影装置を提供する。
本発明の第4の態様は、表示部の少なくとも1つの表示領域にライブビュー画像を表示する工程と、撮影指示を受け付ける工程と、前記撮影指示に応じて被写体の画像を取得する工程と、前記少なくとも1つの表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて取得された画像に変更する工程と、前記表示部の表示領域を指定した表示位置変更指示を受け付ける工程と、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更する工程と、前記表示部の複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する工程と、を備える画像処理方法を提供する。
本発明の第5の態様は、複数の表示領域を有する表示部を備えたコンピュータに、前記表示部の少なくとも1つの表示領域にライブビュー画像を表示する工程と、撮影指示を受け付ける工程と、前記撮影指示に応じて被写体の画像を取得する工程と、前記少なくとも1つの表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて取得された画像に変更する工程と、前記表示部の表示領域を指定した表示位置変更指示を受け付ける工程と、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更する工程と、前記表示部の複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する工程と、を実行させる画像処理プログラムを提供する。
本発明によれば、所望の組み画像を構成する画像の配置位置を簡単な操作で容易に変更する技術を提供することができる。
本発明の実施例1に係るカメラの主として電気系の全体構成を示すブロック図である。 本発明の実施例1に係るカメラの処理全体を示すフローチャートである。 本発明の実施例1に係るカメラの画像処理を示すフローチャートである。 本発明の実施例1に係るカメラの基本画像処理を示すフローチャートである。 本発明の実施例1に係るカメラの特殊画像処理を示すフローチャートである。 本発明の実施例1に係るカメラの組み画像生成処理を示すフローチャートである。 本発明の実施例1に係るカメラの静止画像記録処理を示すフローチャートである。 本発明の実施例1に係るカメラの組み画像操作処理を示すフローチャートである。 本発明の実施例1に係るカメラの再生処理を示すフローチャートである。 被写体の動作を説明するための図である。 本発明の実施例1に係るカメラの撮影操作について説明するための図である。 本発明の実施例1に係るカメラの撮影操作について説明するための他の図である。 本発明の実施例1に係るカメラの撮影操作について説明するためのさらに他の図である。 表示領域のレイアウトについて説明するための図である。 本発明の実施例1に係るカメラの撮影操作について説明するためのさらに他の図である。 本発明の実施例1に係るカメラの組み画像処理部で行われる色変更処理について説明するためのさらに他の図である。 本発明の実施例1に係るカメラの組み画像処理部で行われる輝度変更処理について説明するためのさらに他の図である。 本発明の実施例1に係るカメラの撮影コマ変更操作について説明するための図である。 本発明の実施例1に係るカメラのSDRAMの表示・記録用組み画像記憶領域の構成を説明するための図である。 本発明の実施例1に係るカメラのキャンセル操作によるコマ画像データの退避と復元操作によるコマ画像データの復元について説明するための図である。 本発明の実施例1に係るカメラのキャンセル操作によるコマ画像データの退避と復元操作によるコマ画像データの復元について説明するための他の図である。 本発明の実施例1に係るカメラのキャンセル操作について説明するための図である。 本発明の実施例1に係るカメラの表示領域と撮影順番との関係を示す図である。 従来のカメラの表示領域と撮影順番との関係を示す図である。 本発明の実施例1に係るカメラのキャンセル操作について説明するための他の図である。 本発明の実施例1に係るカメラのキャンセル操作について説明するためのさらに他の図である。 本発明の実施例1に係るカメラのキャンセル操作について説明するためのさらに他の図である。 本発明の実施例1に係るカメラの再生モードにおける拡大表示操作について説明するための図である。 本発明の実施例1に係るカメラの再生モードにおける拡大表示操作について説明するための他の図である。 本発明の実施例1に係るカメラの組み画像モードにおける拡大表示操作について説明するための図である。 本発明の実施例2に係るカメラの組み画像操作処理を示すフローチャートである。 本発明の実施例2に係るカメラの撮影コマ変更処理を示すフローチャートである。 本発明の実施例2に係るカメラの撮影コマ変更処理を示す他のフローチャートである。 本発明の実施例2に係るカメラの撮影コマ変更操作について説明するための図である。 本発明の実施例2に係るカメラの撮影コマ変更操作について説明するための他の図である。
以下、図面を参照しながら、本発明の各実施例について説明する。なお、本明細書において、ライブビュー画像とは、レリーズ操作などによるカメラのユーザからの明示的な撮影指示に応じて取得される画像と異なり、カメラのライブビュー機能により随時取得される画像のことである。
図1は、本実施例に係るカメラの主として電気系の全体構成を示すブロック図である。図1に例示されるカメラ1は、取得した画像をデジタルデータとして記憶または記録する撮影装置である。カメラ1のユーザは、表示部である表示パネル135に表示されるライブビュー画像を観察しながら、操作部123を用いたレリーズ操作により画像の取得を指示することができる。なお、カメラ1は、静止画像(つまり、写真)と動画像を取得する機能に加えて、複数の静止画像または動画像をレイアウトしてなる組画像を取得する機能も備えている。
まず、図1を参照しながら、カメラ1の構成について説明する。カメラ1は、カメラ本体100と、カメラ本体100に脱着可能な、撮影レンズ201を含む交換式レンズ200とを備えている。なお、本実施例では、撮影レンズを交換可能なカメラの構成を例示したが、撮影レンズはカメラ本体に固定されてもよい。
交換式レンズ200は、撮影レンズ201と、絞り203と、ドライバ205と、マイクロコンピュータ207と、フラッシュメモリ209とを備えている。また、カメラ本体100と交換式レンズ200とは、インターフェース(以降、I/Fと記す)300を介して接続されている。
撮影レンズ201は、被写体像を形成するための単数または複数の光学レンズから構成され、単焦点レンズまたはズームレンズである。撮影レンズ201の光軸の後方には、絞り203が配置されている。絞り203は口径が可変であり、撮影レンズ201を通過する被写体光束の光量を制限する。また、撮影レンズ201はドライバ205によって光軸方向に移動可能である。マイクロコンピュータ207からの制御信号に基づいて、撮影レンズ201のピント位置が制御され、撮影レンズ201がズームレンズである場合には、撮影レンズ201の焦点距離も制御される。また、ドライバ205は、絞り203の口径の制御も行う。
ドライバ205に接続されたマイクロコンピュータ207は、I/F300およびフラッシュメモリ209に接続されている。マイクロコンピュータ207は、フラッシュメモリ209に記憶されているプログラムに従って動作する。プログラムに従って動作したマイクロコンピュータ207は、後述するカメラ本体100内のマイクロコンピュータ121と通信して、マイクロコンピュータ121からの制御信号に基づいて交換式レンズ200の制御を行う。
フラッシュメモリ209には、前述したプログラムの他に、交換式レンズ200の光学的特性や調整値等の種々の情報が記憶されている。I/F300は、交換式レンズ200内のマイクロコンピュータ207とカメラ本体100内のマイクロコンピュータ121の相互間の通信を行うためのインターフェースである。
カメラ本体100内であって、撮影レンズ201の光軸上には、メカシャッタ101が配置されている。メカシャッタ101は、被写体光束を遮断することで後述する撮像素子103への被写体光束の照射時間を制御するものであり、例えば、公知のフォーカルプレーンシャッタ等が採用され得る。メカシャッタ101の後方であって、撮影レンズ201によって被写体像が形成される位置には、撮像素子103が配置されている。
撮像素子103には、各画素を構成するフォトダイオードが二次元的にマトリックス状に配置されている。各フォトダイオードは受光量に応じた光電変換電流を発生させ、この光電変換電流は各フォトダイオードに接続するキャパシタによって電荷蓄積される。各画素の前面には、ベイヤ配列のRGBフィルタが配置されている。なお、撮像素子103の構成はベイヤ配列に並べられたRGBフィルタを含む構成に限定されず、例えばFOVEON(フォベオン・インコーポレーテッドの登録商標)のような素子の厚さ方向に複数のセンサを配列した構成であってもよい。
撮像素子103はアナログ処理部105に接続されている。アナログ処理部105は、撮像素子103から読み出した光電変換信号(以降、アナログ画像信号と記す)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに適切な輝度になるようにゲインアップを行う。アナログ処理部105は、A/D変換部107に接続されている。A/D変換部107は、アナログ画像信号をアナログ−デジタル変換して、得られたデジタル画像信号(以降、画像データと記す)をバス110に出力してSDRAM127に記憶させる。即ち、カメラ1では、撮像素子103、アナログ処理部105、A/D変換部107が全体として、被写体を撮像してその画像を取得する撮像部として機能する。なお、本明細書においては、画像処理部109で画像処理される前の生の画像データをRAWデータと記す。
撮像素子103は電子シャッタを内蔵しており、動画撮像時やライブビュー撮像時のように繰り返し撮像する際には、メカシャッタ101を開放にしたままで内蔵の電子シャッタを使用し撮像する。
バス110は、カメラ本体100の内部で読み出され若しくは生成された各種データをカメラ本体100の内部に転送するための転送路である。バス110には、前述のA/D変換部107の他、画像処理部109、AE(Auto Exposure)処理部111、AF(Auto Focus)処理部113、画像圧縮展開部117、通信部119、マイクロコンピュータ121、SDRAM(Synchronous DRAM)127、メモリインターフェース(以降、メモリI/Fという)129、表示ドライバ133が接続されている。
画像処理部109は、基本的な画像処理を行う基本画像処理部109aと、アートフィルタ等の特殊効果を適用するモードが設定された場合に特殊効果を施すための特殊画像処理部109bと、組み画像の画像データを生成する組み画像処理部109cと、画像データをパターンマッチング処理等により解析して被写体を検出する被写体検出部109dと、を有している。画像処理部109は、SDRAM127に一時記憶された画像データを読出し、この画像データに対して画像処理を施す。
基本画像処理部109aは、RAWデータに対して、オプティカルブラック(OB)減算処理、ホワイトバランス(WB)補正、ベイヤデータの場合に行われる同時化処理、色再現処理、ガンマ補正処理、輝度変更処理、エッジ強調処理、ノイズリダクション(NR)処理等を行う。
特殊画像処理部109bは、基本画像処理部109aで処理された画像データに対して、設定された特殊効果(アートフィルタ)等に応じて、種々の視覚的な特殊効果を付与する特殊画像処理を行う。例えば、トイフォトが設定されている場合には、シェーディングを付加する処理を行う。また、ファンタジックフォーカス、ラフモノクローム、ジオラマ、クリスタルが設定されている場合には、それぞれ、ソフトフォーカス処理、ノイズ重畳処理、ぼかし処理、クロスフィルタ処理を行う。
組み画像処理部109cは、複数の画像データを合成して、複数の画像データに対応する複数の画像が所定の配置にレイアウトされた画像である組み画像の画像データを生成する。合成される複数の画像データは、少なくとも基本画像処理部109aで処理された画像データであり、特殊効果が設定されている場合には、基本画像処理部109a及び特殊画像処理部109bで処理された画像データが合成される。
また、組み画像処理部109cは、画像データを合成する処理を実行する前に、組み画像を構成する、基本画像処理部109a及び特殊画像処理部109bで処理された各画像(以降、コマ画像とも記す。)を補正する。具体的には、基本画像処理部109a及び特殊画像処理部109bで処理された複数の画像データを解析して、画像間の色分布の相違や輝度平均の相違などを算出する。そして、算出された情報に基づいて、組み画像が最適な状態となるように、組み画像を構成する各コマ画像の色や輝度を補正する。コマ画像を補正して画像間の調整処理を行うことで、組み画像としてより良好な画像を得ることができる。
被写体検出部109dは、パターンマッチング技術等を用いた画像解析により、所定の被写体、例えば、人の顔やペットなどの動物を検出する処理を行う。さらに、検出した被写体の種類、大きさ、位置などを算出する処理を行ってもよい。これらの検出結果は、例えば、撮影モードの切り換え、オートフォーカス、被写体像を一定の大きさに撮像するオートズームなどに利用され得る。
AE処理部111は、バス110を介して入力された画像データに基づいて被写体輝度を測定し、測定した被写体輝度情報を、バス110を介してマイクロコンピュータ121に出力する。なお、ここでは、AE処理部111により画像データに基づいて被写体輝度を算出する構成が採用されているが、カメラ1は、被写体輝度の測定のために専用の測光センサを設けることにより、同様の機能を実現してもよい。
AF処理部113は、画像データから高周波成分の信号を抽出し、積算処理により合焦評価値を取得する。AF処理部113は、取得した合焦標価値をバス110を介してマイクロコンピュータ121に出力する。すなわち、カメラ1は、いわゆるコントラスト法によって撮影レンズ201のピント合わせを行う。
画像圧縮展開部117は、画像データをメモリI/F129に接続された記録媒体131へ記録するときに、SDRAM127から読み出した画像データを、静止画の場合にはJPEG圧縮方式等、また動画の場合にはMPEG等の各種圧縮方式に従って、圧縮する。マイクロコンピュータ121は、JPEG画像データやMPEG画像データに対して、JPEGファイルやMPOファイル、MPEGファイルを構成するために必要なヘッダを付加して、JPEGファイルやMPOファイル、MPEGファイルを作成する。マイクロコンピュータ121は、作成したファイルを、メモリI/F129を介して記録媒体131に記録する。
また、画像圧縮展開部117は、画像再生表示用にJPEG画像データやMPEG画像データの伸張も行う。伸張にあたっては、記録媒体131に記録されているファイルを読み出し、画像圧縮展開部117において伸張処理を施した上で、伸張した画像データをSDRAM127に一時記憶する。なお、本実施例では、画像圧縮方式としては、JPEG圧縮方式やMPEG圧縮方式を採用する例を示したが、圧縮方式はこれに限らずTIFF、H.264等、他の圧縮方式でもよい。
通信部119は、後述するフラッシュメモリ125内に記憶されているテンプレートの更新や追加のために、外部機器と通信する。通信部119は、有線LANや無線LANによって外部機器と接続されてもよく、その他、USBケーブルなどによって外部機器と接続されてもよい。
マイクロコンピュータ121は、カメラ1全体の制御部としての機能を果たし、カメラの各種シーケンスを総括的に制御する。マイクロコンピュータ121には、前述のI/F300以外に、操作部123およびフラッシュメモリ125が接続されている。
操作部123は、電源釦、レリーズ釦、動画釦、再生釦、メニュー釦、十字釦、OK釦、モードダイヤル等、各種入力釦や各種入力キー等の操作部材を含み、これらの操作部材の操作状態を検知し、検知結果をマイクロコンピュータ121に出力する。マイクロコンピュータ121は、操作部123からの操作部材の検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。つまり、カメラ1では、操作部123は、ユーザからの種々の指示(例えば、撮影指示、キャンセル指示、復元指示、再生指示など)を受け付ける受付部として機能する。
電源釦は、カメラ1の電源のオン/オフを指示するための操作部材である。電源釦が押されるとカメラ1の電源はオンとなり、再度、電源釦が押されるとカメラ1の電源はオフとなる。
レリーズ釦は、半押しでオンになるファーストレリーズスイッチと、半押しから更に押し込み全押しとなるとオンになるセカンドレリーズスイッチにつながっている。マイクロコンピュータ121は、ファーストレリーズスイッチがオンとなると、AE動作やAF動作等の撮影準備シーケンスを実行する。また、セカンドレリーズスイッチがオンとなると、メカシャッタ101等を制御し、撮像素子103等から被写体画像に基づく画像データを取得し、この画像データを記録媒体131に記録する一連の撮影シーケンスを実行して撮影を行う。
再生釦は、再生モードの設定と解除するための操作釦であり、再生モードが設定されると、記録媒体131から撮影した画像の画像データを読み出し、表示パネル135に画像を再生表示する。
メニュー釦は、メニュー画面を表示パネル135に表示させるための操作釦である。メニュー画面上では、各種のカメラ設定を行うことができる。カメラ設定としては、特殊効果(アートフィルタ)の設定がある。特殊効果としては、ファンタジックフォーカス、ポップ、アート、トイフォト、ラフモノクローム、ジオラマ等、種々の特殊効果が設定可能である。その他にも、組み画像の設定もメニュー画面上で行うことができる。
モードダイヤルは、撮影モードを選択するためのダイヤルである。カメラ1では、モードダイヤルを操作することで、動作モードが、通常の撮影を行う通常モードと組み画像の撮影を行う組み画像モードとの間で切り替わる。通常モードと組み画像モードの切り替えは、メニュー画面等から行うようにしてもよい
操作部123は、さらに、タッチ入力部124を備えている。タッチ入力部124は、例えば、表示パネル135に重ねて配置されたタッチパネルセンサである。タッチ入力部124は、ユーザによる表示パネル135に対するタッチ操作を検出し、検知結果をマイクロコンピュータ121に出力する。マイクロコンピュータ121は、操作部123からのタッチ入力部124の検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。
なお、操作部123は、上述した各種釦を表示パネル135上に備えてもよい。すなわち、カメラ1の表面に物理的に釦を設ける代わりに、表示パネル135に釦を表示してタッチ入力部124で表示パネル135に表示された釦に対する操作を検出してもよい。なお、レリーズ釦を表示パネル135に表示する代わりに、表示パネル135をレリーズ釦として機能させてもよい。その場合、表示パネル135にタッチしたときをレリーズ釦が半押された状態とし、所定時間(例えば1秒)以上タッチされ続けたときをレリーズ釦が全押しとした状態のみなしても良いし、タッチしたときをレリーズ釦が半押しされた状態と全押しした状態とみなしても良い。
フラッシュメモリ125は、マイクロコンピュータ121の各種シーケンスを実行するためのプログラムを記憶している。マイクロコンピュータ121はフラッシュメモリ125に記憶されたプログラムに基づいてカメラ全体の制御を行う。また、フラッシュメモリ125は、カラーマトリックス係数、ホワイトバランスモードに応じたRゲインとBゲイン、ガンマテーブル、露出条件決定テーブル等の種々の調整値を記憶している。さらに、フラッシュメモリ125は、組み画像のスタイル、つまり、組み画像を構成するコマ画像をどのようにレイアウトするかに関する情報等をテンプレートとして記憶している。
SDRAM127は、画像データ等の一時記憶用の、電気的書き換え可能な揮発性メモリである。このSDRAM127は、A/D変換部107から出力された画像データや、画像処理部109や画像圧縮展開部117等において処理された画像データを一時記憶する。
メモリI/F129は、記録媒体131に接続されている。メモリI/F129は、画像データや画像データに添付されたヘッダ等のデータを、記録媒体131に対して書き込みおよび読み出しする制御を行う。記録媒体131は、例えば、カメラ本体100に着脱自在なメモリカード等の記録媒体であるが、これに限らず、カメラ本体100に内蔵された不揮発性メモリやハードディスク等であっても良い。
表示ドライバ133は、表示パネル135に接続されている。表示ドライバ133は、SDRAM127や記録媒体131から読み出されて、画像圧縮展開部117によって伸張された画像データに基づいて、画像を表示パネル135に表示させる。表示パネル135は、例えば、カメラ本体100の背面に設けられた液晶ディスプレイ(LCD)であり、画像表示を行う。画像表示としては、撮影直後、記録される画像データを短時間だけ表示するレックビュー表示、記録媒体131に記録された静止画や動画の画像ファイルの再生表示、およびライブビュー表示等の動画表示が含まれる。なお、表示パネル135は、LCDの他に有機ELなどであってもよく、さらに他の表示パネルが採用されてもよい。また、表示パネル135は、撮影モードが組み画像モードの場合には、画像を表示するための複数の領域(以降、表示領域と記す。)が表示パネル135に定義される。なお、複数の表示領域のレイアウトは、組み画像のスタイルによって画定される。
次に、図2から図9を参照しながら、以上のように構成されたカメラ1で行われる処理について説明する。なお、図2から図9のフローチャートが示すカメラの処理は、フラッシュメモリ125に記憶されているプログラムをマイクロコンピュータ121が実行することにより行われる。はじめに、図2に示されるカメラの処理全体の流れについて説明する。
操作部123の内の電源釦が操作されてカメラ1の電源がオンになり、図2に示すカメラ1の処理が開始されると、マイクロコンピュータ121は、カメラ1を初期化する(ステップS1)。ここでは、機械的初期化と各種フラグ等の初期化等の電気的初期化が行われる。初期化対象のフラグとしては、例えば、動画を記録中か否かを示す記録中フラグなどがあり、初期化により記録中フラグはオフに設定される。また、簡易処理設定もオフに設定される。
初期化が完了すると、次に、マイクロコンピュータ121は、再生釦が押されたか否かを判定する(ステップS3)。ここでは、操作部123内の再生釦の操作状態を検知し、判定する。また、再生釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。再生釦が押下されると、マイクロコンピュータ121は動作モードを再生モードに設定して、再生処理を実行する(ステップS700)。再生処理が完了すると、再びステップS3の処理を実行する。なお、再生処理の詳細については、図9を参照しながら後に詳述する。
ステップS3で再生釦が押下されていないと判定されると、マイクロコンピュータ121はメニュー釦が押下されたか否か、すなわち、メニュー画面が表示されてカメラ設定が行われる状態になったか否かを判定する(ステップS5)。ここでは、操作部123内のメニュー釦の操作状態を検知し、判定する。メニュー釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。
メニュー釦が押下されると、マイクロコンピュータ121は、操作部123に対するさらなる操作を検出して、検出結果に従ってカメラ設定を変更する(ステップS7)。カメラ設定処理が完了すると、再びステップS3の処理を実行する。
なお、カメラ設定としては、例えば、撮影モード設定、記録モード設定、画像の仕上がり設定、組み画像のスタイルの設定、組み画像に組み込む予め取得した画像を選択する設定、コマ画像を記録するか否かの設定などがある。撮影モードには、通常の撮影モードと組み画像モードがある。また、記録モードには、静止画記録モードとしてJPEG記録、JPEG+RAW記録、RAW記録等があり、動画記録モードとしてMotion−JPEG、H.264等がある。さらに、画像の仕上がりの設定には、自然に見える画像にする(Natural)、鮮やかな画像にする(Vivid)、落ち着いた画像にする(Flat)、アートフィルタ等の特殊効果の設定がある。
ステップS5でメニュー釦が押されていないと判定されると、マイクロコンピュータ121は、動画釦が押下されたか否かを判定する(ステップS9)。ここでは、操作部123内の動画釦の操作状態を検知し、判定する。動画釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。
動画釦が押されていないと判定されると、マイクロコンピュータ121は、ステップS19の処理を実行する。一方、動画釦が押されると、マイクロコンピュータ121は、記録中フラグを反転させる(ステップS11)。つまり、記録中フラグがオフであればオンに、オンであればオフに変更する。さらに、マイクロコンピュータ121は、反転後の記録中フラグの状態に基づいて画像記録中か否かを判定する(ステップS13)。
記録中フラグがオンと判定されると、マイクロコンピュータ121は、動画記録の開始が指示されたと判断して動画ファイルを生成し(ステップS15)、画像データを記録するための準備を整える。このような処理は、例えば、電源オン後はじめて動画釦が押下された場合などに行われる。なお、動画ファイル生成後は、ステップS19の処理が実行される。
ステップS13で記録中フラグがオフと判定されると、マイクロコンピュータ121は、動画記録の終了が指示されたと判断して、動画ファイルを閉じる(ステップS17)。つまり、動画ファイルのヘッダにフレーム数を記録する処理等を行って動画ファイルを再生可能な状態にしてから、書き込み処理を終了する。なお、動画ファイルへの書き込み終了後は、ステップS19の処理が実行される。
ステップS19では、マイクロコンピュータ121は、撮影モードが組み画像モードであり、且つ、操作部123に対して所定の組み画像操作が行われたか否かを判定する。ここでは、SDRAM127に記憶されている撮影モードの設定と操作部123の操作状態とを検知し、判定する。
組み画像モードで且つ所定の操作が行われたと判定されると、マイクロコンピュータ121は、組み画像操作処理を実行する(ステップS600)。組み画像操作処理が完了すると、再びステップS21の処理を実行する。なお、組み画像操作処理の詳細については、図8を参照しながら後に詳述する。
ステップS19で撮影モードが組み画像モードでないと判定されるか、操作部123に対して所定の組み画像操作が行われていないと判定されると、マイクロコンピュータ121は、レリーズ釦が半押しされたか否かを判定する(ステップS21)。ここでは、レリーズ釦に連動するファーストレリーズスイッチのオフからオンへの遷移を検知し、判定する。レリーズ釦が表示パネル135に表示されている場合または表示パネル135がレリーズ釦として機能している場合には、レリーズ釦が表示されている領域またはライブビュー画像が表示されている表示領域をタッチしたことを示す信号を検出し、判定する。
レリーズ釦が半押しされると、マイクロコンピュータ121は、AE・AF動作を実行する(S23)。ここでは、AE動作は、AE処理部111が撮像素子103によって取得された画像データに基づいて被写体輝度を検出し、この被写体輝度に基づいて適正露出となるシャッタ速度、絞り値等を算出することにより行われる。また、AF動作は、AF処理部113によって取得された合焦評価値がピーク値となるように、交換式レンズ200内のマイクロコンピュータ207を介してドライバ205が撮影レンズ201のピント位置を移動させることにより行われる。なお、タッチ入力部124からの信号によりAF動作が行われる場合には、タッチ位置に表示されている被写体に合焦点するように撮像レンズ201を移動させる。AE・AF動作後は、ステップS25の処理が実行される。
AF動作は上述の所謂コントラストAF以外にも、専用のセンサを用いた位相差AF等様々なAF方式を用いても良い。
ステップS21でレリーズ釦が半押しされていないと判定されると、マイクロコンピュータ121は、レリーズ釦が全押しされたか否かを判定する(ステップS27)。ここでは、セカンドレリーズスイッチのオフからオンへの遷移を検知し、判定する。セカンドレリーズスイッチがオンの状態であることを連続して検知して判定することで、連写撮影を行うようにしても良い。また、レリーズ釦が表示パネル135に表示されている場合または表示パネル135がレリーズ釦として機能している場合には、レリーズ釦が表示されている領域またはライブビュー画像が表示されている表示領域をタッチしたことを示す信号を検出し、判定する。
レリーズ釦が全押しされると、マイクロコンピュータ121は、メカシャッタによる静止画撮影を行う(S29)。ここでは、ステップS23で算出された絞り値で絞り203が制御され、また算出されたシャッタ速度でメカシャッタ101のシャッタ速度が制御される。そして、シャッタ速度に応じた露光時間が経過すると、撮像素子103から画像信号が読み出され、アナログ処理部105およびA/D変換部107によって処理されたRAWデータがバス110を介してSDRAM127に一時記憶される。
その後、マイクロコンピュータ121は、SDRAM127に一時記憶されたRAWデータを読み出して、画像処理部109に画像処理を実行させ(ステップS100a)、処理した画像データ等を記録媒体131に記録する静止画記録処理を実行する(ステップS500)。なお、画像処理と静止画記録処理の詳細については、それぞれ、図3から図6、図7を参照しながら後に詳述する。
静止画記録処理が完了すると、マイクロコンピュータ121は、撮影モードが組み画像モードか否かを判定する(ステップS31)。ここでは、SDRAM127に記憶されている撮影モードの設定により、判定する。
撮影モードが組み画像モードでない場合、つまり、通常の撮影モードの場合、マイクロコンピュータ121は、ステップS25の処理を実行する。一方、撮影モードが組み画像モードの場合には、マイクロコンピュータ121は、ライブビュー表示を変更する(ステップS33)。なお、カメラ1では、撮影モードが組み画像モードの場合には、表示パネル135が複数の表示領域を有し、後述するステップS39での処理により、そのうちの1つの表示領域にライブビュー画像が表示されている。ステップS33のライブビュー表示の変更処理では、マイクロコンピュータ121の制御の下、ライブビュー画像が表示される表示領域を変更するように、表示ドライバ133が表示パネル135を制御する。より具体的には、ライブビュー画像が表示されていた表示領域に表示される画像をステップS29で撮影しステップS100aで画像処理された画像に変更する。さらに、ライブビュー画像が表示されるべき表示領域を切り替えて、他の表示領域にライブビュー画像を表示させる。即ち、カメラ1では、マイクロコンピュータ121及び表示ドライバ133は、表示パネル135を制御する表示制御部として機能する。ライブビュー表示処理後、マイクロコンピュータ121は、ステップS25の処理を実行する。
ステップS27でレリーズ釦が全押しされていないと判定されると、マイクロコンピュータ121は、動画またはライブビュー画像のために、AE動作を実行する(ステップS35)。AE動作は、適正露出でライブビュー表示を行うための撮像素子103の電子シャッタのシャッタ速度およびISO感度をAE処理部111が算出することにより行われる。AE動作後、マイクロコンピュータ121は、電子シャッタによる撮影を行う(ステップS37)。ここでは、電子シャッタを用いて撮像素子103から画像信号が読み出され、アナログ処理部105およびA/D変換部107によって処理されたRAWデータがバス110を介してSDRAM127に一時記憶される。
その後、マイクロコンピュータ121は、SDRAM127に一時記憶されたRAWデータを読み出して、メカシャッタによる撮影の場合と同様の画像処理を画像処理部109に実行させる(ステップS100b)。さらに、マイクロコンピュータ121の制御の下、ライブビュー画像が表示されている表示領域の画像をステップS37で取得されてステップS100bで画像処理された画像データに変更してライブビュー画像を更新するように、表示ドライバ133が表示パネル135を制御する(ステップS39)。
ライブビュー画像を更新すると、マイクロコンピュータ121は、動画記録中か否かを判定する(ステップS41)。ここでは、SDRAM127に記憶されている記録中フラグの状態により、判定する。
記録中フラグがオフの場合には、マイクロコンピュータ121は、ステップS25の処理を実行する。一方、記録中フラグがオンの場合には、マイクロコンピュータ121は動画記録中と判断し、動画記録する(ステップS43)。即ち、ステップS39で更新したライブビュー画像の画像データをステップS15で生成した動画ファイルのフレーム画像として記録する。その後、ステップS25の処理を実行する。
ステップS25では、マイクロコンピュータ121は、電源がオフか否かを判定する。電源がオンの場合には、ステップS3の処理を実行する。オフの場合には、マイクロコンピュータ121は必要な終了処理を実行後、カメラ1の処理を終了する。
上述したように動作するカメラ1によれば、図10に示されるように時間の経過に従って移動している被写体を組み画像モードで撮影する場合、図11に示されるように、ライブビュー画像が表示されている表示領域をタッチするだけ、組み画像を構成するコマ画像を容易に取得し、タッチした表示領域に表示されている画像をライブビュー画像から取得したコマ画像に変更することができる。つまり、ライブビュー画像をタッチする操作は、撮影指示に相当する。さらに、ライブビュー画像が表示される領域が自動的に切り替わり、コマ画像が表示されていない他の表示領域(組み画像に組み込む予め取得した画像が設定されている場合には、コマ画像及び予め取得した画像が表示されていない他の表示領域)にライブビュー画像が表示されるため、被写体が動いている場合であってもシャッタチャンスを逃すことなく、素早く次のコマ画像を取得することが可能である。また、表示パネル135に定義された複数の表示領域のうちの1つの表示領域にのみライブビュー画像が表示されているため、ユーザに撮影に集中しやすい環境を提供することができる。
また、カメラ1は、ライブビュー画像とコマ画像とを識別するために、例えば、図12に例示されるように、ライブビュー画像を示すマーク(ここでは、“LV”)をライブビュー画像が表示されている表示領域に表示してもよい。これにより、時間的に変化しない被写体を撮影する場合などライブビュー画像とコマ画像との区別が難しい場合であっても、ライブビュー画像を容易に特定することが可能となる。さらに、コマ画像を表示している表示領域には、コマ画像が取得された順番を示すマーク(ここでは、“1”、“2”、“3”、“4”)を表示してもよい。これにより、表示領域が多数ある場合であっても、ユーザはコマ画像を取得した順番を容易に把握することができる。
また、カメラ1は、ライブビュー画像とコマ画像とを識別するために、例えば、図13に例示されるように、コマ画像をライブビュー画像に比べて暗く表示したり、彩度を下げて表示してもよい。
なお、図11では、タッチ操作によりユーザが撮影を指示する例を示したが、カメラ1は、十字キーとレリーズ釦の操作によっても同様に動作する。
また、図11では、縦横2×2の4つの表示領域が表示パネル135に定義された例を示したが、表示領域のレイアウトはこれに限らない。表示領域のレイアウトは、設定された組み画像のスタイルによって画定されるため、組み画像のスタイルの設定を変更することで、例えば、図14(a)から図14(k)に示すような種々のレイアウトが選択され得る。図14(a)から図14(j)は複数の表示領域が互いに重ならないように配置されているが、図14(k)は各表示領域の一部が他の表示領域と重なって配置されている。図14(k)のレイアウトが用いられる場合には、各表示領域に表示される画像を周辺に向かって徐々に濃度を下げて表示することで、各画像の境界が見えないように工夫されている。
また、図11では、ライブビュー画像が表示パネル135に定義された複数の表示領域のうちの1つの表示領域にのみ表示される例を示したが、カメラ1は、図15に示されるように、コマ画像が表示されている表示領域を除く複数またはすべての表示領域にライブビュー画像を表示してもよい。すべての表示領域にライブビュー画像を表示する場合、ライブビュー画像の表示領域が切り替わる時間を考慮する必要がないため、例えば、指を滑らしながら複数の表示領域を連続的にタッチすることで、複数のコマ画像を取得することができる。このため、従来のカメラにない新たな操作感覚をユーザに提供することができる。
次に、図3から図6を参照しながら、図2に示されるメカシャッタによる撮影または電子シャッタによる撮影後に行われる画像処理について、さらに詳細に説明する。なお、メカシャッタによる撮影後に行われる画像処理の対象は、メカシャッタによる撮影で取得されたRAWデータであり、電子シャッタによる撮影後に行われる画像処理の対象は、電子シャッタによる撮影で取得されたRAWデータである。
画像処理は、図3に示すように、主として、基本画像処理部109aにより行われる基本画像処理と、特殊画像処理部109bにより行われる特殊画像処理と、組み画像処理部109cにより行われる組み画像生成処理とから、構成されている。
マイクロコンピュータ121がSDRAM127に一時記憶されたRAWデータを読み出して、画像処理部109に画像処理を指示すると、まず、基本画像処理部109aが読み出されたRAWデータに対して基本画像処理を実行する(ステップS200)。
基本画像処理部109aが実行する基本画像処理は、図4に示すように、7つの画像処理ステップにより構成されている。最初に、オプティカルブラック(OB)減算を行う(ステップS201)。このステップでは、基本画像処理部109a内のOB演算部が、画像データを構成する各画素の画素値から、撮像素子103の暗電流等に起因するオプティカルブラック値をそれぞれ減算する。
OB減算後、ホワイトバランス(WB)補正を行う(ステップS203)。このステップでは、基本画像処理部109a内のWB補正部が、設定されているホワイトバランスモードに応じて、画像データに対してWB補正を行う。具体的には、ユーザが設定したホワイトバランスモードに応じたRゲインとBゲインをカメラ本体のフラッシュメモリ125から読み出し、画像データにその値を乗じることで補正を行う。またはオートホワイトバランスの場合には、RAWデータからRゲインおよびBゲインを算出し、これらを用いて補正する。
続いて、同時化処理を行う(ステップS205)。このステップでは、ホワイトバランス補正を行った画像データに対して、基本画像処理部109a内の同時化処理部が、各画素のデータ(ベイヤデータ)をRGBデータに変換する。具体的には、その画素にないデータを周辺から補間によって求め、RGBデータに変換する。なお、このステップは、撮像素子103としてFOVEON(フォベオン・インコーポレーテッドの登録商標)形式の撮像素子を用いた場合等、RAWデータにおいて1画素あたり複数のデータを有している場合には省略される。
同時化処理後、色再現処理を行う(ステップS207)。このステップでは、基本画像処理部109a内の色再現処理部が、画像データに対して設定されているホワイトバランスモードに応じたカラーマトリックス係数を乗じる線形変換を行って、画像データの色を補正する。なお、カラーマトリックス係数はフラッシュメモリ125に記憶されているので、読み出して使用する。
色再現処理後、輝度変更処理を行う(ステップS209)。このステップでは、基本画像処理部109a内の輝度変更処理部が、画像データ(RGBデータ)に対してガンマ補正処理を行う。さらに、RGBデータからYCbCrデータに色変換し、変換後の画像データのYデータに対してガンマ補正を行う。なお、ガンマ補正では、フラッシュメモリ125に記憶されているガンマテーブルを読み出して使用する。
輝度変更処理後、エッジ強調を行う(ステップS211)。このステップでは、画像データに対して、基本画像処理部109a内のエッジ強調処理部が、バンドパスフィルタによりエッジ成分を抽出し、エッジ強調度に応じて係数を乗じて画像データに加算することにより、画像データのエッジを強調する。
最後に、NR(ノイズ除去)を行う(ステップS213)。このステップでは、基本画像処理部109a内のNR部が、画像を周波数分解し、周波数に応じてコアリング処理を行うことでノイズを低減する処理を行う。
以上の基本画像処理が完了すると、特殊効果(アートフィルタ)が設定されている場合には、基本画像処理部109aにより処理された画像データに対して、特殊画像処理部109bが特殊画像処理を実行する(図3のステップS101、ステップS300)。
特殊画像処理部109bが実行する特殊画像処理は、図5に示すように、特殊効果の設定に応じて行われる5つの画像処理ステップを中心に構成されている。最初に、簡易画像処理が設定されているか否かを判定する(ステップS301)。このステップでは、特殊画像処理部109bが、SDRAM127に記憶されている簡易処理設定の状態により、判定する。なお、簡易処理設定がオンの場合には、特殊画像処理を終了する。
簡易処理設定がオフの場合には、特殊効果(アートフィルタ)として、トイフォト、ファンタジックフォーカス、ラフモノクローム、ジオラマ、クリスタルが設定されているか否かを順に判定する(ステップS303、ステップS307、ステップS311、ステップS315、ステップS319)。
トイフォトが設定されている場合には、画像データに対してシェーディング付加処理を行う(ステップS305)。このステップでは、特殊画像処理部109bが中心からの距離に応じて徐々に輝度が低下するようなゲインマップ(ゲイン値は1以下)を生成し、画像データに対してそのゲインマップに従って各画素に応じたゲインを乗じることで、周辺にシェーディングを付加する。
ファンタジックフォーカスが設定されている場合には、画像データに対してソフトフォーカス処理を行う(ステップS309)。このステップでは、特殊画像処理部109bが画像全体にぼかし処理を施した画像データを生成し、ぼかす前の画像の画像データとぼかし処理後の画像の画像データとを所定の割合(例えば、3:2など)で合成する。
ラフモノクロームが設定されている場合には、画像データに対してノイズ重畳処理を行う(ステップS313)。このステップでは、特殊画像処理部109bが予め作成したノイズパターンを画像データに加算する。なお、ノイズパターンは乱数等に基づいて生成してもよい。
ジオラマが設定されている場合には、画像データに対してぼかし処理を行う(ステップS317)。このステップでは、特殊画像処理部109bがAFのターゲットを中心に画像の周辺(例えば、上下または左右、または、その両方)を距離に応じて徐々にぼかす。
クリスタルが設定されている場合には、画像データに対してクロスフィルタ処理を行う(ステップS321)。このステップでは、特殊画像処理部109bが画像中の輝点を検出し、その輝点を中心にクロスパターンが描画されるように画像データを加工する。
以上の特殊画像処理が完了すると、撮影モードが組み画像モードであるか否かを組み画像処理部109cが判定する(図3のステップS103)。撮影モードが組み画像モードでない場合には、画像処理を終了する。
撮影モードが組み画像モードである場合には、組み画像処理部109cが、表示パネル135の複数の表示領域に表示されている複数の画像の画像データを用いて、組み画像生成処理を実行する(図3のステップS400)。
組み画像処理部109cが実行する組み画像生成処理は、図6に示すように、5つの画像処理ステップを中心に構成されている。最初に、簡易画像処理が設定されているか否かを判定する(ステップS401)。このステップでは、組み画像処理部109cが、SDRAM127に記憶されている簡易処理設定の状態によって判定する。
簡易処理設定がオフの場合には、画像解析を行う(ステップS403)。このステップでは、組み画像処理部109cが、表示パネル135の表示領域に表示されている複数の画像の画像データの各々が有する色分布と輝度分布を算出する。なお、表示領域に表示されている画像の画像データそのもの(つまり、基本画像処理部109a及び特殊画像処理部109bで処理された画像データ)ではなく、それらの画像データに対応する、画像処理がされる前のRAWデータから色分布と輝度分布を算出してもよい。
画像解析後、組み画像を構成する複数の画像データの画像がほぼ同じ色となるように、色変更処理を行う(ステップS405)。このステップでは、複数の画像データの色差Cb、色差Crのピークがそれらの平均値になるように、組み画像処理部109cが各画像データの色差Cb、色差Crをオフセットして補正する。例えば、画像解析により図16(a)及び図16(d)に示されるような色分布(色差の分布)が算出された場合であれば、図16(b)及び図16(e)に示されるように色差Cb、色差Crの分布をオフセットする。その結果、図16(c)及び図16(f)に示されるように、色変更処理が行われた複数の画像がほぼ同じような色を示すことになる。
なお、色変更処理における色変更の方法は上記の色差Cbと色差Crを変更する方法以外に、例えば、RGB色空間においてRやBにゲインを乗じる等、他の方法でも実現可能である。
さらに、色変更処理後、組み画像を構成する複数の画像データの画像の輝度がほぼ同じになるように、輝度変更処理を行う(ステップS407)。このステップでは、複数の画像データの各々の輝度分布の平均が、複数の画像データ全体の輝度分布の平均になるように、組み画像処理部109cが各画像データを補正する。例えば、画像解析により図17(a)に示されるような輝度Yの分布が得られた場合であれば、図17(b)に示されるように各画像データのRGBデータに対してそれぞれ異なるガンマ変換を行うことにより輝度Yの分布を補正し、図17(c)に示されるように、複数の画像の輝度をほぼ同じにする。なお、輝度成分に対するガンマ変換ではなくRGB色空間でのガンマ変換により輝度を補正する理由は、補正により輝度が大きく変更された場合であっても、画像の色が不自然にならないようにするためである。
なお、輝度変更処理における輝度変更の方法は、上記のガンマ変化を用いる方法以外に、例えば、日陰等の暗部領域のみ輝度を変更したり、明部領域のみ輝度を変更したりする等、他の方法でも実現可能である。
輝度変更処理後、色と輝度が補正された複数の画像データを合成する合成処理を行う(ステップS409)。このステップでは、表示パネル135の複数の表示領域に表示されている複数の画像の画像データを、より詳細には、色変更処理及び輝度変更処理が行われた複数の画像データを、組み画像処理部109cが合成して、それらの複数の画像を表示パネル135に表示されているようにレイアウトした組み画像の画像データを生成する。
最後に、組み画像全体に対して、特殊画像処理部109bがアートフィルタ等で適用可能な効果であるぼかし処理やシェーディング付加などの特殊効果をカメラ設定における仕上がり設定によらず、組み画像のスタイルに応じて付与し(ステップS411)、組み画像生成処理を終了する。
一方、簡易処理設定がオンの場合には、組み画像処理部109cが表示パネル135の複数の表示領域に表示されている複数の画像の画像データそのものを合成して、それらの複数の画像を表示パネル135に表示されているようにレイアウトした組み画像の画像データを生成する(ステップS413)。その後、組み画像生成処理を終了する。以上により、図3の画像処理が終了する。
上述したように動作して組み画像を生成するカメラ1によれば、組み画像を構成する複数のコマ画像の各々が他のコマ画像と比較した結果に基づいて補正される。そして、補正されたコマ画像の画像データを合成することで組み画像の画像データが生成される。このため、コマ画像が個別に画像処理されるだけの従来のカメラに比べて、コマ画像間で色合いや明るさのバランスが取れた、組み画像として良好な画像を得ることができる。なお、図6では、各コマ画像に色変更処理と輝度変更処理を実行する例を示したが、他のコマ画像と比較した結果に基づいて行われる画像処理はこれらに限られず、他の画像処理が実行されてもよい。
次に、図7を参照しながら、図2に示されるメカシャッタ撮影で取得された画像データに対する画像処理後に行われる静止画記録について、さらに詳細に説明する。
図7に示されるように、静止画記録処理が開始されると、まず、マイクロコンピュータ121が、撮影モードが組み画像モードか否かを判定する(ステップS501)。このステップでは、SDRAM127に記憶されている撮影モードの設定により、判定する。
撮影モードが組み画像モードでない場合、マイクロコンピュータ121は、表示ドライバ133を制御して、メカシャッタにより撮影されて画像処理部109で画像処理された画像データの画像1枚を表示パネル135にレックビュー表示する(ステップS515)。その後、メモリI/F129を制御して、表示した画像の画像データを記録媒体131に記録させて(ステップS517)、静止画記録処理を終了する。なお、画像データは、画像圧縮伸張部117でJPEG形式に圧縮されてから記録されてもよく、また、非圧縮で記録されてもよい。さらに、画像処理部109で画像処理される前のRAWデータも記録するようにしてもよい。
一方、撮影モードが組み画像モードである場合には、マイクロコンピュータ121が、組み画像を構成するために撮影した画像であるコマ画像(撮影画像とも記す)を記録する設定となっているか否かを判定する(ステップS503)。記録する設定となっている場合には、マイクロコンピュータ121は、メモリI/F129を制御して、画像処理部109で処理されたコマ画像を記録媒体131に記録させる(ステップS504)。
その後、マイクロコンピュータ121は、組みが完了しているか否か、つまり、組み画像を構成するすべてのコマ画像を撮影済みか否か、を判定する(ステップS505)。なお、組み画像に組み込む予め取得した画像が設定されている場合には、予め取得した画像をのぞくすべてのコマ画像を撮影済みか否かを判定する。このステップは、設定された組み画像のスタイルに応じて決定される枚数のコマ画像がSDRAM127のコマ画像領域に記憶されているかにより判断する。すべてのコマ画像を撮影していない場合には、静止画記録処理を終了する。
すべてのコマ画像を撮影済みの場合には、マイクロコンピュータ121は、表示ドライバ133を制御して、画像処理部109で生成した組み画像を表示パネル135にレックビュー表示させる(ステップS507)。
その後、マイクロコンピュータ121は、一定期間(例えば、3秒など)、キャンセル操作を監視する(ステップS509)。これは、レックビューで表示されている組み画像が所望する画像となっているか否かを判断する時間をユーザに提供するためである。
この一定期間中にキャンセル操作が検出された場合には、指定された画像をキャンセルするために組み画像操作処理を実行し(ステップS600)、静止画記録処理を終了する。キャンセル操作が検出されない場合には、メモリI/F129を制御して、画像処理部109で生成した組み画像の画像データを記録媒体131に記録させて(ステップS511)、静止画記録処理を終了する。
なお、一定期間キャンセル操作を監視するのではなく、記録するかどうか(キャンセルするかどうか)を問い合わせる画面を表示し、ユーザの入力に応じてキャンセルまたは記録を行うようにしても良い。
次に、図8を参照しながら、組み画像操作処理について、さらに詳細に説明する。
図8に示されるように、組み画像操作処理が開始されると、組み画像操作処理が開始される原因となった操作が特定される。具体的には、マイクロコンピュータ121が、撮影コマ変更操作、キャンセル操作、復元操作、一時保存操作、一保存読み込み操作が行われた否かを、順に判定する(ステップS601、ステップS605、ステップS613、ステップS619、ステップS625)。
ステップS601の撮影コマ変更操作が行われたか否かの判定は、例えば、画像が表示されていない表示領域に対するタッチ操作をタッチ入力部124が検出したか否かによって行われる。マイクロコンピュータ121は、画像が表示されていない表示領域に対するタッチ操作を検出すると、図18に例示されるような、撮影コマ変更処理、つまり、ライブビュー画像を表示すべき表示領域を切り替えてタッチされた表示領域にライブビュー画像を表示する処理、を行う(ステップS603)。
ステップS605のキャンセル操作が行われたか否かの判定は、例えば、メカシャッタによる静止画撮影により得られたRAWデータに基づく画像(コマ画像)が表示されている表示領域に対するタッチ操作をタッチ入力部124が検出したか否かによって行われる。そして、コマ画像が表示された表示領域に対するタッチ操作を検出すると、マイクロコンピュータ121は、タッチされたコマ画像(表示領域)のサイズが小さいか否かを判定する(ステップS607)。
コマ画像のサイズが小さいと判定されると、後述するキャンセル処理(ステップS609、ステップS611)を行うことなく、ステップS613の処理を実行する。コマ画像のサイズが小さい場合には、例えば、撮影指示のためにライブビュー画像にタッチしたつもりが誤ってコマ画像にタッチしてしまうなど、意図した表示領域とは異なる表示領域にタッチしてしまいやすい。このため、意図しないキャンセル処理の発生を防止するため、このような判定処理が設けられている。
なお、コマ画像のサイズが小さいか否かは、表示領域の数または組み画像のスタイルによって判定されてもよい。つまり、例えば、分割数(表示領域の数)が多い図14(g)のレイアウトに対応するスタイルが設定されている場合には、コマ画像のサイズは小さいと判定され、それ以外のレイアウトに対応するスタイルが設定されている場合には、コマ画像のサイズは大きいと判定されるように、予め設定されていてもよい。
また、コマ画像のサイズが小さいか否かは、タッチした表示領域の面積が所定の面積よりも小さいか否かによって判定してもよい。この場合、表示領域の数または組み画像のスタイルによって判定する場合と異なり、表示パネル135のサイズが考慮されることになる。このため、コマ画像のサイズが意図しないキャンセル処理が発生し得るようなサイズである場合にのみ、キャンセル処理を回避することができるという点で好適である。
コマ画像のサイズが大きいと判定されると、マイクロコンピュータ121は、タッチされた表示領域に表示されているコマ画像の画像データを退避する回避処理を行う(ステップS609)。具体的には、図19に示されるように、SDRAM127にコマ画像領域とコマ画像退避領域とからなる表示・記憶用組み画像記憶領域が確保されている場合に、図20(a)及び図20(b)に示されるように、例えば、タッチされた表示領域に表示されているコマ画像の画像データを、SDRAM127のコマ画像領域からコマ画像退避領域にコピーして、コマ画像領域に記憶されているコピー元の画像データを削除する処理を行う。または、図21(a)及び図21(b)に示されるように、コマ画像の画像データが参照ポインタを使って管理されている場合であれば、画像データ自体を削除する代わりに画像データのアドレスへの参照ポインタによる参照を削除してもよい。
その後、図22に例示されるような、ライブビュー表示変更処理、つまり、ライブビュー画像を表示すべき表示領域を切り替えてタッチされた表示領域に表示される画像をライブビュー画像に変更する処理、を行う(ステップS611)。
ステップS613の復元操作が行われたか否かの判定は、所定の操作(例えば、ライブビュー画像が表示されている表示領域に対するダブルクリック操作やライブビュー画像が表示された表示領域を選択して行われる削除釦の押下操作など)を操作部123が検出したか否かによって行われる。復元操作が検出されると、マイクロコンピュータ121は、キャンセル操作(ステップS609、ステップS611)によりキャンセルされたコマ画像の画像データを復元する画像復元処理を行う(ステップS615)。具体的には、図20(b)及び図20(c)に示されるように、例えば、SDRAM127の退避領域に退避されたコマ画像の画像データを元のコマ画像領域にコピーして、コマ画像退避領域の画像データを削除する処理を行う。または、図21(b)及び図21(c)に示されるように、コマ画像の画像データが参照ポインタを使って管理されている場合であれば、画像データのアドレスへの参照ポインタによる参照を復元してもよい。
その後、ライブビュー表示変更処理、つまり、ライブビュー画像が表示されている表示領域に復元されたコマ画像を表示してコマ画像が表示されていない領域にライブビュー画像を表示する処理、を行う(ステップS617)。
ステップS619の一時保存操作が行われたか否かの判定は、所定の操作(例えば、一時保存釦の押下操作など)を操作部123が検出したか否かによって行われる。一時保存操作を検出すると、マイクロコンピュータ121は、メモリI/F129を制御して、SDRAM127の組み画像記憶領域に記憶されているコマ画像の画像データと組み画像の画像データを生成するための他のデータ(例えば、設定された組み画像のスタイルに関するデータや、コマ画像の画像データと表示領域との関係を示すデータなど)とを、記録媒体131に記録する(ステップS621)。なお、記録媒体131の代わりにフラッシュメモリ125に記録してもよい。その後、SDRAM127の組み画像記憶領域に記憶されている画像データを削除して表示パネル135の表示状態を更新する組み画像リセット処理を行う(ステップS623)。
ステップS625の一時保存読み込み操作が行われたか否かの判定は、所定の操作(例えば、一時保存読み込み釦の押下など)を操作部123が検出したか否かによって行われる。一時保存読み込み操作を検出すると、マイクロコンピュータ121は、撮影途中であるか否かを判定する(ステップS627)。これは、例えば、SDRAM127の組み画像記憶領域にコマ画像の画像データが記憶されているか否かによって判定する。
撮影途中であると判定されると、マイクロコンピュータ121は、表示ドライバ133を制御して、組み画像記憶領域に記憶されているコマ画像の画像データ等を一時保存するか否かを選択させるための表示を表示パネル135に表示する(ステップS629)。ユーザが一時保存を選択した場合には、メモリI/F129を制御して、組み画像記憶領域に記憶されているコマ画像の画像データ等を記録媒体131に記録する(ステップS631)。なお、記録媒体131の代わりにフラッシュメモリ125に記録してもよい。
その後、マイクロコンピュータ121は、ステップS621で記録したコマ画像の画像データ等を記録媒体131から読み込んで、SDRAM127の組み画像記憶領域に展開する(ステップS633)。SDRAM127の組み画像記憶領域に記憶されたコマ画像の画像データを表示パネル135の表示領域に表示し、さらに、コマ画像が表示されていない表示領域にライブビュー画像を表示する(ステップS635)。以上により、図8の組み画像操作処理が終了する。
上述したように動作するカメラ1によれば、図18に示されるように、ライブビュー画像が表示される表示領域をタッチ操作により容易に変更することができるため、例えば、図23(a)から図23(c)に示されるように、複数の表示領域の各々に対して、任意の順番で撮影したコマ画像を表示させることができる。このため、図24に示されるような撮影の順番に対して表示領域が確定している従来のカメラとは異なり、ユーザが意図した領域に意図した順番で撮影したコマ画像を表示した組み画像を生成することができる。したがって、所望の組み画像の画像データを容易に生成することができる。
なお、図18では、表示パネル135に対するタッチ操作によりライブビュー画像を表示する表示領域を変更する例を示したが、カメラ1は、十字キーなどのキー操作によりライブビュー画像を表示する表示領域を変更してもよい。また、例えば、図15に示されるように、コマ画像が表示される表示領域を除くすべての表示領域にライブビュー画像が設定されている場合には、十字キーにより撮影コマ(つまり、次の撮影によりコマ画像が表示される表示領域)を変更できるようにしてもよい。これにより、レリーズ釦により撮影を指示する場合であっても、タッチ操作により撮影を指示する場合と同様に、ユーザが意図した領域に意図した順番で撮影したコマ画像を表示した組み画像を生成することができる。
また、カメラ1は、図22に示されるように、コマ画像が表示された表示領域にタッチするだけで、そのコマ画像がキャンセルされてライブビュー画像に変更される。このため、気に入らないコマ画像を簡単な操作により容易に取りなおすことができるため、所望の組み画像の画像データを容易に生成することができる。
なお、図22では、コマ画像をキャンセルするためにタッチされた表示領域にライブビュー画像を表示する例を示したが、カメラ1は、タッチされた表示領域に背景画像を表示してもよい。この場合、ライブビュー画像が表示される表示領域を変更することなく、コマ画像をキャンセルすることができる。
また、コマ画像をキャンセルする方法は、図22に示される方法に限られない。カメラ1は、例えば、図25に示されるように、各表示領域に表示されたゴミ箱マークに対するタッチ操作によりコマ画像をキャンセルしてもよい。また、図26に示されるように、ゴミ箱マークは表示パネル135の端に1つだけ表示されていてもよく、その場合には、キャンセルするコマ画像をゴミ箱マークにドラッグする操作によりコマ画像をキャンセルしてもよい。また、図27に示されるように、表示パネル135に対する操作の代わりに、十字キーとゴミ箱釦に対する操作により、十字キーで選択したコマ画像をキャンセルしてもよい。
次に、図9を参照しながら、図2に示される再生処理について、さらに詳細に説明する。
図9に示されるように、再生処理が開始されると、マイクロコンピュータ121は、メモリI/F129を制御して記録媒体131から画像データを読み出して、表示ドライバ133を制御して表示パネル135に記録媒体131に記憶されている画像(静止画と動画)のサムネイルを一覧表示し(ステップS701)、ユーザによる画像選択操作を監視する(ステップS703)。画像選択を検出すると、選択された画像が動画か否かが判定される(ステップS704)。
画像が動画の場合には、マイクロコンピュータ121は、動画ファイルのヘッダからフレーム数を読み込み(ステップS705)、カウンタiの初期化処理後(ステップS707)、動画ファイルのフレーム画像を順次再生して、表示パネル135に表示する(ステップS709、ステップS711、ステップS713)。
一方、画像が静止画の場合には、マイクロコンピュータ121は、選択された画像の画像データを読み込み(ステップS717)、選択された画像を表示パネル135に表示する(ステップS719)。その後、画像再生中にユーザにより行われる各種操作を監視する(ステップS721、ステップS725、ステップS729、ステップS733)。
拡大釦が押下されて拡大操作が検出されると(ステップS721)、マイクロコンピュータ121は、表示パネル135に表示されている画像を拡大して表示する拡大表示処理を行う(ステップS723)。
なお、図28(a)に示されるように、表示されている画像が組み画像である場合には、図28(b)または図28(e)に示されるように、組み画像を構成する特定のコマ画像が表示されている表示領域を大きくすることによりその特定のコマ画像を拡大して表示する。図28(c)及び図28(f)に示されるように、表示パネル135全体に拡大した特定のコマ画像を表示してもよく、その場合、拡大したコマ画像に矢印マークを表示する等して、組み画像を構成する他のコマ画像の存在を示してもよい。図28(d)及び図28(g)に示されるように、表示パネル135の大きさを超えてコマ画像を拡大してもよく、その場合、表示パネル135に表示されているコマ画像が組み画像中に占める範囲を、コマ画像とともに表示してもよい。また、特定のコマ画像を拡大して表示する代わりに、図29(a)及び図29(b)に示されるように、組み画像を構成するすべてのコマ画像を拡大して表示してもよい。
拡大表示中に十字キーなどを用いた表示位置を変更する操作が検出されると(ステップS725)、マイクロコンピュータ121は、拡大位置変更処理を行う(ステップS727)。例えば、組み画像ではない通常の画像が表示されている場合であれば、画像中の拡大表示されている部分を変更する。また、図28(d)及び図28(g)に示されるような組み画像を構成する特定のコマ画像が表示パネル135の大きさを超えて拡大表示されている場合であれば、その特定のコマ画像中の拡大表示されている部分を変更する。
組み画像を拡大表示中にFn釦などの所定の釦を用いた表示すべきコマ画像を変更する操作が検出されると(ステップS729)、マイクロコンピュータ121は、拡大表示するコマ画像を切り替える表示コマ変更処理を行う(ステップS731)。なお、コマ画像を切り替える前に現在表示中のコマ画像の拡大表示状態を記憶する。これにより、現在表示されているコマ画像を再び表示したときに、同じ拡大表示状態、つまり、コマ画像中の拡大表示されている部分が同じ状態、でコマ画像を拡大表示することができる。
その後、静止画像の表示終了が指示されるまで、上述した各種操作の監視が繰り返される(ステップS733)。
静止画像の表示終了が指示されると、再生処理を終了するか否かが判定される(ステップS715)。ここでは、例えば、カメラ1の動作モードの、再生モードから撮影モードへの変更を検出し、判定する。動作モードの変更が検出されない場合には、再びステップS701を実行してサムネイルを一覧表示する。一方、動作モードの撮影モードへの変更が検出された場合には、再生処理を終了する。
なお、図28及び図29では、再生処理中の拡大表示について説明したが、拡大表示は撮影中やレックビュー表示中に行われてよい。例えば、図30に示されるように、組み画像モードでユーザによる拡大操作を検出した場合には、ライブビュー画像を拡大してもよい。このようにライブビュー画像を拡大して表示することで、ユーザに撮影に集中しやすい環境を提供することができる。
また、図9では静止画像に対してのみ拡大表示等を可能にしていたが、動画像に対しても同様に拡大表示、拡大位置変更、表示コマ変更等を行うようにしてもよい。
以上で説明したように、本実施例に係るカメラ1では、ライブビュー画像が表示された表示領域がタッチされることなどによって操作部123が撮影指示を受け付けると、コマ画像が取得され、ライブビュー画像が表示される表示領域が自動的に切り替わる。また、コマ画像が表示された表示領域がタッチされることなどによって操作部123がキャンセル指示を受け付けると、コマ画像がキャンセルされて、撮影のやりなおしのためにライブビュー画像が表示される。また、組み画像の画像データを生成する際に、組み画像を構成する各コマ画像が他のコマ画像との比較結果に基づいて補正されて、良好な組み画像が得られる。このため、本実施例に係るカメラ1によれば、所望の組み画像の画像データを簡単な操作で容易に生成することができる。また、所望の組み画像の画像データを簡単な操作で容易に生成することができるため、組み画像を生成する強いモチベーションをユーザに維持させることができる。
図31は、本実施例に係るカメラの組み画像操作処理を示すフローチャートである。図32は、本実施例に係るカメラの撮影コマ変更処理を示すフローチャートである。図33は、本実施例に係るカメラの撮影コマ変更処理を示す他のフローチャートである。図34は、本実施例に係るカメラの撮影コマ変更操作について説明するための図である。図35は、本実施例に係るカメラの撮影コマ変更操作について説明するための他の図である。以下、図31から図35を参照しながら、本実施例に係るカメラで行われる処理について、実施例1に係るカメラ1で行われる処理との相違点を中心に説明する。なお、本実施例に係るカメラは、図1に例示される実施例1に係るカメラ1と同様の物理構成を有している。
図31に示されるように、本実施例に係るカメラの組み画像操作処理が開始されると、図8に示される実施例1に係るカメラ1の組み画像操作処理と同様に、組み画像操作処理が開始される原因となった操作が特定される。但し、本実施例に係るカメラでは、マイクロコンピュータ121が、撮影コマ変更操作、一時保存操作、一時保存読み込み操作が行われた否かの判定(S641、S619、S625)は行うものの、実施例1に係るカメラ1とは異なり、キャンセル操作、復元操作が行われたか否かの判定は行わない。これは、本実施例に係るカメラでは、キャンセル操作、復元操作の受け付けを行わないとしたことによる。なお、これに伴い、本実施例に係るカメラでは、図7に示されるキャンセル操作が行われたか否かの判定も行わない。
ステップS641の撮影コマ変更操作が行われたか否かの判定は、例えば、画像が表示されていない表示領域に対するタッチ操作に限らず、単に、表示領域に対するタッチ操作をタッチ入力部124が検出したか否かによって行われる。マイクロコンピュータ121は、表示領域に対するタッチ操作を検出すると、撮影コマ変更処理、つまり、ライブビュー画像を表示すべき表示領域を切り替えてタッチされた表示領域にライブビュー画像を表示する処理、を行う(ステップS800)。なお、本実施例に係るカメラにおいて、撮影コマ変更操作は、表示位置変更指示を行うための操作の一例でもある。
以降の処理(S619乃至S635)については、図8に示される実施例1に係るカメラ1の組み画像操作処理と同様となるので、ここでは説明を割愛する。
次に、図32を参照しながら、図31に示される撮影コマ変更処理について、さらに詳細に説明する。
図32に示されるように、撮影コマ変更処理が開始されると、マイクロコンピュータ121は、表示領域に対するタッチ操作が行われたタッチ位置の座標データを取得し(S801)、その座標データに基づいて、タッチ操作が行われた表示領域を特定する(S802)。そして、マイクロコンピュータ121は、特定された表示領域が、コマ画像の表示領域であるか否かを判定する(S803)。
特定された表示領域がコマ画像の表示領域である場合、マイクロコンピュータ121は、そのコマ画像とライブビュー画像とを入れ替えて表示する(S804)。つまり、タッチ操作が行われた表示領域に表示されていたコマ画像と、他の表示領域に表示されていたライブビュー画像とを入れ替えて表示する。これは、例えば、コマ画像の表示範囲を示す座標データと、ライブビュー画像の表示範囲を示す座標データを入れ替えることによって行われる。そして、S804が終了すると、撮影コマ変更処理を終了する。
一方、特定された表示領域がコマ画像の表示領域でない場合、マイクロコンピュータ121は、特定された表示領域がブランク画像の表示領域であるか否かを判定する(S805)。
特定された表示領域がブランク画像の表示領域である場合、マイクロコンピュータ121は、例えば図18に示されるように、そのブランク画像とライブビュー画像とを入れ替えて表示する(S806)。つまり、タッチ操作が行われた表示領域に表示されていたブランク画像と、他の表示領域に表示されていたライブビュー画像とを入れ替えて表示する。これは、例えば、ブランク画像の表示範囲を示す座標データと、ライブビュー画像の表示範囲を示す座標データを入れ替えることによって行われる。なお、ブランク画像は、何も表されていない画像であり、例えば、黒一色の画像や、青一色の画像等である。そして、S806が終了すると、撮影コマ変更処理を終了する。
一方、特定された表示領域がブランク画像の表示領域でない場合、マイクロコンピュータ121は、撮影コマ変更処理を終了する。
このようにして行われる撮影コマ変更処理によれば、ユーザは、ライブビュー画像が表示される表示領域を、タッチ操作により、自由に変更することができる。
なお、図32に示される撮影コマ変更処理では、ライブビュー画像が表示される表示領域の変更がタッチ操作により行われるものであったが、例えば、それが十字釦、OK釦等の操作により行われるようにしてもよい。この場合、ユーザは、十字釦の操作により、ライブビュー画像を表示させる表示領域を選択し、更に、OK釦の操作により、その選択を確定することにより、ライブビュー画像が表示される表示領域を所望の表示領域へ変更することができる。
また、図32に示される撮影コマ変更処理は、例えば、図33に示される撮影コマ変更処理に置き換えることもできる。
図33に示される撮影コマ変更処理は、特定された表示領域がコマ画像の表示領域ではなく且つブランク画像の表示領域でもない場合の処理が、図32に示される撮影コマ変更処理と異なっている。
具体的には、図33に示されるように、特定された表示領域がコマ画像の表示領域ではなく(S803)、且つブランク画像の表示領域でもない場合(S805)、つまり、特定された表示領域がライブビュー画像の表示領域である場合にステップS807に移行する点が図32と異なり、マイクロコンピュータ121は、ライブビュー画像の表示範囲を示す座標データを取得する(S807)。そして、マイクロコンピュータ121は、タッチ入力部124が表示領域に対するタッチ操作を検出したか否か、つまり、表示領域に対するタッチ操作が継続して行われているか否かを判定する(S808)。
タッチ入力部124が表示領域に対するタッチ操作を検出した場合、つまり、表示領域に対するタッチ操作が継続して行われていると判定された場合、マイクロコンピュータ121は、この時のタッチ位置の座標データを取得し(S809)、その座標データと前回に取得されたタッチ位置の座標データとの差に基づいて、タッチ位置に変化が有ったか否かを判定する(S810)。例えば、その差がゼロでなければ、タッチ位置に変化が有ったと判定される。タッチ位置に変化が有った場合、マイクロコンピュータ121は、そのタッチ位置の変化に応じて、ライブビュー画像を移動させて表示する(S811)。例えば、タッチ位置の変化方向へタッチ位置の変化量分だけライブビュー画像を移動させて表示する。そして、処理がS808へ戻る。一方、タッチ入力部124に指はタッチしたままでもタッチ位置に変化が無かった場合、そのまま、処理がS808へ戻る。
一方、タッチ入力部124が表示領域に対するタッチ操作を検出しなかった場合、つまり、タッチ入力部124から指が離されて、表示領域に対するタッチ操作が継続して行われていないと判定された場合、マイクロコンピュータ121は、表示領域に対するタッチ操作が最後に行われたタッチ位置の座標データを取得し(S812)、その座標データに基づいて、最後にタッチ操作が行われた表示領域を特定する(S813)。そして、マイクロコンピュータ121は、特定された表示領域が、コマ画像の表示領域であるか否かを判定する(S814)。
特定された表示領域がコマ画像の表示領域である場合、マイクロコンピュータ121は、そのコマ画像とライブビュー画像とを入れ替えて表示する(S815)。つまり、最後にタッチ操作が行われた表示領域に表示されていたコマ画像と、他の表示領域に表示されていたライブビュー画像とを入れ替えて表示する。そして、これが終了すると、撮影コマ変更処理を終了する。
一方、特定された表示領域がコマ画像の表示領域でない場合、マイクロコンピュータ121は、特定された表示領域がブランク画像の表示領域であるか否かを判定する(S816)。
特定された表示領域がブランク画像の表示領域である場合、マイクロコンピュータ121は、そのブランク画像とライブビュー画像とを入れ替えて表示する(S817)。つまり、最後にタッチ操作が行われた表示領域に表示されていたブランク画像と、他の表示領域に表示されていたライブビュー画像とを入れ替えて表示する。そして、これが終了すると、撮影コマ変更処理を終了する。
一方、特定された表示領域がブランク画像の表示領域でない場合、マイクロコンピュータ121は、撮影コマ変更処理を終了する。
このようにして行われる撮影コマ変更処理によっても、ユーザは、ライブビュー画像が表示される表示領域を、タッチ操作により、自由に変更することができる。例えば、図34(a)乃至図34(d)に示されるように、ユーザは、ライブビュー画像が表示されている左上の表示領域からブランク画像が表示されている右上の表示領域まで指をタッチしたまま移動させることにより、左上の表示領域に表示されていたライブビュー画像と右上の表示領域に表示されていたブランク画像とを入れ替えることができる。つまり、ライブビュー画像が表示される表示領域を左上の表示領域から右上の表示領域へ変更することができる。なお、この場合、指をタッチしたまま移動させている間は、その指の移動に伴ってライブビュー画像が一緒に移動する。また、例えば、図34(a)、図34(e)乃至図34(g)に示されるように、ユーザは、ライブビュー画像が表示されている左上の表示領域から左下の表示領域を経由してブランク画像が表示されている右下の表示領域まで指をタッチしたまま移動させることにより、左上の表示領域に表示されていたライブビュー画像と右下の表示領域に表示されていたブランク画像とを入れ替えることができる。つまり、ライブビュー画像が表示される表示領域を左上の表示領域から右下の表示領域へ変更することができる。なお、この場合も、指をタッチしたまま移動させている間は、その指の移動に伴ってライブビュー画像が一緒に移動する。また、例えば、図34(h)乃至図34(k)に示されるように、ユーザは、ライブビュー画像が表示されている右上の表示領域からコマ画像が表示されている左上の表示領域まで指をタッチしたまま移動させることにより、右上の表示領域に表示されていたライブビュー画像と左上の表示領域に表示されていたコマ画像とを入れ替えることができる。つまり、ライブビュー画像が表示される表示領域を右上の表示領域から左上の表示領域へ変更することができる。なお、この場合も、指をタッチしたまま移動させている間は、その指の移動に伴ってライブビュー画像が一緒に移動する。なお、図34(a)乃至図34(k)(後述の図35(a)乃至図35(k)も同様)において、「LV」と示されている画像はライブビュー画像を示し、灰色の画像はブランク画像を示している。「LV」は、その画像がライブビュー画像であることをユーザに知らせるためのアイコンとして実際に表示されてもいいし、表示されなくてもよい。
なお、図33に示される撮影コマ変更処理では、このように、ユーザがライブビュー画像に指をタッチしたまま指を移動させている間には、その指の移動に伴ってライブビュー画像が一緒に移動するものであったが、この間における処理を、例えば、図35(a)乃至図35(k)に示されるように、変形することもできる。
図35(a)乃至図35(d)に示されるように、ユーザが、ライブビュー画像が表示されている左上の表示領域からブランク画像が表示されている右上の表示領域まで指をタッチしたまま移動させる場合には、タッチされる表示領域が変更された時点で、つまり、タッチされる表示領域が左上の表示領域から右上の表示領域に変更された時点で、タッチされていた左上の表示領域に表示されていたライブビュー画像と、タッチされている右上の表示領域に表示されているブランク画像とが入れ替えられる。従って、この場合は、指をタッチしたまま移動させている間に、図34(a)乃至図34(d)に示されるように指の移動に伴って一緒にライブビュー画像が移動することはない。また、図35(a)、図35(e)乃至図35(g)に示されるように、ユーザが、ライブビュー画像が表示されている左上の表示領域から左下の表示領域を経由してブランク画像が表示されている右下の表示領域まで指をタッチしたまま移動させる場合にも、タッチされる表示領域が変更された時点で、つまり、タッチされる表示領域が左上の表示領域から左下の表示領域に変更された時点で、タッチされていた左上の表示領域に表示されていたライブビュー画像と、タッチされている左下の表示領域に表示されているブランク画像とが入れ替えられ、その後、タッチされる表示領域が左下の表示領域から右下の表示領域に変更された時点で、タッチされていた左下の表示領域に表示されていたライブビュー画像と、タッチされている右下の表示領域に表示されているブランク画像とが入れ替えられる。従って、この場合は、指をタッチしたまま移動させている間に、図34(a)、図34(e)乃至図34(g)に示されるように指の移動に伴って一緒にライブビュー画像が移動することはない。また、図35(h)乃至図35(k)に示されるように、ユーザが、ライブビュー画像が表示されている右上の表示領域からコマ画像が表示されている左上の表示領域まで指をタッチしたまま移動させる場合には、タッチされる表示領域が変更された時点で、つまり、タッチされる表示領域が右上の表示領域から左上の表示領域に変更された時点で、タッチされていた右上の表示領域に表示されていたライブビュー画像と、タッチされている左上の表示領域に表示されているコマ画像とが入れ替えられる。従って、この場合は、指をタッチしたまま移動させている間に、図34(h)乃至図34(k)に示されるように指の移動に伴って一緒にライブビュー画像が移動することはない。
以上、本実施例に係るカメラによれば、組み画像を生成する際に、ライブビュー画像が表示される表示領域をタッチ操作により自由に変更することができるので、所望の組み画像を構成する画像の配置位置を簡単な操作で容易に変更することができる。
なお、以上では、撮像装置としてデジタルカメラを例示して説明したが、上述した技術はカメラ専用機器に限られず、カメラ付携帯電話(スマートフォン)やタブレット型機器、その他携帯機器に適用してもよい。また、上述した実施例は、発明の理解を容易にするために本発明の具体例を示したものであり、本発明はこれらの実施例に限定されるものではない。本発明の撮像装置は、特許請求の範囲に規定された本発明の思想を逸脱しない範囲において、さまざまな変形、変更が可能である。
1 ・・・カメラ
100 ・・・カメラ本体
101 ・・・メカシャッタ
103 ・・・撮像素子
105 ・・・アナログ処理部
107 ・・・A/D変換部
109 ・・・画像処理部
109a ・・・基本画像処理部
109b ・・・特殊画像処理部
109c ・・・組み画像処理部
109d ・・・被写体検出部
110 ・・・バス
111 ・・・AE処理部
113 ・・・AF処理部
117 ・・・画像圧縮伸張部
119 ・・・通信部
121、207・・・マイクロコンピュータ
123 ・・・操作部
124 ・・・タッチ入力部
125、209・・・フラッシュメモリ
127 ・・・SDRAM
129 ・・・メモリI/F
131 ・・・記録媒体
133 ・・・表示ドライバ
135 ・・・表示パネル
200 ・・・交換式レンズ
201 ・・・撮影レンズ
203 ・・・絞り
205 ・・・ドライバ
300 ・・・I/F

Claims (5)

  1. 複数の表示領域を有する表示部と、
    撮影指示を受け付ける第1の受付部と、
    前記表示部の表示領域を指定した表示位置変更指示を受け付ける第2の受付部と、
    被写体を撮像して画像を取得する撮像部と、
    前記第1の受付部が撮影指示を受け付けると、前記複数の表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて前記撮像部により取得された画像に変更し、且つ、前記第2の受付部が前記表示位置変更指示を受け付けると、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更するように、前記表示部を制御する表示制御部と、
    前記複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する画像処理部と、を備える
    ことを特徴とする撮影装置。
  2. 請求項1に記載の撮影装置において、
    前記表示位置変更指示により指定される表示領域は、ブランク画像が表示されている表示領域である
    ことを特徴とする撮影装置。
  3. 請求項1に記載の撮影装置において、
    前記表示位置変更指示により指定される表示領域は、前記撮影指示に応じて前記撮像部により取得された画像が表示されている表示領域であり、
    前記表示制御部は、前記第2の受付部が前記表示位置変更指示を受け付けると、前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更すると共に、当該変更前に前記ライブビュー画像が表示されていた表示領域に表示される画像を前記撮影指示に応じて前記撮像部により取得された画像に変更するように、前記表示部を制御する
    ことを特徴とする撮影装置。
  4. 表示部の少なくとも1つの表示領域にライブビュー画像を表示する工程と、
    撮影指示を受け付ける工程と、
    前記撮影指示に応じて被写体の画像を取得する工程と、
    前記少なくとも1つの表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて取得された画像に変更する工程と、
    前記表示部の表示領域を指定した表示位置変更指示を受け付ける工程と、
    前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更する工程と、
    前記表示部の複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する工程と、
    を備える
    ことを特徴とする画像処理方法。
  5. 複数の表示領域を有する表示部を備えたコンピュータに、
    前記表示部の少なくとも1つの表示領域にライブビュー画像を表示する工程と、
    撮影指示を受け付ける工程と、
    前記撮影指示に応じて被写体の画像を取得する工程と、
    前記少なくとも1つの表示領域のうちの1つの表示領域に表示される画像をライブビュー画像から前記撮影指示に応じて取得された画像に変更する工程と、
    前記表示部の表示領域を指定した表示位置変更指示を受け付ける工程と、
    前記表示位置変更指示により指定された表示領域に表示される画像をライブビュー画像に変更する工程と、
    前記表示部の複数の表示領域に表示されている複数の画像の画像データを合成し、前記複数の画像を前記表示部に表示されているようにレイアウトした組み画像の画像データを生成する工程と、
    を実行させる
    ことを特徴とする画像処理プログラム。
JP2013019174A 2013-02-04 2013-02-04 撮影装置、画像処理方法、及び、画像処理プログラム Pending JP2014150476A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013019174A JP2014150476A (ja) 2013-02-04 2013-02-04 撮影装置、画像処理方法、及び、画像処理プログラム
PCT/JP2014/052065 WO2014119655A1 (ja) 2013-02-04 2014-01-30 撮像装置、画像処理方法、画像処理プログラム、及び、記録媒体
CN201480006213.3A CN104956657B (zh) 2013-02-04 2014-01-30 摄像装置和图像处理方法
EP14746887.0A EP2953345A4 (en) 2013-02-04 2014-01-30 IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM, AND RECORDING MEDIUM
US14/802,505 US9787906B2 (en) 2013-02-04 2015-07-17 Image pickup device, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013019174A JP2014150476A (ja) 2013-02-04 2013-02-04 撮影装置、画像処理方法、及び、画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2014150476A true JP2014150476A (ja) 2014-08-21

Family

ID=51262366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013019174A Pending JP2014150476A (ja) 2013-02-04 2013-02-04 撮影装置、画像処理方法、及び、画像処理プログラム

Country Status (5)

Country Link
US (1) US9787906B2 (ja)
EP (1) EP2953345A4 (ja)
JP (1) JP2014150476A (ja)
CN (1) CN104956657B (ja)
WO (1) WO2014119655A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048831A (ja) * 2014-08-27 2016-04-07 オリンパス株式会社 撮像装置、撮像方法およびプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415061B2 (ja) * 2014-02-19 2018-10-31 キヤノン株式会社 表示制御装置、制御方法及びプログラム
JP2018018372A (ja) * 2016-07-29 2018-02-01 オリンパス株式会社 バーコード読取装置、バーコード読取方法、及びプログラム
JP6957143B2 (ja) * 2016-11-14 2021-11-02 キヤノン株式会社 撮像装置及びその制御方法
JP6991733B2 (ja) * 2017-04-28 2022-01-12 キヤノン株式会社 制御装置、制御方法、及びプログラム
KR101967819B1 (ko) * 2017-11-02 2019-04-10 주식회사 코난테크놀로지 타일 영상 기반 다중 재생을 위한 영상 처리장치 및 그 타일 영상 구성방법
EP3930304A1 (en) * 2020-06-23 2021-12-29 Canon Kabushiki Kaisha Imaging apparatus, method of controlling imaging apparatus and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218446B2 (ja) * 2003-07-03 2009-02-04 株式会社ニコン 電子カメラ
JP4529561B2 (ja) 2004-07-02 2010-08-25 カシオ計算機株式会社 撮像装置、画像合成方法、及び、画像合成プログラム
CN1985266B (zh) * 2004-07-26 2010-05-05 奥普提克斯晶硅有限公司 全景视觉系统和方法
JP2007053616A (ja) 2005-08-18 2007-03-01 Fujifilm Holdings Corp デジタルカメラ
JP4290164B2 (ja) * 2006-01-31 2009-07-01 キヤノン株式会社 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP2008258745A (ja) * 2007-04-02 2008-10-23 Nikon Corp カメラ
JP2010049313A (ja) * 2008-08-19 2010-03-04 Sony Corp 画像処理装置、画像処理方法、プログラム
KR20100070146A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 디스플레이 방법 및 이를 이용한 촬영 장치와 디스플레이 장치
JP5267396B2 (ja) * 2009-09-16 2013-08-21 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5035330B2 (ja) * 2009-12-16 2012-09-26 カシオ計算機株式会社 画像処理装置及びプログラム
JP5715433B2 (ja) * 2011-02-08 2015-05-07 キヤノン株式会社 撮像装置及びアルバム作成方法、プログラム並びに記憶媒体
US20120243802A1 (en) * 2011-03-25 2012-09-27 William Vernon Fintel Composite image formed from an image sequence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048831A (ja) * 2014-08-27 2016-04-07 オリンパス株式会社 撮像装置、撮像方法およびプログラム

Also Published As

Publication number Publication date
EP2953345A4 (en) 2016-11-16
US20150326790A1 (en) 2015-11-12
CN104956657B (zh) 2018-11-16
CN104956657A (zh) 2015-09-30
EP2953345A1 (en) 2015-12-09
WO2014119655A1 (ja) 2014-08-07
US9787906B2 (en) 2017-10-10

Similar Documents

Publication Publication Date Title
US9426372B2 (en) Imaging device and imaging method
JP2014017579A (ja) 撮影装置、画像処理方法、及び、画像処理プログラム
WO2014119655A1 (ja) 撮像装置、画像処理方法、画像処理プログラム、及び、記録媒体
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP6137800B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
US9055219B2 (en) Image editing device and image editing method
JP5186021B2 (ja) 撮像装置、画像処理装置、及び撮像方法
JP2006033241A (ja) 撮像装置、及び画像取得方法
US9147234B2 (en) Image editing device and image editing method
US9013593B2 (en) Image editing device and image editing method
JP2010146378A (ja) 色補正装置、カメラ、色補正方法および色補正用プログラム
US9171358B2 (en) Image editing device and image editing method
JP5951988B2 (ja) 画像合成装置及び画像合成方法
JP5289354B2 (ja) 撮像装置
JP5878063B2 (ja) 撮像装置、撮像方法および撮像プログラム
KR20130092213A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP4968389B2 (ja) 撮影装置及びプログラム
JP6211139B2 (ja) 画像合成装置
JP6218865B2 (ja) 撮像装置および撮像方法
JP5734348B2 (ja) 撮像装置
JP2017184243A (ja) 画像合成装置及び画像合成方法
JP2013219692A (ja) 撮像装置、撮像方法および撮像プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423