JP2014176024A - 撮影装置、画像処理方法、及び、画像処理プログラム - Google Patents

撮影装置、画像処理方法、及び、画像処理プログラム Download PDF

Info

Publication number
JP2014176024A
JP2014176024A JP2013049536A JP2013049536A JP2014176024A JP 2014176024 A JP2014176024 A JP 2014176024A JP 2013049536 A JP2013049536 A JP 2013049536A JP 2013049536 A JP2013049536 A JP 2013049536A JP 2014176024 A JP2014176024 A JP 2014176024A
Authority
JP
Japan
Prior art keywords
image
image data
unit
scenario
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013049536A
Other languages
English (en)
Inventor
Shogo Shimamura
正吾 嶋村
Takeyo Ito
健世 伊藤
Maki Toida
真希 戸井田
Akira Tani
憲 谷
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013049536A priority Critical patent/JP2014176024A/ja
Priority to CN201480011948.5A priority patent/CN105144684B/zh
Priority to EP14765023.8A priority patent/EP2975835B1/en
Priority to PCT/JP2014/052483 priority patent/WO2014141771A1/ja
Publication of JP2014176024A publication Critical patent/JP2014176024A/ja
Priority to US14/824,456 priority patent/US9684988B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00185Image output
    • H04N1/00196Creation of a photo-montage, e.g. photoalbum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】任意の被写体に対して所望の組み画像の画像データを簡単な操作で容易に生成できるように支援する技術を提供する。
【解決手段】撮影装置1は、被写体を撮像して第1の画像データを取得する撮像部2と、第1の画像データを画像処理して第2の画像データを取得する画像処理部4と、第1の画像データ及び第2の画像データの一方又は両方を含む画像データが記憶される第1の記憶部3と、第1の記憶部3に記憶されている画像データの特徴を解析する画像解析部5と、画像解析部5による解析の結果に基づいてシナリオデータを生成するシナリオ生成部6と、シナリオデータに基づいて、第1の記憶部3に記憶されている複数の画像データを合成して組み画像データを生成する組み画像処理部7とを備える。
【選択図】図1

Description

本発明は、複数回の撮影により取得した複数の画像をレイアウトして、一枚の画像としてなる組み画像の画像データを生成する撮影装置、画像処理方法、及び、画像処理プログラムに関する。
デジタルカメラやデジタルビデオカメラなどの撮影装置では、取得した画像がデジタルデータとして記憶または記録されるため、取得した画像を容易に加工することができる。このような特徴を活かした撮影装置の用途のひとつに組み写真がある。組み写真とは、複数回の撮影により取得した複数の写真をレイアウトしてなる合成写真のことである。
より詳しくは、撮影者が異なる場面、異なる視点による立体感を表現する画像、時間の流れに応じた撮影画像、及び、被写体の動きのある撮影画像から、撮影時の感情や想像を表現するために、複数の画像から構成される組み写真を生成する。そして、その組み画像によって撮影時の感情や想像を見る人に伝えようとする。この目的を達するため、組み写真の並び方や並べる順序にはシナリオがあり、そのシナリオは見る人の感情をよびおこす上でもとても重要である。
そのため、例えば、所望の組み写真を得ようとする撮影者は、その組み写真に使用する複数の写真を撮影する際に、その組み写真のシナリオを予め考慮して、そのシナリオに適した写真を撮影する必要がある。
なお、撮影装置として、複数の撮影のパターンでの一連の撮影を容易かつ効率良く実施する撮像装置が知られている(例えば特許文献1参照)。この撮像装置では、特定の撮影対象物について一連のパターン撮影を行うときに、一連のパターン撮影の見本となる複数個のガイド画像を撮像装置の背面表示部に同時に表示する。そして、ユーザの操作に基づいて、一連のパターン撮影に属する一の撮影を行うために、背面表示部に同時に表示された複数個のガイド画像から、任意のガイド画像を選択してライブビュー画像とともに背面表示部に表示させて、一の撮影を行う。そして、このような撮影を順次に行うことによって、一連のパターン撮影を行う。
特開2004−215157号公報
上述のとおり、所望の組み写真に使用する複数の写真を撮影する際に、撮影者は、その組み写真のシナリオを予め考慮し、そのシナリオに適した写真を撮影する必要がある。
しかしながら、例えば、組み写真に不慣れな撮影者にとって、シナリオ自体や、そのシナリオに適する写真とはどのような写真か等を想起することは容易ではない。また、組み写真に使用する複数の写真を取得した後においても、組み写真の構成(配置する写真の形状やレイアウト等)を決定すること等は容易ではない。
そこで、撮影装置においては、シナリオ自体やそのシナリオに適する写真の想起ならびに組み写真の構成の決定など、組み写真の生成を支援することができることが望ましい。
しかしながら、従来において、そのような組み写真の生成を支援する撮影装置は存在しない。例えば、上述の特許文献1に記載されているような撮像装置では、特定の撮影対象物について一連のパターン撮影を行うことはできるものの、任意の被写体に対して上述のような組み写真の生成を支援することはできない。
なお、上述した技術的な課題は、写真(つまり、静止画像)でのみ生じるものではなく、動画像であっても生じ得る。つまり、静止画像、動画像を問わず、画像全般で生じ得る。
以上のような実情を踏まえ、本発明は、任意の被写体に対して所望の組み画像の画像データを簡単な操作で容易に生成できるように支援する技術を提供することを目的とする。
本発明の第1の態様は、複数の画像データを合成して組み画像データを生成する撮影装置であって、被写体を撮像して第1の画像データを取得する撮像部と、前記第1の画像データを画像処理して第2の画像データを取得する画像処理部と、前記第1の画像データ及び前記第2の画像データの一方又は両方を含む画像データが記憶される第1の記憶部と、前記第1の記憶部に記憶されている画像データの特徴を解析する画像解析部と、前記画像解析部による解析の結果に基づいてシナリオデータを生成するシナリオ生成部と、前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する組み画像処理部と、を備える撮影装置を提供する。
本発明の第2の態様は、第1の態様に記載の撮影装置において、前記シナリオデータは、組み画像の分割数、分割形状、合成される画像の配置情報を含む撮影装置を提供する。
本発明の第3の態様は、第1又は2の態様に記載の撮影装置において、前記画像解析部により特徴が解析される画像データは、ライブビュー画像の画像データである撮影装置を提供する。
本発明の第4の態様は、第1乃至第3の態様のいずれか1つに記載の撮影装置において、前記組み画像処理部により合成される複数の画像データは、ライブビュー画像の画像データを含む撮影装置を提供する。
本発明の第5の態様は、第1乃至第4の態様のいずれか1つに記載の撮影装置において、さらに、画像データを表示する表示部を備え、前記表示部は、前記組み画像処理部により生成された組み画像データを表示する撮影装置を提供する。
本発明の第6の態様は、第1乃至第5の態様のいずれか1つに記載の撮影装置において、画像データが記憶される第2の記憶部を更に備え、前記組み画像処理部により生成された組み画像データが前記第2の記憶部に記憶される撮影装置を提供する。
本発明の第7の態様は、第1乃至第6の態様のいずれか1つに記載の撮影装置において、シナリオ変更指示を受け付ける受付部を更に備え、前記シナリオ生成部は、前記受付部により受け付けられたシナリオ変更指示と、前記画像解析部による解析の結果とに基づいて、シナリオデータを生成する撮影装置を提供する。
本発明の第8の態様は、第7の態様に記載の撮影装置において、前記画像解析部の解析の結果の特徴は、主要被写体の数、主要被写体が風景、主要被写体が縦長、主要被写体が移動体、主要被写体が人物であってその表情、主要被写体の像倍率である撮影装置を提供する。
本発明の第9の態様は、第1乃至第8の態様のいずれか1つに記載の撮影装置において、前記第2の記憶部に記憶されている画像データが読み出されて、前記第1の記憶部に記憶される撮影装置を提供する。
本発明の第10の態様は、被写体を撮像して第1の画像データを取得する工程と、前記第1の画像データを第1の記憶部に記憶する工程と、前記第1の画像データを画像処理して第2の画像データを取得する工程と、前記第2の画像データを第1の記憶部に記憶する工程と、前記第1の記憶部に記憶されている画像データの特徴を解析する工程と、前記解析の結果に基づいてシナリオデータを生成する工程と、前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する工程と、を備える画像処理方法を提供する。
本発明の第11の態様は、コンピュータに、被写体を撮像して第1の画像データを取得する工程と、前記第1の画像データを第1の記憶部に記憶する工程と、前記第1の画像データを画像処理して第2の画像データを取得する工程と、前記第2の画像データを第1の記憶部に記憶する工程と、前記第1の記憶部に記憶されている画像データの特徴を解析する工程と、前記解析の結果に基づいてシナリオデータを生成する工程と、前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する工程と、を実行させる画像処理プログラムを提供する。
本発明によれば、任意の被写体に対して所望の組み画像の画像データを簡単な操作で容易に生成できるように支援する技術を提供することができる。
本発明の実施例1に係る撮影装置の構成例を示す図である。 本発明の実施例2に係るカメラの主として電気系の全体構成を示すブロック図である。 本発明の実施例2に係るカメラの処理全体を示すフローチャートである。 本発明の実施例2に係るカメラの画像処理を示すフローチャートである。 本発明の実施例2に係るカメラの基本画像処理を示すフローチャートである。 本発明の実施例2に係るカメラの特殊画像処理を示すフローチャートである。 本発明の実施例2に係るカメラの組み画像生成処理を示すフローチャートである。 本発明の実施例2に係るカメラの静止画像記録処理を示すフローチャートである。 本発明の実施例2に係るカメラの組み画像操作処理を示すフローチャートである。 本発明の実施例2に係るカメラのシナリオ設定処理を示すフローチャートである。 本発明の実施例2に係るカメラの組み画像処理部で行われる色変更処理について説明するためのさらに他の図である。 本発明の実施例2に係るカメラの組み画像処理部で行われる輝度変更処理について説明するためのさらに他の図である。 本発明の実施例2に係るカメラに設定されるシナリオ(分割数、分割形状)によって実現される組み画像を説明するための図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。 本発明の実施例2に係るカメラに設定されるシナリオによって表示パネルに表示される組み画像を説明するための更に他の図である。
以下、図面を参照しながら、本発明の各実施例について説明する。なお、本明細書において、ライブビュー画像とは、レリーズ操作などによるカメラ(撮影装置の一例)のユーザからの明示的な撮影指示に応じて取得される画像と異なり、カメラのライブビュー機能により随時取得される画像のことである。
図1は、本実施例に係る撮影装置の構成例を示す図である。
図1に示される撮影装置1は、複数の画像データを合成して組み画像データを生成する機能を有し、図1に示されるように、撮像部2、第1の記憶部3、画像処理部4、画像解析部5、シナリオ生成部6、組み画像処理部7、表示部8、第2の記憶部9、受付部10を含む。
撮像部2は、被写体を撮像して第1の画像データを取得する。第1の記憶部3は、第1の画像データ及び後述の第2の画像データの一方又は両方を含む画像データが記憶される。画像処理部4は、第1の画像データを画像処理して第2の画像データを取得する。画像解析部5は、第1の記憶部3に記憶されている画像データの特徴を解析する。シナリオ生成部6は、画像解析部5による解析の結果に基づいて、シナリオデータ(以下単にシナリオともいう)を生成する。組み画像処理部7は、シナリオデータに基づいて、第1の記憶部3に記憶されている複数の画像データを合成して組み画像データを生成する。表示部8は、画像データを表示する。第2の記憶部9は、画像データが記憶される。受付部10は、指示を受け付ける。
このような構成の撮影装置1において、シナリオデータは、例えば、組み画像の分割数、分割形状、合成される画像の配置情報を含む。また、画像解析部5により特徴が解析される画像データは、例えば、ライブビュー画像の画像データである。また、組み画像処理部7により合成される複数の画像データは、例えば、撮像部2において被写界を繰り返し連続的に撮像して得たライブビュー画像の画像データを含む。また、表示部8は、例えば、組み画像処理部7により生成された組み画像データを表示する。また、第2の記憶部9は、例えば、組み画像処理部7により生成された組み画像データが記憶される。また、例えば、受付部10がシナリオ変更指示を受け付けると、シナリオ生成部6は、そのシナリオ変更指示と、画像解析部5による解析の結果とに基づいて、シナリオデータを生成する。また、第2の記憶部9に記憶されている画像データが読み出されて、第1の記憶部3に記憶される。また、第2の記憶部9は、第1の画像データ、第2の画像データ等も記憶される。
また、このような構成の撮影装置1では、例えば、次の画像処理方法が実施される。
被写体を撮像して第1の画像データを取得する工程と、第1の画像データを第1の記憶部3に記憶する工程と、第1の画像データを画像処理して第2の画像データを取得する工程と、第2の画像データを第1の記憶部3に記憶する工程と、第1の記憶部3に記憶されている画像データの特徴を解析する工程と、その解析の結果に基づいてシナリオデータを生成する工程と、そのシナリオデータに基づいて、第1の記憶部3に記憶されている複数の画像データを合成して組み画像データを生成する工程とを備える画像処理方法が実施される。
また、このような構成の撮影装置1のコンピュータでは、例えば、次の画像処理プログラムが実行される。
そのコンピュータに、被写体を撮像して第1の画像データを取得する工程と、第1の画像データを第1の記憶部3に記憶する工程と、第1の画像データを画像処理して第2の画像データを取得する工程と、第2の画像データを第1の記憶部3に記憶する工程と、第1の記憶部3に記憶されている画像データの特徴を解析する工程と、その解析の結果に基づいてシナリオデータを生成する工程と、そのシナリオデータに基づいて、第1の記憶部3に記憶されている複数の画像データを合成して組み画像データを生成する工程とを実行させる画像処理プログラムが実行される。
以上で説明したように、本実施例によれば、撮影装置1、撮影装置1で実施される画像処理方法、又は、撮影装置1で実行される画像処理プログラムによって、画像(例えばライブビュー画像)の特徴に基づいてシナリオが生成され、そのシナリオに基づいて組み画像が生成されるようになるので、任意の被写体に対して所望の組み画像を簡単な操作で容易に生成できるように支援することができる。
図2は、本実施例に係るカメラの主として電気系の全体構成を示すブロック図である。図2に例示されるカメラ11は、取得した画像をデジタルデータとして記憶または記録する撮影装置である。カメラ11のユーザは、表示部である表示パネル135に表示されるライブビュー画像を観察しながら、操作部123を用いたレリーズ操作により画像の取得を指示することができる。なお、カメラ11は、静止画像(つまり、写真)と動画像を取得する機能に加えて、複数の静止画像または動画像をレイアウトしてなる組画像を取得する機能も備えている。
まず、図2を参照しながら、カメラ11の構成について説明する。カメラ11は、カメラ本体100と、カメラ本体100に脱着可能な、撮影レンズ201を含む交換式レンズ200とを備えている。なお、本実施例では、撮影レンズを交換可能なカメラの構成を例示したが、撮影レンズはカメラ本体に固定されてもよい。
交換式レンズ200は、撮影レンズ201と、絞り203と、ドライバ205と、マイクロコンピュータ207と、フラッシュメモリ209とを備えている。また、カメラ本体100と交換式レンズ200とは、インターフェース(以降、I/Fと記す)300を介して接続されている。
撮影レンズ201は、被写体像を形成するための単数または複数の光学レンズから構成され、単焦点レンズまたはズームレンズである。撮影レンズ201の光軸の後方には、絞り203が配置されている。絞り203は口径が可変であり、撮影レンズ201を通過する被写体光束の光量を制限する。また、撮影レンズ201はドライバ205によって光軸方向に移動可能である。マイクロコンピュータ207からの制御信号に基づいて、撮影レンズ201のピント位置が制御され、撮影レンズ201がズームレンズである場合には、撮影レンズ201の焦点距離も制御される。また、ドライバ205は、絞り203の口径の制御も行う。
ドライバ205に接続されたマイクロコンピュータ207は、I/F300およびフラッシュメモリ209に接続されている。マイクロコンピュータ207は、フラッシュメモリ209に記憶されているプログラムに従って動作する。プログラムに従って動作したマイクロコンピュータ207は、後述するカメラ本体100内のマイクロコンピュータ121と通信して、マイクロコンピュータ121からの制御信号に基づいて交換式レンズ200の制御を行う。
フラッシュメモリ209には、前述したプログラムの他に、交換式レンズ200の光学的特性や調整値等の種々の情報が記憶されている。I/F300は、交換式レンズ200内のマイクロコンピュータ207とカメラ本体100内のマイクロコンピュータ121の相互間の通信を行うためのインターフェースである。
カメラ本体100内であって、撮影レンズ201の光軸上には、メカシャッタ101が配置されている。メカシャッタ101は、被写体光束を遮断することで後述する撮像素子103への被写体光束の照射時間を制御するものであり、例えば、公知のフォーカルプレーンシャッタ等が採用され得る。メカシャッタ101の後方であって、撮影レンズ201によって被写体像が形成される位置には、撮像素子103が配置されている。
撮像素子103には、各画素を構成するフォトダイオードが二次元的にマトリックス状に配置されている。各フォトダイオードは受光量に応じた光電変換電流を発生させ、この光電変換電流は各フォトダイオードに接続するキャパシタによって電荷蓄積される。各画素の前面には、ベイヤ配列のRGBフィルタが配置されている。なお、撮像素子103の構成はベイヤ配列に並べられたRGBフィルタを含む構成に限定されず、例えばFOVEON(フォベオン・インコーポレーテッドの登録商標)のような素子の厚さ方向に複数のセンサを配列した構成であってもよい。
撮像素子103はアナログ処理部105に接続されている。アナログ処理部105は、撮像素子103から読み出した光電変換信号(以降、アナログ画像信号と記す)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに適切な輝度になるようにゲインアップを行う。アナログ処理部105は、A/D変換部107に接続されている。A/D変換部107は、アナログ画像信号をアナログ−デジタル変換して、得られたデジタル画像信号(以降、画像データと記す)をバス110に出力してSDRAM127に記憶させる。即ち、カメラ11では、撮像素子103、アナログ処理部105、A/D変換部107が全体として、被写体を撮像してその画像を取得する撮像部として機能する。なお、本明細書においては、画像処理部109で画像処理される前の生の画像データをRAWデータと記す。
撮像素子103は電子シャッタを内蔵しており、動画撮像時やライブビュー撮像時のように繰り返し撮像する際には、メカシャッタ101を開放にしたままで内蔵の電子シャッタを使用し撮像する。
バス110は、カメラ本体100の内部で読み出され若しくは生成された各種データをカメラ本体100の内部に転送するための転送路である。バス110には、前述のA/D変換部107の他、画像処理部109、AE(Auto Exposure)処理部111、AF(Auto Focus)処理部113、画像圧縮展開部117、通信部119、マイクロコンピュータ121、SDRAM(Synchronous DRAM)127、メモリインターフェース(以降、メモリI/Fという)129、表示ドライバ133、オーディオ部137が接続されている。
画像処理部109は、基本的な画像処理を行う基本画像処理部109aと、アートフィルタ等の特殊効果を適用するモードが設定された場合に特殊効果を施すための特殊画像処理部109bと、組み画像の画像データを生成する組み画像処理部109cと、画像データをパターンマッチング処理等により解析して被写体を検出する被写体検出部109dと、を有している。画像処理部109は、SDRAM127に一時記憶された画像データを読出し、この画像データに対して画像処理を施す。
基本画像処理部109aは、RAWデータに対して、オプティカルブラック(OB)減算処理、ホワイトバランス(WB)補正、ベイヤデータの場合に行われる同時化処理、色再現処理、ガンマ補正処理、輝度変更処理、エッジ強調処理、ノイズリダクション(NR)処理等を行う。
特殊画像処理部109bは、基本画像処理部109aで処理された画像データに対して、設定された特殊効果(アートフィルタ)等に応じて、種々の視覚的な特殊効果を付与する特殊画像処理を行う。例えば、トイフォトが設定されている場合には、シェーディングを付加する処理を行う。また、ファンタジックフォーカス、ラフモノクローム、ジオラマ、クリスタルが設定されている場合には、それぞれ、ソフトフォーカス処理、ノイズ重畳処理、ぼかし処理、クロスフィルタ処理を行う。
組み画像処理部109cは、設定された組み画像のシナリオに基づいて、複数の画像データを合成して、複数の画像データに対応する複数の画像が所定の配置にレイアウトされた画像である組み画像の画像データを生成する。合成される複数の画像データは、画像処理部109で処理される前の生の画像データ(RAWデータ)、基本画像処理部109aで処理された画像データ、及び、特殊効果が設定されている場合には基本画像処理部109a及び特殊画像処理部109bで処理された画像データの何れかを含む。但し、組み画像処理部109cは、画像データを合成する処理を実行する前に、組み画像を構成する各画像を補正する。具体的には、複数の画像データを解析して、画像間の色分布の相違や輝度平均の相違などを算出する。そして、算出された情報に基づいて、組み画像が最適な状態となるように、組み画像を構成する各画像の色や輝度を補正する。画像を補正して画像間の調整処理を行うことで、組み画像としてより良好な画像を得ることができる。なお、以降では、基本画像処理部109aのみで処理された画像データ、または、基本画像処理部109a及び特殊画像処理部109bで処理された画像データに係る画像をコマ画像とも記す。
被写体検出部109dは、パターンマッチング技術等を用いた画像解析により、所定の被写体、例えば、人の顔やペットなどの動物を検出する処理を行う。さらに、検出した被写体の種類、大きさ、位置、特徴的な配色などを算出する処理を行ってもよい。これらの検出結果は、例えば、撮影モードの切り換え、オートフォーカス、被写体像を一定の大きさに撮像するオートズーム、組み画像のシナリオの生成、似た配色やトーン(色の調子、明度、濃淡、彩度方向のバランス)の画像抽出、検索などに利用され得る。
AE処理部111は、バス110を介して入力された画像データに基づいて被写体輝度を測定し、測定した被写体輝度情報を、バス110を介してマイクロコンピュータ121に出力する。なお、ここでは、AE処理部111により画像データに基づいて被写体輝度を算出する構成が採用されているが、カメラ11は、被写体輝度の測定のために専用の測光センサを設けることにより、同様の機能を実現してもよい。
AF処理部113は、画像データから高周波成分の信号を抽出し、積算処理により合焦評価値を取得する。AF処理部113は、取得した合焦標価値をバス110を介してマイクロコンピュータ121に出力する。すなわち、カメラ11は、いわゆるコントラスト法によって撮影レンズ201のピント合わせを行う。
画像圧縮展開部117は、画像データをメモリI/F129に接続された記録媒体131へ記録するときに、SDRAM127から読み出した画像データを、静止画の場合にはJPEG圧縮方式等、また動画の場合にはMPEG等の各種圧縮方式に従って、圧縮する。マイクロコンピュータ121は、JPEG画像データやMPEG画像データに対して、JPEGファイルやMPOファイル、MPEGファイルを構成するために必要なヘッダを付加して、JPEGファイルやMPOファイル、MPEGファイルを作成する。マイクロコンピュータ121は、作成したファイルを、メモリI/F129を介して記録媒体131に記録する。
また、画像圧縮展開部117は、画像再生表示用にJPEG画像データやMPEG画像データの伸張も行う。伸張にあたっては、記録媒体131に記録されているファイルを読み出し、画像圧縮展開部117において伸張処理を施した上で、伸張した画像データをSDRAM127に一時記憶する。なお、本実施例では、画像圧縮方式としては、JPEG圧縮方式やMPEG圧縮方式を採用する例を示したが、圧縮方式はこれに限らずTIFF、H.264等、他の圧縮方式でもよい。
通信部119は、後述するフラッシュメモリ125内に記憶されているテンプレートの更新や追加のために、外部機器と通信する。通信部119は、有線LANや無線LANによって外部機器と接続されてもよく、その他、USBケーブルなどによって外部機器と接続されてもよい。
マイクロコンピュータ121は、カメラ11全体の制御部としての機能を果たし、カメラの各種シーケンスを総括的に制御する。例えば、マイクロコンピュータ121の制御によって、組み画像のシナリオの生成、変更等が行われる。マイクロコンピュータ121には、前述のI/F300以外に、操作部123およびフラッシュメモリ125が接続されている。
操作部123は、電源釦、レリーズ釦、動画釦、再生釦、メニュー釦、十字釦、OK釦、モードダイヤル等、各種入力釦や各種入力キー等の操作部材を含み、これらの操作部材の操作状態を検知し、検知結果をマイクロコンピュータ121に出力する。マイクロコンピュータ121は、操作部123からの操作部材の検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。つまり、カメラ11では、操作部123は、ユーザからの種々の指示(例えば、撮影指示、シナリオ変更指示、再生指示など)を受け付ける受付部として機能する。
電源釦は、カメラ11の電源のオン/オフを指示するための操作部材である。電源釦が押されるとカメラ11の電源はオンとなり、再度、電源釦が押されるとカメラ11の電源はオフとなる。
レリーズ釦は、半押しでオンになるファーストレリーズスイッチと、半押しから更に押し込み全押しとなるとオンになるセカンドレリーズスイッチにつながっている。マイクロコンピュータ121は、ファーストレリーズスイッチがオンとなると、AE動作やAF動作等の撮影準備シーケンスを実行する。また、セカンドレリーズスイッチがオンとなると、メカシャッタ101等を制御し、撮像素子103等から被写体画像に基づく画像データを取得し、この画像データを記録媒体131に記録する一連の撮影シーケンスを実行して撮影を行う。
再生釦は、再生モードの設定と解除するための操作釦であり、再生モードが設定されると、記録媒体131から撮影した画像の画像データを読み出し、表示パネル135に画像を再生表示する。
メニュー釦は、メニュー画面を表示パネル135に表示させるための操作釦である。メニュー画面上では、各種のカメラ設定を行うことができる。カメラ設定としては、特殊効果(アートフィルタ)の設定がある。特殊効果としては、ファンタジックフォーカス、ポップ、アート、トイフォト、ラフモノクローム、ジオラマ等、種々の特殊効果が設定可能である。その他にも、組み画像の設定もメニュー画面上で行うことができる。組み画像の設定としては、例えば、組み画像のシナリオの設定がある。組み画像のシナリオの設定では、組み画像の分割数、分割形状、合成される画像の配置などの設定が可能である。また、旅行、運動会等といった撮影シーンを指定することで、その撮影シーンに適したシナリオ(組み画像の分割数、分割形状、合成される画像の配置等)を自動設定することも可能である。さらに、複数のテンプレートの中の一つを指定することで、そのテンプレートに応じたシナリオを自動設定することも可能である。なお、各テンプレートでは、組み画像の分割数、分割形状、合成される画像の配置等が規定されている。また、組み画像のシナリオの設定では、ユーザにより設定されたシナリオを優先とするか否かを設定することもできる。この設定では、ユーザにより設定されたシナリオを優先とする設定が行われた場合には、原則として、そのシナリオが変更されることなく、そのシナリオに従って組み写真の生成が行われる。一方、ユーザにより設定されたシナリオを優先とする設定が行われなかった場合には、画像(例えばライブビュー画像)の解析結果に応じて、そのシナリオが、カメラ11が推奨する最適なシナリオへ変更され得る。但し、いずれの場合であっても、詳しくは後述するように、ユーザがシナリオ変更指示を行うことによってシナリオを変更することができる。なお、組み画像のシナリオの設定が行われなかった場合には、画像(例えばライブビュー画像)の解析結果に応じて、カメラ11が推奨する最適なシナリオが自動設定される。
モードダイヤルは、撮影モードを選択するためのダイヤルである。カメラ11では、モードダイヤルを操作することで、動作モードが、通常の撮影を行う通常モードと組み画像の撮影を行う組み画像モードとの間で切り替わる。通常モードと組み画像モードの切り替えは、メニュー画面等から行うようにしてもよい
操作部123は、さらに、タッチ入力部124を備えている。タッチ入力部124は、例えば、表示パネル135に重ねて配置されたタッチパネルセンサである。タッチ入力部124は、ユーザによる表示パネル135に対するタッチ操作を検出し、検知結果をマイクロコンピュータ121に出力する。マイクロコンピュータ121は、操作部123からのタッチ入力部124の検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。
なお、操作部123は、上述した各種釦を表示パネル135上に備えてもよい。すなわち、カメラ11の表面に物理的に釦を設ける代わりに、表示パネル135に釦を表示してタッチ入力部124で表示パネル135に表示された釦に対する操作を検出してもよい。なお、レリーズ釦を表示パネル135に表示する代わりに、表示パネル135をレリーズ釦として機能させてもよい。その場合、表示パネル135にタッチしたときをレリーズ釦が半押された状態とし、所定時間(例えば1秒)以上タッチされ続けたときをレリーズ釦が全押しとした状態のみなしても良いし、タッチしたときをレリーズ釦が半押しされた状態と全押しした状態とみなしても良い。
フラッシュメモリ125は、マイクロコンピュータ121の各種シーケンスを実行するためのプログラムを記憶している。マイクロコンピュータ121はフラッシュメモリ125に記憶されたプログラムに基づいてカメラ全体の制御を行う。また、フラッシュメモリ125は、カラーマトリックス係数、ホワイトバランスモードに応じたRゲインとBゲイン、ガンマテーブル、露出条件決定テーブル等の種々の調整値を記憶している。さらに、フラッシュメモリ125は、組み画像のシナリオ、つまり、組み画像を構成する画像をどのようにレイアウトするかに関する情報(組み画像の分割数、分割形状、合成される画像の配置等に関する情報)等を、テンプレートとして記憶すると共に、撮影シーン(旅行、運動会等)と関連付けて記憶している。
SDRAM127は、画像データ等の一時記憶用の、電気的書き換え可能な揮発性メモリである。このSDRAM127は、A/D変換部107から出力された画像データや、画像処理部109や画像圧縮展開部117等において処理された画像データを一時記憶する。
メモリI/F129は、記録媒体131に接続されている。メモリI/F129は、画像データや画像データに添付されたヘッダ等のデータを、記録媒体131に対して書き込みおよび読み出しする制御を行う。記録媒体131は、例えば、カメラ本体100に着脱自在なメモリカード等の記録媒体であるが、これに限らず、カメラ本体100に内蔵された不揮発性メモリやハードディスク等であっても良い。
表示ドライバ133は、表示パネル135に接続されている。表示ドライバ133は、SDRAM127や記録媒体131から読み出されて、画像圧縮展開部117によって伸張された画像データに基づいて、画像を表示パネル135に表示させる。表示パネル135は、例えば、カメラ本体100の背面に設けられた液晶ディスプレイ(LCD)であり、画像表示を行う。画像表示としては、撮影直後、記録される画像データを短時間だけ表示するレックビュー表示、記録媒体131に記録された静止画や動画の画像ファイルの再生表示、およびライブビュー表示等の動画表示が含まれる。なお、表示パネル135は、LCDの他に有機ELなどであってもよく、さらに他の表示パネルが採用されてもよい。また、表示パネル135は、撮影モードが組み画像モードの場合には、画像を表示するための複数の領域(以降、表示領域と記す。)が表示パネル135に定義される。なお、複数の表示領域のレイアウトは、組み画像のシナリオによって画定される。
オーディオ部137は、SP(スピーカー)139およびMIC(マイクロフォン)141に接続されている。オーディオ部137は、入力されたデジタルデータである音声情報をアナログ信号に変換し、SP139を鳴らす。また、オーディオ部137は、MIC141により検出された音声をデジタルデータに変換し、音声情報としてバス110へ出力する。オーディオ部137は、バス110を介して、マイクロコンピュータ121との間でデジタルデータの送受信を行う。なお、SP139は、記録されている音声情報を再生する際に使用される。また、MIC141は、カメラ11の周囲の音声を検出し、記録もしくは環境の判断に使用される。
このような構成のカメラ11において、例えば、撮像素子103、アナログ処理部105、A/D変換部107は、図1に示した撮像部2に対応する。また、例えば、基本画像処理部109a、又は、基本画像処理部109a及び特殊画像処理部109bは、図1に示した画像処理部4に対応する。また、例えば、SDRAM127は、図1に示した第1の記憶部3に対応する。また、例えば、被写体検出部109dは、図1に示した画像解析部5に対応する。また、例えば、マイクロコンピュータ121は、図1に示したシナリオ生成部6に対応する。また、例えば、組み画像処理部109cは、図1に示した組み画像処理部7に対応する。また、例えば、表示パネル135は、図1に示した表示部8に対応する。また、例えば、記録媒体131は、図1に示した第2の記憶部9に対応する。また、例えば、操作部123は、図1に示した受付部10に対応する。
次に、図3から図10を参照しながら、以上のように構成されたカメラ11で行われる処理について説明する。なお、図3から図10のフローチャートが示すカメラ11の処理は、フラッシュメモリ125に記憶されているプログラムをマイクロコンピュータ121が実行することにより行われる。はじめに、図3に示されるカメラの処理全体の流れについて説明する。
操作部123の内の電源釦が操作されてカメラ11の電源がオンになり、図3に示すカメラ11の処理が開始されると、マイクロコンピュータ121は、カメラ11を初期化する(ステップS1)。ここでは、機械的初期化と各種フラグ等の初期化等の電気的初期化が行われる。初期化対象のフラグとしては、例えば、動画を記録中か否かを示す記録中フラグなどがあり、初期化により記録中フラグはオフに設定される。
初期化が完了すると、次に、マイクロコンピュータ121は、再生釦が押されたか否かを判定する(ステップS3)。ここでは、操作部123内の再生釦の操作状態を検知し、判定する。また、再生釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。再生釦が押下されると、マイクロコンピュータ121は動作モードを再生モードに設定して、再生処理を実行する(ステップS4)。再生処理が完了すると、再びステップS3の処理を実行する。なお、再生処理の詳細な説明については割愛するが、例えば、ユーザの指示に応じて、記録媒体131に記憶されている画像を表示パネル135に表示する等の処理が行われる。
ステップS3で再生釦が押下されていないと判定されると、マイクロコンピュータ121はメニュー釦が押下されたか否か、すなわち、メニュー画面が表示されてカメラ設定が行われる状態になったか否かを判定する(ステップS5)。ここでは、操作部123内のメニュー釦の操作状態を検知し、判定する。メニュー釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。
メニュー釦が押下されると、マイクロコンピュータ121は、操作部123に対するさらなる操作を検出して、検出結果に従ってカメラ設定を変更する(ステップS7)。カメラ設定処理が完了すると、再びステップS3の処理を実行する。
なお、カメラ設定としては、例えば、撮影モード設定、記録モード設定、画像の仕上がり設定、組み画像のシナリオの設定、組み画像に組み込む予め取得した画像を選択する設定、画像を記録するか否かの設定などがある。撮影モードには、通常の撮影モードと組み画像モードがある。また、記録モードには、静止画記録モードとしてJPEG記録、JPEG+RAW記録、RAW記録等があり、動画記録モードとしてMotion−JPEG、H.264等がある。本実施例では、一例として、静止画記録モードとしてJPEG記録が設定されるものとする。さらに、画像の仕上がりの設定には、自然に見える画像にする(Natural)、鮮やかな画像にする(Vivid)、落ち着いた画像にする(Flat)、アートフィルタ等の特殊効果の設定がある。
ステップS5でメニュー釦が押されていないと判定されると、マイクロコンピュータ121は、動画釦が押下されたか否かを判定する(ステップS9)。ここでは、操作部123内の動画釦の操作状態を検知し、判定する。動画釦が表示パネル135に表示されている場合には、タッチ入力部124からの信号を検知し、判定する。
動画釦が押されていないと判定されると、マイクロコンピュータ121は、ステップS19の処理を実行する。一方、動画釦が押されると、マイクロコンピュータ121は、記録中フラグを反転させる(ステップS11)。つまり、記録中フラグがオフであればオンに、オンであればオフに変更する。さらに、マイクロコンピュータ121は、反転後の記録中フラグの状態に基づいて画像記録中か否かを判定する(ステップS13)。
記録中フラグがオンと判定されると、マイクロコンピュータ121は、動画記録の開始が指示されたと判断して動画ファイルを生成し(ステップS15)、画像データを記録するための準備を整える。このような処理は、例えば、電源オン後はじめて動画釦が押下された場合などに行われる。なお、動画ファイル生成後は、ステップS19の処理が実行される。
ステップS13で記録中フラグがオフと判定されると、マイクロコンピュータ121は、動画記録の終了が指示されたと判断して、動画ファイルを閉じる(ステップS17)。つまり、動画ファイルのヘッダにフレーム数を記録する処理等を行って動画ファイルを再生可能な状態にしてから、書き込み処理を終了する。なお、動画ファイルへの書き込み終了後は、ステップS19の処理が実行される。
ステップS19では、マイクロコンピュータ121は、撮影モードが組み画像モードであり、且つ、操作部123に対して所定の組み画像操作が行われたか否かを判定する。ここでは、SDRAM127に記憶されている撮影モードの設定と操作部123の操作状態とを検知し、判定する。
組み画像モードで且つ所定の操作が行われたと判定されると、マイクロコンピュータ121は、組み画像操作処理を実行する(ステップS600)。組み画像操作処理が完了すると、再びステップS21の処理を実行する。なお、組み画像操作処理の詳細については、図9を参照しながら後に詳述する。
ステップS19で撮影モードが組み画像モードでないと判定されるか、操作部123に対して所定の組み画像操作が行われていないと判定されると、マイクロコンピュータ121は、レリーズ釦が半押しされたか否かを判定する(ステップS21)。ここでは、レリーズ釦に連動するファーストレリーズスイッチのオフからオンへの遷移を検知し、判定する。レリーズ釦が表示パネル135に表示されている場合または表示パネル135がレリーズ釦として機能している場合には、レリーズ釦が表示されている領域またはライブビュー画像が表示されている表示領域をタッチしたことを示す信号を検出し、判定する。
レリーズ釦が半押しされると、マイクロコンピュータ121は、AE・AF動作を実行する(S23)。ここでは、AE動作は、AE処理部111が撮像素子103によって取得された画像データに基づいて被写体輝度を検出し、この被写体輝度に基づいて適正露出となるシャッタ速度、絞り値等を算出することにより行われる。また、AF動作は、AF処理部113によって取得された合焦評価値がピーク値となるように、交換式レンズ200内のマイクロコンピュータ207を介してドライバ205が撮影レンズ201のピント位置を移動させることにより行われる。なお、タッチ入力部124からの信号によりAF動作が行われる場合には、タッチ位置に表示されている被写体に合焦点するように撮影レンズ201を移動させる。AE・AF動作後は、ステップS25の処理が実行される。
AF動作は上述の所謂コントラストAF以外にも、専用のセンサを用いた位相差AF等様々なAF方式を用いても良い。
ステップS21でレリーズ釦が半押しされていないと判定されると、マイクロコンピュータ121は、レリーズ釦が全押しされたか否かを判定する(ステップS27)。ここでは、セカンドレリーズスイッチのオフからオンへの遷移を検知し、判定する。セカンドレリーズスイッチがオンの状態であることを連続して検知して判定することで、連写撮影を行うようにしても良い。また、レリーズ釦が表示パネル135に表示されている場合または表示パネル135がレリーズ釦として機能している場合には、レリーズ釦が表示されている領域またはライブビュー画像が表示されている表示領域をタッチしたことを示す信号を検出し、判定する。
レリーズ釦が全押しされると、マイクロコンピュータ121は、メカシャッタによる静止画撮影を行う(S29)。ここでは、ステップS23で算出された絞り値で絞り203が制御され、また算出されたシャッタ速度でメカシャッタ101のシャッタ速度が制御される。そして、シャッタ速度に応じた露光時間が経過すると、撮像素子103から画像信号が読み出され、アナログ処理部105およびA/D変換部107によって処理されたRAWデータがバス110を介してSDRAM127に一時記憶される。
その後、マイクロコンピュータ121は、SDRAM127に一時記憶されたRAWデータを読み出して、画像処理部109に画像処理を実行させ(ステップS100a)、処理した画像データ等を記録媒体131に記録する静止画記録処理を実行する(ステップS500)。なお、画像処理と静止画記録処理の詳細については、それぞれ、図4から図7、図8を参照しながら後に詳述する。静止画記録処理が完了すると、マイクロコンピュータ121は、ステップS25の処理を実行する。
ステップS27でレリーズ釦が全押しされていないと判定されると、マイクロコンピュータ121は、動画またはライブビュー画像のために、AE動作を実行する(ステップS35)。AE動作は、適正露出でライブビュー表示を行うための撮像素子103の電子シャッタのシャッタ速度およびISO感度をAE処理部111が算出することにより行われる。AE動作後、マイクロコンピュータ121は、電子シャッタによる撮影を行う(ステップS37)。ここでは、電子シャッタを用いて撮像素子103から画像信号が読み出され、アナログ処理部105およびA/D変換部107によって処理されたRAWデータがバス110を介してSDRAM127に一時記憶される。
その後、マイクロコンピュータ121は、撮影モードが組み画像モードである場合に限り、組み画像のシナリオ設定処理を行う(S700)。なお、シナリオ設定処理の詳細については、図10を参照しながら後に詳述する。シナリオ設定処理が完了すると、マイクロコンピュータ121は、S37でSDRAM127に一時記憶されたRAWデータを読み出して、メカシャッタによる撮影の場合と同様の画像処理を画像処理部109に実行させる(ステップS100b)。さらに、マイクロコンピュータ121の制御の下、ライブビュー画像が表示される表示領域の画像をステップS37で取得されてステップS100bで画像処理された画像データに変更してライブビュー画像を更新するように、表示ドライバ133が表示パネル135を制御する(ステップS39)。
ライブビュー画像を更新すると、マイクロコンピュータ121は、動画記録中か否かを判定する(ステップS41)。ここでは、SDRAM127に記憶されている記録中フラグの状態により、判定する。
記録中フラグがオフの場合には、マイクロコンピュータ121は、ステップS25の処理を実行する。一方、記録中フラグがオンの場合には、マイクロコンピュータ121は動画記録中と判断し、動画記録する(ステップS43)。即ち、ステップS39で更新したライブビュー画像の画像データをステップS15で生成した動画ファイルのフレーム画像として記録する。その後、ステップS25の処理を実行する。
ステップS25では、マイクロコンピュータ121は、電源がオフか否かを判定する。電源がオンの場合には、ステップS3の処理を実行する。オフの場合には、マイクロコンピュータ121は必要な終了処理を実行後、カメラ11の処理を終了する。
次に、図4から図7を参照しながら、図3に示されるメカシャッタによる撮影、または、電子シャッタによる撮影及びシナリオ設定後に行われる画像処理について、さらに詳細に説明する。なお、メカシャッタによる撮影後に行われる画像処理の対象は、メカシャッタによる撮影で取得されたRAWデータであり、電子シャッタによる撮影及びシナリオ設定後に行われる画像処理の対象は、電子シャッタによる撮影で取得されたRAWデータである。
画像処理は、図4に示すように、主として、基本画像処理部109aにより行われる基本画像処理と、特殊画像処理部109bにより行われる特殊画像処理と、組み画像処理部109cにより行われる組み画像生成処理とから、構成されている。
マイクロコンピュータ121がSDRAM127に一時記憶されたRAWデータを読み出して、画像処理部109に画像処理を指示すると、まず、基本画像処理部109aが読み出されたRAWデータに対して基本画像処理を実行する(ステップS200)。
基本画像処理部109aが実行する基本画像処理は、図5に示すように、7つの画像処理ステップにより構成されている。最初に、オプティカルブラック(OB)減算を行う(ステップS201)。このステップでは、基本画像処理部109a内のOB演算部が、画像データを構成する各画素の画素値から、撮像素子103の暗電流等に起因するオプティカルブラック値をそれぞれ減算する。
OB減算後、ホワイトバランス(WB)補正を行う(ステップS203)。このステップでは、基本画像処理部109a内のWB補正部が、設定されているホワイトバランスモードに応じて、画像データに対してWB補正を行う。具体的には、ユーザが設定したホワイトバランスモードに応じたRゲインとBゲインをカメラ本体のフラッシュメモリ125から読み出し、画像データにその値を乗じることで補正を行う。またはオートホワイトバランスの場合には、RAWデータからRゲインおよびBゲインを算出し、これらを用いて補正する。
続いて、同時化処理を行う(ステップS205)。このステップでは、ホワイトバランス補正を行った画像データに対して、基本画像処理部109a内の同時化処理部が、各画素のデータ(ベイヤデータ)をRGBデータに変換する。具体的には、その画素にないデータを周辺から補間によって求め、RGBデータに変換する。なお、このステップは、撮像素子103としてFOVEON(フォベオン・インコーポレーテッドの登録商標)形式の撮像素子を用いた場合等、RAWデータにおいて1画素あたり複数のデータを有している場合には省略される。
同時化処理後、色再現処理を行う(ステップS207)。このステップでは、基本画像処理部109a内の色再現処理部が、画像データに対して設定されているホワイトバランスモードに応じたカラーマトリックス係数を乗じる線形変換を行って、画像データの色を補正する。なお、カラーマトリックス係数はフラッシュメモリ125に記憶されているので、読み出して使用する。
色再現処理後、輝度変更処理を行う(ステップS209)。このステップでは、基本画像処理部109a内の輝度変更処理部が、画像データ(RGBデータ)に対してガンマ補正処理を行う。さらに、RGBデータからYCbCrデータに色変換し、変換後の画像データのYデータに対してガンマ補正を行う。なお、ガンマ補正では、フラッシュメモリ125に記憶されているガンマテーブルを読み出して使用する。
輝度変更処理後、エッジ強調を行う(ステップS211)。このステップでは、画像データに対して、基本画像処理部109a内のエッジ強調処理部が、バンドパスフィルタによりエッジ成分を抽出し、エッジ強調度に応じて係数を乗じて画像データに加算することにより、画像データのエッジを強調する。
最後に、NR(ノイズ除去)を行う(ステップS213)。このステップでは、基本画像処理部109a内のNR部が、画像を周波数分解し、周波数に応じてコアリング処理を行うことでノイズを低減する処理を行う。
以上の基本画像処理が完了すると、特殊効果(アートフィルタ)が設定されている場合には、基本画像処理部109aにより処理された画像データに対して、特殊画像処理部109bが特殊画像処理を実行する(図4のステップS101、ステップS300)。
特殊画像処理部109bが実行する特殊画像処理は、図6に示すように、特殊効果の設定に応じて行われる5つの画像処理ステップを中心に構成されている。
具体的には、特殊効果(アートフィルタ)として、トイフォト、ファンタジックフォーカス、ラフモノクローム、ジオラマ、クリスタルが設定されているか否かを順に判定する(ステップS303、ステップS307、ステップS311、ステップS315、ステップS319)。
トイフォトが設定されている場合には、画像データに対してシェーディング付加処理を行う(ステップS305)。このステップでは、特殊画像処理部109bが中心からの距離に応じて徐々に輝度が低下するようなゲインマップ(ゲイン値は1以下)を生成し、画像データに対してそのゲインマップに従って各画素に応じたゲインを乗じることで、周辺にシェーディングを付加する。
ファンタジックフォーカスが設定されている場合には、画像データに対してソフトフォーカス処理を行う(ステップS309)。このステップでは、特殊画像処理部109bが画像全体にぼかし処理を施した画像データを生成し、ぼかす前の画像の画像データとぼかし処理後の画像の画像データとを所定の割合(例えば、3:2など)で合成する。
ラフモノクロームが設定されている場合には、画像データに対してノイズ重畳処理を行う(ステップS313)。このステップでは、特殊画像処理部109bが予め作成したノイズパターンを画像データに加算する。なお、ノイズパターンは乱数等に基づいて生成してもよい。
ジオラマが設定されている場合には、画像データに対してぼかし処理を行う(ステップS317)。このステップでは、特殊画像処理部109bがAFのターゲットを中心に画像の周辺(例えば、上下または左右、または、その両方)を距離に応じて徐々にぼかす。
クリスタルが設定されている場合には、画像データに対してクロスフィルタ処理を行う(ステップS321)。このステップでは、特殊画像処理部109bが画像中の輝点を検出し、その輝点を中心にクロスパターンが描画されるように画像データを加工する。
以上の特殊画像処理が完了すると、撮影モードが組み画像モードであるか否かを組み画像処理部109cが判定する(図4のステップS103)。撮影モードが組み画像モードでない場合には、画像処理を終了する。
撮影モードが組み画像モードである場合には、組み画像処理部109cが、表示パネル135の複数の表示領域に表示されている複数の画像の画像データを用いて、組み画像生成処理を実行する(図4のステップS400)。
組み画像処理部109cが実行する組み画像生成処理は、図7に示すように、5つの画像処理ステップにより構成されている。
最初に、画像解析を行う(ステップS403)。このステップでは、組み画像処理部109cが、表示パネル135の表示領域に表示されている複数の画像の画像データの各々が有する色分布と輝度分布を算出する。なお、表示領域に表示されている画像の画像データそのもの(つまり、基本画像処理部109a及び特殊画像処理部109bで処理された画像データ)ではなく、それらの画像データに対応する、画像処理がされる前のRAWデータから色分布と輝度分布を算出してもよい。
画像解析後、組み画像を構成する複数の画像データの画像がほぼ同じ色となるように、色変更処理を行う(ステップS405)。このステップでは、複数の画像データの色差Cb、色差Crのピークがそれらの平均値になるように、組み画像処理部109cが各画像データの色差Cb、色差Crをオフセットして補正する。例えば、画像解析により図11(a)及び図11(d)に示されるような色分布(色差の分布)が算出された場合であれば、図11(b)及び図11(e)に示されるように色差Cb、色差Crの分布をオフセットする。その結果、図11(c)及び図11(f)に示されるように、色変更処理が行われた複数の画像がほぼ同じような色を示すことになる。
なお、色変更処理における色変更の方法は上記の色差Cbと色差Crを変更する方法以外に、例えば、RGB色空間においてRやBにゲインを乗じる等、他の方法でも実現可能である。
さらに、色変更処理後、組み画像を構成する複数の画像データの画像の輝度がほぼ同じになるように、輝度変更処理を行う(ステップS407)。このステップでは、複数の画像データの各々の輝度分布の平均が、複数の画像データ全体の輝度分布の平均になるように、組み画像処理部109cが各画像データを補正する。例えば、画像解析により図12(a)に示されるような輝度Yの分布が得られた場合であれば、図12(b)に示されるように各画像データのRGBデータに対してそれぞれ異なるガンマ変換を行うことにより輝度Yの分布を補正し、図12(c)に示されるように、複数の画像の輝度をほぼ同じにする。なお、輝度成分に対するガンマ変換ではなくRGB色空間でのガンマ変換により輝度を補正する理由は、補正により輝度が大きく変更された場合であっても、画像の色が不自然にならないようにするためである。
なお、輝度変更処理における輝度変更の方法は、上記のガンマ変化を用いる方法以外に、例えば、日陰等の暗部領域のみ輝度を変更したり、明部領域のみ輝度を変更したりする等、他の方法でも実現可能である。
輝度変更処理後、色と輝度が補正された複数の画像データを合成する合成処理を行う(ステップS409)。このステップでは、表示パネル135の複数の表示領域に表示されている複数の画像の画像データを、より詳細には、色変更処理及び輝度変更処理が行われた複数の画像データを、設定されている組み画像のシナリオに基づいて組み画像処理部109cが合成して、それらの複数の画像を表示パネル135に表示されているようにレイアウトした組み画像の画像データを生成する。
最後に、組み画像全体に対して、特殊画像処理部109bがアートフィルタ等で適用可能な効果であるぼかし処理やシェーディング付加などの特殊効果をカメラ設定における仕上がり設定によらず、組み画像のシナリオに応じて付与し(ステップS411)、組み画像生成処理を終了する。なお、このようにして生成された組み画像は、表示パネル135の表示にも反映される。以上により、図4の画像処理が終了する。
上述したように動作して組み画像を生成するカメラ11によれば、組み画像を構成する複数の画像の各々が他の画像と比較した結果に基づいて補正される。そして、補正された画像の画像データを合成することで組み画像の画像データが生成される。このため、画像が個別に画像処理されるだけの従来のカメラに比べて、画像間で色合いや明るさのバランスが取れた、組み画像として良好な画像を得ることができる。なお、図7では、各画像に色変更処理と輝度変更処理を実行する例を示したが、他の画像と比較した結果に基づいて行われる画像処理はこれらに限られず、他の画像処理が実行されてもよい。
次に、図8を参照しながら、図3に示されるメカシャッタ撮影で取得された画像データに対する画像処理後に行われる静止画記録について、さらに詳細に説明する。
図8に示されるように、静止画記録処理が開始されると、まず、マイクロコンピュータ121が、撮影モードが組み画像モードか否かを判定する(ステップS501)。このステップでは、SDRAM127に記憶されている撮影モードの設定により、判定する。
撮影モードが組み画像モードでない場合、マイクロコンピュータ121は、表示ドライバ133を制御して、メカシャッタにより撮影されて画像処理部109で画像処理された画像データの画像1枚を表示パネル135にレックビュー表示する(ステップS515)。その後、メモリI/F129を制御して、表示した画像の画像データを記録媒体131に記録させて(ステップS517)、静止画記録処理を終了する。なお、画像データは、画像圧縮伸張部117でJPEG形式に圧縮されてから記録されてもよく、また、非圧縮で記録されてもよい。さらに、画像処理部109で画像処理される前のRAWデータも記録するようにしてもよい。
一方、撮影モードが組み画像モードである場合には、マイクロコンピュータ121が、組み画像を構成するために撮影した画像であるコマ画像(撮影画像とも記す)を記録する設定となっているか否かを判定する(ステップS503)。記録する設定となっている場合には、マイクロコンピュータ121は、メモリI/F129を制御して、画像処理部109で処理されたコマ画像を記録媒体131に記録させる(ステップS504)。
その後、マイクロコンピュータ121は、組みが完了しているか否か、つまり、組み画像を構成するすべてのコマ画像を撮影済みか否か、を判定する(ステップS505)。なお、組み画像に組み込む予め取得した画像が設定されている場合には、予め取得した画像をのぞくすべてのコマ画像を撮影済みか否かを判定する。このステップは、設定された組み画像のシナリオに応じて決定される枚数のコマ画像がSDRAM127のコマ画像領域に記憶されているかにより判断する。すべてのコマ画像を撮影していない場合には、静止画記録処理を終了する。
すべてのコマ画像を撮影済みの場合には、マイクロコンピュータ121は、表示ドライバ133を制御して、画像処理部109で生成した組み画像を表示パネル135にレックビュー表示させる(ステップS507)。
その後、マイクロコンピュータ121は、メモリI/F129を制御して、画像処理部109で生成した組み画像の画像データを記録媒体131に記録させて(ステップS511)、静止画記録処理を終了する。
次に、図9を参照しながら、組み画像操作処理について、さらに詳細に説明する。
図9に示されるように、組み画像操作処理が開始されると、組み画像操作処理が開始される原因となった操作が特定される。具体的には、マイクロコンピュータ121が、撮影コマ変更操作、領域拡大操作、領域分割操作が行われた否かを、順に判定する(ステップS601、ステップS605、ステップS609)。なお、撮影コマ変更操作、領域拡大操作、領域分割操作は、シナリオ変更指示に対応する操作の一例である。
ステップS601の撮影コマ変更操作が行われたか否かの判定は、例えば、画像が表示されていない表示領域に対するタッチ操作をタッチ入力部124が検出したか否かによって行われる。マイクロコンピュータ121は、画像が表示されていない表示領域に対するタッチ操作を検出すると、撮影コマ変更情報記憶処理、つまり、ライブビュー画像を表示すべき表示領域を切り替えてタッチされた表示領域にライブビュー画像を表示するようにさせるための情報をSDRAM127に記憶する処理、を行う(ステップS603)。なお、本ステップにおいて、タッチ操作に代えて、十字キーなどのキー操作により画像が表示されていない表示領域を指定するようにしてもよい。
ステップS605の領域拡大操作が行われたか否かの判定は、例えば、ライブビュー画像が表示されている表示領域と画像が表示されていない表示領域との間の境界をなぞるタッチ操作をタッチ入力部124が検出したか否かによって行われる。マイクロコンピュータ121は、このようなタッチ操作を検出すると、領域拡大情報記憶処理、つまり、そのタッチ操作が検出された境界に隣接する、ライブビュー画像が表示されている表示領域と画像が表示されていない表示領域とを1つの表示領域として統合し、その統合された表示領域にライブビュー画像を表示するようにさせるための情報をSDRAM127に記憶する処理、を行う(ステップS607)。
ステップS609の領域分割操作が行われたか否かの判定は、例えば、ライブビュー画像が表示されている表示領域の外周上の2点間を一方の点から他方の点までなぞるタッチ操作をタッチ入力部124が検出したか否かによって行われる。マイクロコンピュータ121は、このようなタッチ操作を検出すると、領域分割情報記憶処理、つまり、そのタッチ操作が検出された2点間を境界として表示領域を2つに分割し、その一方の領域にライブビュー画像を表示するようにさせるための情報をSDRAM127に記憶する処理、を行う(ステップS611)。以上により、図9の組み画像操作処理が終了する。
次に、図10を参照しながら、組み画像のシナリオ設定処理について、さらに詳細に説明する。組み画像のシナリオ設定処理は、図10に示すように、S700の判定の結果に応じて、S701、S703、S705、S707の4つのステップ、又は、S705、S707の2つのステップが実行される。
具体的には、マイクロコンピュータ121は、最初に、S7のカメラ設定(図3参照)において、ユーザにより設定されたシナリオを優先とする設定が行われているか否かを判定する(S700)。
ユーザにより設定されたシナリオを優先とする設定が行われていないと判定した場合には(S700がNo)、マイクロコンピュータ121は、ライブビュー画像を取得して画像解析を行う(S701)。具体的には、S37(図3参照)でSDRAM127に一時記憶されたRAWデータ、または、RAWデータに対して少なくとも基本画像処理を施した画像データのいずれかを解析用画像データとして取得し、その解析用画像データ上に表現されている被写体の種類や特徴(静止している被写体か移動している被写体か、ペット等の動物や、自動車、山、海、空などの風景、家具や食器等の静物、橋、ビルなどの建造物、道路等)、被写体までの距離、画角内の位置、大きさ、数などといった、シナリオの生成に必要とされる要素を解析する。そして、その解析の結果から、被写体と構図の情報を取得する(S703)。なお、被写体と構図の情報は、例えば、どのような被写体がどのように配置されているか等の情報である。
その後、マイクロコンピュータ121は、取得した被写体と構図の情報に基づいて、適切なシナリオ(シナリオデータ)を生成する(S705)。但し、シナリオ変更指示(撮影コマ変更操作、領域拡大操作、又は領域分割操作)が行われていた場合には、SDRAM127に記憶されている対応する情報(撮影コマ変更情報、領域拡大情報、又は領域分割情報)と、S703で取得された被写体と構図の情報とに基づいて、適切なシナリオ(シナリオデータ)を生成する。そして、マイクロコンピュータ121は、設定されているシナリオを、生成されたシナリオへ変更する(S707)。
一方、ユーザにより設定されたシナリオを優先とする設定が行われていると判定した場合には(S700がYes)、S701、S703がスキップされ、マイクロコンピュータ121は、シナリオ変更指示(撮影コマ変更操作、領域拡大操作、又は領域分割操作)が行われていた場合に限り、SDRAM127に記憶されている対応する情報(撮影コマ変更情報、領域拡大情報、又は領域分割情報)に基づいて、対応するシナリオ(シナリオデータ)を生成し(S705)、設定されているシナリオを、生成したシナリオへ変更する(S707)。以上により、図10の組み画像のシナリオ設定処理が終了する。
なお、カメラ11に設定されたシナリオによって実現される組み画像は、例えば、図13(a)、図13(b)、図13(c)、又は図13(d)に示される分割数、分割形状のような組み画像となる。図13(a)、図13(d)に示される組み画像は、いずれも、分割数が4つで同じであるが、分割形状は異なっている。また、図13(b)、図13(c)に示される組み画像は、いずれも、分割数が3つで同じであるが、分割形状は異なっている。なお、分割形状は、四角形に限らず、図13(d)に示されるように、他の多角形や円形等であってもよい。
上述したように動作するカメラ11によれば、設定されている組み画像のシナリオに基づいて、表示パネル135には次のような表示が行われる。
被写体検出部109dで主要被写体が、人物であると判断された場合、検出された顔の数から人数を判断することが可能である。その例を示す。
例えば、図14(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われると、図14(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、残りの表示領域にライブビュー画像(図14(c)参照)上に表現されている各人物の顔がそれぞれ配置されて表示される。このような表示は、図14(c)に示されるライブビュー画像の解析結果、つまり、ライブビュー画像上に3人の人物の顔が表現されている等の解析結果に基づいて生成されたシナリオによるものである。なお、図14(a)、図14(b)において、「LV」と記された画像はライブビュー画像を示しており、この「LV」は実際に表示されてもよいし、表示されなくてもよい(後述の図15乃至図23においても同じ)。「LV」を表示せずに、撮影指示を行ったコマ画像(図14(b)の場合には左上のコマ画像)に、ライブビュー画像と区別できるような表示(たとえば、「撮影画像」と表示する)を行ってもよい(後述の図15乃至図23においても同じ)。
また、例えば、図15(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われると、一旦、図15(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に右上の表示領域にライブビュー画像が配置されて表示された後、図15(c)に示されるように、左下と右下の表示領域が一つに統合されてなる下側の表示領域にライブビュー画像が配置されて表示される。このような表示は、ライブビュー画像の解析結果、つまり、ライブビュー画像上に風景が表現されている等の解析結果に基づいて生成されたシナリオによるものである。なお、図15(c)に示される表示において、左上及び右上の表示領域と、下側の表示領域とを入れ替えるように配置して表示させるようにしてもよい。
このように、被写体検出部109dで、主要被写体が遠景の風景を含んだ画像や、左右への横方法に移動する移動体を含んだ画像を判断した場合には、図15(a)から図15(c)に示すような構図となる。
或いは、図15(a)に示される表示が行われているときに撮影指示が行われると、一旦、図15(d)に示されるように、左上の表示領域にコマ画像が配置されると共に右上の表示領域にライブビュー画像が配置されて表示された後、図15(e)に示されるように、右上と右下の表示領域が一つに統合されてなる右側の表示領域にライブビュー画像が配置されて表示される。このような表示は、ライブビュー画像の解析結果、つまり、ライブビュー画像上に人物の全身が表現されている等の解析結果に基づいて生成されたシナリオによるものである。なお、図15(e)に示される表示において、左上及び左下の表示領域と、右側の表示領域とを入れ替えるように配置して表示させるようにしてもよい。
或いは、図15(a)に示される表示が行われているときに撮影指示が行われると、一旦、図15(f)に示されるように、左上の表示領域にコマ画像が配置されると共に右上の表示領域にライブビュー画像が配置されて表示された後、図15(g)に示されるように、左下と右下の表示領域が一つに統合されてなる下側の表示領域にライブビュー画像が配置されて表示される。このような表示は、ライブビュー画像の解析結果、つまり、ライブビュー画像上に右側から左側へ動いている人物が表現されている等の解析結果に基づいて生成されたシナリオによるものである。なお、図15(g)に示される表示において、左上及び右上の表示領域と、下側の表示領域とを入れ替えて、図15(h)に示されるように表示させるようにしてもよい。
また、例えば、図16(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに、図16(b)に示されるように、ライブビュー画像上に表現されている人物が笑顔で大声で笑っている場合には、図16(c)に示されるように、動画記録が開始される。なお、図16(c)に示す「MOVIE」は、動画記録中であることを示す。このような表示は、ライブビュー画像の解析結果、つまり、ライブ画像上に笑顔で大声で笑っている人物が表現されている等の解析結果に基づいて生成されたシナリオによるものである。なお、音声は、MIC141とオーディオ部137から入力された音声情報により判断することが出来る。
或いは、図16(a)に示される表示が行われているときに撮影指示が行われると、図16(d)に示されるように(図14(b)に示される表示と同様に)、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、残りの表示領域にライブビュー画像上に表現されている各人物の顔がそれぞれ配置されて表示される。そして、右下の表示領域に表示されているライブビュー画像上に表現されている人物が笑顔で大声で笑っている場合には、図16(e)に示されるように、右下の表示領域に表示されているライブビュー画像に対して特殊画像処理(例えばファンタジックフォーカスに対応したソフトフォーカス処理等)が施されて表示される。或いは、図16(f)に示されるように、右下の表示領域の大きさを大きくして同様の表示が行われる。このような表示は、ライブビュー画像の解析結果、つまり、ライブビュー画像上に笑顔で大声で笑っている1人の人物を含む3人の人物の顔が表現されている等の解析結果に基づいて生成されたシナリオによるものである。
このように、オーディオ部137で検出した音声を判断した結果により、図16(b)から図16(e)に示すような構図となる。そのほかにも、被写体検出部109dで人物の顔の表情を解析し表情に応じて構図を決めることも可能である。
また、例えば、図17(a)に示されるように、表示パネル135にライブビュー画像が1コマ形式で表示されているときに撮影指示が行われると、一旦、図17(b)に示されるように、左下の小さな表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、それ以外の表示領域にライブビュー画像が配置されて表示された後、図17(c)に示されるように、右上の表示領域にコマ画像が配置されると共に、左側の表示領域にライブビュー画像が配置されて表示される。このような表示は、ライブビュー画像の解析結果、つまり、ライブビュー画像上に人物の全身が表現されている等の解析結果に基づいて生成されたシナリオによるものである。
このように、被写体検出部109dで、人物や、ビル等の建造物のような縦方向の主要被写体を含んだ画像を判断した場合には、図17(a)から図17(c)に示すような構図となる。
また、例えば、図18(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われると、図18(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、右上の表示領域にライブビュー画像が配置されて表示される。このときに、図18(c)に示されるように、ライブビュー画像が表示されている右上の表示領域と、画像が表示されていない右下の表示領域との間の境界をなぞるタッチ操作(領域拡大操作)が行われると、図18(d)に示されるように、右上と右下の表示領域が一つに統合されてなる右側の表示領域にライブビュー画像が配置されて表示される。このような表示は、ユーザによる領域拡大操作に基づいて生成されたシナリオによるものである。
或いは、例えば、図18(a)に示される表示が行われているときに撮影指示が行われると、図18(e)に示されるように、左上の表示領域にコマ画像が配置されると共に、左下の表示領域にライブビュー画像が配置されて表示される。このときに、図18(f)に示されるように、ライブビュー画像が表示されている左下の表示領域と、画像が表示されていない右下の表示領域との間の境界をなぞるタッチ操作(領域拡大操作)が行われると、図18(g)に示されるように、左下と右下の表示領域が一つに統合されてなる下側の表示領域にライブビュー画像が配置されて表示される。このような表示も、ユーザによる領域拡大操作に基づいて生成されたシナリオによるものである。
また、例えば、図19(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに、図19(b)に示されるように、ライブビュー画像が表示されている左上の表示領域と、画像が表示されていない左下の表示領域との間の境界をなぞるタッチ操作(領域拡大操作)が行われると、図19(c)に示されるように、左上と左下の表示領域が一つに統合されてなる左側の表示領域にライブビュー画像が配置されて表示される。そして、図19(d)に示されるように、さらに、ライブビュー画像が表示されている左側の表示領域と、画像が表示されていない右側の表示領域(右上と右下の表示領域)との間の境界をなぞるタッチ操作(領域拡大操作)が行われると、図19(e)に示されるように、左側と右側の表示領域が一つに統合されてなる表示領域にライブビュー画像が配置されて表示される。このような表示も、ユーザによる領域拡大操作に基づいて生成されたシナリオによるものである。
このように、被写体検出部109dで、画角中の主要被写体の占める割合、像倍率(すなわち焦点距離と被写体までの距離から演算し、アップで撮影している画像)を判断した場合には、図19(a)から図19(e)に示すような構図となる。
但し、例えば、図20(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われ、図20(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、右上の表示領域にライブビュー画像が配置されて表示されているときに、図20(c)に示されるように、コマ画像が表示されている左上の表示領域とライブビュー画像が表示されている右上の表示領域との間の境界をなぞるタッチ操作が行われた場合には、図19(d)に示されるように、領域拡大は行われない。これは、そのタッチ操作が行われた境界に隣接する画像の一方、つまり、左上の表示領域に表示されているコマ画像が組み画像の合成に使用される画像として確定されているからである。このような場合には、領域拡大は行われない。なお、このようなタッチ操作は、ライブビュー画像が表示されている表示領域と画像が表示されていない表示領域との間の境界をなぞるタッチ操作に該当しないため、そもそも領域拡大操作ではない。
また、例えば、図21(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われると、図21(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、右上と右下の表示領域が一つに統合されてなる右側の表示領域にライブビュー画像が配置されて表示される。このときに、図21(c)に示されるように、ライブビュー画像が表示されている右側の表示領域の外周上の2点間を一方の点から他方の点までなぞるタッチ操作(領域分割操作)が行われると、図21(d)又は図21(e)に示されるように、右側の表示領域が右上の表示領域と右下の表示領域に分割され、その一方(本例では右上)の表示領域にライブビュー画像が配置されて表示される。なお、図21(e)に示される表示の例では、ライブビュー画像上に表現されている被写体(人物の全身)が右上の表示領域に収まるようにライブビュー画像が縮小されて表示された例である。このような表示は、ユーザによる領域分割操作やライブビュー画像の解析結果に基づいて生成されたシナリオによるものである。
なお、カメラ11では、シナリオ変更指示が、撮影コマ変更操作、領域拡大操作、領域分割操作によって行われていたが、他の操作によっても行われるようにしてもよい。
例えば、図22(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに、テレ側(長焦点距離側)へのズーム操作が行われると、図22(b)、図22(c)に示されるように、そのズーム操作に応じて被写体が拡大されたライブビュー画像が表示される。そして、更に、テレ側へのズーム操作が行われると、図22(d)に示されるように、そのズーム操作に応じて被写体が更に拡大されたライブビュー画像が表示されるが、この場合には、当該ライブビュー画像上に表現されている顔が欠けないように、左上と左下の表示領域が一つに統合されてなる左側の表示領域にライブビュー画像が配置されて表示される。そして、更に、テレ側へのズーム操作が行われると、図22(e)に示されるように、そのズーム操作に応じて被写体が更に拡大されたライブビュー画像が表示されるが、この場合には、当該ライブビュー画像上に表現されている顔が欠けないように、左側と右上と右下の表示領域が一つに統合されてなる表示領域にライブビュー画像が配置されて表示される。このような表示は、ユーザによるテレ側へのズーム操作に基づいて生成されたシナリオによるものである。
また、例えば、図23(a)に示されるように、左上の表示領域にライブビュー画像が配置されて表示されているときに撮影指示が行われると、図23(b)に示されるように、左上の表示領域にコマ画像(上記の撮影指示に応じて得られた撮影画像)が配置されると共に、右上の表示領域にライブビュー画像が配置されて表示される。このときに、テレ側へのズーム操作が行われると、図23(c)に示されるように、そのズーム操作に応じて被写体が更に拡大されたライブビュー画像が表示される。このときに、更に、テレ側へのズーム操作が行われると、図23(d)に示されるように、そのズーム操作に応じて被写体が更に拡大されたライブビュー画像が表示されるが、この場合には、当該ライブビュー画像上に表現されている顔が欠けないように、右上と右下の表示領域が一つに統合されてなる右側の表示領域にライブビュー画像が配置されると共に、それに合わせて、左上に表示されていたコマ画像も左上と左下の表示領域が一つに統合されてなる左側の表示領域に配置されて表示される。或いは、図23(e)に示されるように、左上の表示領域に表示されていたコマ画像が、小さな別の表示領域に配置されると共に、ズーム操作に応じて被写体が更に拡大されたライブビュー画像が、当該ライブビュー画像上に表現されている顔が欠けないように、残りの表示領域に配置されて表示される。このような表示も、ユーザによるテレ側へのズーム操作に基づいて生成されたシナリオによるものである。
その他に、ライブビュー画像の主要被写体の特徴的な色を検出して、似た色や、関連のある色を使った画像を抽出もしくは切り出すことも考えられる。例えば、主要被写体の人物が赤いセーターを着ていた場合には、配色に赤い部分が強いと判断し、被写界内の夕焼け、りんご、ポスト、信号機、標識、看板、自動車、けん玉など、「赤」に関連する被写体を切り出して組み写真にすることが考えられる。過去に撮影された画像から色情報で検索し組み写真にすることも可能である。色による判断は、単色に限らず、トーン(色の調子、明度、濃淡、彩度方向のバランス)も含めて判断することができ、ポップな色の組み写真や暗い感じの色の組み写真を生成することが可能となる。
以上で説明したように、本実施例に係るカメラ11では、ユーザが組み画像のシナリオを手動設定することが可能であることは勿論のこと、カメラ11がライブビュー画像の解析結果から最適なシナリオを自動設定することも可能である。また、いずれの場合も、ユーザは、設定されているシナリオをシナリオ変更指示によって自由に変更することもできる。そして、その設定されているシナリオに基づいて組み画像が生成されることから、本実施例に係るカメラ11によれば、任意の被写体に対して所望の組み画像の画像データを簡単な操作で容易に生成できるように支援することができる。
なお、以上では、撮影装置としてデジタルカメラを例示して説明したが、上述した技術はカメラ専用機器に限られず、カメラ付携帯電話(スマートフォン)やタブレット型機器、その他携帯機器に適用してもよい。また、上述した実施例は、発明の理解を容易にするために本発明の具体例を示したものであり、本発明はこれらの実施例に限定されるものではない。本発明の撮影装置は、特許請求の範囲に規定された本発明の思想を逸脱しない範囲において、さまざまな変形、変更が可能である。
1 ・・・撮影装置
2 ・・・撮像部
3 ・・・第1の記憶部
4 ・・・画像処理部
5 ・・・画像解析部
6 ・・・シナリオ生成部
7 ・・・組み画像処理部
8 ・・・表示部
9 ・・・第2の記憶部
10 ・・・受付部
11 ・・・カメラ
100 ・・・カメラ本体
101 ・・・メカシャッタ
103 ・・・撮像素子
105 ・・・アナログ処理部
107 ・・・A/D変換部
109 ・・・画像処理部
109a ・・・基本画像処理部
109b ・・・特殊画像処理部
109c ・・・組み画像処理部
109d ・・・被写体検出部
110 ・・・バス
111 ・・・AE処理部
113 ・・・AF処理部
117 ・・・画像圧縮展開部
119 ・・・通信部
121、207・・・マイクロコンピュータ
123 ・・・操作部
124 ・・・タッチ入力部
125、209・・・フラッシュメモリ
127 ・・・SDRAM
129 ・・・メモリI/F
131 ・・・記録媒体
133 ・・・表示ドライバ
135 ・・・表示パネル
137 ・・・オーディオ部
139 ・・・SP
141 ・・・MIC
200 ・・・交換式レンズ
201 ・・・撮影レンズ
203 ・・・絞り
205 ・・・ドライバ
300 ・・・I/F

Claims (11)

  1. 複数の画像データを合成して組み画像データを生成する撮影装置であって、
    被写体を撮像して第1の画像データを取得する撮像部と、
    前記第1の画像データを画像処理して第2の画像データを取得する画像処理部と、
    前記第1の画像データ及び前記第2の画像データの一方又は両方を含む画像データが記憶される第1の記憶部と、
    前記第1の記憶部に記憶されている画像データの特徴を解析する画像解析部と、
    前記画像解析部による解析の結果に基づいてシナリオデータを生成するシナリオ生成部と、
    前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する組み画像処理部と、
    を備える、
    ことを特徴とする撮影装置。
  2. 前記シナリオデータは、組み画像の分割数、分割形状、合成される画像の配置情報を含む、
    ことを特徴とする請求項1記載の撮影装置。
  3. 前記画像解析部により特徴が解析される画像データは、ライブビュー画像の画像データである、
    ことを特徴とする請求項1又は2記載の撮影装置。
  4. 前記組み画像処理部により合成される複数の画像データは、ライブビュー画像の画像データを含む、
    ことを特徴とする請求項1乃至3の何れか一項に記載の撮影装置。
  5. さらに、画像データを表示する表示部を備え、
    前記表示部は、前記組み画像処理部により生成された組み画像データを表示する、
    ことを特徴とする請求項1乃至4の何れか一項に記載の撮影装置。
  6. 画像データが記憶される第2の記憶部を更に備え、
    前記組み画像処理部により生成された組み画像データが前記第2の記憶部に記憶される、
    ことを特徴とする請求項1乃至5の何れか一項に記載の撮影装置。
  7. シナリオ変更指示を受け付ける受付部を更に備え、
    前記シナリオ生成部は、前記受付部により受け付けられたシナリオ変更指示と、前記画像解析部による解析の結果とに基づいて、シナリオデータを生成する、
    ことを特徴とする請求項1乃至6の何れか一項に記載の撮影装置。
  8. 前記画像解析部の解析の結果の特徴は、主要被写体の数、主要被写体が風景、主要被写体が縦長、主要被写体が移動体、主要被写体が人物であってその表情、主要被写体の像倍率である、
    ことを特徴とする請求項7記載の撮影装置。
  9. 前記第2の記憶部に記憶されている画像データが読み出されて、前記第1の記憶部に記憶される、
    ことを特徴とする請求項1乃至8の何れか一項に記載の撮影装置。
  10. 被写体を撮像して第1の画像データを取得する工程と、
    前記第1の画像データを第1の記憶部に記憶する工程と、
    前記第1の画像データを画像処理して第2の画像データを取得する工程と、
    前記第2の画像データを第1の記憶部に記憶する工程と、
    前記第1の記憶部に記憶されている画像データの特徴を解析する工程と、
    前記解析の結果に基づいてシナリオデータを生成する工程と、
    前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する工程と、
    を備える、
    ことを特徴とする画像処理方法。
  11. コンピュータに、
    被写体を撮像して第1の画像データを取得する工程と、
    前記第1の画像データを第1の記憶部に記憶する工程と、
    前記第1の画像データを画像処理して第2の画像データを取得する工程と、
    前記第2の画像データを第1の記憶部に記憶する工程と、
    前記第1の記憶部に記憶されている画像データの特徴を解析する工程と、
    前記解析の結果に基づいてシナリオデータを生成する工程と、
    前記シナリオデータに基づいて、前記第1の記憶部に記憶されている複数の画像データを合成して組み画像データを生成する工程と、
    を実行させる、
    ことを特徴とする画像処理プログラム。
JP2013049536A 2013-03-12 2013-03-12 撮影装置、画像処理方法、及び、画像処理プログラム Pending JP2014176024A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013049536A JP2014176024A (ja) 2013-03-12 2013-03-12 撮影装置、画像処理方法、及び、画像処理プログラム
CN201480011948.5A CN105144684B (zh) 2013-03-12 2014-02-04 摄像装置和图像处理方法
EP14765023.8A EP2975835B1 (en) 2013-03-12 2014-02-04 Imaging device, image processing method, image processing program, and recording medium
PCT/JP2014/052483 WO2014141771A1 (ja) 2013-03-12 2014-02-04 撮像装置、画像処理方法、画像処理プログラム、及び、記録媒体
US14/824,456 US9684988B2 (en) 2013-03-12 2015-08-12 Imaging device, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013049536A JP2014176024A (ja) 2013-03-12 2013-03-12 撮影装置、画像処理方法、及び、画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2014176024A true JP2014176024A (ja) 2014-09-22

Family

ID=51536447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013049536A Pending JP2014176024A (ja) 2013-03-12 2013-03-12 撮影装置、画像処理方法、及び、画像処理プログラム

Country Status (5)

Country Link
US (1) US9684988B2 (ja)
EP (1) EP2975835B1 (ja)
JP (1) JP2014176024A (ja)
CN (1) CN105144684B (ja)
WO (1) WO2014141771A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123126A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9153056B2 (en) * 2013-03-07 2015-10-06 Shutterfly, Inc. Adaptive and fast image collage creation
US20160093020A1 (en) * 2014-09-30 2016-03-31 Umm Al-Qura University Method of procuring integrating and sharing self portraits for a social network
JP6608196B2 (ja) * 2015-06-30 2019-11-20 キヤノン株式会社 情報処理装置、情報処理方法
US11138207B2 (en) 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
CN106027905B (zh) * 2016-06-29 2019-05-21 努比亚技术有限公司 一种用于天空对焦的方法和移动终端
US20180068475A1 (en) * 2016-09-08 2018-03-08 Tenor, Inc. Dynamic ad hoc generation of customizable image-based files on computing device displays over interactive data networks
US20180191797A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Dynamically generating customized media effects
US11169661B2 (en) 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
TWI776191B (zh) * 2020-07-22 2022-09-01 黃仲賢 可編導式自動攝影系統

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004153498A (ja) * 2002-10-30 2004-05-27 Konica Minolta Holdings Inc 画像の撮影および出力システム、方法
JP2004215157A (ja) 2003-01-08 2004-07-29 Minolta Co Ltd 撮像装置、およびプログラム
JP2006287917A (ja) * 2005-03-08 2006-10-19 Fuji Photo Film Co Ltd 画像出力装置、画像出力方法、および画像出力プログラム
JP2008017238A (ja) * 2006-07-07 2008-01-24 Casio Comput Co Ltd 撮像装置、スルー画像表示制御方法、及びスルー画像表示制御プログラム
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4794584B2 (ja) * 2007-03-30 2011-10-19 カシオ計算機株式会社 撮像装置、画像表示装置、及びそのプログラム
JP4748250B2 (ja) * 2009-02-27 2011-08-17 ソニー株式会社 画像処理装置、画像処理システム、カメラ装置、画像処理方法、およびプログラム
US20110029914A1 (en) * 2009-07-30 2011-02-03 Whitby Laura R Apparatus for generating artistic image template designs
KR101206132B1 (ko) * 2010-02-16 2012-11-28 인하대학교 산학협력단 영상 합성 방법 및 장치
AU2010257231B2 (en) * 2010-12-15 2014-03-06 Canon Kabushiki Kaisha Collaborative image capture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123126A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
WO2014141771A1 (ja) 2014-09-18
EP2975835A4 (en) 2016-07-27
CN105144684B (zh) 2018-08-28
EP2975835B1 (en) 2019-10-16
US9684988B2 (en) 2017-06-20
CN105144684A (zh) 2015-12-09
US20150348302A1 (en) 2015-12-03
EP2975835A1 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP6259185B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
US9426372B2 (en) Imaging device and imaging method
JP3873994B2 (ja) 撮像装置、及び画像取得方法
CN109155815A (zh) 摄像装置及其设定画面
JP2014120844A (ja) 画像処理装置および撮像装置
JP2014017579A (ja) 撮影装置、画像処理方法、及び、画像処理プログラム
JP6137800B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
WO2014119655A1 (ja) 撮像装置、画像処理方法、画像処理プログラム、及び、記録媒体
CN112991245B (zh) 双摄虚化处理方法、装置、电子设备和可读存储介质
US9147234B2 (en) Image editing device and image editing method
US9013593B2 (en) Image editing device and image editing method
JP5951988B2 (ja) 画像合成装置及び画像合成方法
JP2020188417A (ja) 画像処理装置、画像処理方法、及び、コンピュータプログラム
JP2020150517A (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP4968389B2 (ja) 撮影装置及びプログラム
JP4757828B2 (ja) 画像合成装置、撮影装置、画像合成方法及び画像合成プログラム
JP5191941B2 (ja) 撮像装置、画像処理装置、画像処理方法、および、画像処理プログラム
JP5206421B2 (ja) デジタルカメラ、撮影記録方法、及び、撮影制御プログラム
JP2011166301A (ja) 撮像装置
JP6211139B2 (ja) 画像合成装置
JP2021144641A (ja) 画像処理装置および画像処理方法
JP5734348B2 (ja) 撮像装置
JP6278702B2 (ja) 撮像装置及びその制御方法、並びに、プログラム
JP2013207780A (ja) 撮像装置、撮像方法および撮像プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423