JP2020150517A - Image processing apparatus, image processing method, computer program and storage medium - Google Patents

Image processing apparatus, image processing method, computer program and storage medium Download PDF

Info

Publication number
JP2020150517A
JP2020150517A JP2019049006A JP2019049006A JP2020150517A JP 2020150517 A JP2020150517 A JP 2020150517A JP 2019049006 A JP2019049006 A JP 2019049006A JP 2019049006 A JP2019049006 A JP 2019049006A JP 2020150517 A JP2020150517 A JP 2020150517A
Authority
JP
Japan
Prior art keywords
image
type data
composition
recorded
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019049006A
Other languages
Japanese (ja)
Other versions
JP7395258B2 (en
Inventor
明光 吉田
Akimitsu Yoshida
明光 吉田
英貴 門井
Hideki Kadoi
英貴 門井
豪 山下
Takeshi Yamashita
豪 山下
宣和 吉田
Nobukazu Yoshida
宣和 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019049006A priority Critical patent/JP7395258B2/en
Priority to CN202080021007.5A priority patent/CN113615156A/en
Priority to PCT/JP2020/010859 priority patent/WO2020189510A1/en
Publication of JP2020150517A publication Critical patent/JP2020150517A/en
Priority to US17/467,345 priority patent/US20210400192A1/en
Application granted granted Critical
Publication of JP7395258B2 publication Critical patent/JP7395258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing apparatus which can properly discriminate and process an image according to the presence or absence and a type of combining process.SOLUTION: An image processing apparatus according to an embodiment includes: combining means that combines a plurality of photographed images to each other to generate a composite image; record control means that records the photographed image or the composite image as a recorded image in a recording portion; and determining means that determines a photographing mode or a method of combination which is processed in the combining means. The record control means records data of a type which is determined on the basis of a determination result based on the determination, in association with the recorded image that has been photographed or combined by the photographing mode or the combining method which has been determined by the determining means.SELECTED DRAWING: Figure 4

Description

本発明は複数画像の合成または合成画像の再生が可能な画像処理装置等に関するものである。 The present invention relates to an image processing apparatus or the like capable of synthesizing a plurality of images or reproducing a composite image.

デジタルカメラやカメラ付き携帯端末等の撮像装置では、撮影して得られた画像データの属性情報に、撮影条件などを付帯させて1つの画像ファイルとして記録することが出来る。特許文献1では、撮影時に複数画像を合成する多重露出撮影によって得られた合成画像データを記録する際に、多重の回数をメタデータとしてファイルヘッダに記録する技術の開示がある。特許文献1では多重の回数をもって当該画像データが多重露出撮影された画像であることも判断するとしている。 In an image pickup device such as a digital camera or a mobile terminal with a camera, it is possible to add shooting conditions and the like to the attribute information of the image data obtained by shooting and record it as one image file. Patent Document 1 discloses a technique of recording the number of times of multiplex as metadata in a file header when recording composite image data obtained by multiple-exposure imaging in which a plurality of images are combined at the time of photographing. In Patent Document 1, it is also determined that the image data is an image taken by multiple exposure by a plurality of times.

特開2012−094978号公報Japanese Unexamined Patent Publication No. 2012-024978

しかしながら上記既存の技術では、多重露出撮影という1つの合成を伴う撮影モードで撮影された画像であるか否かを識別できるに過ぎない。種々の合成を伴う撮影モード、あるいは種々の合成処理シーケンスによって生成された画像や、当該画像の属性情報を識別するための汎用的な付帯情報については考慮されていなかった。
本発明はかかる課題に鑑みてなされたものであり、合成処理の有無や種類に応じて画像を適切に判別し処理できる画像処理装置を提供するものである。
However, with the above-mentioned existing technique, it is only possible to identify whether or not the image is taken in a shooting mode involving one composition called multiple exposure shooting. No consideration was given to images generated by shooting modes involving various compositing or various compositing processing sequences, and general-purpose incidental information for identifying attribute information of the images.
The present invention has been made in view of such a problem, and provides an image processing apparatus capable of appropriately discriminating and processing an image according to the presence or absence and type of composition processing.

上記課題を解決するため、本発明の画像処理装置は、
撮影された複数の撮影画像を合成して合成画像を生成する合成手段と、
前記撮影画像または前記合成画像を記録部に記録画像として記録する記録制御手段と、
撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段と、を有し、
前記記録制御手段は、前記判定手段が判定した撮影モードまたは合成の方法で撮影または合成された記録画像に、該判定による判定結果に基づいて決定される種類データを関連付けて記録することを特徴とする。
In order to solve the above problems, the image processing apparatus of the present invention
A compositing means that synthesizes a plurality of captured images to generate a composite image,
A recording control means for recording the captured image or the composite image as a recorded image in the recording unit, and
It has a shooting mode or a determination means for determining a synthesis method performed by the synthesis means.
The recording control means is characterized in that a recorded image photographed or synthesized by a shooting mode or a synthesis method determined by the determination means is associated with type data determined based on the determination result of the determination and recorded. To do.

本発明によれば、合成処理の有無や種類に応じて画像を適切に判別し処理できる画像処理装置を得ることが可能になる。 According to the present invention, it is possible to obtain an image processing apparatus capable of appropriately discriminating and processing an image according to the presence or absence and type of composition processing.

本実施例における画像処理装置のブロック構成図である。It is a block block diagram of the image processing apparatus in this Example. 画像データファイルのデータ構造の例を示す図である。It is a figure which shows the example of the data structure of an image data file. 合成情報部のデータ構造の例を示す図である。It is a figure which shows the example of the data structure of the synthetic information part. 実施例における画像処理装置の全体フローチャートである。It is the whole flowchart of the image processing apparatus in an Example. 実施例における撮影モードのフローチャートである。It is a flowchart of the shooting mode in an Example. 実施例における再生モードのフローチャートである。It is a flowchart of the reproduction mode in an Example. 実施例における画像一覧表示例を示す図である。It is a figure which shows the image list display example in an Example.

以下、本発明の実施例を、図面を用いて詳細に説明する。なお、本発明の実施例に係る画像処理装置として、撮像装置の例を用いて説明する。しかしながら画像処理装置は、パーソナルコンピュータ等の汎用の画像処理装置(以下、PCとする)、デジタルカメラ、デジタルムービーカメラなどを含む。また、携帯電話、スマートフォン、いわゆるタブレット端末、カーナビゲーション装置など、画像ファイル一覧を表示可能な装置であればいずれにも適用可能であり、本発明の画像処理装置はそれらの製品形態を含む。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. As the image processing device according to the embodiment of the present invention, an example of an image pickup device will be described. However, the image processing device includes a general-purpose image processing device (hereinafter referred to as a PC) such as a personal computer, a digital camera, a digital movie camera, and the like. Further, it can be applied to any device that can display a list of image files, such as a mobile phone, a smartphone, a so-called tablet terminal, and a car navigation device, and the image processing device of the present invention includes those product forms.

図1は、本実施例の画像処理装置の一例としての撮像装置100の機能構成を示すブロック図である。制御部101はコンピュータとしてのCPU(中央演算処理装置)を備え、撮像装置全体を制御する制御手段として機能している。
制御部101は、撮像装置100が備える各構成部を動作させるためのコンピュータプログラムを記憶媒体としてのROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。ROM102は書き換え可能な不揮発性メモリであり、CPUが実行する動作プログラムに加え、撮像装置100が備える各構成部の動作に必要なパラメータ等を記憶する。RAM103は書き換え可能な揮発性メモリであり、撮像装置100が備える各構成部の動作において出力されたデータの一時的な記憶領域として用いられる。
FIG. 1 is a block diagram showing a functional configuration of an image pickup apparatus 100 as an example of the image processing apparatus of this embodiment. The control unit 101 includes a CPU (Central Processing Unit) as a computer, and functions as a control means for controlling the entire image pickup device.
The control unit 101 reads a computer program for operating each component included in the image pickup apparatus 100 from a ROM (read only memory) 102 as a storage medium, and expands the computer program into a RAM (random access memory) 103. Execute. The ROM 102 is a rewritable non-volatile memory, and stores parameters and the like necessary for the operation of each component included in the image pickup apparatus 100 in addition to the operation program executed by the CPU. The RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for data output in the operation of each component included in the image pickup apparatus 100.

撮像光学系104はレンズや絞り及びそれらの光学部材を駆動する駆動部等を備え、被写体からの光を撮像部105に結像させる。撮像部105はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal−Oxide Semiconductor)イメージセンサ等の撮像素子を備える。撮像素子は、撮像光学系104により結像された光学像に対して光電変換を行い、アナログ画像信号を形成し、撮影画像を生成するための撮像手段として機能する。前記アナログ画像信号は撮像部105のA/D(アナログ/デジタル)変換部によりA/D変換されてデジタル画像データとなりRAM103に記憶される。なお、本実施例では撮像手段を画像処理装置内に有するが画像処理装置は撮像手段を持たないものであっても良い。 The image pickup optical system 104 includes a lens, a diaphragm, a drive unit for driving the optical members thereof, and the like, and the light from the subject is imaged on the image pickup unit 105. The image pickup unit 105 includes an image pickup device such as a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal-Node Semiconductor) image sensor. The image pickup element functions as an image pickup means for performing photoelectric conversion on the optical image formed by the image pickup optical system 104 to form an analog image signal and generate a captured image. The analog image signal is A / D converted by the A / D (analog / digital) conversion unit of the imaging unit 105 to become digital image data and stored in the RAM 103. In this embodiment, the image processing device may have the image pickup means in the image processing device, but the image processing device may not have the image pickup means.

画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、縮小/拡大、フィルタリング等の様々な画像処理を適用する。記録媒体108は、撮像装置100に着脱可能なメモリカード等であり、RAM103に記憶されている画像データを記録するための記録部として機能する。ここで制御部101は、記録媒体108に撮影画像または前記合成画像を記録画像として記録する記録制御手段としても機能している。画像処理部107で処理された画像データや、撮像部105によるA/D変換後の画像データ等が、記録画像データとして記録媒体108に記録される。また画像処理部107は、撮像部105による撮影時に予め設定された撮影モードに基づいた方法で、該撮影で得られ撮像部105から出力された複数の画像データを合成処理する。 The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, reduction / enlargement, and filtering to the image data stored in the RAM 103. The recording medium 108 is a memory card or the like that can be attached to and detached from the image pickup apparatus 100, and functions as a recording unit for recording image data stored in the RAM 103. Here, the control unit 101 also functions as a recording control means for recording a captured image or the composite image as a recorded image on the recording medium 108. The image data processed by the image processing unit 107, the image data after A / D conversion by the imaging unit 105, and the like are recorded on the recording medium 108 as recorded image data. Further, the image processing unit 107 synthesizes a plurality of image data obtained by the photographing and output from the imaging unit 105 by a method based on a photographing mode set in advance at the time of photographing by the imaging unit 105.

例えば、操作部111によってユーザから設定された撮影モードを示す信号や撮像時に制御部101によって画像から判定された撮影シーンに基づいて決まった撮影モードに従って、制御部101は画像処理部107に指示を出す。それによって撮影モードに応じた合成処理を行われる。さらに制御部101はこのとき撮影モードを判定することで合成に係る画像の種類を示す種類データを決定し、画像処理部107で合成処理が行われた後の合成画像の画像データに対して決定した種類データを関連づけて記録媒体108に記録する。例えば本実施形態では、ヘッダ情報の少なくとも一部が汎用的な規格(Exif規格)に準拠して構成された画像ファイルを生成する。そして、このヘッダ情報の規格に準拠したデータ領域に種類データを記録することで、同じく画像ファイル内の画像データ部に記録される画像データと種類データとを関連づける。 For example, the control unit 101 gives an instruction to the image processing unit 107 according to a signal indicating a shooting mode set by the user by the operation unit 111 or a shooting mode determined based on a shooting scene determined from the image by the control unit 101 at the time of imaging. put out. As a result, the compositing process is performed according to the shooting mode. Further, the control unit 101 determines the type data indicating the type of the image related to the composition by determining the shooting mode at this time, and determines the image data of the composite image after the composition process is performed by the image processing unit 107. The type data is associated and recorded on the recording medium 108. For example, in the present embodiment, an image file in which at least a part of the header information is configured in accordance with a general-purpose standard (Exif standard) is generated. Then, by recording the type data in the data area conforming to the standard of the header information, the image data also recorded in the image data unit in the image file is associated with the type data.

画像処理部107は制御部101の指示に基づいて入力される複数の画像データに合成処理を行う。このとき、合成対象となるデータの少なくとも一部がROM102あるいは記録媒体108より読み出されたデータであってもよい。また画像処理部107は操作部111によってユーザから設定された合成処理の方法にしたがって、ROM102あるいは記録媒体108に記録された複数の画像データを再生時に合成する。各撮影モードとそれに対応する合成処理や再生時の各種合成処理については後述する。 The image processing unit 107 performs a compositing process on a plurality of image data input based on the instruction of the control unit 101. At this time, at least a part of the data to be synthesized may be the data read from the ROM 102 or the recording medium 108. Further, the image processing unit 107 synthesizes a plurality of image data recorded in the ROM 102 or the recording medium 108 at the time of reproduction according to the method of synthesis processing set by the user by the operation unit 111. Each shooting mode and the corresponding compositing process and various compositing processes during playback will be described later.

表示部109は、LCD(Liquid Crystal Display)等の表示デバイスを備え、撮像部105により取得された撮像画像のスルー画像表示等を行う。また表示部109は、文字や画像などのデータや、メニューなどのいわゆるグラフィカルユーザインタフェースを表示する。
距離マップ取得部110は、例えばTOF(Time of Flight)方式やステレオカメラ等で被写体の距離分布に関連する情報を距離マップとして作成することによって取得する。距離マップまたは撮像画像に関連する視差のある画像間の像ずれ量分布やデフォーカス量分布のデータ等は、被写体の奥行方向における深度情報の分布を表すことになる。以下では、深度情報の分布を表すデータを距離マップデータという。取得された距離マップデータはデジタルデータとしてRAM103に記憶される。マップデータの生成方法については多くの方法が周知であり、いずれを使っても良い。
The display unit 109 includes a display device such as an LCD (Liquid Crystal Display), and displays a through image of the captured image acquired by the imaging unit 105. Further, the display unit 109 displays data such as characters and images, and a so-called graphical user interface such as a menu.
The distance map acquisition unit 110 acquires information related to the distance distribution of the subject as a distance map by, for example, a TOF (Time of Flight) method or a stereo camera. Data such as image shift amount distribution and defocus amount distribution between images with parallax related to the distance map or the captured image represent the distribution of depth information in the depth direction of the subject. In the following, data representing the distribution of depth information will be referred to as distance map data. The acquired distance map data is stored in the RAM 103 as digital data. Many methods are well known for generating map data, and any of them may be used.

操作部111は、各種の物理的な操作部材のボタン、ダイヤル、タッチパネル、スライドバー等を含み、使用者の操作を受け付け、制御部101等に指示信号を出力する。
通信部106は、外部装置と通信するための無線LANインタフェースなどであるが、有線LANインタフェース、USBインタフェース等、外部装置と通信できるものであれば良く、その種別は問わない。この通信部106を介して、外部装置(例えばPCやスマートフォン等)と画像ファイルを送受信することができる。
(画像ファイルのデータ構造)
The operation unit 111 includes buttons, dials, touch panels, slide bars, and the like of various physical operation members, receives operations by the user, and outputs an instruction signal to the control unit 101 and the like.
The communication unit 106 is a wireless LAN interface or the like for communicating with an external device, but may be of any type as long as it can communicate with an external device such as a wired LAN interface or a USB interface. Image files can be transmitted and received to and from an external device (for example, a PC, a smartphone, etc.) via the communication unit 106.
(Data structure of image file)

図2は、撮像装置100が生成・管理する画像ファイルのデータ構造を示している。本実施例では、Exif規格にしたがったファイル形式を採用するものとする。画像データファイル201は、例えば撮像部105による撮像時に生成されたり、通信部106を介して取得したり、記録媒体108あるいはROM102に保存されていたりする。撮像装置100が画像データファイル201を処理する際には、一時的にRAM103にコピーされることもある。 FIG. 2 shows the data structure of the image file generated and managed by the image pickup apparatus 100. In this embodiment, it is assumed that a file format according to the Exif standard is adopted. The image data file 201 is generated, for example, at the time of imaging by the imaging unit 105, acquired via the communication unit 106, or stored in the recording medium 108 or the ROM 102. When the image pickup apparatus 100 processes the image data file 201, it may be temporarily copied to the RAM 103.

画像データファイル201は先頭に画像開始を示すマーカーSOI(202)を有し、その後にヘッダ領域としてアプリケーションマーカーAPP1(203)(APP1領域)を有する。
アプリケーションマーカーAPP1(203)内は、APP1のサイズ(204)、APP1の識別コード(205)、画像の作成日時を示す DateTime(206)、画像データが生成された日時を示す DateTimeOriginal(207)、画像の関連を示すRelationInformation(208)、撮影情報等(209)およびサムネイル画像(210)から構成される。
The image data file 201 has a marker SOI (202) indicating the start of an image at the beginning, and then has an application marker APP1 (203) (APP1 area) as a header area.
Within the application marker APP1 (203), the size of APP1 (204), the identification code (205) of APP1, DateTime (206) indicating the date and time when the image was created, DateTimeOriginal (207) indicating the date and time when the image data was generated, and the image. It is composed of a Relation Information (208), shooting information, etc. (209) and a thumbnail image (210) showing the relationship between the two.

DateTime(206)および DateTimeOriginal(207)にはRAM103に記憶した撮影日時情報を格納する。また、RelationInformation(208)には例えば合成される複数の撮影画像間において関連がある事を示す所定の情報が記載される。この所定の情報は最初に記録した関連画像の画像番号でも良いし、特定の撮影モードを示す情報でも良い。
撮影情報等(209)としては、たとえば、撮影日時、撮影パラメータ(露光時間、絞り値、ISO感度、焦点距離、補助光源の有無等)、本実施例に係る合成情報部2091を含む。合成情報部2091には、本実施例で生成、処理する合成関連の情報が保持される。
The DateTime (206) and DateTimeOriginal (207) store the shooting date / time information stored in the RAM 103. In addition, Relation Information (208) describes, for example, predetermined information indicating that there is a relationship between a plurality of captured images to be combined. This predetermined information may be the image number of the related image recorded first, or may be information indicating a specific shooting mode.
The shooting information and the like (209) include, for example, the shooting date and time, shooting parameters (exposure time, aperture value, ISO sensitivity, focal length, presence / absence of auxiliary light source, etc.), and the composite information unit 2091 according to this embodiment. The synthesis information unit 2091 holds the synthesis-related information generated and processed in this embodiment.

また記録される本画像データは、量子化テーブルDQT(212)、ハフマンテーブルDHT(212)、フレーム開始マーカーSOF(213)、スキャン開始マーカー(214)および圧縮データが格納された画像データ部215から構成され、画像データの最後を示すマーカーEOI(216)で終端される。
本実施例で示したファイル構造はExif規格の構造に合わせたものとしたのでExif規格と互換性を持つことができる。しかし、本実施例の合成情報等の各種情報の記録構造は、必ずしもExif規格の構造に限定されない。例えば画像データファイル201とは別のファイルに記録してもよいし、撮像装置100が持つ特別なデータベースに記録してもよい。
The recorded image data is obtained from the image data unit 215 in which the quantization table DQT (212), the Huffman table DHT (212), the frame start marker SOF (213), the scan start marker (214), and the compressed data are stored. It is configured and terminated with a marker EOI (216) indicating the end of the image data.
Since the file structure shown in this embodiment is adapted to the structure of the Exif standard, it can be compatible with the Exif standard. However, the recording structure of various information such as the synthetic information of this embodiment is not necessarily limited to the structure of the Exif standard. For example, it may be recorded in a file different from the image data file 201, or may be recorded in a special database included in the image pickup apparatus 100.

図3は、合成情報部2091に保持されている情報の一例を示している。本実施例では、後段の画像処理部107や外部装置のアプリケーション、ネットワークサーバー上などで本合成画像と、本合成画像に係る情報を元に、合成処理の最適化や復元やAI等を用いた学習を行うために、本合成に係る様々な情報を記録する。かつこれらの情報の少なくとも一部を汎用的なExif領域に格納することで、Exif準拠の各種装置と互換性を持たせることができ、汎用的なアプリケーションでも参照可能とすることができる。 FIG. 3 shows an example of the information held in the synthetic information unit 2091. In this embodiment, based on the composite image and the information related to the composite image on the image processing unit 107 in the subsequent stage, the application of the external device, the network server, etc., the optimization and restoration of the composite processing, AI, etc. are used. Record various information related to this synthesis for learning. Moreover, by storing at least a part of this information in the general-purpose Exif area, compatibility with various Exif-compliant devices can be made, and it can be referred to by a general-purpose application.

合成情報部2091には画像識別情報301、合成種別情報302、合成画像のソース画像数情報303、合成画像情報304、合成画像のソース画像情報305を記載する領域がそれぞれ配されている。
画像識別情報301は、主に合成に係る画像の種類を示す種類データで、「非合成画像」、「一般合成画像」、「撮影時取得合成画像」などの分類情報からいずれか1つが格納される。「撮影時取得合成画像」は、撮影時に撮像素子から取得された一連の複数のソース画像(暫定記録画像)のみ(全数の使用を必須としない)から合成された画像である。かつ全てのソース画像の取得の際に撮影の条件(絞り値、被写体距離、光源、レンズ焦点距離など)と被写体の範囲(撮影視野)が一定であるとみなせる合成画像に付される分類である。
The composite information unit 2091 is provided with areas for describing the image identification information 301, the composite type information 302, the source image number information 303 of the composite image, the composite image information 304, and the source image information 305 of the composite image.
The image identification information 301 is type data mainly indicating the type of the image related to the composition, and any one of the classification information such as "non-composite image", "general composite image", and "composite image acquired at the time of shooting" is stored. To. The "composite image acquired at the time of shooting" is an image synthesized from only a series of a plurality of source images (provisional recorded images) acquired from the image sensor at the time of shooting (the use of all of them is not essential). In addition, it is a classification attached to a composite image that can be regarded as having constant shooting conditions (aperture value, subject distance, light source, lens focal length, etc.) and subject range (shooting field of view) when all source images are acquired. ..

「撮影時取得合成画像」には第1の種類データとして「3」が付与される。ここで「撮影時取得合成画像」において一定と見なせる撮影の条件は「一般合成画像」は、複数の撮影画像(ソース画)から合成された合成画像に付される分類であり、合成の方法を限定しない。「一般合成画像」には第2の種類データとして「2」が付与される。
「非合成画像」は、「一般合成画像」「撮影時取得合成画像」に分類される合成画像とみなせない画像に付与する、例えば合成されていないとみなされる画像に付与される分類である。「非合成画像」には種類データとして「1」が付与される。なお、画像識別情報301として上記の「1」〜「3」のいずれか以外の値を用意し、用いても良い。例えば、いずれの分類に付されるかが不明な場合は、種類データとして「0」を付与するなどしてもよい。
(各合成モードとその分類)
"3" is assigned as the first type data to the "composite image acquired at the time of shooting". Here, the shooting condition that can be regarded as constant in the "composite image acquired at the time of shooting" is that the "general composite image" is a classification attached to the composite image synthesized from a plurality of shot images (source images), and the method of compositing is described. Not limited. "2" is given to the "general composite image" as the second type data.
The "non-composite image" is a classification given to an image that cannot be regarded as a composite image classified into a "general composite image" and a "composite image acquired at the time of shooting", for example, an image that is considered not to be composited. "1" is given as the type data to the "non-composite image". A value other than any of the above "1" to "3" may be prepared and used as the image identification information 301. For example, when it is unclear which classification is assigned, "0" may be added as the type data.
(Each synthesis mode and its classification)

次に各種の撮影モードで合成処理を伴うものによって得られる画像や再生時の各種合成処理によって得られる合成画像に対する画像識別情報301の付与例について説明する。
なお、本実施例では、前述のように、撮影時に合成に使われた複数枚の画像の撮影条件と画角が同じ場合には第1の種類データとして「3」を生成する。また、合成に使われた複数枚の画像の撮影条件と画角の一方が異なる場合には第2の種類データとして「2」を生成する。また非合成の場合は第3の種類データとして「1」を生成するものとする。
Next, an example of assigning the image identification information 301 to the image obtained by the one accompanied by the compositing process in various shooting modes and the composite image obtained by the various compositing processes during reproduction will be described.
In this embodiment, as described above, when the shooting conditions and the angle of view of the plurality of images used for compositing at the time of shooting are the same, "3" is generated as the first type data. Further, when one of the shooting conditions and the angle of view of the plurality of images used for compositing is different, "2" is generated as the second type data. In the case of non-synthesis, "1" is generated as the third type data.

例えばマルチショット系(異なるタイミングあるいは撮像光学系で複数の撮影を伴う撮影モードを以降マルチショット系と呼ぶことにする)の合成の種類の一つとして撮影時にHDR(High Dynamic Range)合成をするモードがある。この撮影時HDR合成モードでは、ISOやシャッタースピードなど、複数のソース画像の中で撮影条件が一定と見なせないものがある。従って画像識別情報として第2の種類データである「2」を付与する。ここで撮影時のHDR合成は、例えば露出(ISOやシャッタースピード等)の異なる複数枚の画像を撮影し、それぞれの画像を異なるガンマで現像し、現像結果を合成するものである。なお、撮影時HDR合成モードは露出条件の異なる複数の画像のなかから、画像の輝度値に応じて適正な画像を抜き出して合成するモードである。 For example, a mode in which HDR (High Dynamic Range) synthesis is performed at the time of shooting as one of the types of synthesis of a multi-shot system (a shooting mode involving multiple shootings at different timings or an imaging optical system is hereinafter referred to as a multi-shot system). There is. In this HDR composition mode at the time of shooting, there are some source images such as ISO and shutter speed whose shooting conditions cannot be regarded as constant. Therefore, "2", which is the second type data, is added as the image identification information. Here, HDR composition at the time of shooting is, for example, taking a plurality of images having different exposures (ISO, shutter speed, etc.), developing each image with a different gamma, and synthesizing the development results. The HDR composition mode at the time of shooting is a mode in which an appropriate image is extracted and combined according to the brightness value of the image from a plurality of images having different exposure conditions.

また、マルチショット系の合成の種類の一つとして再生時に画像処理装置やPCアプリなどでHDR処理をする場合(再生時HDR合成モード)でも、画像識別情報として第2の種類データである「2」を付与する。これは、撮影時に合成された画像ではないためである。またISOやシャッタースピードなど、複数のソース画像の中で撮影条件が一定と見なせないものがあるためである。ここで再生時に画像処理装置やPCアプリなどで行うHDR処理とは、例えばユーザが選択した画像を露出差に応じたガンマでそれぞれ現像し、現像結果を合成するものである。 Further, even when HDR processing is performed by an image processing device or a PC application during playback as one of the types of multi-shot compositing (HDR compositing mode during playback), the second type of data is "2" as image identification information. Is given. This is because the image was not composited at the time of shooting. This is also because there are some source images such as ISO and shutter speed whose shooting conditions cannot be regarded as constant. Here, the HDR processing performed by an image processing device, a PC application, or the like at the time of reproduction is, for example, developing an image selected by a user with gamma according to an exposure difference and synthesizing the development results.

また、マルチショット系の合成の種類の一つとして、例えばHDR絵画調撮影を行うHDR絵画調撮影モードで得られた合成画像の場合も上記と同様に画像識別情報として「2」を付与する。なお、HDR絵画調撮影とは、露出(ISOやシャッタースピード等)の異なる複数枚の画像から階調処理を行うなどして絵画のような雰囲気を持つ合成画像を生成するモードである。
また、合成の種類の一つとしてマルチショットノイズ低減機能を達成するために複数撮像を行い合成画像を生成する撮影モードで得られる合成画像の場合にも画像識別情報として「2」を付与する。これは、撮影条件は一定とみなせるが、手持ち撮影前提の機能であり、手振れ等により各撮影画像の画角が異なる場合があり画角が一定と見なせないためである。なお、マルチショット低減機能とは、同一撮影条件で複数枚撮影した画像を、検出される振れ量に基づき位置合わせしてから合成し、ノイズの低減された合成画像を得る撮影モードであり、被写体が暗くノイズが多い場合などに用いる。
Further, as one of the types of multi-shot synthesis, for example, in the case of a composite image obtained in the HDR painting-like shooting mode in which HDR painting-like shooting is performed, "2" is added as image identification information in the same manner as described above. The HDR painting-like shooting is a mode in which a composite image having a painting-like atmosphere is generated by performing gradation processing from a plurality of images having different exposures (ISO, shutter speed, etc.).
Further, as one of the types of composition, "2" is added as image identification information even in the case of a composite image obtained in a shooting mode in which a plurality of images are taken to generate a composite image in order to achieve a multi-shot noise reduction function. This is because the shooting conditions can be regarded as constant, but the function is premised on handheld shooting, and the angle of view of each shot image may differ due to camera shake or the like, and the angle of view cannot be regarded as constant. The multi-shot reduction function is a shooting mode in which multiple images taken under the same shooting conditions are aligned based on the detected shake amount and then combined to obtain a composite image with reduced noise. It is used when it is dark and there is a lot of noise.

また、手持ち撮影で夜景をストロボなしで複数回撮影することを前提とした手持ち夜景撮影モードで得られる合成画像の場合も画像識別情報として「2」を付与する。これも撮影条件は一定であるが、手持ち撮影前提の機能であり、手振れにより各撮影画像の画角が異なる場合があり画角が一定と見なせないためである。
また、合成の種類の一つとして手持ち撮影で夜景をストロボありの撮影とストロボなしの撮影を連続で行う場合も、画像識別情報として「2」を付与する。これは手持ち撮影を前提とした機能であり、画角が一定と見なせないためである。また撮影条件のうち、「光源」に関する条件が変わる撮影画像が存在するためである。
Further, "2" is also added as image identification information in the case of a composite image obtained in the handheld night view shooting mode on the premise that the night view is shot a plurality of times without a strobe in handheld shooting. This is also because the shooting conditions are constant, but this is a function premised on handheld shooting, and the angle of view of each shot image may differ due to camera shake, and the angle of view cannot be regarded as constant.
Further, as one of the types of composition, "2" is added as the image identification information when the night view is continuously shot with a strobe and without a strobe by handheld shooting. This is a function premised on handheld shooting, and the angle of view cannot be regarded as constant. This is also because there are captured images in which the conditions related to the "light source" change among the imaging conditions.

次にいわゆるクリエイティブフィルタ系の撮影の場合について説明する。クリエイティブフィルタ系の撮影とは、撮影された画像に特殊な画像処理効果を施して記録する撮影モードである。
撮影時の撮影モードの種類として所謂ラフモノクロ撮影、ソフトフォーカス撮影、ジオラマ風撮影、トイカメラ撮影、油彩風撮影、水彩風撮影、魚眼風撮影、美肌撮影、背景ぼかし撮影などの場合には画像識別情報として「1」を付与する。また、これらのモードで撮影画像に行われる画像処理と同等の画像処理を再生時に画像に施す編集モード(アプリケーション)で得られる画像に対しても、画像識別情報として「1」を付与する。「1」を付与する理由は、これらの撮影モードあるいは編集モード(アプリケーション)で行われる画像処理の中には、画像同士の合成を伴うモードもあるものの、複数の撮影画像(ソース画像)を用いた合成処理でないためである。
Next, the case of so-called creative filter type shooting will be described. The creative filter type shooting is a shooting mode in which a shot image is recorded by applying a special image processing effect.
Images for so-called rough monochrome shooting, soft focus shooting, diorama style shooting, toy camera shooting, oil painting style shooting, watercolor style shooting, fisheye style shooting, beautiful skin shooting, background blur shooting, etc. "1" is added as the identification information. Further, "1" is added as the image identification information to the image obtained in the editing mode (application) in which the image processing equivalent to the image processing performed on the captured image in these modes is applied to the image at the time of reproduction. The reason for assigning "1" is that although some image processing performed in these shooting modes or editing modes (applications) involves compositing images, a plurality of shot images (source images) are used. This is because it is not a synthetic process.

ラフモノクロ撮影とは、画像を1枚撮影するとともに、撮影した画像にランダムノイズを重畳し、モノクロ処理を施すことでモノクロフィルムのような効果を出す撮影である。ソフトフォーカス撮影とは画像を例えば1枚撮影し、撮影画像にLPF(Low Pass Filter)をかけた画像と元の撮影画像とを一定比率で合成するような撮影である。ジオラマ風撮影とは画像を例えば1枚撮影し、撮影画像にLPFをかけた画像と元の撮影画像とを一部の領域で合成することで画像の一部の領域をぼかして現実の被写体をジオラマにしたものを撮影したかのような画像効果を付与する画像を生成するモードである。 Rough monochrome photography is photography in which one image is photographed, random noise is superimposed on the photographed image, and monochrome processing is performed to produce an effect similar to that of a monochrome film. The soft focus shooting is a shooting in which, for example, one image is shot, and the shot image is subjected to LPF (Low Pass Filter) and the original shot image is combined at a constant ratio. What is diorama-style shooting? For example, one image is taken, and the shot image with LPF applied and the original shot image are combined in a part of the image to blur a part of the image to create a real subject. This mode generates an image that gives an image effect as if the image was taken as a diorama.

トイカメラ撮影とは、画像を例えば1枚撮影し、トイカメラで撮影されたかのような画像効果を付加する撮影である。トイカメラ撮影で行われる画像処理は、例えばLPFをかけた画像と元の画像とを合成することで甘いピント効果を再現したり、輝度、色変換などにより明るい仕上がり、偏った色調、周辺減光などの効果を再現したりする処理である。油彩風撮影とは、画像を例えば1枚撮影し、撮影された画像に画像処理を施し、元の画像と合成することで油絵のような見えになる画像処理を施したものである。 The toy camera shooting is a shooting in which, for example, one image is taken and an image effect is added as if the image was taken by the toy camera. Image processing performed by toy camera shooting, for example, reproduces a sweet focus effect by synthesizing an LPF-applied image and the original image, and bright finishes, biased color tones, and peripheral dimming due to brightness and color conversion. It is a process to reproduce the effect such as. The oil painting style photography is, for example, taking one image, performing image processing on the photographed image, and performing image processing to make the photographed image look like an oil painting by combining with the original image.

水彩風撮影とは、画像を例えば1枚撮影し、撮影された画像に画像処理を施し、元の画像と合成することで水彩画のような見えになる画像処理を施したものである。魚眼風撮影とは、画像をたとえば1枚撮影し、領域毎に魚眼レンズ風の歪みを持たせるように画素の合成(補間)を行うことで魚眼レンズで撮影したかのような効果を施したものである。美肌撮影とは、肌色部分のNR(Noise Reduction)を強くして解像感を落し、肌の質感を滑らかにする撮影モードである。背景ぼかし撮影とは、絞りを変えて例えば2枚撮影し、2枚の画像の差分から主被写体と背景を分離し、背景をぼかす撮影である。この場合合成のソース画像は1枚とし、ぼかす領域を決定するために複数枚撮影をする。背景ぼかし撮影を絞りを開放にすることによって実現する場合もある。
日付写し込み撮影とは日付テキストデータを画像に重畳するものである。
In the watercolor-style photography, for example, one image is taken, the photographed image is subjected to image processing, and the photographed image is combined with the original image to be subjected to image processing to make the image look like a watercolor painting. Fisheye-style photography is, for example, taking one image and combining (interlacing) pixels so that each area has a fisheye lens-like distortion, giving the effect of shooting with a fisheye lens. Is. The skin-beautifying shooting is a shooting mode in which the NR (Noise Reduction) of the skin-colored portion is strengthened to reduce the sense of resolution and smooth the texture of the skin. The background blur shooting is a shooting in which, for example, two images are taken by changing the aperture, the main subject and the background are separated from the difference between the two images, and the background is blurred. In this case, the composite source image is one image, and a plurality of images are taken to determine the blurred area. In some cases, background blur shooting is realized by opening the aperture.
Date imprint photography is the superimposition of date text data on an image.

また、合成の種類の一つとして多重露光撮影(多重合成モード)の場合には画像識別情報として第2の種類データである「2」を付与する。これは、撮影条件および画角をユーザが自由に設定可能であるため、それぞれ一定とみなせないためである。また連写優先の場合には一枚目に記録画像を選択できるためである。なお、多重露光撮影には、例えば加算モード、加算平均モード、比較明モード、比較暗モードなどが含まれる。加算モードとは複数枚撮影し、RAW画像を単純に加算するものである。加算平均モードとは、複数枚撮影し、RAW画像を単純に加算平均するものである。これによって例えば非常に暗い画像のS/Nを向上させるためのものである。比較明モードとは、複数枚撮影しRAW画像を合成する際に、同一座標における画素値が低くない方を採用する比較明合成処理を行うものである。 Further, in the case of multiple exposure photography (multiple composition mode) as one of the types of composition, "2", which is the second type data, is added as the image identification information. This is because the shooting conditions and the angle of view can be freely set by the user and cannot be regarded as constant. This is because the recorded image can be selected as the first image in the case of continuous shooting priority. The multiple exposure shooting includes, for example, an addition mode, an addition averaging mode, a comparative bright mode, a comparative dark mode, and the like. The addition mode is a mode in which a plurality of images are taken and RAW images are simply added. The addition averaging mode is a mode in which a plurality of images are taken and RAW images are simply added and averaged. This is for improving the S / N of, for example, a very dark image. The comparative brightness mode is to perform a comparative brightness composition process in which the one whose pixel value at the same coordinate is not low is adopted when a plurality of images are taken and a RAW image is combined.

比較暗モードとは、複数枚撮影しRAW画像を合成する際に、同一座標における画素値が高くない方を採用する比較暗合成処理を行うものである。
また、合成の種類の一つとしてパノラマ撮影や深度合成撮影や星空ポートレート撮影の場合には、画像識別情報として「2」を付与する。これは、画角が異なるソース画像の合成であるためである。なお、パノラマ撮影とは、ユーザがカメラをパンニングするなどして複数の画角で撮影し、それらを合成するものである。この合成によって、複数の異なる画角で撮像された複数の画像を繋げてより広角の画像が生成される。パノラマ撮影で合成により得られる広角な画像には全方位(360度)の画像なども含まれる。
深度合成撮影とは、ピントを振って複数枚撮影し、距離マップ取得部110により取得された距離マップなどに基づいて複数の画像のピントが合っている領域を合成して、各画像よりも深度の深い画像を生成する撮影である。星空ポートレート撮影とは、ストロボを発光させて撮影を行うストロボ撮影の後、ストロボは非発光で連続して例えば2枚を撮影し、例えば3枚の画像を合成するような撮影である。
The comparative dark mode is a process of performing a comparative dark compositing process in which the one in which the pixel values at the same coordinates are not high is adopted when a plurality of images are taken and the RAW images are combined.
Further, in the case of panoramic photography, depth composition photography, or starry sky portrait photography as one of the types of composition, "2" is added as image identification information. This is because the source images having different angles of view are combined. In the panoramic shooting, the user pans the camera to shoot at a plurality of angles of view and combines them. By this composition, a wide-angle image is generated by connecting a plurality of images captured at a plurality of different angles of view. Wide-angle images obtained by compositing in panoramic photography include images in all directions (360 degrees).
Depth composite shooting is to take a plurality of images by shaking the focus, synthesize the areas in which the plurality of images are in focus based on the distance map acquired by the distance map acquisition unit 110, etc., and have a depth higher than each image. It is a shooting that produces a deep image of. The starry sky portrait photography is a shooting in which, for example, after strobe photography in which the strobe is fired, the strobe does not emit light and continuously shoots, for example, two images, and for example, three images are combined.

なお、合成の種類の一つとして星空軌跡撮影では画像識別情報として「3」を付与する。これは画角(被写体の範囲、撮影視野)及び撮影条件が一定と見なせるためである。なお、星空軌跡撮影とは星空を複数枚撮影し比較明合成する撮影モードである。
また撮像部105が例えば撮像素子と信号処理部とが一体の多層構造となったいわゆる積層センサである場合を考える。このとき該積層センサ内で行われる画像合成があったとしても、積層センサからの出力は通常の合成が行われない画像とデータ形式がほとんど変わらない1つの画像データである場合が考えられるため、画像識別情報として「1」を付与する。
As one of the types of composition, "3" is added as image identification information in starry sky trajectory photography. This is because the angle of view (range of the subject, shooting field of view) and shooting conditions can be regarded as constant. The starry sky trajectory shooting is a shooting mode in which a plurality of starry skies are shot and comparatively brightly combined.
Further, consider the case where the image pickup unit 105 is, for example, a so-called laminated sensor in which the image pickup element and the signal processing unit have an integrated multilayer structure. At this time, even if there is image composition performed in the stacking sensor, the output from the stacking sensor may be one image data whose data format is almost the same as that of the image in which normal composition is not performed. "1" is added as the image identification information.

ただし、制御部101から積層センサである撮像部105に撮像部105内の信号処理部に合成処理の指示が行えるような形態である場合には、該合成の指示に応じて撮像部105から出力された画像データに画像識別情報として「2」を付与する。
また合成の種類の一つとして超解像撮影と呼ばれる、撮像素子あるいは撮像光学系を微小に移動させて複数枚の撮影画像を行い、それらの画像を合成することで解像度を上げる撮影モードがある。この超解像撮影モードの場合には、画角をずらして撮像している点で撮影視野が一定とみなせないため画像識別情報として「2」を付与する。
合成種別情報302は、合成画像がどのような合成処理モード、合成処理、合成条件で合成されたかの種類を示す情報である。合成種別情報302は、例えば前述のような多重露出モード、加算合成、比較明合成、HDR合成、パノラマ合成などの合成用の複数の種類に応じた種類データから本画像データに対応する情報の少なくとも1つが格納される。
However, if the control unit 101 can instruct the image pickup unit 105, which is a laminated sensor, to perform the synthesis process to the signal processing unit in the image pickup unit 105, the image pickup unit 105 outputs in response to the synthesis instruction. "2" is added as image identification information to the image data.
In addition, as one of the types of compositing, there is a shooting mode called super-resolution shooting, in which the image sensor or the imaging optical system is moved minutely to perform a plurality of shot images, and the resolution is increased by synthesizing those images. .. In the case of this super-resolution shooting mode, since the shooting field of view cannot be regarded as constant at the point where the images are taken with the angle of view shifted, "2" is added as the image identification information.
The composition type information 302 is information indicating the type of composition processing mode, composition processing, and composition condition under which the composition image is synthesized. The composition type information 302 is at least information corresponding to the present image data from the type data corresponding to a plurality of types for composition such as the multiple exposure mode, additive synthesis, comparative bright composition, HDR composition, and panorama composition as described above. One is stored.

ソース画像数情報303は、画像データファイル201の画像データを生成するために取得した画像の数についての情報で、撮影画像(ソース画像)数、合成画像に使用されたソース画像数を示す合成画像数、使用画像番号の情報が含まれる。撮影画像数とは、本画像データを生成するために撮影した画像の総数を示す。この中には例えば手ぶれ等により画質が悪くなり最終的に合成画像には使用しなかった画像データなどの枚数も含まれている。合成画像数は実際に画像データファイル201の画像データ部215に格納されて画像データの生成に用いられた画像の数を示す。使用画像番号とは、合成画像数にカウントされる、本画像データの生成時に合成された画像データそれぞれに係る画像番号を並べた情報である。 The source image number information 303 is information about the number of images acquired to generate the image data of the image data file 201, and is a composite image indicating the number of captured images (source images) and the number of source images used for the composite image. Information on the number and image number used is included. The number of captured images indicates the total number of images captured to generate the present image data. This includes, for example, the number of image data and the like that are not used in the composite image due to poor image quality due to camera shake or the like. The number of composite images indicates the number of images actually stored in the image data unit 215 of the image data file 201 and used to generate the image data. The image number used is information in which the image numbers related to each of the image data synthesized at the time of generating the present image data, which is counted in the number of composite images, are arranged.

合成画像情報304は、合成に用いられた画像の撮影条件に係る統計値の情報が記録されている。図3には露光時間の統計値として、合成に用いられた画像の中での露光時間の最大値が記録されている。また絞り値、ISO感度、焦点距離の統計値として、合成に用いられた複数画像の絞り値の平均値、ISO感度の平均値、焦点距離の平均値がそれぞれ記録されている。
合成画像情報304に記録される各撮影条件に係る統計値は1種類に限らず、最大値、最小値、合計値、平均値、分散値などデータ収集やアプリケーションの目的に応じて任意の統計値を複数種類記録しておいてもよい。また、本実施例では合成に用いられた画像についての撮影パラメータの統計値のみを格納しているが、これに限らず画像データを生成するために撮影された、合成に用いられなかった画像も含めた上記統計値の情報も1種類乃至複数種類格納してもよい。
In the composite image information 304, information on statistical values related to the shooting conditions of the images used for synthesis is recorded. In FIG. 3, the maximum value of the exposure time in the image used for the composition is recorded as the statistical value of the exposure time. Further, as statistical values of aperture value, ISO sensitivity, and focal length, an average value of aperture values of a plurality of images used for synthesis, an average value of ISO sensitivity, and an average value of focal length are recorded.
The statistical value related to each shooting condition recorded in the composite image information 304 is not limited to one type, and is an arbitrary statistical value depending on the purpose of data collection or application such as maximum value, minimum value, total value, average value, and dispersion value. May be recorded in multiple types. Further, in this embodiment, only the statistical values of the shooting parameters for the images used for compositing are stored, but the present invention is not limited to this, and the images taken to generate the image data and not used for compositing are also stored. One or more types of information on the above statistical values including the information may be stored.

ソース画像情報305は、画像データファイル201の画像データを生成するために取得した各画像の撮影パラメータに関する情報である。撮影画像ごとに露光時間、絞り値、ISO感度、焦点距離等の撮影パラメータが順に記録される。このような情報を格納しておくことで、あるシーンを撮影して取得された合成画像が、どのような撮影パラメータで撮影された画像を、どれくらいの数だけ取得して生成されたのかについての情報を収集することができる。
(デジタルカメラの全体動作)
The source image information 305 is information regarding the shooting parameters of each image acquired to generate the image data of the image data file 201. Shooting parameters such as exposure time, aperture value, ISO sensitivity, and focal length are recorded in order for each shot image. By storing such information, it is possible to determine how many images taken by shooting a certain scene and how many images were taken with what shooting parameters were obtained and generated. Information can be collected.
(Overall operation of digital camera)

以下、本実施形態の撮像装置100の全体動作について図4の本実施例の撮像装置100の全体的な動作を説明するためのフローチャートを参照して説明する。なお、図4を含む以下に示すフローチャートは、制御部101がROM102に格納されたプログラムを読み出し、演算処理や制御を行うことにより実現される。 Hereinafter, the overall operation of the image pickup apparatus 100 of the present embodiment will be described with reference to a flowchart for explaining the overall operation of the image pickup apparatus 100 of the present embodiment of FIG. The flowchart shown below including FIG. 4 is realized by the control unit 101 reading the program stored in the ROM 102 and performing arithmetic processing and control.

(全体のフロー)
ステップS401では、ユーザにより操作部111に含まれる電源スイッチが操作され、電源オンに切り替わることで、制御部101はフラグや制御変数などを初期化する。また撮影モード情報の取得し、判定と設定が行われる。このとき合成処理を伴う撮影モードが設定されている場合には、合成に用いる画像数Nの設定情報も取得し、判定と設定が行われる。ステップS402では、制御部101は操作部111に含まれるモード切替スイッチの設定位置を判断し、撮影モードに設定されている場合、ステップS403に進み、撮影モード以外が設定されている場合、ステップS404に進む。ステップS403における撮影モード処理の詳細は後述する。
(Overall flow)
In step S401, the power switch included in the operation unit 111 is operated by the user to switch the power on, so that the control unit 101 initializes the flags, control variables, and the like. In addition, shooting mode information is acquired, and judgment and setting are performed. At this time, when the shooting mode accompanied by the compositing process is set, the setting information of the number of images N used for compositing is also acquired, and the determination and the setting are performed. In step S402, the control unit 101 determines the setting position of the mode changeover switch included in the operation unit 111, proceeds to step S403 when the shooting mode is set, and steps S404 when a mode other than the shooting mode is set. Proceed to. Details of the shooting mode processing in step S403 will be described later.

ステップS404では、制御部101はモード切替スイッチが再生モードに設定されているかを判断し、再生モードに設定されている場合、ステップS405に進み、再生モード以外が設定されている場合、ステップS406に進む。ステップS405における再生モード処理の詳細は後述する。ステップS406では、制御部101は選択されたその他のモードに応じた処理を実行し、実行後にステップS407に進む。その他のモードとして記録媒体108に格納されたファイルの送受信を行う通信モードなどが含まれる。 In step S404, the control unit 101 determines whether the mode changeover switch is set to the reproduction mode, proceeds to step S405 if it is set to the reproduction mode, and proceeds to step S406 if a mode other than the reproduction mode is set. move on. Details of the reproduction mode processing in step S405 will be described later. In step S406, the control unit 101 executes processing according to the other selected modes, and proceeds to step S407 after the execution. Other modes include a communication mode for transmitting and receiving files stored in the recording medium 108.

ステップS407では、制御部101は電源スイッチの設定位置を判断する。電源スイッチが電源オンに設定されている場合、ステップS402に戻り、電源スイッチが電源オフに設定されている場合、ステップS408に進む。ステップS408では、制御部101は所定の終了処理を行う。終了処理には、以下のような処理が含まれる。すなわち、制御部101は表示部109の表示を終了状態に変更し、レンズバリアを閉じて撮像部105を保護する。また、制御部101はフラグや制御変数などを含むパラメータや設定値、設定モードを不揮発性メモリ等に記録し、その後、電源供給が不要な部分への電源を遮断する。
(撮影・記録処理)
図5に本実施例における撮像装置100の撮影・記録処理のフローチャートを示す。
In step S407, the control unit 101 determines the setting position of the power switch. If the power switch is set to power on, the process returns to step S402, and if the power switch is set to power off, the process proceeds to step S408. In step S408, the control unit 101 performs a predetermined end process. The termination process includes the following processes. That is, the control unit 101 changes the display of the display unit 109 to the finished state, closes the lens barrier, and protects the image pickup unit 105. Further, the control unit 101 records parameters including flags and control variables, setting values, and setting modes in a non-volatile memory or the like, and then shuts off the power supply to a portion that does not require power supply.
(Shooting / recording processing)
FIG. 5 shows a flowchart of the photographing / recording process of the imaging device 100 in this embodiment.

(撮影モード処理)
図5は、図4のステップS403の撮影モード処理の詳細を示すフローチャートである。
撮影モードを開始すると、ステップS501において、制御部101は表示部109に撮像した画像を順次出力して、表示部109に順次表示するスルー表示を行う。
(Shooting mode processing)
FIG. 5 is a flowchart showing details of the shooting mode processing in step S403 of FIG.
When the shooting mode is started, in step S501, the control unit 101 sequentially outputs the images captured by the display unit 109, and performs a through display in which the images are sequentially displayed on the display unit 109.

ステップS502では、制御部101はユーザによりシャッタースイッチSW1が押下されたか否かを判定する。押下された場合、ステップS503に進み、押下されていない場合、シャッタースイッチSW1の押下を待つ。ステップS503では、制御部101は撮影準備動作を行う。即ち、測距を行って撮影レンズ103の焦点を被写体に合わせると共に、測光を行って絞り値およびシャッター時間を決定する。制御部101は測光結果に基づき、必要であればストロボの発光量などの設定も行う。 In step S502, the control unit 101 determines whether or not the shutter switch SW1 has been pressed by the user. If it is pressed, the process proceeds to step S503, and if it is not pressed, the shutter switch SW1 is waited for to be pressed. In step S503, the control unit 101 performs a shooting preparation operation. That is, distance measurement is performed to focus the photographing lens 103 on the subject, and photometry is performed to determine the aperture value and the shutter time. Based on the photometric result, the control unit 101 also sets the flash emission amount and the like if necessary.

ステップS504では、制御部101はユーザによりシャッタースイッチSW2が押下されたか否かを判定し、押下された場合、ステップS506に進む。押下されていない場合、ステップS505に進み、制御部101はシャッタースイッチSW1の押下が継続されているかを判断する。シャッタースイッチSW1の押下が解除されている場合、ステップS502に戻る。ステップS505でYesの場合には、ステップS504に戻る。
ステップS506では、制御部101は撮影開始する日時を制御部101内のRTC(Real Time Clock)から取得し、RAM103に記憶する。続いて、ステップS507では、合成処理フラグiを0にセットする。
続いてステップS508で制御部101はRAM103またはROM102に記憶される測光データに従い、絞り機能を有する光学系104内のシャッターを絞り値に応じて開放して撮像部105の撮像素子を露光開始する。
In step S504, the control unit 101 determines whether or not the shutter switch SW2 has been pressed by the user, and if it is pressed, the process proceeds to step S506. If it is not pressed, the process proceeds to step S505, and the control unit 101 determines whether the shutter switch SW1 is continuously pressed. When the shutter switch SW1 is released, the process returns to step S502. If Yes in step S505, the process returns to step S504.
In step S506, the control unit 101 acquires the date and time when the shooting starts from the RTC (Real Time Clock) in the control unit 101 and stores it in the RAM 103. Subsequently, in step S507, the synthesis processing flag i is set to 0.
Subsequently, in step S508, the control unit 101 opens the shutter in the optical system 104 having an aperture function according to the aperture value according to the photometric data stored in the RAM 103 or the ROM 102, and starts exposing the image sensor of the image pickup unit 105.

ステップS509では、制御部101は撮像部105から画像データを出力した後、画像処理部107を用いて圧縮・符号化処理などの画像処理を行う。その後、ステップS510で制御部101は設定されている撮影モードが合成処理を伴う撮影モードか否かを判定する。即ち、ステップS401において、制御部101は撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段として機能する。
合成処理を伴う撮影モードでなければステップS511に進みヘッダに記録する画像識別情報301を通常画像(非合成画像)であることを示す種類データ「1」に決定し、格納する。
In step S509, the control unit 101 outputs image data from the image pickup unit 105, and then uses the image processing unit 107 to perform image processing such as compression / coding processing. After that, in step S510, the control unit 101 determines whether or not the set shooting mode is a shooting mode involving compositing processing. That is, in step S401, the control unit 101 functions as a determination means for determining the photographing mode or the synthesis method performed by the synthesis means.
If the shooting mode does not include a compositing process, the process proceeds to step S511, and the image identification information 301 to be recorded in the header is determined as the type data “1” indicating that it is a normal image (non-composite image) and stored.

このとき制御部101は、例えば撮影モードの設定に紐づけられた合成の種類に応じた種類データを生成する種類データ生成手段として機能する。なお、前述のように制御部101は、画像処理部107によって合成がなされなかった場合には、種類データ(画像識別情報301として「1」)に決定する。そしてステップS512で画像データとともに記録媒体108に記録する。このとき制御部101は、Exif規格のヘッダ領域であるAPP1(203)に合成の種類に応じた種類データを記録画像に関連付けて記録する記録制御手段として機能する。ステップS512の後、ステップS501に戻る。 At this time, the control unit 101 functions as a type data generation means for generating type data according to the type of composition associated with the setting of the shooting mode, for example. As described above, the control unit 101 determines the type data (“1” as the image identification information 301) when the image processing unit 107 does not synthesize the data. Then, in step S512, the image data is recorded on the recording medium 108 together with the image data. At this time, the control unit 101 functions as a recording control means for recording the type data corresponding to the type of synthesis in the APP1 (203), which is the header area of the Exif standard, in association with the recorded image. After step S512, the process returns to step S501.

ステップS510で合成処理モードであると判別された場合には、ステップS513に進み、予め設定された合成処理モードにて合成を行う。このとき制御部101は、撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成手段として機能している。次いでステップS514で合成のために使う撮像画像数が予め設定された画像数Nに達したか否かを判別し、達していなければステップS508に戻って新たな露光動作を行う。画像数がNに達したらステップS515でファイル名と撮影日時を取得し、ステップS516で、ヘッダ領域としてのAPP1(203)にこれらのデータと合成の種類に応じた種類データを記録するためのヘッダ情報を生成する。 If it is determined in step S510 that the synthesis processing mode is set, the process proceeds to step S513, and synthesis is performed in the preset synthesis processing mode. At this time, the control unit 101 functions as a compositing means for composing a plurality of captured images by a plurality of types of methods to generate a composite image. Next, in step S514, it is determined whether or not the number of captured images used for compositing has reached the preset number N of images, and if not, the process returns to step S508 to perform a new exposure operation. When the number of images reaches N, the file name and shooting date and time are acquired in step S515, and in step S516, a header for recording these data and type data according to the type of composition in APP1 (203) as a header area. Generate information.

ステップS516では、制御部101は、設定された撮影モードに応じて画像データと関連づけて記録する種類データを決定する。なお、前述のように制御部101は、前記合成手段によって合成がなされた場合には、合成の種類に応じて少なくとも2種類の種類データ(画像識別情報301として「2」または「3」)のうちの一つを生成する。また画像処理部107によって合成がなされた場合と合成がなされなかった場合を含めて、少なくとも3種類の種類データのうちの一つの中から適切な分類を決定する。次にステップS517で、制御部101は、表示部109への画像表示や記録媒体108への記録を行う。このとき制御部101は、Exif規格のヘッダ領域であるAPP1(203)に種類データを記録画像に関連付けて記録する記録手段として機能する。 In step S516, the control unit 101 determines the type data to be recorded in association with the image data according to the set shooting mode. As described above, when the control unit 101 is synthesized by the synthesis means, the control unit 101 has at least two types of data (“2” or “3” as the image identification information 301) depending on the type of synthesis. Generate one of them. In addition, the image processing unit 107 determines an appropriate classification from at least one of three types of data, including the case where the composition is performed and the case where the composition is not performed. Next, in step S517, the control unit 101 displays an image on the display unit 109 and records on the recording medium 108. At this time, the control unit 101 functions as a recording means for recording the type data in the APP1 (203), which is the header area of the Exif standard, in association with the recorded image.

またこのとき、種類データが所定の種類データ(合成識別情報が3)の場合には、少なくとも「合成に使われた撮影画像の枚数」と、「合成に使われた撮影画像の撮影条件」として例えば露光時間等とを、同領域APP1(203)に記録する。ステップS517の後、ステップS501に戻る。
なお、上記実施例では露光が終了する毎に合成を実行しているが、N回の撮像を行った後で合成処理を行ってもよいことは言うまでもない。
(再生モード処理)
図6は、図4のステップ405の再生モード処理の詳細を示すフローチャートである。
ユーザによるモード切替スイッチを介した再生指示によって、再生モードが開始する。または再生モードが設定されている状態で、装置の電源を投入して起動した場合に、このフローが開始される。
At this time, when the type data is a predetermined type data (composite identification information is 3), at least "the number of captured images used for compositing" and "shooting conditions of the captured images used for compositing" are set. For example, the exposure time and the like are recorded in the same region APP1 (203). After step S517, the process returns to step S501.
In the above embodiment, the composition is executed every time the exposure is completed, but it goes without saying that the composition process may be performed after N times of imaging.
(Playback mode processing)
FIG. 6 is a flowchart showing details of the reproduction mode process of step 405 of FIG.
The playback mode is started by the playback instruction via the mode changeover switch by the user. Alternatively, this flow is started when the power of the device is turned on and started while the playback mode is set.

まず、ステップS601において、制御部101は記録媒体108から初期画像情報を取得する。この初期画像とは最新の画像あるいは前回の再生で表示した画像である。初期画像情報の取得は、後述する総画像枚数計算や検索リスト作成よりも先に行うことで、再生モードに入ると直ぐに、初期画像の画像表示ができ、総画像枚数計算等の処理の間に、何も表示が出ないような問題を防ぐことができる。
ステップS602では、制御部101はステップS601の初期画像情報の取得が正しく行われたか否かを判断する。このような判断をするのは、画像が一枚も無いような場合やメディア不良によって画像情報を取得できない場合があるためである。初期画像情報が取得できる場合、少なくとも画像が1枚あると判断される。画像がある場合、ステップS603に進み、画像がない場合、ステップS609に進む。
First, in step S601, the control unit 101 acquires initial image information from the recording medium 108. This initial image is the latest image or the image displayed in the previous playback. By acquiring the initial image information before calculating the total number of images and creating the search list, which will be described later, the image of the initial image can be displayed as soon as the playback mode is entered, and during processing such as calculating the total number of images. , You can prevent the problem that nothing is displayed.
In step S602, the control unit 101 determines whether or not the initial image information in step S601 has been acquired correctly. This judgment is made because there are cases where there is no image or there are cases where image information cannot be obtained due to media defects. If the initial image information can be obtained, it is determined that there is at least one image. If there is an image, the process proceeds to step S603, and if there is no image, the process proceeds to step S609.

ステップS603では、制御部101はステップS601で取得した初期画像情報に基づいて記録媒体108から初期画像を読み込む。ステップS604では、ファイル解析処理を行って、制御部101は読み込んだ初期画像の撮影情報や合成情報などの属性情報を解析し取得する。
即ち、このとき制御部101は、記録画像に関連付けて記録された合成の種類に応じた種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得手段として機能している。また、画像データが壊れていないかをチェックする。
In step S603, the control unit 101 reads the initial image from the recording medium 108 based on the initial image information acquired in step S601. In step S604, file analysis processing is performed, and the control unit 101 analyzes and acquires attribute information such as shooting information and composite information of the read initial image.
That is, at this time, the control unit 101 sets the type data according to the type of composition recorded in association with the recorded image, the information indicating the composition type, the number of captured images used for the composition, and the captured image used for the composition. Type for acquiring shooting conditions It functions as a data acquisition means. Also, check if the image data is corrupted.

ステップS605では、制御部101は読み込んだ初期画像の表示を行うと共に、必要に応じて撮影情報や合成情報等の属性情報なども画像とともに選択的に表示する。この選択的な表示については図7において後述する。また、制御部101はステップS604のファイル解析結果に応じて、初期画像のファイルの一部が壊れているなど不正なデータであることが解析された場合、エラー表示も合わせて行う。
ステップS606では、制御部101は記録媒体108に記録されている画像の総枚数の計算を開始して、総画像枚数を取得する。この処理は、画像の表示処理とは非同期で働き、完了を待たずに次の画像の表示処理に進むことも可能である。このように処理することで、多くの画像が記録媒体108に記録されていて、総画像枚数計算に時間がかかるような場合でも画像の閲覧を可能にする。
In step S605, the control unit 101 displays the read initial image, and selectively displays attribute information such as shooting information and composite information together with the image as needed. This selective display will be described later in FIG. Further, when it is analyzed that the data is invalid such that a part of the file of the initial image is broken according to the file analysis result in step S604, the control unit 101 also displays an error.
In step S606, the control unit 101 starts calculating the total number of images recorded on the recording medium 108 to acquire the total number of images. This process works asynchronously with the image display process, and it is possible to proceed to the next image display process without waiting for the completion. By processing in this way, even when many images are recorded on the recording medium 108 and it takes time to calculate the total number of images, the images can be viewed.

ステップS607では、制御部101は記録媒体108内の全画像の解析を行って、その検索結果としての検索リストの作成を開始する。検索リストとは、各画像に付加された属性情報を予め取得し、一括して管理するリストである。この検索リストを作成しておくことで、例えば、ある属性を有する画像をまとめて再生対象としたり、消去対象としたりすることが可能となる。検索リスト作成処理も総画像枚数の計算と同様に、画像の表示処理とは非同期で行われ、次の画像の表示処理が可能であり、ステップS608で、制御部101はユーザによる再生の入力待ち状態に進む。
なお、ステップS602において、画像が1枚もない場合、ステップS609に進み、制御部101は「画像がありません」などのメッセージ表示を伴う、画像がない旨の表示を表示部109を介して行い、ステップS608に進む。
In step S607, the control unit 101 analyzes all the images in the recording medium 108 and starts creating a search list as the search result. The search list is a list in which attribute information added to each image is acquired in advance and managed collectively. By creating this search list, for example, it is possible to collectively set images having a certain attribute as playback targets or deletion targets. Similar to the calculation of the total number of images, the search list creation process is performed asynchronously with the image display process, and the next image display process is possible. In step S608, the control unit 101 waits for the user to input playback. Proceed to the state.
If there is no image in step S602, the process proceeds to step S609, and the control unit 101 displays a message such as "there is no image" via the display unit 109 to indicate that there is no image. The process proceeds to step S608.

(画面表示)
次に、本実施例における画像データの表示方法について説明する。図7(A)は、本装置において画像表示アプリケーションを動作させた場合に表示部109に表示される画面の一例を示している。
図7(A)では、RAM103に記憶された画像データImage1〜Image12が一覧表示される様を示している。この画像は、例えばデジタルカメラや携帯電話などから取得したものである。また、ネットワーク上のサーバなどからダウンロードしたものであってもよい。また、画像データ本体を用いず、画像データのサムネイルを用いることも可能である。図7(A)の状態で表示切替ボタン401を選択(タッチ)すると、図7(B)の画面に遷移する。
(Screen display)
Next, a method of displaying image data in this embodiment will be described. FIG. 7A shows an example of a screen displayed on the display unit 109 when the image display application is operated in the present device.
FIG. 7A shows that the image data Image1 to Image12 stored in the RAM 103 are displayed in a list. This image is obtained from, for example, a digital camera or a mobile phone. It may also be downloaded from a server on the network. It is also possible to use thumbnails of image data without using the image data body. When the display switching button 401 is selected (touched) in the state of FIG. 7 (A), the screen transitions to the screen of FIG. 7 (B).

図7(B)に示すように、合成関連情報の付加された画像データについては「ピン」の形状をしたアイコン(以下、ピンアイコン)を、その画像のサムネイルに重畳して表示する。すなわち、ピンアイコンは、合成関連情報を有する画像ファイルに対して表示されるものである。この画面の例は、Image1、3、4、6、7、8、10、11に合成関連情報として画像識別情報301(「1」〜「3」など)や合成種別情報302などが記述されていることを示している。 As shown in FIG. 7B, for the image data to which the composition-related information is added, an icon in the shape of a “pin” (hereinafter, pin icon) is superimposed and displayed on the thumbnail of the image. That is, the pin icon is displayed for the image file having the composition-related information. In the example of this screen, image identification information 301 ("1" to "3", etc.), composition type information 302, etc. are described as composition-related information in Image 1, 3, 4, 6, 7, 8, 10, and 11. It shows that there is.

もちろんピンアイコンは必ずしもサムネイルに完全に重畳する必要はなく、合成関連情報を有する/有さない画像ファイルが区別が付けば良いので、ピンアイコンの一部を重畳させたり、画像データにサムネイルに重畳させなくとも、近傍に表示しても構わない。なお、この画面では合成関連情報が記述されている画像データにはピンアイコンが重畳表示される。この画面を確認することで、ユーザはどの画像データに合成関連情報が付加されているかを容易に確認することができる。 Of course, the pin icon does not necessarily have to be completely superimposed on the thumbnail, and it is sufficient to distinguish between image files that have / do not have composition-related information, so a part of the pin icon may be superimposed or superimposed on the thumbnail in the image data. It does not have to be displayed in the vicinity. On this screen, a pin icon is superimposed and displayed on the image data in which the composition-related information is described. By checking this screen, the user can easily check which image data the composition-related information is added to.

図7(B)の状態で更に、前記表示切り替えボタンをクリックすると、図7(C)の画面に遷移する。図7(C)の画面に示すように、それまでのピンアイコンに変えて、画像識別情報301や合成種別情報302などに応じたアイコンや文字に変化することで、画像識別情報301や合成種別情報302などが容易に識別可能となる。
例えばImage1、4、10、11はパノラマ合成を示す「P」あるいはパノラマを示すアイコンが重畳表示される。これは合成種別情報302がパノラマ合成、つまりパノラマ合成を用いが合成画像データであることを示すためである。
Image6、8はHDR合成を示す「HDR」またはHDRを示すアイコンが重畳表示される。これは合成種別情報302が「HDR合成」によって得た画像データであることを示すためである。
When the display switching button is further clicked in the state of FIG. 7B, the screen transitions to the screen of FIG. 7C. As shown in the screen of FIG. 7C, the image identification information 301 and the composition type are changed by changing to the icons and characters corresponding to the image identification information 301 and the composition type information 302 instead of the pin icons up to that point. Information 302 and the like can be easily identified.
For example, for Images 1, 4, 10 and 11, "P" indicating panoramic composition or an icon indicating panorama is superimposed and displayed. This is to indicate that the composition type information 302 is panoramic composition, that is, the composition using panoramic composition is the composite image data.
For Images 6 and 8, "HDR" indicating HDR composition or an icon indicating HDR is superimposed and displayed. This is to show that the composition type information 302 is the image data obtained by "HDR composition".

Image7は加算合成を示す「加算」または加算合成を示すアイコンが重畳表示される。これは合成種別情報302が「加算合成」、つまり加算合成によって得た画像データであることを示す。Image3はピンアイコンのままである。これは、合成種別情報302が記述されていない画像データを示す。更に、合成に使われた撮影画像の枚数や合成に使われた撮影画像の撮影条件が記録画像と関連付けて記録媒体に記録されている場合には、それらの少なくとも一方を選択的に表示することができるようにしても良い。特に種類データが例えば「3」の場合などに、合成に使われた撮影画像の枚数や合成に使われた撮影画像の撮影条件が記録画像と関連付けて記録媒体に記録されている。 Image7 is superposed with "additive" indicating additive synthesis or an icon indicating additive synthesis. This indicates that the composition type information 302 is "additive synthesis", that is, image data obtained by additive synthesis. Image3 remains a pin icon. This indicates image data in which the composition type information 302 is not described. Further, when the number of captured images used for compositing and the shooting conditions of the captured images used for compositing are recorded on the recording medium in association with the recorded images, at least one of them should be selectively displayed. You may be able to do it. In particular, when the type data is, for example, "3", the number of captured images used for compositing and the shooting conditions of the captured images used for compositing are recorded on the recording medium in association with the recorded images.

以上述べたように、図7(C)の画面では、合成種別情報302に応じた文字やアイコンなどを画像データに重畳表示する。このことにより、ユーザはどの画像データがどの合成種別で合成されたかや撮影画像の枚数や合成に使われた撮影画像の撮影条件等を容易に確認することができる。なお、図7(C)の表示画面にて、表示切り替えボタンをクリックすると、図7(A)の画面に推移するものとする。すなわち、表示切り替えボタンをクリックする度に、上記3種類の表示画面が順に切り換わる。 As described above, on the screen of FIG. 7C, characters, icons, and the like corresponding to the composition type information 302 are superimposed and displayed on the image data. As a result, the user can easily confirm which image data was combined by which composition type, the number of captured images, the shooting conditions of the captured images used for the composition, and the like. When the display switching button is clicked on the display screen of FIG. 7 (C), the screen changes to the screen of FIG. 7 (A). That is, each time the display switching button is clicked, the above three types of display screens are switched in order.

なお、上記実施例では、表示切り換えボタン401を操作する度に、図7(A)→図7(B)→図7(C)→図7(A)…と表示形態がループするものとした。しかし、表示メニューからダイレクトにその表示種別の1つを指定し、それに従って表示を行ってもよい。
また、画像識別情報301や、合成種別情報302や、合成に使われた撮影画像の枚数であるソース画像数情報303や、合成画像情報304や合成画像のソース画像情報などの撮影画像の撮影条件等の少なくとも一つを表示できるようにしても良い。それらを見ることによって撮影者の意図や工夫を把握することができる。
(再生時の画像処理)
In the above embodiment, it is assumed that each time the display switching button 401 is operated, the display form loops in the order of FIG. 7 (A) → FIG. 7 (B) → FIG. 7 (C) → FIG. 7 (A). .. However, one of the display types may be specified directly from the display menu, and the display may be performed accordingly.
In addition, shooting conditions for captured images such as image identification information 301, composite type information 302, source image number information 303 which is the number of captured images used for composition, composite image information 304, and source image information of composite images. Etc. may be displayed at least one of them. By looking at them, the photographer's intentions and ingenuity can be grasped.
(Image processing during playback)

また、画像処理部107が画像の再生時に画像処理を行う場合の動作について説明する。たとえば制御部101がROM102あるいは記録媒体108から画像データを読み出し、表示部109の表示デバイスに表示させているとする。その状態で操作部111を介したユーザからの画像処理の指示に応じて、画像処理部107に表示部109に表示された画像に対応する画像データを入力して画像処理を行わせる。ここで、制御部101は、画像処理部107で行われる画像処理に応じて、画像処理の対象となっている画像データのヘッダ情報を書き換える。具体的には、画像ファイルの画像識別情報301に「3」が格納されている画像データに対して、階調変換処理、色変換処理、欠陥補正処理、フィルタ処理などの処理対象の画像データの画素値に基づいて行われる画像処理が行われた場合を考える。 In addition, an operation when the image processing unit 107 performs image processing at the time of reproducing an image will be described. For example, it is assumed that the control unit 101 reads image data from the ROM 102 or the recording medium 108 and displays it on the display device of the display unit 109. In that state, in response to an image processing instruction from the user via the operation unit 111, the image processing unit 107 is made to input the image data corresponding to the image displayed on the display unit 109 and perform the image processing. Here, the control unit 101 rewrites the header information of the image data that is the target of the image processing according to the image processing performed by the image processing unit 107. Specifically, for the image data in which "3" is stored in the image identification information 301 of the image file, the image data to be processed such as gradation conversion processing, color conversion processing, defect correction processing, and filter processing. Consider the case where image processing performed based on the pixel value is performed.

その場合には、制御部101は、処理後の画像データを格納する画像ファイルにも画像識別情報301に撮影時取得合成画像を示す「3」を格納する。これに対して、画像ファイルの画像識別情報301に「3」が格納されている画像データに対して、他のソース画像との何かしらの合成処理や、テキストデータやフレーム、アイコン、CGなどとの合成処理を伴う画像処理が行われた場合を考える。その場合には、制御部101は、処理後の画像データを格納する画像ファイルには画像識別情報301に一般合成画像を示す「2」を格納する。制御部101をこのように動作させることで、撮影時取得合成画像「3」の情報の信頼性をシステム内で担保することができる。また、制御部101は、画像ファイルの画像識別情報301に「2」が格納されている画像データに対しては、上記いずれの画像処理が行われても、処理後の画像データを格納する画像ファイルにも画像識別情報301に一般合成画像を示す「2」を格納する。 In that case, the control unit 101 also stores "3" indicating the composite image acquired at the time of shooting in the image identification information 301 in the image file that stores the processed image data. On the other hand, the image data in which "3" is stored in the image identification information 301 of the image file is subjected to some kind of composition processing with other source images, text data, frames, icons, CG, and the like. Consider the case where image processing accompanied by compositing processing is performed. In that case, the control unit 101 stores "2" indicating a general composite image in the image identification information 301 in the image file that stores the processed image data. By operating the control unit 101 in this way, the reliability of the information of the composite image “3” acquired at the time of shooting can be ensured in the system. Further, the control unit 101 stores the processed image data for the image data in which "2" is stored in the image identification information 301 of the image file, regardless of which of the above image processing is performed. The image identification information 301 also stores "2" indicating a general composite image in the file.

また、画像ファイルの画像識別情報301に「1」が格納されている画像データに対して、上記各撮影モードで「2」あるいは「1」と分類されている処理に該当する画像処理が行われた場合を考える。その場合には制御部101は、上記の分類に従って処理後の画像データに対応する画像識別情報301を決定する。すなわち、制御部101は、再生画像に対して行われる画像処理が合成であるか否かおよび合成処理の方法を判定する。そして、判定結果に基づいて処理後の画像データを格納する画像ファイルに記録する画像識別情報301を決定し、処理後の画像データを含む画像ファイルの合成情報部2091に記録する。それ以外の階調変換処理、色変換処理、欠陥補正処理、フィルタ処理などの処理対象の画像データの画素値に基づいて行われる画像処理を行った場合には、処理後の画像データを格納する画像ファイルにも画像識別情報301に非合成画像を示す「1」を格納する。 Further, the image data in which "1" is stored in the image identification information 301 of the image file is subjected to image processing corresponding to the processing classified as "2" or "1" in each of the above shooting modes. Consider the case. In that case, the control unit 101 determines the image identification information 301 corresponding to the processed image data according to the above classification. That is, the control unit 101 determines whether or not the image processing performed on the reproduced image is composition and the method of composition processing. Then, based on the determination result, the image identification information 301 to be recorded in the image file that stores the processed image data is determined, and recorded in the composite information unit 2091 of the image file including the processed image data. When image processing performed based on the pixel value of the image data to be processed such as other gradation conversion processing, color conversion processing, defect correction processing, and filter processing is performed, the processed image data is stored. The image file also stores "1" indicating a non-composite image in the image identification information 301.

以上のように、本実施例では、合成情報部2091に格納されているような情報を画像データと共に記録することによって、合成処理の有無や種類に応じて画像をユーザあるいはコンピュータが適切に判別し処理できるようになる。例えばHDR合成された画像が含まれる画像ファイルを収集し、それらの合成情報部2091に記録される情報をAI等によって分析して各種撮影条件などを学習させることができる。そして、シーンや構図から、露出差を学習させるための参考情報とすることができ、素材画像の露光時間やISOなどもそのために活用することができる。 As described above, in the present embodiment, by recording the information stored in the composite information unit 2091 together with the image data, the user or the computer appropriately determines the image according to the presence or absence and type of the composite processing. You will be able to process it. For example, it is possible to collect image files including HDR-synthesized images, analyze the information recorded in the composite information unit 2091 by AI or the like, and learn various shooting conditions. Then, it can be used as reference information for learning the exposure difference from the scene and composition, and the exposure time and ISO of the material image can also be utilized for that purpose.

また、星空軌跡撮影などについては、合成画像に付与された各撮影画像の露光時間と各撮影画像の撮影の間の非露光期間を含む総露光期間を示すタグから、この程度の時間撮影すればこの程度の軌跡になるということを推測できるようになる。それによって無駄に長く撮影時間を設定しなくて済むようになる。
また、カメラの学習に使う場合に、合成に失敗した(カメラが撮影時に失敗と判断した場合やクラウド側で失敗と判断された場合やユーザが失敗と判断して悪いレーティング等をつける場合など)という情報をファイルに記録しておく。そして、次回の撮影条件に活用することができる。
In addition, for starry sky trajectory photography, if the tag indicating the total exposure period including the exposure time of each captured image and the non-exposure period between the captures of each captured image attached to the composite image is taken for this amount of time. It becomes possible to infer that the trajectory will be about this level. As a result, it is not necessary to set the shooting time unnecessarily long.
Also, when using it for camera learning, composition failed (when the camera judges that it failed at the time of shooting, when the cloud side judges it as a failure, or when the user judges it as a failure and gives a bad rating etc.) Record the information in a file. Then, it can be used for the next shooting conditions.

例えば、失敗の原因が手ぶれと考えられるなら手ぶれしやすいユーザとみなして、制御部101が次回以降の撮影に際して自動で決める露光時間の設定をより短秒にするなどの改善をすることができるようになる。
また、合成画像の画像処理パラメータ決定に利用する
合成されたJPEG画像に対して、アプリ等で画像処理を行う時に合成情報部の情報を参考にする。
For example, if the cause of the failure is considered to be camera shake, it can be regarded as a user who is prone to camera shake, and improvements can be made such as setting the exposure time automatically determined by the control unit 101 for the next and subsequent shootings to a shorter time. become.
In addition, the information in the composite information unit is referred to when performing image processing on the composite JPEG image used for determining the image processing parameters of the composite image with an application or the like.

NRのパラメータをISO感度毎に保持し、撮影されたISO感度に応じてパラメータを適用するアプリにおいて、合成画像の場合はパラメータの決定のロジックを変更することもできる。
例えば、ISO3200の非合成画像の時はISO3200のパラメータとし、ISO3200X2の合成画像の場合にはISO2500のパラメータとし、ISO3200X4の合成画像の場合にはISO1600のパラメータにするなど、のように、合成枚数とソース画像のISO感度に応じてパラメータを切り替えることができる。
またExif構造のAPP1の中の特に撮影条件のデータの中に上記合成情報部2091を埋め込むことによって、既存のExif準拠の装置やソフトウェアと高い互換性を持たせることができる。
In an application that holds NR parameters for each ISO sensitivity and applies the parameters according to the captured ISO sensitivity, the logic for determining the parameters can be changed in the case of a composite image.
For example, in the case of a non-composite image of ISO3200, the parameter is set to ISO3200, in the case of a composite image of ISO3200X2, the parameter is set to ISO2500, in the case of a composite image of ISO3200X4, the parameter is set to ISO1600, and so on. The parameters can be switched according to the ISO sensitivity of the source image.
Further, by embedding the composite information unit 2091 in the data of the shooting conditions in the APP1 of the Exif structure, high compatibility with the existing Exif-compliant device and software can be obtained.

(その他の実施例)
なお、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
また、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
(Other Examples)
The present invention is not limited to the above examples, and various modifications can be made based on the gist of the present invention, and these are not excluded from the scope of the present invention.
Further, a computer program that realizes a part or all of the control in this embodiment to realize the functions of the above-described embodiment may be supplied to an image processing device or the like via a network or various storage media. Then, a computer (or CPU, MPU, etc.) in the image processing device or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

100 撮像装置
105 撮像部
110 距離マップ取得部

100 Imaging device 105 Imaging unit 110 Distance map acquisition unit

Claims (15)

撮影された複数の撮影画像を合成して合成画像を生成する合成手段と、
前記撮影画像または前記合成画像を記録部に記録画像として記録する記録制御手段と、
撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段と、を有し、
前記記録制御手段は、前記判定手段が判定した撮影モードまたは合成の方法で撮影または合成された記録画像に、該判定による判定結果に基づいて決定される種類データを関連付けて記録することを特徴とする画像処理装置。
A compositing means that synthesizes a plurality of captured images to generate a composite image,
A recording control means for recording the captured image or the composite image as a recorded image in the recording unit, and
It has a shooting mode or a determination means for determining a synthesis method performed by the synthesis means.
The recording control means is characterized in that a recorded image captured or synthesized by a shooting mode or a synthesis method determined by the determination means is associated with type data determined based on the determination result of the determination and recorded. Image processing device.
前記判定手段は、前記複数の撮影画像が撮影される時に予め設定された撮影モードに基づいて、該複数の撮影画像に対応する撮影モードの判定を行うことを特徴とする請求項1に記載の画像処理装置。 The first aspect of claim 1, wherein the determination means determines a shooting mode corresponding to the plurality of shot images based on a preset shooting mode when the plurality of shot images are shot. Image processing device. 前記種類データ生成手段によって生成された種類データが所定の種類データの場合には、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を前記記録画像に関連付けて記録することを特徴とする請求項1または2に記載の画像処理装置。 When the type data generated by the type data generation means is a predetermined type data, at least the number of captured images used for compositing and the shooting conditions of the captured images used for compositing are recorded in association with the recorded images. The image processing apparatus according to claim 1 or 2. 前記種類データ生成手段は、前記合成手段によって合成がされた場合に、合成の種類に応じて少なくとも2種類の種類データのうちの一つを生成することを特徴とする請求項1に記載の画像処理装置。 The image according to claim 1, wherein the type data generation means generates at least one of two types of type data according to the type of synthesis when the composition is performed by the synthesis means. Processing equipment. 前記種類データ生成手段は、撮影時に合成に使われた複数枚の画像の撮影条件と画角が同じ場合には第1の種類データを生成し、合成に使われた複数枚の画像の撮影条件と画角の一方が異なる場合には第2の種類データを生成することを特徴とする請求項4に記載の画像処理装置。 The type data generation means generates the first type data when the shooting conditions and the angle of view of the plurality of images used for compositing at the time of shooting are the same, and the shooting conditions for the plurality of images used for compositing. The image processing apparatus according to claim 4, wherein when one of the angles of view is different from that of the image processing device, the second type of data is generated. 前記種類データ生成手段は、前記合成手段によって複数の撮影画像の合成がされなかった場合に、第3の種類データを生成することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The method according to any one of claims 1 to 5, wherein the type data generating means generates a third type data when a plurality of captured images are not combined by the combining means. Image processing device. 前記記録手段は前記種類データを画像データファイルのヘッダ領域に記録することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the recording means records the type data in a header area of an image data file. 前記記録手段は前記種類データをExif規格の画像データファイルのAPP1領域に記録することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the recording means records the type data in the APP1 region of an Exif standard image data file. 更に前記撮影画像を生成するための撮像手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, further comprising an imaging means for generating the captured image. 更に、合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一方を選択的に表示可能な表示手段を有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 Further, any one of claims 1 to 9, further comprising a display means capable of selectively displaying at least one of the number of captured images used for compositing and the photographing conditions of the captured images used for compositing. The image processing apparatus according to the section. 撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生手段と、
前記記録画像に関連付けて記録された合成に係る分類を示す種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得手段と、
前記種類データ取得手段によって取得された種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一つを選択的に表示可能な表示手段と、を有することを特徴とする画像処理装置。
A reproduction means for reproducing a recorded image from a recording medium on which a captured image or a composite image is recorded, and
Type data acquisition indicating the classification related to the composition recorded in association with the recorded image, information indicating the composition type, the number of captured images used for the composition, and the imaging conditions of the captured image used for the composition. Means and
A display capable of selectively displaying at least one of the type data acquired by the type data acquisition means, information indicating the composition type, the number of captured images used for composition, and the imaging conditions of the captured image used for composition. An image processing device comprising means and means.
撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成ステップと、
前記撮影画像または前記合成画像を記録画像として記録する記録ステップと、
前記合成ステップによる合成の種類に応じて種類データを生成する種類データ生成ステップと、を有し、
前記記録ステップは、前記種類データ生成ステップによって生成された種類データを前記記録画像に関連付けて記録するとともに、前記種類データ生成ステップによって生成された種類データが所定の種類データの場合には、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を前記記録画像に関連付けて記録することを特徴とする画像処理方法。
A compositing step for compositing multiple captured images by multiple methods to generate a composite image, and
A recording step of recording the captured image or the composite image as a recorded image,
It has a type data generation step that generates type data according to the type of synthesis by the synthesis step.
The recording step records the type data generated by the type data generation step in association with the recorded image, and at least synthesizes the type data generated by the type data generation step when the type data is a predetermined type data. An image processing method characterized in that the number of captured images used in the above and the imaging conditions of the captured images used for compositing are recorded in association with the recorded images.
撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生ステップと、
前記記録画像に関連付けて記録された合成の種類に応じた種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得ステップと、
前記種類データ取得ステップによって取得された種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一つを選択的に表示可能な表示ステップと、を有することを特徴とする画像処理方法。
A playback step of reproducing a recorded image from a recording medium on which a captured image or a composite image is recorded, and
Type data acquisition according to the type of composition recorded in association with the recorded image, information indicating the composition type, the number of captured images used for composition, and the imaging conditions of the captured image used for composition Steps and
A display that can selectively display at least one of the type data acquired by the type data acquisition step, information indicating the composition type, the number of captured images used for composition, and the photographing conditions of the captured image used for composition. An image processing method characterized by having steps and.
請求項1〜11のうちいずれか一項に記載の前記画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for operating a computer as each means of the image processing apparatus according to any one of claims 1 to 11. 請求項14に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。

A computer-readable storage medium that stores the computer program according to claim 14.

JP2019049006A 2019-03-15 2019-03-15 Image processing device, image processing method, computer program and storage medium Active JP7395258B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019049006A JP7395258B2 (en) 2019-03-15 2019-03-15 Image processing device, image processing method, computer program and storage medium
CN202080021007.5A CN113615156A (en) 2019-03-15 2020-03-12 Image processing apparatus, image processing method, computer program, and storage medium
PCT/JP2020/010859 WO2020189510A1 (en) 2019-03-15 2020-03-12 Image processing device, image processing method, computer program, and storage medium
US17/467,345 US20210400192A1 (en) 2019-03-15 2021-09-06 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049006A JP7395258B2 (en) 2019-03-15 2019-03-15 Image processing device, image processing method, computer program and storage medium

Publications (2)

Publication Number Publication Date
JP2020150517A true JP2020150517A (en) 2020-09-17
JP7395258B2 JP7395258B2 (en) 2023-12-11

Family

ID=72429987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049006A Active JP7395258B2 (en) 2019-03-15 2019-03-15 Image processing device, image processing method, computer program and storage medium

Country Status (1)

Country Link
JP (1) JP7395258B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022045043A (en) * 2020-09-08 2022-03-18 株式会社三共 Game machine

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029954A (en) * 2017-08-03 2019-02-21 オリンパス株式会社 Image processing system and image processing method
JP2019033308A (en) * 2017-08-04 2019-02-28 オリンパス株式会社 Image processing system, image processing method, image processing program and imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029954A (en) * 2017-08-03 2019-02-21 オリンパス株式会社 Image processing system and image processing method
JP2019033308A (en) * 2017-08-04 2019-02-28 オリンパス株式会社 Image processing system, image processing method, image processing program and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022045043A (en) * 2020-09-08 2022-03-18 株式会社三共 Game machine

Also Published As

Publication number Publication date
JP7395258B2 (en) 2023-12-11

Similar Documents

Publication Publication Date Title
US8189087B2 (en) Imaging device and photographed image display control method
KR101341265B1 (en) Method and arrangement for processing data sets of imaging sensors, a corresponding computer program, and a corresponding computer-readable storage medium
US9413922B2 (en) Photographing apparatus and method for synthesizing images
JP2010130437A (en) Imaging device and program
CN104754196A (en) Electronic apparatus and method
JP2014176024A (en) Imaging apparatus, image processing method and image processing program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2005217874A (en) File management method
CN111953909B (en) Image processing apparatus, image processing method, and storage medium
CN101155262A (en) Image correction device, image correction method, and computer readable medium
WO2020189510A1 (en) Image processing device, image processing method, computer program, and storage medium
JP7395258B2 (en) Image processing device, image processing method, computer program and storage medium
JP7378963B2 (en) Image processing device, image processing method, and computer program
JP2010141609A (en) Imaging apparatus
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP7395259B2 (en) Image processing device, image processing method, computer program and storage medium
JP7378962B2 (en) Image processing device, image processing method and computer program
JP2008005248A (en) Imaging apparatus
JP2006165770A (en) Digital camera
JP5289354B2 (en) Imaging device
JP4552631B2 (en) Digital camera
CN104584529A (en) Image processing device, image capture device, and program
JP5734348B2 (en) Imaging device
JP6520566B2 (en) Image recording device
JP2006165767A (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R151 Written notification of patent or utility model registration

Ref document number: 7395258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151