JP2019145918A - Imaging apparatus, display control device and control method for display control device - Google Patents

Imaging apparatus, display control device and control method for display control device Download PDF

Info

Publication number
JP2019145918A
JP2019145918A JP2018026308A JP2018026308A JP2019145918A JP 2019145918 A JP2019145918 A JP 2019145918A JP 2018026308 A JP2018026308 A JP 2018026308A JP 2018026308 A JP2018026308 A JP 2018026308A JP 2019145918 A JP2019145918 A JP 2019145918A
Authority
JP
Japan
Prior art keywords
image
image data
encoding
divided
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018026308A
Other languages
Japanese (ja)
Other versions
JP7146407B2 (en
JP2019145918A5 (en
Inventor
達 小林
Tatsu Kobayashi
達 小林
秀信 秋吉
Hidenobu Akiyoshi
秀信 秋吉
章弘 田邉
Akihiro Tanabe
章弘 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018026308A priority Critical patent/JP7146407B2/en
Publication of JP2019145918A publication Critical patent/JP2019145918A/en
Publication of JP2019145918A5 publication Critical patent/JP2019145918A5/ja
Application granted granted Critical
Publication of JP7146407B2 publication Critical patent/JP7146407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

To record an image in a recording form suitable for recording and reproduction.SOLUTION: An imaging apparatus comprises; encoding means that encodes image data obtained by photographing with an imaging sensor; and recording control means by which image data in an encoding area larger than a reproduction area, as a reproduction target, among the image data obtained by photographing with the imaging sensor are encoded with the encoding means and the plurality of encoded image data are recorded on a recording medium in a predetermined recording format.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置及び、表示制御装置表示制御装置の制御方法に関する。   The present invention relates to an imaging device and a display control device display control device control method.

画像データを圧縮符号化する画像処理装置として撮像装置が知られている。このような画像処理装置は、撮像部によって動画像信号を取得し、取得した動画像信号を圧縮符号化し、圧縮符号化が行われた画像ファイルを記録媒体に記録する。従来、圧縮符号化前の画像データは100nitsの輝度レベルを上限とするSDR(Standard Dynamic Range)で表現されたものであった。しかしながら、近年では、輝度レベルの上限を10000nits程度にまで拡張させたHDR(High Dynamic Range)で表現され、人が知覚できる輝度範囲に近い輝度範囲を有する画像データが提供されている。   An imaging apparatus is known as an image processing apparatus that compresses and encodes image data. Such an image processing apparatus acquires a moving image signal by the imaging unit, compresses and encodes the acquired moving image signal, and records the image file subjected to the compression encoding on a recording medium. Conventionally, image data before compression encoding has been expressed in SDR (Standard Dynamic Range) with a luminance level of 100 nits as an upper limit. However, in recent years, image data having a luminance range that is expressed by HDR (High Dynamic Range) in which the upper limit of the luminance level is expanded to about 10,000 nits and that is close to the luminance range that can be perceived by humans has been provided.

特許文献1では、HDRの画像を撮影して記録する際に、HDRに非対応の装置でも、HDR画像を詳細に確認可能な画像データを生成して記録する画像データ記録装置について記載がある。   Patent Document 1 describes an image data recording apparatus that generates and records image data capable of confirming an HDR image in detail even when an HDR image is captured and recorded when an HDR image is captured and recorded.

特開2017−139618号公報JP 2017-139618 A

特許文献1では、HDRの画像を記録することについては記載されているが、HDR画像を記録する場合の最適な記録方式については考慮されていなかった。   Patent Document 1 describes recording an HDR image, but does not consider an optimum recording method for recording an HDR image.

そこで、本発明は、例えばHDR画像のようにデータ量が大きい画像を記録する際に、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することを目的とする。   Therefore, the present invention provides an apparatus for recording an image in a recording format suitable for recording and reproduction when recording an image having a large amount of data such as an HDR image, and also reproduces an image recorded in the recording format. An object of the present invention is to provide a display control device for performing the above.

また、本発明は、画像を符号化して記録する装置において、符号化時に各種制約があったとしても、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することを目的とする。   The present invention also relates to an apparatus for encoding and recording an image, and an apparatus for recording an image in a recording form suitable for recording and reproduction, even if there are various restrictions at the time of encoding. An object of the present invention is to provide a display control device for reproducing a recorded image.

上述の課題を解決するため、本発明の撮像装置は、
画像を撮影して記録する撮像装置であって、撮像センサと、撮像センサにより撮影して得られた画像データを符号化する符号化手段と、撮像センサより撮影して得られた画像データのうち、再生対象となる再生領域よりも大きい符号化領域の画像データを符号化手段により符号化し、符号化された複数画像データを所定の記録フォーマットで記録媒体に記録するように制御する記録制御手段と、を有することを特徴とする。
In order to solve the above-described problem, an imaging apparatus according to the present invention includes:
An imaging device that captures and records an image, the imaging sensor, an encoding unit that encodes image data obtained by imaging with the imaging sensor, and image data obtained by imaging with the imaging sensor A recording control means for encoding image data in an encoding area larger than a reproduction area to be reproduced by an encoding means, and controlling the encoded plural image data to be recorded on a recording medium in a predetermined recording format; It is characterized by having.

また、本発明の表示制御装置は、
再生対象となる再生領域よりも大きい符号化領域の画像データを、複数の分割画像データに分割し、複数の分割画像データを符号化手段によりそれぞれ符号化し、符号化された複数の分割画像データが所定の記録フォーマットで1つの画像ファイルとして記録されている記録媒体から、画像ファイルを読み出す読み出し手段と、読み出した画像ファイルに含まれる複数の分割画像データをそれぞれ複合する複合手段と、復号手段により復号された複数の分割画像データを1つの画像データに結合し結合された画像データのうち、再生領域の画像データを表示手段に表示するように制御する表示制御手段と、を有することを特徴とする。
The display control device of the present invention is
The image data of the encoding area larger than the reproduction area to be reproduced is divided into a plurality of divided image data, and the plurality of divided image data is encoded by the encoding means, respectively. Decoding means for reading out an image file from a recording medium recorded as one image file in a predetermined recording format, a composite means for combining a plurality of divided image data contained in the read image file, and decoding by a decoding means Display control means for combining the plurality of divided image data into one image data and controlling the display means to display the image data in the reproduction area among the combined image data. .

本発明によれば、データ量が大きく、かつ、高解像度の画像を記録する際に、記録および再生に適した記録形態で画像を記録する撮像装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することができる。   According to the present invention, when an image with a large amount of data and a high resolution is recorded, an image pickup apparatus that records an image in a recording form suitable for recording and reproduction, and an image recorded in the recording form are recorded. A display control device for reproduction can be provided.

或いは、本発明によれば、画像を符号化して記録する装置において、符号化時に各種制約があったとしても、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することができる。   Alternatively, according to the present invention, in an apparatus for encoding and recording an image, even if there are various restrictions during encoding, the apparatus for recording an image in a recording form suitable for recording and reproduction, and the recording form A display control device for reproducing a recorded image can be provided.

撮像装置100の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus 100. FIG. HEIFファイルの構造を示す図。The figure which shows the structure of a HEIF file. HDR撮影モードでの処理を示すフローチャート。The flowchart which shows the process in HDR imaging | photography mode. HDR撮影モードにおける画像データの分割方法を決定する処理を示すフローチャート。9 is a flowchart showing processing for determining a method for dividing image data in the HDR shooting mode. HDR画像データ記録時の画像データの符号化領域および分割方法を示す図。The figure which shows the encoding area | region and division | segmentation method of image data at the time of HDR image data recording. HEIFファイルを構築する処理を示すフローチャート。The flowchart which shows the process which builds a HEIF file. HEIFファイルとして記録されたHDR画像データを再生する際の表示処理を示すフローチャート。The flowchart which shows the display process at the time of reproducing | regenerating the HDR image data recorded as a HEIF file. オーバーレイ画像作成処理を示すフローチャート。The flowchart which shows an overlay image creation process. 画像アイテムのプロパティ取得処理を示すフローチャート。The flowchart which shows the property acquisition process of an image item. 画像アイテムのデータ取得処理を示すフローチャート。The flowchart which shows the data acquisition process of an image item. 主画像を構成する画像のアイテムID取得処理を示すフローチャート。The flowchart which shows the item ID acquisition process of the image which comprises a main image. 1画像アイテムの画像作成処理を示すフローチャート。The flowchart which shows the image creation process of 1 image item. オーバーレイ画像と分割画像の位置関係を示す図。The figure which shows the positional relationship of an overlay image and a divided image.

本発明の実施の形態を、撮像装置100を例に添付の図面を参照して以下に詳細に説明するが、本発明は、以下の実施形例に限定されるものではない。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings, taking the imaging apparatus 100 as an example, but the present invention is not limited to the following embodiments.

<撮像装置の構成>
図1は、撮像装置100を示すブロック図である。図1に示すように、撮像装置100は、CPU101と、メモリ102と、不揮発性メモリ103と、操作部104と、撮像部112と、画像処理部113と、符号化処理部114と、表示制御部115と、表示部116とを有している。更に、撮像装置100は、通信制御部117と、通信部118と、記録媒体制御部119と、内部バス130とを有している。撮像装置100は、撮影レンズ111を用いて被写体の光学像を撮像部112の画素アレイに結像するが、撮影レンズ111は、撮像装置100のボディ(筐体、本体)から、着脱不能であってもよいし、着脱可能であってもよい。また、撮像装置100は、記録媒体制御部119を介して画像データの書き込み及び読み出しを記録媒体120に対して行う。記録媒体120は、撮像装置100に着脱可能であってもよいし、着脱不能であってもよい。
<Configuration of imaging device>
FIG. 1 is a block diagram illustrating the imaging apparatus 100. As illustrated in FIG. 1, the imaging device 100 includes a CPU 101, a memory 102, a nonvolatile memory 103, an operation unit 104, an imaging unit 112, an image processing unit 113, an encoding processing unit 114, and display control. Part 115 and a display part 116. Furthermore, the imaging apparatus 100 includes a communication control unit 117, a communication unit 118, a recording medium control unit 119, and an internal bus 130. The imaging device 100 forms an optical image of a subject on the pixel array of the imaging unit 112 using the photographing lens 111, but the photographing lens 111 is not removable from the body (housing, main body) of the imaging device 100. It may be detachable. In addition, the imaging apparatus 100 writes and reads image data to and from the recording medium 120 via the recording medium control unit 119. The recording medium 120 may be detachable from the imaging apparatus 100 or may not be detachable.

CPU101は、不揮発性メモリ103に記憶されているコンピュータプログラムを実行することによって、内部バス130を介して撮像装置100の各部(各機能ブロック)の動作を制御する。   The CPU 101 controls the operation of each unit (each functional block) of the imaging apparatus 100 via the internal bus 130 by executing a computer program stored in the nonvolatile memory 103.

メモリ102は、書き換え可能な揮発性メモリである。メモリ102は、撮像装置100の各部の動作を制御するためのコンピュータプログラム、撮像装置100の各部の動作に関するパラメータ等の情報、通信制御部117によって受信される情報等を一時的に記録する。また、メモリ102は、撮像部112によって取得された画像、画像処理部113、符号化処理部114等によって処理された画像及び情報を一時的に記録する。メモリ102は、これらを一時的に記録するために十分な記憶容量を備えている。   The memory 102 is a rewritable volatile memory. The memory 102 temporarily records a computer program for controlling the operation of each unit of the imaging apparatus 100, information such as parameters relating to the operation of each unit of the imaging apparatus 100, information received by the communication control unit 117, and the like. The memory 102 temporarily records the image acquired by the imaging unit 112, the image processed by the image processing unit 113, the encoding processing unit 114, and the like and information. The memory 102 has a sufficient storage capacity for temporarily recording these.

不揮発性メモリ103は、電気的に消去及び記録が可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ103は、撮像装置100の各部の動作を制御するコンピュータプログラム及び撮像装置100の各部の動作に関するパラメータ等の情報を記憶する。当該コンピュータプログラムにより、撮像装置100によって行われる各種動作が実現される。   The nonvolatile memory 103 is an electrically erasable and recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 103 stores information such as a computer program that controls the operation of each unit of the imaging apparatus 100 and parameters related to the operation of each unit of the imaging apparatus 100. Various operations performed by the imaging apparatus 100 are realized by the computer program.

操作部104は、撮像装置100を操作するためのユーザインターフェースを提供する。操作部104は、電源ボタン、メニューボタン、撮影ボタン等の各種ボタンを含んでおり、各種ボタンはスイッチ、タッチパネル等により構成される。CPU101は、操作部104を介して入力されたユーザの指示に従って撮像装置100を制御する。なお、ここでは、操作部104を介して入力される操作に基づいてCPU101が撮像装置100を制御する場合を例に説明したが、これに限定されるものではない。例えば、不図示のリモートコントローラ、不図示の携帯端末等から通信部118を介して入力される要求に基づいて、CPU101が撮像装置100を制御してもよい。   The operation unit 104 provides a user interface for operating the imaging device 100. The operation unit 104 includes various buttons such as a power button, a menu button, and a shooting button, and the various buttons include switches, a touch panel, and the like. The CPU 101 controls the imaging device 100 in accordance with a user instruction input via the operation unit 104. Here, the case where the CPU 101 controls the imaging apparatus 100 based on an operation input via the operation unit 104 has been described as an example, but the present invention is not limited to this. For example, the CPU 101 may control the imaging device 100 based on a request input via a communication unit 118 from a remote controller (not shown), a portable terminal (not shown), or the like.

撮影レンズ(レンズユニット)111は、ズームレンズ、フォーカスレンズ等を含む不図示のレンズ群、不図示のレンズ制御部、不図示の絞り等によって構成される。撮影レンズ111は、画角を変更するズーム手段として機能し得る。レンズ制御部は、CPU101から送信される制御信号により、焦点の調整及び絞り値(F値)の制御を行う。撮像部112は、動画像を構成する複数の画像を順次取得する取得手段として機能し得る。撮像部112としては、例えば、例えばCCD(電荷結合素子)、CMOS(相補型金属酸化膜半導体)素子等でのエリアイメージセンサが用いられる。撮像部112は、被写体の光学像を電気信号に変換する不図示の光電変換部が行列状、すなわち、2次元的に配列された不図示の画素アレイを有している。当該画素アレイには、被写体の光学像が撮影レンズ111によって結像される。撮像部112は、撮像した画像を画像処理部113又はメモリ102に出力する。なお、撮像部112は、静止画像を取得することも可能である。   The photographing lens (lens unit) 111 includes a lens group (not shown) including a zoom lens, a focus lens, and the like, a lens control unit (not shown), a diaphragm (not shown), and the like. The photographing lens 111 can function as a zoom unit that changes the angle of view. The lens control unit performs focus adjustment and aperture value (F value) control by a control signal transmitted from the CPU 101. The imaging unit 112 can function as an acquisition unit that sequentially acquires a plurality of images constituting a moving image. As the imaging unit 112, for example, an area image sensor such as a CCD (charge coupled device), a CMOS (complementary metal oxide semiconductor) device or the like is used. The imaging unit 112 has a pixel array (not shown) in which photoelectric conversion units (not shown) that convert an optical image of a subject into an electrical signal are arranged in a matrix, that is, two-dimensionally. An optical image of the subject is formed on the pixel array by the photographing lens 111. The imaging unit 112 outputs the captured image to the image processing unit 113 or the memory 102. Note that the imaging unit 112 can also acquire a still image.

画像処理部113は、撮像部112から出力される画像データ、又は、メモリ102から読み出された画像データに対し、所定の画像処理を行う。当該画像処理の例としては、補間処理、縮小処理(リサイズ処理)、色変換処理等が挙げられる。また、画像処理部113は、撮像部112によって取得された画像データを用いて、露光制御、測距制御等のための所定の演算処理を行う。画像処理部113による演算処理によって得られた演算結果に基づいて、露光制御、測距制御等がCPU101によって行われる。具体的には、AE(自動露出)処理、AWB(オートホワイトバランス)処理、AF(オートフォーカス)処理等がCPU101によって行われる。   The image processing unit 113 performs predetermined image processing on the image data output from the imaging unit 112 or the image data read from the memory 102. Examples of the image processing include interpolation processing, reduction processing (resizing processing), color conversion processing, and the like. Further, the image processing unit 113 uses the image data acquired by the imaging unit 112 to perform predetermined calculation processing for exposure control, distance measurement control, and the like. Based on the calculation result obtained by the calculation processing by the image processing unit 113, the CPU 101 performs exposure control, distance measurement control, and the like. Specifically, the CPU 101 performs AE (automatic exposure) processing, AWB (auto white balance) processing, AF (autofocus) processing, and the like.

符号化処理部114は、画像データに対してフレーム内予測符号化(画面内予測符号化)、フレーム間予測符号化(画面間予測符号化)等を行うことによって、画像データのサイズを圧縮する。符号化処理部114は、例えば、半導体素子等により構成された符号化装置である。符号化処理部114は、撮像装置100の外部に設けられた符号化装置であってもよい。符号化処理部114は、例えば、H.265(ITU H.265又はISO/IEC23008−2)方式によって符号化処理を行う。   The encoding processing unit 114 compresses the size of the image data by performing intra-frame prediction encoding (intra-screen prediction encoding), inter-frame prediction encoding (inter-frame prediction encoding), and the like on the image data. . The encoding processing unit 114 is an encoding device configured with, for example, a semiconductor element. The encoding processing unit 114 may be an encoding device provided outside the imaging device 100. The encoding processing unit 114 is, for example, H.264. The encoding process is performed according to the H.265 (ITU H.265 or ISO / IEC 23008-2) method.

表示制御部115は、表示部116を制御する。表示部116は、不図示の表示画面を備える。表示制御部115は、画像データに対してリサイズ処理、色変換処理等を行うことにより、表示部116の表示画面に表示可能な画像を生成し、当該画像、すなわち、画像信号を表示部116に出力する。表示部116は、表示制御部115から送られてくる画像信号に基づいて、表示画面に画像を表示する。表示部116は、表示画面にメニュー等の設定画面を表示する機能であるOSD(On Screen Display)機能を備えている。表示制御部115は、画像信号にOSD画像を重畳して表示部116に画像信号を出力し得る。表示部116は、液晶ディスプレイ、有機ELディスプレイ等により構成されており、表示制御部115から送られてきた画像信号を表示する。表示部116は、例えばタッチパネルであってもよい。表示部116がタッチパネルである場合、表示部116は、操作部104としても機能し得る。   The display control unit 115 controls the display unit 116. The display unit 116 includes a display screen (not shown). The display control unit 115 generates an image that can be displayed on the display screen of the display unit 116 by performing resizing processing, color conversion processing, and the like on the image data, and the image, that is, the image signal is displayed on the display unit 116. Output. The display unit 116 displays an image on the display screen based on the image signal sent from the display control unit 115. The display unit 116 has an OSD (On Screen Display) function that is a function for displaying a setting screen such as a menu on the display screen. The display control unit 115 can output the image signal to the display unit 116 by superimposing the OSD image on the image signal. The display unit 116 is configured by a liquid crystal display, an organic EL display, or the like, and displays the image signal sent from the display control unit 115. The display unit 116 may be a touch panel, for example. When the display unit 116 is a touch panel, the display unit 116 can also function as the operation unit 104.

通信制御部117は、CPU101に制御される。通信制御部117は、IEEE802.11等によりあらかじめ定められた無線通信規格に適合する変調信号を生成して、当該変調信号を通信部118に出力する。また、通信制御部117は、無線通信規格に適合する変調信号を、通信部118を介して受信し、受信した変調信号を復号し、復号した信号に応じた信号をCPU101に出力する。通信制御部117は、通信設定を記憶するためのレジスタを備えている。通信制御部117は、CPU101からの制御によって、通信時の送受信感度を調整し得る。通信制御部117は、所定の変調方式で送受信を行うことができる。通信部118は、通信制御部117から供給される変調信号を撮像装置100の外部にある情報通信機器等の外部機器127へ出力し、また、外部機器127からの変調信号を受信するアンテナを備えている。また、通信部118には、通信用の回路等が備えられている。なお、ここでは、通信部118によって無線通信が行われる場合を例に説明したが、通信部118によって行われる通信は無線通信に限定されるものではない。例えば、配線等を用いた電気的な接続によって通信部118と外部機器127とが接続されてもよい。   The communication control unit 117 is controlled by the CPU 101. The communication control unit 117 generates a modulation signal conforming to a wireless communication standard determined in advance by IEEE 802.11 or the like, and outputs the modulation signal to the communication unit 118. In addition, the communication control unit 117 receives a modulated signal conforming to the wireless communication standard via the communication unit 118, decodes the received modulated signal, and outputs a signal corresponding to the decoded signal to the CPU 101. The communication control unit 117 includes a register for storing communication settings. The communication control unit 117 can adjust the transmission / reception sensitivity during communication under the control of the CPU 101. The communication control unit 117 can perform transmission / reception with a predetermined modulation method. The communication unit 118 includes an antenna that outputs a modulation signal supplied from the communication control unit 117 to an external device 127 such as an information communication device outside the imaging apparatus 100 and receives a modulation signal from the external device 127. ing. The communication unit 118 includes a communication circuit and the like. Here, the case where wireless communication is performed by the communication unit 118 has been described as an example, but the communication performed by the communication unit 118 is not limited to wireless communication. For example, the communication unit 118 and the external device 127 may be connected by electrical connection using wiring or the like.

記録媒体制御部119は、記録媒体120を制御する。記録媒体制御部119は、CPU101からの要求に基づいて、記録媒体120を制御するための制御信号を記録媒体120に出力する。記録媒体120としては、例えば不揮発性メモリや磁気ディスク等が用いられる。記録媒体120は、上述したように、着脱可能であってもよいし、着脱不能であってもよい。記録媒体120は、符号化された画像データ等を記録する。記録媒体120のファイルシステムに適合した形式で画像データ等がファイルとして保存される。ファイルとしては、例えば、MP4ファイル(ISO/IEC 14496−14:2003)、MXF(Material eXchange Format)ファイル等が挙げられる。各々の機能ブロック101〜104、112〜115、117、119は、内部バス130を介して互いにアクセス可能となっている。   The recording medium control unit 119 controls the recording medium 120. The recording medium control unit 119 outputs a control signal for controlling the recording medium 120 to the recording medium 120 based on a request from the CPU 101. As the recording medium 120, for example, a nonvolatile memory or a magnetic disk is used. As described above, the recording medium 120 may be detachable or non-detachable. The recording medium 120 records encoded image data and the like. Image data or the like is saved as a file in a format compatible with the file system of the recording medium 120. Examples of the file include an MP4 file (ISO / IEC 14496-14: 2003), an MXF (Material eXchange Format) file, and the like. Each of the functional blocks 101 to 104, 112 to 115, 117, and 119 can access each other via the internal bus 130.

ここで、本実施例の撮像装置100の通常の動作について説明する。   Here, the normal operation of the imaging apparatus 100 of the present embodiment will be described.

撮像装置100は、ユーザが操作部104の電源ボタンを操作すると、操作部104からCPU101に起動の指示が出される。この指示を受けて、CPU101は、不図示の電源供給部を制御して、撮像装置100の各ブロックに対して電源を供給させる。電源が供給されると、CPU101は、例えば、操作部104のモード切り換えスイッチが、例えば、静止画撮影モード、再生モード等のどのモードであるかを操作部102からの指示信号により確認する。   When the user operates the power button of the operation unit 104, the imaging apparatus 100 issues an activation instruction to the CPU 101 from the operation unit 104. In response to this instruction, the CPU 101 controls a power supply unit (not shown) to supply power to each block of the imaging apparatus 100. When the power is supplied, the CPU 101 checks, for example, which mode the mode selector switch of the operation unit 104 is in, for example, a still image shooting mode, a playback mode, or the like by an instruction signal from the operation unit 102.

通常の静止画撮影モードでは、撮像装置100は、撮影待機状態でユーザが操作部104の静止画記録ボタンを操作することで撮影処理を行う。撮影処理では、撮像部112で撮影した静止画の画像データについて、画像処理部113で画像処理を施し、符号化処理部114で符号化処理し、記録媒体制御部119により符号化された画像データを画像ファイルとして記録媒体120に記録する。なお、撮影待機状態では、撮像部112で所定のフレームレートで画像を撮影し、画像処理部で表示用の画像処理を施して表示制御部115により表示部116に表示させることによりライブビュー画像の表示を行う。   In the normal still image shooting mode, the imaging apparatus 100 performs shooting processing when the user operates the still image recording button of the operation unit 104 in a shooting standby state. In the shooting process, image data of a still image shot by the imaging unit 112 is subjected to image processing by the image processing unit 113, encoded by the encoding processing unit 114, and encoded by the recording medium control unit 119. Is recorded on the recording medium 120 as an image file. In the imaging standby state, an image is captured at a predetermined frame rate by the imaging unit 112, image processing for display is performed by the image processing unit, and the display control unit 115 displays the image on the display unit 116, thereby displaying the live view image. Display.

再生モードでは、記録媒体120に記録されている画像ファイルを記録媒体制御部119により読み出し、読み出した画像ファイルの画像データを符号化処理部114で復号する。つまり、符号化処理部114はデコーダの機能も有している。そして、画像処理部113で表示用の処理を施し、表示制御部115により表示部116に表示させる。   In the reproduction mode, the image file recorded on the recording medium 120 is read by the recording medium control unit 119, and the image data of the read image file is decoded by the encoding processing unit 114. That is, the encoding processing unit 114 also has a decoder function. Then, the image processing unit 113 performs display processing, and the display control unit 115 causes the display unit 116 to display.

通常の静止画の撮影および再生については、上記のように実行されるが、本実施形例の撮像装置では、通常の静止画だけでなく、HDR静止画を撮影するためのHDR撮影モードを有し、また、撮影したHDR静止画を再生することができる。   Although normal still image shooting and playback are performed as described above, the imaging apparatus of the present embodiment has an HDR shooting mode for shooting not only normal still images but also HDR still images. In addition, the captured HDR still image can be reproduced.

以降、HDR静止画像の撮影および再生の処理について説明する。   Hereinafter, HDR still image shooting and playback processing will be described.

<ファイル構造>
まずは、HDR静止画像を記録する際のファイル構造について説明する。
<File structure>
First, the file structure for recording an HDR still image will be described.

最近、High Efficiency Image File Format(以下、HEIFと称す)と呼ばれる静止画ファイルフォーマットが策定された。(ISO/IEC 23008−12:2017)   Recently, a still image file format called High Efficiency Image File Format (hereinafter referred to as HEIF) has been developed. (ISO / IEC 23008-12: 2017)

これは、JPEGのような従来の静止画ファイルフォーマットと比べ、以下のような特徴を持つ。
・ISOベースメディアファイルフォーマット(以下、ISOBMFFと称す)に準拠したファイル形式である。(ISO/IEC 14496−14:2003)
・単一の静止画像だけでなく、複数の静止画像を格納できる。
・HEVC/H.265やAVC/H.264など、動画の圧縮に用いられる圧縮形式で圧縮された静止画を格納できる。
This has the following characteristics as compared with a conventional still image file format such as JPEG.
A file format compliant with the ISO base media file format (hereinafter referred to as ISOBMFF). (ISO / IEC 14496-14: 2003)
-Not only a single still image but also a plurality of still images can be stored.
・ HEVC / H. H.265 and AVC / H. Still images compressed in a compression format used for compressing moving images such as H.264 can be stored.

本実施形例では、HDR静止画像の記録ファイルとして、HEIFを採用する。   In this embodiment, HEIF is adopted as a recording file for HDR still images.

最初に、HEIFが格納するデータについて説明する。   First, data stored in the HEIF will be described.

HEIFは、格納する個々のデータを、アイテムという単位で管理する。   HEIF manages individual data to be stored in units of items.

各アイテムは、データ自身の他に、ファイル内で一意となる整数値アイテムID(item_ID)と、アイテムの種別を表すアイテムタイプ(item_type)を持つ。   Each item has, in addition to the data itself, an integer item ID (item_ID) that is unique within the file and an item type (item_type) that represents the item type.

アイテムは、データが画像を表す画像アイテム(image item)と、データがメタデータであるメタデータアイテム(metadata item)に分けることができる。   Items can be divided into image items in which data represents images, and metadata items in which data is metadata (metadata items).

画像アイテムには、データが符号化された画像データである符号化画像アイテム(coded image item)と、1個以上の他の画像アイテムを操作した結果の画像を表す、導出画像アイテム(derived image item)がある。   The image item includes a coded image item (coded image item) that is image data obtained by encoding data, and a derived image item that represents an image obtained as a result of operating one or more other image items. )

導出画像アイテムの例として、オーバーレイ形式の導出画像アイテムであるオーバーレイ画像がある。これは、ImageOverlay構造体(オーバーレイ情報)用いて、任意個の画像アイテムを任意の位置に配置して合成された結果のオーバーレイ画像である。   An example of the derived image item is an overlay image that is a derived image item in an overlay format. This is an overlay image obtained as a result of combining an arbitrary number of image items at an arbitrary position using an ImageOverlay structure (overlay information).

メタデータアイテムの例として、Exifデータを格納することができる。   Exif data can be stored as an example of a metadata item.

前述のように、HEIFは複数の画像アイテムを格納することができる。   As described above, the HEIF can store a plurality of image items.

複数の画像間に関係がある場合、それらの関係を記述することができる。   If there are relationships between multiple images, they can be described.

複数の画像間の関係の例は、導出画像アイテムとそれを構成する画像アイテムの関係、本画像とサムネイル画像の関係、などである。   Examples of the relationship between the plurality of images include a relationship between the derived image item and the image item constituting the derived image item, a relationship between the main image and the thumbnail image, and the like.

また、画像アイテムとメタデータアイテムの関係も、同様に記述することができる。   Further, the relationship between the image item and the metadata item can be similarly described.

HEIF形式は、ISOBMFF形式に準拠している。そのため、まず、ISOBMFFについて、簡単に説明する。   The HEIF format conforms to the ISOBMFF format. Therefore, first, ISOBMFF will be briefly described.

ISOBMFF形式は、ボックスと呼ばれる構造でデータを管理する。   The ISOBMFF format manages data in a structure called a box.

ボックスは、4バイトのデータ長フィールドと、4バイトのデータタイプフィールドから始まり、それ以降に任意長のデータを持つデータ構造である。   The box is a data structure that starts with a 4-byte data length field and a 4-byte data type field, and thereafter has arbitrary length data.

データ部の構造は、データタイプによって決定する。ISOBMFFの仕様書やHEIFの仕様書では、いくつかのデータタイプ及びそのデータ部の構造が規定されている。   The structure of the data part is determined by the data type. In the ISOBMFF specification and HEIF specification, several data types and structures of data portions thereof are defined.

また、ボックスは、別のボックスをデータに持つこともある。すなわち、ボックスの入れ子が可能である。ここで、あるボックスのデータ部に入れ子にされたボックスを、サブボックスと呼ぶ。   A box may have another box as data. That is, boxes can be nested. Here, a box nested in the data portion of a certain box is called a sub-box.

また、サブボックスではないボックスを、ファイルレベルのボックスと呼ぶ。これは、ファイルの先頭から、順次アクセス可能なボックスである。   A box that is not a sub-box is called a file-level box. This is a box that can be accessed sequentially from the beginning of the file.

図2を用いて、HEIF形式のファイルについて説明する。   The HEIF format file will be described with reference to FIG.

まず、ファイルレベルのボックスについて説明する。   First, the file level box will be described.

データタイプが’ftyp’であるファイルタイプボックスには、ファイルの互換性に関する情報を格納する。ISOBMFF準拠のファイル仕様は、その仕様が規定するファイルの構造や、ファイルが格納するデータを、ブランドと呼ぶ4バイトのコードで宣言し、それらをファイルタイプボックスに格納する。ファイルの先頭にファイルタイプボックスを配置することにより、ファイルのリーダは、ファイルタイプボックスの内容をチェックすることで、さらにファイルの内容を読み出して解釈することなく、ファイルの構造を知ることができる。   Information regarding file compatibility is stored in a file type box whose data type is 'ftyp'. The file specification conforming to ISOBMFF declares the structure of the file defined by the specification and the data stored in the file with a 4-byte code called a brand, and stores them in the file type box. By arranging the file type box at the beginning of the file, the reader of the file can check the contents of the file type box and know the structure of the file without further reading and interpreting the contents of the file.

HEIFの仕様では、’mif1’というブランドでそのファイル構造を表す。また、格納する符号化画像データがHEVC圧縮されたデータの場合、HEVC圧縮のプロファイルに従って、’heic’または’heix’というブランドで表す。   In the HEIF specification, the file structure is represented by the brand 'mif1'. In addition, when the encoded image data to be stored is HEVC compressed data, it is represented by the brand 'heic' or 'heix' according to the HEVC compression profile.

データタイプが’meta’であるメタデータボックスは、いろいろなサブボックスを含み、各アイテムに関するデータを格納する。内訳については、後述する。   The metadata box whose data type is 'meta' includes various sub boxes and stores data regarding each item. The breakdown will be described later.

データタイプが’mdat’であるメディアデータボックスには、各アイテムのデータを格納する。例えば、符号化画像アイテムの符号化画像データや、メタデータアイテムのExifデータ、である。   In the media data box whose data type is 'mdat', data of each item is stored. For example, encoded image data of an encoded image item and Exif data of a metadata item.

次に、メタデータボックスのサブボックスについて説明する。   Next, sub-boxes of the metadata box will be described.

データタイプが’hdlr’であるハンドラボックスは、メタデータボックスが管理するデータのタイプを表す情報を格納する。HEIF仕様では、ハンドラボックスのhandler_typeは‘pict’である。   The handler box whose data type is “hdlr” stores information indicating the type of data managed by the metadata box. In the HEIF specification, handler_type of the handler box is “pict”.

データタイプが’dinf’であるデータ情報ボックスは、このファイルが対象とするデータが存在するファイルを指定する。ISOBMFFでは、あるファイルが対象とするデータを、そのファイル以外のファイルに格納することが可能である。その場合、データ情報ボックス内のデータリファレンスに、データが存在するファイルのURLを記述したデータエントリURLボックスを格納する。対象とするデータが同じファイルに存在する場合、それを表すフラグのみを有するデータエントリURLボックスを格納する。   The data information box whose data type is “dinf” designates a file in which data targeted by this file exists. In ISOBMFF, data targeted by a certain file can be stored in a file other than that file. In that case, the data entry URL box describing the URL of the file in which the data exists is stored in the data reference in the data information box. When the target data exists in the same file, a data entry URL box having only a flag representing it is stored.

データタイプが’pitm’であるプライマリアイテムボックスは、主画像を表す画像アイテムのアイテムIDを格納する。   The primary item box whose data type is 'pitm' stores the item ID of the image item representing the main image.

データタイプが’iinf’であるアイテム情報ボックスは、以下の、アイテム情報エントリを格納するためのボックスである。   The item information box whose data type is 'iinf' is a box for storing the following item information entry.

データタイプが’infe’であるアイテム情報エントリは、各アイテムの、アイテムIDやアイテムタイプ、フラグを格納する。   The item information entry whose data type is “inf” stores the item ID, item type, and flag of each item.

符号化画像データがHEVC圧縮されたデータである画像アイテムのアイテムタイプは、’hvc1’であり、画像アイテムである。   The item type of an image item whose encoded image data is HEVC compressed data is 'hvc1', which is an image item.

オーバーレイ形式の導出画像アイテム、つまり、ImageOverlay構造体(オーバーレイ情報)のアイテムタイプは、’iovl’であり、画像アイテムに分類である。   The derived image item in the overlay format, that is, the item type of the ImageOverlay structure (overlay information) is 'iovl', and is classified as an image item.

Exif形式のメタデータアイテムのアイテムタイプは、’Exif’であり、メタデータアイテムである。   The item type of the metadata item in the Exif format is “Exif”, which is a metadata item.

また、画像アイテムには、フラグフィールドの最下位ビットが立っている場合、その画像アイテムは隠し画像(hidden image)であることを指定することができる。このフラグが立っている場合、その画像アイテムは、再生時に表示対象として扱われず、非表示となる。   Further, when the least significant bit of the flag field is set in the image item, it can be specified that the image item is a hidden image. When this flag is set, the image item is not treated as a display target during reproduction and is not displayed.

データタイプが’iref’であるアイテム参照ボックスは、各アイテム間の参照関係を、参照関係の種類、参照元アイテムのアイテムID、1個以上の参照先アイテムのアイテムID、で格納する。   The item reference box whose data type is “iref” stores the reference relationship between the items by the type of the reference relationship, the item ID of the reference source item, and the item ID of one or more reference destination items.

オーバーレイ形式の導出画像アイテムの場合、参照関係の種類に’dimg’、参照元アイテムのアイテムIDに導出画像アイテムのアイテムID、参照先アイテムのアイテムIDにオーバーレイを構成する各画像アイテムのアイテムID、を格納する。   In the case of the derived image item in the overlay format, the type of reference relationship is “dimg”, the item ID of the reference source item is the item ID of the derived image item, the item ID of the reference destination item is the item ID of each image item constituting the overlay, Is stored.

サムネイル画像の場合、参照関係の種類に’thmb’、参照元アイテムのアイテムIDにサムネイル画像のアイテムID、参照先アイテムのアイテムIDに本画像のアイテムID、を格納する。   In the case of a thumbnail image, 'thmb' is stored as the type of reference relationship, the item ID of the thumbnail image is stored as the item ID of the reference source item, and the item ID of the main image is stored as the item ID of the reference destination item.

データタイプが’iprp’であるアイテムプロパティボックスは、以下の、アイテムプロパティコンテナボックスとアイテムプロパティ関連ボックスを格納するためのボックスである。   The item property box whose data type is 'iprp' is a box for storing the following item property container box and item property related box.

データタイプが’ipco’であるアイテムプロパティコンテナボックスは、個々のプロパティデータのボックスを格納するボックスである。   The item property container box whose data type is 'ipco' is a box for storing individual property data boxes.

各画像アイテムは、その画像の特徴、属性を表すプロパティデータを持つことができる。   Each image item can have property data representing the characteristics and attributes of the image.

プロパティデータボックスには、以下のようなものがある。   The property data box includes the following.

デコーダ構成・初期化データ(Decoder configuration and initialization。HEVCの場合、タイプは’hvcC’)は、デコーダの初期化に使われるデータである。HEVCのパラメータセットデータ(VideoParameterSet、SequenceParameterSet、PictureParameterSet)は、ここに格納する。   Decoder configuration and initialization data (Decoder configuration and initialization. In the case of HEVC, the type is 'hvcC') is data used for initialization of the decoder. HEVC parameter set data (VideoParameterSet, SequenceParameterSet, PictureParameterSet) is stored here.

画像空間範囲(Image spatial extents。タイプは’ispe’)は、画像の大きさ(幅、高さ)である。   Image spatial extents (type is 'ispe') is the size (width, height) of the image.

色空間情報(Colour information。タイプは’colr’)は、画像の色空間情報である。   Color space information (Color information, type “color”) is color space information of an image.

画像回転情報(Image rotation。タイプは’irot’)が、画像を回転して表示する際の、回転方向である。   Image rotation information (Image rotation, type “irot”) is the rotation direction when rotating and displaying an image.

画像のピクセル情報(タイプは’pixi’)は、画像を構成するデータのビット数を示す情報である。   Image pixel information (type is 'pixi') is information indicating the number of bits of data constituting the image.

また、本実施例では、HDRメタデータとして、マスターディスプレイカラーボリューム情報(Mastering display colour volume。タイプは’MDCV’)や、コンテンツライトレベル情報(Contents light level information。タイプは’CLLI’)を、プロパティデータボックスとして格納している。   In this embodiment, master display color volume information (Mastering display color volume. Type is 'MDCV') and content light level information (Contents light level information. Type is 'CLLI') are used as HDR metadata. Stored as a data box.

上記以外プロパティも存在するが、ここでは明記しない。   There are other properties, but they are not specified here.

データタイプが’ipma’であるアイテムプロパティ関連ボックスは、各アイテムとプロパティの関連付けを、アイテムIDと、関連するプロパティの’ipco’におけるインデックスの配列、の形式で格納する。   The item property association box whose data type is 'ipma' stores the association between each item and the property in the form of an item ID and an array of indices in the associated property 'ipco'.

データタイプが’idat’であるアイテムデータボックスは、データサイズが小さいアイテムデータを格納するボックスである。   The item data box whose data type is 'idat' is a box for storing item data having a small data size.

オーバーレイ形式の導出画像アイテムのデータは、構成画像の位置情報などを格納したImageOverlay構造体(オーバーレイ情報)を’idat’に格納することができる。オーバーレイ情報には、背景色情報であるcanvas_fill_valueパラメータや、オーバーレイで合成した際の最終的な合成後の再生画像サイズであるoutput_width、output_heightパラメータ等がある。さらに、合成要素となる画像毎に、合成画像内での配置位置を水平位置座標、垂直位置座標を示すhorizontal_offset、vertical_offsetパラメータがある。オーバーレイ情報に含まれるこれらのパラメータを用いることにより、指定した背景色、サイズの1つの画像内の任意の位置に複数の画像を配置した合成画像を再生することができる。   The data of the derived image item in the overlay format can store an ImageOverlay structure (overlay information) that stores the position information of the component image and the like in 'idat'. The overlay information includes a canvas_fill_value parameter that is background color information, and an output_width, output_height parameter that is a final reproduced image size after composition by overlay. Furthermore, for each image that is a composite element, there are horizontal_offset and vertical_offset parameters that indicate the arrangement position in the composite image and the horizontal position coordinate and vertical position coordinate. By using these parameters included in the overlay information, it is possible to reproduce a composite image in which a plurality of images are arranged at arbitrary positions in one image having a designated background color and size.

データタイプが’iloc’であるアイテムロケーションボックスは、各アイテムのデータの位置情報を、オフセット基準(construction_method)、オフセット基準からのオフセット値、長さ、の形式で格納する。   The item location box whose data type is 'iloc' stores the position information of the data of each item in the form of an offset reference (construction_method), an offset value from the offset reference, and a length.

オフセット基準は、ファイルの先頭、または、’idat’、である。   The offset reference is the beginning of the file or 'idat'.

なお、メタデータボックスには上記以外のボックスも存在するが、ここでは明記しない。   There are other boxes in the metadata box, but they are not specified here.

図2では、2つの符号化画像アイテムがオーバーレイ形式の画像を構成している構造を図示している。オーバーレイ形式の画像を構成する符号化画像アイテム数は2に限定されない。オーバーレイ形式の画像を構成する符号化画像アイテム数が増加すると、以下のボックス、項目、がその分増加する。
・アイテム情報ボックスに、符号化画像アイテムの、アイテム情報エントリが追加。
・アイテム参照ボックスの参照関係種類‘dimg’の参照先アイテムIDに、符号化画像アイテムのアイテムIDが増加。
・アイテムプロパティコンテナボックスにおける、デコーダ構成・初期化データ、画像空間範囲、など。
・アイテムプロパティ関連ボックスに、符号化画像アイテムとその関連プロパティのインデックスの項目が追加。
・アイテムロケーションボックスに符号化画像アイテムの位置情報の項目が追加。
・メディアデータボックスに、符号化画像データが追加。
FIG. 2 illustrates a structure in which two encoded image items constitute an overlay image. The number of encoded image items constituting an overlay format image is not limited to two. When the number of encoded image items constituting an overlay image increases, the following boxes and items increase accordingly.
・ Item information entry of encoded image item is added to item information box.
The item ID of the encoded image item is increased to the reference item ID of the reference relation type “dimg” in the item reference box.
Decoder configuration / initialization data, image space range, etc. in item property container box.
-Added item of encoded image item and related property index to item property related box.
-The item location information item is added to the item location box.
-Encoded image data is added to the media data box.

<HDR画像の撮影>
次に、HDR画像を撮影して記録する際の撮像装置100での処理について説明する。
<Shooting HDR images>
Next, processing in the imaging apparatus 100 when shooting and recording an HDR image will be described.

記録する画像の幅や高さが昨今大きくなってきているが、あまりに大きいサイズを符号化すると他機種での復号時に互換性が失われたり、システムの規模が大きくなったりする。具体的に本実施例では符号・復号にH.265を用いた例を説明する。H.265には規格として、ProfileやLevelといったパラメータがあり、画像符号化方法や、画像サイズが大きくなるとこれらのパラメータが変化する。これらの値は復号時の機器で再生対象の可否を判断するパラメータであり、このパラメータを判定して再生不可として弾かれる場合がある。本実施例では大きな画像サイズを記録する場合、複数の画像表示領域に分割して、HEIF規格が謳うオーバーレイの方法を用い、それらの符号データをHEIFファイルに格納して管理する方法について述べる。このように複数の画像表示領域に分けることで1つあたりの画像表示領域のサイズが小さくなり他の機種での再生互換性が高まる。以下、符号化領域の1辺のサイズを4096以下と定めて説明する。なお符号化形式はH.265以外のものであってもよいし、1辺のサイズを4096以外のサイズに規定してもよい。   The width and height of images to be recorded are increasing recently, but if an excessively large size is encoded, compatibility is lost when decoding with other models, and the scale of the system increases. Specifically, in this embodiment, H.264 is used for encoding / decoding. An example using H.265 will be described. H. H.265 has parameters such as Profile and Level as standards, and these parameters change as the image encoding method and the image size increase. These values are parameters for determining whether or not playback is possible in the device at the time of decoding. In some cases, this parameter is determined and played as being unplayable. In this embodiment, when a large image size is recorded, a method of dividing the image into a plurality of image display areas, storing the code data in a HEIF file and managing them using an overlay method according to the HEIF standard will be described. By dividing the image display area into a plurality of image display areas in this way, the size of each image display area is reduced, and reproduction compatibility with other models is improved. In the following description, it is assumed that the size of one side of the coding area is 4096 or less. The encoding format is H.264. It may be other than 265, and the size of one side may be defined to a size other than 4096.

次に符号化領域の開始位置や符号化領域の幅・高さ、また、再生領域の開始位置や再生領域の幅・高さについてのアライメント制約について説明する。撮像装置としては、分割後の画像を符号化する際に、符号化領域の垂直・水平符号化開始アライメントや、再生時の再生幅・高さアライメント等がハードウエア制約として一般的に存在する。つまり1つ以上の符号化領域のそれぞれの符号化開始位置、再生領域の開始位置や幅・高さを計算して符号化する必要がある。撮像装置はユーザからの指示で複数の画像サイズを切り替えて記録するため、画像サイズごとにそれらを切り替える必要がある。   Next, alignment restrictions regarding the start position of the encoding area and the width / height of the encoding area, and the start position of the reproduction area and the width / height of the reproduction area will be described. As an imaging device, when encoding a divided image, vertical / horizontal encoding start alignment of an encoding region, reproduction width / height alignment at the time of reproduction, and the like generally exist as hardware constraints. That is, it is necessary to calculate and encode the encoding start position of each of one or more encoding areas, the start position, width, and height of the reproduction area. Since the imaging apparatus switches and records a plurality of image sizes in response to an instruction from the user, it is necessary to switch them for each image size.

本実施例で説明する符号化処理部114は符号化時に横方向(以後x方向)に64画素単位、縦方向(以後y方向)に1画素単位の開始位置のアライメント制約がある。また符号化する幅、高さのアライメント制約にそれぞれ32画素単位、16画素単位の制約がある。再生領域の開始位置はx方向に2画素単位、y方向に1画素単位の開始位置のアライメント制約がある。また、再生領域の幅・高さのアライメント制約はそれぞれ、2画素、1画素単位の制約がある。なお、ここでアライメント制約について例を述べたが、一般的にはこれ以外のアライメント制約であってもよい。   The encoding processing unit 114 described in the present embodiment has alignment restrictions on the start position in units of 64 pixels in the horizontal direction (hereinafter referred to as x direction) and in units of 1 pixel in the vertical direction (hereinafter referred to as y direction) during encoding. In addition, there are restrictions on the width and height alignment restrictions for encoding in units of 32 pixels and 16 pixels, respectively. The start position of the reproduction area has an alignment constraint of a start position of 2 pixels in the x direction and 1 pixel in the y direction. In addition, the alignment restrictions on the width and height of the reproduction area are limited in units of two pixels and one pixel, respectively. In addition, although the example about the alignment constraint was described here, generally other alignment constraints may be used.

次にHDR記録モード(HDR撮影モード)でHDR画像データを撮影し、撮影したHDR画像データをHEIFファイルとして記録するまでのフローについて図3を用いて説明する。HDRモードでは撮像部112と画像処理部113においてHDRを示す色域BT.2020と、PQガンマカーブを用いてHDRの色空間を表現する処理を行う。HDRのための記録については本実施例では割愛する。   Next, a flow from shooting HDR image data in the HDR recording mode (HDR shooting mode) to recording the shot HDR image data as a HEIF file will be described with reference to FIG. In the HDR mode, the image capturing unit 112 and the image processing unit 113 use the color gamut BT. 2020 and processing for expressing the HDR color space using the PQ gamma curve. In this embodiment, recording for HDR is omitted.

S101ではCPU101がユーザによるSW2の押下の有無を判定する。ユーザが被写体を捉え、SW2まで押下した場合(S101のYES)、CPU101はSW2が押されたことを検知し、S102に遷移する。SW2が押されるまでCPU101はこの検出を続ける(S101のNO)。   In S101, the CPU 101 determines whether or not the user has pressed SW2. When the user captures the subject and presses down to SW2 (YES in S101), the CPU 101 detects that SW2 has been pressed, and proceeds to S102. The CPU 101 continues this detection until SW2 is pressed (NO in S101).

S102ではCPU101が、ユーザが捉えた画角の画像をHEIFファイルに保存するため、符号化領域を縦横方向にいくつに分割するか(分割数N)、どのように分割するかを決定する。この結果をメモリ102に保存する。S102については図4を用いながら後述する。S103に進む。   In S <b> 102, the CPU 101 determines the number of divisions of the encoding area in the vertical and horizontal directions (number of divisions N) and how to divide the image so that the image of the angle of view captured by the user is saved in the HEIF file. This result is stored in the memory 102. S102 will be described later with reference to FIG. The process proceeds to S103.

S103ではCPU101がメモリ102にある変数MをM=1に初期化する。その後S104に進む。   In S103, the CPU 101 initializes a variable M in the memory 102 to M = 1. Thereafter, the process proceeds to S104.

S104ではCPU101が、S102で決定した分割数N回分ループしたかを監視する。ループ回数が分割数Nに到達した場合(S104のYES)S109に進み、そうでなければ(S104のNO)S105に進む。   In S104, the CPU 101 monitors whether the number of divisions N determined in S102 has been looped. If the number of loops reaches the division number N (YES in S104), the process proceeds to S109, otherwise (NO in S104), the process proceeds to S105.

S105ではCPU101が分割画像Mの符号開始領域、再生領域の情報を先のメモリ102から読み出しておく。S106に進む。   In S <b> 105, the CPU 101 reads out information on the code start area and the reproduction area of the divided image M from the previous memory 102. The process proceeds to S106.

S106ではCPU101が符号化処理部114にメモリ102に配置された画像全体のうち、どの領域を符号化するかを伝え、符号化させる。S107に進む。   In S <b> 106, the CPU 101 informs the encoding processing unit 114 which region of the entire image arranged in the memory 102 is to be encoded and performs encoding. The process proceeds to S107.

S107では符号化処理部114が符号化した結果の符号データと、符号時に発生する付随情報をCPU101がメモリ102に一時保存する。具体的にH.265の例では、のちにHEIFファイルに格納しなければならない、VPS、SPS、PPS等のH.265規格情報のことである。本実施例とは直接関係ないため割愛するが、H.265のVPS、SPS、PPSは、符号データのサイズや、ビット深度、表示・非表示領域の指定、フレーム情報等復号に必要な様々な情報である。その後S108に進む。   In S <b> 107, the CPU 101 temporarily stores in the memory 102 code data resulting from encoding by the encoding processing unit 114 and accompanying information generated during encoding. Specifically H. In the example of H.265, an H.264 such as VPS, SPS, or PPS that must be stored in the HEIF file later. It is H.265 standard information. This is omitted because it is not directly related to the present embodiment. VPS, SPS, and PPS of H.265 are various pieces of information necessary for decoding such as code data size, bit depth, display / non-display area designation, and frame information. Thereafter, the process proceeds to S108.

S108ではCPU101が変数MをインクリメントしS104に戻る。   In S108, the CPU 101 increments the variable M and returns to S104.

S109ではCPU101がHEIFファイルに格納するメタデータを生成する。CPU101は、撮像部112、画像処理部113、符号化処理部114等から、再生時に必要な情報を引出し、メタデータとしてメモリ102に一旦保存する。具体的にはExif形式に成形されたデータである。Exifデータの詳細についてはすでに一般的であるため本実施例での説明は割愛する。S110に進む。   In S109, the CPU 101 generates metadata to be stored in the HEIF file. The CPU 101 extracts information necessary for reproduction from the imaging unit 112, the image processing unit 113, the encoding processing unit 114, and the like, and temporarily stores the information in the memory 102 as metadata. Specifically, it is data formed in the Exif format. Since the details of Exif data are already general, the description in this embodiment will be omitted. Proceed to S110.

S110ではCPU101がサムネイルを符号化する。メモリ102にある画像全体を画像処理部113が縮小しサムネイルサイズにして一旦メモリ102に配置する。このメモリ102にあるサムネイル画像をCPU101が符号化処理部114に指示して符号化する。ここでサムネイルは先に述べたアライメント制約を満たすようなサイズで符号化するが、符号化領域と再生領域とが異なる方式でもよい。このサムネイルもH.265で符号化される。S111に進む。   In S110, the CPU 101 encodes the thumbnail. The entire image in the memory 102 is reduced by the image processing unit 113 to a thumbnail size and temporarily arranged in the memory 102. The CPU 101 instructs the encoding processing unit 114 to encode the thumbnail images in the memory 102. Here, the thumbnail is encoded with a size that satisfies the alignment constraint described above, but a method in which the encoding area and the reproduction area are different may be used. This thumbnail is also H.264. It is encoded with H.265. Proceed to S111.

S111では符号化処理部114がサムネイルを符号化した結果の符号データと、符号時に発生する付随情報をCPU101がメモリ102に一時保存する。先のS107の説明と同様にVPS、SPS、PPS等のH.265規格情報のことである。次にS112に進む。   In S <b> 111, the CPU 101 temporarily stores in the memory 102 code data obtained as a result of encoding the thumbnail by the encoding processing unit 114 and accompanying information generated at the time of encoding. Similar to the description of S107 above, H.P. such as VPS, SPS, and PPS. It is H.265 standard information. Next, the process proceeds to S112.

S112では、ここまでのステップでCPU101が各種データをメモリ102に保存した。CPU101はこのメモリ102に保存したデータを順序良く結合しHEIFファイルを完成させ、メモリ102に保存する。このHEIFファイルを完成させるためのフローは、図6を用いてのちに説明する。S113に進む。   In S112, the CPU 101 stores various data in the memory 102 through the steps so far. The CPU 101 combines the data stored in the memory 102 in order, completes the HEIF file, and stores it in the memory 102. The flow for completing the HEIF file will be described later with reference to FIG. The process proceeds to S113.

S113でCPU101は、メモリ102にあるHEIFファイルを記録媒体制御部119によって記録媒体 120に書き出すよう指示する。その後S101に戻る。   In step S <b> 113, the CPU 101 instructs the recording medium control unit 119 to write the HEIF file in the memory 102 to the recording medium 120. Thereafter, the process returns to S101.

このようなステップで撮影が行われてからHEIFファイルが記録媒体120に記録される。   After shooting in such a step, the HEIF file is recorded on the recording medium 120.

次に、先に説明したS102での分割の方法決定について、図4、図5(a)を用いて説明する。以下センサ画像領域の左上を原点(0、0)とし、座標を(x、y)、幅高さをそれぞれw、hで表す。また領域については開始座標の(x、y)と幅高さのw、hを合わせて[x、y、w、h]と表現する。   Next, the division method determination in S102 described above will be described with reference to FIGS. 4 and 5A. Hereinafter, the upper left of the sensor image area is defined as the origin (0, 0), the coordinates are (x, y), and the width and height are represented by w and h, respectively. The region is expressed as [x, y, w, h] by combining the start coordinate (x, y) and the width height w, h.

S121でCPU101は撮影時の記録モードをメモリ102から取得する。記録モードとは例えば画像サイズ、画像のアスペクト比、画像の圧縮率などが決定した記録方法を決めたもので、ユーザはこの記録モードから1つを選択して撮影を行う。例えば、Lサイズ、3:2アスペクトなどの設定のことである。記録モードに応じて撮影画角が異なるため、撮影の画角を決定する。S122に進む。   In step S <b> 121, the CPU 101 acquires the recording mode at the time of shooting from the memory 102. The recording mode is a recording method in which, for example, the image size, the image aspect ratio, the image compression rate, and the like are determined. The user selects one of the recording modes and performs shooting. For example, it is a setting such as L size, 3: 2 aspect. Since the shooting angle of view varies depending on the recording mode, the shooting angle of view is determined. The process proceeds to S122.

S122ではセンサ画像領域[0、0、H、V]の中から、再生画像の開始座標位置(x0、y0)を取得する。次にS123に進む。   In S122, the start coordinate position (x0, y0) of the reproduced image is acquired from the sensor image area [0, 0, H, V]. Next, the process proceeds to S123.

S123では再生画像の領域[x0、y0、Hp、Vp]をメモリ102から取得する。次にS124に進む。   In S123, the area [x0, y0, Hp, Vp] of the reproduced image is acquired from the memory 102. Next, the process proceeds to S124.

S124では再生画像の領域を含むように符号化する必要がある。先に述べたように符号開始位置のアライメントはx方向に64画素のアライメントをとるため、再生画像の領域を含むように符号化しようとすると(Ex0、Ey0)の位置から符号化しなければならない。このようにしてLexのサイズが求まる。このLexのオフセットが0であれば(S124のNO)S126に進み、必要であれば(S124のYES)S125に進む。   In S124, it is necessary to encode so as to include the area of the reproduced image. As described above, since the alignment of the code start position is an alignment of 64 pixels in the x direction, if encoding is performed so as to include the region of the reproduced image, the encoding must be performed from the position (Ex0, Ey0). In this way, the size of Lex is obtained. If this Lex offset is 0 (NO in S124), the process proceeds to S126, and if necessary (YES in S124), the process proceeds to S125.

S125では、Lexを求める。Lexは先に述べたように再生画像領域と符号化開始位置のアライメントによって決定される。CPU101はLexを以下のようにして決定する。x0を水平方向の符号化開始位置の画素アライメント64画素で除し、その商に先の64画素を乗じて求める。余りを含めず計算するため、再生画像領域の開始位置よりも左側に位置する座標が得られる。よってLexは、再生画像領域のx座標から先の計算によって求めた符号化開始位置のx座標の差で求まる。S126に進む。   In S125, Lex is obtained. As described above, Lex is determined by the alignment between the reproduction image area and the encoding start position. The CPU 101 determines Lex as follows. x0 is divided by 64 pixels of the pixel alignment at the encoding start position in the horizontal direction, and the quotient is multiplied by the previous 64 pixels. Since the calculation is performed without including the remainder, the coordinates located on the left side of the start position of the reproduction image area are obtained. Therefore, Lex is obtained by the difference in the x coordinate of the encoding start position obtained by the previous calculation from the x coordinate of the reproduced image area. The process proceeds to S126.

S126では再生画像の最上位ラインの右端の最終位置の座標を計算する。これを(xN、y0)とする。xNはx0にHpを加算して求める。S127に進む。   In S126, the coordinates of the final position of the right end of the uppermost line of the reproduced image are calculated. Let this be (xN, y0). xN is obtained by adding Hp to x0. The process proceeds to S127.

S127では再生画像の右端を含むように符号化領域の右端を求める。符号化領域の右端wの求めるためには、符号化の幅のアライメント制約が必要である。先に述べたように符号化の幅・高さの制約はそれぞれ32画素の倍数の制約がある。この制約と(xN、y0)との関係から再生画像の右端より先にRexのオフセットが必要かどうかをCPU101が計算する。Rexが必要であれば(S127のYES)S128に進み、不要であれば(S127のNO)S129に進む。   In S127, the right end of the coding area is obtained so as to include the right end of the reproduced image. In order to obtain the right end w of the encoding region, an alignment constraint on the encoding width is necessary. As described above, the encoding width / height constraint is a multiple of 32 pixels. From the relationship between this restriction and (xN, y0), the CPU 101 calculates whether or not the Rex offset is necessary before the right end of the reproduced image. If Rex is necessary (YES in S127), the process proceeds to S128, and if not (NO in S127), the process proceeds to S129.

S128では、CPU101が再生画像右端座標(xN、y0)の右側に32画素のアライメントになるようにRexを付加し、符号化の終了位置(ExN、Ey0)を求める。S129に進む。   In S128, the CPU 101 adds Rex to the right side of the right end coordinates (xN, y0) of the reproduced image so as to align 32 pixels, and obtains the encoding end position (ExN, Ey0). The process proceeds to S129.

S129では、CPU101が表示領域の右下の座標を求める。再生画像のサイズが自明のためこの座標は(xN、yN)となる。S130に進む。   In S129, the CPU 101 obtains the lower right coordinate of the display area. Since the size of the reproduced image is self-explanatory, the coordinates are (xN, yN). Proceed to S130.

S130では再生画像の下端を含むように符号化領域の下端を求める。符号化領域の下端を求めるためには、符号化の高さのアライメント制約が必要である。先に述べたように符号化の高さの制約はそれぞれ16画素の倍数の制約がある。この制約と再生画像の右下座標(xN、yN)との関係から再生画像の下端より先にVexのオフセットが必要かどうかをCPU101が計算する。Vexが必要であれば(S130のYES)S131に進み、不要であれば(S130のNO)S132に進む。   In S130, the lower end of the encoding area is obtained so as to include the lower end of the reproduced image. In order to obtain the lower end of the encoding region, an alignment constraint on the encoding height is necessary. As described above, the encoding height constraint is a multiple of 16 pixels. From the relationship between this restriction and the lower right coordinates (xN, yN) of the reproduced image, the CPU 101 calculates whether an offset of Vex is necessary before the lower end of the reproduced image. If Vex is necessary (YES in S130), the process proceeds to S131, and if not required (NO in S130), the process proceeds to S132.

S131ではCPU101がVexを先の制約と再生画像の右下座標(xN、yN)との関係から計算し、符号化領域の右下の座標(ExN、EyN)を求める。Vexの計算方法は、垂直方向の符号化開始位置であるy0からyNを含むように符号化の高さアライメントである16画素の倍数の位置に設定する。具体的には、y0=0であったとして、Vpを符号化の高さアライメントの16画素で除し、商と余りを求める。再生領域を含むように符号化領域をとらなければならないため、余りがある場合は商に1を加算し、先の16画素を乗じる。これによって16画素の倍数でありながらVpを含む符号化領域の下端のy座標のEyNが得られる。VexはEyNからyNの差で求まる。なお、EyNはyNからVexだけ下方向にオフセットさせた値であり、ExNはS128で既に求めた値である。S132に進む。   In S131, the CPU 101 calculates Vex from the relationship between the previous restriction and the lower right coordinates (xN, yN) of the reproduced image, and obtains the lower right coordinates (ExN, EyN) of the coding area. The Vex calculation method is set to a position that is a multiple of 16 pixels as the encoding height alignment so as to include y0 to yN that are the encoding start positions in the vertical direction. Specifically, assuming that y0 = 0, Vp is divided by 16 pixels of the encoding height alignment to obtain the quotient and the remainder. Since the coding area must be taken so as to include the reproduction area, if there is a remainder, 1 is added to the quotient and the previous 16 pixels are multiplied. As a result, EyN of the y coordinate of the lower end of the encoding region including Vp is obtained while being a multiple of 16 pixels. Vex is determined by the difference between EyN and yN. Note that EyN is a value that is offset downward by Vex from yN, and ExN is a value that has already been obtained in S128. Proceed to S132.

S132では、CPU101が、符号化領域のサイズHp’xVp’を以下のように求める。水平サイズHpに、アライメント制約から求めたLexとRexを加算して、Hp’を求める。また、垂直サイズVpに、アライメント制約から求めたVexを加算して、Vp’を求める。Hp’とVp’から符号化領域のサイズHp’×Vp’が求まる。S133に進む。   In S132, the CPU 101 calculates the size Hp'xVp 'of the coding area as follows. Hp ′ is obtained by adding Lex and Rex obtained from the alignment constraint to the horizontal size Hp. Further, Vp ′ obtained from the alignment constraint is added to the vertical size Vp to obtain Vp ′. The size Hp ′ × Vp ′ of the coding region is obtained from Hp ′ and Vp ′. The process proceeds to S133.

S133では、CPU101が符号化対象の水平サイズHp’が分割すべき4096画素を超えるか否かを判断し、超える場合は(S133のYES)S134に進み、超えない場合(S133のNO)はS135に進む。   In S133, the CPU 101 determines whether or not the horizontal size Hp ′ to be encoded exceeds 4096 pixels to be divided. If it exceeds (YES in S133), the process proceeds to S134, and if it does not exceed (NO in S133), S135. Proceed to

S134では、符号化対象の水平サイズHp’を4096画素以下になるように2つ以上の領域に分割する。例えば6000画素であれば2分割であるし、9000画素であれば3分割となる。   In S134, the horizontal size Hp ′ to be encoded is divided into two or more regions so as to be 4096 pixels or less. For example, if it is 6000 pixels, it is divided into two, and if it is 9000 pixels, it is divided into three.

2分割の場合は、先の符号化の幅に関するアライメント32画素を満足するおおよその中心位置で分割する。均等にならない場合は左の分割画像を大きくする。また3分割に分割する場合で均等にならない場合、先の符号化の幅に関するアライメントに注意しながら、A、B、Cと分割領域を分け、分割領域AとBのサイズが等しくなるようにし、分割領域Cをそれよりも若干小さくなるように分割する。3分割以上であっても同じアルゴリズムによって分割位置、サイズを決定する。S135に進む。   In the case of two divisions, division is performed at an approximate center position that satisfies the alignment 32 pixels related to the previous encoding width. If it is not uniform, enlarge the left split image. Also, in the case of division into three divisions, if they are not equal, the division regions A, B, and C are separated from each other while paying attention to the alignment relating to the previous encoding width so that the sizes of the division regions A and B are equal. The divided area C is divided so as to be slightly smaller than that. The division position and size are determined by the same algorithm even if there are three or more divisions. The process proceeds to S135.

S135では、CPU101が符号化対象の垂直サイズVp’が分割すべき4096画素を超えるか否かを判断し、超える場合(S135のYES)はS136に進み、超えない場合(S135のNO)は処理を終了する。   In S135, the CPU 101 determines whether or not the vertical size Vp ′ to be encoded exceeds 4096 pixels to be divided. If it exceeds (YES in S135), the process proceeds to S136, and if not (NO in S135), the process is performed. Exit.

S136では、S134と同様にVp’を複数の分割領域に分割し処理を終了する。   In S136, Vp 'is divided into a plurality of divided areas, as in S134, and the process ends.

S102での分割の例について、図5(b)、(c)、(d)、(e)を用いて具体的な数値で説明する。図5は、画像データの分割方法だけでなく、符号化領域および再生領域の関係も示している。   An example of the division in S102 will be described with specific numerical values using FIGS. 5B, 5C, 5D, and 5E. FIG. 5 shows not only the image data dividing method but also the relationship between the encoding area and the reproduction area.

図5(b)について説明する。図5(b)は左右二つの領域に画像を分割し再生領域の左右と下端にLex、Rex、Vexが付与されるケースである。まず、再生画像領域は[256+48、0、4864、3242]が撮像装置で記録したい最終的な画像の領域である。この再生画像領域の左上の座標は(256+48、0)であり、先に述べた符号化の開始アライメントである64画素単位の倍数ではない。よって、ここより48画素左側にLexを設け、符号化開始位置の左端はx=256の位置となる。次に再生領域の幅についてはw=48+4864となるが、これは符号化の幅のアライメントの32画素の倍数になっておらず符号化時の幅の制約アライメントを鑑みて、再生画像領域の右端に16画素Rexを付与する。同様に垂直方向も計算するとVex=4画素となる。この再生画像は横方向のサイズが4096を超えているため、横方向を符号化の幅のアライメントを鑑みつつおおよそ中心の位置で2分割し、結果として分割画像1の符号化領域は[256、0、2496、3242+8]、分割画像2の符号化画像領域は[256+2496、0、2432、3242+8]が求まる。   FIG. 5B will be described. FIG. 5B shows a case in which an image is divided into two left and right regions, and Lex, Rex, and Vex are given to the left and right and lower ends of the reproduction region. First, the reproduction image area [256 + 48, 0, 4864, 3242] is an area of a final image that is to be recorded by the imaging apparatus. The upper left coordinate of the reproduced image area is (256 + 48, 0), and is not a multiple of 64 pixel units, which is the start alignment of encoding described above. Therefore, Lex is provided on the left side of 48 pixels from here, and the left end of the encoding start position is a position of x = 256. Next, the width of the reproduction area is w = 48 + 4864, but this is not a multiple of 32 pixels of the alignment of the encoding width, and the right end of the reproduction image area is considered in consideration of the width alignment at the time of encoding. 16 pixels Rex is given to. Similarly, when the vertical direction is calculated, Vex = 4 pixels. Since this reproduced image has a size in the horizontal direction exceeding 4096, the horizontal direction is divided into two at approximately the center position in consideration of the alignment of the encoding width. As a result, the encoding region of the divided image 1 is [256, 0, 2496, 3242 + 8], and [256 + 2496, 0, 2432, 3242 + 8] is obtained as the encoded image area of the divided image 2.

図5(c)について説明する。図5(c)は左右二つの領域に画像を分割し、再生領域の右と下端にRex、Vexが付与されるケースである。再生画像領域のx位置がx=0のため、符号化領域の開始アライメントである64画素とも一致するためLex=0となる。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[0、0、2240、32456+8]、分割画像2の符号化画像領域は[2240、0、2144、2456+8]が求まる。   FIG. 5C will be described. FIG. 5C shows a case where an image is divided into two left and right areas, and Rex and Vex are given to the right and bottom edges of the reproduction area. Since the x position of the reproduced image area is x = 0, it matches the 64 pixels that are the start alignment of the encoding area, and therefore Lex = 0. Thereafter, the calculation method is the same as described above. As a result, the encoded area of the divided image 1 is [0, 0, 2240, 32456 + 8], and the encoded image area of the divided image 2 is [2240, 0, 2144, 2456 + 8]. ] Is obtained.

図5(d)について説明する。図5(d)は左右二つの領域に画像を分割し、再生領域の左右にLex、Rexが付与されるケースである。再生画像領域の縦サイズh=3648であり、これは符号化時の画像高さの制約である16画素の倍数となるため、Vex=0となる。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[256+48、0、2240、3648]、分割画像2の符号化画像領域は[256+2240、0、2144、3648]が求まる。   FIG. 5D will be described. FIG. 5D shows a case where an image is divided into two left and right areas, and Lex and Rex are given to the left and right of the reproduction area. The vertical size h of the reproduced image area is h = 3648, which is a multiple of 16 pixels, which is a restriction on the image height at the time of encoding, so Vex = 0. Thereafter, the calculation method is the same as that described above. As a result, the encoded area of the divided image 1 is [256 + 48, 0, 2240, 3648], and the encoded image area of the divided image 2 is [256 + 2240, 0, 2144, 3648]. ] Is obtained.

図5(d)について説明する。図5(d)は上下左右に4つの領域に画像を分割し、再生領域の左右にLex、Rexが付与されるケースである。このケースは符号化領域が、縦方向も横方向も4096を超えるため、田の字に分割を実施する。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[0、0、4032、3008]、分割画像2の符号化画像領域は[4032、0、4032、3008]、分割画像3の符号化画像領域は[0、3008、4032、2902]、分割画像4の符号化画像領域は[4032、3008、4032、2902]が求まる。   FIG. 5D will be described. FIG. 5D shows a case where an image is divided into four areas on the top, bottom, left, and right, and Lex and Rex are given to the left and right of the reproduction area. In this case, since the coding area exceeds 4096 in both the vertical and horizontal directions, division is performed into a square shape. Thereafter, the calculation method is the same as that described above. As a result, the encoded region of the divided image 1 is [0, 0, 4032, 3008], and the encoded image region of the divided image 2 is [4032, 0, 4032, 3008]. ], [0, 3008, 4032, 2902] is obtained for the encoded image area of the divided image 3, and [4032, 3008, 4032, 2902] is obtained for the encoded image area of the divided image 4.

このようにしてCPU101は記録モードに応じて再生画像の領域が決定し、それごとに分割領域の計算を行う必要がある。他の方法として、これらの計算をあらかじめ実施しておき、その結果をメモリ102保存しておく。CPU101は記録モードに応じた分割領域、再生領域の情報をメモリ102から読みだして符号化処理部114に設定してもよい。   In this way, the CPU 101 needs to determine the area of the reproduced image in accordance with the recording mode, and calculate the divided area for each area. As another method, these calculations are performed in advance and the results are stored in the memory 102. The CPU 101 may read information on the divided area and the reproduction area corresponding to the recording mode from the memory 102 and set the information in the encoding processing unit 114.

本実施例のように撮影画像を複数の分割画像に分割して記録する場合、記録した画像から撮影画像を復元するには、複数の表示領域を合成する必要がある。合成画像を生成する際に、各々の分割画像に重複領域がないほうが、余分なデータの符号化や記録をしなくてよいため、効率的となる。そのため、本実施例では分割画像間で接する境界には重なる部分(重複領域)を持たないように、各再生領域、各符号化領域を設定した。ただし、ハードウエアのアライメント制約などの条件によっては分割画像間に重複領域を設けても構わない。   When the captured image is divided into a plurality of divided images and recorded as in this embodiment, it is necessary to combine a plurality of display areas in order to restore the captured image from the recorded image. When generating a composite image, it is more efficient that there is no overlapping area in each divided image, because it is not necessary to encode and record extra data. For this reason, in this embodiment, each reproduction region and each coding region are set so that there is no overlapping portion (overlapping region) at the boundary between the divided images. However, depending on conditions such as hardware alignment constraints, an overlapping area may be provided between the divided images.

次に、先のS112で述べたHEIFファイルの構築方法について図6を用いながら説明する。HEIFファイルは図2で示す構造であるから、CPU101はファイルの先頭から順にメモリ102上に構築する。   Next, the HEIF file construction method described in S112 will be described with reference to FIG. Since the HEIF file has the structure shown in FIG. 2, the CPU 101 constructs it on the memory 102 in order from the beginning of the file.

S141で’ftyp’ボックスを生成する。このボックスはファイルの互換性を知るためのボックスでファイルの先頭におかれる。CPU101はこのボックスのメジャーブランドに’heic’、コンパチブルブランドに’mif1’、’heic’を格納する。本実施例ではこれらの値を使用するがこれ以外であってもよい。S142に進む。   In step S141, the 'ftyp' box is generated. This box is used to check file compatibility and is placed at the top of the file. The CPU 101 stores 'heic' as the major brand of this box, and 'mif1' and 'heic' as the compatible brand. In this embodiment, these values are used, but other values may be used. The process proceeds to S142.

S142で’meta’ボックスを生成する。このボックスは以下に記載の複数のボックスを格納するボックスである。CPU101はこのボックスを生成してS143に進む。   In step S142, a 'meta' box is generated. This box is a box for storing a plurality of boxes described below. The CPU 101 generates this box and proceeds to S143.

S143では、’iinf’ボックス内に格納する’hdlr’ボックスを生成する。このボックスは先に述べた’meta’ボックスの属性を示すものである。CPU101はこのタイプに’pict’を格納して、S144に進む。なお’pict’は、メタデータボックスが管理するデータのタイプを表す情報であり、HEIF仕様では、ハンドラボックスのhandler_typeは‘pict’と規定されている。   In S143, an 'hdlr' box to be stored in the 'iinf' box is generated. This box shows the attributes of the 'meta' box described above. The CPU 101 stores 'pict' in this type and proceeds to S144. 'Pict' is information indicating the type of data managed by the metadata box. In the HEIF specification, handler_type of the handler box is defined as 'pict'.

S144では、’iinf’ボックス内に格納する’dinf’ボックスを生成する。このボックスはこのファイルが対象とするデータの存在位置を示すものである。CPU101はこのボックスを生成してS145に進む。   In S144, a 'dinf' box to be stored in the 'iinf' box is generated. This box indicates the location of data targeted by this file. The CPU 101 generates this box and proceeds to S145.

S145では、’iinf’ボックス内に格納する’pitm’ボックスを生成する。このボックスは、主画像を表す画像アイテムのアイテムIDを格納する。主画像となるのはオーバーレイで合成されたオーバーレイ画像であるからCPU101はオーバーレイ情報アイテムIDを、主画像のアイテムIDとして格納する。S146に進む。   In S145, a 'pitm' box to be stored in the 'iinf' box is generated. This box stores the item ID of the image item representing the main image. Since the main image is an overlay image synthesized by overlay, the CPU 101 stores the overlay information item ID as the item ID of the main image. The process proceeds to S146.

S146では、’meta’ボックス内に格納する’iinf’ボックスを生成する。このボックスはアイテムのリストを管理するボックスである。ここではデータ長フィールドに初期値を入れ、データタイプフィールドに’iinf’を保存しS147に進む。   In S146, an 'iinf' box to be stored in the 'meta' box is generated. This box is a box for managing a list of items. Here, an initial value is entered in the data length field, 'iinf' is stored in the data type field, and the process proceeds to S147.

S147では、’iinf’ボックス内に格納する’infe’ボックスを生成する。この’infe’ボックスはファイル内に格納される各アイテムのアイテム情報を登録するボックスであり、アイテム毎に’infe’ボックスを生成する。分割画像については、それぞれの分割画像が1つのアイテムとしてこのボックスに登録される。他にも、複数の分割画像から主画像を構成するためのオーバーレイ情報や、Exif情報、サムネイル画像が、それぞれアイテムとして登録される。この際、前述したとおり、オーバーレイ情報、分割画像、サムネイル画像は、画像アイテムとして登録する。画像アイテムについては、隠し画像を示すフラグを付加することが可能であり、このフラグが付加することにより、再生時に画像が表示されないことになる。つまり、画像アイテムにこの隠し画像フラグを付加することにより、再生時に非表示とする画像を指定することができる。そこで、分割画像に関しては、隠し画像を示すフラグを立てておき、オーバーレイ情報のアイテムにはそのフラグを立てないでおく。これにより、個々の分割画像自体は表示対象外となり、オーバーレイ情報により複数の分割画像がオーバーレイ合成された結果の画像のみが表示対象となる。それぞれのアイテムについて個別に’infe’ボックスを生成し、それらを先の’iinf’内に格納する。S148に進む。   In S147, an 'infe' box to be stored in the 'iinf' box is generated. This 'infe' box is a box for registering item information of each item stored in the file, and an 'infe' box is generated for each item. For the divided images, each divided image is registered in this box as one item. In addition, overlay information, Exif information, and thumbnail images for forming a main image from a plurality of divided images are registered as items. At this time, as described above, overlay information, divided images, and thumbnail images are registered as image items. For an image item, a flag indicating a hidden image can be added. By adding this flag, an image is not displayed during reproduction. That is, by adding this hidden image flag to the image item, it is possible to designate an image that is not displayed during reproduction. Therefore, for the divided image, a flag indicating the hidden image is set, and the flag is not set for the item of overlay information. As a result, the individual divided images themselves are excluded from the display target, and only the image resulting from the overlay synthesis of the plurality of divided images based on the overlay information is the display target. Create an 'infe' box for each item individually and store them in the previous 'iinf'. The process proceeds to S148.

S148では、’iinf’ボックス内に格納する’iref’ボックスを生成する。このボックスはオーバーレイで構成される画像(主画像)、その画像を構成する分割画像の関係を示す情報を格納する。先に説明したS102で分割方法が決定しているため、決定された分割方法に基づいてCPU101はこのボックスを生成する。S149に進む。   In S148, an 'iref' box to be stored in the 'iinf' box is generated. This box stores information indicating the relationship between an image (main image) composed of an overlay and divided images constituting the image. Since the division method is determined in S102 described above, the CPU 101 generates this box based on the determined division method. The process proceeds to S149.

S149では、’iinf’ボックス内に格納する’iprp’ボックスを生成する。このボックスはアイテムのプロパティを格納するボックスであり、S150で生成される’ipco’ボックスや、S151で生成される’ipma’ボックスを格納するボックスである。S150に進む。   In S149, an 'iprp' box to be stored in the 'iinf' box is generated. This box is a box for storing the property of the item, and is a box for storing the 'ipco' box generated in S150 and the 'ipma' box generated in S151. Proceed to S150.

S150では、’iprp’ボックス内に格納する’ipco’ボックスを生成する。このボックスはアイテムのプロパティコンテナボックスであり、各種プロパティを保存する。プロパティは複数存在し、CPU101は以下のプロパティコンテナボックスを生成して’ipco’ボックス内に格納する。プロパティは、画像アイテム毎に生成されるものと複数の画像アイテムに共通して生成されるものがある。主画像となるオーバーレイ情報により構成されるオーバーレイ画像および分割画像とで共通する情報として、’colr’ボックスを生成する。’colr’ボックスには、主画像(オーバーレイ画像)、分割画像の色空間情報として、HDRのガンマカーブ等の色情報を格納する。分割画像については、それぞれ、’hvcC’ボックス、’ispe’ボックスを生成する。先に説明したS107やS111で、メモリ102に格納してある符号化時の付随情報をCPU101が読み出し、’hvcC’のプロパティコンテナボックスを生成する。この’hvcC’に格納する付随情報は、符号化領域を符号化したときの情報や、符号化領域のサイズ(幅、高さ)だけでなく、再生領域のサイズ(幅、高さ)や、符号化領域中の再生領域の位置情報等も含む。これらの付随情報がゴロム圧縮されて’hvcC’のプロパティコンテナボックスに記録される。ゴロム圧縮については一般的な圧縮方法のためここでは説明を割愛する。また、’ispe’ボックスには、分割画像の再生領域のサイズ(幅、高さ)情報(例として2240x2450等)を格納する。主画像となるオーバーレイ画像の回転を表す情報を格納した’irot’ボックス、画像のデータのビット数を示す‘pixi’ボックスを生成する。‘pixi’ボックスについては、主画像(オーバーレイ画像)と分割画像とで個別に生成してもよいが、本実施例においてはオーバーレイ画像と分割画像は同じビット数、つまり10ビットであるので1つだけ生成する。またHDRの補足情報が格納される’CLLI’や’MDCV’ボックスも生成する。さらに、サムネイル画像のプロパティとして、主画像(オーバーレイ画像)とは別に、色空間情報を格納した’colr’ボックス、符号化時の情報を格納した’hvcC’ボックス、画像サイズを格納した’ispe’ボックス、画像データのビット数の情報を格納した‘pixi’ボックス、HDRの補足情報を格納した’CLLI’ボックスを生成する。これらのプロパティコンテナボックスを生成し、’ipco’ボックス内に格納する。S151に進む。   In S150, an 'ipco' box to be stored in the 'iprp' box is generated. This box is an item property container box and stores various properties. There are a plurality of properties, and the CPU 101 generates the following property container box and stores it in the 'ipco' box. Some properties are generated for each image item, and some properties are generated in common for a plurality of image items. A 'colr' box is generated as information common to the overlay image and the divided image constituted by the overlay information serving as the main image. In the 'colr' box, color information such as an HDR gamma curve is stored as color space information of the main image (overlay image) and the divided image. For the divided images, an 'hvcC' box and an 'ispe' box are generated. In S107 and S111 described above, the CPU 101 reads accompanying information stored in the memory 102 at the time of encoding, and generates a property container box of 'hvcC'. The accompanying information stored in this 'hvcC' includes not only the information when the encoding area is encoded, the size (width and height) of the encoding area, but also the size (width and height) of the reproduction area, The position information of the reproduction area in the encoding area is also included. The accompanying information is Golomb-compressed and recorded in the property container box of 'hvcC'. Since Golomb compression is a general compression method, description thereof is omitted here. The 'ispe' box stores size (width, height) information (for example, 2240 × 2450) of the playback area of the divided image. An 'irot' box storing information representing rotation of the overlay image serving as the main image and a 'pixi' box indicating the number of bits of the image data are generated. The 'pixi' box may be generated separately for the main image (overlay image) and the divided image. However, in this embodiment, the overlay image and the divided image have the same number of bits, that is, 10 bits. Only generate. Also, a 'CLLI' or 'MDCV' box in which supplementary information of HDR is stored is generated. In addition to the main image (overlay image), as a thumbnail image property, a 'colr' box storing color space information, an 'hvcC' box storing information at the time of encoding, and 'ispe' storing an image size. A box, a 'pixi' box storing information on the number of bits of image data, and a 'CLLI' box storing HDR supplementary information are generated. These property container boxes are generated and stored in the 'ipco' box. The process proceeds to S151.

S151で’ipma’ボックスを生成する。このボックスはアイテムとプロパティの関係性を示すボックスであり、アイテム毎に先に述べたどのプロパティと関連性があるのかを示す。CPU101はメモリ102に保存された各種データからアイテムとプロパティの関係性を判断し、このボックスを生成する。S152に進む。   In S151, an 'ipma' box is generated. This box is a box indicating the relationship between items and properties, and indicates which property is related to each item. The CPU 101 determines the relationship between items and properties from various data stored in the memory 102, and generates this box. The process proceeds to S152.

S152で’idat’ボックスを生成する。このボックスには各分割画像の再生領域をどのように配置してオーバーレイ画像を生成するかを示すオーバーレイ情報を格納する。オーバーレイ情報には、背景色情報であるcanvas_fill_valueパラメータや、オーバーレイ画像全体のサイズであるoutput_width、output_heightパラメータがある。また、合成要素となる分割画像一つずつに対して、分割画像を合成する水平位置座標、垂直位置座標を示すhorizontal_offset、vertical_offsetパラメータがある。これらのパラメータに対してCPU101は、S102で決定した分割方法に基づいてこれらの情報を記載する。具体的には、オーバーレイ画像のサイズを示すoutput_width、output_heightパラメータに、再生領域全体のサイズを記載する。そして、各分割画像の位置情報を示すhorizontal_offset、vertical_offsetパラメータには、再生領域左上の開始座標位置(x0、y0)から、分割画像の左上の位置までの幅方向および高さ方向のオフセット値をそれぞれ記載する。このようにしてオーバーレイ情報を生成することにより、画像の再生時に、分割画像をhorizontal_offset、vertical_offsetパラメータに基づいて配置して分割画像を合成することにより、分割前の状態の画像を再生することができるようになる。本実施例では、分割画像に重複領域を設けていないため、各分割画像が重ならないように配置されるように位置情報が記載されることになる。そして、分割画像を合成して得られた画像のうち、output_width、output_heightパラメータにより表示される領域を指定することにより、再生領域のみを表示対象として再生することができる。このように生成されたオーバーレイ情報が格納された’idat’ボックスを生成する。S153に進む。   In S152, an 'idat' box is generated. This box stores overlay information indicating how the reproduction area of each divided image is arranged to generate an overlay image. The overlay information includes a canvas_fill_value parameter that is background color information, and an output_width and output_height parameters that are the size of the entire overlay image. Further, for each divided image serving as a synthesis element, there are horizontal_offset and vertical_offset parameters indicating the horizontal position coordinates and vertical position coordinates for synthesizing the divided images. For these parameters, the CPU 101 describes these pieces of information based on the division method determined in S102. Specifically, the size of the entire playback area is described in output_width and output_height parameters indicating the size of the overlay image. In the horizontal_offset and vertical_offset parameters indicating the position information of each divided image, offset values in the width direction and the height direction from the start coordinate position (x0, y0) at the upper left of the reproduction area to the upper left position of the divided image are respectively set. Describe. By generating the overlay information in this manner, when the image is reproduced, the divided image is arranged based on the horizontal_offset and vertical_offset parameters, and the divided image is synthesized, thereby reproducing the image before the division. It becomes like this. In the present embodiment, since the overlapping area is not provided in the divided image, the position information is described so that the divided images are arranged so as not to overlap. Then, by designating the area to be displayed by the output_width and output_height parameters from the images obtained by combining the divided images, it is possible to reproduce only the reproduction area as a display target. An 'idat' box in which the overlay information generated in this way is stored is generated. The process proceeds to S153.

S153で’iloc’ボックスを生成する。このボックスは各種データがファイルのどの位置に配置されるかを示すボックスである。各種情報がメモリ102に保存されているため、これらのサイズからこのボックスを生成する。具体的に、オーバーレイを示す情報は先の’idat’に格納するが、この’idat’内部の位置とサイズ情報である。また、サムネイルデータ、符号データ12は’mdat’ボックスに格納するが、この位置とサイズ情報を格納する。S154に進む。   In S153, an 'iloc' box is generated. This box is a box indicating where in the file various data is to be arranged. Since various information is stored in the memory 102, this box is generated from these sizes. Specifically, the information indicating the overlay is stored in the previous 'idat', which is the position and size information inside this 'idat'. The thumbnail data and the code data 12 are stored in the 'mdat' box, and this position and size information are stored. Proceed to S154.

S154で’mdat’ボックスを生成する。このボックスは以下に記載の複数のボックスを含むボックスである。CPU101は’mdat’ボックスを生成しS155に進む。   In S154, an 'mdat' box is generated. This box is a box including a plurality of boxes described below. The CPU 101 generates an 'mdat' box and proceeds to S155.

S155でExifデータを’mdat’ボックスに格納する。先のS109で、メタデータのExifがメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し’mdat‘ボックスに追記する。S156に進む。   In step S155, the Exif data is stored in the 'mdat' box. In step S109, since the metadata Exif is stored in the memory 102, the CPU 101 reads it from the memory 102 and adds it to the 'mdat' box. The process proceeds to S156.

S156でサムネイルデータを’mdat’ボックスに格納する。先のS110で、サムネイルデータはメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し、‘mdat’ボックスに追記する。S157に進む。   In S156, the thumbnail data is stored in the 'mdat' box. In the previous S110, since the thumbnail data is stored in the memory 102, the CPU 101 reads it from the memory 102 and adds it to the 'mdat' box. The process proceeds to S157.

S157で符号化画像1のデータを’mdat’ボックスに格納する。先のS106のループ1回目で、分割画像1のデータはメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し、‘mdat’ボックスに追記する。これを符号化画像Nまで繰り返して符号化画像1−Nをすべて’mdat’ボックスに追記する。このようなステップでCPU101はHEIFファイルを構築する。   In step S157, the encoded image 1 data is stored in the 'mdat' box. In the first loop of S106, since the data of the divided image 1 is stored in the memory 102, the CPU 101 reads it from the memory 102 and adds it to the 'mdat' box. This is repeated up to the encoded image N, and all the encoded images 1-N are added to the 'mdat' box. Through such steps, the CPU 101 constructs a HEIF file.

以上の処理により、図2のようなHEIFフォーマットでHDR画像を記録媒体120に記録することができる。   Through the above processing, the HDR image can be recorded on the recording medium 120 in the HEIF format as shown in FIG.

<HDR画像の再生>
次に、記録媒体120にHEIFフォーマットで記録されたHDR画像ファイルを再生する際の撮像装置100での処理について説明する。なお、本実施形例では、撮像装置100で再生する場合について説明するが、撮像部を有さない画像処理装置において、記録媒体120に記録されたHEIFフォーマットで記録されたHDR画像を再生する場合に、同様の処理を実現するようにしてもよい。
<Reproduction of HDR image>
Next, processing in the imaging apparatus 100 when reproducing an HDR image file recorded in the HEIF format on the recording medium 120 will be described. In the present embodiment, the case of reproducing with the imaging apparatus 100 will be described. However, in the case of reproducing the HDR image recorded in the HEIF format recorded on the recording medium 120 in the image processing apparatus having no imaging unit. In addition, the same processing may be realized.

図7を用いて、主画像がオーバーレイ画像時のHEIFの再生(表示)処理について説明する。   A HEIF reproduction (display) process when the main image is an overlay image will be described with reference to FIG.

ステップS701で、CPU101は、記録媒体制御部119を使用して、記録媒体120に存在する指定ファイルの先頭部分をメモリ102に読み出す。そして、読み出したファイルの先頭部分に、正しい構造のファイルタイプボックスが存在するか、さらに、その中のブランドに、HEIFを表す’mif1’が存在するかをチェックする。   In step S <b> 701, the CPU 101 uses the recording medium control unit 119 to read the top portion of the designated file existing on the recording medium 120 into the memory 102. Then, it is checked whether a file type box having a correct structure exists in the head portion of the read file, and whether “mif1” representing HEIF exists in the brand in the file.

また、独自のファイル構造に対応したブランドを記録してある場合、そのブランドの存在チェックを行う。そのブランドが特定の構造を保証する限りにおいて、このブランドのチェックにより、これ以降のいくつかの構造チェック、例えば、ステップS703、ステップS704、を省略することも可能である。   If a brand corresponding to a unique file structure is recorded, the existence of the brand is checked. As long as the brand guarantees a specific structure, it is possible to omit some subsequent structural checks, eg, step S703, step S704, by checking this brand.

ステップS702で、CPU101は、記録媒体120から指定ファイルのメタデータボックスをメモリ102に読み出す。   In step S <b> 702, the CPU 101 reads out the metadata box of the designated file from the recording medium 120 to the memory 102.

ステップS703で、CPU101は、ステップS702で読み出したメタデータボックスからハンドラボックスを探し、構造をチェックする。HEIFの場合、ハンドラタイプは’pict’でなければならない。   In step S703, the CPU 101 searches for the handler box from the metadata box read in step S702, and checks the structure. For HEIF, the handler type must be 'pict'.

ステップS704で、CPU101は、ステップS702で読み出したメタデータボックスからデータ情報ボックスを探し、構造をチェックする。本実施例では、同一ファイル内にデータが存在することを前提としているため、データエントリURLボックスに、そのむねを表すフラグが立っていることをチェックする。   In step S704, the CPU 101 searches for the data information box from the metadata box read in step S702, and checks the structure. In this embodiment, since it is premised that data exists in the same file, it is checked that a flag indicating the time is set in the data entry URL box.

ステップS705で、CPU101は、ステップS702で読み出したメタデータボックスからプライマリアイテムボックスを探し、主画像のアイテムIDを取得する。   In step S705, the CPU 101 searches for the primary item box from the metadata box read in step S702, and acquires the item ID of the main image.

ステップS706で、CPU101は、ステップS702で読み出したメタデータボックスからアイテム情報ボックスを探し、ステップS705で取得した主画像のアイテムIDに対応したアイテム情報エントリを取得する。上述のHDR画像の撮影処理により記録されたHEIF形式の画像ファイルの場合、オーバーレイ情報が主画像として指定されていることになる。つまり、主画像のアイテムIDに対応したアイテム情報エントリには、そのアイテムタイプがオーバーレイを表す‘iovl’となっている。   In step S706, the CPU 101 searches for the item information box from the metadata box read in step S702, and acquires an item information entry corresponding to the item ID of the main image acquired in step S705. In the case of an HEIF format image file recorded by the above-described HDR image capturing process, overlay information is designated as the main image. That is, in the item information entry corresponding to the item ID of the main image, the item type is “iovl” representing overlay.

ステップS707で、CPU101は、オーバーレイ画像作成処理を実行する。これについては、図8を用いて、後に説明する。   In step S707, the CPU 101 executes overlay image creation processing. This will be described later with reference to FIG.

ステップS708で、CPU101は、ステップS707で作成したオーバーレイ画像を、表示制御部115を経由して、表示部116に表示する。   In step S708, the CPU 101 displays the overlay image created in step S707 on the display unit 116 via the display control unit 115.

なお、作成したオーバーレイ画像を表示する際には、画像の色空間情報を指定する必要があることがある。画像の色空間情報は、色空間プロパティ’colr’のcolour_primariesで色域が、transfer_characteristicsで変換特性(ガンマ相当)が指定されているので、それらの値を用いる。HDR画像の例として、色域がRec.ITU−R BT.2020、変換特性がRec.ITU−R BT.2100(PQ)、などが用いられる。   When displaying the created overlay image, it may be necessary to specify color space information of the image. As the color space information of the image, the color gamut is specified by color_primaries of the color space property 'color', and the conversion characteristics (equivalent to gamma) are specified by transfer_characteristics. As an example of an HDR image, the color gamut is Rec. ITU-R BT. 2020, the conversion characteristic is Rec. ITU-R BT. 2100 (PQ) or the like is used.

また、アイテムプロパティコンテナボックスに、’MDCV’、’CLLI’などのHDR用メタデータが存在する場合、それを使用することも可能である。   In addition, when there is HDR metadata such as 'MDCV', 'CLLI' in the item property container box, it is also possible to use it.

次に、図8を用いて、オーバーレイ画像作成処理について説明する。   Next, overlay image creation processing will be described with reference to FIG.

ステップS801で、CPU101は、オーバーレイ画像のプロパティ取得処理を実行する。これについては、図9を用いて、後に説明する。   In step S801, the CPU 101 executes overlay image property acquisition processing. This will be described later with reference to FIG.

ステップS802で、CPU101は、オーバーレイ画像のオーバーレイ情報取得処理を実行する。オーバーレイ情報は、‘idat‘ボックスに記録されているので、‘idat‘ボックスに格納されているデータを取得することになる。   In step S802, the CPU 101 executes overlay information acquisition processing for an overlay image. Since the overlay information is recorded in the 'idat' box, the data stored in the 'idat' box is acquired.

オーバーレイ情報には、オーバーレイ画像の画像サイズ(output_width、output_heightパラメータ)、オーバーレイ画像を構成する個々の画像アイテム(分割画像アイテム)の位置情報(horizontal_offset、vertical_offset)、などが存在する。   The overlay information includes an image size of the overlay image (output_width, output_height parameter), position information (horizontal_offset, vertical_offset) of individual image items (divided image items) constituting the overlay image, and the like.

オーバーレイ情報は、アイテムタイプがオーバーレイ’iovl’である画像アイテムの、画像アイテムデータ扱いである。   The overlay information is image item data handling of an image item whose item type is overlay 'iovl'.

この取得処理については、図10を用いて、後に説明する。   This acquisition process will be described later with reference to FIG.

ステップS803で、CPU101は、分割画像アイテムのすべてのアイテムID取得処理を実行する。これについては、図11を用いて、後に説明する。   In step S803, the CPU 101 executes all item ID acquisition processing for the divided image items. This will be described later with reference to FIG.

ステップS804で、CPU101は、ステップS802で取得したオーバーレイ情報のオーバーレイ画像サイズを用いて、そのサイズの画像データを格納するメモリを確保する。このメモリ領域をキャンバスと呼ぶこととする。   In step S804, the CPU 101 uses the overlay image size of the overlay information acquired in step S802 to secure a memory for storing image data of that size. This memory area is called a canvas.

ステップS805で、CPU101は、分割画像カウンタnを0に初期化する。   In step S805, the CPU 101 initializes the divided image counter n to 0.

ステップS806で、CPU101は、分割画像カウンタnが分割画像アイテム数と等しいかチェックする。等しい場合、ステップS2210に進む。等しくない場合、ステップS807に進む。   In step S806, the CPU 101 checks whether the divided image counter n is equal to the number of divided image items. If equal, the process proceeds to step S2210. If not equal, the process proceeds to step S807.

ステップS807で、CPU101は、n番目の分割画像アイテムに関して、1個の画像アイテムの画像作成処理を実行する。これについては、図12を用いて、後に説明する。   In step S807, the CPU 101 executes an image creation process for one image item regarding the n-th divided image item. This will be described later with reference to FIG.

ステップS808で、CPU101は、ステップS807で作成した、n番目の分割画像アイテムの画像(分割画像)を、ステップS802で取得したオーバーレイ情報に従い、ステップS804で確保したキャンバス上に配置する。   In step S808, the CPU 101 arranges the image (divided image) of the nth divided image item created in step S807 on the canvas secured in step S804 according to the overlay information acquired in step S802.

オーバーレイでは、オーバーレイを構成する分割画像は、キャンバス上の任意の位置に配置することが可能であり、その位置はオーバーレイ情報に記述されている。しかし、オーバーレイ画像の外側は表示対象外である。そのため、ここで、分割画像をキャンバスに配置する際に、分割画像の符号化領域のうち、オーバーレイ画像の領域と重複する領域、すなわち、分割画像の再生領域、のみを配置するようにする。   In the overlay, the divided images constituting the overlay can be arranged at an arbitrary position on the canvas, and the position is described in the overlay information. However, the outside of the overlay image is not displayed. Therefore, here, when the divided image is arranged on the canvas, only the area overlapping with the area of the overlay image, that is, the reproduction area of the divided image, is arranged among the encoded areas of the divided image.

以下、図13を用いて、説明する。   This will be described below with reference to FIG.

座標系は、オーバーレイ画像の左上を原点(0,0)とし、X座標は右方向に増加、Y座標は下方向に増加するとする。   The coordinate system assumes that the upper left of the overlay image is the origin (0, 0), the X coordinate increases in the right direction, and the Y coordinate increases in the downward direction.

オーバーレイ画像の大きさを、幅Wo、高さHoとする(0<Wo、0<Ho)。   The size of the overlay image is defined as width Wo and height Ho (0 <Wo, 0 <Ho).

従って、オーバーレイ画像は、左上の座標が(0,0)で、右下の座標が(Wo−1、Ho−1)である。   Therefore, the overlay image has an upper left coordinate (0, 0) and a lower right coordinate (Wo-1, Ho-1).

また、分割画像の大きさを、幅Wn、高さHnとする(0<Wn、0<Hn)。   Further, the size of the divided image is defined as a width Wn and a height Hn (0 <Wn, 0 <Hn).

分割画像の左上の位置を、(Xn、Yn)とする。   The upper left position of the divided image is (Xn, Yn).

従って、分割画像は、左上座標が(Xn、Yn)、右下座標が(Xn+Wn−1、Yn+Hn−1)である。   Therefore, the divided image has an upper left coordinate (Xn, Yn) and a lower right coordinate (Xn + Wn-1, Yn + Hn-1).

分割画像における、オーバーレイ画像(キャンバス)との重複領域は、以下の方法で求めることができる。   The overlapping area of the divided image with the overlay image (canvas) can be obtained by the following method.

以下の場合は、重複領域が存在しない場合である。
Wo−1<Xn(分割画像の左端が、オーバーレイ画像の右端より右)
Xn+Wn−1<0(分割画像の右端が、オーバーレイ画像の左端より左)
Ho−1<Yn(分割画像の上端が、オーバーレイ画像の下端より下)
Yn+Hn−1<0(分割画像の下端が、オーバーレイ画像の上端より上)
この場合、この画像は、処理対象外となる。
In the following cases, there is no overlapping area.
Wo-1 <Xn (the left edge of the divided image is to the right of the right edge of the overlay image)
Xn + Wn-1 <0 (the right edge of the divided image is to the left of the left edge of the overlay image)
Ho-1 <Yn (the upper end of the divided image is below the lower end of the overlay image)
Yn + Hn-1 <0 (the lower end of the divided image is higher than the upper end of the overlay image)
In this case, this image is not processed.

また、以下の場合、分割画像全体が、重複領域となる。
0<=Xnかつ(Xn+Wn−1)<=(Wo−1)かつ0<=Ynかつ(Yn+Hn−1)<=(Ho−1)
この場合、分割画像全体を、キャンバス上の指定位置(Xn、Yn)に配置する。
In the following cases, the entire divided image becomes an overlapping region.
0 <= Xn and (Xn + Wn-1) <= (Wo-1) and 0 <= Yn and (Yn + Hn-1) <= (Ho-1)
In this case, the entire divided image is arranged at a designated position (Xn, Yn) on the canvas.

上記以外の場合、分割画像の一部が配置対象となる。
重複領域の左上座標を(Xl、Yt)、右下座標を(Xr、Yb)とする。
左端Xlは、以下の通り。
if(0<=Xn)
Xl=Xn;
else
Xl=0;
右端Xrは、以下の通り。
if(Xn+Wn−1<=Wo−1)
Xr=Xn+Wn−1;
else
Xr=Wo−1;
上端Ytは、以下の通り。
if(0<=Yn)
Yt=Yn;
else
Yt=0;
下端Ybは、以下の通り。
if(Yn+Hn−1<=Ho−1)
Yb=Yn+Hn−1;
else
Yb=Ho−1;
この重複領域の大きさは、幅Xr−Xl+1、高さYb−Yt+1、である。
In cases other than the above, a part of the divided image is an arrangement target.
Let the upper left coordinates of the overlapping region be (Xl, Yt) and the lower right coordinates be (Xr, Yb).
The left end Xl is as follows.
if (0 <= Xn)
Xl = Xn;
else
Xl = 0;
The right end Xr is as follows.
if (Xn + Wn-1 <= Wo-1)
Xr = Xn + Wn-1;
else
Xr = Wo-1;
The upper end Yt is as follows.
if (0 <= Yn)
Yt = Yn;
else
Yt = 0;
The lower end Yb is as follows.
if (Yn + Hn-1 <= Ho-1)
Yb = Yn + Hn−1;
else
Yb = Ho-1;
The size of this overlapping region is a width Xr−Xl + 1 and a height Yb−Yt + 1.

この重複領域の左上座標(Xl、Yt)、右下座標(Xr、Yb)は、前述のように、キャンバスの左上を原点(0,0)とした座標系である。   As described above, the upper left coordinates (Xl, Yt) and lower right coordinates (Xr, Yb) of this overlapping area are a coordinate system with the upper left corner of the canvas as the origin (0, 0).

重複領域の左上座標(Xl、Yt)を、分割画像の左上を原点とする座標系で表すと、以下のようになる。
Xl’=Xl−Xn;
Yt’=Yt−Yn;
When the upper left coordinates (Xl, Yt) of the overlapping area are expressed in a coordinate system with the upper left corner of the divided image as the origin, the following is obtained.
Xl ′ = Xl−Xn;
Yt ′ = Yt−Yn;

まとめると、以下のようになる。   In summary:

分割画像の左上から(Xl’、Yt’)離れた位置から幅(Xr−Xl+1)、高さ(Yb−Yt+1)の矩形を切り出し、キャンバスの(Xl、Yt)の位置に配置する。   A rectangle having a width (Xr−Xl + 1) and a height (Yb−Yt + 1) is cut out from a position (Xl ′, Yt ′) away from the upper left of the divided image, and is arranged at a position (Xl, Yt) on the canvas.

これにより、分割画像のうちの再生領域を、キャンバス上の適切な位置に配置することが可能である。   Thereby, it is possible to arrange the reproduction area of the divided image at an appropriate position on the canvas.

ステップS809で、CPU101は、分割画像カウンタnに1加算し、ステップS806に戻る。   In step S809, the CPU 101 increments the divided image counter n by 1, and returns to step S806.

ステップS810で、CPU101は、ステップS801で取得したオーバーレイ画像のプロパティ中に回転プロパティ’irot’が存在するか調べ、存在する場合、回転角を調べる。回転プロパティが存在しない場合、または、回転プロパティが存在するが回転角が0の場合、処理を終了する。回転プロパティが存在し、回転角が0以外の場合、ステップS811に進む。   In step S810, the CPU 101 checks whether the rotation property 'irot' exists in the properties of the overlay image acquired in step S801, and if so, checks the rotation angle. If the rotation property does not exist, or if the rotation property exists but the rotation angle is 0, the process ends. If the rotation property exists and the rotation angle is other than 0, the process proceeds to step S811.

ステップS811で、CPU101は、ステップS806〜ステップS809で作成したキャンバスの画像を、ステップS810で取得した角度だけ回転し、それを作成画像とする。   In step S811, the CPU 101 rotates the canvas image created in steps S806 to S809 by the angle acquired in step S810, and uses it as a created image.

これにより、オーバーレイ画像を作成することが可能である。   Thereby, it is possible to create an overlay image.

なお、上記説明では、ステップS806〜ステップS809の処理を分割画像数分ループで繰り返しているが、並行処理可能な環境では、ステップS806〜ステップS809の処理を、分割画像数分並行処理しても良い。   In the above description, the processing from step S806 to step S809 is repeated in a loop for the number of divided images. However, in an environment where parallel processing is possible, the processing from step S806 to step S809 may be performed in parallel for the number of divided images. good.

次に、図9を用いて、画像アイテムのプロパティ取得処理について説明する。   Next, image item property acquisition processing will be described with reference to FIG.

ステップS901で、CPU101は、メタデータボックス内のアイテムプロパティボックス内のアイテムプロパティ関連ボックスから、指定画像アイテムIDのエントリを探し、そこに格納されている、プロパティインデックスの配列を取得する。   In step S901, the CPU 101 searches for an entry of the designated image item ID from the item property related box in the item property box in the metadata box, and acquires an array of property indexes stored therein.

ステップS902で、CPU101は、配列カウンタnを0に初期化する。   In step S902, the CPU 101 initializes the array counter n to 0.

ステップS903で、CPU101は、配列カウンタnが配列要素数と等しいかチェックする。等しい場合、終了する。等しくない場合、ステップS904に進む。   In step S903, the CPU 101 checks whether the array counter n is equal to the number of array elements. If equal, exit. If not equal, the process proceeds to step S904.

ステップS904で、CPU101は、メタデータボックス内のアイテムプロパティボックス内のアイテムプロパティコンテナボックスから、配列のn番目の要素のインデックスのプロパティを取得する。   In step S904, the CPU 101 acquires the property of the index of the n-th element of the array from the item property container box in the item property box in the metadata box.

ステップS905で、CPU101は、配列カウンタnに1加算し、ステップS903に戻る。   In step S905, the CPU 101 adds 1 to the array counter n and returns to step S903.

次に、図10を用いて、画像アイテムのデータ取得処理について説明する。   Next, image item data acquisition processing will be described with reference to FIG.

ステップS1001で、CPU101は、メタデータボックス内のアイテムロケーションボックスから、指定画像アイテムIDのエントリを探し、オフセット基準(construction_method)、オフセット、長さ、を取得する。   In step S1001, the CPU 101 searches the item location box in the metadata box for an entry for the designated image item ID, and acquires an offset reference (construction_method), offset, and length.

ステップS1002で、CPU101は、ステップS1001で取得したオフセット基準をチェックする。オフセット基準は、値0がファイルの先頭からのオフセット、値1がアイテムデータボックス内のオフセット、を表す。オフセット基準が0の場合、ステップS1003に進む。オフセット基準が1の場合、ステップS1004に進む。   In step S1002, the CPU 101 checks the offset reference acquired in step S1001. In the offset reference, a value 0 represents an offset from the beginning of the file, and a value 1 represents an offset in the item data box. If the offset reference is 0, the process proceeds to step S1003. If the offset reference is 1, the process proceeds to step S1004.

ステップS1003で、CPU101は、ファイルの先頭からオフセットバイトの位置から長さバイト分を、メモリ102に読み出す。   In step S <b> 1003, the CPU 101 reads the length byte from the position of the offset byte from the beginning of the file to the memory 102.

ステップS1004で、CPU101は、メタデータボックス内のアイテムデータボックスのデータ部の先頭からオフセットバイトの位置から長さバイト分を、メモリ102に読み出す。   In step S <b> 1004, the CPU 101 reads out the length byte from the position of the offset byte from the head of the data portion of the item data box in the metadata box to the memory 102.

次に、図11を用いて、主画像を構成する画像のアイテムID取得処理について説明する。   Next, an item ID acquisition process for an image constituting the main image will be described with reference to FIG.

ステップS1101で、CPU101は、メタデータボックス内のアイテム参照ボックスから、参照タイプが‘ding’で、参照元アイテムIDが主画像のアイテムIDであるエントリを探す。   In step S1101, the CPU 101 searches the item reference box in the metadata box for an entry whose reference type is ‘ding’ and whose reference source item ID is the item ID of the main image.

ステップS1102で、CPU101は、ステップS1101で取得したエントリの、参照先アイテムIDの配列を取得する。   In step S1102, the CPU 101 acquires an array of reference destination item IDs of the entries acquired in step S1101.

次に、図12を用いて、1個の符号化画像アイテムの画像作成処理について説明する。   Next, an image creation process for one encoded image item will be described with reference to FIG.

ステップS1201で、CPU101は、その画像アイテムのプロパティを取得する。これは、図9を用いて、説明済みである。   In step S1201, the CPU 101 acquires the property of the image item. This has been described with reference to FIG.

ステップS1202で、CPU101は、その画像アイテムのデータを取得する。これは、図10を用いて、説明済みである。画像アイテムのデータとは、符号化された画像データである。   In step S1202, the CPU 101 acquires the data of the image item. This has been described with reference to FIG. The image item data is encoded image data.

ステップS1203で、CPU101は、ステップS1201で取得したプロパティのうちのデコーダ構成・初期化データを用いて、デコーダを初期化する。   In step S1203, the CPU 101 initializes the decoder using the decoder configuration / initialization data among the properties acquired in step S1201.

ステップS1204で、CPU101は、ステップS1202で取得した符号化された画像データをデコーダでデコードし、デコード結果を取得する。   In step S1204, the CPU 101 decodes the encoded image data acquired in step S1202 with a decoder, and acquires a decoding result.

ステップS1205で、CPU101は、ピクセル形式変換が必要かどうかチェックする。   In step S1205, the CPU 101 checks whether pixel format conversion is necessary.

不要な場合、終了する。必要な場合、ステップS1206に進む。   If not needed, exit. If necessary, the process proceeds to step S1206.

デコーダの出力データのピクセル形式と、表示装置がサポートしている画像のピクセル形式が異なる場合、ピクセル形式変換が必要である。   If the pixel format of the output data of the decoder is different from the pixel format of the image supported by the display device, pixel format conversion is necessary.

例えば、デコーダの出力データのピクセル形式がYCbCr(輝度色差)形式であり、表示装置の画像のピクセル形式がRGB形式の場合、YCbCr形式からRGB形式へのピクセル形式変換が必要である。また、同じYCbCr形式でも、ビット深度(8ビット、10ビット、など)や色差サンプル(4:2:0、4:2:2、など)が異なる場合も、ピクセル形式変換が必要である。   For example, when the pixel format of the output data of the decoder is the YCbCr (luminance color difference) format and the pixel format of the image of the display device is the RGB format, the pixel format conversion from the YCbCr format to the RGB format is necessary. Even in the same YCbCr format, pixel format conversion is also required when the bit depth (8 bits, 10 bits, etc.) and color difference samples (4: 2: 0, 4: 2: 2, etc.) are different.

なお、色空間情報プロパティ’colr’のmatrix_coefficientsで、RGB形式からYCbCr形式へ変換する際の係数が指定されているので、YCbCr形式からRGB形式へ変換するためには、その係数の逆数を用いればよい。   Since the coefficient for converting from the RGB format to the YCbCr format is specified in matrix_coefficients of the color space information property 'colr', in order to convert from the YCbCr format to the RGB format, the reciprocal of the coefficient is used Good.

ステップS1206で、CPU101は、ステップS1204で取得したデコーダ出力データを、所望のピクセル形式に変換する。   In step S1206, the CPU 101 converts the decoder output data acquired in step S1204 into a desired pixel format.

これにより、指定された符号化画像アイテムの画像を作成することが可能である。   Thereby, it is possible to create an image of the specified encoded image item.

以上の処理により、記録媒体120に図2のようなHEIFフォーマットで記録されたHDR画像を再生することができる。   Through the above processing, an HDR image recorded in the HEIF format as shown in FIG. 2 on the recording medium 120 can be reproduced.

<その他の実施形態>
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
<Other embodiments>
As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

また、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記憶媒体に記録される。   Further, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable storage medium, for example.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (17)

画像を撮影して記録する撮像装置であって、
撮像センサと、
前記撮像センサにより撮影して得られた画像データを符号化する符号化手段と、
前記撮像センサより撮影して得られた画像データのうち、再生対象となる再生領域よりも大きい符号化領域の画像データを前記符号化手段により符号化し、前記符号化された複数画像データを所定の記録フォーマットで記録媒体に記録するように制御する記録制御手段と、を有することを特徴とする撮像装置。
An imaging device that captures and records an image,
An imaging sensor;
Encoding means for encoding image data obtained by imaging by the imaging sensor;
Of the image data obtained by photographing with the image sensor, image data in an encoding area larger than the reproduction area to be reproduced is encoded by the encoding means, and the encoded plural image data is predetermined. An image pickup apparatus comprising: a recording control unit that controls recording on a recording medium in a recording format.
前記記録制御手段は、前記符号化領域の画像データを、複数の分割画像データに分割し、前記複数の分割画像データを前記符号化手段によりそれぞれ符号化し、前記符号化された複数の分割画像データを所定の記録フォーマットで1つの画像ファイルとして前記記録媒体に記録するように制御することを特徴とする請求項1に記載の撮像装置。   The recording control unit divides the image data of the coding area into a plurality of divided image data, the plurality of divided image data is encoded by the coding unit, respectively, and the plurality of encoded divided image data The image pickup apparatus according to claim 1, wherein the image pickup device is controlled to be recorded on the recording medium as one image file in a predetermined recording format. 前記記録制御手段は、HDR画像データを撮影して記録する場合に、前記撮像センサより撮影して得られたHDR画像データのうち、再生対象となる再生領域よりも大きい符号化領域のHDR画像データを、複数の分割HDR画像データに分割し、前記複数の分割HDR画像データを前記符号化手段によりそれぞれ符号化し、前記符号化された複数の分割HDR画像データを前記所定の記録フォーマットで1つの画像ファイルとして前記記録媒に記録するように制御することを特徴とする請求項2に記載の撮像装置。   When the HDR image data is captured and recorded, the recording control unit includes HDR image data in an encoding area larger than a reproduction area to be reproduced among HDR image data obtained by imaging from the imaging sensor. Is divided into a plurality of divided HDR image data, each of the plurality of divided HDR image data is encoded by the encoding means, and the plurality of divided divided HDR image data are converted into one image in the predetermined recording format. The imaging apparatus according to claim 2, wherein control is performed so as to record the file as a file on the recording medium. 記録サイズを設定するための設定手段を有し、
前記記録制御手段は、前記設定手段により設定された記録サイズに応じて、前記再生領域および前記符号化領域を決定し、
前記再生領域のサイズは、前記設定された記録サイズに対応する領域であることを特徴とする請求項1に記載の撮像装置。
Having setting means for setting the recording size;
The recording control means determines the reproduction area and the encoding area according to the recording size set by the setting means,
2. The imaging apparatus according to claim 1, wherein the size of the reproduction area is an area corresponding to the set recording size.
前記記録制御手段は、前記再生領域と、前記撮像センサにより撮影して得られた画像データのうち、読み出し開始可能位置、読み出し終了可能位置とから、前記符号化領域を決定することを特徴とする請求項4に記載の撮像装置。   The recording control means determines the encoding area from the reproduction area and a read start possible position and a read end possible position among image data obtained by photographing with the imaging sensor. The imaging device according to claim 4. 前記所定の記録フォーマットは、記録される画像データのうち、再生対象とする領域を指定可能な記録フォーマットであり、
前記記録制御手段は、記録される前記符号化領域よりも小さい前記再生領域を、再生対象の領域として指定することを特徴とする請求項1に記載の撮像装置。
The predetermined recording format is a recording format in which an area to be reproduced can be specified in the recorded image data,
The imaging apparatus according to claim 1, wherein the recording control unit designates the reproduction area smaller than the encoded area to be recorded as an area to be reproduced.
前記記録制御手段は、前記再生領域の画像データに対応するサムネイル画像データを前記符号化手段により符号化し、前記符号化したサムネイル画像データを前記符号化した複数の分割画像データと共に前記所定の記録フォーマットで1つの画像ファイルとして記録するように制御することを特徴とする請求項1に記載の撮像装置。   The recording control means encodes thumbnail image data corresponding to the image data in the reproduction area by the encoding means, and the encoded thumbnail image data together with the plurality of encoded divided image data and the predetermined recording format. The image pickup apparatus according to claim 1, wherein control is performed so as to record as one image file. 前記符号化手段は、HEVC(High Efficiency VideoCoding)規格に従って前記8画像データを圧縮符号化することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the encoding unit compresses and encodes the 8 image data in accordance with a HEVC (High Efficiency Video Coding) standard. 前記所定の記録フォーマットは、HEIF(High Efficiency Image File Format)であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the predetermined recording format is HEIF (High Efficiency Image File Format). 前記所定の記録フォーマットは、HEIF(High Efficiency Image File Format)であり、前記複数の分割画像データを、オーバーレイ形式で記録することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the predetermined recording format is HEIF (High Efficiency Image File Format), and the plurality of divided image data are recorded in an overlay format. 前記記録制御手段は、前記オーバーレイ形式において、前記再生領域のみが再生されるように、再生領域を指定することを特徴とすることを特徴とする請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the recording control unit designates a reproduction area so that only the reproduction area is reproduced in the overlay format. 前記記録制御手段は、前記オーバーレイ形式において、前記複数の分割画像データが、前記符号化領域に対応する位置関係となるように配置されるように、前記複数の分割画像データそれぞれの位置情報を記録するように制御することを特徴とする請求項10または11に記載の撮像装置。   The recording control unit records position information of each of the plurality of divided image data so that the plurality of divided image data are arranged in a positional relationship corresponding to the coding area in the overlay format. The imaging apparatus according to claim 10, wherein the imaging apparatus is controlled so as to perform. 前記記録制御手段は、前記複数の分割画像データがそれぞれ重ならない位置となるように前記複数の分割画像データそれぞれの位置情報を記録することを特徴とする請求項12に記載の撮像装置。   13. The imaging apparatus according to claim 12, wherein the recording control unit records position information of each of the plurality of divided image data so that the plurality of divided image data are located at positions that do not overlap each other. 前記撮像装置は、前記撮像センサより撮影して得られた画像データのうち、前記符号化手段により符号化対象とする符号化領域を設定する際に、所定の制約があることを特徴とする請求項1に記載の撮像装置。   The image pickup apparatus has a predetermined restriction when setting an encoding area to be encoded by the encoding means in the image data obtained by imaging with the image sensor. Item 2. The imaging device according to Item 1. 前記撮像装置は、前記撮像センサより撮影して得られた画像データのうち、符号化開始/終了が可能な位置が予め決められており、前記符号化開始/終了が可能な位置以外からは、符号化を開始/終了できないことを特徴とする請求項14に記載の撮像装置。   In the image pickup device, a position where encoding start / end is possible is determined in advance among image data obtained by photographing with the image sensor, and from other than the position where encoding start / end is possible, The imaging apparatus according to claim 14, wherein encoding cannot be started / finished. 再生対象となる再生領域よりも大きい符号化領域の画像データを、複数の分割画像データに分割し、前記複数の分割画像データを前記符号化手段によりそれぞれ符号化し、前記符号化された複数の分割画像データが所定の記録フォーマットで1つの画像ファイルとして記録されている記録媒体から、前記画像ファイルを読み出す読み出し手段と、
前記読み出した画像ファイルに含まれる前記複数の分割画像データをそれぞれ複合する複合手段と、
前記復号手段により復号された前記複数の分割画像データを1つの画像データに結合し、前記結合された画像データのうち、前記再生領域の画像データを表示手段に表示するように制御する表示制御手段と、を有することを特徴とする表示制御装置。
Dividing image data in an encoding area larger than a reproduction area to be reproduced into a plurality of divided image data, encoding the plurality of divided image data respectively by the encoding means, and the plurality of encoded divisions Reading means for reading the image file from a recording medium in which the image data is recorded as a single image file in a predetermined recording format;
A combination means for combining each of the plurality of divided image data included in the read image file;
Display control means for combining the plurality of divided image data decoded by the decoding means into one image data, and controlling the display area to display the image data in the reproduction area among the combined image data And a display control device.
再生対象となる再生領域よりも大きい符号化領域の画像データを、複数の分割画像データに分割し、前記複数の分割画像データを前記符号化手段によりそれぞれ符号化し、前記符号化された複数の分割画像データが所定の記録フォーマットで1つの画像ファイルとして記録されている記録媒体から、前記画像ファイルを読み出す読み出し工程と、
前記読み出した画像ファイルに含まれる前記複数の分割画像データをそれぞれ複合する複合工程と、
前記復号手段により復号された前記複数の分割画像データを1つの画像データに結合し、前記結合された画像データのうち、前記再生領域の画像データを表示手段に表示するように制御する表示制御工程と、を有することを特徴とする表示制御装置の制御方法。
Dividing image data in an encoding area larger than a reproduction area to be reproduced into a plurality of divided image data, encoding the plurality of divided image data respectively by the encoding means, and the plurality of encoded divisions A reading step of reading the image file from a recording medium in which the image data is recorded as a single image file in a predetermined recording format;
A compounding step of compounding each of the plurality of divided image data included in the read image file;
A display control step of combining the plurality of divided image data decoded by the decoding unit into one image data, and controlling the display unit to display the image data in the reproduction area among the combined image data And a control method for the display control device.
JP2018026308A 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE Active JP7146407B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018026308A JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026308A JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Publications (3)

Publication Number Publication Date
JP2019145918A true JP2019145918A (en) 2019-08-29
JP2019145918A5 JP2019145918A5 (en) 2021-03-25
JP7146407B2 JP7146407B2 (en) 2022-10-04

Family

ID=67772801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026308A Active JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Country Status (1)

Country Link
JP (1) JP7146407B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947650A (en) * 2021-09-30 2022-01-18 完美世界(北京)软件科技发展有限公司 Animation processing method, animation processing device, electronic equipment and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466254B1 (en) * 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
JP2012080432A (en) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc Panoramic image generation device and panoramic image generation method
JP2017139618A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Image data generating apparatus, image data generating method, and program
US20170308116A1 (en) * 2016-01-05 2017-10-26 360fly, Inc. Apparel-Mountable Panoramic Camera Systems
JP2018011197A (en) * 2016-07-13 2018-01-18 日本電信電話株式会社 Video distribution device, video coding device, video distribution method, video coding method, video distribution program and video coding program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466254B1 (en) * 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
JP2012080432A (en) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc Panoramic image generation device and panoramic image generation method
US20170308116A1 (en) * 2016-01-05 2017-10-26 360fly, Inc. Apparel-Mountable Panoramic Camera Systems
JP2017139618A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Image data generating apparatus, image data generating method, and program
JP2018011197A (en) * 2016-07-13 2018-01-18 日本電信電話株式会社 Video distribution device, video coding device, video distribution method, video coding method, video distribution program and video coding program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Information technology - High efficiency coding and media delivery in heterogeneous environments - P", INTERNATIONAL STANDARD ISO/IEC 23008-12, JPN6022008395, December 2017 (2017-12-01), ISSN: 0004833400 *
DAVIDE CONCION, HIGH EFFICIENCY IMAGE FILE FORMAT #WWDC17 SESSION 513, JPN6022008394, June 2017 (2017-06-01), ISSN: 0004833399 *
HEIF-UTILITY-NATIVE-DLL, JPN6022008393, 7 February 2018 (2018-02-07), ISSN: 0004833398 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947650A (en) * 2021-09-30 2022-01-18 完美世界(北京)软件科技发展有限公司 Animation processing method, animation processing device, electronic equipment and medium

Also Published As

Publication number Publication date
JP7146407B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP7246855B2 (en) Imaging device, recording device and display control device
JP6630891B2 (en) System and method for encoding and decoding brightfield image files
US7733385B2 (en) Image file generating apparatus and method, and image file reproducing apparatus and method
JP7100493B2 (en) Display control device and its control method and program
US8244114B2 (en) Recording apparatus and recording method, playback apparatus and playback method, recording/playback apparatus and recording/playback method, and program
KR101258723B1 (en) Video reproducing device, video recorder, video reproducing method, video recording method, and semiconductor integrated circuit
CN107836114B (en) Data recording apparatus, control method thereof, image pickup apparatus, and computer-readable storage medium
JP2009010725A (en) Imaging apparatus, imaging method, program, and storage medium device
JP2009225361A (en) Recording device and recording method, and editing device and editing method
US20060171702A1 (en) Method and device for recording images composing a panorama, and for viewing and modifying a panorama
JP7146407B2 (en) IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE
US9224428B2 (en) Recording apparatus and control method thereof
JP5942422B2 (en) Information processing apparatus, control method thereof, and program
JP5809906B2 (en) Image reading apparatus and image processing system
JP2015192227A (en) Imaging apparatus, control method thereof, and program
JP7214538B2 (en) Imaging device and recording control method
US20240095387A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP4809451B2 (en) Image file generating apparatus and method, and image file reproducing apparatus and method
JP2006080781A (en) Image processor, method, and program
JP2007081463A (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R151 Written notification of patent or utility model registration

Ref document number: 7146407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151