JP7146407B2 - IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE - Google Patents

IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE Download PDF

Info

Publication number
JP7146407B2
JP7146407B2 JP2018026308A JP2018026308A JP7146407B2 JP 7146407 B2 JP7146407 B2 JP 7146407B2 JP 2018026308 A JP2018026308 A JP 2018026308A JP 2018026308 A JP2018026308 A JP 2018026308A JP 7146407 B2 JP7146407 B2 JP 7146407B2
Authority
JP
Japan
Prior art keywords
image
encoding
area
image data
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018026308A
Other languages
Japanese (ja)
Other versions
JP2019145918A (en
JP2019145918A5 (en
Inventor
達 小林
秀信 秋吉
章弘 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018026308A priority Critical patent/JP7146407B2/en
Publication of JP2019145918A publication Critical patent/JP2019145918A/en
Publication of JP2019145918A5 publication Critical patent/JP2019145918A5/ja
Application granted granted Critical
Publication of JP7146407B2 publication Critical patent/JP7146407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置及び、表示制御装置表示制御装置の制御方法に関する。 The present invention relates to an imaging device, a display control device, and a control method for a display control device.

画像データを圧縮符号化する画像処理装置として撮像装置が知られている。このような画像処理装置は、撮像部によって動画像信号を取得し、取得した動画像信号を圧縮符号化し、圧縮符号化が行われた画像ファイルを記録媒体に記録する。従来、圧縮符号化前の画像データは100nitsの輝度レベルを上限とするSDR(Standard Dynamic Range)で表現されたものであった。しかしながら、近年では、輝度レベルの上限を10000nits程度にまで拡張させたHDR(High Dynamic Range)で表現され、人が知覚できる輝度範囲に近い輝度範囲を有する画像データが提供されている。 An imaging device is known as an image processing device that compresses and encodes image data. Such an image processing apparatus acquires a moving image signal by an imaging unit, compresses and encodes the acquired moving image signal, and records the compressed and encoded image file on a recording medium. Conventionally, image data before compression encoding is represented by SDR (Standard Dynamic Range) with a luminance level of 100 nits as the upper limit. However, in recent years, image data expressed in HDR (High Dynamic Range) with the upper limit of the luminance level extended to about 10000 nits and having a luminance range close to the luminance range perceivable by humans has been provided.

特許文献1では、HDRの画像を撮影して記録する際に、HDRに非対応の装置でも、HDR画像を詳細に確認可能な画像データを生成して記録する画像データ記録装置について記載がある。 Patent Document 1 describes an image data recording apparatus that generates and records image data that allows an HDR image to be checked in detail even by a device that is not HDR compatible when shooting and recording an HDR image.

特開2017-139618号公報JP 2017-139618 A

特許文献1では、HDRの画像を記録することについては記載されているが、HDR画像を記録する場合の最適な記録方式については考慮されていなかった。 Japanese Patent Application Laid-Open No. 2002-200000 describes recording of an HDR image, but does not consider an optimum recording method for recording an HDR image.

そこで、本発明は、例えばHDR画像のようにデータ量が大きい画像を記録する際に、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することを目的とする。 Accordingly, the present invention provides an apparatus for recording an image in a recording format suitable for recording and playback when recording an image with a large amount of data, such as an HDR image, and for reproducing an image recorded in that recording format. It is an object of the present invention to provide a display control device for

また、本発明は、画像を符号化して記録する装置において、符号化時に各種制約があったとしても、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することを目的とする。 Further, the present invention provides an apparatus for encoding and recording an image, in which an image is recorded in a recording form suitable for recording and reproduction even if there are various restrictions at the time of encoding, and an image is recorded in the recording form. An object of the present invention is to provide a display control device for reproducing an image.

上述の課題を解決するため、本発明の撮像装置は、In order to solve the above problems, the imaging device of the present invention includes:
撮像センサにより画像を撮影して、撮影した画像を記録する撮像装置であって、撮像センサにより撮影して得られた画像データを符号化する符号化手段と、撮像センサより撮影して得られた画像データのうち、再生対象となる再生領域よりも大きい領域を符号化領域として設定し、符号化領域の画像データを符号化手段により符号化し、符号化された画像データを所定の記録フォーマットで記録媒体に記録するように制御する制御手段と、を有し、制御手段は、撮像センサにより画像データを取得可能なセンサ画像領域のうち、一部の領域を符号化領域として設定し、当該符号化領域の画像データを符号化手段により符号化するように制御し、センサ画像領域において、符号化開始/終了が可能な位置に制約があり、制御手段は、センサ画像領域において、再生領域と符号化開始/終了が可能な位置とに基づいて、符号化領域の開始位置及び終了位置を設定する、ことを特徴とする。An imaging device that captures an image with an imaging sensor and records the captured image, comprising: encoding means for encoding image data obtained by imaging with the imaging sensor; An area of the image data that is larger than the reproduction area to be reproduced is set as an encoding area, the image data in the encoding area is encoded by the encoding means, and the encoded image data is recorded in a predetermined recording format. and a control means for controlling recording on a medium, wherein the control means sets a part of a sensor image area from which image data can be acquired by the imaging sensor as an encoding area, and The image data of the area is controlled to be encoded by the encoding means, and there is a restriction on the position where encoding can be started/finished in the sensor image area, and the control means controls the reproduction area and the encoding area in the sensor image area. It is characterized by setting the start position and end position of the coding region based on the possible start/end positions.

また、本発明の表示制御装置は、
再生対象となる再生領域よりも大きい符号化領域の画像データを、複数の分割画像データに分割し、複数の分割画像データをそれぞれ符号化し、符号化された複数の分割画像データが所定の記録フォーマットで1つの画像ファイルとして記録されている記録媒体から、画像ファイルを読み出す読み出し手段と、読み出した画像ファイルに含まれる複数の分割画像データをそれぞれ複合する複合手段と、復号手段により復号された複数の分割画像データを1つの画像データに結合し、結合された画像データのうち、再生領域の画像データを表示手段に表示するように制御する表示制御手段と、を有することを特徴とする。
Further, the display control device of the present invention is
The image data of the encoding area larger than the playback area to be reproduced is divided into a plurality of divided image data, each of the plurality of divided image data is encoded, and the encoded plurality of divided image data is stored in a predetermined recording format. reading means for reading out an image file from a recording medium recorded as one image file in; combining means for combining a plurality of divided image data contained in the read image file; and display control means for combining the divided image data into one image data, and controlling the display means to display the image data of the reproduction area among the combined image data.

本発明によれば、データ量が大きく、かつ、高解像度の画像を記録する際に、記録および再生に適した記録形態で画像を記録する撮像装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することができる。 According to the present invention, an imaging apparatus for recording an image in a recording format suitable for recording and reproduction when recording a high-resolution image with a large amount of data, and an image recorded in the recording format. A display controller can be provided for playback.

発明によれば、画像を符号化して記録する装置において、符号化時に各種制約があったとしても、記録および再生に適した記録形態で画像を記録する装置、また、その記録形態で記録された画像を再生するための表示制御装置を提供することができる。 According to the present invention, in an apparatus for encoding and recording an image, even if there are various restrictions at the time of encoding, an apparatus for recording an image in a recording form suitable for recording and reproduction, and an apparatus for recording an image in the recording form. It is possible to provide a display control device for reproducing the image.

撮像装置100の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of the imaging device 100; HEIFファイルの構造を示す図。The figure which shows the structure of a HEIF file. HDR撮影モードでの処理を示すフローチャート。4 is a flowchart showing processing in HDR shooting mode; HDR撮影モードにおける画像データの分割方法を決定する処理を示すフローチャート。4 is a flowchart showing processing for determining a method of dividing image data in HDR shooting mode; HDR画像データ記録時の画像データの符号化領域および分割方法を示す図。FIG. 4 is a diagram showing an encoding region of image data and a division method when HDR image data is recorded; HEIFファイルを構築する処理を示すフローチャート。4 is a flow chart showing the process of building a HEIF file. HEIFファイルとして記録されたHDR画像データを再生する際の表示処理を示すフローチャート。4 is a flowchart showing display processing when reproducing HDR image data recorded as an HEIF file. オーバーレイ画像作成処理を示すフローチャート。4 is a flowchart showing overlay image creation processing; 画像アイテムのプロパティ取得処理を示すフローチャート。6 is a flowchart showing image item property acquisition processing. 画像アイテムのデータ取得処理を示すフローチャート。4 is a flowchart showing image item data acquisition processing. 主画像を構成する画像のアイテムID取得処理を示すフローチャート。6 is a flowchart showing item ID acquisition processing of an image that constitutes a main image; 1画像アイテムの画像作成処理を示すフローチャート。4 is a flowchart showing image creation processing for one image item. オーバーレイ画像と分割画像の位置関係を示す図。FIG. 4 is a diagram showing the positional relationship between an overlay image and divided images;

本発明の実施の形態を、撮像装置100を例に添付の図面を参照して以下に詳細に説明するが、本発明は、以下の実施形例に限定されるものではない。 Embodiments of the present invention will be described in detail below with reference to the accompanying drawings, taking an imaging apparatus 100 as an example, but the present invention is not limited to the following embodiments.

<撮像装置の構成>
図1は、撮像装置100を示すブロック図である。図1に示すように、撮像装置100は、CPU101と、メモリ102と、不揮発性メモリ103と、操作部104と、撮像部112と、画像処理部113と、符号化処理部114と、表示制御部115と、表示部116とを有している。更に、撮像装置100は、通信制御部117と、通信部118と、記録媒体制御部119と、内部バス130とを有している。撮像装置100は、撮影レンズ111を用いて被写体の光学像を撮像部112の画素アレイに結像するが、撮影レンズ111は、撮像装置100のボディ(筐体、本体)から、着脱不能であってもよいし、着脱可能であってもよい。また、撮像装置100は、記録媒体制御部119を介して画像データの書き込み及び読み出しを記録媒体120に対して行う。記録媒体120は、撮像装置100に着脱可能であってもよいし、着脱不能であってもよい。
<Structure of Imaging Device>
FIG. 1 is a block diagram showing an imaging device 100. As shown in FIG. As shown in FIG. 1, the imaging apparatus 100 includes a CPU 101, a memory 102, a nonvolatile memory 103, an operation unit 104, an imaging unit 112, an image processing unit 113, an encoding processing unit 114, and a display control unit. It has a portion 115 and a display portion 116 . Furthermore, the imaging apparatus 100 has a communication control section 117 , a communication section 118 , a recording medium control section 119 and an internal bus 130 . The imaging apparatus 100 forms an optical image of a subject on the pixel array of the imaging unit 112 using the imaging lens 111 , but the imaging lens 111 is not removable from the body of the imaging apparatus 100 . It may be detachable. The imaging apparatus 100 also writes and reads image data to and from the recording medium 120 via the recording medium control unit 119 . The recording medium 120 may or may not be detachable from the imaging device 100 .

CPU101は、不揮発性メモリ103に記憶されているコンピュータプログラムを実行することによって、内部バス130を介して撮像装置100の各部(各機能ブロック)の動作を制御する。 The CPU 101 controls the operation of each unit (each functional block) of the imaging apparatus 100 via the internal bus 130 by executing a computer program stored in the nonvolatile memory 103 .

メモリ102は、書き換え可能な揮発性メモリである。メモリ102は、撮像装置100の各部の動作を制御するためのコンピュータプログラム、撮像装置100の各部の動作に関するパラメータ等の情報、通信制御部117によって受信される情報等を一時的に記録する。また、メモリ102は、撮像部112によって取得された画像、画像処理部113、符号化処理部114等によって処理された画像及び情報を一時的に記録する。メモリ102は、これらを一時的に記録するために十分な記憶容量を備えている。 Memory 102 is a rewritable volatile memory. The memory 102 temporarily records a computer program for controlling the operation of each unit of the imaging apparatus 100, information such as parameters related to the operation of each unit of the imaging apparatus 100, information received by the communication control unit 117, and the like. In addition, the memory 102 temporarily records the image acquired by the imaging unit 112, the image processed by the image processing unit 113, the encoding processing unit 114, and the like, and information. The memory 102 has sufficient storage capacity to temporarily record them.

不揮発性メモリ103は、電気的に消去及び記録が可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ103は、撮像装置100の各部の動作を制御するコンピュータプログラム及び撮像装置100の各部の動作に関するパラメータ等の情報を記憶する。当該コンピュータプログラムにより、撮像装置100によって行われる各種動作が実現される。 The non-volatile memory 103 is an electrically erasable and recordable memory, and for example, an EEPROM or the like is used. The non-volatile memory 103 stores information such as a computer program that controls the operation of each unit of the imaging apparatus 100 and parameters related to the operation of each unit of the imaging apparatus 100 . Various operations performed by the imaging apparatus 100 are realized by the computer program.

操作部104は、撮像装置100を操作するためのユーザインターフェースを提供する。操作部104は、電源ボタン、メニューボタン、撮影ボタン等の各種ボタンを含んでおり、各種ボタンはスイッチ、タッチパネル等により構成される。CPU101は、操作部104を介して入力されたユーザの指示に従って撮像装置100を制御する。なお、ここでは、操作部104を介して入力される操作に基づいてCPU101が撮像装置100を制御する場合を例に説明したが、これに限定されるものではない。例えば、不図示のリモートコントローラ、不図示の携帯端末等から通信部118を介して入力される要求に基づいて、CPU101が撮像装置100を制御してもよい。 An operation unit 104 provides a user interface for operating the imaging device 100 . The operation unit 104 includes various buttons such as a power button, a menu button, and a shooting button, and the various buttons are configured by switches, touch panels, and the like. The CPU 101 controls the imaging apparatus 100 according to user instructions input via the operation unit 104 . Although the case where the CPU 101 controls the imaging apparatus 100 based on the operation input via the operation unit 104 has been described as an example, the present invention is not limited to this. For example, the CPU 101 may control the imaging device 100 based on a request input via the communication unit 118 from a remote controller (not shown), a portable terminal (not shown), or the like.

撮影レンズ(レンズユニット)111は、ズームレンズ、フォーカスレンズ等を含む不図示のレンズ群、不図示のレンズ制御部、不図示の絞り等によって構成される。撮影レンズ111は、画角を変更するズーム手段として機能し得る。レンズ制御部は、CPU101から送信される制御信号により、焦点の調整及び絞り値(F値)の制御を行う。撮像部112は、動画像を構成する複数の画像を順次取得する取得手段として機能し得る。撮像部112としては、例えば、例えばCCD(電荷結合素子)、CMOS(相補型金属酸化膜半導体)素子等でのエリアイメージセンサが用いられる。撮像部112は、被写体の光学像を電気信号に変換する不図示の光電変換部が行列状、すなわち、2次元的に配列された不図示の画素アレイを有している。当該画素アレイには、被写体の光学像が撮影レンズ111によって結像される。撮像部112は、撮像した画像を画像処理部113又はメモリ102に出力する。なお、撮像部112は、静止画像を取得することも可能である。 A photographing lens (lens unit) 111 includes a lens group (not shown) including a zoom lens, a focus lens, etc., a lens control section (not shown), an aperture (not shown), and the like. The taking lens 111 can function as zoom means for changing the angle of view. The lens control unit adjusts the focus and controls the aperture value (F value) according to control signals sent from the CPU 101 . The imaging unit 112 can function as an acquisition unit that sequentially acquires a plurality of images forming a moving image. As the imaging unit 112, for example, an area image sensor such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor) device is used. The imaging unit 112 has a pixel array (not shown) in which photoelectric conversion units (not shown) that convert an optical image of a subject into electrical signals are arranged in a matrix, that is, two-dimensionally. An optical image of a subject is formed on the pixel array by the imaging lens 111 . The imaging unit 112 outputs the captured image to the image processing unit 113 or the memory 102 . Note that the imaging unit 112 can also acquire a still image.

画像処理部113は、撮像部112から出力される画像データ、又は、メモリ102から読み出された画像データに対し、所定の画像処理を行う。当該画像処理の例としては、補間処理、縮小処理(リサイズ処理)、色変換処理等が挙げられる。また、画像処理部113は、撮像部112によって取得された画像データを用いて、露光制御、測距制御等のための所定の演算処理を行う。画像処理部113による演算処理によって得られた演算結果に基づいて、露光制御、測距制御等がCPU101によって行われる。具体的には、AE(自動露出)処理、AWB(オートホワイトバランス)処理、AF(オートフォーカス)処理等がCPU101によって行われる。 The image processing unit 113 performs predetermined image processing on image data output from the imaging unit 112 or image data read from the memory 102 . Examples of the image processing include interpolation processing, reduction processing (resize processing), color conversion processing, and the like. Also, the image processing unit 113 uses the image data acquired by the imaging unit 112 to perform predetermined arithmetic processing for exposure control, ranging control, and the like. The CPU 101 performs exposure control, distance measurement control, and the like based on the calculation result obtained by the calculation processing by the image processing unit 113 . Specifically, the CPU 101 performs AE (auto exposure) processing, AWB (auto white balance) processing, AF (auto focus) processing, and the like.

符号化処理部114は、画像データに対してフレーム内予測符号化(画面内予測符号化)、フレーム間予測符号化(画面間予測符号化)等を行うことによって、画像データのサイズを圧縮する。符号化処理部114は、例えば、半導体素子等により構成された符号化装置である。符号化処理部114は、撮像装置100の外部に設けられた符号化装置であってもよい。符号化処理部114は、例えば、H.265(ITU H.265又はISO/IEC23008-2)方式によって符号化処理を行う。 The encoding processing unit 114 compresses the size of the image data by performing intra-frame predictive encoding (intra-screen predictive encoding), inter-frame predictive encoding (inter-screen predictive encoding), etc. on the image data. . The encoding processing unit 114 is, for example, an encoding device configured by a semiconductor element or the like. The encoding processing unit 114 may be an encoding device provided outside the imaging device 100 . The encoding processing unit 114, for example, uses H.264. 265 (ITU H.265 or ISO/IEC23008-2).

表示制御部115は、表示部116を制御する。表示部116は、不図示の表示画面を備える。表示制御部115は、画像データに対してリサイズ処理、色変換処理等を行うことにより、表示部116の表示画面に表示可能な画像を生成し、当該画像、すなわち、画像信号を表示部116に出力する。表示部116は、表示制御部115から送られてくる画像信号に基づいて、表示画面に画像を表示する。表示部116は、表示画面にメニュー等の設定画面を表示する機能であるOSD(On Screen Display)機能を備えている。表示制御部115は、画像信号にOSD画像を重畳して表示部116に画像信号を出力し得る。表示部116は、液晶ディスプレイ、有機ELディスプレイ等により構成されており、表示制御部115から送られてきた画像信号を表示する。表示部116は、例えばタッチパネルであってもよい。表示部116がタッチパネルである場合、表示部116は、操作部104としても機能し得る。 The display control section 115 controls the display section 116 . The display unit 116 has a display screen (not shown). The display control unit 115 generates an image that can be displayed on the display screen of the display unit 116 by performing resizing processing, color conversion processing, and the like on the image data, and outputs the image, that is, the image signal to the display unit 116. Output. The display unit 116 displays an image on the display screen based on the image signal sent from the display control unit 115 . The display unit 116 has an OSD (On Screen Display) function that displays a setting screen such as a menu on the display screen. The display control unit 115 can superimpose the OSD image on the image signal and output the image signal to the display unit 116 . The display unit 116 is composed of a liquid crystal display, an organic EL display, or the like, and displays image signals sent from the display control unit 115 . The display unit 116 may be, for example, a touch panel. If display unit 116 is a touch panel, display unit 116 can also function as operation unit 104 .

通信制御部117は、CPU101に制御される。通信制御部117は、IEEE802.11等によりあらかじめ定められた無線通信規格に適合する変調信号を生成して、当該変調信号を通信部118に出力する。また、通信制御部117は、無線通信規格に適合する変調信号を、通信部118を介して受信し、受信した変調信号を復号し、復号した信号に応じた信号をCPU101に出力する。通信制御部117は、通信設定を記憶するためのレジスタを備えている。通信制御部117は、CPU101からの制御によって、通信時の送受信感度を調整し得る。通信制御部117は、所定の変調方式で送受信を行うことができる。通信部118は、通信制御部117から供給される変調信号を撮像装置100の外部にある情報通信機器等の外部機器127へ出力し、また、外部機器127からの変調信号を受信するアンテナを備えている。また、通信部118には、通信用の回路等が備えられている。なお、ここでは、通信部118によって無線通信が行われる場合を例に説明したが、通信部118によって行われる通信は無線通信に限定されるものではない。例えば、配線等を用いた電気的な接続によって通信部118と外部機器127とが接続されてもよい。 The communication control unit 117 is controlled by the CPU 101 . Communication control section 117 generates a modulated signal conforming to a wireless communication standard predetermined by IEEE802.11 or the like, and outputs the modulated signal to communication section 118 . Communication control section 117 also receives a modulated signal conforming to the wireless communication standard via communication section 118 , decodes the received modulated signal, and outputs a signal corresponding to the decoded signal to CPU 101 . The communication control unit 117 has a register for storing communication settings. The communication control unit 117 can adjust the transmission/reception sensitivity during communication under the control of the CPU 101 . The communication control unit 117 can perform transmission and reception using a predetermined modulation method. The communication unit 118 outputs the modulated signal supplied from the communication control unit 117 to an external device 127 such as an information communication device outside the imaging device 100, and has an antenna for receiving the modulated signal from the external device 127. ing. Further, the communication unit 118 is provided with circuits for communication and the like. Although a case where wireless communication is performed by the communication unit 118 has been described as an example here, communication performed by the communication unit 118 is not limited to wireless communication. For example, the communication unit 118 and the external device 127 may be connected by electrical connection using wiring or the like.

記録媒体制御部119は、記録媒体120を制御する。記録媒体制御部119は、CPU101からの要求に基づいて、記録媒体120を制御するための制御信号を記録媒体120に出力する。記録媒体120としては、例えば不揮発性メモリや磁気ディスク等が用いられる。記録媒体120は、上述したように、着脱可能であってもよいし、着脱不能であってもよい。記録媒体120は、符号化された画像データ等を記録する。記録媒体120のファイルシステムに適合した形式で画像データ等がファイルとして保存される。ファイルとしては、例えば、MP4ファイル(ISO/IEC 14496-14:2003)、MXF(Material eXchange Format)ファイル等が挙げられる。各々の機能ブロック101~104、112~115、117、119は、内部バス130を介して互いにアクセス可能となっている。 A recording medium control unit 119 controls the recording medium 120 . Recording medium control unit 119 outputs a control signal for controlling recording medium 120 to recording medium 120 based on a request from CPU 101 . As the recording medium 120, for example, a nonvolatile memory, a magnetic disk, or the like is used. The recording medium 120 may be removable or non-removable as described above. The recording medium 120 records encoded image data and the like. Image data and the like are saved as files in a format compatible with the file system of the recording medium 120 . Examples of files include MP4 files (ISO/IEC 14496-14:2003), MXF (Material eXchange Format) files, and the like. Functional blocks 101 to 104, 112 to 115, 117, and 119 are accessible to each other via internal bus .

ここで、本実施例の撮像装置100の通常の動作について説明する。 Here, a normal operation of the imaging apparatus 100 of this embodiment will be described.

撮像装置100は、ユーザが操作部104の電源ボタンを操作すると、操作部104からCPU101に起動の指示が出される。この指示を受けて、CPU101は、不図示の電源供給部を制御して、撮像装置100の各ブロックに対して電源を供給させる。電源が供給されると、CPU101は、例えば、操作部104のモード切り換えスイッチが、例えば、静止画撮影モード、再生モード等のどのモードであるかを操作部102からの指示信号により確認する。 When the user operates the power button of the operation unit 104 , the imaging apparatus 100 issues an activation instruction from the operation unit 104 to the CPU 101 . Upon receiving this instruction, the CPU 101 controls a power supply unit (not shown) to supply power to each block of the imaging apparatus 100 . When power is supplied, the CPU 101 confirms, based on an instruction signal from the operation unit 102, which mode, for example, a still image shooting mode or a playback mode, the mode switching switch of the operation unit 104 is set to.

通常の静止画撮影モードでは、撮像装置100は、撮影待機状態でユーザが操作部104の静止画記録ボタンを操作することで撮影処理を行う。撮影処理では、撮像部112で撮影した静止画の画像データについて、画像処理部113で画像処理を施し、符号化処理部114で符号化処理し、記録媒体制御部119により符号化された画像データを画像ファイルとして記録媒体120に記録する。なお、撮影待機状態では、撮像部112で所定のフレームレートで画像を撮影し、画像処理部で表示用の画像処理を施して表示制御部115により表示部116に表示させることによりライブビュー画像の表示を行う。 In a normal still image shooting mode, the imaging apparatus 100 performs shooting processing when the user operates the still image recording button of the operation unit 104 in a shooting standby state. In the shooting process, image data of a still image shot by the imaging unit 112 is subjected to image processing by the image processing unit 113, encoding processing by the encoding processing unit 114, and encoded image data by the recording medium control unit 119. is recorded on the recording medium 120 as an image file. In the shooting standby state, the image capturing unit 112 captures an image at a predetermined frame rate, the image processing unit performs image processing for display, and the display control unit 115 displays the live view image on the display unit 116 . display.

再生モードでは、記録媒体120に記録されている画像ファイルを記録媒体制御部119により読み出し、読み出した画像ファイルの画像データを符号化処理部114で復号する。つまり、符号化処理部114はデコーダの機能も有している。そして、画像処理部113で表示用の処理を施し、表示制御部115により表示部116に表示させる。 In the reproduction mode, the image file recorded on the recording medium 120 is read by the recording medium control unit 119, and the image data of the read image file is decoded by the encoding processing unit 114. FIG. In other words, the encoding processing unit 114 also has a decoder function. Then, the image processing unit 113 performs processing for display, and the display control unit 115 causes the display unit 116 to display the image.

通常の静止画の撮影および再生については、上記のように実行されるが、本実施形例の撮像装置では、通常の静止画だけでなく、HDR静止画を撮影するためのHDR撮影モードを有し、また、撮影したHDR静止画を再生することができる。 Shooting and playback of normal still images are performed as described above, but the imaging apparatus of this embodiment has an HDR shooting mode for shooting not only normal still images but also HDR still images. Also, it is possible to play back HDR still images that have been taken.

以降、HDR静止画像の撮影および再生の処理について説明する。 Processing for capturing and reproducing an HDR still image will be described below.

<ファイル構造>
まずは、HDR静止画像を記録する際のファイル構造について説明する。
<File structure>
First, the file structure for recording HDR still images will be described.

最近、High Efficiency Image File Format(以下、HEIFと称す)と呼ばれる静止画ファイルフォーマットが策定された。(ISO/IEC 23008-12:2017) Recently, a still image file format called High Efficiency Image File Format (hereinafter referred to as HEIF) has been established. (ISO/IEC 23008-12:2017)

これは、JPEGのような従来の静止画ファイルフォーマットと比べ、以下のような特徴を持つ。
・ISOベースメディアファイルフォーマット(以下、ISOBMFFと称す)に準拠したファイル形式である。(ISO/IEC 14496-14:2003)
・単一の静止画像だけでなく、複数の静止画像を格納できる。
・HEVC/H.265やAVC/H.264など、動画の圧縮に用いられる圧縮形式で圧縮された静止画を格納できる。
This has the following features compared to conventional still image file formats such as JPEG.
- The file format conforms to the ISO base media file format (hereinafter referred to as ISOBMFF). (ISO/IEC 14496-14:2003)
・Not only a single still image but also multiple still images can be stored.
・HEVC/H. 265 and AVC/H. 264 or other compression format used for compressing moving images.

本実施形例では、HDR静止画像の記録ファイルとして、HEIFを採用する。 In this embodiment, HEIF is adopted as the HDR still image recording file.

最初に、HEIFが格納するデータについて説明する。 First, data stored by the HEIF will be described.

HEIFは、格納する個々のデータを、アイテムという単位で管理する。 HEIF manages individual data to be stored in units called items.

各アイテムは、データ自身の他に、ファイル内で一意となる整数値アイテムID(item_ID)と、アイテムの種別を表すアイテムタイプ(item_type)を持つ。 Each item has, in addition to the data itself, an integer item ID (item_ID) that is unique within the file, and an item type (item_type) that indicates the type of item.

アイテムは、データが画像を表す画像アイテム(image item)と、データがメタデータであるメタデータアイテム(metadata item)に分けることができる。 Items can be divided into image items, where the data represents an image, and metadata items, where the data is metadata.

画像アイテムには、データが符号化された画像データである符号化画像アイテム(coded image item)と、1個以上の他の画像アイテムを操作した結果の画像を表す、導出画像アイテム(derived image item)がある。 Image items include a coded image item, which is image data whose data is encoded, and a derived image item, which represents an image that is the result of manipulating one or more other image items. ).

導出画像アイテムの例として、オーバーレイ形式の導出画像アイテムであるオーバーレイ画像がある。これは、ImageOverlay構造体(オーバーレイ情報)用いて、任意個の画像アイテムを任意の位置に配置して合成された結果のオーバーレイ画像である。 An example of a derived image item is an overlay image, which is a derived image item in overlay form. This is an overlay image resulting from synthesizing an arbitrary number of image items at arbitrary positions using the ImageOverlay structure (overlay information).

メタデータアイテムの例として、Exifデータを格納することができる。 Exif data can be stored as an example of a metadata item.

前述のように、HEIFは複数の画像アイテムを格納することができる。 As mentioned above, HEIF can store multiple image items.

複数の画像間に関係がある場合、それらの関係を記述することができる。 If there are relationships between images, those relationships can be described.

複数の画像間の関係の例は、導出画像アイテムとそれを構成する画像アイテムの関係、本画像とサムネイル画像の関係、などである。 Examples of the relationship between multiple images are the relationship between a derived image item and its constituent image items, the relationship between a main image and a thumbnail image, and the like.

また、画像アイテムとメタデータアイテムの関係も、同様に記述することができる。 Also, the relationship between image items and metadata items can be similarly described.

HEIF形式は、ISOBMFF形式に準拠している。そのため、まず、ISOBMFFについて、簡単に説明する。 The HEIF format complies with the ISOBMFF format. Therefore, first, ISOBMFF will be briefly described.

ISOBMFF形式は、ボックスと呼ばれる構造でデータを管理する。 The ISOBMFF format manages data in a structure called a box.

ボックスは、4バイトのデータ長フィールドと、4バイトのデータタイプフィールドから始まり、それ以降に任意長のデータを持つデータ構造である。 A box is a data structure that begins with a 4-byte data length field and a 4-byte data type field, followed by data of arbitrary length.

データ部の構造は、データタイプによって決定する。ISOBMFFの仕様書やHEIFの仕様書では、いくつかのデータタイプ及びそのデータ部の構造が規定されている。 The structure of the data part is determined by the data type. The ISOBMFF specifications and HEIF specifications define several data types and the structure of their data portions.

また、ボックスは、別のボックスをデータに持つこともある。すなわち、ボックスの入れ子が可能である。ここで、あるボックスのデータ部に入れ子にされたボックスを、サブボックスと呼ぶ。 A box may also have another box in its data. That is, boxes can be nested. Here, a box nested in the data part of a certain box is called a subbox.

また、サブボックスではないボックスを、ファイルレベルのボックスと呼ぶ。これは、ファイルの先頭から、順次アクセス可能なボックスである。 A box that is not a subbox is called a file-level box. This is a box accessible sequentially from the beginning of the file.

図2を用いて、HEIF形式のファイルについて説明する。 A file in HEIF format will be described with reference to FIG.

まず、ファイルレベルのボックスについて説明する。 First, let's talk about file-level boxes.

データタイプが’ftyp’であるファイルタイプボックスには、ファイルの互換性に関する情報を格納する。ISOBMFF準拠のファイル仕様は、その仕様が規定するファイルの構造や、ファイルが格納するデータを、ブランドと呼ぶ4バイトのコードで宣言し、それらをファイルタイプボックスに格納する。ファイルの先頭にファイルタイプボックスを配置することにより、ファイルのリーダは、ファイルタイプボックスの内容をチェックすることで、さらにファイルの内容を読み出して解釈することなく、ファイルの構造を知ることができる。 A file type box whose data type is 'ftyp' stores information about file compatibility. A file specification conforming to ISOBMFF declares the structure of the file defined by the specification and the data stored in the file with a 4-byte code called brand, and stores them in the file type box. Placing the file type box at the beginning of the file allows the reader of the file to know the structure of the file by checking the contents of the file type box without further reading and interpreting the contents of the file.

HEIFの仕様では、’mif1’というブランドでそのファイル構造を表す。また、格納する符号化画像データがHEVC圧縮されたデータの場合、HEVC圧縮のプロファイルに従って、’heic’または’heix’というブランドで表す。 The HEIF specification uses the brand 'mif1' to represent its file structure. Also, when the encoded image data to be stored is HEVC-compressed data, it is represented by the brand 'heic' or 'heix' according to the HEVC compression profile.

データタイプが’meta’であるメタデータボックスは、いろいろなサブボックスを含み、各アイテムに関するデータを格納する。内訳については、後述する。 A metadata box of data type 'meta' contains various sub-boxes and stores data about each item. The breakdown will be described later.

データタイプが’mdat’であるメディアデータボックスには、各アイテムのデータを格納する。例えば、符号化画像アイテムの符号化画像データや、メタデータアイテムのExifデータ、である。 A media data box whose data type is 'mdat' stores the data of each item. For example, encoded image data for encoded image items and Exif data for metadata items.

次に、メタデータボックスのサブボックスについて説明する。 Next, the sub-boxes of the metadata box will be explained.

データタイプが’hdlr’であるハンドラボックスは、メタデータボックスが管理するデータのタイプを表す情報を格納する。HEIF仕様では、ハンドラボックスのhandler_typeは‘pict’である。 A handler box whose data type is 'hdlr' stores information representing the type of data managed by the metadata box. In the HEIF specification, the handler_type of a handler box is 'pict'.

データタイプが’dinf’であるデータ情報ボックスは、このファイルが対象とするデータが存在するファイルを指定する。ISOBMFFでは、あるファイルが対象とするデータを、そのファイル以外のファイルに格納することが可能である。その場合、データ情報ボックス内のデータリファレンスに、データが存在するファイルのURLを記述したデータエントリURLボックスを格納する。対象とするデータが同じファイルに存在する場合、それを表すフラグのみを有するデータエントリURLボックスを格納する。 A data information box whose data type is 'dinf' specifies the file in which the data targeted by this file exists. In ISOBMFF, it is possible to store data intended for a certain file in a file other than that file. In that case, a data entry URL box describing the URL of the file in which the data exists is stored in the data reference in the data information box. If the data of interest exists in the same file, store the data entry URL box with only a flag indicating that.

データタイプが’pitm’であるプライマリアイテムボックスは、主画像を表す画像アイテムのアイテムIDを格納する。 A primary item box of data type 'pitm' stores the item ID of the image item representing the main image.

データタイプが’iinf’であるアイテム情報ボックスは、以下の、アイテム情報エントリを格納するためのボックスである。 The item information box whose data type is 'iinf' is a box for storing the following item information entries.

データタイプが’infe’であるアイテム情報エントリは、各アイテムの、アイテムIDやアイテムタイプ、フラグを格納する。 The item information entry whose data type is 'infe' stores the item ID, item type, and flag of each item.

符号化画像データがHEVC圧縮されたデータである画像アイテムのアイテムタイプは、’hvc1’であり、画像アイテムである。 The item type of an image item whose encoded image data is HEVC compressed data is 'hvc1' and is an image item.

オーバーレイ形式の導出画像アイテム、つまり、ImageOverlay構造体(オーバーレイ情報)のアイテムタイプは、’iovl’であり、画像アイテムに分類である。 The item type of the derived image item in overlay format, that is, the ImageOverlay structure (overlay information) is 'iovl' and is classified as an image item.

Exif形式のメタデータアイテムのアイテムタイプは、’Exif’であり、メタデータアイテムである。 The item type of a metadata item in Exif format is 'Exif' and is a metadata item.

また、画像アイテムには、フラグフィールドの最下位ビットが立っている場合、その画像アイテムは隠し画像(hidden image)であることを指定することができる。このフラグが立っている場合、その画像アイテムは、再生時に表示対象として扱われず、非表示となる。 A graphical item can also be specified to be a hidden image if the least significant bit of the flag field is set. When this flag is set, the image item is not treated as a display target during playback and is hidden.

データタイプが’iref’であるアイテム参照ボックスは、各アイテム間の参照関係を、参照関係の種類、参照元アイテムのアイテムID、1個以上の参照先アイテムのアイテムID、で格納する。 The item reference box whose data type is 'iref' stores the reference relationship between each item by the reference relationship type, the item ID of the referencing item, and the item ID of one or more referencing items.

オーバーレイ形式の導出画像アイテムの場合、参照関係の種類に’dimg’、参照元アイテムのアイテムIDに導出画像アイテムのアイテムID、参照先アイテムのアイテムIDにオーバーレイを構成する各画像アイテムのアイテムID、を格納する。 In the case of an overlay-format derived image item, the reference relationship type is 'dimg', the item ID of the referencing item is the item ID of the derived image item, the item ID of the reference destination item is the item ID of each image item that composes the overlay, to store

サムネイル画像の場合、参照関係の種類に’thmb’、参照元アイテムのアイテムIDにサムネイル画像のアイテムID、参照先アイテムのアイテムIDに本画像のアイテムID、を格納する。 In the case of a thumbnail image, 'thmb' is stored as the type of reference relationship, the item ID of the thumbnail image is stored as the item ID of the referencing item, and the item ID of the main image is stored as the item ID of the referencing item.

データタイプが’iprp’であるアイテムプロパティボックスは、以下の、アイテムプロパティコンテナボックスとアイテムプロパティ関連ボックスを格納するためのボックスである。 The item property box whose data type is 'iprp' is a box for storing the following item property container box and item property related box.

データタイプが’ipco’であるアイテムプロパティコンテナボックスは、個々のプロパティデータのボックスを格納するボックスである。 An item property container box whose data type is 'ipco' is a box that stores individual property data boxes.

各画像アイテムは、その画像の特徴、属性を表すプロパティデータを持つことができる。 Each image item can have property data representing characteristics and attributes of the image.

プロパティデータボックスには、以下のようなものがある。 Property data boxes include:

デコーダ構成・初期化データ(Decoder configuration and initialization。HEVCの場合、タイプは’hvcC’)は、デコーダの初期化に使われるデータである。HEVCのパラメータセットデータ(VideoParameterSet、SequenceParameterSet、PictureParameterSet)は、ここに格納する。 Decoder configuration and initialization data (for HEVC, the type is 'hvcC') is data used to initialize the decoder. HEVC parameter set data (VideoParameterSet, SequenceParameterSet, PictureParameterSet) are stored here.

画像空間範囲(Image spatial extents。タイプは’ispe’)は、画像の大きさ(幅、高さ)である。 Image spatial extents (of type 'ispe') are the dimensions (width, height) of the image.

色空間情報(Colour information。タイプは’colr’)は、画像の色空間情報である。 Color space information (Colour information, type 'colr') is the color space information of the image.

画像回転情報(Image rotation。タイプは’irot’)が、画像を回転して表示する際の、回転方向である。 Image rotation information (Image rotation, type 'irot') is the direction of rotation when an image is rotated and displayed.

画像のピクセル情報(タイプは’pixi’)は、画像を構成するデータのビット数を示す情報である。 Image pixel information (type is 'pixi') is information indicating the number of bits of data forming an image.

また、本実施例では、HDRメタデータとして、マスターディスプレイカラーボリューム情報(Mastering display colour volume。タイプは’MDCV’)や、コンテンツライトレベル情報(Contents light level information。タイプは’CLLI’)を、プロパティデータボックスとして格納している。 Further, in this embodiment, as HDR metadata, master display color volume information (Mastering display color volume; type is 'MDCV') and content light level information (Contents light level information; type is 'CLLI') are stored as property It is stored as a data box.

上記以外プロパティも存在するが、ここでは明記しない。 Properties other than the above exist, but they are not specified here.

データタイプが’ipma’であるアイテムプロパティ関連ボックスは、各アイテムとプロパティの関連付けを、アイテムIDと、関連するプロパティの’ipco’におけるインデックスの配列、の形式で格納する。 The item property association box of data type 'ipma' stores the association between each item and property in the form of an item ID and an array of indices in 'ipco' of the associated property.

データタイプが’idat’であるアイテムデータボックスは、データサイズが小さいアイテムデータを格納するボックスである。 An item data box whose data type is 'idat' is a box that stores item data with a small data size.

オーバーレイ形式の導出画像アイテムのデータは、構成画像の位置情報などを格納したImageOverlay構造体(オーバーレイ情報)を’idat’に格納することができる。オーバーレイ情報には、背景色情報であるcanvas_fill_valueパラメータや、オーバーレイで合成した際の最終的な合成後の再生画像サイズであるoutput_width、output_heightパラメータ等がある。さらに、合成要素となる画像毎に、合成画像内での配置位置を水平位置座標、垂直位置座標を示すhorizontal_offset、vertical_offsetパラメータがある。オーバーレイ情報に含まれるこれらのパラメータを用いることにより、指定した背景色、サイズの1つの画像内の任意の位置に複数の画像を配置した合成画像を再生することができる。 As for the data of the derived image item in overlay format, the ImageOverlay structure (overlay information) storing the position information of the component image can be stored in 'idat'. The overlay information includes a canvas_fill_value parameter, which is background color information, and output_width and output_height parameters, which are the final size of the reproduced image after overlay synthesis. Further, there are horizontal_offset and vertical_offset parameters indicating the horizontal position coordinates and vertical position coordinates of the arrangement position in the composite image for each image to be the composition element. By using these parameters included in the overlay information, it is possible to reproduce a composite image in which a plurality of images are arranged at arbitrary positions within one image with a specified background color and size.

データタイプが’iloc’であるアイテムロケーションボックスは、各アイテムのデータの位置情報を、オフセット基準(construction_method)、オフセット基準からのオフセット値、長さ、の形式で格納する。 The item location box whose data type is 'iloc' stores location information of data of each item in the form of offset reference (construction_method), offset value from the offset reference, and length.

オフセット基準は、ファイルの先頭、または、’idat’、である。 The offset reference is the beginning of the file, or 'idat'.

なお、メタデータボックスには上記以外のボックスも存在するが、ここでは明記しない。 Note that there are other boxes in the metadata box than the above, but they are not specified here.

図2では、2つの符号化画像アイテムがオーバーレイ形式の画像を構成している構造を図示している。オーバーレイ形式の画像を構成する符号化画像アイテム数は2に限定されない。オーバーレイ形式の画像を構成する符号化画像アイテム数が増加すると、以下のボックス、項目、がその分増加する。
・アイテム情報ボックスに、符号化画像アイテムの、アイテム情報エントリが追加。
・アイテム参照ボックスの参照関係種類‘dimg’の参照先アイテムIDに、符号化画像アイテムのアイテムIDが増加。
・アイテムプロパティコンテナボックスにおける、デコーダ構成・初期化データ、画像空間範囲、など。
・アイテムプロパティ関連ボックスに、符号化画像アイテムとその関連プロパティのインデックスの項目が追加。
・アイテムロケーションボックスに符号化画像アイテムの位置情報の項目が追加。
・メディアデータボックスに、符号化画像データが追加。
FIG. 2 illustrates a structure in which two coded image items constitute an image in overlay format. The number of encoded image items forming an overlay format image is not limited to two. As the number of encoded image items that make up an overlay format image increases, the following boxes and items increase accordingly.
- Added item info entry for coded image items in the item info box.
- The item ID of the encoded image item is added to the reference item ID of the reference relationship type 'dimg' in the item reference box.
• Decoder configuration/initialization data, image space extents, etc., in the item properties container box.
- Added item for index of coded image item and its related property to item property related box.
- Added location information items for encoded image items to the item location box.
・Encoded image data is added to the media data box.

<HDR画像の撮影>
次に、HDR画像を撮影して記録する際の撮像装置100での処理について説明する。
<Photography of HDR image>
Next, processing in the imaging device 100 when capturing and recording an HDR image will be described.

記録する画像の幅や高さが昨今大きくなってきているが、あまりに大きいサイズを符号化すると他機種での復号時に互換性が失われたり、システムの規模が大きくなったりする。具体的に本実施例では符号・復号にH.265を用いた例を説明する。H.265には規格として、ProfileやLevelといったパラメータがあり、画像符号化方法や、画像サイズが大きくなるとこれらのパラメータが変化する。これらの値は復号時の機器で再生対象の可否を判断するパラメータであり、このパラメータを判定して再生不可として弾かれる場合がある。本実施例では大きな画像サイズを記録する場合、複数の画像表示領域に分割して、HEIF規格が謳うオーバーレイの方法を用い、それらの符号データをHEIFファイルに格納して管理する方法について述べる。このように複数の画像表示領域に分けることで1つあたりの画像表示領域のサイズが小さくなり他の機種での再生互換性が高まる。以下、符号化領域の1辺のサイズを4096以下と定めて説明する。なお符号化形式はH.265以外のものであってもよいし、1辺のサイズを4096以外のサイズに規定してもよい。 The width and height of images to be recorded are increasing these days, but if too large a size is encoded, compatibility may be lost when decoding with other models, and the scale of the system may increase. Specifically, in this embodiment, H.264 is used for encoding/decoding. An example using H.265 will be described. H. The H.265 standard has parameters such as Profile and Level, and these parameters change as the image encoding method and image size increase. These values are parameters for judging whether or not the data can be reproduced by the equipment at the time of decoding. In this embodiment, when recording a large image size, a method will be described in which the image is divided into a plurality of image display areas, the overlay method stipulated by the HEIF standard is used, and the encoded data is stored in a HEIF file and managed. By dividing into a plurality of image display areas in this way, the size of each image display area is reduced, and the reproduction compatibility with other models is improved. In the following description, the size of one side of the encoding area is defined as 4096 or less. The encoding format is H.264. Any size other than 265 may be used, and the size of one side may be defined as a size other than 4096.

次に符号化領域の開始位置や符号化領域の幅・高さ、また、再生領域の開始位置や再生領域の幅・高さについてのアライメント制約について説明する。撮像装置としては、分割後の画像を符号化する際に、符号化領域の垂直・水平符号化開始アライメントや、再生時の再生幅・高さアライメント等がハードウエア制約として一般的に存在する。つまり1つ以上の符号化領域のそれぞれの符号化開始位置、再生領域の開始位置や幅・高さを計算して符号化する必要がある。撮像装置はユーザからの指示で複数の画像サイズを切り替えて記録するため、画像サイズごとにそれらを切り替える必要がある。 Alignment constraints on the starting position of the encoding area, the width and height of the encoding area, and the starting position of the reproduction area and the width and height of the reproduction area will now be described. As an imaging device, there are generally hardware restrictions such as vertical and horizontal encoding start alignments in encoding regions, playback width and height alignments during playback, and the like when encoding divided images. In other words, it is necessary to calculate the encoding start position of each of one or more encoding regions and the start position, width, and height of the reproduction region before encoding. Since the image capturing apparatus records by switching between a plurality of image sizes according to instructions from the user, it is necessary to switch between them for each image size.

本実施例で説明する符号化処理部114は符号化時に横方向(以後x方向)に64画素単位、縦方向(以後y方向)に1画素単位の開始位置のアライメント制約がある。また符号化する幅、高さのアライメント制約にそれぞれ32画素単位、16画素単位の制約がある。再生領域の開始位置はx方向に2画素単位、y方向に1画素単位の開始位置のアライメント制約がある。また、再生領域の幅・高さのアライメント制約はそれぞれ、2画素、1画素単位の制約がある。なお、ここでアライメント制約について例を述べたが、一般的にはこれ以外のアライメント制約であってもよい。 The encoding processing unit 114 described in the present embodiment has alignment restrictions on the start position of 64 pixels in the horizontal direction (hereinafter referred to as the x direction) and 1 pixel in the vertical direction (hereinafter referred to as the y direction) at the time of encoding. Alignment restrictions for the width and height to be encoded are 32-pixel units and 16-pixel units, respectively. The starting position of the reproduction area has alignment constraints of two pixels in the x direction and one pixel in the y direction. Further, the width and height alignment restrictions of the reproduction area are restricted in units of 2 pixels and 1 pixel, respectively. Although an example of alignment constraints has been described here, other alignment constraints may generally be used.

次にHDR記録モード(HDR撮影モード)でHDR画像データを撮影し、撮影したHDR画像データをHEIFファイルとして記録するまでのフローについて図3を用いて説明する。HDRモードでは撮像部112と画像処理部113においてHDRを示す色域BT.2020と、PQガンマカーブを用いてHDRの色空間を表現する処理を行う。HDRのための記録については本実施例では割愛する。 Next, a flow from shooting HDR image data in the HDR recording mode (HDR shooting mode) to recording the shot HDR image data as an HEIF file will be described with reference to FIG. In the HDR mode, the color gamut BT. 2020 and processing for expressing the HDR color space using the PQ gamma curve. Recording for HDR is omitted in this embodiment.

S101ではCPU101がユーザによるSW2の押下の有無を判定する。ユーザが被写体を捉え、SW2まで押下した場合(S101のYES)、CPU101はSW2が押されたことを検知し、S102に遷移する。SW2が押されるまでCPU101はこの検出を続ける(S101のNO)。 In S101, the CPU 101 determines whether or not the user has pressed SW2. When the user catches the subject and presses up to SW2 (YES in S101), the CPU 101 detects that SW2 has been pressed, and transitions to S102. The CPU 101 continues this detection until SW2 is pressed (NO in S101).

S102ではCPU101が、ユーザが捉えた画角の画像をHEIFファイルに保存するため、符号化領域を縦横方向にいくつに分割するか(分割数N)、どのように分割するかを決定する。この結果をメモリ102に保存する。S102については図4を用いながら後述する。S103に進む。 In S102, the CPU 101 determines how many divisions the coding area is to be divided vertically and horizontally (division number N) and how to divide the coding area in order to save the image of the angle of view captured by the user in the HEIF file. This result is stored in memory 102 . S102 will be described later with reference to FIG. Proceed to S103.

S103ではCPU101がメモリ102にある変数MをM=1に初期化する。その後S104に進む。 In S103, the CPU 101 initializes the variable M in the memory 102 to M=1. After that, the process proceeds to S104.

S104ではCPU101が、S102で決定した分割数N回分ループしたかを監視する。ループ回数が分割数Nに到達した場合(S104のYES)S109に進み、そうでなければ(S104のNO)S105に進む。 In S104, the CPU 101 monitors whether the loop has been performed for the number of divisions N determined in S102. If the number of loops reaches the number of divisions N (YES in S104), proceed to S109; otherwise (NO in S104), proceed to S105.

S105ではCPU101が分割画像Mの符号開始領域、再生領域の情報を先のメモリ102から読み出しておく。S106に進む。 In S105, the CPU 101 reads the information on the code start area and the reproduction area of the divided image M from the memory 102 described above. Proceed to S106.

S106ではCPU101が符号化処理部114にメモリ102に配置された画像全体のうち、どの領域を符号化するかを伝え、符号化させる。S107に進む。 In S106, the CPU 101 informs the encoding processing unit 114 which area of the entire image arranged in the memory 102 is to be encoded, and causes the encoding processing unit 114 to encode the area. Proceed to S107.

S107では符号化処理部114が符号化した結果の符号データと、符号時に発生する付随情報をCPU101がメモリ102に一時保存する。具体的にH.265の例では、のちにHEIFファイルに格納しなければならない、VPS、SPS、PPS等のH.265規格情報のことである。本実施例とは直接関係ないため割愛するが、H.265のVPS、SPS、PPSは、符号データのサイズや、ビット深度、表示・非表示領域の指定、フレーム情報等復号に必要な様々な情報である。その後S108に進む。 In S107, the CPU 101 temporarily stores in the memory 102 the encoded data resulting from encoding by the encoding processing unit 114 and accompanying information generated during encoding. Specifically, H. In the example of H.265, H.265 files such as VPS, SPS, PPS, etc., which must later be stored in HEIF files. H.265 standard information. Since it is not directly related to this embodiment, it is omitted here. H.265 VPS, SPS, and PPS are various pieces of information necessary for decoding, such as the size of encoded data, bit depth, specification of display/non-display areas, and frame information. After that, the process proceeds to S108.

S108ではCPU101が変数MをインクリメントしS104に戻る。 In S108, the CPU 101 increments the variable M and returns to S104.

S109ではCPU101がHEIFファイルに格納するメタデータを生成する。CPU101は、撮像部112、画像処理部113、符号化処理部114等から、再生時に必要な情報を引出し、メタデータとしてメモリ102に一旦保存する。具体的にはExif形式に成形されたデータである。Exifデータの詳細についてはすでに一般的であるため本実施例での説明は割愛する。S110に進む。 In S109, the CPU 101 generates metadata to be stored in the HEIF file. The CPU 101 extracts information necessary for reproduction from the imaging unit 112, image processing unit 113, encoding processing unit 114, etc., and temporarily stores it in the memory 102 as metadata. Specifically, it is data formed in the Exif format. The details of the Exif data are already common, so the description in this embodiment is omitted. Proceed to S110.

S110ではCPU101がサムネイルを符号化する。メモリ102にある画像全体を画像処理部113が縮小しサムネイルサイズにして一旦メモリ102に配置する。このメモリ102にあるサムネイル画像をCPU101が符号化処理部114に指示して符号化する。ここでサムネイルは先に述べたアライメント制約を満たすようなサイズで符号化するが、符号化領域と再生領域とが異なる方式でもよい。このサムネイルもH.265で符号化される。S111に進む。 At S110, the CPU 101 encodes the thumbnail. The image processing unit 113 reduces the entire image in the memory 102 to a thumbnail size and temporarily stores it in the memory 102 . The CPU 101 instructs the encoding processing unit 114 to encode the thumbnail images in the memory 102 . Here, the thumbnails are coded with a size that satisfies the above-described alignment restrictions, but a method in which the coding area and the reproduction area are different may be used. This thumbnail is also H. H.265 encoded. Proceed to S111.

S111では符号化処理部114がサムネイルを符号化した結果の符号データと、符号時に発生する付随情報をCPU101がメモリ102に一時保存する。先のS107の説明と同様にVPS、SPS、PPS等のH.265規格情報のことである。次にS112に進む。 In S111, the CPU 101 temporarily saves in the memory 102 the coded data resulting from the coding of the thumbnail by the coding processing unit 114 and the associated information generated during coding. H.264 such as VPS, SPS, PPS, etc., as in the previous description of S107. H.265 standard information. Next, the process proceeds to S112.

S112では、ここまでのステップでCPU101が各種データをメモリ102に保存した。CPU101はこのメモリ102に保存したデータを順序良く結合しHEIFファイルを完成させ、メモリ102に保存する。このHEIFファイルを完成させるためのフローは、図6を用いてのちに説明する。S113に進む。 In S112, the CPU 101 has stored various data in the memory 102 in the steps up to this point. The CPU 101 combines the data stored in the memory 102 in order to complete the HEIF file and stores it in the memory 102 . A flow for completing this HEIF file will be described later with reference to FIG. Proceed to S113.

S113でCPU101は、メモリ102にあるHEIFファイルを記録媒体制御部119によって記録媒体 120に書き出すよう指示する。その後S101に戻る。 In S 113 , the CPU 101 instructs the recording medium control unit 119 to write the HEIF file in the memory 102 to the recording medium 120 . After that, the process returns to S101.

このようなステップで撮影が行われてからHEIFファイルが記録媒体120に記録される。 The HEIF file is recorded on the recording medium 120 after the image is captured in these steps.

次に、先に説明したS102での分割の方法決定について、図4、図5(a)を用いて説明する。以下センサ画像領域の左上を原点(0、0)とし、座標を(x、y)、幅高さをそれぞれw、hで表す。また領域については開始座標の(x、y)と幅高さのw、hを合わせて[x、y、w、h]と表現する。 Next, the division method determination in S102 described above will be described with reference to FIGS. 4 and 5A. Below, the upper left corner of the sensor image area is defined as the origin (0, 0), the coordinates are (x, y), and the width and height are represented by w and h, respectively. The region is expressed as [x, y, w, h] by combining the start coordinates (x, y) and the width and height w, h.

S121でCPU101は撮影時の記録モードをメモリ102から取得する。記録モードとは例えば画像サイズ、画像のアスペクト比、画像の圧縮率などが決定した記録方法を決めたもので、ユーザはこの記録モードから1つを選択して撮影を行う。例えば、Lサイズ、3:2アスペクトなどの設定のことである。記録モードに応じて撮影画角が異なるため、撮影の画角を決定する。S122に進む。 In S121, the CPU 101 acquires from the memory 102 the recording mode at the time of shooting. A recording mode is a recording method in which an image size, an image aspect ratio, an image compression ratio, etc. are determined, and the user selects one of these recording modes for photographing. For example, setting such as L size and 3:2 aspect ratio. Since the shooting angle of view differs depending on the recording mode, the shooting angle of view is determined. Proceed to S122.

S122ではセンサ画像領域[0、0、H、V]の中から、再生画像の開始座標位置(x0、y0)を取得する。次にS123に進む。 In S122, the start coordinate position (x0, y0) of the reproduced image is obtained from the sensor image area [0, 0, H, V]. Next, the process proceeds to S123.

S123では再生画像の領域[x0、y0、Hp、Vp]をメモリ102から取得する。次にS124に進む。 In S123, the area [x0, y0, Hp, Vp] of the reproduced image is obtained from the memory 102. FIG. Next, the process proceeds to S124.

S124では再生画像の領域を含むように符号化する必要がある。先に述べたように符号開始位置のアライメントはx方向に64画素のアライメントをとるため、再生画像の領域を含むように符号化しようとすると(Ex0、Ey0)の位置から符号化しなければならない。このようにしてLexのサイズが求まる。このLexのオフセットが0であれば(S124のNO)S126に進み、必要であれば(S124のYES)S125に進む。 In S124, it is necessary to encode so as to include the area of the reproduced image. As described above, the alignment of the code start position is 64 pixels in the x direction, so if encoding is to include the area of the reproduced image, the encoding must start from the position (Ex0, Ey0). Thus, the size of Lex is obtained. If this Lex offset is 0 (NO in S124), the process proceeds to S126, and if necessary (YES in S124), the process proceeds to S125.

S125では、Lexを求める。Lexは先に述べたように再生画像領域と符号化開始位置のアライメントによって決定される。CPU101はLexを以下のようにして決定する。x0を水平方向の符号化開始位置の画素アライメント64画素で除し、その商に先の64画素を乗じて求める。余りを含めず計算するため、再生画像領域の開始位置よりも左側に位置する座標が得られる。よってLexは、再生画像領域のx座標から先の計算によって求めた符号化開始位置のx座標の差で求まる。S126に進む。 At S125, Lex is obtained. Lex is determined by the alignment of the reproduced image area and the encoding start position, as described above. The CPU 101 determines Lex as follows. It is obtained by dividing x0 by the pixel alignment 64 pixels of the horizontal encoding start position and multiplying the quotient by the previous 64 pixels. Since the calculation is performed without including the remainder, the coordinates positioned to the left of the start position of the reproduced image area are obtained. Therefore, Lex is obtained by the difference between the x-coordinate of the reproduction image area and the x-coordinate of the encoding start position obtained by the previous calculation. Proceed to S126.

S126では再生画像の最上位ラインの右端の最終位置の座標を計算する。これを(xN、y0)とする。xNはx0にHpを加算して求める。S127に進む。 In S126, the coordinates of the final position of the right end of the uppermost line of the reproduced image are calculated. Let this be (xN, y0). xN is obtained by adding Hp to x0. Proceed to S127.

S127では再生画像の右端を含むように符号化領域の右端を求める。符号化領域の右端wの求めるためには、符号化の幅のアライメント制約が必要である。先に述べたように符号化の幅・高さの制約はそれぞれ32画素の倍数の制約がある。この制約と(xN、y0)との関係から再生画像の右端より先にRexのオフセットが必要かどうかをCPU101が計算する。Rexが必要であれば(S127のYES)S128に進み、不要であれば(S127のNO)S129に進む。 In S127, the right end of the encoded area is obtained so as to include the right end of the reproduced image. In order to obtain the right end w of the coding area, alignment constraints on the coding width are necessary. As described above, the restrictions on the width and height of encoding are each restricted to multiples of 32 pixels. Based on the relationship between this constraint and (xN, y0), the CPU 101 calculates whether or not an offset of Rex is required prior to the right end of the reproduced image. If Rex is required (YES in S127), the process proceeds to S128; otherwise (NO in S127), the process proceeds to S129.

S128では、CPU101が再生画像右端座標(xN、y0)の右側に32画素のアライメントになるようにRexを付加し、符号化の終了位置(ExN、Ey0)を求める。S129に進む。 In S128, the CPU 101 adds Rex to the right side of the right edge coordinates (xN, y0) of the reproduced image so as to have a 32-pixel alignment, and obtains the encoding end position (ExN, Ey0). Proceed to S129.

S129では、CPU101が表示領域の右下の座標を求める。再生画像のサイズが自明のためこの座標は(xN、yN)となる。S130に進む。 In S129, the CPU 101 obtains the lower right coordinates of the display area. Since the size of the reproduced image is self-explanatory, the coordinates are (xN, yN). Proceed to S130.

S130では再生画像の下端を含むように符号化領域の下端を求める。符号化領域の下端を求めるためには、符号化の高さのアライメント制約が必要である。先に述べたように符号化の高さの制約はそれぞれ16画素の倍数の制約がある。この制約と再生画像の右下座標(xN、yN)との関係から再生画像の下端より先にVexのオフセットが必要かどうかをCPU101が計算する。Vexが必要であれば(S130のYES)S131に進み、不要であれば(S130のNO)S132に進む。 In S130, the lower end of the encoded region is obtained so as to include the lower end of the reproduced image. To find the bottom edge of the encoded region, an encoding height alignment constraint is required. As mentioned earlier, the encoding height constraints are each a multiple of 16 pixels. The CPU 101 calculates from the relationship between this constraint and the lower right coordinate (xN, yN) of the reproduced image whether or not the Vex offset is required prior to the lower end of the reproduced image. If Vex is required (YES in S130), the process proceeds to S131, and if not (NO in S130), the process proceeds to S132.

S131ではCPU101がVexを先の制約と再生画像の右下座標(xN、yN)との関係から計算し、符号化領域の右下の座標(ExN、EyN)を求める。Vexの計算方法は、垂直方向の符号化開始位置であるy0からyNを含むように符号化の高さアライメントである16画素の倍数の位置に設定する。具体的には、y0=0であったとして、Vpを符号化の高さアライメントの16画素で除し、商と余りを求める。再生領域を含むように符号化領域をとらなければならないため、余りがある場合は商に1を加算し、先の16画素を乗じる。これによって16画素の倍数でありながらVpを含む符号化領域の下端のy座標のEyNが得られる。VexはEyNからyNの差で求まる。なお、EyNはyNからVexだけ下方向にオフセットさせた値であり、ExNはS128で既に求めた値である。S132に進む。 In S131, the CPU 101 calculates Vex from the relationship between the above constraints and the lower right coordinates (xN, yN) of the reproduced image, and obtains the lower right coordinates (ExN, EyN) of the encoding area. The Vex calculation method is set to a multiple of 16 pixels, which is the height alignment of encoding, so as to include y0 to yN, which are the encoding start positions in the vertical direction. Specifically, assuming that y0=0, Vp is divided by 16 pixels of height alignment for encoding, and the quotient and remainder are obtained. If there is a remainder, add 1 to the quotient and multiply by the previous 16 pixels, since the encoded region must be taken to include the reconstructed region. This gives EyN of the y-coordinate of the lower end of the encoded region which is a multiple of 16 pixels but still contains Vp. Vex is obtained by the difference of yN from EyN. EyN is a value obtained by offsetting yN downward by Vex, and ExN is a value already obtained in S128. Proceed to S132.

S132では、CPU101が、符号化領域のサイズHp’xVp’を以下のように求める。水平サイズHpに、アライメント制約から求めたLexとRexを加算して、Hp’を求める。また、垂直サイズVpに、アライメント制約から求めたVexを加算して、Vp’を求める。Hp’とVp’から符号化領域のサイズHp’×Vp’が求まる。S133に進む。 In S132, the CPU 101 obtains the size Hp'xVp' of the encoding region as follows. Hp' is obtained by adding Lex and Rex obtained from the alignment constraint to the horizontal size Hp. Vex obtained from the alignment constraint is added to the vertical size Vp to obtain Vp'. From Hp' and Vp', the size of the coding region Hp'.times.Vp' is obtained. Proceed to S133.

S133では、CPU101が符号化対象の水平サイズHp’が分割すべき4096画素を超えるか否かを判断し、超える場合は(S133のYES)S134に進み、超えない場合(S133のNO)はS135に進む。 In S133, the CPU 101 determines whether or not the horizontal size Hp' to be encoded exceeds the 4096 pixels to be divided. proceed to

S134では、符号化対象の水平サイズHp’を4096画素以下になるように2つ以上の領域に分割する。例えば6000画素であれば2分割であるし、9000画素であれば3分割となる。 In S134, the horizontal size Hp' to be encoded is divided into two or more regions so as to be 4096 pixels or less. For example, 6000 pixels are divided into two, and 9000 pixels are divided into three.

2分割の場合は、先の符号化の幅に関するアライメント32画素を満足するおおよその中心位置で分割する。均等にならない場合は左の分割画像を大きくする。また3分割に分割する場合で均等にならない場合、先の符号化の幅に関するアライメントに注意しながら、A、B、Cと分割領域を分け、分割領域AとBのサイズが等しくなるようにし、分割領域Cをそれよりも若干小さくなるように分割する。3分割以上であっても同じアルゴリズムによって分割位置、サイズを決定する。S135に進む。 In the case of division into two, division is performed at an approximate center position that satisfies the alignment of 32 pixels with respect to the width of the previous encoding. If it is not uniform, increase the left split image. Also, if the division into three is not uniform, divide the divided areas into A, B, and C while paying attention to the alignment regarding the width of the previous encoding so that the divided areas A and B have the same size, The divided area C is divided so as to be slightly smaller than that. The division position and size are determined by the same algorithm even if the division is three or more. Proceed to S135.

S135では、CPU101が符号化対象の垂直サイズVp’が分割すべき4096画素を超えるか否かを判断し、超える場合(S135のYES)はS136に進み、超えない場合(S135のNO)は処理を終了する。 In S135, the CPU 101 determines whether or not the vertical size Vp' to be encoded exceeds the 4096 pixels to be divided. exit.

S136では、S134と同様にVp’を複数の分割領域に分割し処理を終了する。 In S136, as in S134, Vp' is divided into a plurality of divided regions, and the process ends.

S102での分割の例について、図5(b)、(c)、(d)、(e)を用いて具体的な数値で説明する。図5は、画像データの分割方法だけでなく、符号化領域および再生領域の関係も示している。 An example of division in S102 will be described with specific numerical values using FIGS. FIG. 5 shows not only how the image data is divided, but also the relationship between the encoding area and the reproduction area.

図5(b)について説明する。図5(b)は左右二つの領域に画像を分割し再生領域の左右と下端にLex、Rex、Vexが付与されるケースである。まず、再生画像領域は[256+48、0、4864、3242]が撮像装置で記録したい最終的な画像の領域である。この再生画像領域の左上の座標は(256+48、0)であり、先に述べた符号化の開始アライメントである64画素単位の倍数ではない。よって、ここより48画素左側にLexを設け、符号化開始位置の左端はx=256の位置となる。次に再生領域の幅についてはw=48+4864となるが、これは符号化の幅のアライメントの32画素の倍数になっておらず符号化時の幅の制約アライメントを鑑みて、再生画像領域の右端に16画素Rexを付与する。同様に垂直方向も計算するとVex=4画素となる。この再生画像は横方向のサイズが4096を超えているため、横方向を符号化の幅のアライメントを鑑みつつおおよそ中心の位置で2分割し、結果として分割画像1の符号化領域は[256、0、2496、3242+8]、分割画像2の符号化画像領域は[256+2496、0、2432、3242+8]が求まる。 FIG. 5B will be described. FIG. 5B shows a case in which an image is divided into left and right areas, and Lex, Rex, and Vex are assigned to the left, right, and bottom ends of the reproduction area. First, the reproduced image area is [256+48, 0, 4864, 3242], which is the area of the final image to be recorded by the imaging device. The upper left coordinates of this reconstructed image area are (256+48, 0), not a multiple of 64 pixel units which is the starting alignment of the encoding mentioned above. Therefore, Lex is provided 48 pixels to the left of this point, and the left end of the encoding start position is at x=256. Next, the width of the reproduction area is w = 48 + 4864, but this is not a multiple of 32 pixels of the alignment of the width of the encoding, and considering the constraint alignment of the width at the time of encoding, the right end of the reproduction image area is is given 16 pixels Rex. Similarly, when the vertical direction is calculated, Vex=4 pixels. Since the size of this reproduced image in the horizontal direction exceeds 4096, the horizontal direction is divided into two at approximately the center position while considering the alignment of the width of the encoding. 0, 2496, 3242+8], and the encoded image area of the divided image 2 is obtained as [256+2496, 0, 2432, 3242+8].

図5(c)について説明する。図5(c)は左右二つの領域に画像を分割し、再生領域の右と下端にRex、Vexが付与されるケースである。再生画像領域のx位置がx=0のため、符号化領域の開始アライメントである64画素とも一致するためLex=0となる。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[0、0、2240、32456+8]、分割画像2の符号化画像領域は[2240、0、2144、2456+8]が求まる。 FIG. 5(c) will be described. FIG. 5C shows a case in which an image is divided into left and right regions, and Rex and Vex are added to the right and bottom ends of the reproduction region. Since the x-position of the reproduced image area is x=0, it matches the 64-pixel starting alignment of the coding area, so Lex=0. Thereafter, the calculation method is the same as described above, and as a result, the encoded image area of divided image 1 is [0, 0, 2240, 32456+8], and the encoded image area of divided image 2 is [2240, 0, 2144, 2456+8]. ] is found.

図5(d)について説明する。図5(d)は左右二つの領域に画像を分割し、再生領域の左右にLex、Rexが付与されるケースである。再生画像領域の縦サイズh=3648であり、これは符号化時の画像高さの制約である16画素の倍数となるため、Vex=0となる。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[256+48、0、2240、3648]、分割画像2の符号化画像領域は[256+2240、0、2144、3648]が求まる。 FIG. 5(d) will be described. FIG. 5D shows a case in which an image is divided into left and right areas, and Lex and Rex are given to the left and right of the reproduction area. The vertical size of the reproduced image area is h=3648, which is a multiple of 16 pixels which is the constraint on the image height at the time of encoding, so Vex=0. Thereafter, the calculation method is the same as described above, and as a result, the encoded image area of divided image 1 is [256+48, 0, 2240, 3648], and the encoded image area of divided image 2 is [256+2240, 0, 2144, 3648]. ] is found.

図5(d)について説明する。図5(d)は上下左右に4つの領域に画像を分割し、再生領域の左右にLex、Rexが付与されるケースである。このケースは符号化領域が、縦方向も横方向も4096を超えるため、田の字に分割を実施する。以後、先に述べた計算方法と同様であり、結果として分割画像1の符号化領域は[0、0、4032、3008]、分割画像2の符号化画像領域は[4032、0、4032、3008]、分割画像3の符号化画像領域は[0、3008、4032、2902]、分割画像4の符号化画像領域は[4032、3008、4032、2902]が求まる。 FIG. 5(d) will be described. FIG. 5D shows a case in which an image is divided into four areas vertically and horizontally, and Lex and Rex are given to the left and right of the reproduction area. In this case, since the encoded area exceeds 4096 in both the vertical and horizontal directions, it is divided into squares. Thereafter, the calculation method is the same as described above, and as a result, the encoded image area of divided image 1 is [0, 0, 4032, 3008], and the encoded image area of divided image 2 is [4032, 0, 4032, 3008]. ], the encoded image area of divided image 3 is [0, 3008, 4032, 2902], and the encoded image area of divided image 4 is [4032, 3008, 4032, 2902].

このようにしてCPU101は記録モードに応じて再生画像の領域が決定し、それごとに分割領域の計算を行う必要がある。他の方法として、これらの計算をあらかじめ実施しておき、その結果をメモリ102保存しておく。CPU101は記録モードに応じた分割領域、再生領域の情報をメモリ102から読みだして符号化処理部114に設定してもよい。 In this manner, the CPU 101 must determine the area of the reproduced image according to the recording mode, and calculate the divided area for each determined area. As another method, these calculations are performed in advance and the results are stored in memory 102 . The CPU 101 may read the information of the divided area and the reproduction area corresponding to the recording mode from the memory 102 and set it in the encoding processing section 114 .

本実施例のように撮影画像を複数の分割画像に分割して記録する場合、記録した画像から撮影画像を復元するには、複数の表示領域を合成する必要がある。合成画像を生成する際に、各々の分割画像に重複領域がないほうが、余分なデータの符号化や記録をしなくてよいため、効率的となる。そのため、本実施例では分割画像間で接する境界には重なる部分(重複領域)を持たないように、各再生領域、各符号化領域を設定した。ただし、ハードウエアのアライメント制約などの条件によっては分割画像間に重複領域を設けても構わない。 When a photographed image is divided into a plurality of divided images and recorded as in this embodiment, it is necessary to synthesize a plurality of display areas in order to restore the photographed image from the recorded image. When generating a composite image, it is more efficient if each divided image does not have an overlapping area, because there is no need to encode or record extra data. Therefore, in this embodiment, each reproduction region and each coding region are set so that there is no overlapping portion (overlapping region) at the boundary between divided images. However, overlapping areas may be provided between divided images depending on conditions such as hardware alignment restrictions.

次に、先のS112で述べたHEIFファイルの構築方法について図6を用いながら説明する。HEIFファイルは図2で示す構造であるから、CPU101はファイルの先頭から順にメモリ102上に構築する。 Next, the method of constructing the HEIF file described in S112 will be described with reference to FIG. Since the HEIF file has the structure shown in FIG. 2, the CPU 101 constructs the file in the memory 102 in order from the beginning.

S141で’ftyp’ボックスを生成する。このボックスはファイルの互換性を知るためのボックスでファイルの先頭におかれる。CPU101はこのボックスのメジャーブランドに’heic’、コンパチブルブランドに’mif1’、’heic’を格納する。本実施例ではこれらの値を使用するがこれ以外であってもよい。S142に進む。 A 'ftyp' box is generated in S141. This box is placed at the top of the file to know the compatibility of the file. The CPU 101 stores 'heic' as the major brand of this box, and 'mif1' and 'heic' as the compatible brands. Although these values are used in this embodiment, other values may be used. Proceed to S142.

S142で’meta’ボックスを生成する。このボックスは以下に記載の複数のボックスを格納するボックスである。CPU101はこのボックスを生成してS143に進む。 A 'meta' box is generated in S142. This box is a box that stores multiple boxes described below. The CPU 101 generates this box and proceeds to S143.

S143では、’iinf’ボックス内に格納する’hdlr’ボックスを生成する。このボックスは先に述べた’meta’ボックスの属性を示すものである。CPU101はこのタイプに’pict’を格納して、S144に進む。なお’pict’は、メタデータボックスが管理するデータのタイプを表す情報であり、HEIF仕様では、ハンドラボックスのhandler_typeは‘pict’と規定されている。 At S143, a 'hdlr' box to be stored in the 'iinf' box is generated. This box shows the attributes of the 'meta' box mentioned earlier. The CPU 101 stores 'pict' in this type and proceeds to S144. The 'pict' is information representing the type of data managed by the metadata box, and the HEIF specification defines the handler_type of the handler box as 'pict'.

S144では、’iinf’ボックス内に格納する’dinf’ボックスを生成する。このボックスはこのファイルが対象とするデータの存在位置を示すものである。CPU101はこのボックスを生成してS145に進む。 At S144, a 'dinf' box to be stored in the 'iinf' box is generated. This box indicates the location of the data targeted by this file. The CPU 101 generates this box and advances to S145.

S145では、’iinf’ボックス内に格納する’pitm’ボックスを生成する。このボックスは、主画像を表す画像アイテムのアイテムIDを格納する。主画像となるのはオーバーレイで合成されたオーバーレイ画像であるからCPU101はオーバーレイ情報アイテムIDを、主画像のアイテムIDとして格納する。S146に進む。 At S145, a 'pitm' box to be stored in the 'iinf' box is generated. This box stores the item ID of the image item that represents the main image. Since the main image is the overlay image synthesized by the overlay, the CPU 101 stores the overlay information item ID as the item ID of the main image. Proceed to S146.

S146では、’meta’ボックス内に格納する’iinf’ボックスを生成する。このボックスはアイテムのリストを管理するボックスである。ここではデータ長フィールドに初期値を入れ、データタイプフィールドに’iinf’を保存しS147に進む。 At S146, a 'iinf' box to be stored in the 'meta' box is generated. This box is for managing the list of items. Here, an initial value is entered in the data length field, 'iinf' is saved in the data type field, and the process proceeds to S147.

S147では、’iinf’ボックス内に格納する’infe’ボックスを生成する。この’infe’ボックスはファイル内に格納される各アイテムのアイテム情報を登録するボックスであり、アイテム毎に’infe’ボックスを生成する。分割画像については、それぞれの分割画像が1つのアイテムとしてこのボックスに登録される。他にも、複数の分割画像から主画像を構成するためのオーバーレイ情報や、Exif情報、サムネイル画像が、それぞれアイテムとして登録される。この際、前述したとおり、オーバーレイ情報、分割画像、サムネイル画像は、画像アイテムとして登録する。画像アイテムについては、隠し画像を示すフラグを付加することが可能であり、このフラグが付加することにより、再生時に画像が表示されないことになる。つまり、画像アイテムにこの隠し画像フラグを付加することにより、再生時に非表示とする画像を指定することができる。そこで、分割画像に関しては、隠し画像を示すフラグを立てておき、オーバーレイ情報のアイテムにはそのフラグを立てないでおく。これにより、個々の分割画像自体は表示対象外となり、オーバーレイ情報により複数の分割画像がオーバーレイ合成された結果の画像のみが表示対象となる。それぞれのアイテムについて個別に’infe’ボックスを生成し、それらを先の’iinf’内に格納する。S148に進む。 At S147, an 'infe' box to be stored in the 'iinf' box is generated. This 'infe' box is a box for registering item information of each item stored in the file, and an 'infe' box is generated for each item. As for split images, each split image is registered in this box as one item. In addition, overlay information for constructing a main image from a plurality of divided images, Exif information, and thumbnail images are registered as items. At this time, as described above, overlay information, divided images, and thumbnail images are registered as image items. For image items, it is possible to add a flag indicating a hidden image, and by adding this flag, the image will not be displayed during playback. In other words, by adding this hidden image flag to the image item, it is possible to designate an image to be hidden during playback. Therefore, a flag indicating a hidden image is set for the split image, and the flag is not set for the item of the overlay information. As a result, the individual divided images themselves are excluded from the display target, and only the image obtained by overlay-combining the plurality of divided images according to the overlay information becomes the display target. Create separate 'infe' boxes for each item and store them in the previous 'iinf'. Proceed to S148.

S148では、’iinf’ボックス内に格納する’iref’ボックスを生成する。このボックスはオーバーレイで構成される画像(主画像)、その画像を構成する分割画像の関係を示す情報を格納する。先に説明したS102で分割方法が決定しているため、決定された分割方法に基づいてCPU101はこのボックスを生成する。S149に進む。 At S148, an 'iref' box to be stored in the 'iinf' box is generated. This box stores information indicating the relationship between an image composed of an overlay (main image) and the divided images that compose the image. Since the dividing method has been determined in S102 described above, the CPU 101 generates this box based on the determined dividing method. Proceed to S149.

S149では、’iinf’ボックス内に格納する’iprp’ボックスを生成する。このボックスはアイテムのプロパティを格納するボックスであり、S150で生成される’ipco’ボックスや、S151で生成される’ipma’ボックスを格納するボックスである。S150に進む。 At S149, an 'iprp' box to be stored in the 'iinf' box is generated. This box is a box for storing item properties, and is a box for storing the 'ipco' box generated in S150 and the 'ipma' box generated in S151. Proceed to S150.

S150では、’iprp’ボックス内に格納する’ipco’ボックスを生成する。このボックスはアイテムのプロパティコンテナボックスであり、各種プロパティを保存する。プロパティは複数存在し、CPU101は以下のプロパティコンテナボックスを生成して’ipco’ボックス内に格納する。プロパティは、画像アイテム毎に生成されるものと複数の画像アイテムに共通して生成されるものがある。主画像となるオーバーレイ情報により構成されるオーバーレイ画像および分割画像とで共通する情報として、’colr’ボックスを生成する。’colr’ボックスには、主画像(オーバーレイ画像)、分割画像の色空間情報として、HDRのガンマカーブ等の色情報を格納する。分割画像については、それぞれ、’hvcC’ボックス、’ispe’ボックスを生成する。先に説明したS107やS111で、メモリ102に格納してある符号化時の付随情報をCPU101が読み出し、’hvcC’のプロパティコンテナボックスを生成する。この’hvcC’に格納する付随情報は、符号化領域を符号化したときの情報や、符号化領域のサイズ(幅、高さ)だけでなく、再生領域のサイズ(幅、高さ)や、符号化領域中の再生領域の位置情報等も含む。これらの付随情報がゴロム圧縮されて’hvcC’のプロパティコンテナボックスに記録される。ゴロム圧縮については一般的な圧縮方法のためここでは説明を割愛する。また、’ispe’ボックスには、分割画像の再生領域のサイズ(幅、高さ)情報(例として2240x2450等)を格納する。主画像となるオーバーレイ画像の回転を表す情報を格納した’irot’ボックス、画像のデータのビット数を示す‘pixi’ボックスを生成する。‘pixi’ボックスについては、主画像(オーバーレイ画像)と分割画像とで個別に生成してもよいが、本実施例においてはオーバーレイ画像と分割画像は同じビット数、つまり10ビットであるので1つだけ生成する。またHDRの補足情報が格納される’CLLI’や’MDCV’ボックスも生成する。さらに、サムネイル画像のプロパティとして、主画像(オーバーレイ画像)とは別に、色空間情報を格納した’colr’ボックス、符号化時の情報を格納した’hvcC’ボックス、画像サイズを格納した’ispe’ボックス、画像データのビット数の情報を格納した‘pixi’ボックス、HDRの補足情報を格納した’CLLI’ボックスを生成する。これらのプロパティコンテナボックスを生成し、’ipco’ボックス内に格納する。S151に進む。 At S150, an 'ipco' box to be stored in the 'iprp' box is generated. This box is the property container box for the item and stores various properties. There are multiple properties, and the CPU 101 generates the following property container box and stores it in the 'ipco' box. There are properties generated for each image item and properties generated common to multiple image items. A 'colr' box is generated as information common to the overlay image and the split image configured by the overlay information of the main image. The 'colr' box stores color information such as an HDR gamma curve as color space information of the main image (overlay image) and divided images. For split images, 'hvcC' box and 'ispe' box are generated respectively. In S107 and S111 described above, the CPU 101 reads out the accompanying information at the time of encoding stored in the memory 102, and generates a property container box of 'hvcC'. The accompanying information stored in this 'hvcC' includes not only information when the encoding area is encoded, the size (width, height) of the encoding area, but also the size (width, height) of the reproduction area, It also includes the position information of the reproduction area in the coding area. These accompanying information are Golomb-compressed and recorded in the property container box of 'hvcC'. Since the Golomb compression is a general compression method, the explanation is omitted here. The 'ispe' box stores the size (width, height) information (for example, 2240×2450, etc.) of the reproduction area of the divided image. A 'irot' box storing information indicating the rotation of the overlay image that is the main image and a 'pixi' box indicating the number of bits of image data are generated. The 'pixi' box may be generated separately for the main image (overlay image) and the divided image. generate only It also creates 'CLLI' and 'MDCV' boxes in which supplementary information for HDR is stored. Furthermore, as properties of the thumbnail image, apart from the main image (overlay image), a 'colr' box that stores color space information, a 'hvcC' box that stores information at the time of encoding, and an 'ispe' box that stores image size. A box, a 'pixi' box storing information on the number of bits of image data, and a 'CLLI' box storing HDR supplementary information are generated. Create these property container boxes and store them inside the 'ipco' box. Proceed to S151.

S151で’ipma’ボックスを生成する。このボックスはアイテムとプロパティの関係性を示すボックスであり、アイテム毎に先に述べたどのプロパティと関連性があるのかを示す。CPU101はメモリ102に保存された各種データからアイテムとプロパティの関係性を判断し、このボックスを生成する。S152に進む。 An 'ipma' box is generated in S151. This box is a box that indicates the relationship between items and properties, and indicates which property is associated with each item. The CPU 101 determines the relationship between items and properties from various data stored in the memory 102 and generates this box. Proceed to S152.

S152で’idat’ボックスを生成する。このボックスには各分割画像の再生領域をどのように配置してオーバーレイ画像を生成するかを示すオーバーレイ情報を格納する。オーバーレイ情報には、背景色情報であるcanvas_fill_valueパラメータや、オーバーレイ画像全体のサイズであるoutput_width、output_heightパラメータがある。また、合成要素となる分割画像一つずつに対して、分割画像を合成する水平位置座標、垂直位置座標を示すhorizontal_offset、vertical_offsetパラメータがある。これらのパラメータに対してCPU101は、S102で決定した分割方法に基づいてこれらの情報を記載する。具体的には、オーバーレイ画像のサイズを示すoutput_width、output_heightパラメータに、再生領域全体のサイズを記載する。そして、各分割画像の位置情報を示すhorizontal_offset、vertical_offsetパラメータには、再生領域左上の開始座標位置(x0、y0)から、分割画像の左上の位置までの幅方向および高さ方向のオフセット値をそれぞれ記載する。このようにしてオーバーレイ情報を生成することにより、画像の再生時に、分割画像をhorizontal_offset、vertical_offsetパラメータに基づいて配置して分割画像を合成することにより、分割前の状態の画像を再生することができるようになる。本実施例では、分割画像に重複領域を設けていないため、各分割画像が重ならないように配置されるように位置情報が記載されることになる。そして、分割画像を合成して得られた画像のうち、output_width、output_heightパラメータにより表示される領域を指定することにより、再生領域のみを表示対象として再生することができる。このように生成されたオーバーレイ情報が格納された’idat’ボックスを生成する。S153に進む。 An 'idat' box is generated in S152. This box stores overlay information indicating how to arrange the reproduction area of each divided image to generate an overlay image. The overlay information includes a canvas_fill_value parameter, which is background color information, and output_width and output_height parameters, which are the size of the entire overlay image. Further, there are horizontal_offset and vertical_offset parameters indicating horizontal position coordinates and vertical position coordinates for synthesizing the split images for each split image serving as a synthesis element. The CPU 101 writes information on these parameters based on the division method determined in S102. Specifically, the size of the entire playback area is described in the output_width and output_height parameters indicating the size of the overlay image. Then, the horizontal_offset and vertical_offset parameters indicating the position information of each divided image are the offset values in the width direction and the height direction from the start coordinate position (x0, y0) at the upper left of the reproduction area to the upper left position of the divided image. Describe. By generating the overlay information in this way, the image before division can be reproduced by arranging the divided images based on the horizontal_offset and vertical_offset parameters and synthesizing the divided images when reproducing the image. become. In this embodiment, since no overlapping area is provided in the divided images, the position information is described so that the divided images are arranged so as not to overlap each other. By specifying a region to be displayed in the image obtained by synthesizing the divided images with the output_width and output_height parameters, only the reproduction region can be reproduced as a display target. An 'idat' box in which the generated overlay information is stored is generated. Proceed to S153.

S153で’iloc’ボックスを生成する。このボックスは各種データがファイルのどの位置に配置されるかを示すボックスである。各種情報がメモリ102に保存されているため、これらのサイズからこのボックスを生成する。具体的に、オーバーレイを示す情報は先の’idat’に格納するが、この’idat’内部の位置とサイズ情報である。また、サムネイルデータ、符号データ12は’mdat’ボックスに格納するが、この位置とサイズ情報を格納する。S154に進む。 A 'iloc' box is generated in S153. This box is a box showing where various data are placed in the file. Since various information is stored in the memory 102, this box is generated from these sizes. Specifically, the information indicating the overlay is stored in the above 'idat', and the position and size information inside this 'idat'. Also, the thumbnail data and code data 12 are stored in the 'mdat' box, and the position and size information are stored. Proceed to S154.

S154で’mdat’ボックスを生成する。このボックスは以下に記載の複数のボックスを含むボックスである。CPU101は’mdat’ボックスを生成しS155に進む。 A 'mdat' box is generated in S154. This box is a box containing multiple boxes described below. The CPU 101 generates an 'mdat' box and advances to S155.

S155でExifデータを’mdat’ボックスに格納する。先のS109で、メタデータのExifがメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し’mdat‘ボックスに追記する。S156に進む。 At S155, the Exif data is stored in the 'mdat' box. Since the metadata Exif is stored in the memory 102 in S109, the CPU 101 reads it out from the memory 102 and adds it to the 'mdat' box. Proceed to S156.

S156でサムネイルデータを’mdat’ボックスに格納する。先のS110で、サムネイルデータはメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し、‘mdat’ボックスに追記する。S157に進む。 At S156, the thumbnail data is stored in the 'mdat' box. Since the thumbnail data was saved in the memory 102 in the previous S110, the CPU 101 reads it from the memory 102 and adds it to the 'mdat' box. Proceed to S157.

S157で符号化画像1のデータを’mdat’ボックスに格納する。先のS106のループ1回目で、分割画像1のデータはメモリ102に保存されているので、CPU101はこれをメモリ102から読み出し、‘mdat’ボックスに追記する。これを符号化画像Nまで繰り返して符号化画像1-Nをすべて’mdat’ボックスに追記する。このようなステップでCPU101はHEIFファイルを構築する。 In S157, data of encoded image 1 is stored in the 'mdat' box. Since the data of the divided image 1 has been saved in the memory 102 in the first loop of the previous S106, the CPU 101 reads this from the memory 102 and adds it to the 'mdat' box. This is repeated up to encoded image N, and all encoded images 1-N are added to the 'mdat' box. The CPU 101 constructs the HEIF file in such steps.

以上の処理により、図2のようなHEIFフォーマットでHDR画像を記録媒体120に記録することができる。 Through the above processing, the HDR image can be recorded on the recording medium 120 in the HEIF format as shown in FIG.

<HDR画像の再生>
次に、記録媒体120にHEIFフォーマットで記録されたHDR画像ファイルを再生する際の撮像装置100での処理について説明する。なお、本実施形例では、撮像装置100で再生する場合について説明するが、撮像部を有さない画像処理装置において、記録媒体120に記録されたHEIFフォーマットで記録されたHDR画像を再生する場合に、同様の処理を実現するようにしてもよい。
<Playback of HDR image>
Next, processing in the imaging device 100 when reproducing an HDR image file recorded in the HEIF format on the recording medium 120 will be described. In the present embodiment, the case of reproduction by the imaging apparatus 100 will be described, but the case of reproducing an HDR image recorded in the recording medium 120 in HEIF format in an image processing apparatus that does not have an imaging unit. Alternatively, similar processing may be implemented.

図7を用いて、主画像がオーバーレイ画像時のHEIFの再生(表示)処理について説明する。 HEIF playback (display) processing when the main image is an overlay image will be described with reference to FIG.

ステップS701で、CPU101は、記録媒体制御部119を使用して、記録媒体120に存在する指定ファイルの先頭部分をメモリ102に読み出す。そして、読み出したファイルの先頭部分に、正しい構造のファイルタイプボックスが存在するか、さらに、その中のブランドに、HEIFを表す’mif1’が存在するかをチェックする。 In step S<b>701 , the CPU 101 uses the recording medium control unit 119 to read the head portion of the specified file existing on the recording medium 120 into the memory 102 . Then, it checks whether there is a file type box with a correct structure at the beginning of the read file, and whether 'mif1' representing HEIF exists in the brand therein.

また、独自のファイル構造に対応したブランドを記録してある場合、そのブランドの存在チェックを行う。そのブランドが特定の構造を保証する限りにおいて、このブランドのチェックにより、これ以降のいくつかの構造チェック、例えば、ステップS703、ステップS704、を省略することも可能である。 Also, if a brand corresponding to a unique file structure is recorded, the presence of that brand is checked. As long as the brand guarantees a specific structure, this brand check may also omit some further structure checks, eg steps S703, S704.

ステップS702で、CPU101は、記録媒体120から指定ファイルのメタデータボックスをメモリ102に読み出す。 In step S<b>702 , the CPU 101 reads the metadata box of the specified file from the recording medium 120 to the memory 102 .

ステップS703で、CPU101は、ステップS702で読み出したメタデータボックスからハンドラボックスを探し、構造をチェックする。HEIFの場合、ハンドラタイプは’pict’でなければならない。 In step S703, the CPU 101 searches for the handler box from the metadata box read in step S702 and checks the structure. For HEIF, the handler type must be 'pict'.

ステップS704で、CPU101は、ステップS702で読み出したメタデータボックスからデータ情報ボックスを探し、構造をチェックする。本実施例では、同一ファイル内にデータが存在することを前提としているため、データエントリURLボックスに、そのむねを表すフラグが立っていることをチェックする。 At step S704, the CPU 101 searches the data information box from the metadata box read at step S702 and checks the structure. In this embodiment, it is assumed that the data exists in the same file, so it is checked whether the data entry URL box is flagged.

ステップS705で、CPU101は、ステップS702で読み出したメタデータボックスからプライマリアイテムボックスを探し、主画像のアイテムIDを取得する。 In step S705, the CPU 101 searches for the primary item box from the metadata box read in step S702, and acquires the item ID of the main image.

ステップS706で、CPU101は、ステップS702で読み出したメタデータボックスからアイテム情報ボックスを探し、ステップS705で取得した主画像のアイテムIDに対応したアイテム情報エントリを取得する。上述のHDR画像の撮影処理により記録されたHEIF形式の画像ファイルの場合、オーバーレイ情報が主画像として指定されていることになる。つまり、主画像のアイテムIDに対応したアイテム情報エントリには、そのアイテムタイプがオーバーレイを表す‘iovl’となっている。 In step S706, the CPU 101 searches for an item information box from the metadata box read out in step S702, and obtains an item information entry corresponding to the item ID of the main image obtained in step S705. In the case of a HEIF format image file recorded by the above-described HDR image capturing process, overlay information is specified as the main image. That is, in the item information entry corresponding to the item ID of the main image, the item type is 'iovl' representing overlay.

ステップS707で、CPU101は、オーバーレイ画像作成処理を実行する。これについては、図8を用いて、後に説明する。 In step S707, the CPU 101 executes overlay image creation processing. This will be explained later using FIG.

ステップS708で、CPU101は、ステップS707で作成したオーバーレイ画像を、表示制御部115を経由して、表示部116に表示する。 In step S<b>708 , the CPU 101 displays the overlay image created in step S<b>707 on the display unit 116 via the display control unit 115 .

なお、作成したオーバーレイ画像を表示する際には、画像の色空間情報を指定する必要があることがある。画像の色空間情報は、色空間プロパティ’colr’のcolour_primariesで色域が、transfer_characteristicsで変換特性(ガンマ相当)が指定されているので、それらの値を用いる。HDR画像の例として、色域がRec.ITU-R BT.2020、変換特性がRec.ITU-R BT.2100(PQ)、などが用いられる。 When displaying the created overlay image, it may be necessary to specify the color space information of the image. For the color space information of the image, since the color gamut is specified by color_primaries of the color space property 'colr' and the conversion characteristics (equivalent to gamma) are specified by transfer_characteristics, those values are used. As an example of an HDR image, if the color gamut is Rec. ITU-R BT. 2020, the conversion characteristic is Rec. ITU-R BT. 2100 (PQ), etc. are used.

また、アイテムプロパティコンテナボックスに、’MDCV’、’CLLI’などのHDR用メタデータが存在する場合、それを使用することも可能である。 Also, if HDR metadata such as 'MDCV' and 'CLLI' exists in the item property container box, it is also possible to use it.

次に、図8を用いて、オーバーレイ画像作成処理について説明する。 Next, overlay image creation processing will be described using FIG.

ステップS801で、CPU101は、オーバーレイ画像のプロパティ取得処理を実行する。これについては、図9を用いて、後に説明する。 In step S801, the CPU 101 executes overlay image property acquisition processing. This will be explained later with reference to FIG.

ステップS802で、CPU101は、オーバーレイ画像のオーバーレイ情報取得処理を実行する。オーバーレイ情報は、‘idat‘ボックスに記録されているので、‘idat‘ボックスに格納されているデータを取得することになる。 In step S802, the CPU 101 executes overlay information acquisition processing for an overlay image. Since the overlay information is recorded in the 'idat' box, the data stored in the 'idat' box is obtained.

オーバーレイ情報には、オーバーレイ画像の画像サイズ(output_width、output_heightパラメータ)、オーバーレイ画像を構成する個々の画像アイテム(分割画像アイテム)の位置情報(horizontal_offset、vertical_offset)、などが存在する。 The overlay information includes the image size of the overlay image (output_width, output_height parameters), position information (horizontal_offset, vertical_offset) of individual image items (divided image items) that make up the overlay image, and the like.

オーバーレイ情報は、アイテムタイプがオーバーレイ’iovl’である画像アイテムの、画像アイテムデータ扱いである。 The overlay information is image item data handling of an image item whose item type is overlay 'iovl'.

この取得処理については、図10を用いて、後に説明する。 This acquisition processing will be described later with reference to FIG.

ステップS803で、CPU101は、分割画像アイテムのすべてのアイテムID取得処理を実行する。これについては、図11を用いて、後に説明する。 In step S803, the CPU 101 executes item ID acquisition processing for all divided image items. This will be explained later using FIG.

ステップS804で、CPU101は、ステップS802で取得したオーバーレイ情報のオーバーレイ画像サイズを用いて、そのサイズの画像データを格納するメモリを確保する。このメモリ領域をキャンバスと呼ぶこととする。 In step S804, the CPU 101 uses the overlay image size of the overlay information acquired in step S802 to secure memory for storing image data of that size. This memory area is called a canvas.

ステップS805で、CPU101は、分割画像カウンタnを0に初期化する。 In step S805, the CPU 101 initializes a divided image counter n to zero.

ステップS806で、CPU101は、分割画像カウンタnが分割画像アイテム数と等しいかチェックする。等しい場合、ステップS2210に進む。等しくない場合、ステップS807に進む。 In step S806, the CPU 101 checks whether the split image counter n is equal to the number of split image items. If so, proceed to step S2210. If not, proceed to step S807.

ステップS807で、CPU101は、n番目の分割画像アイテムに関して、1個の画像アイテムの画像作成処理を実行する。これについては、図12を用いて、後に説明する。 In step S807, the CPU 101 executes image creation processing for one image item with respect to the n-th divided image item. This will be explained later using FIG.

ステップS808で、CPU101は、ステップS807で作成した、n番目の分割画像アイテムの画像(分割画像)を、ステップS802で取得したオーバーレイ情報に従い、ステップS804で確保したキャンバス上に配置する。 In step S808, the CPU 101 arranges the image (divided image) of the n-th divided image item created in step S807 on the canvas secured in step S804 according to the overlay information acquired in step S802.

オーバーレイでは、オーバーレイを構成する分割画像は、キャンバス上の任意の位置に配置することが可能であり、その位置はオーバーレイ情報に記述されている。しかし、オーバーレイ画像の外側は表示対象外である。そのため、ここで、分割画像をキャンバスに配置する際に、分割画像の符号化領域のうち、オーバーレイ画像の領域と重複する領域、すなわち、分割画像の再生領域、のみを配置するようにする。 In the overlay, the split images that make up the overlay can be placed at arbitrary positions on the canvas, and the positions are described in the overlay information. However, the outside of the overlay image is out of display. Therefore, here, when arranging the divided images on the canvas, only the area overlapping the area of the overlay image, ie, the reproduction area of the divided image, is arranged among the coding areas of the divided images.

以下、図13を用いて、説明する。 Description will be made below with reference to FIG. 13 .

座標系は、オーバーレイ画像の左上を原点(0,0)とし、X座標は右方向に増加、Y座標は下方向に増加するとする。 The coordinate system assumes that the upper left corner of the overlay image is the origin (0, 0), the X coordinate increases rightward, and the Y coordinate increases downward.

オーバーレイ画像の大きさを、幅Wo、高さHoとする(0<Wo、0<Ho)。 The size of the overlay image is width Wo and height Ho (0<Wo, 0<Ho).

従って、オーバーレイ画像は、左上の座標が(0,0)で、右下の座標が(Wo-1、Ho-1)である。 Therefore, the overlay image has coordinates (0, 0) in the upper left and coordinates (Wo-1, Ho-1) in the lower right.

また、分割画像の大きさを、幅Wn、高さHnとする(0<Wn、0<Hn)。 The size of the divided image is assumed to be width Wn and height Hn (0<Wn, 0<Hn).

分割画像の左上の位置を、(Xn、Yn)とする。 Let (Xn, Yn) be the upper left position of the divided image.

従って、分割画像は、左上座標が(Xn、Yn)、右下座標が(Xn+Wn-1、Yn+Hn-1)である。 Therefore, the divided image has upper left coordinates (Xn, Yn) and lower right coordinates (Xn+Wn-1, Yn+Hn-1).

分割画像における、オーバーレイ画像(キャンバス)との重複領域は、以下の方法で求めることができる。 The overlapping area of the divided image with the overlay image (canvas) can be obtained by the following method.

以下の場合は、重複領域が存在しない場合である。
Wo-1<Xn(分割画像の左端が、オーバーレイ画像の右端より右)
Xn+Wn-1<0(分割画像の右端が、オーバーレイ画像の左端より左)
Ho-1<Yn(分割画像の上端が、オーバーレイ画像の下端より下)
Yn+Hn-1<0(分割画像の下端が、オーバーレイ画像の上端より上)
この場合、この画像は、処理対象外となる。
The following case is a case where there is no overlapping area.
Wo-1<Xn (the left edge of the split image is to the right of the right edge of the overlay image)
Xn+Wn-1<0 (the right edge of the split image is left of the left edge of the overlay image)
Ho-1<Yn (the top edge of the split image is below the bottom edge of the overlay image)
Yn+Hn-1<0 (the bottom edge of the divided image is above the top edge of the overlay image)
In this case, this image is excluded from processing.

また、以下の場合、分割画像全体が、重複領域となる。
0<=Xnかつ(Xn+Wn-1)<=(Wo-1)かつ0<=Ynかつ(Yn+Hn-1)<=(Ho-1)
この場合、分割画像全体を、キャンバス上の指定位置(Xn、Yn)に配置する。
Also, in the following cases, the entire divided image becomes the overlapping area.
0<=Xn and (Xn+Wn-1)<=(Wo-1) and 0<=Yn and (Yn+Hn-1)<=(Ho-1)
In this case, the entire divided image is arranged at the specified position (Xn, Yn) on the canvas.

上記以外の場合、分割画像の一部が配置対象となる。
重複領域の左上座標を(Xl、Yt)、右下座標を(Xr、Yb)とする。
左端Xlは、以下の通り。
if(0<=Xn)
Xl=Xn;
else
Xl=0;
右端Xrは、以下の通り。
if(Xn+Wn-1<=Wo-1)
Xr=Xn+Wn-1;
else
Xr=Wo-1;
上端Ytは、以下の通り。
if(0<=Yn)
Yt=Yn;
else
Yt=0;
下端Ybは、以下の通り。
if(Yn+Hn-1<=Ho-1)
Yb=Yn+Hn-1;
else
Yb=Ho-1;
この重複領域の大きさは、幅Xr-Xl+1、高さYb-Yt+1、である。
In cases other than the above, part of the divided image becomes the layout target.
Assume that the upper left coordinates of the overlapping area are (Xl, Yt) and the lower right coordinates are (Xr, Yb).
The left end Xl is as follows.
if (0<=Xn)
Xl=Xn;
else
Xl = 0;
The right end Xr is as follows.
if (Xn+Wn-1<=Wo-1)
Xr=Xn+Wn−1;
else
Xr = Wo-1;
The upper end Yt is as follows.
if (0<=Yn)
Yt=Yn;
else
Yt = 0;
The lower end Yb is as follows.
if (Yn+Hn-1<=Ho-1)
Yb = Yn + Hn-1;
else
Yb = Ho-1;
The size of this overlapping region is Xr-Xl+1 in width and Yb-Yt+1 in height.

この重複領域の左上座標(Xl、Yt)、右下座標(Xr、Yb)は、前述のように、キャンバスの左上を原点(0,0)とした座標系である。 The upper left coordinates (Xl, Yt) and lower right coordinates (Xr, Yb) of this overlapping area are, as described above, a coordinate system with the upper left corner of the canvas as the origin (0, 0).

重複領域の左上座標(Xl、Yt)を、分割画像の左上を原点とする座標系で表すと、以下のようになる。
Xl’=Xl-Xn;
Yt’=Yt-Yn;
The upper left coordinates (Xl, Yt) of the overlapping area are expressed in a coordinate system with the origin at the upper left of the divided image as follows.
Xl′=Xl−Xn;
Yt′=Yt−Yn;

まとめると、以下のようになる。 In summary, it is as follows.

分割画像の左上から(Xl’、Yt’)離れた位置から幅(Xr-Xl+1)、高さ(Yb-Yt+1)の矩形を切り出し、キャンバスの(Xl、Yt)の位置に配置する。 A rectangle with a width of (Xr-Xl+1) and a height of (Yb-Yt+1) is cut out from a position (Xl', Yt') away from the upper left of the divided image, and placed at a position of (Xl, Yt) on the canvas.

これにより、分割画像のうちの再生領域を、キャンバス上の適切な位置に配置することが可能である。 Thereby, it is possible to arrange the reproduction area of the divided image at an appropriate position on the canvas.

ステップS809で、CPU101は、分割画像カウンタnに1加算し、ステップS806に戻る。 In step S809, the CPU 101 adds 1 to the divided image counter n, and returns to step S806.

ステップS810で、CPU101は、ステップS801で取得したオーバーレイ画像のプロパティ中に回転プロパティ’irot’が存在するか調べ、存在する場合、回転角を調べる。回転プロパティが存在しない場合、または、回転プロパティが存在するが回転角が0の場合、処理を終了する。回転プロパティが存在し、回転角が0以外の場合、ステップS811に進む。 In step S810, the CPU 101 checks whether the rotation property 'irot' exists in the properties of the overlay image acquired in step S801, and if it exists, checks the rotation angle. If the rotation property does not exist, or if the rotation property exists but the rotation angle is 0, the process ends. If the rotation property exists and the rotation angle is other than 0, the process proceeds to step S811.

ステップS811で、CPU101は、ステップS806~ステップS809で作成したキャンバスの画像を、ステップS810で取得した角度だけ回転し、それを作成画像とする。 In step S811, the CPU 101 rotates the canvas image created in steps S806 to S809 by the angle obtained in step S810, and uses it as a created image.

これにより、オーバーレイ画像を作成することが可能である。 This makes it possible to create an overlay image.

なお、上記説明では、ステップS806~ステップS809の処理を分割画像数分ループで繰り返しているが、並行処理可能な環境では、ステップS806~ステップS809の処理を、分割画像数分並行処理しても良い。 In the above description, the processing of steps S806 to S809 is repeated in a loop for the number of divided images. good.

次に、図9を用いて、画像アイテムのプロパティ取得処理について説明する。 Next, image item property acquisition processing will be described with reference to FIG.

ステップS901で、CPU101は、メタデータボックス内のアイテムプロパティボックス内のアイテムプロパティ関連ボックスから、指定画像アイテムIDのエントリを探し、そこに格納されている、プロパティインデックスの配列を取得する。 In step S901, the CPU 101 searches for the entry of the designated image item ID from the item property related box within the item property box within the metadata box, and obtains the property index array stored therein.

ステップS902で、CPU101は、配列カウンタnを0に初期化する。 At step S902, the CPU 101 initializes an array counter n to zero.

ステップS903で、CPU101は、配列カウンタnが配列要素数と等しいかチェックする。等しい場合、終了する。等しくない場合、ステップS904に進む。 At step S903, the CPU 101 checks whether the array counter n is equal to the number of array elements. If equal, exit. If not, proceed to step S904.

ステップS904で、CPU101は、メタデータボックス内のアイテムプロパティボックス内のアイテムプロパティコンテナボックスから、配列のn番目の要素のインデックスのプロパティを取得する。 In step S904, the CPU 101 acquires the index property of the n-th element of the array from the item property container box within the item property box within the metadata box.

ステップS905で、CPU101は、配列カウンタnに1加算し、ステップS903に戻る。 In step S905, the CPU 101 adds 1 to the array counter n, and returns to step S903.

次に、図10を用いて、画像アイテムのデータ取得処理について説明する。 Next, image item data acquisition processing will be described with reference to FIG.

ステップS1001で、CPU101は、メタデータボックス内のアイテムロケーションボックスから、指定画像アイテムIDのエントリを探し、オフセット基準(construction_method)、オフセット、長さ、を取得する。 In step S1001, CPU 101 searches the entry for the specified image item ID from the item location box within the metadata box and obtains the offset criterion (construction_method), offset, and length.

ステップS1002で、CPU101は、ステップS1001で取得したオフセット基準をチェックする。オフセット基準は、値0がファイルの先頭からのオフセット、値1がアイテムデータボックス内のオフセット、を表す。オフセット基準が0の場合、ステップS1003に進む。オフセット基準が1の場合、ステップS1004に進む。 In step S1002, CPU 101 checks the offset reference acquired in step S1001. The offset reference has a value of 0 representing an offset from the beginning of the file and a value of 1 representing an offset within the item data box. If the offset reference is 0, the process proceeds to step S1003. If the offset reference is 1, go to step S1004.

ステップS1003で、CPU101は、ファイルの先頭からオフセットバイトの位置から長さバイト分を、メモリ102に読み出す。 In step S1003, the CPU 101 reads the length bytes from the head of the file to the memory 102 from the offset byte position.

ステップS1004で、CPU101は、メタデータボックス内のアイテムデータボックスのデータ部の先頭からオフセットバイトの位置から長さバイト分を、メモリ102に読み出す。 In step S1004, the CPU 101 reads into the memory 102 the length bytes from the offset byte position from the beginning of the data portion of the item data box in the metadata box.

次に、図11を用いて、主画像を構成する画像のアイテムID取得処理について説明する。 Next, with reference to FIG. 11, the item ID acquisition processing of the images forming the main image will be described.

ステップS1101で、CPU101は、メタデータボックス内のアイテム参照ボックスから、参照タイプが‘ding’で、参照元アイテムIDが主画像のアイテムIDであるエントリを探す。 In step S1101, the CPU 101 searches the item reference box in the metadata box for an entry whose reference type is 'ding' and whose referencing item ID is the item ID of the main image.

ステップS1102で、CPU101は、ステップS1101で取得したエントリの、参照先アイテムIDの配列を取得する。 In step S1102, the CPU 101 obtains an array of reference item IDs of the entry obtained in step S1101.

次に、図12を用いて、1個の符号化画像アイテムの画像作成処理について説明する。 Next, image creation processing for one encoded image item will be described with reference to FIG.

ステップS1201で、CPU101は、その画像アイテムのプロパティを取得する。これは、図9を用いて、説明済みである。 In step S1201, CPU 101 acquires properties of the image item. This has already been explained using FIG.

ステップS1202で、CPU101は、その画像アイテムのデータを取得する。これは、図10を用いて、説明済みである。画像アイテムのデータとは、符号化された画像データである。 In step S1202, CPU 101 acquires the data of the image item. This has already been explained using FIG. Image item data is encoded image data.

ステップS1203で、CPU101は、ステップS1201で取得したプロパティのうちのデコーダ構成・初期化データを用いて、デコーダを初期化する。 In step S1203, the CPU 101 initializes the decoder using the decoder configuration/initialization data among the properties acquired in step S1201.

ステップS1204で、CPU101は、ステップS1202で取得した符号化された画像データをデコーダでデコードし、デコード結果を取得する。 In step S1204, the CPU 101 decodes the encoded image data obtained in step S1202 using a decoder to obtain the decoding result.

ステップS1205で、CPU101は、ピクセル形式変換が必要かどうかチェックする。 In step S1205, CPU 101 checks whether pixel format conversion is required.

不要な場合、終了する。必要な場合、ステップS1206に進む。 Exit if not needed. If necessary, go to step S1206.

デコーダの出力データのピクセル形式と、表示装置がサポートしている画像のピクセル形式が異なる場合、ピクセル形式変換が必要である。 Pixel format conversion is required when the pixel format of the output data of the decoder and the pixel format of the image supported by the display device are different.

例えば、デコーダの出力データのピクセル形式がYCbCr(輝度色差)形式であり、表示装置の画像のピクセル形式がRGB形式の場合、YCbCr形式からRGB形式へのピクセル形式変換が必要である。また、同じYCbCr形式でも、ビット深度(8ビット、10ビット、など)や色差サンプル(4:2:0、4:2:2、など)が異なる場合も、ピクセル形式変換が必要である。 For example, if the pixel format of the output data of the decoder is YCbCr (luminance-chrominance) format and the pixel format of the image of the display device is RGB format, pixel format conversion from YCbCr format to RGB format is required. Pixel format conversion is also required for the same YCbCr format, but with different bit depths (8 bits, 10 bits, etc.) and color difference samples (4:2:0, 4:2:2, etc.).

なお、色空間情報プロパティ’colr’のmatrix_coefficientsで、RGB形式からYCbCr形式へ変換する際の係数が指定されているので、YCbCr形式からRGB形式へ変換するためには、その係数の逆数を用いればよい。 The matrix_coefficients of the color space information property 'colr' specifies the coefficients for conversion from RGB format to YCbCr format. good.

ステップS1206で、CPU101は、ステップS1204で取得したデコーダ出力データを、所望のピクセル形式に変換する。 In step S1206, CPU 101 converts the decoder output data obtained in step S1204 into a desired pixel format.

これにより、指定された符号化画像アイテムの画像を作成することが可能である。 This makes it possible to create an image of the specified encoded image item.

以上の処理により、記録媒体120に図2のようなHEIFフォーマットで記録されたHDR画像を再生することができる。 Through the above processing, the HDR image recorded in the HEIF format as shown in FIG. 2 on the recording medium 120 can be reproduced.

<その他の実施形態>
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
<Other embodiments>
Although the present invention has been described above based on the embodiments, the present invention is not limited to these embodiments, and various forms within the scope of the present invention are also included in the present invention. .

また、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記憶媒体に記録される。 Further, the function of the above embodiment may be used as a control method, and the control method may be executed by the image processing apparatus. Alternatively, a program having the functions of the above embodiments may be used as a control program, and the control program may be executed by a computer provided in the image processing apparatus. Note that the control program is recorded in, for example, a computer-readable storage medium.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium. It can also be realized by processing in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

Claims (22)

撮像センサにより画像を撮影して、撮影した画像を記録する撮像装置であって、
前記撮像センサにより撮影して得られた画像データを符号化する符号化手段と、
前記撮像センサより撮影して得られた画像データのうち、再生対象となる再生領域よりも大きい領域を符号化領域として設定し、前記符号化領域の画像データを前記符号化手段により符号化し、前記符号化された画像データを所定の記録フォーマットで記録媒体に記録するように制御する制御手段と、を有し、
前記制御手段は、前記撮像センサにより画像データを取得可能なセンサ画像領域のうち、一部の領域を前記符号化領域として設定し、当該符号化領域の画像データを前記符号化手段により符号化するように制御し、
前記センサ画像領域において、符号化開始/終了が可能な位置に制約があり、
前記制御手段は、前記センサ画像領域において、前記再生領域と前記符号化開始/終了が可能な位置とに基づいて、前記符号化領域の開始位置及び終了位置を設定する、
ことを特徴とする撮像装置。
An imaging device that captures an image with an imaging sensor and records the captured image,
encoding means for encoding image data captured by the imaging sensor;
An area larger than a reproduction area to be reproduced is set as an encoding area in the image data obtained by shooting with the imaging sensor, and the image data in the encoding area is encoded by the encoding means, a control means for controlling recording of encoded image data on a recording medium in a predetermined recording format ;
The control means sets a part of a sensor image area from which image data can be acquired by the imaging sensor as the encoding area, and encodes the image data of the encoding area by the encoding means. control like
In the sensor image area, there are restrictions on the positions where encoding can be started/finished,
The control means sets a start position and an end position of the coding region based on the reproduction region and a position where the coding can be started/finished in the sensor image region.
An imaging device characterized by:
記制御手段は、前記符号化領域の画像データを、複数の分割画像データに分割し、前記複数の分割画像データを前記符号化手段によりそれぞれ符号化し、前記符号化された複数の分割画像データを所定の記録フォーマットで1つの画像ファイルとして前記記録媒体に記録するように制御することを特徴とする請求項1に記載の撮像装置。 The control means divides the image data of the encoding region into a plurality of divided image data, encodes the plurality of divided image data by the encoding means, and converts the encoded divided images into a plurality of divided images. 2. The imaging apparatus according to claim 1, wherein control is performed to record data as one image file on said recording medium in a predetermined recording format. 記録サイズを設定するための設定手段を有し、
記制御手段は、前記設定手段により設定された記録サイズに応じて、前記再生領域および前記符号化領域を決定し、
前記再生領域のサイズは、前記設定された記録サイズに対応する領域であることを特徴とする請求項1に記載の撮像装置。
Having setting means for setting the recording size,
the control means determines the reproduction area and the encoding area according to the recording size set by the setting means;
2. The imaging apparatus according to claim 1, wherein the size of said reproduction area is an area corresponding to said set recording size.
前記所定の記録フォーマットは、記録される画像データのうち、再生対象とする領域を指定可能な記録フォーマットであり、
記制御手段は、記録される前記符号化領域よりも小さい前記再生領域を、再生対象の領域として指定することを特徴とする請求項1に記載の撮像装置。
the predetermined recording format is a recording format capable of designating an area to be played back from image data to be recorded;
2. The imaging apparatus according to claim 1, wherein said control means designates said reproduction area smaller than said encoded area to be recorded as an area to be reproduced.
記制御手段は、前記再生領域の画像データに対応するサムネイル画像データを前記符号化手段により符号化し、前記符号化したサムネイル画像データを前記符号化した複数の分割画像データと共に前記所定の記録フォーマットで1つの画像ファイルとして記録するように制御することを特徴とする請求項1に記載の撮像装置。 The control means encodes the thumbnail image data corresponding to the image data in the reproduction area by the encoding means, and encodes the encoded thumbnail image data together with the encoded plurality of divided image data in the predetermined recording. 2. The imaging apparatus according to claim 1, wherein control is performed to record as one image file in a format. 前記符号化手段は、HEVC(High Efficiency VideoCoding)規格に従って前記画像データを圧縮符号化することを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein said encoding means compression-encodes said image data according to the HEVC (High Efficiency Video Coding) standard. 前記所定の記録フォーマットは、HEIF(High Efficiency Image File Format)であることを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein the predetermined recording format is HEIF (High Efficiency Image File Format). 前記所定の記録フォーマットは、HEIF(High Efficiency Image File Format)であり、前記制御手段は、前記複数の分割画像データを、それぞれ画像アイテムとして記録し、前記複数の分割画像データから構成される画像を導出画像アイテムとして記録するように制御することを特徴とする請求項2に記載の撮像装置。 The predetermined recording format is HEIF (High Efficiency Image File Format), and the control means records the plurality of divided image data as image items, respectively, and records the plurality of divided image data. 3. The imaging device according to claim 2, wherein the image is recorded as a derived image item . 記制御手段は、前記複数の分割画像データを、オーバーレイ形式の導出画像アイテムとして記録することを特徴とする請求項に記載の撮像装置。 9. The imaging apparatus according to claim 8 , wherein said control means records said plurality of divided image data as derived image items in an overlay format. 記制御手段は、前記導出画像アイテムにおいて、前記再生領域のみが再生されるように、再生領域を指定することを特徴とすることを特徴とする請求項またはに記載の撮像装置。 10. The imaging apparatus according to claim 8 , wherein the control means designates the reproduction area so that only the reproduction area is reproduced in the derived image item. 記制御手段は、前記導出画像アイテムにおいて、前記複数の分割画像データが、前記符号化領域に対応する位置関係となるように配置されるように、前記複数の分割画像データそれぞれの位置情報を記録するように制御することを特徴とする請求項乃至10のいずれか1項に記載の撮像装置。 The control means controls position information of each of the plurality of divided image data so that the plurality of divided image data are arranged in the derived image item so as to have a positional relationship corresponding to the encoding region. 11. The imaging apparatus according to any one of claims 8 to 10 , wherein control is performed so as to record . 記制御手段は、前記複数の分割画像データがそれぞれ重ならない位置となるように前記複数の分割画像データそれぞれの位置情報を記録することを特徴とする請求項11に記載の撮像装置。 12. The imaging apparatus according to claim 11 , wherein said control means records the position information of each of said plurality of divided image data so that said plurality of divided image data do not overlap each other. 前記制御手段は、前記所定の記録フォーマットにおいて、前記導出画像アイテムを主画像として記録することを特徴とする請求項8乃至12のいずれか1項に記載の撮像装置。13. The imaging apparatus according to any one of claims 8 to 12, wherein said control means records said derived image item as a main image in said predetermined recording format. 前記制約における、前記センサ画像領域における符号化開始可能な位置は、前記センサ画像領域の幅または高さ方向において、所定画素数単位の位置であることを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。14. The restriction according to any one of claims 1 to 13, wherein the position where encoding can be started in the sensor image area is a position in units of a predetermined number of pixels in the width or height direction of the sensor image area. 1. The imaging device according to item 1. 前記制約において、前記センサ画像領域の幅及び高さ方向それぞれにおいて、所定画素数単位の位置が前記符号化開始可能な位置として予め決められており、In the constraint, a position in units of a predetermined number of pixels in each of the width and height directions of the sensor image area is predetermined as the position where the encoding can be started;
前記センサ画像領域の幅または高さ方向とで、前記所定画素数が異なる、 The predetermined number of pixels is different in the width or height direction of the sensor image area,
ことを特徴とする請求項14に記載の撮像装置。15. The imaging apparatus according to claim 14, characterized by:
前記所定画素数は、前記高さ方向よりも前記幅方向のほうが大きいことを特徴とする請求項15に記載の撮像装置。16. The imaging apparatus according to claim 15, wherein the predetermined number of pixels is larger in the width direction than in the height direction. 前記制御手段は、前記センサ画像領域内における前記再生領域の開始位置を前記所定画素数で除算したときの商に、前記所定画素数を乗じた位置を、前記符号化領域の開始位置に設定する、ことを特徴とする請求項14に記載の撮像装置。The control means sets a position obtained by multiplying a quotient obtained by dividing a start position of the reproduction area in the sensor image area by the predetermined number of pixels by the predetermined number of pixels as a start position of the encoding area. 15. The imaging device according to claim 14, characterized by: 前記制御手段は、前記センサ画像領域内における前記再生領域の開始位置が、前記センサ画像領域における符号化開始が可能な位置である場合は、前記再生領域の開始位置を前記符号化領域の開始位置に設定することを特徴とする請求項1乃至17のいずれか1項に記載の撮像装置。When the start position of the reproduction area in the sensor image area is a position where encoding can be started in the sensor image area, the control means changes the start position of the reproduction area to the start position of the encoding area. 18. The imaging apparatus according to any one of claims 1 to 17, characterized in that it is set to . 前記制約は、前記センサ画像領域における符号化開始可能な位置の制約である開始位置制約と、前記符号化領域の幅/高さの制約である符号化サイズ制約とが含まれている、ことを特徴とする請求項1乃至18のいずれか1項に記載の撮像装置。wherein the constraints include a start position constraint that is a constraint on a position where encoding can be started in the sensor image area, and an encoding size constraint that is a constraint on the width/height of the encoding area. 19. An imaging device according to any one of claims 1 to 18. 前記制御手段は、前記再生領域の開始位置と前記符号化開始が可能な位置とに基づいて前記符号化領域の開始位置を設定し、前記符号化領域の開始位置と、前記符号化サイズ制約とから、前記符号化領域の終了位置を設定する、ことを特徴とする請求項19に記載の撮像装置。The control means sets the start position of the encoding region based on the start position of the reproduction region and the position where encoding can be started, and sets the start position of the encoding region and the encoding size constraint. 20. The imaging apparatus according to claim 19, wherein the end position of said encoding region is set from . 撮像センサにより撮影した画像を記録する記録装置の制御方法であって、
前記撮影して得られた画像データを符号化する符号化工程と、
前記撮影して得られた画像データのうち、再生対象となる再生領域よりも大きい領域を符号化領域として設定し、前記符号化領域の画像データを前記符号化工程で符号化し、前記符号化された画像データを所定の記録フォーマットで記録媒体に記録するように制御する制御工程と、を有し、
前記制御工程では、前記撮像センサにより画像データを取得可能なセンサ画像領域のうち、一部の領域を前記符号化領域として設定し、当該符号化領域の画像データを前記符号化工程で符号化するように制御し、
前記センサ画像領域において、符号化開始/終了が可能な位置に制約があり、
前記制御工程では、前記センサ画像領域において、前記再生領域と前記符号化開始/終了が可能な位置とに基づいて、前記符号化領域の開始位置及び終了位置を設定する、
ことを特徴とする記録装置の制御方法。
A control method for a recording device that records an image captured by an imaging sensor, comprising:
an encoding step of encoding the image data obtained by the photographing;
An area larger than a reproduction area to be reproduced is set as an encoding area in the image data obtained by shooting, and the image data in the encoding area is encoded in the encoding step, and the encoded image data is encoded. a control step of controlling the image data to be recorded on a recording medium in a predetermined recording format;
In the control step, a part of a sensor image region from which image data can be acquired by the imaging sensor is set as the encoding region, and the image data of the encoding region is encoded in the encoding step. control like
In the sensor image area, there are restrictions on the positions where encoding can be started/finished,
In the control step, in the sensor image area, a start position and an end position of the encoding area are set based on the reproduction area and a position where the encoding can be started/finished.
A method of controlling a recording apparatus, characterized by:
コンピュータを、請求項1乃至20のいずれか1項に記載の撮像装置の各手段として機能させることを特徴とするプログラム。 A program that causes a computer to function as each means of the imaging apparatus according to any one of claims 1 to 20 .
JP2018026308A 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE Active JP7146407B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018026308A JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026308A JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Publications (3)

Publication Number Publication Date
JP2019145918A JP2019145918A (en) 2019-08-29
JP2019145918A5 JP2019145918A5 (en) 2021-03-25
JP7146407B2 true JP7146407B2 (en) 2022-10-04

Family

ID=67772801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026308A Active JP7146407B2 (en) 2018-02-16 2018-02-16 IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE

Country Status (1)

Country Link
JP (1) JP7146407B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947650B (en) * 2021-09-30 2023-04-07 完美世界(北京)软件科技发展有限公司 Animation processing method, animation processing device, electronic equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080432A (en) 2010-10-05 2012-04-19 Sony Computer Entertainment Inc Panoramic image generation device and panoramic image generation method
JP2017139618A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Image data generating apparatus, image data generating method, and program
US20170308116A1 (en) 2016-01-05 2017-10-26 360fly, Inc. Apparel-Mountable Panoramic Camera Systems
JP2018011197A (en) 2016-07-13 2018-01-18 日本電信電話株式会社 Video distribution device, video coding device, video distribution method, video coding method, video distribution program and video coding program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466254B1 (en) * 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080432A (en) 2010-10-05 2012-04-19 Sony Computer Entertainment Inc Panoramic image generation device and panoramic image generation method
US20170308116A1 (en) 2016-01-05 2017-10-26 360fly, Inc. Apparel-Mountable Panoramic Camera Systems
JP2017139618A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Image data generating apparatus, image data generating method, and program
JP2018011197A (en) 2016-07-13 2018-01-18 日本電信電話株式会社 Video distribution device, video coding device, video distribution method, video coding method, video distribution program and video coding program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Davide Concion,High Efficiency Image File Format #WWDC17 Session 513,Apple Inc.,2017年06月,[令和4年2月18日検索], インターネット<https://devstreaming-cdn.apple.com/videos/wwdc/2017/513fzgbviu23l/513/513_high_efficiency_image_file_format.pdf?dl=1>
HEIF-Utility-Native-DLL,liuziangexit,2018年02月07日,[令和4年2月21日検索], インターネット<URL: https://github.com/liuziangexit/HEIF-Utility-Native-DLL/blob/master/EnglishIntro/README.md>
Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 12: Image File Format,INTERNATIONAL STANDARD ISO/IEC 23008-12 ,ISO/IEC,2017年12月

Also Published As

Publication number Publication date
JP2019145918A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP7246855B2 (en) Imaging device, recording device and display control device
JP6630891B2 (en) System and method for encoding and decoding brightfield image files
EP2175644B1 (en) Photographing apparatus and method
US7733385B2 (en) Image file generating apparatus and method, and image file reproducing apparatus and method
JP7100493B2 (en) Display control device and its control method and program
KR101258723B1 (en) Video reproducing device, video recorder, video reproducing method, video recording method, and semiconductor integrated circuit
JP2009225361A (en) Recording device and recording method, and editing device and editing method
JP7146407B2 (en) IMAGING DEVICE, DISPLAY CONTROL DEVICE, AND CONTROL METHOD OF DISPLAY CONTROL DEVICE
US10200616B2 (en) Image processing device that performs image rotation processing, method of controlling the same, and storage medium
US20140178039A1 (en) Recording apparatus and control method thereof
JP5942422B2 (en) Information processing apparatus, control method thereof, and program
US20090279844A1 (en) Recording apparatus, recording method, recording program, and integrated circuit
JP2015192227A (en) Imaging apparatus, control method thereof, and program
US20240095387A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20130170814A1 (en) Image Pickup Device and Control Method Thereof
CN104349062A (en) Method of filming high dynamic range videos
JP7214538B2 (en) Imaging device and recording control method
JP4809451B2 (en) Image file generating apparatus and method, and image file reproducing apparatus and method
JP2007081463A (en) Image processing apparatus and method
KR20220108063A (en) Data processing apparatus, data processing method, and program
JP2010057000A (en) Image recording device, and image recording method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R151 Written notification of patent or utility model registration

Ref document number: 7146407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151