JP7457506B2 - Image file generation device, image file generation method, image file playback device, image file playback method, and program - Google Patents

Image file generation device, image file generation method, image file playback device, image file playback method, and program Download PDF

Info

Publication number
JP7457506B2
JP7457506B2 JP2020000990A JP2020000990A JP7457506B2 JP 7457506 B2 JP7457506 B2 JP 7457506B2 JP 2020000990 A JP2020000990 A JP 2020000990A JP 2020000990 A JP2020000990 A JP 2020000990A JP 7457506 B2 JP7457506 B2 JP 7457506B2
Authority
JP
Japan
Prior art keywords
image
image file
images
data structure
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020000990A
Other languages
Japanese (ja)
Other versions
JP2021057871A (en
JP2021057871A5 (en
Inventor
昌敬 深田
英司 今尾
ドゥヌアル フランク
マゼ フレデリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN202080049066.3A priority Critical patent/CN114072847A/en
Priority to EP20834759.1A priority patent/EP3992916A4/en
Priority to PCT/JP2020/022819 priority patent/WO2021002165A1/en
Priority to KR1020227002311A priority patent/KR20220027982A/en
Publication of JP2021057871A publication Critical patent/JP2021057871A/en
Priority to US17/562,711 priority patent/US20220121704A1/en
Publication of JP2021057871A5 publication Critical patent/JP2021057871A5/en
Application granted granted Critical
Publication of JP7457506B2 publication Critical patent/JP7457506B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、1つ以上の画像のデータを画像ファイルに格納するための技術に関する。 The present invention relates to techniques for storing data for one or more images in an image file.

MPEG(Moving Pictures Experts Group)では、単一の静止画、複数の静止画、又は、画像シーケンス(静止画のバースト等)を1つのファイルに格納するための標準化を行っている。本標準は、HEIF(High Efficiency Image File Format)と呼ばれ、画像と画像シーケンスの交換、編集、及び表示を可能とする。またHEIFは、ISOベースメディアファイルフォーマット(ISOBMFF:ISO Base Media File Format)で定められるツールを基に拡張された格納フォーマットである。HEIFは、ISO/IEC23008―12(Part12)において「Image File Format」という名称で標準化が進行している。またHEIFは、メタデータを含む規範的な構造を定めており、メタデータと画像を関連付けする方法、特定の形式のメタデータの構成について定めている。特許文献1には、HEIFに準拠した画像ファイルに派生画像を格納することが記載されている。 MPEG (Moving Pictures Experts Group) has standardized the storage of a single still image, multiple still images, or a sequence of images (such as a burst of still images) in a single file. This standard is called HEIF (High Efficiency Image File Format) and allows for the exchange, editing, and display of images and image sequences. Further, HEIF is a storage format expanded based on a tool defined by the ISO Base Media File Format (ISOBMFF). HEIF is being standardized under the name "Image File Format" in ISO/IEC23008-12 (Part 12). HEIF also defines a normative structure for including metadata, how metadata is associated with images, and the organization of specific types of metadata. Patent Document 1 describes storing a derived image in an image file compliant with HEIF.

一方、カメラやスマートフォン等、画像生成機能を備えた画像生成装置は近年様々な機能を有しており、撮影日時や、画像サイズ、画像品質だけでなく、撮影時の情報や、撮影した画像データのメタデータなど様々な情報を生成可能となっている。例えば、撮影時の被写体やシーンを識別する情報、各種の撮影設定情報などが画像データとともに生成される。このような画像データに関する情報は、メタデータとして画像データと一緒にHEIFファイルに格納することができる。また、複数の画像を自動的に順番に切り替えながら表示する機能を持つアプリケーションがある。多くのアプリケーションにおいて、この機能はスライドショーと呼ばれる。HEIFでは、複数の画像データを格納してスライドショーでの表示を意図する画像ファイルを作成することも可能とされている。 On the other hand, image generation devices equipped with image generation functions, such as cameras and smartphones, have a variety of functions in recent years. It is possible to generate various information such as metadata. For example, information for identifying the subject and scene at the time of shooting, various shooting setting information, etc. are generated along with the image data. Information regarding such image data can be stored as metadata in the HEIF file together with the image data. There are also applications that have a function to display multiple images while automatically switching them in sequence. In many applications, this feature is called a slideshow. With HEIF, it is also possible to store a plurality of image data and create an image file intended to be displayed in a slide show.

米国特許出願公開第2016/371265号明細書US Patent Application Publication No. 2016/371265

HEIFでは、時間的に連続する静止画(例えば、カメラでバースト撮影した連続写真など)を格納する場合、イメージシーケンスとして格納することが可能な仕様となっている。イメージシーケンスを持つHEIFファイルは、画像を表示するアプリケーションが連続的な表示処理をできるように、動画と同様に、時間的に連続する静止画をHEIFファイルの中にビデオトラックとして定義する必要がある。ゆえに、任意の画像に表示時間(期間)を付与して順番に自動表示するスライドショーの設定を格納するHEIFファイルの作成処理は煩雑になり得る。 HEIF has a specification that allows storing temporally continuous still images (for example, continuous photos shot with a camera in bursts) as an image sequence. A HEIF file with an image sequence needs to define temporally continuous still images as a video track in the HEIF file, just like a video, so that the application that displays the images can perform continuous display processing. . Therefore, the process of creating a HEIF file that stores settings for a slide show in which arbitrary images are automatically displayed in sequence by assigning a display time (period) to them can be complicated.

本発明は上記課題に鑑みてなされたものであり、複数の画像を連続的に表示させるために必要な情報を画像ファイルに格納する処理を効率的に行うことを目的とする The present invention has been made in view of the above problems, and an object of the present invention is to efficiently perform processing for storing information necessary for displaying a plurality of images continuously in an image file.

上記課題を解決するための一手段として、本発明の画像ファイル作成装置は、以下の構成を有する。すなわち、画像を格納する画像データ領域と、前記画像に関する情報であるメタデータを格納するメタデータ領域とを有する構造の所定のイメージファイルフォーマットに従った画像ファイルを生成する画像ファイル生成方法であって、
スライドショーで連続的に表示させる複数の画像を取得することと、
前記複数の画像のグループを記述するグループ化データ構造であって、前記グループがスライドショーの対象であることを示す属性情報と、前記複数の画像のそれぞれを識別するための複数の識別情報と、を含むグループ化データ構造を生成することと、
前記画像データ領域に前記複数の画像を格納し、前記メタデータ領域に前記グループ化データ構造を格納した前記画像ファイルを生成することと、を有する。
As one means for solving the above problems, an image file creation device of the present invention has the following configuration. That is, an image file generation method that generates an image file according to a predetermined image file format having a structure including an image data area for storing an image and a metadata area for storing metadata that is information regarding the image. ,
Obtaining multiple images to be displayed sequentially in a slide show ,
A grouping data structure describing the group of the plurality of images, the grouping data structure including attribute information indicating that the group is a target of a slide show, and a plurality of identification information for identifying each of the plurality of images. generating a grouping data structure containing ;
storing the plurality of images in the image data area and generating the image file in which the grouping data structure is stored in the metadata area .

複数の画像を連続的に表示させるために必要な情報を画像ファイルに格納する処理を効率的に行うことが可能となる。 It becomes possible to efficiently store information necessary for displaying a plurality of images in an image file in an efficient manner.

画像ファイル作成装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image file creation device. 画像ファイル作成処理のフローチャートである。It is a flowchart of image file creation processing. 実施形態1におけるスライドショーのメタデータ作成処理のフローチャートである。7 is a flowchart of slide show metadata creation processing in the first embodiment. 実施形態1における派生画像の記述情報のデータフォーマットの一例を示す図である。7 is a diagram illustrating an example of a data format of descriptive information of a derived image in Embodiment 1. FIG. 実施形態1における派生画像の記述情報のデータフォーマットの別の例を示す図である。7 is a diagram illustrating another example of the data format of descriptive information of a derived image in the first embodiment. FIG. 実施形態1で作成されるHEIFファイルの構造を示す図である。2 is a diagram showing the structure of a HEIF file created in the first embodiment. FIG. 実施形態1で出力されるHEIFファイルの例を示す図である。3 is a diagram showing an example of a HEIF file output in the first embodiment. FIG. 実施形態2におけるスライドショーのメタデータ作成処理のフローチャートである。7 is a flowchart of slide show metadata creation processing in Embodiment 2. FIG. SlideshowEntityToGroupBoxのデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of SlideshowEntityToGroupBox. ImageDurationPropertyのデータフォーマットを示す図である。It is a figure which shows the data format of ImageDurationProperty. ImageLocationPropertyのデータフォーマットを示す図である。FIG. 13 is a diagram showing the data format of ImageLocationProperty. TransitionEffectPropertyのデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of TransitionEffectProperty. SlideShowPropertyのデータフォーマットを示す図である。It is a diagram showing the data format of SlideShowProperty. 実施形態2で作成されるHEIFファイルの構造を示す図である。FIG. 11 is a diagram showing the structure of a HEIF file created in the second embodiment. 実施形態2で出力されるHEIFファイルの例を示す図である。3 is a diagram illustrating an example of a HEIF file output in Embodiment 2. FIG. HEIF標準におけるPrimaryItemBoxのデータフォーマットを示す図である。It is a diagram showing the data format of PrimaryItemBox in the HEIF standard. PrimaryItemBoxデータフォーマットの一例を示す図である。FIG. 3 is a diagram illustrating an example of a PrimaryItemBox data format. PrimaryItemBoxデータフォーマットの別の例を示す図である。FIG. 7 is a diagram illustrating another example of the PrimaryItemBox data format. 実施形態3で出力されるHEIFファイルの例を示す図である。12 is a diagram showing an example of a HEIF file output in Embodiment 3. FIG. 画像ファイルのスライドショー再生処理のフローチャートである。3 is a flowchart of image file slide show playback processing. SlideshowEntityToGroupBoxのデータフォーマットの別の例を示す図である。FIG. 13 is a diagram showing another example of the data format of SlideshowEntityToGroupBox. ImageOverlay派生画像の記述情報のデータフォーマットの一例を示す図である。FIG. 7 is a diagram illustrating an example of a data format of descriptive information of an ImageOverlay derived image. SlideShowTimingPropertyのデータフォーマットを示す図である。It is a figure which shows the data format of SlideShowTimingProperty. TransitionEffectPropertyのデータフォーマットの別の例を示す図である。13 is a diagram showing another example of the data format of TransitionEffectProperty. ImageScalingPropertyのデータフォーマットを示す図である。FIG. 13 is a diagram showing the data format of ImageScalingProperty. ImageScalingPropertyのデータフォーマットの別の例を示す図である。FIG. 7 is a diagram illustrating another example of the data format of ImageScalingProperty. ImageSpatialExtentPropertyのデータフォーマットを示す図である。It is a figure which shows the data format of ImageSpatialExtentProperty. TransitionEffectPropertyのデータフォーマットの別の例を示す図である。It is a figure which shows another example of the data format of TransitionEffectProperty. WipeTransitionEffectPropertyのデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of WipeTransitionEffectProperty. ZoomTransitionEffectPropertyのデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of ZoomTransitionEffectProperty. FadeInTransitionEffectPropertyのデータフォーマットの一例を示す図である。13 is a diagram showing an example of a data format of FadeInTransitionEffectProperty.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

<実施形態1>
[ハードウェア構成]
図1は、画像ファイル作成装置100の構成の一例を示す。画像ファイル作成装置100では、システムバス101にCPU102、システムプログラム実行時の一時記憶装置であるRAM103、システムプログラムが格納される不揮発性記憶装置であるROM104が接続されている。システムプログラムやアプリケーションプログラムが、ROM104からRAM103に読み込まれ、CPU102によって実行される。また、システムバス101には、符号化/復号化部105、メタデータ処理部106、表示部107、ユーザーインターフェース部108、通信制御部109接続されている。システムバス101は、これらの各ブロック間でデータを伝達する。またRAM103は、出力バッファを有し、画像ファイルの作成処理のデータバッファや、画像ファイルに格納するデータの出力先としても使用される。
<Embodiment 1>
[Hardware configuration]
FIG. 1 shows an example of the configuration of an image file creation device 100. In the image file creation device 100, a CPU 102, a RAM 103 which is a temporary storage device when a system program is executed, and a ROM 104 which is a nonvolatile storage device in which the system program is stored are connected to a system bus 101. System programs and application programs are read from the ROM 104 into the RAM 103 and executed by the CPU 102. Also connected to the system bus 101 are an encoding/decoding section 105, a metadata processing section 106, a display section 107, a user interface section 108, and a communication control section 109. System bus 101 communicates data between each of these blocks. The RAM 103 also has an output buffer and is used as a data buffer for image file creation processing and as an output destination for data to be stored in the image file.

符号化/復号化部105は、H.265(HEVC)、H.264(AVC)、AV1、JPEGなどに従う動画や静止画のビデオコーデックであり、静止画や動画のデータの符号化および復号化の処理を実行する。メタデータ処理部106は、符号化/復号化部105によって符号化されたデータ(符号化データ)を取得し、所定のファイルフォーマット(例えばHEIF)に準拠した画像ファイルを生成する。具体的には、メタデータ処理部106は、静止画や動画ファイルに格納されるメタデータの解析処理を実行し、静止画や動画に関する情報の生成や、符号化データに関するパラメータ情報の取得を行う。そして、メタデータ処理部106は、これらの情報をメタデータとして、符号化データと共にファイルに格納する処理を実行する。また、メタデータ処理部106は、ファイルに格納されたメタデータを解析し静止画や動画の再生時のメタデータ処理を行う。 The encoding/decoding unit 105 is a video codec for moving images and still images conforming to H.265 (HEVC), H.264 (AVC), AV1, JPEG, etc., and performs encoding and decoding of still image and moving image data. The metadata processing unit 106 acquires data (encoded data) encoded by the encoding/decoding unit 105, and generates an image file conforming to a predetermined file format (e.g., HEIF). Specifically, the metadata processing unit 106 performs analysis processing of metadata stored in still image and moving image files, generates information related to still images and moving images, and acquires parameter information related to encoded data. The metadata processing unit 106 then performs processing of storing this information as metadata in a file together with the encoded data. The metadata processing unit 106 also analyzes the metadata stored in the file and performs metadata processing when playing back still images and moving images.

表示部107は、画像ファイル作成装置100のアプリケーションを表示する画面を意図しており、例えば液晶ディスプレイ装置である。また、表示部107は、ユーザーによるGUI(Graphic User Interface)によるアプリケーションの操作を可能にするように、画面タッチセンサを備えてもよい。また、表示部107は、生成されたファイルの確認を行うためのファイルの再生を行ってもよい。ユーザーインターフェース部108は、ユーザーによる画像ファイル作成装置100への操作(入力)を受け付けるためのインターフェースであり、例えば、ボタンやスイッチ等の物理的な操作インターフェースで構成される。 The display unit 107 is intended as a screen for displaying an application of the image file creation device 100, and is, for example, a liquid crystal display device. Furthermore, the display unit 107 may include a screen touch sensor so that the user can operate the application using a GUI (Graphic User Interface). Further, the display unit 107 may play back the generated file in order to confirm it. The user interface unit 108 is an interface for accepting operations (inputs) to the image file creation device 100 by the user, and is configured with a physical operation interface such as a button or a switch, for example.

通信制御部109は、ネットワークに接続して伝送フレームの送受信を行うネットワークインタフェースである。通信制御部109は、例えば、有線LANのイーサネット(登録商標)のPHYおよびMAC(伝送メディア制御処理)である。あるいは、画像ファイル作成装置100が無線LANに接続可能な場合、通信制御部109にはIEEE802.11a/b/g/n/ac/ax等の無線LAN制御を実行するコントローラ、RF回路、アンテナが含まれる。 The communication control unit 109 is a network interface that connects to a network and transmits and receives transmission frames. The communication control unit 109 is, for example, a PHY and MAC (transmission media control processing) of Ethernet (registered trademark) of a wired LAN. Alternatively, if the image file creation device 100 can be connected to a wireless LAN, the communication control unit 109 includes a controller that performs wireless LAN control such as IEEE802.11a/b/g/n/ac/ax, an RF circuit, and an antenna.

[画像ファイル作成処理]
次に、画像ファイル作成装置100の画像ファイル作成処理の流れについて、図2、図6、図7を参照しながら説明する。図2は、画像ファイル作成処理のフローチャートである。具体的には、HEIFファイルフォーマットに従って1つ以上の静止画を格納するファイルを作成する処理の流れを示している。図2のフローチャートの各ステップは、CPU102によるソフトウェア、符号化/復号化部105、メタデータ処理部106の何れかによって実行される処理を示す。なお、以下の説明において、CPU102という記述はCPU102で実行するソフトウェア処理であるものとする。図6は、本実施形態において画像ファイル作成装置100が作成するHEIFファイルの一例であるHEIFファイル600の構造を示している。HEIFファイル600は、メタデータ格納領域602(MetaBox(meta))(メタデータ領域)と符号化データ格納領域611(MediaDataBox(mdat))(画像データ領域)を有する。また図7は、本実施形態で出力されるHEIFファイルの例を示す図である。図7は、HEIFファイルフォーマットに従って、1つ以上の静止画と、スライドショーを構成する派生画像(Derived Image)とを格納した例を示している。
[Image file creation process]
Next, the flow of image file creation processing by the image file creation device 100 will be described with reference to FIGS. 2, 6, and 7. FIG. 2 is a flowchart of image file creation processing. Specifically, it shows the flow of processing for creating a file that stores one or more still images according to the HEIF file format. Each step in the flowchart in FIG. 2 represents a process executed by either software by the CPU 102, the encoding/decoding unit 105, or the metadata processing unit 106. Note that in the following description, the description "CPU 102" refers to software processing executed by the CPU 102. FIG. 6 shows the structure of a HEIF file 600, which is an example of a HEIF file created by the image file creation device 100 in this embodiment. The HEIF file 600 has a metadata storage area 602 (MetaBox(meta)) (metadata area) and an encoded data storage area 611 (MediaDataBox(mdat)) (image data area). Further, FIG. 7 is a diagram showing an example of a HEIF file output in this embodiment. FIG. 7 shows an example in which one or more still images and derived images forming a slide show are stored according to the HEIF file format.

画像ファイル作成処理は、S201から開始し、まずS202において、CPU102が、RAM103もしくはROM104上で記憶している画像データの中から、HEIFファイルに格納する画像データを取得(選択)する。当該取得処理は、予め画像ファイル作成装置100に対して設定された情報や、ユーザーインターフェース部108を介するユーザーによる操作等に基づいて行われてもよい。画像データは、1つの静止画が格納されたHEIFファイルでもよいし、JPEGなど他の静止画のファイルであってもよい。あるいは、静止画データであればファイルとして記憶していなくてもよい。次にS203において、CPU102は、S202で取得した画像データは復号化が必要か(すなわち、HEIFファイルであるか)を判定する。取得した画像データは復号化が必要でない(取得した画像データがHEIFファイルである)場合(S203でNO)、処理はS207へ進み、そうでなければ(取得した画像データがHEIFファイル以外の場合)(S203でYES)、処理はS204へ進む。 The image file creation process starts from S201, and first, in S202, the CPU 102 acquires (selects) image data to be stored in the HEIF file from among the image data stored on the RAM 103 or ROM 104. The acquisition process may be performed based on information set in advance for the image file creation device 100, an operation by a user via the user interface unit 108, or the like. The image data may be a HEIF file containing one still image, or may be another still image file such as JPEG. Alternatively, if it is still image data, it does not need to be stored as a file. Next, in S203, the CPU 102 determines whether the image data acquired in S202 requires decoding (that is, whether it is a HEIF file). If the acquired image data does not require decoding (the acquired image data is a HEIF file) (NO in S203), the process proceeds to S207, otherwise (if the acquired image data is not a HEIF file) (YES in S203), the process advances to S204.

S204からS206の処理は符号化/復号化部105によって実行される。S204では、符号化/復号化部105は、取得した画像データを復号化する。次にS205において、符号化/復号化部105は、復号化した画像データを解析して画像属性情報を取得する。画像属性情報には、例えば画像の幅と高さ、色コンポーネントの個数およびビット長、等が含まれる。S206では、符号化/復号化部105は、復号化した画像データに対してHEVC符号化を実行する。次にS207では、メタデータ処理部106は、S206で生成された符号化データの復号化において必要なパラメータセットを取得する。当該パラメータセットは、具体的には、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS),ピクチャパラメータセット(PPS)等である。但し、処理がS203からS207へ直接至った場合は、S202で取得した画像データがHEIFファイルである場合であるので、メタデータ処理部106は、HEVCのパラメータセットをHEIFファイルから取り出して取得する。次のS208では、符号化/復号化部105は、符号化データを、RAM103上の出力バッファに転送して保存しておく。当該符号化データは、符号化データ格納領域611に格納される符号化データの1つである。なお、以降の説明において、S208で保存した(HEIFファイルに格納する)画像データ/符号化データを総称して画像データとも称するものとする。 The processing from S204 to S206 is executed by the encoding/decoding unit 105. In S204, the encoding/decoding unit 105 decodes the acquired image data. Next, in S205, the encoding/decoding unit 105 analyzes the decoded image data to obtain image attribute information. The image attribute information includes, for example, the width and height of the image, the number of color components, the bit length, and the like. In S206, the encoding/decoding unit 105 performs HEVC encoding on the decoded image data. Next, in S207, the metadata processing unit 106 obtains a parameter set necessary for decoding the encoded data generated in S206. Specifically, the parameter set is a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), etc. However, if the process directly reaches S207 from S203, the image data acquired in S202 is a HEIF file, so the metadata processing unit 106 extracts and acquires the HEVC parameter set from the HEIF file. In the next step S208, the encoding/decoding unit 105 transfers the encoded data to the output buffer on the RAM 103 and stores it therein. The encoded data is one of the encoded data stored in the encoded data storage area 611. In the following description, the image data/encoded data saved in S208 (stored in the HEIF file) will be collectively referred to as image data.

次のS209は、HEIFファイルに格納する画像データに関するメタデータを作成する処理であり、メタデータ処理部106により実行される。S209で作成されるメタデータは、画像アイテム情報や画像属性情報等である。画像アイテム情報は、図6の領域606(ItemInfoBox(iinf))に格納されるエントリデータである。iinfのエントリデータは、画像データをファイル内で識別するためのアイテムID(識別情報)と、HEVC符号化画像であることを示すアイテムタイプを設定する。一方、画像属性情報は、図6の領域608(ItemPropertiesBox(iprp))に格納されるデータである。S209で作成される画像属性情報は、図6の領域609(ItemPropetyContainerBox(ipco))に格納されるエントリデータと、領域610(ItemPropertyAssociationBox(ipma))に格納されるエントリデータである。ipcoには、S207で取得したHEVCのパラメータセットを示すエントリデータや、選択した画像の幅と高さを示すエントリデータ等の属性情報が格納される。そしてipmaには、アイテムIDとipcoのエントリデータへの関連付けを示すエントリデータが作成される。S209にて作成された画像属性情報のデータは、図6のメタデータ格納領域602(MetaDataBox(meta))に格納するメタデータの一部として、RAM103上の出力バッファに保存される。 The next step S209 is a process of creating metadata regarding the image data to be stored in the HEIF file, and is executed by the metadata processing unit 106. The metadata created in S209 includes image item information, image attribute information, and the like. Image item information is entry data stored in area 606 (ItemInfoBox (iinf)) in FIG. The iinf entry data sets an item ID (identification information) for identifying image data within a file and an item type indicating that the image is a HEVC encoded image. On the other hand, image attribute information is data stored in area 608 (ItemPropertiesBox (iprp)) in FIG. The image attribute information created in S209 is the entry data stored in the area 609 (ItemPropertyContainerBox (ipco)) and the entry data stored in the area 610 (ItemPropertyAssociationBox (ipma)) in FIG. 6. Attribute information such as entry data indicating the HEVC parameter set acquired in S207 and entry data indicating the width and height of the selected image is stored in ipco. Then, entry data indicating the association between the item ID and the entry data of ipco is created in ipma. The image attribute information data created in S209 is stored in the output buffer on the RAM 103 as part of the metadata to be stored in the metadata storage area 602 (MetaDataBox (meta)) in FIG.

処理がS209の後S210に進むと、CPU201は、作成するHEIFファイルに、まだ他の画像データを格納するかどうかを確認する。もし他に格納する画像データがあれば、処理はS202に戻り、そうでなければ処理はS211に進む。処理がS210からS202に戻った場合は、CPU201は他の画像データを取得(選択)して、前述したようなS203からS209までの処理を実行する。 When the process proceeds to S210 after S209, the CPU 201 checks whether other image data is to be stored in the HEIF file being created. If there is other image data to store, the process returns to S202; if not, the process proceeds to S211. If the process returns from S210 to S202, the CPU 201 acquires (selects) the other image data and executes the processes from S203 to S209 as described above.

S211では、CPU102が、作成中のHEIFファイルにスライドショー(画像の連続的な表示処理)の設定を格納するどうかを判定する。当該判定処理は、予め画像ファイル作成装置100に対して設定された情報や、ユーザーインターフェース部108を介するユーザーによる操作等に基づいて行われてもよい。スライドショーの設定をHEIFファイルに格納する場合は(S211でYES)、S212のスライドショーのメタデータ作成処理が実行される。なお、S212の処理については後述する。 In S211, the CPU 102 determines whether settings for a slide show (continuous display processing of images) are to be stored in the HEIF file being created. The determination process may be performed based on information set in advance for the image file creation device 100, an operation by a user via the user interface unit 108, or the like. If the slide show settings are to be stored in the HEIF file (YES in S211), slide show metadata creation processing in S212 is executed. Note that the process of S212 will be described later.

S213では、メタデータ処理部106は、HEIFファイルに格納される画像の中から代表画像を決定して、主要画像アイテム情報のメタデータを作成する(メタデータに主要画像アイテム情報を設定する)。当該代表画像の決定処理は、予め画像ファイル作成装置100に対して設定された情報や、ユーザーインターフェース部108を介するユーザーによる操作等に基づいて行われてもよい。S213で作成されたメタデータは、図6の領域604(PrimaryItemBox(pitm))に格納される。図16に、HEIF標準におけるPrimaryItemBoxのデータフォーマットを示す。図16に示すように、pitmのデータフォーマットは、単純に代表とする画像のアイテムIDを指定するものである。S213で作成されたメタデータは、RAM103上の出力バッファに保存される。 In S213, the metadata processing unit 106 determines a representative image from among the images stored in the HEIF file, and creates metadata for main image item information (sets main image item information in the metadata). The process of determining the representative image may be performed based on information set in advance for the image file creation device 100, an operation by a user via the user interface unit 108, or the like. The metadata created in S213 is stored in area 604 (PrimaryItemBox (pitm)) in FIG. 6. FIG. 16 shows the data format of PrimaryItemBox in the HEIF standard. As shown in FIG. 16, the pitm data format simply specifies the item ID of a representative image. The metadata created in S213 is stored in the output buffer on the RAM 103.

最後のS214の処理は、メタデータ処理部106により実行される。S214では、メタデータ処理部106は、図6の領域601(FileTypeBox(ftyp))と、領域603(HandlerBox(hdlr))に格納するデータを作成する。なお、図7に示すように、hdlrに指定するMetaDataBox(meta)のハンドラタイプは‘pict’であり得る。そして、メタデータ処理部106は、作成したftypとhdlrのメタデータと、RAM103に保存しておいたメタデータ格納領域602(MetaBox(meta))に格納されるメタデータと、符号化データ格納領域611(MediaDataBox(mdat))に格納される符号化データと結合する。そして、メタデータ処理部106は、図6に示すような構造のデータをRAM103上に形成し、HEIFファイルとして完成して出力する。その後、処理はS215に進んで本処理フローが終了する(S215)。作成されたHEIFファイルのデータは、CPU102によりRAM103からROM104に書き込んで保存され得る。 The final process of S214 is executed by the metadata processing unit 106. In S214, the metadata processing unit 106 creates data to be stored in area 601 (FileTypeBox (ftyp)) and area 603 (HandlerBox (hdlr)) in FIG. 6. Note that, as shown in FIG. 7, the handler type of MetaDataBox (meta) specified in hdlr may be 'pict'. The metadata processing unit 106 then processes the created ftyp and hdlr metadata, the metadata stored in the metadata storage area 602 (MetaBox (meta)) stored in the RAM 103, and the encoded data storage area. 611 (MediaDataBox (mdat)). Then, the metadata processing unit 106 forms data having the structure shown in FIG. 6 on the RAM 103, completes it as a HEIF file, and outputs it. After that, the process proceeds to S215, and the present process flow ends (S215). The created HEIF file data can be written by the CPU 102 from the RAM 103 to the ROM 104 and stored.

なお、S212のスライドショーのメタデータ作成処理がスキップされた場合は(S211でNO)、図6の領域607(ItemReferenceBox(iref))が生成されず、HEIFファイルのメタデータに含まれないことも有り得る。しかし、例えば格納する画像データの中に撮影画像とそのサムネイル画像のように、何かの関連性がある画像データが含まれる場合、S209の処理において、メタデータ処理部106は、画像データ間の関連付けを示すirefのエントリデータを作成する。そして、最終的に作成されるHEIFファイルのメタデータに、irefが含まれ得る。 Note that if the slide show metadata creation process in S212 is skipped (NO in S211), the area 607 (ItemReferenceBox (iref)) in FIG. 6 may not be generated and may not be included in the metadata of the HEIF file. . However, if the image data to be stored includes image data that has some kind of relationship, such as a captured image and its thumbnail image, in the process of S209, the metadata processing unit 106 Create iref entry data indicating the association. The iref may be included in the metadata of the HEIF file that is finally created.

以上に示したフロー従ってHEIFファイルの内部構造に格納した値(データ)の例を、図7を参照して説明する。記述701に示すPrimaryItemBox(pitm)(領域604に対応)には、item_IDとして1が格納されている。記述702に示すItemInfoBox(iinf)(領域606に対応)には、item_IDで識別される各画像アイテムがどのような種類の画像アイテムであるかの情報が示される。item_IDが1である画像アイテムは‘slid’であり、スライドショーを構成する派生画像であることを示す。item_ID2以降は‘hvc1’であり、HEVC符号化画像であることを示す。記述703に示すItemLocationBox(iloc)(領域605に対応)は、各画像データビットストリームのファイル内の格納位置を示している。item_IDが1の画像アイテムはconstruction_methodが1を示しており、記述707に示すItemDataBox(idat)(領域616に対応)内にデータが存在することを示している。またその他の画像は、記述708に示すMediaDataBox(符号化データ格納領域611に対応)内のどの位置にデータが存在するかを特定することが可能となっている。記述704に示すItemReferenceBox(iref)(領域607に対応)は、画像アイテム間の参照関係を示した領域である。ここで、reference_typeは‘dimg‘であり、これはスライドショーを構成する派生画像、すなわちスライドショーで表示する複数の画像を参照するための派生画像であることを示している。また、記述704は、派生画像アイテムであるitem_ID1からitem_ID2以降の画像アイテムが参照されていることを示している。記述705に示すItemPropertiesBox(iprp)(領域608に対応)内のItemPropertyContainerBox(ipco)(領域609に対応)には、画像の属性情報を示すItemPropertyが格納されている。hvcCはHEVC符号化パラメータを示し、ispeは画像のサイズを示す属性情報である。記述706は各画像アイテムと属性情報との関連を示したItemPropertyAssociationBox(ipma)(領域610に対応)を示す。各画像アイテムが順にipco内の属性情報と関連づけが行われる。 An example of values (data) stored in the internal structure of the HEIF file according to the flow described above will be described with reference to FIG. 7. In the PrimaryItemBox (pitm) (corresponding to area 604) shown in description 701, 1 is stored as item_ID. In the ItemInfoBox (iinf) (corresponding to area 606) shown in description 702, information is shown on the type of image item each image item identified by item_ID is. An image item with item_ID of 1 is 'slid', indicating that it is a derived image that constitutes a slideshow. From item_ID 2 onwards, it is 'hvc1', indicating that it is a HEVC encoded image. The ItemLocationBox (iloc) (corresponding to area 605) shown in description 703 indicates the storage location within the file of each image data bitstream. The image item with item_ID 1 indicates that construction_method is 1, which indicates that data exists in ItemDataBox (idat) (corresponding to area 616) shown in description 707. In addition, it is possible to specify where the data exists in MediaDataBox (corresponding to encoded data storage area 611) shown in description 708 for other images. ItemReferenceBox (iref) (corresponding to area 607) shown in description 704 is an area indicating the reference relationship between image items. Here, reference_type is 'dimg', which indicates that it is a derived image that constitutes a slide show, that is, a derived image for referencing multiple images to be displayed in the slide show. In addition, description 704 indicates that image items from item_ID2 onwards are referenced from derived image item item_ID1. ItemPropertyContainerBox (ipco) (corresponding to area 609) in ItemPropertiesBox (iprp) (corresponding to area 608) shown in description 705 stores ItemProperty indicating image attribute information. hvcC indicates HEVC encoding parameters, and ispe is attribute information indicating the image size. Description 706 indicates ItemPropertyAssociationBox (ipma) (corresponding to area 610) indicating the association between each image item and attribute information. Each image item is associated in turn with the attribute information in ipco.

[スライドショーのメタデータ作成処理]
次に、図2のS212のスライドショーのメタデータ作成処理について、図3、図4、図5および図6を参照しながら説明する。本実施形態では、スライドショーを構成する画像を派生画像(Derived Image)としてHEIFファイルに格納する。図3は、本実施形態におけるメタデータの作成処理のフローチャートを示す。この処理はS301から開始し、はじめにS302とS303において、CPU102が、HEIFファイルに格納する画像データの中からスライドショーで表示する1つ以上の画像データを選択し、且つそれらの表示順番を決定する。次に、CPU102は、選択した画像の表示時間(期間)を決定する。表示時間(期間)はすべての画像で一定であっても、個別に異なる時間であってもよい。また、ファイル生成時には値を指定せず、再生時に任意の値を決定してもよい。S302とS303選択および決定処理は、予め画像ファイル作成装置100に対して設定された情報や、ユーザーインターフェース部108を介するユーザーによる操作等に基づいて行われてもよい。
[Slideshow metadata creation process]
Next, the slide show metadata creation process in S212 of FIG. 2 will be described with reference to FIGS. 3, 4, 5, and 6. In this embodiment, images forming a slide show are stored as derived images in a HEIF file. FIG. 3 shows a flowchart of metadata creation processing in this embodiment. This process starts at S301, and first, at S302 and S303, the CPU 102 selects one or more image data to be displayed in a slide show from among the image data stored in the HEIF file, and determines the order in which they are displayed. Next, the CPU 102 determines the display time (period) of the selected image. The display time (period) may be constant for all images, or may be a different time for each image. Alternatively, an arbitrary value may be determined at the time of playback without specifying the value at the time of file generation. The selection and determination processes in S302 and S303 may be performed based on information set in advance for the image file creation device 100, an operation by the user via the user interface unit 108, or the like.

続くS304からS307までの処理は、メタデータ処理部106で実行される。S304では、メタデータ処理部106は、スライドショーを構成する派生画像のアイテムIDを設定するために画像アイテム情報を作成する。すなわち、前述した図2のS209と同様に、メタデータ処理部106は、図6の領域606(ItemInfoBox(iinf))に格納するエントリデータを作成する。ここでは、メタデータ処理部106は、エントリデータのアイテムIDに、HEIFファイルに格納している画像データのアイテムIDとは重複しないIDを指定し、アイテムタイプにスライドショーを構成する派生画像であることを示す‘slid’を指定する(図7の記述702を参照)。 The subsequent processes from S304 to S307 are executed by the metadata processing unit 106. In S304, the metadata processing unit 106 creates image item information in order to set item IDs of derived images that make up the slide show. That is, similar to S209 in FIG. 2 described above, the metadata processing unit 106 creates entry data to be stored in the area 606 (ItemInfoBox (iinf)) in FIG. 6. Here, the metadata processing unit 106 specifies an ID that does not overlap with the item ID of the image data stored in the HEIF file as the item ID of the entry data, and specifies that the item type is a derived image that constitutes a slide show. (See description 702 in FIG. 7).

次にS305では、メタデータ処理部106は、スライドショーで表示する画像を指定するために画像参照情報を作成する。画像参照情報は、図6の領域607(ItemReferenceBox(iref))に格納するエントリデータとして作成される。このエントリデータには、派生画像であることを示す‘dimg’のタイプが付与され、派生画像のアイテムIDが参照する画像データのアイテムIDをリスト形式で指定する。ここで、参照先の画像データのアイテムIDは、S302で決定した表示する順番でリスト形式に指定される。 Next, in S305, the metadata processing unit 106 creates image reference information to specify the images to be displayed in the slide show. The image reference information is created as entry data to be stored in area 607 (ItemReferenceBox (iref)) in FIG. 6. This entry data is assigned the type 'dimg' indicating that it is a derived image, and specifies in list format the item IDs of the image data referenced by the item ID of the derived image. Here, the item IDs of the referenced image data are specified in list format in the display order determined in S302.

続いてS306では、メタデータ処理部106は、スライドショーを構成する派生画像の記述情報を設定する。この記述情報は、図6の領域616(ItemDataBox(idat))に格納されるデータである。スライドショーの派生画像の記述情報のデータフォーマットの一例を図4に示す。この記述情報(ImageSlideshow)は、スライドショーで表示する画像の表示時間(期間)を指定する。図4の例では、各画像の表示時間(期間)を一定とする場合、つまりflags&1が1である場合は、記述401に示すように1つだけのdurationパラメータが指定される。あるいは、flags&1が0の場合は、記述402に示すように、各々の画像データに個別に表示時間(期間)を指定するdurationパラメータのリストに、durationパラメータが表示する順番で指定される。durationパラメータは、対応する画像アイテムを表示する時間を示す数値である。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置(すなわち表示部107)が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。また、図4に示すデータフォーマットに例えば、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータはバージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、durationパラメータの時間単位を指定可能となる。例えばdurationに10が指定してあった場合、time_unitに秒を示す値が指定してあった場合10秒、ミリ秒を示す値であった場合10ミリ秒といったように利用可能である。その他、マイクロ秒や分、その他時間単位を一意に識別可能な方法であればよい。なお、ファイル作成時に表示時間(期間)を指定しない場合は0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を格納するようにしもよい。 Subsequently, in S306, the metadata processing unit 106 sets descriptive information for derived images that make up the slide show. This descriptive information is data stored in area 616 (ItemDataBox(idat)) in FIG. FIG. 4 shows an example of the data format of descriptive information for derived images of a slide show. This descriptive information (ImageSlideshow) specifies the display time (period) of images to be displayed in a slide show. In the example of FIG. 4, when the display time (period) of each image is constant, that is, when flags&1 is 1, only one duration parameter is specified as shown in description 401. Alternatively, if flags&1 is 0, as shown in description 402, the duration parameters are specified in a list of duration parameters that individually specify display times (periods) for each piece of image data in the order in which they are displayed. The duration parameter is a numerical value indicating the time for displaying the corresponding image item. The unit of time set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device (that is, the display unit 107) to determine the display time (period). Further, the data format shown in FIG. 4 may include a parameter for specifying a unit such as time_unit, for example. The parameter specifying this unit may be valid depending on the version and the value of flags. By specifying this parameter, the time unit of the duration parameter can be specified. For example, if 10 is specified for duration, 10 seconds can be used if time_unit is specified as a value indicating seconds, and 10 milliseconds can be used if time_unit is specified as a value indicating milliseconds. Other methods such as microseconds, minutes, and other methods that can uniquely identify time units may be used. Note that if the display time (period) is not specified when creating the file, a value such as 0 may be specified to store information indicating that an arbitrary time (period) is specified when playing the file.

S307では、メタデータ処理部106は、スライドショーを構成する派生画像の画像属性情報を設定する。この画像属性情報には、例えばスライドショーを表示するスクリーンの幅・高さを示す情報が挙げられる。スライドショーに指定した各画像のサイズと、派生画像のサイズが異なる場合、スライドショー表示する画像を拡大または縮小して表示してもよいし、スクリーンのサイズに収まる部分の画像のみを表示するようにしてもよい。また、スクリーンのサイズの方が大きい場合、余白の部分の表示を指定する属性情報を記述してもよい。ただし、派生画像の画像属性情報は必ずしも必要ではないため設定しなくてもよい。 In S307, the metadata processing unit 106 sets image attribute information of derived images that make up the slide show. This image attribute information includes, for example, information indicating the width and height of the screen on which the slide show is displayed. If the size of each image specified for the slideshow and the size of the derived image are different, you can enlarge or reduce the images displayed in the slideshow, or display only the parts of the images that fit the screen size. Good too. Furthermore, if the screen size is larger, attribute information specifying display of the margin portion may be written. However, the image attribute information of the derived image is not necessarily required, so it does not need to be set.

また、スライドショーを構成する派生画像の記述情報のフォーマットは、図5に示す形態であってもよい。図5は、スライドショーの派生画像の記述情報のデータフォーマットの別の例である。図5に示す記述情報(ImageSlideshowWithinCnvas)は、スライドショーを表示する際のキャンバス(表示部107に表示する際の画像領域(入力画像が配置される再構成画像の画像領域))を指定可能なデータフォーマットを有する。記述501に示すcanvas_fill_valueは、入力画像のピクセルが特定のピクセル位置にない場合に使用されるチャンネル当たりのピクセル値を示す。当該ピクセル値は、RGBAとして指定される(R、G、B、およびAは、それぞれ0、1、2、および3に等しいループカウンタjに対応する)。 RGB値は、IEC61996-2-1で定義されているsRGBカラースペースである。A値は、0(完全に透明)から65535(完全に不透明)の範囲の線形不透明度である。記述502に示すoutput_widthおよびoutput_heightは、入力画像が配置される再構成画像の幅と高さをそれぞれ指定する。flags&1が0の場合、output_width、output_heightは16ビットで表される値となる。一方でflags&1が1の場合、output_width、output_heightは32ビットで表される値となる。記述503に示すreference_countは、このアイテムがfrom_item_IDフィールドで識別されるタイプ‘dimg’のItemTypeReferenceBox(図7の記述704)から取得される。また、記述503に示すhorizontal_offsetおよびvertical_offsetは、キャンバスの左上隅からの入力イメージが配置されるオフセットを指定する。負のオフセット値を有する画素位置は再構成画像に含まれない。output_width以上の水平方向のピクセル位置は、再構成された画像には含まれない。output_height以上の垂直方向のピクセル位置は、再構成された画像には含まれない。また、flags&2が1の場合、図4の記述401と同様に、共通のdurationパラメータが指定される。また、記述504に示すように、flags&2が0の場合は、各々の画像データに個別に表示時間(期間)を指定するdurationパラメータのリストに、durationパラメータが表示する順番で指定される。durationパラメータは対応する画像アイテムを表示する時間を示す数値である。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。また、図4同様に、データフォーマットに、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータは、バージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、durationパラメータの時間単位を指定可能となる。指定可能な値は、分や秒、ミリ秒、マイクロ秒、その他時間単位を一意に識別可能な方法であればよい。なお、ファイル作成時に表示時間(期間)を指定しない場合は0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を格納するようにしもよい。 Further, the format of the descriptive information of the derived images composing the slide show may be as shown in FIG. 5. FIG. 5 is another example of the data format of descriptive information of derived images of a slide show. The descriptive information (ImageSlideshowWithinCnvas) shown in FIG. 5 is a data format that can specify the canvas (image area when displayed on the display unit 107 (image area of the reconstructed image where the input image is placed)) when displaying the slide show. has. The canvas_fill_value shown in description 501 indicates the pixel value per channel that is used when a pixel of the input image is not at a particular pixel location. The pixel values are designated as RGBA (R, G, B, and A correspond to loop counter j equal to 0, 1, 2, and 3, respectively). The RGB values are the sRGB color space defined by IEC61996-2-1. The A value is a linear opacity ranging from 0 (fully transparent) to 65535 (fully opaque). output_width and output_height shown in the description 502 specify the width and height, respectively, of the reconstructed image in which the input image is placed. When flags&1 is 0, output_width and output_height are values expressed by 16 bits. On the other hand, when flags&1 is 1, output_width and output_height are values expressed by 32 bits. The reference_count shown in the description 503 is obtained from the ItemTypeReferenceBox (description 704 in FIG. 7) of type 'dimg' where this item is identified by the from_item_ID field. Further, horizontal_offset and vertical_offset shown in description 503 specify the offset at which the input image is placed from the upper left corner of the canvas. Pixel locations with negative offset values are not included in the reconstructed image. Horizontal pixel positions greater than or equal to output_width are not included in the reconstructed image. Vertical pixel locations greater than or equal to output_height are not included in the reconstructed image. Further, when flags&2 is 1, a common duration parameter is specified, similar to the description 401 in FIG. 4. Further, as shown in the description 504, when flags&2 is 0, the duration parameters are specified in the list of duration parameters that individually specify the display time (period) for each image data in the order in which they are displayed. The duration parameter is a numerical value indicating the time for displaying the corresponding image item. The unit of time set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device to determine the display time (period). Further, as in FIG. 4, the data format may include a parameter for specifying a unit such as time_unit. The parameter specifying this unit may be valid depending on the version and the value of flags. By specifying this parameter, the time unit of the duration parameter can be specified. Values that can be specified include minutes, seconds, milliseconds, microseconds, and any other method that can uniquely identify time units. Note that if the display time (period) is not specified when creating the file, a value such as 0 may be specified to store information indicating that an arbitrary time (period) is specified when playing the file.

S307で画像属性情報を設定する場合は、前述のS209と同様に、メタデータ処理部106は、図6の領域609(ItemPropetyContainerBox(ipco))に格納するエントリデータを作成する。また、メタデータ処理部106は、図6の領域610(ItemPropertyAssociationBox(ipma))に格納するエントリデータを作成する。そして、処理はS308に進み、この処理フローは終了する。 When setting image attribute information in S307, the metadata processing unit 106 creates entry data to be stored in area 609 (ItemPropertyContainerBox (ipco)) in FIG. 6, as in S209 described above. Further, the metadata processing unit 106 creates entry data to be stored in the area 610 (ItemPropertyAssociationBox (ipma)) in FIG. The process then proceeds to S308, and this process flow ends.

なお、S304からS307の処理において作成されたメタデータは、図6の領域602(MetaDataBox(meta))に格納するメタデータの一部として、RAM103上の出力バッファに各々が格納されるべき位置に書き込まれる。また、前述のS213の処理において代表画像とするアイテムIDに、S213で設定した派生画像のアイテムIDを指定するようにしてもよい。 The metadata created in the processes from S304 to S307 are written to the output buffer on RAM 103 at the locations where they should be stored as part of the metadata stored in area 602 (MetaDataBox (meta)) in FIG. 6. Also, the item ID of the derived image set in S213 may be specified as the item ID to be used as the representative image in the process of S213 described above.

[スライドショーの再生処理]
次に、イメージファイルフォーマットに格納したスライドショーの再生処理について図20を用いて説明する。図20は、画像ファイルのスライドショー再生処理のフローチャートである。具体的には、図20は、HEIFファイルフォーマットに従って1つ以上の静止画をスライドショーとして格納したファイルを再生する処理の流れを示している。図20のフローチャートの各ステップは、CPU102によるソフトウェア、符号化/復号化部105、メタデータ処理部106の何れかによって実行される処理を示す。なお、以下の説明において、CPU102という記述はCPU102で実行するソフトウェア処理であるものとする。
[Slideshow playback processing]
Next, the reproduction process of a slide show stored in the image file format will be described using FIG. 20. FIG. 20 is a flowchart of image file slide show playback processing. Specifically, FIG. 20 shows the flow of processing for playing back a file in which one or more still images are stored as a slide show according to the HEIF file format. Each step in the flowchart of FIG. 20 indicates a process executed by software by the CPU 102, the encoding/decoding unit 105, or the metadata processing unit 106. Note that in the following description, the description "CPU 102" refers to software processing executed by the CPU 102.

画像ファイル再生でのスライドショー再生処理は、S2001から開始する。そして、まずS2002において、CPU102が、RAM103もしくはROM104上で記憶しているHEIFファイルの中から、メタデータ格納領域602(MetaBox(meta))に格納してあるメタデータを取得する。次にS2003において、CPU102は、S2002で取得したメタデータを解析し、S2004において、CPU102は、解析の結果、メタデータ中にスライドショーに関するメタデータが格納されているかを判定する。メタデータ中にスライドショーに関するメタデータが格納されている場合は(S2004でYES)、処理はS2005へ進み、そうでなければ(S2004でNO)、処理はS2010へ進む。S2010へ進む場合、画像ファイル作成装置100は、スライドショー以外のHEIFファイルの再生処理を実行する。 Slide show playback processing in image file playback starts from S2001. First, in S2002, the CPU 102 acquires metadata stored in the metadata storage area 602 (MetaBox (meta)) from among the HEIF files stored on the RAM 103 or ROM 104. Next, in S2003, the CPU 102 analyzes the metadata acquired in S2002, and in S2004, as a result of the analysis, the CPU 102 determines whether metadata related to a slide show is stored in the metadata. If metadata related to the slide show is stored in the metadata (YES in S2004), the process advances to S2005; otherwise (NO in S2004), the process advances to S2010. When proceeding to S2010, the image file creation device 100 executes a HEIF file playback process other than a slide show.

S2005において、メタデータ処理部106は、スライドショー表示に関連する画像アイテムのメタデータを取得する。具体的には、メタデータ処理部106は、スライドショーを構成する派生画像から参照される各画像アイテムのアイテム情報やその画像の属性情報、画像のファイル内の位置情報を取得する。S2006において、符号化/復号化部105は、スライドショー表示する順に画像データを取得する。画像データはメタデータに格納された画像ファイル内の位置情報から符号化データ格納領域611(MediaDataBox(mdat))内の位置を特定して取得する。S2007において符号化/復号化部105は、表示する画像データを復号化し、S2008において復号化した画像データをいったんバッファに保存する。続いてS2009では、CPU102は、メタデータに記載されている表示時間(期間)、属性情報に従い画像を表示部107に表示する。なお、0等のファイル再生時に任意の時間(期間)を指定することを示す情報が格納されていた場合、再生装置の処理によって表示時間(期間)を決定する。
S2005からS2009までの処理を繰り返し実行してHEIFファイルに格納された画像を表示部107に順次表示する。なお、本実施形態では図示していないが、CPU102は、スライドショーとして格納された画像すべてを表示し終わった場合、先頭の画像から繰り返し表示するように、または、スライドショー表示を終了するように表示部107を制御してもよい。
In S2005, the metadata processing unit 106 acquires metadata of image items related to slide show display. Specifically, the metadata processing unit 106 acquires item information of each image item referenced from the derived images that make up the slide show, attribute information of the image, and position information of the image within the file. In S2006, the encoding/decoding unit 105 acquires image data in the order of slide show display. The image data is acquired by specifying the position in the encoded data storage area 611 (MediaDataBox (mdat)) from the position information in the image file stored in the metadata. In S2007, the encoding/decoding unit 105 decodes the image data to be displayed, and in S2008, temporarily stores the decoded image data in a buffer. Subsequently, in S2009, the CPU 102 displays the image on the display unit 107 according to the display time (period) and attribute information described in the metadata. Note that if information indicating that an arbitrary time (period) is specified when playing a file such as 0 is stored, the display time (period) is determined by the processing of the playback device.
The processes from S2005 to S2009 are repeatedly executed to sequentially display the images stored in the HEIF file on the display unit 107. Although not shown in the present embodiment, when all images stored as a slide show have been displayed, the CPU 102 controls the display unit to repeatedly display the first image or to end the slide show display. 107 may be controlled.

以上、本実施形態によれば、HEIFファイルに格納された複数の画像を、派生画像として構成して格納することで、派生画像によるスライドショー構成画像の格納が可能となる。これにより複数の静止画の集合を格納するHEIFファイルを、スライドショー表示を意図するファイルとして保存する処理が容易となる。また、キャンバスの情報を派生画像の記述情報に定義することにより、異なるサイズの画像を扱う場合でも、それぞれの画像を表示する毎に表示サイズが異なることを防ぐことが可能となる。また、画像を表示する際のキャンバス位置情報を派生画像の記述情報にパラメータとして保持することで、表示位置を指定することが可能となる。また派生画像アイテムを主要画像アイテムとして適応することで、優先的に表示するための画像をスライドショーで切り替えることが可能となる。なお、本実施形態では、派生画像を用いてスライドショーを実現するためのメタデータをHEIFファイル内に格納する構成を示したが、派生画像を用いてスライドショーを構成する方法であれば、異なる構成であってもよい。 As described above, according to the present embodiment, by configuring and storing a plurality of images stored in a HEIF file as derived images, it is possible to store slide show composition images using derived images. This facilitates the process of saving a HEIF file that stores a set of a plurality of still images as a file intended for slide show display. Furthermore, by defining canvas information in the descriptive information of the derived image, even when handling images of different sizes, it is possible to prevent the display size from being different each time each image is displayed. Furthermore, by retaining canvas position information when displaying an image as a parameter in the descriptive information of the derived image, it is possible to specify the display position. Furthermore, by adapting the derived image item as the main image item, it becomes possible to switch images to be displayed preferentially in a slide show. Note that although this embodiment shows a configuration in which metadata for realizing a slide show using derived images is stored in the HEIF file, a different configuration may be used if the method is to configure a slide show using derived images. There may be.

<実施形態2>
実施形態2における画像ファイル作成装置は、実施形態1において図1で説明した構成と同一の構成を有する。また、図2で示される画像ファイル作成処理と、図20で示される画像ファイルのスライドショー再生処理のフローも、本実施形態に同様に適用できる。但し、図2のスライドショーのメタデータ作成処理(S212)が実施形態1と異なる。したがって本実施形態では、主にS212の処理について、図8、図9、図10、図11、図12、図13、図14、図15、図21、図22、図23、図24、図25、図26、図27、図28、図29、図30および図31を参照しながら説明する。
<Embodiment 2>
The image file creation device in the second embodiment has the same configuration as that described in FIG. 1 in the first embodiment. The image file creation process shown in FIG. 2 and the flow of the image file slideshow playback process shown in FIG. 20 can also be applied to this embodiment. However, the slideshow metadata creation process (S212) in FIG. 2 is different from that in the first embodiment. Therefore, in this embodiment, the process of S212 will be mainly described with reference to FIG. 8, FIG. 9, FIG. 10, FIG. 11, FIG. 12, FIG. 13, FIG. 14, FIG. 15, FIG. 21, FIG. 22, FIG. 23, FIG. 24, FIG. 25, FIG. 26, FIG. 27, FIG. 28, FIG. 29, FIG. 30, and FIG. 31.

図8は、本実施形態におけるスライドショーのメタデータ作成処理の流れを表すフローチャートである。また、図14は、本実施形態において画像ファイル作成装置100が作成するHEIFファイルの一例であるHEIFファイル1400の構造を示している。HEIFファイル1400は、メタデータ格納領域1402(MetaBox(meta))と符号化データ格納領域1411(MediaDataBox(mdat))を有する。 Figure 8 is a flowchart showing the flow of metadata creation processing for a slide show in this embodiment. Also, Figure 14 shows the structure of a HEIF file 1400, which is an example of a HEIF file created by the image file creation device 100 in this embodiment. The HEIF file 1400 has a metadata storage area 1402 (MetaBox (meta)) and an encoded data storage area 1411 (MediaDataBox (mdat)).

図8において、スライドショーのメタデータ作成処理は、S801から開始し、はじめにS802とS803において、図3のS302、S303と同様に、CPU102が、スライドショーで表示する画像を選択し、表示順番を決定し、選択した画像の表示時間(期間)を決定する。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。なお、ファイル作成時に表示時間(期間)を指定せず、ファイル再生時に任意の時間(期間)を指定するようにしてもよい。 In FIG. 8, the slide show metadata creation process starts from S801, and first, in S802 and S803, similarly to S302 and S303 in FIG. 3, the CPU 102 selects images to be displayed in the slide show and determines the display order. , determine the display time (period) of the selected image. The unit of time set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device to determine the display time (period). Note that the display time (period) may not be specified when creating the file, but an arbitrary time (period) may be specified when playing the file.

次にS804において、メタデータ処理部106は、スライドショーの表示画像のグループを設定する。具体的には、メタデータ処理部106は、スライドショーで表示する画像をグループ化するための情報(グループ情報)を作成する。このグループ情報は、図14の領域1416(GroupsListBox(grpl))に格納するメタデータである。HEIFでは、grplに画像データなどのアイテムのグループ情報が格納される。グループ情報には、グループ識別情報としてのグループIDと、グループタイプが付与され、HEIFファイル内において識別される。本実施形態では、S804において、メタデータ処理部106は、グループ情報としてスライドショーグループ情報(SlideshowEntityToGroupBox)を作成する。図9に、SlideshowEntityToGroupBoxのデータフォーマットを示す。メタデータ処理部106は、図9に示すデータフォーマットのデータを作成し、grplに格納する(図14の領域1417を参照)。本SlideshowEntityToGroupBoxは複数の画像イメージセットを大きなキャンバス内にスライドショー表示することを目的としたentityのグループを識別するためのBoxである。このSlideshowEntityToGroupBoxのグループタイプは‘slid’であり、スライドショーに使用するアイテムのグループであることを意味する。図9のデータフォーマットは、EntityToGroupBoxからの拡張であるため、グループIDを格納するgroup_id、グループに含むアイテムの個数を示すnum_entries_in_groupは別途指定される。また、アイテムIDは、スライドショーで表示する選択画像のアイテムIDを表示順番通りに指定する。 Next, in S804, the metadata processing unit 106 sets a group of display images for the slide show. Specifically, the metadata processing unit 106 creates information (group information) for grouping images to be displayed in a slide show. This group information is metadata stored in area 1416 (GroupsListBox (grpl)) in FIG. 14. In HEIF, group information of items such as image data is stored in grpl. Group information is given a group ID as group identification information and a group type, and is identified within the HEIF file. In this embodiment, in S804, the metadata processing unit 106 creates slideshow group information (SlideshowEntityToGroupBox) as group information. FIG. 9 shows the data format of SlideshowEntityToGroupBox. The metadata processing unit 106 creates data in the data format shown in FIG. 9 and stores it in grpl (see area 1417 in FIG. 14). This SlideshowEntityToGroupBox is a Box for identifying a group of entities for the purpose of displaying a plurality of image sets in a slide show within a large canvas. The group type of this SlideshowEntityToGroupBox is 'slid', which means a group of items used for a slideshow. Since the data format in FIG. 9 is an extension of EntityToGroupBox, group_id, which stores the group ID, and num_entries_in_group, which indicates the number of items included in the group, are separately specified. Further, the item ID specifies the item ID of the selected images to be displayed in the slide show in the order in which they are displayed.

なお、SlideshowEntityToGroupBoxはEntityToGroupBoxの拡張であるため、トラックについてもグループとして格納可能であるが、本実施形態では画像アイテムのみを対象とし、トラックの格納および画像以外のアイテムの格納は禁止する。ただし、別の形態ではトラックを含める構成としてもよく、例えばトラックIDが含まれる場合トラックIDは1つに限定しトラックで各サンプルの表示時間(期間)に関するパラメータを指定してもよい。また、サンプルグループにより後述する切り替え(遷移)効果をそれぞれのサンプルに指定可能とする。その他の形態では同様にトラックIDは1つに限定し、トラックで各サンプルの表示期間を指定する。そして後述するキャンバスや切り替え(遷移)効果はMPEG-B Part16 Derived visual tracks in the ISO base Media file formatとして規格化が進行中の派生トラックを用いて指定可能とする方法がある。 Note that since SlideshowEntityToGroupBox is an extension of EntityToGroupBox, tracks can also be stored as a group, but in this embodiment, only image items are targeted, and storage of tracks and items other than images is prohibited. However, in another form, a configuration may include tracks. For example, if a track ID is included, the track ID may be limited to one, and parameters regarding the display time (period) of each sample may be specified in the track. Furthermore, a switching (transition) effect, which will be described later, can be specified for each sample by sample group. In other forms, the number of track IDs is similarly limited to one, and the display period of each sample is specified by the track. There is a method in which the canvas and switching (transition) effects described later can be specified using derived tracks, which are currently being standardized as MPEG-B Part 16 Derived visual tracks in the ISO base Media file format.

また、その他の方法として、SlideshowEntityToGroupBoxに格納するエンティティに制限を設けない方法も考えられる。または、画像アイテムIDまたはトラックIDのいずれかを格納可能とする方法も考えられる。その場合例えば表示時間(期間)については共通の表示時間(期間)を指定する方法や、トラックについてはトラックから指定しアイテムについては画像属性情報から指定するという方法が考えられる。 As another method, it is also possible to set no restrictions on the entities stored in SlideshowEntityToGroupBox. Alternatively, it is also possible to make it possible to store either image item IDs or track IDs. In that case, for example, it is possible to specify a common display time (period) for the display time, or to specify the track from the track and the item from the image attribute information.

図9において、記述901と記述902は、実施形態1において説明した図5の記述501と記述502とそれぞれ同様のため、説明を省略する。記述903の部分はオプショナルであり、スライドショーのデフォルトの表示時間(期間)を設定する場合に指定する。デフォルトの表示時間(期間)を指定する場合、その表示時間(期間)をdefault_entity_durationに指定する。default_entity-duration-presentは0x000002の値である。flags&default_entity-duration-presentが1の場合は、デフォルトの表示時間(期間)であるdefault_entity_durationパラメータを指定する。flags&default_entity-duration-presentが0の場合は、各々の画像データに個別に表示時間(期間)を指定するため、画像属性を用いて表示時間(期間)が指定される。default_entity_durationパラメータは対応する画像アイテムを表示する時間(期間)を示す数値である。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。また、データフォーマットに、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータは、バージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、default_entity_durationパラメータの時間単位を指定可能となる。指定可能な値は、分や秒、ミリ秒、マイクロ秒、その他時間単位を一意に識別可能な方法であればよい。なお、ファイル作成時に表示時間(期間)を指定しない場合は0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を指定してもよい。 In FIG. 9, a description 901 and a description 902 are the same as the description 501 and the description 502 in FIG. 5 described in the first embodiment, respectively, and therefore their description will be omitted. The description 903 is optional and is specified when setting the default display time (period) of the slide show. When specifying a default display time (period), specify the display time (period) as default_entity_duration. default_entity-duration-present has a value of 0x000002. When flags&default_entity-duration-present is 1, the default_entity_duration parameter, which is the default display time (period), is specified. When flags&default_entity-duration-present is 0, the display time (period) is specified using the image attribute because the display time (period) is specified individually for each image data. The default_entity_duration parameter is a numerical value indicating the time (period) for displaying the corresponding image item. The unit of time set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device to determine the display time (period). Further, the data format may include a parameter for specifying a unit such as time_unit. The parameter specifying this unit may be valid depending on the version and the value of flags. By specifying this parameter, it becomes possible to specify the time unit of the default_entity_duration parameter. Values that can be specified include minutes, seconds, milliseconds, microseconds, and any other method that can uniquely identify time units. Note that if the display time (period) is not specified at the time of file creation, a value such as 0 may be specified to specify information indicating that an arbitrary time (period) is to be specified when the file is reproduced.

なお、flags&default_entity-duration-presentが1でdefault_entity_durationパラメータが指定されていた場合でも、画像属性情報に表示時間(期間)を指定した場合は画像属性情報の表示時間(期間)を優先する。本実施形態ではflagsによってデフォルトの表示時間(期間)をオプショナルで指定するか否かを決定する方法としたが、オプショナルの設定ではなくdefault_entity_durationを設定するようにしてもよい。この場合例えば、SlideshowEntityToGroupBox内で指定したdefault_entity_durationはデフォルト値として利用し、画像アイテム個別に属性情報が指定されていない場合に利用する表示時間(期間)として扱ってもよい。また、別途フラグを設けてすべてに共通で使う値であることを示すフラグを用いて属性情報に指定されていた場合でも共通の表示時間(期間)を利用するようにしてもよい。 Note that even if flags&default_entity-duration-present is 1 and the default_entity_duration parameter is specified, if a display time (period) is specified for the image attribute information, the display time (period) of the image attribute information is given priority. In this embodiment, the flags are used to determine whether or not to specify the default display time (period) as an option, but instead of setting the option, default_entity_duration may be set. In this case, for example, the default_entity_duration specified in the SlideshowEntityToGroupBox may be used as a default value and treated as the display time (period) used when attribute information is not specified for each image item. Furthermore, a common display time (period) may be used even if a separate flag is provided to indicate that the value is commonly used for all attributes and is specified in the attribute information.

また、SlideshowEntityToGroupBoxのデータフォーマットとして、図21に示す構成であってもよい。この場合、メタデータ処理部106は、図9に示すデータフォーマットのデータを作成し、grplに格納する(図14の領域1417を参照)。本SlideshowEntityToGroupBoxは、複数の画像イメージセットをスライドショー表示することを目的としたentityのグループを識別するためのBoxである。このSlideshowEntityToGroupBoxのグループタイプは‘slid’であり、スライドショーに使用するアイテムのグループであることを意味する。図21のデータフォーマットは、EntityToGroupBoxからの拡張であるため、グループIDを格納するgroup_id、グループに含むアイテムの個数を示すnum_entries_in_groupは別途指定される。また、アイテムIDは、スライドショーで表示する選択画像のアイテムIDを表示順番通りに指定する。図21に示す構成の場合、SlideshowEntityToGroupBoxはスライドショー表示をする画像のグループの識別とその表示順を識別するために利用する。図21に示す構成の場合、SlideshowEntityToGroupとしての特別なパラメータは存在しない。この場合、各パラメータは後述するItemPropertiesBox(iprp)内のItemPropetyContainerBox(ipco)に格納するエントリデータ(グループID)と、ItemPropertyAssociationBox(ipma)を用いて指定する。なお、図9に示す構成であったとしても、グループに指定するプロパティを関連づけてもよい。SlideshowEntityToGroupBoxに格納するエンティティは、符号化画像アイテムや派生画像アイテム等の表示可能なアイテムIDを格納することを想定する。派生画像としては例えば、定義済みのアイデンティティ(iden)やグリッド(grid)イメージやオーバーレイ(iovl)イメージを指定することでキャンバス上に高度なスライドショーとして表示可能である。また、別のグループのIDを格納可能としてもよい。例えば、一連の撮影グループとしてグループ化された画像群を同一のタイミングで表示する等が考えられる。例えば、HDR(High Dynamic Range)合成を行うために撮影された画像群やパノラマ写真として表示するために撮影された画像群をグループとして格納し、そのグループのIDをSlideshowEntityToGroupのエンティティとして指定することが考えられる。これにより、より高度なスライドショー表示が可能となる。 Further, the data format of SlideshowEntityToGroupBox may have the configuration shown in FIG. 21. In this case, the metadata processing unit 106 creates data in the data format shown in FIG. 9 and stores it in grpl (see area 1417 in FIG. 14). This SlideshowEntityToGroupBox is a Box for identifying a group of entities for the purpose of displaying a slide show of a plurality of image sets. The group type of this SlideshowEntityToGroupBox is 'slid', which means a group of items used for a slideshow. Since the data format in FIG. 21 is an extension of EntityToGroupBox, group_id, which stores the group ID, and num_entries_in_group, which indicates the number of items included in the group, are separately specified. Further, the item ID specifies the item ID of the selected images to be displayed in the slide show in the order in which they are displayed. In the case of the configuration shown in FIG. 21, SlideshowEntityToGroupBox is used to identify groups of images to be displayed in a slide show and the order in which they are displayed. In the case of the configuration shown in FIG. 21, there is no special parameter for SlideshowEntityToGroup. In this case, each parameter is specified using entry data (group ID) stored in an ItemPropertyContainerBox (ipco) in an ItemPropertiesBox (iprp), which will be described later, and an ItemPropertyAssociationBox (ipma). Note that even with the configuration shown in FIG. 9, properties specified for groups may be associated with each other. It is assumed that the entity stored in SlideshowEntityToGroupBox stores a displayable item ID such as an encoded image item or a derived image item. As the derived image, for example, by specifying a predefined identity (iden), grid image, or overlay (iovl) image, it is possible to display it as an advanced slide show on the canvas. Furthermore, it may be possible to store the ID of another group. For example, it is possible to display a group of images grouped as a series of shooting groups at the same timing. For example, it is possible to store a group of images taken for HDR (High Dynamic Range) compositing or a group of images taken for display as a panoramic photo as a group, and specify the ID of the group as the entity of SlideshowEntityToGroup. Conceivable. This enables more advanced slide show display.

また一方で、特定のitem_typeの画像に制限して格納する構成としてもよい。例えば、図21に示したEntityToGroupBoxの構成の場合、キャンバスの情報を持たない。そのため、派生画像として定義されているOverlayイメージを利用することが考えられる。キャンバスが必要な場合は、格納可能なエンティティのitem_typeはOverlayを示すiovlを指定する。そしてEntityToGroupBoxに格納するすべてのアイテムはOverlayの派生画像とすることなどが考えられる。その場合、SlideshowEntityToGroupに格納するすべてのOverlay派生画像のoutput_widthとoutput_heightを同じにすることが望ましい。また、符号化イメージを指定する場合は符号化イメージのみを指定するということも考えられる。この場合、各画像に関連付けるispeイメージプロパティは共通であることが望ましい。一方でこのような制限を設けずにEntityToGroupBoxのグループIDにスライドショー表示する全体サイズを指定するプロパティを関連づけてもよい。これはispeプロパティの拡張した構成のプロパティが想定される。つまり、ispeプロパティをEntityグループに適応可能とする。または、SlideshowEntityToGroupBoxの最初entityに指定された画像のサイズをスライドショー表示する全体サイズとしてもよい。その他、SlideshowEntityToGroupBoxに格納するEntityの画像サイズは共通でなければならないという制限を設けてもよい。これらの制限や表示サイズと異なるサイズの画像が指定された場合は、拡大/縮小や表示サイズに収まるように画像をクロップすることや、画像が小さい場合はその他の領域をデフォルトのキャンバス情報を別途指定するか特定のキャンバスをあらかじめ規定して表示するようにしてもよい。しかしながら、表示する画像毎にスライドショー表示する全体サイズを切り替えるように構成してもよいものとする。 On the other hand, it may be configured to store only images of a specific item_type. For example, in the case of the EntityToGroupBox configuration shown in FIG. 21, it does not have canvas information. Therefore, it is possible to use an Overlay image defined as a derived image. If a canvas is required, the item_type of the storable entity specifies iovl, which indicates Overlay. Then, it is possible to make all items stored in EntityToGroupBox derived images of Overlay. In that case, it is desirable to make the output_width and output_height of all Overlay derived images stored in SlideshowEntityToGroup the same. Also, when specifying an encoded image, it is possible to specify only the encoded image. In this case, it is desirable to have a common ispe image property associated with each image. On the other hand, a property that specifies the overall size of the slideshow display may be associated with the group ID of EntityToGroupBox without such restrictions. This is assumed to be a property with an extended configuration of the ispe property. In other words, the ispe property is made applicable to the Entity group. Alternatively, the size of the image specified in the first entity of SlideshowEntityToGroupBox may be set as the overall size of the slideshow display. In addition, a restriction may be set such that the image size of the entities stored in SlideshowEntityToGroupBox must be common. If an image of a size different from these restrictions or the display size is specified, the image may be enlarged/reduced or cropped to fit within the display size, or if the image is small, the other areas may be displayed by separately specifying default canvas information or pre-specifying a specific canvas. However, it may also be configured to switch the overall size of the slideshow display for each image to be displayed.

図25に示したImageScalingPropertyは、記述2501のratioパラメータを持つデータフォーマットであり、画像の表示サイズをスケール(拡大/縮小)するためのトランスフォーマティブアイテムプロパティである。本プロパティでは、縦横比を維持して画像サイズを拡大/縮小を行うことを可能とする。記述2501のratioは、8ビットの整数で2の倍数としての比率16、8、4、2、または1/2、1/4、1/8、1/16を表現する。上位4ビットは拡大のための操作を意味し、最上位ビットが1の場合16倍、上位から2番目のビットが1の場合は8倍、上位から3番目のビットが1の場合4倍、上位から4番目のビットが1の場合は2倍であることを示す。また、下位4ビットは縮小のための操作を意味し、最下位ビットが1の場合は1/16倍、最下位から2番目のビットが1の場合は1/8倍、最下位ビットから3番目のビットが1の場合は1/4倍、最下位ビットから4番目のビットが1の場合は1/2倍であることを示す。なお、本実施形態ではImageScalingPropertyのデータフォーマットとして以上のような構成としたが、より細かな指定を可能とするように構成してもよい。また、本プロパティはclapプロパティの変化形で表現してもよい。つまり、分子、分母を個別に指定可能とするように構成することも可能である。また、比率による指定ではなく、ターゲットとなるサイズを指定して拡大/縮小するように構成してもよい。この場合、例えば幅と高さのいずれかを指定して縦横比率を維持して拡大縮小を行うことが可能である。一方で、幅と高さの両方それぞれを指定して縦横比は維持せずに拡大縮小を行うように構成してもよい。縦横比を維持しない場合は、縦、横それぞれの倍率指定を行う方法であってもよい。また、これらの指定方法を組み合わせて定義し、任意に指定可能とするようにflags等を用いて指定方法を切り替えられる構成としてもよい。 ImageScalingProperty shown in FIG. 25 is a data format having a ratio parameter of description 2501, and is a transformative item property for scaling (enlarging/reducing) the display size of an image. This property allows you to enlarge/reduce the image size while maintaining the aspect ratio. The ratio in the description 2501 is an 8-bit integer that expresses the ratio 16, 8, 4, 2, or 1/2, 1/4, 1/8, 1/16 as a multiple of 2. The upper 4 bits mean an operation for expansion; if the most significant bit is 1, it will be multiplied by 16 times, if the second bit from the uppermost bit is 1, it will be multiplied by 8 times, if the third bit from the uppermost bit is 1, it will be multiplied by 4 times, If the fourth bit from the most significant bit is 1, it indicates that the number is doubled. In addition, the lower 4 bits mean an operation for reduction; if the least significant bit is 1, it will be multiplied by 1/16, if the second bit from the least significant bit is 1, it will be multiplied by 1/8, and from the least significant bit by 3 If the th bit is 1, it means 1/4 times the amount, and if the fourth bit from the least significant bit is 1, it means 1/2 times the amount. Note that in this embodiment, the data format of ImageScalingProperty is configured as described above, but it may be configured to allow more detailed specifications. Further, this property may be expressed as a variation of the clap property. In other words, it is also possible to configure it so that the numerator and denominator can be specified individually. Furthermore, instead of specifying the ratio, the target size may be specified and enlarged/reduced. In this case, for example, it is possible to designate either the width or the height and perform scaling while maintaining the aspect ratio. On the other hand, it may be configured such that both the width and the height are specified and scaling is performed without maintaining the aspect ratio. If the aspect ratio is not maintained, a method of specifying the magnification for each of the vertical and horizontal directions may be used. Alternatively, a configuration may be adopted in which a combination of these specifying methods is defined and the specifying method can be switched using flags or the like so that it can be specified arbitrarily.

図26に示したImageScalingPropertyは、記述2601のtarget_widthパラメータおよび記述2602のtarget_heightパラメータを持つデータフォーマットであり、画像の表示ターゲットとなるサイズを指定して拡大/縮小するためのトランスフォーマティブアイテムプロパティである。本プロパティでは、幅、高さのピクセル単位のサイズを直接指定して拡大/縮小を行うことを可能とする。記述2601のtarget_widthはサイズ変更後のイメージの幅をピクセル単位で指定する。記述2602のtarget_heightはサイズ変更後のイメージの高さをピクセル単位で指定する。なお、いずれか一方の値をのみを指定し、もう一方の値を0等の値を指定することでサイズ変更後のサイズの一方を指定しないことで縦横比率を維持して拡大縮小を行うようにしてもよい。またバージョンやフラグを用いてその値に応じていずれか一方のみ、または両方が有効となるようなデータフォーマットとしてもよい。 ImageScalingProperty shown in FIG. 26 is a data format having a target_width parameter of description 2601 and a target_height parameter of description 2602, and is a transformative item property for specifying the display target size of an image and enlarging/reducing it. This property allows you to directly specify the width and height in pixels to scale up or down. target_width in the description 2601 specifies the width of the image after resizing in pixels. target_height in the description 2602 specifies the height of the image after resizing in pixels. In addition, by specifying only one of the values and specifying a value such as 0 for the other value, it is possible to scale while maintaining the aspect ratio by not specifying one of the sizes after resizing. You can also do this. Alternatively, a data format may be used in which only one or both of the versions and flags are valid depending on their values.

また、本ImageScalingPropertyを規定済みのImageSpatialExtentsPropertyを拡張して定義してもよい。例えば規定済みのデータ構造は変更せずにImageSpatialExtentsProeprtyの意味を変更する方法が考えられる。その場合Descriptive item propertyであるImageSpatialExtentsProeprtyをtransformative propertyとしても指定可能とする拡張を行う。transformative propertyとして扱う場合は、派生画像として定義されているアイデンティティ(iden)派生画像アイテムとして定義した画像アイテムにプロパティとして関連づけることでDescriptive propertyを意図して画像アイテムに関連づけたか、transformative propertyを意図して画像アイテムに関連づけたかを識別可能となる。より詳細にはiden派生画像アイテムに関連づけられたImageSpatialExtentsProeprtyが派生元となる画像アイテムに関連づけられたImageSpatialExtentsProeprtyと異なる場合、画像サイズの拡大/縮小操作を適用する必要があると解釈する。この場合、image_widthはサイズ変更後のイメージの幅をピクセル単位で指定する。同様にimage_heightはサイズ変更後のイメージの高さをピクセル単位で指定する。なお派生画像アイテムを定義せずに直接画像サイズを変更することはできないという制約がある。 Further, this ImageScalingProperty may be defined by extending the already defined ImageSpatialExtentsProperty. For example, one possible method is to change the meaning of ImageSpatialExtentsProeprty without changing the predefined data structure. In that case, an extension is performed so that ImageSpatialExtentsProeprty, which is a descriptive item property, can also be specified as a transformative property. When handling it as a transformative property, the identity defined as a derived image (iden) is associated with an image item defined as a derived image item as a property, and the descriptive property is associated with the image item with the intention of being a descriptive property. It becomes possible to identify whether it is associated with an image item. More specifically, if the ImageSpatialExtentsProeprty associated with the iden-derived image item is different from the ImageSpatialExtentsProeprty associated with the image item from which it is derived, it is interpreted that it is necessary to apply an image size enlargement/reduction operation. In this case, image_width specifies the width of the resized image in pixels. Similarly, image_height specifies the height of the resized image in pixels. Note that there is a restriction that the image size cannot be directly changed without defining a derived image item.

一方で、図27に示したImageSpatialExtentsProeprtyはデータ構造の変更を伴う拡張である。記述2701のimage_widthパラメータ、記述2702のimage_heightパラメータ、記述2703のtarget_widthパラメータおよび記述2704のtarget_heightパラメータを持つデータフォーマットである。本データフォーマットは符号化画像データの再構成サイズおよび表示ターゲットとなるサイズを指定して画像サイズ情報の記述および拡大/縮小するためのディスクリプティブアイテムプロパティかつトランスフォーマティブアイテムプロパティである。ImageSpatialExtentsProeprtyは、関連付けられた画像アイテムの幅と高さを記述する。全ての画像アイテムはこのタイプの一つのアイテムプロパティに関連付けられる。記述2701のimage_widthおよび記述2702のimage_heightは、変換を行う前の関連する画像アイテムの再構成イメージの元のサイズをピクセル単位で示す。flags&1が1に等しい場合、再構成画像は、image_widthおよびimage_heightに指定されたピクセルサイズからtarget_widthおよびtarget_heightに指定されたピクセルサイズにそれぞれリサイズされる。image_widthはサイズ変更前の再構成イメージの幅をピクセル単位で指定する。image_heightはサイズ変更前の再構成イメージの高さをピクセル単位で指定する。target_widthはサイズ変更後の再構成イメージの幅をピクセル単位で指定する。target_heightはサイズ変更後の再構成イメージの高さをピクセル単位で指定する。図27の拡張によりImageSpatialExtentsProeprtyをiden派生画像アイテムとして定義していなくとも直接画像アイテムに拡大/縮小するためのアイテムプロパティを関連づけることが可能となる。一方で、iden派生画像アイテムとして定義して関連づけを行ってもよい。 On the other hand, ImageSpatialExtentsProperty shown in Figure 27 is an extension that involves a change in the data structure. It is a data format that has an image_width parameter of description 2701, an image_height parameter of description 2702, a target_width parameter of description 2703, and a target_height parameter of description 2704. This data format is a descriptive item property and a transformative item property for describing and enlarging/reducing image size information by specifying the reconstruction size and display target size of the encoded image data. ImageSpatialExtentsProperty describes the width and height of the associated image item. Every image item is associated with one item property of this type. The image_width in description 2701 and the image_height in description 2702 indicate the original size in pixels of the reconstructed image of the associated image item before any transformation takes place. If flags&1 is equal to 1, the reconstructed image is resized from the pixel sizes specified in image_width and image_height to the pixel sizes specified in target_width and target_height, respectively. image_width specifies the width in pixels of the reconstructed image before resizing. image_height specifies the height in pixels of the reconstructed image before resizing. target_width specifies the width in pixels of the reconstructed image after resizing. target_height specifies the height in pixels of the reconstructed image after resizing. The extension of FIG. 27 makes it possible to directly associate an item property for enlarging/reducing an image item with an image item even if the ImageSpatialExtentsProperty is not defined as an iden-derived image item. On the other hand, it is also possible to define it as an iden-derived image item and associate it.

メタデータ処理部106は、S804で作成したグループ情報のメタデータをRAM103上の出力バッファに保存しておく。 The metadata processing unit 106 stores the metadata of the group information created in S804 in the output buffer on the RAM 103.

続くS805~S806の処理もメタデータ処理部106で実行される。S805では、メタデータ処理部106は、スライドショーの各画像の表示時間(期間)がいくつかが共通で一定でデフォルト値として指定可能であるかどうかを判定する。デフォルト値として指定可能であるならば(S805でYES)、処理はS806に進み、そうでなければ(S805でNO)、処理はS807に進む。S806では、メタデータ処理部106は、S804で設定したグループにデフォルトの表示時間(期間)のパラメータを設定する。具体的には、メタデータ処理部106は、作成したグループ情報(SlideshowEntityToGroupBox)のデータのdefault_entity_durationパラメータ(図9の記述903を参照)にデフォルトの表示時間(期間)を設定する。または、図21のEntityToGroupBoxの構成の場合、後述するSlideShowTimingPropertyのslide_show_timingパラメータに値を設定し、画像グループ属性として画像グループに関連付けを行う。S807では、メタデータ処理部106は、スライドショーの各画像の表示時間(期間)を個別に設定するため、画像の表示時間(期間)を指定する画像属性情報を設定する。なお、デフォルトの表示時間(期間)を設定した場合、デフォルトの表示時間(期間)となる画像については各画像属性情報として表示時間(期間)を指定する必要はない。画像属性情報は、実施形態1でも前述したように、図14の領域1408(ItemPropertiesBox(iprp))に格納されるメタデータである。S807で作成する画像属性情報は、図14の領域1409(ItemPropetyContainerBox(ipco))に格納するエントリデータと、領域1410(ItemPropertyAssociationBox(ipma))に格納するエントリデータである。メタデータ処理部106は、ipcoに格納するエントリデータとして表示時間(期間)を示すデータを作成する。なお、ファイル作成時に表示時間(期間)を指定しない場合は表示時間を指定するプロパティを格納しないようにしてもよいし、指定しない画像にのみ関連づけないようにしてもよい。また、0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を格納してプロパティを関連づけるようにしもよい。 The subsequent processing of S805 to S806 is also executed by the metadata processing unit 106. In S805, the metadata processing unit 106 determines whether some of the display times (periods) of the images in the slideshow are common and constant and can be specified as default values. If they can be specified as default values (YES in S805), the process proceeds to S806; if not (NO in S805), the process proceeds to S807. In S806, the metadata processing unit 106 sets a default display time (period) parameter for the group set in S804. Specifically, the metadata processing unit 106 sets the default display time (period) in the default_entity_duration parameter (see description 903 in FIG. 9) of the data of the created group information (SlideshowEntityToGroupBox). Alternatively, in the case of the configuration of EntityToGroupBox in FIG. 21, a value is set in the slide_show_timing parameter of SlideShowTimingProperty (to be described later) and associated with the image group as an image group attribute. In S807, the metadata processing unit 106 sets image attribute information that specifies the display time (period) of the image in order to set the display time (period) of each image of the slide show individually. Note that, when a default display time (period) is set, it is not necessary to specify the display time (period) as each image attribute information for the image that has the default display time (period). As described above in the first embodiment, the image attribute information is metadata stored in the area 1408 (ItemPropertiesBox (iprp)) in FIG. 14. The image attribute information created in S807 is the entry data stored in area 1409 (ItemPropertyContainerBox (ipco)) in FIG. 14 and the entry data stored in area 1410 (ItemPropertyAssociationBox (ipma)). The metadata processing unit 106 creates data indicating the display time (period) as entry data to be stored in ipco. Note that if the display time (period) is not specified when the file is created, the property specifying the display time may not be stored, or may not be associated with only images that are not specified. Also, by specifying a value such as 0, information indicating that an arbitrary time (period) is specified when the file is played may be stored and associated with the property.

なお、スライドショー表示する時間(期間)の指定は画像アイテム毎の指定を禁止し、グループとして1つのみ指定可能な構成であってもよい。その場合、S805の処理とS807の処理は不要となり、S806の処理のみを行う。またその場合、領域1410(ItemPropertyAssociationBox(ipma))に格納するエントリデータはSlideshowEntityToGroupグループのグループ識別情報であるグループIDを直接指定してもよい。その場合、グループを示すIDはその他のアイテムIDやトラックIDと一意に識別可能な統一のID空間である必要がある。一方で、アイテム毎に同じ表示時間(期間)を指定する場合は、グループに格納されるアイテムすべてに同じプロパティを適応するように構成してもよい。 Note that the designation of the time (period) for displaying the slide show may be configured such that designation for each image item is prohibited and only one can be designated as a group. In that case, the processing in S805 and S807 are unnecessary, and only the processing in S806 is performed. In that case, the entry data stored in the area 1410 (ItemPropertyAssociationBox (ipma)) may directly specify the group ID, which is the group identification information of the SlideshowEntityToGroup group. In that case, the ID indicating the group needs to be in a unified ID space that can be uniquely identified from other item IDs and track IDs. On the other hand, when specifying the same display time (period) for each item, the same property may be applied to all items stored in the group.

図10に、スライドショーでの画像表示時間(期間)を指定する属性情報であるImageDurationPropertyのデータフォーマットを示す。図10に示すImageDurationPropertyは、記述1001のimage_durationパラメータを持つデータフォーマットであり、このパラメータに表示時間(期間)を設定する。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。相対的なパラメータとして例えば、デフォルトの表示時間(期間)として指定された値のパーセントや倍数で指定する等が考えられる。また、データフォーマットに、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータは、バージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、image_durationパラメータの時間単位を指定可能となる。指定可能な値は、分や秒、ミリ秒、マイクロ秒、その他時間単位を一意に識別可能な方法であればよい。表示画像毎に表示時間(期間)が異なる場合には、このパラメータ値が異なるImageDurationPropertyデータを表示画像の個数分だけipcoに格納する。そして、各表示画像の表示時間(期間)を指定するために、作成したImagePropertyのエントリデータに表示画像のアイテムIDを関連付けるipmaのエントリデータを作成して格納する。また各画像を表示する際に、キャンバス内のどの位置に表示を行うかの表示位置に関するデータを作成する。本ImageDurationPropertyを関連付けた表示画像はSlideshowEntityToGroupBoxのdefault_entity_durationより優先して表示時間(期間)を指定する。また、図21に示したSlideshowEntityToGroupBoxの場合は、グループに関連づけたデフォルトの表示時間より優先して表示時間(期間)を指定する。なお、ファイル作成時に表示時間(期間)を指定しない場合は表示時間を指定するプロパティを格納しないようにしてもよいし、指定しない画像にのみ関連づけを行わないようにしてもよい。また0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を格納したプロパティを関連づけてもよい。 FIG. 10 shows the data format of ImageDurationProperty, which is attribute information that specifies the image display time (period) in a slide show. ImageDurationProperty shown in FIG. 10 is a data format having an image_duration parameter of description 1001, and a display time (period) is set in this parameter. The unit of time set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device to determine the display time (period). For example, the relative parameter may be specified as a percentage or multiple of the value specified as the default display time (period). Further, the data format may include a parameter for specifying a unit such as time_unit. The parameter specifying this unit may be valid depending on the version and the value of flags. By specifying this parameter, the time unit of the image_duration parameter can be specified. Values that can be specified include minutes, seconds, milliseconds, microseconds, and any other method that can uniquely identify time units. If the display time (period) is different for each display image, ImageDurationProperty data with different parameter values is stored in ipco for the number of display images. Then, in order to specify the display time (period) of each display image, ipma entry data that associates the created ImageProperty entry data with the item ID of the display image is created and stored. Also, when displaying each image, data regarding the display position in the canvas is created. The display time (period) of the display image associated with this ImageDurationProperty is given priority over the default_entity_duration of SlideshowEntityToGroupBox. Further, in the case of SlideshowEntityToGroupBox shown in FIG. 21, the display time (period) is specified with priority over the default display time associated with the group. Note that if the display time (period) is not specified when creating the file, the property that specifies the display time may not be stored, or the association may not be made only with images that are not specified. Further, by specifying a value such as 0, a property storing information indicating that an arbitrary time (period) is specified during file playback may be associated.

図23に、スライドショーでのデフォルトの画像表示時間(期間)を指定するSlideShowTimingPropertyのデータフォーマットを示す。図23に示すSlideShowTimingPropertyは、記述2301のslide_show_timingパラメータを持つデータフォーマットであり、このパラメータにデフォルトの表示時間(期間)を設定する。表示時間(期間)として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。また、データフォーマットに、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータは、バージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、default_entity_durationパラメータの時間単位を指定可能となる。指定可能な値は、分や秒、ミリ秒、マイクロ秒、その他時間単位を一意に識別可能な方法であればよい。本プロパティは、図21に示したSlideshowEntityToGroupBoxにデフォルトの画像表示時間(期間)を指定する場合に好適である。本アイテムプロパティは、EntityToGroupBox内の連続する2つの画像アイテム間の継続時間を指定するために使用される。このアイテムプロパティは、entity groupのみに関連づけられるプロパティである。また、このプロパティは、SlideshowEntityToGroupBoxに関連づけられることを想定するが、それを制限しなくてもよい。つまり、他のタイプのEntityToGroupBoxに利用されてもよい。なお、本実施形態ではslide_show_timingに指定した表示時間(期間)を指定するようにしたが、言い換えればSlideshowEntityToGroupBoxに格納されたアイテムIDの並び順のインデックスに本パラメータの値を乗算したタイミングにそのアイテムIDの画像を、スライドショーを開始した時点からの経過時間に表示するタイミングを示すものと解釈してもよい。なお、ファイル作成時に表示時間(期間)を指定しない場合は表示時間を指定するプロパティを格納しないようにしてもよいし、指定しない画像またはグループにのみ関連づけを行わないようにしてもよい。また0等の値を指定することでファイル再生時に任意の時間(期間)を指定することを示す情報を格納したプロパティを関連づけてもよい。 Figure 23 shows the data format of SlideShowTimingProperty that specifies the default image display time (period) in a slide show. SlideShowTimingProperty shown in Figure 23 is a data format that has a slide_show_timing parameter of description 2301, and the default display time (period) is set to this parameter. The time unit set as the display time (period) is assumed to be seconds or milliseconds, but is not limited to this and may be any unit that can specify time. It may also be a relative time parameter used by the playback device to determine the display time (period). The data format may also be configured to include a parameter for specifying a unit such as time_unit. The parameter that specifies this unit may be configured to be valid depending on the version or the value of flags. This parameter specification makes it possible to specify the time unit of the default_entity_duration parameter. The value that can be specified may be minutes, seconds, milliseconds, microseconds, or any other method that can uniquely identify the time unit. This property is suitable for specifying a default image display time (period) for the SlideshowEntityToGroupBox shown in FIG. 21. This item property is used to specify the duration between two consecutive image items in the EntityToGroupBox. This item property is a property that is associated only with an entity group. In addition, this property is assumed to be associated with a SlideshowEntityToGroupBox, but this is not a restriction. In other words, it may be used for other types of EntityToGroupBox. In this embodiment, the display time (period) specified in slide_show_timing is specified, but in other words, it may be interpreted as indicating the timing at which the image of the item ID is displayed at the time when the index of the sorting order of the item ID stored in SlideshowEntityToGroupBox is multiplied by the value of this parameter, the elapsed time from the start of the slideshow. If the display time (period) is not specified when the file is created, the property specifying the display time may not be stored, or it may be not associated with only images or groups that are not specified. Also, by specifying a value such as 0, a property storing information indicating that an arbitrary time (period) is specified when playing the file may be associated.

なお、本実施形態ではアイテム毎に個別に表示時間(期間)を指定するImageDurationPropertyとグループでデフォルトの表示時間(期間)を指定するSlideShowTimingPropertyを別のBox構造としたが、これらは共通のBoxであってもよい。その場合、アイテムに関連づけられた場合は個別の表示時間(期間)を示し、グループに関連づけられた場合はグループ全体のデフォルトの表示時間(期間)を示す。その場合はアイテム個別に指定した表示時間(期間)を優先的に利用する。一方で、前述したようにアイテム個別の指定を禁止して、グループのみに適応するという構成であってもよい。これにより、スライドショー表示するための処理を簡素化することが可能となる。またトラックとして格納する場合との差異を明確にすることが可能となる。 Note that in this embodiment, the ImageDurationProperty, which specifies the display time (period) for each item individually, and the SlideShowTimingProperty, which specifies the default display time (period) for the group, are structured as separate Boxes, but these are not common Boxes. It's okay. In that case, when associated with an item, it indicates the individual display time (period), and when associated with a group, it indicates the default display time (period) of the entire group. In that case, the display time (period) specified for each item will be used preferentially. On the other hand, as described above, the configuration may be such that the specification of individual items is prohibited and the setting is applied only to groups. This makes it possible to simplify the process for displaying a slide show. Further, it becomes possible to clarify the difference from the case where the data is stored as a track.

図11に、画像の配置情報を指定する属性情報ImageLocationPropertyのデータフォーマットを示す。図11に示すImageLocationPropertyは、imloで識別されるBoxでversionが1の場合キャンバスに対する相対的な位置を示すalignment_positionパラメータ1101を持つ。このalignment_positionは、キャンバスに対する位置を指定した値によって決定する。alignment_positioが0である場合、表示する画像はキャンバスの左上をキャンバスにそろえるように表示する。つまりキャンバスのtop、leftと表示画像のtop,leftをそろえて表示する。この際、表示する画像の方が小さい場合はSlideshowEntityToGroupBoxで指定したcanvas_fill_valueによって決定される色が表示される。表示する画像の方が大きい場合は、キャンバスに収まる範囲の画像部分のみが表示される。本実施形態ではこのように表示するようにしたが、画像を拡大、縮小するなどの表示方法であってもよい。同様にしてalignment_positionが1の場合はtop、centerそろえるように表示する。alignment_positionが2の場合は、top、rightをそろえるように表示する。positionが3の場合はmiddle、leftを、alignment_positionが4の場合はmiddle、centerを、alignment_positionが5の場合はmiddle、rightをそろえて表示する。またalignment_positionが6の場合はbottom、left、alignment_positionが7の場合はbottom、centerを、alignment_positionが8の場合bottom、rightをそろえて表示する。なお、alignment_positionが9以降の値は、予約値である。なお、本実施形態では数値で表現したが、これらのalignment_positionの値はBitアサインして表現してもよい。例えばすべてのBitが0の場合は表示する画像はキャンバスの左上をキャンバスにそろえるように表示する。1Bit目のみが1の場合はtop、centerそろえるように表示、2Bit目のみが1の場合はtop、rightをそろえるように表示する。といったように定義してもよい。この場合複数のBitが1になることは禁止されるものとする。 FIG. 11 shows the data format of attribute information ImageLocationProperty that specifies image location information. ImageLocationProperty shown in FIG. 11 has an alignment_position parameter 1101 that indicates the relative position to the canvas when the version of the Box identified by imlo is 1. This alignment_position determines the position with respect to the canvas according to the specified value. When alignment_position is 0, the displayed image is displayed so that the upper left of the canvas is aligned with the canvas. In other words, the top and left of the canvas and the top and left of the display image are displayed aligned. At this time, if the image to be displayed is smaller, the color determined by canvas_fill_value specified in SlideshowEntityToGroupBox is displayed. If the image to be displayed is larger, only the part of the image that fits on the canvas will be displayed. In this embodiment, the image is displayed in this manner, but the image may be displayed by enlarging or reducing the image. Similarly, when alignment_position is 1, the top and center are displayed so as to be aligned. When alignment_position is 2, the top and right are displayed so as to be aligned. When the position is 3, middle and left are displayed together, when alignment_position is 4, middle and center are displayed, and when alignment_position is 5, middle and right are displayed together. Also, when alignment_position is 6, bottom and left are displayed, when alignment_position is 7, bottom and center are displayed, and when alignment_position is 8, bottom and right are displayed together. Note that values of alignment_position of 9 or later are reserved values. Note that although in this embodiment, the values of alignment_position are expressed by numerical values, they may be expressed by bit assignment. For example, if all Bits are 0, the displayed image is displayed so that the upper left of the canvas is aligned with the canvas. If only the 1st Bit is 1, display is made so that the top and center are aligned, and when only the 2nd Bit is 1, display is made so that the top and right are aligned. It may be defined as follows. In this case, it is prohibited for a plurality of Bits to become 1.

versionが1ではない場合は、キャンバスのtop、leftを基準としたオフセット値horizontal_offsetおよびvertical_offsetで位置を指定する(記述1102)。なお、それらのオフセット値にそれぞれ0を指定した場合は、version1のtop,leftを指定することと等価の設定となる。負のオフセット値を有する画素位置は含まれない。なお、SlideshowEntityToGroupBoxで指定したoutput_width以上の水平方向のピクセル位置は、指定するべきではない。同様に、SlideshowEntityToGroupBoxで指定したoutput_height以上の垂直方向のピクセル位置は、指定するべきではない。本実施形態ではImageLocationPropertyをスライドショー表示の際キャンバスに対する表示位置を指定するために用いたが、別の用途でも利用可能である。例えば、モニター(任意の画面)へ全画面表示する際に通常はモニターの中央に画像が表示されるような位置に指定の画像サイズで表示を行うが、本画像属性情報が指定されている場合は表示するモニター画面の位置を指定する際に使用するようにしてもよい。また本実施形態では表示する位置を指定する画像属性情報を付加する構成としたが、前述のように画像を拡大、縮小して表示するための指定をする画像属性情報を指定してもよい。 If version is not 1, the position is specified using offset values horizontal_offset and vertical_offset based on the top and left of the canvas (description 1102). Note that if 0 is specified for each of these offset values, the setting is equivalent to specifying the top and left of version 1. Pixel locations with negative offset values are not included. Note that a pixel position in the horizontal direction that is larger than output_width specified by SlideshowEntityToGroupBox should not be specified. Similarly, a vertical pixel position greater than output_height specified by SlideshowEntityToGroupBox should not be specified. In this embodiment, ImageLocationProperty is used to specify the display position on the canvas when displaying a slide show, but it can also be used for other purposes. For example, when displaying full screen on a monitor (any screen), the image is normally displayed in the center of the monitor at a specified image size, but if this image attribute information is specified. may be used to specify the position of the monitor screen to be displayed. Further, in this embodiment, image attribute information that specifies the display position is added, but as described above, image attribute information that specifies enlargement or reduction of the image for display may be specified.

本ImageLocationPropertyは、キャンバス上の画像位置を決定するためにアイテムプロパティを用いて構成した。一方で、図22に示すImageOverlay派生画像を用いて構成してもよい。現在、ISO/IEC23008―12(Part12)において定義されているImageOverlay派生画像の構成では、ピクセル位置を示すことによって画像の位置合わせを行うことが可能となっているが、図11のImageLocationPropertyに示したようなキャンバスに対する相対的な位置を示す定義済みの値によって位置合わせを行うことはできない。そのため、図22に示すような構成に置き換えることで前述の相対的な位置合わせが可能となる。item_type値が「iovl 」のアイテムは、大きなキャンバス内で、指定されたレイヤ順に1つ以上の入力イメージをオーバーレイすることにより、派生画像アイテムを定義する。入力画像は、ItemReferenceBox内のタイプがdimgの派生イメージアイテムのSingleItemTypeReferenceBoxに、一番下の入力イメージが最初、一番上の入力イメージが最後というように、レイヤ化された順序で一覧表示される。バージョン0の場合、位置はキャンバスの左上隅からのピクセル位置で表される。図22のhorizontal_offsetおよびvertical_offset(記述2202)には、すでに定義されているように左上隅からのピクセルのオフセット情報が格納される。バージョン1の場合、キャンバスに対する事前に定義された相対的な位置を示す情報が定義される。図22のalignment_position(記述2201)には図11のImageLocationPropertyのalignment_positionと同様のパラメータである。本ImageOverlayのアイテムIDをSlideshowEntityToGroupのEntityとして格納することで、図21に示したSlideshowEntityToGroupであってもキャンバスを指定可能である。 This ImageLocationProperty is configured using item properties to determine the image position on the canvas. On the other hand, it may be configured using the ImageOverlay derived image shown in FIG. 22. Currently, in the ImageOverlay derived image configuration defined in ISO/IEC23008-12 (Part 12), it is possible to align images by indicating pixel positions, but the ImageLocationProperty shown in Figure 11 It is not possible to perform alignment using a predefined value that indicates the position relative to the canvas. Therefore, by replacing it with the configuration shown in FIG. 22, the above-mentioned relative positioning becomes possible. An item with an item_type value of "iovl" defines a derived image item by overlaying one or more input images in a specified layer order within a large canvas. The input images are listed in the SingleItemTypeReferenceBox of the derived image item whose type is dimg in the ItemReferenceBox in a layered order such as the bottom input image first and the top input image last. For version 0, the position is expressed in pixels from the upper left corner of the canvas. As already defined, horizontal_offset and vertical_offset (description 2202) in FIG. 22 store pixel offset information from the upper left corner. For version 1, information indicating a predefined relative position to the canvas is defined. alignment_position (description 2201) in FIG. 22 is a parameter similar to alignment_position of ImageLocationProperty in FIG. 11. By storing the item ID of this ImageOverlay as the Entity of SlideshowEntityToGroup, the canvas can be specified even in SlideshowEntityToGroup shown in FIG. 21.

次に、メタデータ処理部106は、その他の画像属性情報の指定として、スライドショー表示の際の画像切り替え(遷移)効果を指定するための画像属性情報を作成する。図12に、スライドショーでの切り替え(遷移)効果を指定する属性情報TransitionEffectPropertyのデータフォーマットを示す。図24に示すTransitionEffectPropertyのデータフォーマットは図12に示すデータフォーマットにversion指定可能とした構成である。図24に示すフォーマットの場合、後述するtransition_durationは、versionが1の場合に指定可能となる。versionが0の場合transition_durationはあらかじめ定義されたデフォルトの値が利用される。また、その他の形態としてtransition_durationを持たないアイテムプロパティとして構成してもよい。本プロパティはEntityToGroupBox内の2つの連続するアイテムの表示の間に適用される切り替え(遷移)効果を規定するものである。本プロパティはアイテムまたはEntityグループに関連づけ可能である。1つまたは異なるスライドショーグループに同一の画像を格納し異なる切り替え(遷移)効果を適応する場合、派生画像として定義されているアイデンティティ(iden)派生画像アイテムを用いて行う方法が考えられる。また、同一の画像データに対して異なるitem_idを付与して行う方法が考えられる。この場合itemInformationBox(iinf)で指定されるitem_idの異なる2つ以上の画像アイテムに対してItemLocationBox(iloc)では同一のオフセットおよびサイズを持つように指定することで同一の画像データに対して異なるitem_idを指定することが可能となる。またその他ItemPropertyAssociationBoxを拡張したBoxを新たに定義することによって指定可能とする構成が考えられる。これら指定方法はスライドショーにおけるアイテムプロパティの指定のみならず、その他のアイテムプロパティの指定においても利用できる。図12、図24に示すTransitionEffectPropertyは、切り替え(遷移)効果を指定するtransition_effect(記述1201、記述2401)と切り替え(遷移)効果の時間(期間)を示すtransition_duration(記述1202、記述2402)から構成されている。transition_effectは、指定する値によって画像表示の際の効果を指定するパラメータである。例えば、transition_effectに0を指定した場合、cut切り替え(遷移)効果を行う。また、transition_effectが1の場合、fade切り替え(遷移)効果を、2の場合wipe切り替え(遷移)効果を、3の場合split切り替え(遷移)効果を行うというように、あらかじめ決定した効果を識別するための値を指定する。その他、4の場合dissolve in切り替え(遷移)効果を、5の場合zoom切り替え(遷移)効果を行うためのあらかじめ決定した効果を識別するための値を指定する。その他の値は未定義として、あらかじめ決定した効果を識別するために定義を追加してもよい。またtransision_durationは、transition_effectで指定した切り替え(遷移)効果を行う時間(期間)を指定する。切り替え(遷移)効果の時間として設定する時間の単位については秒やミリ秒の単位を想定するが、限定するものではなく、時間を指定できる単位であればよい。また、再生装置が表示時間(期間)を決定するために用いる相対的な時間パラメータであってもよい。例えば相対的な時間パラメータとして、各アイテムに指定された表示時間(期間)のうちの指定パーセントや倍数の時間(期間)を指定することが可能である。 Next, the metadata processing unit 106 creates image attribute information for specifying image switching (transition) effects when displaying a slide show as other image attribute information specifications. FIG. 12 shows a data format of attribute information TransitionEffectProperty that specifies a switching (transition) effect in a slide show. The data format of the TransitionEffectProperty shown in FIG. 24 has a configuration in which a version can be specified in the data format shown in FIG. In the case of the format shown in FIG. 24, transition_duration, which will be described later, can be specified when version is 1. When version is 0, a predefined default value is used for transition_duration. Alternatively, it may be configured as an item property that does not have transition_duration. This property specifies the switching (transition) effect applied between the display of two consecutive items in the EntityToGroupBox. This property can be associated with an item or an Entity group. When storing the same image in one or different slide show groups and applying different switching (transition) effects, one possible method is to use an identity derived image item defined as a derived image. Another possible method is to assign different item_ids to the same image data. In this case, by specifying that two or more image items with different item_ids specified in itemInformationBox (iinf) have the same offset and size in ItemLocationBox (iloc), different item_id can be specified for the same image data. It becomes possible to specify. In addition, a configuration can be considered in which specification is possible by newly defining a Box that is an extension of ItemPropertyAssociationBox. These specification methods can be used not only for specifying item properties in a slide show, but also for specifying other item properties. The TransitionEffectProperty shown in FIGS. 12 and 24 is composed of transition_effect (description 1201, description 2401) that specifies the switching (transition) effect, and transition_duration (description 1202, description 2402) that indicates the time (period) of the switching (transition) effect. ing. transition_effect is a parameter that specifies an effect when displaying an image based on a specified value. For example, if 0 is specified for transition_effect, a cut switching (transition) effect is performed. Also, to identify predetermined effects, such as when transition_effect is 1, a fade switching (transition) effect is performed, when it is 2, a wipe switching (transition) effect is performed, and when it is 3, a split switching (transition) effect is performed. Specify the value of . In addition, a value is specified to identify a predetermined effect for performing a dissolve in switching (transition) effect in the case of 4 and a zoom switching (transition) effect in the case of 5. Other values may be left undefined, and definitions may be added to identify predetermined effects. Also, transition_duration specifies the time (period) for performing the switching (transition) effect specified by transition_effect. The unit of time set as the time of the switching (transition) effect is assumed to be seconds or milliseconds, but is not limited to this, and any unit that allows time to be specified may be used. Alternatively, it may be a relative time parameter used by the playback device to determine the display time (period). For example, as a relative time parameter, it is possible to specify a specified percentage or multiple of the display time (period) specified for each item.

また、データフォーマットに、time_unit等の単位を指定するためのパラメータを含む構成としてもよい。この単位を指定するパラメータは、バージョンやflagsの値によって有効となる構成としてもよい。このパラメータ指定によって、default_entity_durationパラメータの時間単位を指定可能となる。指定可能な値は、分や秒、ミリ秒、マイクロ秒、その他時間単位を一意に識別可能な方法であればよい。また、本パラメータによって、任意の時間単位または、パーセントや倍数指定を切り替えるように構成してもよい。また、本パラメータに指定する時間は、図9のduration(記述903)および、図10のimage_duration(記述1001)、図23のslide_show_timing(記述2301)の時間には含めない時間として指定することを想定するが、その限りではない。 Further, the data format may include a parameter for specifying a unit such as time_unit. The parameter specifying this unit may be valid depending on the version and the value of flags. By specifying this parameter, it becomes possible to specify the time unit of the default_entity_duration parameter. Values that can be specified include minutes, seconds, milliseconds, microseconds, and any other method that can uniquely identify time units. Further, this parameter may be used to switch between arbitrary time units, percentages, and multiples. Furthermore, it is assumed that the time specified in this parameter is specified as a time that is not included in the duration (description 903) in FIG. 9, image_duration (description 1001) in FIG. 10, and slide_show_timing (description 2301) in FIG. However, it is not limited to that.

この場合、スライドショー表示する際の全体表示にかかる時間は、個別アイテムまたはグループに指定した表示時間(期間)の合計とそれぞれのアイテムまたはグループに指定した本プロパティの切り替え(遷移)効果を行う時間の合計となる。例えば、図23に示したSlideShowTimingPropertyをグループのみに適応し、本TransitionEffectPropertyをグループのみに適応した場合、グループに含まれるアイテムの個数にSlideShowTimingPropertyのslide_show_timingパラメータの値を乗算した値とグループに含まれるアイテムの個数にtransition_durationの値を乗算した値を加算した時間(期間)となる。 In this case, the time required to display the entire slide show is the sum of the display time (period) specified for each individual item or group and the time required to perform the switching (transition) effect of this property specified for each item or group. Total. For example, if the SlideShowTimingProperty shown in Figure 23 is applied only to groups, and this TransitionEffectProperty is applied only to groups, the value of the slide_show_timing parameter of SlideShowTimingProperty will be the number of items included in the group. of the items included in the group and the value multiplied by The time (period) is the sum of the number multiplied by the value of transition_duration.

その他、これら時間に含めた時間とする場合は、全体表示にかかる時間は、個別アイテムまたはグループに指定した表示時間(期間)の合計となる。この際、これら各表示時間(期間)よりも短い時間(期間)となるように指定すべきである。しかし、本値の方が大きな値を指定していた場合は切り替え(遷移)効果を行わないようにしてもよいし、画像の表示に合わせるようにしてもよい。また、画像表示の効果の途中で次の画像に切り替える効果を行うというようにしてもよい。一方で、相対的な時間パラメータとして指定パーセントの時間(期間)を指定した場合は各画像の表示時間(期間)との大小関係は考慮しなくてもよくなる。なお、本実施形態ではこれら二つのパラメータで構成したが、それぞれ別々の画像属性情報として定義してもよい。また本実施形態では本画像属性情報を適応した画像アイテムを表示する際の効果として指定することを想定するが、別途画像の表示を終了する際の効果として指定可能な構成であってもよい。その際、画像の表示を終了する際の効果と次の画像を表示する際の効果とは別々に指定可能であってもよいし、制約としてどちらかのみを指定可能である構成であってよい。また、本プロパティのtransition_durationを各画像アイテムの表示時間(期間)に含める場合に、連続する2つの画像の表示時間(期間)のうち、1つ目の画像の表示時間(期間)のみに含める場合が考えられる。また、連続する2つの画像の表示時間(期間)にそれぞれ50%ずつ対称的に含めることも可能である。その他、cross_item_effect_ratio等のパラメータをデータフォーマットに定義しこのパラメータによって1つ目の画像、2つ目の画像それぞれどれだけの割合や時間で含めるかを指定可能な構成であってもよい。この場合、指定した値はパーセント指定の場合は100%以下で指定する必要がある。指定したパーセント分を1つ目の画像の表示時間(期間)に含め、100-指定パーセント分の時間(期間)を2つ目の画像の表示時間(期間)に含めることとなる。なお、cross_item_effect_ratioを定義する場合、バージョンやflags等の指定によって有効となる構成であってもよい。指定されない場合はデフォルト値として50%ずつ含める等、あらかじめ指定した割合でそれぞれの画像の表示時間(期間)に含めることが可能である。 In addition, when the time is included in these times, the time required to display the entire item is the total display time (period) specified for each individual item or group. At this time, a time (period) should be specified that is shorter than each of these display times (periods). However, if a larger value is specified as the main value, the switching (transition) effect may not be performed, or may be adjusted to match the display of the image. Further, the effect of switching to the next image may be performed in the middle of the image display effect. On the other hand, if a specified percentage of time (period) is specified as a relative time parameter, there is no need to consider the magnitude relationship with the display time (period) of each image. Note that although this embodiment is configured with these two parameters, each may be defined as separate image attribute information. Further, in this embodiment, it is assumed that the image attribute information is specified as an effect when displaying an image item to which the image attribute information is applied, but a configuration may also be adopted in which it can be separately specified as an effect when ending the display of the image. In this case, the effect when displaying the image ends and the effect when displaying the next image may be specified separately, or the configuration may be such that only one of them can be specified as a constraint. . Also, when including the transition_duration of this property in the display time (period) of each image item, if it is included only in the display time (period) of the first image out of the display time (period) of two consecutive images. is possible. It is also possible to symmetrically include 50% of each in the display time (period) of two consecutive images. Alternatively, a configuration may be adopted in which a parameter such as cross_item_effect_ratio is defined in the data format, and by this parameter it is possible to specify the ratio and time to include each of the first image and the second image. In this case, if the specified value is specified as a percentage, it must be specified as 100% or less. The specified percentage is included in the display time (period) of the first image, and the time (period) corresponding to 100 - the specified percentage is included in the display time (period) of the second image. Note that when defining cross_item_effect_ratio, a configuration may be adopted in which the cross_item_effect_ratio is made effective by specifying a version, flags, or the like. If not specified, it is possible to include a pre-specified ratio in the display time (period) of each image, such as including 50% as a default value.

また、各切り替え(遷移)効果においてアイテムプロパティ内にパラメータを定義し、切り替え(遷移)効果の動作を指定できるようにしてもよい。図28に示したTransitionEffectPropertyはアイテムプロパティ内に切り替え(遷移)効果の動作を指定可能としたプロパティである。切り替え(遷移)効果を指定するtransition_effect(記述2801)と切り替え(遷移)方向を示すtransition_direction(記述2802)から構成されている。本プロパティは図12、図24同様にEntityToGroupBox内の2つの連続するアイテムの表示の間に適用される切り替え(遷移)効果を規定するものである。本プロパティはアイテムまたはEntityグループに関連づけ可能であり、図12、図24と同様の方法によって1つの画像に異なる切り替え(遷移)効果を指定可能である。(flags&1)が1に等しい場合transition_effect(記述2801)に指定した切り替え(遷移)効果に応じて適用される推奨の切り替え(遷移)方向をtransition_direction(記述2802)で指定する。(flags&1)が1に等しくない場合、本パラメータは適応されない。なお、切り替え(遷移)方向に限らず切り替え(遷移)効果に応じて適用される指定可能な任意のパラメータとして定義してもよい。 In addition, parameters may be defined within the item properties for each transition effect, allowing the operation of the transition effect to be specified. The TransitionEffectProperty shown in FIG. 28 is a property that allows the operation of a transition effect to be specified within an item property. It is composed of transition_effect (description 2801) that specifies the transition effect, and transition_direction (description 2802) that indicates the transition direction. This property, like FIG. 12 and FIG. 24, specifies the transition effect that is applied between the display of two consecutive items in the EntityToGroupBox. This property can be associated with an item or an Entity group, and different transition effects can be specified for one image in the same manner as FIG. 12 and FIG. 24. If (flags&1) is equal to 1, the recommended switching (transition) direction to be applied according to the switching (transition) effect specified in transition_effect (description 2801) is specified in transition_direction (description 2802). If (flags&1) is not equal to 1, this parameter is not applied. Note that this may be defined as any specifiable parameter to be applied according to the switching (transition) effect, not limited to the switching (transition) direction.

transition_effect(記述2801)は、指定する値によって画像表示の際の効果を指定するパラメータである。例えば、transition_effectに0を指定した場合、cut切り替え(遷移)効果を行う。この場合transition_direction(記述2802)が指定されていたとしても無視する。また、transition_effectが1の場合、fadeまたはfade-in切り替え(遷移)効果を、2の場合dissolve切り替え(遷移)効果を行う。これらの場合同様にtransition_directionの値は無視する。3の場合wipe切り替え(遷移)効果を行い、transition_directionに指定された後述する値6~13のみ有効な値として識別する。また4の場合split切り替え(遷移)効果を行い、transition_directionに指定された後述する値2~5のみ有効な値として識別する。5の場合zoom切り替え(遷移)効果を行いtransition_directionに指定された後述する値0~1のみ有効な値として識別する。6の場合push切り替え(遷移)効果を行い、transition_directionに指定された後述する値6~13のみ有効な値として識別する。このようにあらかじめ決定した効果を識別するための値を指定する。その他の値は未定義として、あらかじめ決定した効果を識別するために定義を追加してもよい。記述2802のtransition_directionは適用する切り替え(遷移)方向を示すパラメータであり、次のいずれかを指定する。0の場合in、1の場合out、2の場合horizontal-in、3の場合horizontal-out、4の場合vertical-in、5の場合vertical-out、6の場合from-left、7の場合from-right、8の場合from-top、9の場合from-bottom、10の場合from-left-top、11の場合from-right-top、12の場合from-left-bottom、13の場合from-right-bottomと定義する。その他の値は未定義とする。transition_direction値はtransition_effectに対して許可された範囲にない場合は無視される。 transition_effect (description 2801) is a parameter that specifies the effect when displaying an image depending on the value specified. For example, if transition_effect is specified as 0, a cut transition effect is performed. In this case, even if transition_direction (description 2802) is specified, it is ignored. Also, if transition_effect is 1, a fade or fade-in transition effect is performed, and if it is 2, a resolve transition effect is performed. In these cases, the value of transition_direction is similarly ignored. If it is 3, a wipe transition effect is performed, and only values 6 to 13, described below, specified in transition_direction are identified as valid values. Furthermore, in the case of 4, a split switching (transition) effect is performed, and only values 2 to 5, which are specified in transition_direction and described later, are identified as valid values. In the case of 5, a zoom switching (transition) effect is performed, and only values 0 to 1, which are specified in transition_direction and described later, are identified as valid values. In the case of 6, a push switching (transition) effect is performed, and only values 6 to 13, which are specified in transition_direction and described later, are identified as valid values. In this way, a value for identifying a predetermined effect is specified. Other values may be left undefined, and a definition may be added to identify a predetermined effect. transition_direction in description 2802 is a parameter indicating the switching (transition) direction to be applied, and one of the following is specified. Defines the value as 0 for in, 1 for out, 2 for horizontal-in, 3 for horizontal-out, 4 for vertical-in, 5 for vertical-out, 6 for from-left, 7 for from-right, 8 for from-top, 9 for from-bottom, 10 for from-left-top, 11 for from-right-top, 12 for from-left-bottom, and 13 for from-right-bottom. Any other value is undefined. The transition_direction value is ignored if it is not in the range allowed for transition_effect.

このようにtransition_effectとtransition_directionの組み合わせによって切り替え(遷移)効果を指定する。例えばtransition_effectに3のwipeを指定した場合、transition_directionは値6~13が指定可能である。この指定された値が6の場合、左からwipe動作を行うといった指定である。その他wipe効果では右から、上から、下から、左上から、右上から、左下から、右下からといった動作を指定できる。その他の切り替え(遷移)効果についても同様に適応する。その他にも各切り替え(遷移)効果に応じた詳細な動作を指定するパラメータをアイテムプロパティ内にパラメータを定義して指定してもよい。 In this way, a switching (transition) effect is specified by a combination of transition_effect and transition_direction. For example, if a wipe of 3 is specified for transition_effect, a value of 6 to 13 can be specified for transition_direction. If this designated value is 6, it is a designation to perform a wipe operation from the left. Other wipe effects can specify actions such as from the right, from the top, from the bottom, from the top left, from the top right, from the bottom left, and from the bottom right. The same applies to other switching (transition) effects. In addition, parameters specifying detailed operations according to each switching (transition) effect may be specified by defining parameters in the item property.

本実施形態ではtransition_effect(記述1201、記述2401、記述2801)を用いて切り替え(遷移)効果の種別を指定する構成としたが、それぞれの切り替え(遷移)効果のアイテムプロパティを別のアイテムプロパティとして切り替え(遷移)効果毎に4CCを用いて表す構成としてもよい。図29、図30、図31はその一例である。図29に示したWipeTransitionEffectPropertyはエンティティグループの連続する二つのアイテムの表示間に適用するWipe切り替え(遷移)効果を示すプロパティである。1つ目の画像から2つ目の画像へ拭き去るようにして次の画像を出すような効果を記述する。本アイテムプロパティは2つの連続するアイテムの1つ目に関連づける。記述2901のtransition_directionは次のいずれかの値を指定する。0の場合from-left、1の場合from-right、2の場合from-top、3の場合from-bottom、4の場合from-left-top、5の場合from-right-top、6の場合from-left-bottom、7の場合from-right-bottomを適用する切り替え(遷移)方向とする。その他の値は未定義とする。なおflags等を用いて本パラメータを有効とするか否かを切り替えてもよい。 In this embodiment, the type of switching (transition) effect is specified using transition_effect (description 1201, description 2401, description 2801), but the item property of each switching (transition) effect can be switched as a separate item property. It is also possible to use a configuration in which each (transition) effect is expressed using 4 CCs. FIG. 29, FIG. 30, and FIG. 31 are examples thereof. The WipeTransitionEffectProperty shown in FIG. 29 is a property that indicates a Wipe switching (transition) effect that is applied between displaying two consecutive items of an entity group. Describe the effect of wiping from the first image to the second image to produce the next image. This item property is associated with the first of two consecutive items. The transition_direction of the description 2901 specifies one of the following values. 0 means from-left, 1 means from-right, 2 means from-top, 3 means from-bottom, 4 means from-left-top, 5 means from-right-top, 6 means from -left-bottom, in the case of 7, from-right-bottom is applied as the switching (transition) direction. Other values are undefined. Note that flags or the like may be used to switch whether or not this parameter is enabled.

図30に示したZoomTransitionEffectPropertyはエンティティグループの連続する二つのアイテムの表示間に適用するZoom切り替え(遷移)効果を示すプロパティである。1つ目の画像から2つ目の画像をズームインまたはズームアウトするようにして次の画像を出すような効果を記述する。本アイテムプロパティは2つの連続するアイテムの1つ目に関連づける。記述3001のtransition_directionは次のいずれかの値を指定する。1の場合in、2の場合outを適用する切り替え(遷移)方向とする。その他の値は未定義とする。なおflags等を用いて本パラメータを有効とするか否かを切り替えてもよい。 The ZoomTransitionEffectProperty shown in FIG. 30 is a property that indicates a Zoom switching (transition) effect that is applied between the display of two consecutive items of an entity group. Describe the effect of zooming in or zooming out from the first image to the second image to produce the next image. This item property is associated with the first of two consecutive items. The transition_direction of the description 3001 specifies one of the following values. The switching (transition) direction is set to 1 for in and 2 for out. Other values are undefined. Note that flags or the like may be used to switch whether or not this parameter is enabled.

図31に示したFadeInTransitionEffectPropertyはエンティティグループの連続する二つのアイテムの表示間に適用するFade-In切り替え(遷移)効果を示すプロパティである。1つ目の画像から2つ目の画像をフェードインするようにして次の画像を出すような効果を記述する。本アイテムプロパティは2つの連続するアイテムの1つ目に関連づける。本プロパティでは指定可能な切り替え(遷移)方向がないためパラメータは保持しない。 The FadeInTransitionEffectProperty shown in FIG. 31 is a property that indicates a Fade-In switching (transition) effect that is applied between the display of two consecutive items of an entity group. Describe an effect that fades in from the first image to the second image to bring out the next image. This item property is associated with the first of two consecutive items. This property does not hold parameters because there is no switch (transition) direction that can be specified.

その他にも、dissolve(1つ目の画像から2つ目の画像へなめらかで段階的な遷移)を切り替え(遷移)効果として行うためのDissolveTransitionEffectItemPropertyとして定義することが考えられる。その他の切り替え(遷移)効果についても同様に異なるアイテムプロパティとして定義可能である。cut(1つ目の画像から2つ目の画像へ瞬間的な遷移)する効果としてcutTransitionEffectItemProperty、split(垂直または水平に画像をスプリットして2つ目の画像へ遷移)する効果としてsplitTransitionEffectItemProperty、push(1つ目の画像を2つ目の画像が押し出すように遷移)する効果としてpushTransitionEffectItemPropertyというように定義可能である。またこれらに指定可能なtransition_directionがある場合対応したパラメータを指定可能な値として定義する。 In addition, it is conceivable to define it as DissolveTransitionEffectItemProperty to perform dissolve (smooth and gradual transition from the first image to the second image) as a switching (transition) effect. Other switching (transition) effects can be similarly defined as different item properties. cutTransitionEffectItemProperty for the effect of cut (instantaneous transition from the first image to the second image), splitTransitionEffectItemProperty for the effect of split (split the image vertically or horizontally and transition to the second image), push( pushTransitionEffectItemProperty can be defined as an effect that causes a transition such that the first image is pushed out by the second image. Furthermore, if there is a transition_direction that can be specified, the corresponding parameter is defined as a value that can be specified.

transition_effect(記述1201、記述2401、記述2801)では未定義として予約している値の切り替え(遷移)効果についても同様に新たなアイテムプロパティとして定義可能である。またこれらは個別に画像アイテムまたはグループに指定可能である。一方で個別のアイテムプロパティとして定義した場合は最大でいずれか一つの切り替え(遷移)効果を意図したアイテムプロパティをアイテムに関連づける必要がある。つまり最大で1つの切り替え(遷移)効果のアイテムプロパティしか関連づけることができないという制約として規定する。一方で複数の切り替え(遷移)効果を適応可能としそれらをミックスした切り替え(遷移)効果として表現できるようにしてもよい。またuuid等を用いてユーザー定義の切り替え(遷移)効果を定義してもよい。uuidを用いて切り替え(遷移)効果を定義した場合はファイル生成側とファイル再生側それぞれがサポートする必要がある。 A value switching (transition) effect that is reserved as undefined in transition_effect (description 1201, description 2401, description 2801) can be similarly defined as a new item property. Moreover, these can be specified individually to image items or groups. On the other hand, if it is defined as an individual item property, it is necessary to associate the item property intended for at most one switching (transition) effect with the item. In other words, the restriction is that only one switching (transition) effect item property can be associated at most. On the other hand, it may be possible to adapt a plurality of switching (transition) effects so that they can be expressed as a mixed switching (transition) effect. Further, user-defined switching (transition) effects may be defined using uuid or the like. When a switching (transition) effect is defined using uuid, both the file generation side and the file playback side need to support it.

なお、図12、図24、図28に示したTransitionEffectPropertyは他のディスクリプティブアイテムプロパティおよびトランスフォーマティブアイテムプロパティよりも後に関連づけられる。 Note that the TransitionEffectProperty shown in FIGS. 12, 24, and 28 is associated after other descriptive item properties and transformative item properties.

図10のImageDurationPropertyまたは図23のSlideShowTimingPropertyと図12または図24のTransitonEffectPropertyを1つの画像属性情報としてまとめて構成してもよい。図13に、図10のImageDurationPropertyと図12のTransitionEffectPropertyをまとめた画像属性情報としてのSlideShowPropertyのデータフォーマットを示す。図13に示すように構成した場合、スライドショーに関する画像属性情報をまとめて指定することが可能となる。同様にして、表示時間(期間)を示す画像属性情報と切り替え(遷移)効果を示す画像属性情報を組み合わせて1つの画像属性情報としてもよい。また、これらの画像属性情報は画像グループに適応してもよい。 ImageDurationProperty in FIG. 10 or SlideShowTimingProperty in FIG. 23 and TransitonEffectProperty in FIG. 12 or 24 may be configured together as one image attribute information. FIG. 13 shows a data format of SlideShowProperty as image attribute information that combines ImageDurationProperty in FIG. 10 and TransitionEffectProperty in FIG. 12. When configured as shown in FIG. 13, it becomes possible to collectively specify image attribute information regarding a slide show. Similarly, image attribute information indicating a display time (period) and image attribute information indicating a switching (transition) effect may be combined into one image attribute information. Also, these image attribute information may be applied to image groups.

S807で作成した画像属性情報のメタデータはRAM203上の出力バッファに保存しておく。そして、S806もしくはS807の処理後S808に進み、スライドショーのメタデータ処理フローが終了する。 The metadata of the image attribute information created in S807 is stored in the output buffer on the RAM 203. After processing S806 or S807, the process advances to S808, and the slide show metadata processing flow ends.

図15は、本実施形態で出力されるHEIFファイルの例を示す図である。図15の記述1501に示すPrimaryItemBox(pitm)には、item_IDとして1が格納されている。なお、PrimaryItemBoxの拡張を行い本Boxに指定するIDとして前記SlideshowEntityToGroupを識別するグループIDを指定するようにしてもよい。その場合はIDとして後述するgroup_idである1001を指定する。記述1502に示すItemInfoBoxは、各画像アイテムをitem_IDで識別可能とし、item_IDで識別される画像アイテムがどのような種類の画像アイテムであるかを示す。item_IDが1である画像アイテムは‘hvc1’であり、HEVC符号化イメージであることを示す。同様にしてitem_ID48である画像アイテムまですべての画像アイテムがHEVC符号化イメージとして格納されている。記述1503に示すItemLocationBoxは、各画像データビットストリームのファイル内の格納位置を示している。各画像のデータがMediaDataBox内のどの位置に存在するかを特定することが可能となっている。記述1504は、ItemPropertiesBox内のItemPropertyContainerBoxを示しており、画像の属性情報を示すItemPropertyが格納されている。‘hvcC’はHEVC符号化パラメータを示している。また‘ispe’は画像のサイズを示す属性情報である。また‘dura’は前述したImageDurationPropertyBoxである。‘imlo’はImageLocationPropertyBoxである。また‘teff’はTransitionEffectPropertyBoxである。1505は各画像アイテムと属性情報との関連を示したItemPropertyAssociationBoxである。各画像アイテムが順に‘ipco’内の属性情報と関連づけが行われる。例えばitem_ID1およびitem_ID2には共通ispeが関連づけられており共通の画像サイズであることが示されている。一方でitem_ID3は異なる‘ispe’が適応されており異なる画像サイズであることがわかる。また、item_ID1にはduraが関連づけられていないためデフォルトの表示期間を適応する。また、item_ID2、item_ID3は異なる表示期間が適応されている。記述1507は、SlideshowEntityToGroupBoxである。group_idは1001、グループのエントリ数は48個、キャンバスフィル値は不透明の黒、キャンバスのサイズは幅4032、高さ3024が指定されている。スライドショー表示の順にentity_idに各画像のアイテムIDが1、2から48まで指定されている。これによりスライドショー表示するための情報が格納されている。 FIG. 15 is a diagram showing an example of a HEIF file output in this embodiment. PrimaryItemBox (pitm) shown in description 1501 in FIG. 15 stores 1 as item_ID. Note that it is also possible to extend the PrimaryItemBox and specify a group ID that identifies the SlideshowEntityToGroup as the ID specified for the main Box. In that case, 1001, which is group_id described later, is specified as the ID. ItemInfoBox shown in description 1502 allows each image item to be identified by item_ID, and indicates what type of image item the image item identified by item_ID is. An image item whose item_ID is 1 is 'hvc1', indicating that it is a HEVC encoded image. Similarly, all image items up to the image item with item_ID 48 are stored as HEVC encoded images. ItemLocationBox shown in description 1503 indicates the storage position within the file of each image data bitstream. It is possible to specify where the data of each image exists in the MediaDataBox. A description 1504 indicates an ItemPropertyContainerBox in the ItemPropertiesBox, and stores ItemProperty indicating attribute information of the image. 'hvcC' indicates HEVC encoding parameters. Also, 'ispe' is attribute information indicating the size of the image. Also, 'dura' is the aforementioned ImageDurationPropertyBox. 'imlo' is ImageLocationPropertyBox. Also, 'teff' is a TransitionEffectPropertyBox. Reference numeral 1505 is an ItemPropertyAssociationBox that indicates the association between each image item and attribute information. Each image item is associated with the attribute information in 'ipco' in order. For example, item_ID1 and item_ID2 are associated with a common ispe, indicating that they have a common image size. On the other hand, it can be seen that item_ID3 has a different 'ispe' applied and a different image size. Furthermore, since dura is not associated with item_ID1, the default display period is applied. Furthermore, different display periods are applied to item_ID2 and item_ID3. Description 1507 is SlideshowEntityToGroupBox. The group_id is 1001, the number of group entries is 48, the canvas fill value is opaque black, and the canvas size is 4032 in width and 3024 in height. The item IDs of each image are specified in entity_id from 1, 2 to 48 in the order of slide show display. This stores information for displaying a slide show.

前述したように、本実施形態で説明されたスライドショーのメタデータ作成処理を実施した場合、作成されるHEIF画像ファイルは、図14に示すような内部構造となる。なお、実施形態1ではスライドショーの派生画像を記述する。そのため、図6の領域606(ItemInfoBox(iinf))には派生画像のアイテムIDを持つエントリが格納されるが、本実施形態の場合、図14の領域1406(iinf)にスライドショーの派生画像を示すようなエントリが含まれないことは自明である。また、実施形態1ではスライドショーの派生画像の画像属性情報とアイテム参照情報を作成し、それぞれ、図6の領域607(ItemReferenceBox(iref))と領域608(ItemProptiesBox(iprp))にエントリデータとして格納する。しかし本実施形態では、図14の領域1407(iref)と領域1408(iprp)にスライドショーの派生画像に関するエントリが含まれないことについても自明である。 As described above, when the slide show metadata creation process described in this embodiment is performed, the created HEIF image file has an internal structure as shown in FIG. 14. Note that in the first embodiment, derivative images of a slide show are described. Therefore, the area 606 (ItemInfoBox (iinf)) in FIG. 6 stores an entry with the item ID of the derived image, but in the case of this embodiment, the area 1406 (iinf) in FIG. 14 shows the derived image of the slide show. It is obvious that such entries are not included. Furthermore, in the first embodiment, image attribute information and item reference information of derived images of a slide show are created and stored as entry data in area 607 (ItemReferenceBox (iref)) and area 608 (ItemProptiesBox (iprp)) in FIG. 6, respectively. . However, in this embodiment, it is also obvious that the area 1407 (iref) and area 1408 (iprp) in FIG. 14 do not include entries regarding derived images of the slide show.

本実施形態では以上の構成でスライドショー表示をするための画像をグループ化し、スライドショー表示の際の各画像の属性情報を各画像に適応する方法で構成した。しかし、画像をグループ化し、関連する属性をプロパティないしグループのパラメータとして保持する方法であれば異なる構成であってもよい。 In this embodiment, images for displaying a slide show are grouped with the above configuration, and attribute information of each image is adapted to each image when displaying the slide show. However, a different configuration may be used as long as the method groups images and holds related attributes as properties or group parameters.

以上、本実施形態によればスライドショー表示の画像をグループ化することでHEIFファイルに格納された複数の画像のうちスライドショー表示を意図する画像を容易に識別、格納することが可能となる。またグループのパラメータとしてキャンバスに関する情報を格納することでスライドショー表示する際のサイズを統一して扱うことが可能となる。また、表示時間(期間)に関する情報をグループのパラメータないしグループの属性情報、画像毎の属性情報として保持することで、スライドショー表示する時間を任意に指定可能となる。また、画像を表示する際のキャンバス位置情報を画像属性情報またはグループ化した派生画像のパラメータとして保持することで、表示位置を指定することが可能となる。さらに、スライドショー表示の際の画像切り替え(遷移)効果を画像属性情報として指定可能とすることで、より柔軟なスライドショー表示が可能となる。また、SlideshowEntityToGroupBoxに格納する画像として派生画像として定義されているアイデンティティ(iden)やグリッド(grid)イメージやオーバーレイ(iovl)イメージを指定することで派生画像をスライドショーとして表示することが可能となる。また1つのファイル内に複数のSlideshowEntityToGroupBoxを異なるグループIDを用いて格納することも可能であり、1ファイル内に複数のスライドショー表現を格納することも可能である。 As described above, according to this embodiment, by grouping images for slideshow display, it is possible to easily identify and store images intended for slideshow display among multiple images stored in a HEIF file. Also, by storing information about the canvas as a group parameter, it is possible to unify the size when displaying a slideshow. Also, by storing information about the display time (period) as a group parameter or group attribute information, or attribute information for each image, it is possible to arbitrarily specify the time for displaying the slideshow. Also, by storing canvas position information when displaying an image as image attribute information or a parameter of a grouped derived image, it is possible to specify the display position. Furthermore, by making it possible to specify the image switching (transition) effect when displaying a slideshow as image attribute information, more flexible slideshow display is possible. Also, by specifying an identity (iden), grid image (grid) image, or overlay (iovl) image defined as a derived image as an image to be stored in SlideshowEntityToGroupBox, it is possible to display the derived images as a slideshow. It is also possible to store multiple SlideshowEntityToGroupBoxes using different group IDs in one file, and it is also possible to store multiple slideshow representations in one file.

[実施形態3]
実施形態3における画像ファイル作成装置は、実施形態1において図1で説明した構成と同一の構成を有する。また、図2で示される画像ファイル作成処理のフローと、図20で示されるスライドショー再生フローも、本実施形態に同様に適用できる。但し、本実施形態では、図2のスライドショーのメタデータ作成処理(S212)、および主要画像アイテム情報を設定する処理(S213)が実施形態1と異なる。したがって本実施形態では、主にS212とS213の処理について、図16と図17、図18、図19を参照しながら説明する。
[Embodiment 3]
The image file creation device in the third embodiment has the same configuration as that described in FIG. 1 in the first embodiment. Further, the image file creation processing flow shown in FIG. 2 and the slide show playback flow shown in FIG. 20 can be similarly applied to this embodiment. However, this embodiment differs from the first embodiment in the slide show metadata creation process (S212) in FIG. 2 and the process for setting main image item information (S213). Therefore, in this embodiment, the processes of S212 and S213 will be mainly described with reference to FIGS. 16, 17, 18, and 19.

図16は、HEIF標準におけるPrimaryItemBox(pitm)のデータフォーマットを示す図である。本実施形態では、図16に示すpitmの仕様を拡張したデータフォーマットを使用する。図17に、pitmの仕様を拡張した、PrimaryItemBoxデータフォーマットの一例を示す。この拡張の意図は、主要画像アイテム情報として、1以上の画像アイテムを指定できるようにすることである。メタデータ処理部106は、S212の処理において、スライドショーで表示する画像を選択して、表示順にアイテムIDのリストを作成する。そして、主要画像アイテムにスライドショーで表示する1以上のアイテムIDを指定するためのアイテムIDのリストを作成する。次のS213では、メタデータ処理部106は、S212で作成したアイテムIDのリストに基づいて、図17の記述1701ないし記述1702の部分に画像アイテムIDをリストの順番通りに格納し、格納したアイテムIDの個数をitem_countパラメータにセットする。これにより、作成するHEIF画像ファイルは主要画像アイテムとして1以上の画像が指定されることになる。また、本実施形態では、S212において、メタデータ処理部106は、スライドショーの各画像の表示時間(期間)を個別に設定するため、各画像の表示時間(期間)を指定する画像属性情報を作成する。この画像属性情報を設定する処理は、前述した実施形態2で説明した図8のS807の処理と同じであり、メタデータ処理部106は、ItemPropertiesBox(iprp)のメタデータを作成し、RAM203に保存する。また別の方法として、現在HEIF標準ではPrimaryItemBoxは1つのみ指定可能となっているが、これを複数可能としスライドショーで表示する順にPrimaryItemBoxを格納していく方法であってもよい。 Figure 16 is a diagram showing the data format of PrimaryItemBox (pitm) in the HEIF standard. In this embodiment, a data format that extends the pitm specification shown in Figure 16 is used. Figure 17 shows an example of a PrimaryItemBox data format that extends the pitm specification. The intention of this extension is to enable one or more image items to be specified as main image item information. In the process of S212, the metadata processing unit 106 selects images to be displayed in the slide show and creates a list of item IDs in the order of display. Then, a list of item IDs is created for specifying one or more item IDs to be displayed in the slide show as the main image item. In the next step S213, the metadata processing unit 106 stores the image item IDs in the description 1701 or description 1702 in Figure 17 in the order of the list based on the list of item IDs created in S212, and sets the number of stored item IDs to the item_count parameter. As a result, one or more images are specified as the main image item in the HEIF image file to be created. Also, in this embodiment, in S212, the metadata processing unit 106 creates image attribute information that specifies the display time (period) of each image in the slide show in order to set the display time (period) of each image individually. The process of setting this image attribute information is the same as the process of S807 in FIG. 8 described in the second embodiment, and the metadata processing unit 106 creates metadata for an ItemPropertiesBox (iprp) and stores it in the RAM 203. As an alternative method, although only one PrimaryItemBox can be specified in the current HEIF standard, multiple PrimaryItemBoxes can be specified, and the PrimaryItemBoxes can be stored in the order in which they will be displayed in the slide show.

また、図18に、pitmの仕様を拡張した、PrimaryItemBoxデータフォーマットの別の例を示す。図18に示すデータフォーマットでは、実施形態2で示したSlideshowEntityToGroupBoxのgroup_idをPrimariItemBoxに指定可能となる(記述1801)。 Further, FIG. 18 shows another example of the PrimaryItemBox data format, which is an extension of the pitm specification. In the data format shown in FIG. 18, group_id of SlideshowEntityToGroupBox shown in Embodiment 2 can be specified as PrimaryItemBox (description 1801).

図19に、本実施形態で出力されるHEIFファイルの例を示す。図19では、group_idを指定可能とするファイルの例を示す。図19では、記述1901に示したPrimariItemBox(pitm)に、SlideshowEntityToGroupBox(記述1507)で指定したgroup_id1001を指定する。図19における記述1902から記述1907は、実施形態2において説明した図15における記述1502から記述1507までと共通である。 FIG. 19 shows an example of a HEIF file output in this embodiment. FIG. 19 shows an example of a file in which group_id can be specified. In FIG. 19, group_id 1001 specified in SlideshowEntityToGroupBox (description 1507) is specified in PrimaryItemBox (pitm) shown in description 1901. Descriptions 1902 to 1907 in FIG. 19 are common to descriptions 1502 to 1507 in FIG. 15 described in the second embodiment.

以上、本実施形態によればスライドショー表示の画像を拡張したPrimaryItemBoxに指定することでHEIFファイルに格納された複数の画像のうちスライドショー表示を意図する画像を容易に識別、格納することが可能となる。またPrimaryItemBoxにEntityToGroupBoxでグループ化したグループIDを指定可能とすることで、複数の画像を第一優先画像グループとして扱うことが可能となる。また、表示時間(期間)に関する情報をグループのパラメータないし、画像毎の属性情報として保持することで、スライドショー表示する時間を任意に指定可能となる。また、画像を表示する際のキャンバス位置情報を画像属性情報として保持することで、表示位置を指定することが可能となる。さらに、スライドショー表示の際の画像切り替え(遷移)効果を画像属性情報として指定可能とすることで、より柔軟なスライドショー表示が可能となる。なお、本実施形態ではPrimaryItemBoxを拡張することでスライドショーを意図するファイル格納を可能としたが、異なる拡張方法であってもスライドショー格納が実現可能であればよい。 As described above, according to this embodiment, by specifying the image to be displayed in a slideshow in the expanded PrimaryItemBox, it is possible to easily identify and store the image intended for slideshow display among the multiple images stored in the HEIF file. In addition, by making it possible to specify the group ID grouped in EntityToGroupBox in PrimaryItemBox, it is possible to treat multiple images as a first priority image group. In addition, by storing information about the display time (period) as a group parameter or attribute information for each image, it is possible to arbitrarily specify the time for displaying the slideshow. In addition, by storing canvas position information when displaying the image as image attribute information, it is possible to specify the display position. Furthermore, by making it possible to specify the image switching (transition) effect when displaying the slideshow as image attribute information, more flexible slideshow display is possible. Note that in this embodiment, the PrimaryItemBox is expanded to enable file storage intended for slideshows, but a different expansion method may be used as long as slideshow storage can be realized.

以上、各実施形態において、画像ファイル作成処理と画像ファイルに格納するスライドショーのメタデータ作成処理の実施形態について説明した。各実施形態で作成されるHEIFの画像ファイルは、図6あるいは図14に示すように、最上位の階層にftypとmetaとmdat(図6のメタデータ格納領域602(MetaBox(meta))と符号化データ格納領域611(MediaDataBox(mdat)))が並ぶ構造となる。但し、画像ファイル作成装置が作成するHEIFファイルがこの内部構造に限定するものではない。例えば、以上の何れかの実施形態を実施し、さらに動画データも一緒に格納してMovieBox(moov)のメタデータもHEIFファイルを作成可能にしてもよい。 Above, in each embodiment, the embodiments of the image file creation process and the slide show metadata creation process to be stored in the image file have been described. As shown in FIG. 6 or 14, the HEIF image file created in each embodiment has ftyp, meta, mdat (metadata storage area 602 (MetaBox (meta) in FIG. 6) and codes in the top layer. It has a structure in which digitized data storage areas 611 (MediaDataBox (mdat)) are lined up. However, the HEIF file created by the image file creation device is not limited to this internal structure. For example, any of the embodiments described above may be implemented, and moving image data may also be stored together, so that a HEIF file can also be created for MovieBox (moov) metadata.

HEIFでは、時間的に連続する静止画としてのイメージシーケンスを持つHEIFファイルは、画像を表示するアプリケーションが連続的な表示処理をできるように、連続する静止画をHEIFファイルの中にビデオトラックとして定義する必要がある。ファイル構造としては、meta以外にmoovのメタデータも必要となり得る。上記に説明した各実施形態では、複数の画像データのスライドショーの情報をmetaの中に収めたHEIFファイルを作成する。つまりユーザーが任意の複数の画像を選択して任意の順番や表示時間(期間)を決めるスライドショーの設定を持つ画像ファイルの作成においては、イメージシーケンスを格納するHEIFファイルの生成に比べ、より効率的にHEIFファイルを作成することが可能になる。
また、以上の実施形態ではファイルフォーマットとしてHEIFを例に説明したが、1ファイル内に複数画像ファイルを格納でき、それらの画像ファイルに関するメタデータを保持可能なファイルであれば他の形式に適用してもよい。
In HEIF, a HEIF file that has an image sequence as a temporally continuous still image is defined as a video track in the HEIF file so that the application that displays the image can perform continuous display processing. There is a need to. In addition to meta, MOOV metadata may also be required as a file structure. In each of the embodiments described above, a HEIF file is created in which slide show information of a plurality of image data is stored in meta. In other words, creating an image file with slide show settings where the user can select any number of images and decide the order and display time (period) is more efficient than creating a HEIF file that stores an image sequence. It becomes possible to create HEIF files.
Further, in the above embodiment, HEIF was used as an example of the file format, but it can be applied to other formats as long as multiple image files can be stored in one file and metadata related to those image files can be retained. It's okay.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

上記各実施形態の説明において、画像ファイルを作成する処理(図2等)と、作成された画像ファイルを再生する処理(図20等)が同一の装置、即ち画像ファイル作成装置100によって実行される例を説明したが、それらが別々の装置において実行されてもよい。即ち、画像ファイル作成装置100において作成された画像ファイルを、有線又は無線通信によって受信した画像ファイル再生装置が、受信された画像ファイルを解析して、図20の処理を実行することによって再生するようにしてもよい。 In the description of each of the above embodiments, the process of creating an image file (FIG. 2, etc.) and the process of reproducing the created image file (FIG. 20, etc.) are executed by the same device, that is, the image file creation device 100. Although examples have been described, they may be executed on separate devices. That is, the image file reproducing apparatus that receives the image file created by the image file creating apparatus 100 via wired or wireless communication analyzes the received image file and reproduces it by executing the process shown in FIG. You can also do this.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

100 画像ファイル作成装置、101 システムバス、102 CPU、103 RAM、104 ROM、105 符号化/復号化部、106 メタデータ処理部、107 表示部、108 通信制御部、109 ユーザーインターフェース部 100 Image file creation device, 101 System bus, 102 CPU, 103 RAM, 104 ROM, 105 Encoding/decoding unit, 106 Metadata processing unit, 107 Display unit, 108 Communication control unit, 109 User interface unit

Claims (18)

画像を格納する画像データ領域と、前記画像に関する情報であるメタデータを格納するメタデータ領域とを有する構造の所定のイメージファイルフォーマットに従った画像ファイルを生成する画像ファイル生成方法であって、
スライドショーで連続的に表示させる複数の画像を取得することと、
前記複数の画像のグループを記述するグループ化データ構造であって、前記グループがスライドショーの対象であることを示す属性情報と、前記複数の画像のそれぞれを識別するための複数の識別情報と、を含むグループ化データ構造を生成することと、
前記画像データ領域に前記複数の画像を格納し、前記メタデータ領域に前記グループ化データ構造を格納した前記画像ファイルを生成することと、
を有することを特徴とする画像ファイル生成方法。
An image file generation method for generating an image file according to a predetermined image file format having a structure including an image data area for storing an image and a metadata area for storing metadata that is information regarding the image, the method comprising:
Obtaining multiple images to be displayed sequentially in a slide show ,
A grouping data structure describing the group of the plurality of images, the grouping data structure including attribute information indicating that the group is a target of a slide show, and a plurality of identification information for identifying each of the plurality of images. generating a grouping data structure containing ;
generating the image file in which the plurality of images are stored in the image data area and the grouping data structure is stored in the metadata area;
An image file generation method comprising:
前記グループ化データ構造に含まれている前記複数の識別情報の順番は、スライドショーで連続的に表示される前記複数の画像の表示順番に対応することを特徴とする請求項1に記載の画像ファイル生成方法。The image file according to claim 1, wherein the order of the plurality of identification information included in the grouped data structure corresponds to the display order of the plurality of images that are continuously displayed in a slide show. Generation method. さらに、前記複数の画像のそれぞれの表示期間を示す情報を含む第1のプロパティデータ構造を生成して、前記画像ファイルに格納することを特徴とする請求項1または2に記載の画像ファイル生成方法。The image file generation method according to claim 1 or 2, further comprising generating a first property data structure including information indicating a display period of each of the plurality of images and storing the generated first property data structure in the image file. . 前記第1のプロパティデータ構造は、前記グループ化データ構造に関連付けられて、前記画像ファイルに格納されることを特徴とする請求項3に記載の画像ファイル生成方法。4. The image file generation method according to claim 3, wherein the first property data structure is stored in the image file in association with the grouping data structure. 前記第1のプロパティデータ構造は、前記グループ化データ構造に含まれる前記複数の識別情報の少なくとも1つに関連付けられて、前記画像ファイルに格納されることを特徴とする請求項3に記載の画像ファイル生成方法。The image according to claim 3, wherein the first property data structure is stored in the image file in association with at least one of the plurality of identification information included in the grouping data structure. File generation method. さらに、前記複数の画像が連続的に表示されるときの画像遷移効果に関する情報を含む第2のプロパティデータ構造を生成して、前記画像ファイルに格納することを特徴とする請求項1から5のいずれか1項に記載の画像ファイル生成方法。Further, a second property data structure including information regarding an image transition effect when the plurality of images are displayed successively is generated and stored in the image file. The image file generation method according to any one of the items. 前記第2のプロパティデータ構造は、前記グループ化データ構造に関連付けられて、前記画像ファイルに格納されることを特徴とする請求項6に記載の画像ファイル生成方法。7. The image file generation method according to claim 6, wherein the second property data structure is stored in the image file in association with the grouping data structure. 前記第2のプロパティデータ構造は、前記グループ化データ構造に含まれる前記複数の識別情報の少なくとも1つに関連付けられて、前記画像ファイルに格納されることを特徴とする請求項6に記載の画像ファイル生成方法。The image according to claim 6, wherein the second property data structure is stored in the image file in association with at least one of the plurality of identification information included in the grouping data structure. File generation method. 前記第2のプロパティデータ構造に含まれる前記画像遷移効果に関する情報は、ズーム、フェード、ディゾルブ、カット、スプリット、プッシュ、ワイプの少なくとも1つの遷移効果を示す情報を含むことを特徴とする請求項6から8のいずれか1項に記載の画像ファイル生成方法。7. The information regarding the image transition effect included in the second property data structure includes information indicating at least one transition effect of zoom, fade, dissolve, cut, split, push, and wipe. 9. The image file generation method according to any one of 8 to 9. 前記第2のプロパティデータ構造は、前記画像遷移効果に関するパラメータをさらに含むことを特徴とする請求項6から9のいずれか1項に記載の画像ファイル生成方法。10. The image file generation method according to claim 6, wherein the second property data structure further includes a parameter related to the image transition effect. 前記第2のプロパティデータ構造は、前記画像遷移効果における遷移期間を示す情報をさらに含むことを特徴とする請求項6から9のいずれか1項に記載の画像ファイル生成方法。10. The image file generation method according to claim 6, wherein the second property data structure further includes information indicating a transition period in the image transition effect. 前記複数の画像の少なくとも1つを表示するときの画像の拡大または縮小に関する情報をさらに生成して、前記画像ファイルに格納することを特徴とする請求項1から11のいずれか1項に記載の画像ファイル生成方法。12. The information processing apparatus according to claim 1, further comprising generating information regarding enlargement or reduction of an image when displaying at least one of the plurality of images and storing the generated information in the image file. Image file generation method. 前記所定のイメージファイルフォーマットは、HEIF(High Efficiency Image File Format)であることを特徴とする請求項1から12のいずれか1項に記載の画像ファイル生成方法。13. The image file generation method according to claim 1, wherein the predetermined image file format is HEIF (High Efficiency Image File Format). 画像を格納する画像データ領域と、前記画像に関する情報であるメタデータを格納するメタデータ領域とを有する構造の所定のイメージファイルフォーマットに従った画像ファイルを読み出す画像ファイル再生方法であって、An image file reproduction method for reading an image file according to a predetermined image file format having a structure including an image data area for storing an image and a metadata area for storing metadata that is information regarding the image, the method comprising:
前記メタデータ領域から、スライドショーで連続的に表示させる複数の画像のグループを記述するグループ化データ構造であって、前記グループがスライドショーの対象であることを示す属性情報と、前記複数の画像のそれぞれを識別するための複数の識別情報と、を含むグループ化データ構造を取得することと、obtaining, from the metadata area, a grouping data structure describing a group of a plurality of images to be displayed consecutively in a slide show, the grouping data structure including attribute information indicating that the group is a subject of the slide show and a plurality of pieces of identification information for identifying each of the plurality of images;
前記画像データ領域から、前記複数の画像を取得することと、acquiring the plurality of images from the image data area;
取得された前記グループ化データ構造および前記複数の画像に基づいて、前記複数の画像をスライドショーで連続的に表示させるように制御することと、Controlling a sequential display of the plurality of images in a slide show based on the obtained grouping data structure and the plurality of images;
を有することを特徴とする画像ファイル再生方法。13. A method for playing an image file comprising the steps of:
コンピュータ、請求項1から13のいずれか1項に記載の画像ファイル生成方法を実行させるためのプログラム。 A program for causing a computer to execute the image file generation method according to claim 1. コンピュータに、請求項14に記載の画像ファイル再生方法を実行させるためのプログラム。A program for causing a computer to execute the image file reproducing method according to claim 14. 画像を格納する画像データ領域と、前記画像に関する情報であるメタデータを格納するメタデータ領域とを有する構造の所定のイメージファイルフォーマットに従った画像ファイルを生成する画像ファイル生成装置であって、An image file generation device that generates an image file according to a predetermined image file format having a structure including an image data area for storing an image and a metadata area for storing metadata that is information regarding the image,
スライドショーで連続的に表示させる複数の画像を取得する手段と、means for obtaining a plurality of images to be displayed sequentially in a slide show;
前記複数の画像のグループを記述するグループ化データ構造であって、前記グループがスライドショーの対象であることを示す属性情報と、前記複数の画像のそれぞれを識別するための複数の識別情報と、を含むグループ化データ構造を生成する手段と、A grouping data structure describing the group of the plurality of images, the grouping data structure including attribute information indicating that the group is a target of a slide show, and a plurality of identification information for identifying each of the plurality of images. means for generating a grouping data structure containing;
前記画像データ領域に前記複数の画像を格納し、前記メタデータ領域に前記グループ化データ構造を格納した前記画像ファイルを生成する手段と、means for storing the plurality of images in the image data area and generating the image file in which the grouping data structure is stored in the metadata area;
を備えることを特徴とする画像ファイル生成装置。An image file generation device comprising:
画像を格納する画像データ領域と、前記画像に関する情報であるメタデータを格納するメタデータ領域とを有する構造の所定のイメージファイルフォーマットに従った画像ファイルを読み出す画像ファイル再生装置であって、An image file reproducing device that reads an image file according to a predetermined image file format having a structure including an image data area for storing an image and a metadata area for storing metadata that is information regarding the image,
前記メタデータ領域から、スライドショーで連続的に表示させる複数の画像のグループを記述するグループ化データ構造であって、前記グループがスライドショーの対象であることを示す属性情報と、前記複数の画像のそれぞれを識別するための複数の識別情報と、を含むグループ化データ構造を取得する手段と、A grouping data structure that describes a group of a plurality of images to be displayed continuously in a slide show from the metadata area, and attribute information indicating that the group is a target of a slide show, and each of the plurality of images. a plurality of identifying information for identifying; and means for obtaining a grouping data structure including;
前記画像データ領域から、前記複数の画像を取得する手段と、means for acquiring the plurality of images from the image data area;
取得された前記グループ化データ構造および前記複数の画像に基づいて、前記複数の画像をスライドショーで連続的に表示させるように制御する手段と、means for controlling the plurality of images to be displayed continuously in a slide show based on the acquired grouped data structure and the plurality of images;
を備えることを特徴とする画像ファイル再生装置。An image file playback device comprising:
JP2020000990A 2019-07-01 2020-01-07 Image file generation device, image file generation method, image file playback device, image file playback method, and program Active JP7457506B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080049066.3A CN114072847A (en) 2019-07-01 2020-06-10 Image file creation device, image file creation method, and program
EP20834759.1A EP3992916A4 (en) 2019-07-01 2020-06-10 Image file creation device, image file creation method, and program
PCT/JP2020/022819 WO2021002165A1 (en) 2019-07-01 2020-06-10 Image file creation device, image file creation method, and program
KR1020227002311A KR20220027982A (en) 2019-07-01 2020-06-10 Image file creation apparatus, image file creation method, and program
US17/562,711 US20220121704A1 (en) 2019-07-01 2021-12-27 Image file creation apparatus, image file creation method, and storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019123136 2019-07-01
JP2019123136 2019-07-01
JP2019180721 2019-09-30
JP2019180721 2019-09-30

Publications (3)

Publication Number Publication Date
JP2021057871A JP2021057871A (en) 2021-04-08
JP2021057871A5 JP2021057871A5 (en) 2023-09-28
JP7457506B2 true JP7457506B2 (en) 2024-03-28

Family

ID=75271221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020000990A Active JP7457506B2 (en) 2019-07-01 2020-01-07 Image file generation device, image file generation method, image file playback device, image file playback method, and program

Country Status (1)

Country Link
JP (1) JP7457506B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102607572B1 (en) * 2021-08-17 2023-11-29 주식회사 세연테크 System for image surveillance considering intelligent information processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336566A (en) 2002-12-18 2004-11-25 Sony Corp Information processing device, information processing method and program, and recording medium
JP2011502375A (en) 2007-10-10 2011-01-20 韓國電子通信研究院 Metadata structure for storing and reproducing stereoscopic data and method for storing stereoscopic content file using the same
JP2011209942A (en) 2010-03-29 2011-10-20 Olympus Imaging Corp Imaging device, image management server, image communication system, data structure of image file, and image management method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336566A (en) 2002-12-18 2004-11-25 Sony Corp Information processing device, information processing method and program, and recording medium
JP2011502375A (en) 2007-10-10 2011-01-20 韓國電子通信研究院 Metadata structure for storing and reproducing stereoscopic data and method for storing stereoscopic content file using the same
JP2011209942A (en) 2010-03-29 2011-10-20 Olympus Imaging Corp Imaging device, image management server, image communication system, data structure of image file, and image management method

Also Published As

Publication number Publication date
JP2021057871A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6528683B2 (en) Reproducing apparatus, reproducing method
EP2175644B1 (en) Photographing apparatus and method
JPWO2004095837A1 (en) Playback device, program.
RU2008136457A (en) WATCHING A VIDEO USING A REDUCED PICTURE
JP2016082546A (en) Image processing device and image processing method
JP2006237876A (en) Image reproducing apparatus, index display method by image reproducing apparatus, and computer program
US20120251081A1 (en) Image editing device, image editing method, and program
JP7457506B2 (en) Image file generation device, image file generation method, image file playback device, image file playback method, and program
JPH11284948A (en) Thumbnail generating method and thumbnail display method
US20030202110A1 (en) Arrangement of images
WO2021002165A1 (en) Image file creation device, image file creation method, and program
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
US20090279844A1 (en) Recording apparatus, recording method, recording program, and integrated circuit
US20230140152A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
JP7321991B2 (en) Media file generation device, media file playback device, media file generation method, media file playback method, program, storage medium
JPWO2019098054A1 (en) Information processing device, information processing method, recording medium, playback device, playback method, and program
WO2022065335A1 (en) Media file generation device, media file playback device, media file generation method, media file playback method, program, and recording medium
JP2004282305A (en) Image processing system
KR100487330B1 (en) Apparatus for generating thumbnail image of digital video
KR102558213B1 (en) Playback device, playback method, program, and recording medium
JP2022109138A (en) Information processing apparatus, information processing method, and program
JP2021193777A (en) Information processing device, control method of information processing device, and program
KR20050077123A (en) Apparatus and method for generating thumbnail image in pvr system
JP2024044783A (en) Image processing device, image processing method
JP2004127369A (en) Data management method, data display method, recording and reproducing device, and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R151 Written notification of patent or utility model registration

Ref document number: 7457506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151