JP2023173960A - 画像処理装置、画像処理装置の制御方法、及びプログラム - Google Patents

画像処理装置、画像処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP2023173960A
JP2023173960A JP2022086537A JP2022086537A JP2023173960A JP 2023173960 A JP2023173960 A JP 2023173960A JP 2022086537 A JP2022086537 A JP 2022086537A JP 2022086537 A JP2022086537 A JP 2022086537A JP 2023173960 A JP2023173960 A JP 2023173960A
Authority
JP
Japan
Prior art keywords
image file
annotation information
image
format
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022086537A
Other languages
English (en)
Inventor
洋平 藤谷
Yohei Fujitani
昇 大森
Noboru Omori
勇真 内藤
Yuma Naito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022086537A priority Critical patent/JP2023173960A/ja
Priority to US18/322,674 priority patent/US20230388533A1/en
Publication of JP2023173960A publication Critical patent/JP2023173960A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/116Details of conversion of file system types or formats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Discrete Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

【課題】変換前の画像ファイルに記録された全てのアノテーション情報を利用可能な変換後の画像ファイルを提供することができる画像処理装置を提供する。【解決手段】ユーザによる画像変換指示に従って、HEIFの画像ファイルをJPEGの画像ファイルに変換するデジタルカメラ100は、HEIFの画像ファイルに含まれるアノテーション情報が関連画像データでない場合、このアノテーション情報をJPEGの画像ファイルにおけるアプリケーションマーカーに記録する。また、デジタルカメラ100は、HEIFの画像ファイルに含まれるアノテーション情報が関連画像データである場合、このアノテーション情報のリンク情報をJPEGの画像ファイルにおけるアプリケーションマーカーに記録する。【選択図】図1

Description

本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。
近年、深層学習などのA.I.技術が様々な技術分野で活用されている。例えば、撮影して得られた画像データから人の顔を検出する機能を備えるデジタルカメラにおいて、動物、植物、建物、物体などといった人以外の対象物を、推論モデルを用いて精度よく検出する技術が提案されている(例えば、特許文献1参照)。また、検出された対象物に関する情報をアノテーション情報として画像データに関連付けて記録する技術が提案されている。具体的には、アノテーション情報と画像データとが記録された画像ファイルが生成される。アノテーション情報として、例えば、検出された対象物の領域を点、矩形、円などで示す情報を記録することが検討されている。また、検出された対象物の画像データを元の画像データの関連画像データとして切り出し、切り出した画像データを元の画像データに関連付けて記録することも検討されている。さらに、切り出した画像データの色、形、種別などのプロパティを元の画像データに関連付けて記録することも検討されている。
一方、デジタルカメラには、RAWの画像ファイルやHEIF(High Efficiency Image File Format)の画像ファイルを、より再生互換の高いJPEGの画像ファイルに変換する機能が搭載されている。
特開2020-91702号公報
JPEGの画像ファイルは、HEIF等の他の形式の画像ファイルと比べて、アノテーション情報を記録する領域の記録可能容量が小さい。このため、RAWの画像ファイルやHEIFの画像ファイルをJPEGの画像ファイルに変換する場合、変換前の画像ファイルに記録された全てのアノテーション情報をJPEGの画像ファイルに記録することができない。その結果、変換後の画像ファイルにおいて、変換前の画像ファイルに記録された一部のアノテーション情報を利用することができない。
本発明の目的は、変換前の画像ファイルに記録された全てのアノテーション情報を利用可能な変換後の画像ファイルを提供することができる画像処理装置、画像処理装置の制御方法、及びプログラムを提供することにある。
上記課題を解決するため、本発明の画像処理装置は、画像データ及び当該画像データのアノテーション情報を含む第1の形式の画像ファイルを、アノテーション情報を記録する所定の領域の記録可能容量が前記第1の形式の画像ファイルより小さい第2の形式の画像ファイルに変換する変換手段を備え、前記変換手段は、前記第1の形式の画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、当該アノテーション情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録し、前記第1の形式の画像ファイルに含まれるアノテーション情報が前記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録することを特徴とする。
本発明によれば、変換前の画像ファイルに記録された全てのアノテーション情報を利用可能な変換後の画像ファイルを提供することができる。
本実施の形態に係る画像処理装置としてのデジタルカメラの構成例を示すブロック図である。 本実施の形態において用いられるHEIFの画像ファイルの構成を説明するための図である。 図1のデジタルカメラにおいて実行される撮影制御処理の手順を示すフローチャートである。 本実施の形態において用いられるJPEGの画像ファイルの構成を説明するための図である。 図1のデジタルカメラにおいて実行されるフォーマット変換処理の手順を示すフローチャートである。 図5AのステップS506のヘッダー作成処理の手順を示すフローチャートである。 図5AのステップS507のJPEGの画像ファイル保存処理の手順を示すフローチャートである。 本実施の形態においてHEIFの画像ファイルを変換して生成された画像ファイルの構成を説明するための図ある。 図5Bのヘッダー作成処理の別の手順を示すフローチャートである。 図5CのJPEGの画像ファイル保存処理の別の手順を示すフローチャートである。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられても良い。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下では、本実施の形態における画像処理装置の一例として、推論モデルを使用して被写体の分類を行うデジタルカメラについて説明するが、画像処理装置はデジタルカメラに限られない。例えば、画像処理装置は、スマートフォン、タブレットPCなどといった、記憶部に格納されたHEIF等の画像ファイルを他の形式の画像ファイルに変換する装置であれば良い。
また、本実施の形態では、第1の形式の画像ファイルとしてのHEIFの画像ファイルから、第2の形式の画像ファイルとしてのJPEGの画像ファイルへ変換する構成について説明するが、この構成に限られない。第1の形式の画像ファイルは、画像データと当該画像データのアノテーション情報を含み且つアノテーション情報を記録する所定の領域の記録可能容量が第2の形式の画像ファイルより大きい構成であれば、HEIF以外の他の形式の画像ファイルであっても良い。また、第2の形式の画像ファイルは、アノテーション情報を記録する所定の領域の記録可能容量が第1の形式の画像ファイルより小さい構成であれば、JPEG以外の他の形式の画像ファイルであっても良い。
図1は、本実施の形態に係る画像処理装置としてのデジタルカメラ100の構成例を示すブロック図である。
バリア10は、デジタルカメラ100の撮影レンズ11を含む撮像部を覆うことにより、撮像部の汚れや破損を防止する保護部材である。撮影レンズ11は、光学像を撮像素子13の撮像面に結像させる。シャッター12は絞り機能を備える。撮像素子13は、撮像面上に結像された光学像を電気信号に変換する。撮像素子13は、例えば、CCDやCMOS素子等で構成される。A/D変換器15は、撮像素子13から出力されたアナログ信号をディジタル信号に変換する。なお、図1では、A/D変換器15をA/D15と表記している。A/D変換器15で変換されたディジタル信号は、所謂、RAWの画像データとして、メモリ25に書き込まれる。併せて、撮影時の情報を基に各RAWの画像データに対応する現像パラメータが生成され、現像パラメータもメモリ25に書き込まれる。現像パラメータは、露光制御で使用されるパラメータや、ホワイトバランス、色空間、コントラストなどの画像処理で使用されるパラメータを含む。
タイミング発生部14は、撮像素子13、A/D変換器15、D/A変換器21にクロック信号や制御信号を供給する。なお、図1では、D/A変換器21をD/A21と表記している。タイミング発生部14は、メモリ制御部22及びシステム制御部50Aにより制御される。画像処理部20は、A/D変換器15からのデータ或いはメモリ制御部22からのデータに対して所定の画素補間処理、色変換処理、補正処理、リサイズ処理などの各種画像処理を行う。また、画像処理部20は、撮像した画像データを用いて所定の画像処理や演算処理を行い、得られた演算結果をシステム制御部50Aに提供する。システム制御部50Aは、提供された演算結果に基づいて露光制御部40及び測距制御部41を制御することにより、AF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を実現する。
なお、画像処理部20は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてAWB(オートホワイトバランス)処理を行う。また、画像処理部20は、メモリ25に格納された画像データをJPEG、MPEG-4 AVC、HEVC(High Efficiency Video Coding)等の方式で圧縮処理を行う。さらに、画像処理部20は、これらの方式で圧縮処理が施されたデータの伸長処理を行う。画像処理部20は、処理済みのデータをメモリ25に書き込む。
また、画像処理部20は、撮像した画像データを用いて所定の演算処理を行い、各種画像データの編集処理を行う。具体的に、画像処理部20は、画像データの周囲にある不要な部分を非表示にすることで画像の表示範囲やサイズを調整するトリミング処理や、画像データや画面の表示要素などを拡大や縮小して大きさを変更するリサイズ処理を行う。さらに、画像処理部20は、圧縮処理又は伸長処理が施されたデータに対して色変換などの画像処理を施した後にJPEGの画像データに変換するRAW現像を行う。また、画像処理部20は、MPEG-4などの動画フォーマットの指定フレームを切り出してJPEGのデータに変換する処理を行う。
また、画像処理部20は、表示用画像データとともに表示部23に表示するメニューや任意の文字等のOSD(On-Screen Display)を重畳させる処理等も行う。
また、画像処理部20は、入力された画像データや撮影時に撮像素子13などから得られる被写体との距離情報などを利用して、画像データにおける被写体領域を検出する処理を行う。この処理により、画像データにおける被写体の位置や大きさなどの情報が得られる。
メモリ制御部22は、A/D変換器15、タイミング発生部14、画像処理部20、画像表示メモリ24、D/A変換器21、メモリ25を制御する。A/D変換器15を通して生成されたRAWの画像データは、画像処理部20、メモリ制御部22を介して、或いは画像処理部20を介すことなくメモリ制御部22を介して、画像表示メモリ24やメモリ25に書き込まれる。
画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器21を介して表示部23に表示される。撮像した画像データを表示部23に逐次表示することで、ライブ映像を表示する電子ファインダ機能を実現することが可能となる。メモリ25は、撮影した静止画データや動画データを格納する。メモリ25は、所定枚数の静止画データや所定時間の動画データを格納するのに十分な記憶容量を備えている。また、メモリ25はシステム制御部50Aの作業領域としても使用される。
露光制御部40は、絞り機能を備えるシャッター12を制御する。また、露光制御部40は、フラッシュ44と連動することによりフラッシュ調光機能を実現する。測距制御部41は、撮影レンズ11のフォーカシングを制御する。ズーム制御部42は、撮影レンズ11のズーミングを制御する。バリア制御部43は、保護部材であるバリア10の動作を制御する。フラッシュ44は、AF補助光の投光機能、フラッシュ調光機能を有する。
システム制御部50Aは、デジタルカメラ100全体を制御する。不揮発性メモリ51は、電気的にデータを消去・記録可能な不揮発性メモリである。不揮発性メモリ51には、例えばEEPROM等が用いられる。なお、不揮発性メモリ51には、プログラムだけでなく、地図情報等も記録されている。
シャッタースイッチ61(SW1)は、シャッターボタン60の操作途中でONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。シャッタースイッチ62(SW2)は、シャッターボタン60の操作完了でONとなり、露光処理、現像処理、記録処理を含む一連の撮影動作の開始を指示する。露光処理では、撮像素子13から読み出された信号が、A/D変換器15、メモリ制御部22を介して、RAWデータとしてメモリ25に書き込まれる。現像処理では、画像処理部20やメモリ制御部22による演算結果を用いて、メモリ25に書き込まれたRAWデータが現像され、画像データとしてメモリ25に書き込まれる。記録処理では、メモリ25から画像データが読み出され、画像処理部20による圧縮処理済みの画像データがメモリ25に格納され、その後、圧縮処理済みの画像データがカードコントローラ90を介して外部記録媒体91に書き込まれる。
操作部63は、各種ボタンやタッチパネル等を備える。例えば、操作部63は、電源ボタン、メニューボタン、撮影モード/再生モード/その他特殊撮影モードの切替えを行うモード切替えスイッチ、十字キー、セットボタン、マクロボタン、マルチ画面再生改ページボタンを含む。また、操作部63は、例えば、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動-(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等を含む。
メタデータ生成・解析部70は、外部記録媒体91に画像データを記録する際に撮影時の情報を基に画像データにExif(Exchangeable image file format)などの規格のメタデータを生成する。メタデータは、例えば、撮影時の設定情報、画像データに関する情報、画像データに含まれる被写体の特徴情報を含む。また、メタデータ生成・解析部70は、外部記録媒体91から読み込んだ画像データに付与されているメタデータの解析を行う。さらに、メタデータ生成・解析部70は、動画データを記録する際には、各フレームについてメタデータを生成し、全てのフレームのメタデータを動画データに付与することもできる。
電源80は、アルカリ電池やリチウム電池等の一次電池、NiCd電池、NiMH電池、Li電池等の二次電池、ACアダプター等からなる。電源制御部81は、電源80から供給される電力をデジタルカメラ100の各部に供給する。カードコントローラ90は、メモリカード等の外部記録媒体91とデータの送受信を行う。外部記録媒体91は、例えばメモリカードで構成され、デジタルカメラ100が撮影した画像データ(静止画データ、動画データ)を記録する。
推論モデル記録部72Aは、通信部71Aが外部装置101などから取得した推論モデルを記憶する。推論エンジン73Aは、推論モデル記録部72Aに記憶された推論モデルに、システム制御部50Aから取得した画像データと当該画像データのアノテーション情報とを含む画像ファイルを入力して推論を行う。なお、本実施の形態では、推論エンジン73Aは、通信部71Aが外部装置101などから取得して推論モデル記録部72Aに記録された推論モデルを使用してもよく、学習部74Aが再学習を行った推論モデルを使用しても良い。
推論モデルは、入力層、中間層(ニューロン)、出力層で構成されている。入力層にはシステム制御部50Aから出力された画像ファイルが入力される。中間層は、複数の層で構成されている。中間層における層の数は設計上適宜決められ、また各層におけるニューロンの数も設計上適宜決められる。出力層は、入力層に入力された画像ファイルに対応するアノテーション情報を出力する。
本実施の形態において、推論エンジン73Aが用いる推論モデルは、画像データから検出された被写体領域の分類を推論する推論モデルを想定している。この推論モデルは、様々な被写体の画像データと、その分類(例えば、犬、猫などの動物の分類や、人、動物、植物、建物などの被写体分類)の結果とを教師データとして、深層学習により外部装置101などで生成されたものである。なお、デジタルカメラ100は、これ以外の他の推論モデルを外部装置101などから取得し、取得した他の推論モデルを用いても良い。
学習部74Aは、システム制御部50Aから受けた指示に従って、推論モデル記録部72Aに記憶された推論モデルの再学習を行う。学習部74Aは、教師データ記録部74aを有する。教師データ記録部74aは、推論モデルの再学習に用いる教師データに関する情報を記録する。学習部74Aは、教師データ記録部74aに記録されている教師データを用いて、推論モデルの再学習を行い、再学習済みの推論モデルを推論モデル記録部72Aに記憶させる。これにより、推論エンジン73Aは、再学習済みの推論モデルを用いて、推論を行うことができる。なお、本実施の形態では、推論モデルの更新状況を管理するための管理バージョンを推論モデル記録部72Aに保持させ、この管理バージョンに基づいて推論モデルの更新状況を把握可能である。
通信部71Aは、送信及び受信を行うための通信回路を有する。通信部71Aによる通信は、Wi-FiやBlueToothなどの無線通信でも良く、イーサネットやUSBなどの有線通信でも良い。例えば、通信部71Aは、外部装置101の通信部71Bと通信を行うことができる。通信部71Aは、推論エンジン73Aにおいて作成されたアノテーション情報が付与された画像ファイルだけでなく、推論モデルや教師データなどの様々な情報を送受信する通信部として機能する。なお、デジタルカメラ100は、外部装置101がカメラと関連しているか否かで、送信する情報に制限をかけることができる。
外部装置101は、学習部74B、推論エンジン73B、推論モデル記録部72B、システム記録部50B、通信部71Bを有する。学習部74Bは、システム記録部50B等から受けた指示に従って、推論モデルを作成する。推論モデル記録部72Bは、デジタルカメラ100から送信された推論モデルや、学習部74Bが作成した推論モデルを記録する。
本実施の形態において、デジタルカメラ100は、撮影して得られた画像データから、人、動物、植物、建物、物体などの対象物を検出する。そして、デジタルカメラ100は、撮影して得られた画像データと当該画像データのアノテーション情報とを含む画像ファイルを生成する。デジタルカメラ100は、アノテーション情報として、例えば、検出された対象物の領域を点、矩形、円などで示す情報を画像ファイルに記録する。また、デジタルカメラ100は、検出された対象物の画像データを元の画像データの関連画像データとして切り出し、切り出した画像データ(関連画像データ)を画像ファイルに記録する。さらに、デジタルカメラ100は、切り出した画像データの色、形、種別などのプロパティを画像ファイルに記録する。本実施の形態では、例えば、ユーザからHEIFの画像データの撮影指示を受けた場合、デジタルカメラ100は、図2に示すHEIFの画像ファイル200を生成する。
図2は、本実施の形態において用いられるHEIFの画像ファイル200の構成を説明するための図である。図2(a)に示すように、HEIFの画像ファイル200は、BOXと呼ばれる複数の領域で構成され、データを木構造で記録する。BOXには、データが直接記録されてもよく、別のBOXが子要素として記録されても良い。HEIFの画像ファイル200は、画像ファイルの種別を記録する‘ftype’BOX201、アノテーション情報等を含むメタデータを記録する‘meta’BOX202、及び画像データを記録する’mdat’BOX218を備える。なお、図2(a)には、本発明の説明に必要最小限のBOXが記載されているが、HEIFの画像ファイル200は、上述した以外のBOXを備えていても良い。
’meta’BOX202は、子要素として、’アイテム定義’BOX203、‘アイテム関連付け’BOX207、’アイテム属性定義’BOX211、及び’アイテムの位置情報’BOX215を備える。
’アイテム定義’BOX203には、アノテーション情報として定義したいアイテムが子要素として記録されている。図2(a)では、’アイテム定義’BOX203に、主画像のアイテム定義204、関連画像のアイテム定義205、領域のアイテム定義206が記録されている。なお、これら以外のアノテーション情報を定義する場合には、’アイテム定義’BOX203に、定義したいアイテムが追記される。主画像のアイテム定義204には、HEIFの画像ファイル200の主画像データとなる図2(b)の画像データ250のアイテム番号の定義や、アイテムの種別が「画像」であることの定義などが記録される。関連画像のアイテム定義205には、画像データ250から切り出された図2(c)の関連画像データ251のアイテム番号の定義や、アイテムの種別が「画像」であることの定義などが記録される。領域のアイテム定義206には、画像データ250において関連画像データ251に対応する領域、例えば、図2(d)の領域253のアイテム番号の定義やアイテムの種別が「領域」であることの定義が記録される。
‘アイテム関連付け’BOX207には、アイテムの参照情報が子要素として記録されている。図2(a)では、‘アイテム関連付け’BOX207に、主画像と関連画像の関係208、主画像と主画像の属性情報の関係209、関連画像と関連画像の属性情報の関係210が記録されている。なお、これら以外のアノテーション情報を定義する場合には、‘アイテム関連付け’BOX207に、定義したいアイテムが追記される。主画像と関連画像の関係208には、主画像データのアイテム番号と関連画像データのアイテム番号とが対応付けて記録される。主画像と主画像の属性情報の関係209には、主画像データのアイテム番号と後述する主画像の属性情報212とが対応付けて記録される。関連画像と関連画像の属性情報の関係210には、関連画像データのアイテム番号と後述する関連画像の属性情報213とが対応付けて記録される。
’アイテム属性定義’BOX211には、アイテムの属性情報などのプロパティが子要素として記録される。図2(a)では、‘アイテム属性定義’BOX211に、主画像の属性情報212、関連画像の属性情報213、及び領域の属性情報214が記録されている。なお、これら以外のアノテーション情報を定義する場合には、‘アイテム属性定義’BOX211に、定義したいアイテムが追記される。主画像の属性情報212には、主画像データのサイズ、色空間情報、ピクセル情報、回転情報などが記録される。関連画像の属性情報213には、関連画像データのサイズ、色空間情報、ピクセル情報、回転情報などが記録され、更に検出された対象物の属性も記録される。検出された対象物の属性を関連画像の属性情報213に記録することで、例えば、図2(d)に示すように、関連画像データに対応する領域253に当該属性を示す「Flower」という文字列254を表示することができる。領域の属性情報214には、検出された対象物の領域の形状や座標が記録される。
’アイテムの位置情報’BOX215には、’mdat’BOX218における画像データの位置情報が子要素として記録される。図2(a)では、主画像の位置情報216及び関連画像の位置情報217が記録されている。主画像の位置情報216には、’mdat’BOX218における主画像データの位置情報が記録される。関連画像の位置情報217には、’mdat’BOX218における関連画像データの位置情報が記録される。’mdat’BOX218には、主画像データ219や、当該主画像データ219の関連画像データ220が記録される。なお、mdat’BOX217には、HEIF以外の他の形式の画像データも記録可能である。
次に、デジタルカメラ100による撮影について説明する。図3は、図1のデジタルカメラ100において実行される撮影制御処理の手順を示すフローチャートである。図3の撮影制御処理は、システム制御部50Aが不揮発性メモリ51等に格納されたプログラムを実行することによって実現される。図3の撮影制御処理は、ユーザが操作部63に含まれるモード切替えスイッチで撮影モードを設定した際に実行される。
図3において、まず、システム制御部50Aは、ユーザがシャッタースイッチ61(SW1)、シャッタースイッチ62(SW2)を押下してHEIFの画像データの撮影を指示したか否かを判別する(ステップS301)。ステップS301において、ユーザがHEIFの画像データの撮影を指示したと判別された場合、処理はステップS302へ進む。ステップS301において、ユーザがHEIFの画像データの撮影を指示しないと判別された場合、処理は後述するステップS308へ進む。
ステップS302では、システム制御部50Aは、撮影処理を行う。撮影処理では、システム制御部50Aは、測距制御部41や露光制御部40を制御してAF処理、AE処理を行い、撮像素子13から出力される映像データをメモリ25に保存する。また、システム制御部50Aは、画像処理部20を制御して、メモリ25に保存された映像データをHEIFで圧縮したHEIFの画像データを生成する。
次いで、ステップS303において、システム制御部50Aは、画像処理部20を制御して、メモリ25に保存された映像データに対して被写体検出処理を施す。これにより、映像データにおける被写体領域が検出される。
次いで、ステップS304において、システム制御部50Aは、ステップS302にて生成された画像データとステップS303にて検出された被写体領域の情報とを含むHEIFの画像ファイル200を外部記録媒体91に保存する。被写体領域の情報は、メタデータ生成・解析部70により、後述する推論処理にて用いられる情報としてHEIFの画像ファイル200の‘meta’BOX202に記録される。
次いで、ステップS305において、システム制御部50Aは、推論エンジン73Aによる推論処理を実行可能であるか否かを判別する。例えば、推論エンジン73Aが他の画像ファイルに対する処理を実行中である場合、シャッタースイッチ62がユーザに押下され続けて連写撮影が指示されている場合、推論エンジン73Aを用いた推論処理を実行可能でないと判別される。この場合、処理は後述するステップS308へ進む。一方、上述した何れにも該当しない場合には、推論エンジン73Aを用いた推論処理を実行可能であると判別される。この場合、処理はステップS306へ進む。
ステップS306において、システム制御部50Aは、HEIFの画像ファイル200に対して、推論エンジン73Aによる推論処理を行う。推論エンジン73Aは、HEIFの画像ファイル200を入力として、推論モデル記録部72Aに記録された推論モデルを用いた推論処理を行う。この推論処理では、HEIFの画像ファイル200に含まれる画像データとアノテーション情報から、画像データにおける被写体領域が特定され、被写体領域毎に、被写体領域に対応する被写体の分類結果が推論結果として出力される。なお、推論結果以外に、推論処理の途中の動作上のデバッグ情報やログなどといった推論処理に関連する情報が出力されても良い。
次いで、ステップS307において、システム制御部50Aは、ステップS306にて得られた被写体の分類結果をアノテーション情報としてHEIFの画像ファイル200に記録する。なお、HEIFの画像ファイル200には、推論モデルの推論結果として出力された被写体の分類結果がアノテーション情報として記録されれば良い。このため、被写体の分類結果がそのままHEIFの画像ファイル200に記録されても良く、テキスト形式、バイナリ型式などその記録フォーマットや形式は問わないこととする。このように、HEIFの画像ファイル200に画像データと被写体の分類結果とを記録することで、これらのデータを個別で管理するより、容易に管理することができる。また、システム制御部50Aは、推論モデル記録部72Aに保持されている推論モデルの管理バージョンやデバッグ情報などを推論モデル管理情報としてHEIFの画像ファイル200に記録する。
次いで、ステップS308において、システム制御部50Aは、ユーザによる撮影完了の指示を受け付けたか否かを判別する。例えば、ユーザは、操作部63におけるモード切り替えスイッチで撮影モード以外のモードを設定する、若しくは電源ボタンで電源OFFに設定することで、撮影完了を指示可能である。ステップS308において、ユーザによる撮影完了の指示を受け付けないと判別された場合、処理はステップS301へ戻る。ステップS308において、ユーザによる撮影完了の指示を受け付けたと判別された場合、本処理は終了する。
このようにして、本実施の形態では、デジタルカメラ100が被写体を撮影して生成した画像データと被写体の分類結果等のアノテーション情報とを含むHEIFの画像ファイル200が生成される。
また、本実施の形態におけるデジタルカメラ100は、JPEGの画像ファイルを生成することも可能であり、例えば、上述したHEIFの画像ファイル200をJPEGの画像ファイルに変換することもできる。
ここで、JPEGの画像ファイルは、HEIF等の他の形式の画像ファイルと比べて、アノテーション情報の記録領域の記録可能容量が小さい。このため、HEIFの画像ファイル等をJPEGの画像ファイルに変換する場合、変換前の画像ファイルに記録された全てのアノテーション情報をJPEGの画像ファイルに記録することができない。その結果、変換後の画像ファイルにおいて、変換前の画像ファイルに記録された一部のアノテーション情報を利用することができない。
これに対し、本実施の形態では、HEIFの画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報である場合、当該アノテーション情報は後述するアプリケーションマーカーに記録される。HEIFの画像ファイルに含まれるアノテーション情報が上記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報が後述するアプリケーションマーカーに記録される。
図4は、本実施の形態において用いられるJPEGの画像ファイル400の構成を説明するための図である。JPEGの画像ファイル400には、図4に示すように、その先頭に画像ファイルの開始を示すマーカーSOI401が記録され、マーカーSOI401の次の行に、アプリケーションマーカー(図4では、「APP1」と表記。)402が記録される。
アプリケーションマーカー402は、アノテーション情報等を記録する領域であり、その記録可能容量は、HEIFの画像ファイル200における‘meta’BOX202の記録可能容量より小さい。アプリケーションマーカー402には、APP1の識別コード403が記録される。代表的なAPP1の識別コード403として、例えば、’Exif’が挙げられる。アプリケーションマーカー402には、各種メタデータが記録される。具体的に、アプリケーションマーカー402には、主画像のアイテム定義404、関連画像のアイテム定義405、領域のアイテム定義406、主画像と関連画像の関係407、主画像と主画像の属性情報の関係408が記録される。更に、アプリケーションマーカー402には、関連画像と関連画像の属性情報の関係409、主画像の属性情報410、関連画像の属性情報411、領域の属性情報412が記録される。
主画像のアイテム定義404には、上述した主画像のアイテム定義204と同様の情報が記録される。関連画像のアイテム定義405には、上述した関連画像のアイテム定義205と同様の情報が記録される。領域のアイテム定義406には、上述した領域のアイテム定義206と同様の情報が記録される。主画像と関連画像の関係407には、上述した主画像と関連画像の関係208と同様の情報が記録される。主画像と主画像の属性情報の関係408には、上述した主画像と主画像の属性情報の関係209と同様の情報が記録される。関連画像と関連画像の属性情報の関係409には、上述した関連画像と関連画像の属性情報の関係210と同様の情報が記録される。主画像の属性情報410には、上述した主画像の属性情報212と同様の情報が記録される。関連画像の属性情報411には、上述した関連画像の属性情報213と同様の情報が記録される。領域の属性情報412には、上述した領域の属性情報214と同様の情報が記録される。
領域の属性情報412の次の行には、アプリケーションマーカー(図4では、「APP2」と表記。)413が記録される。アプリケーションマーカー413も、アプリケーションマーカー402と同様に、アノテーション情報等を記録する領域であり、その記録可能容量は、HEIFの画像ファイル200における‘meta’BOX202の記録可能容量より小さい。アプリケーションマーカー413には、APP2の識別コード414が記録される。アプリケーションマーカー413には、関連画像データのリンク情報がメタデータとして記録される。具体的に、アプリケーションマーカー413には、関連画像の位置情報415が記録される。関連画像の位置情報415には、後述する関連画像データ419のサイズ及び関連画像データ419の画像開始を示すマーカーSOI418の場所が記録される。
関連画像の位置情報415の次の行には、主画像データ416が記録される。主画像データ416は、JPEGの画像ファイル400の主画像データである。主画像データ416の次の行には、主画像データの最後を示すマーカーEOI417が記録される。マーカーEOI417の次の行には、関連画像データの開始を示すマーカーSOI418、関連画像データ419、がこの順に記録される。関連画像データ419の次の行には、関連画像データの最後を示すマーカーEOI420が記録される。
図5Aは、図1のデジタルカメラ100において実行されるフォーマット変換処理の手順を示すフローチャートである。図5Aのフォーマット変換処理は、システム制御部50Aが不揮発性メモリ51等に格納されたプログラムを実行することによって実現される。図5Aのフォーマット変換処理は、デジタルカメラ100がユーザによる画像変換指示を操作部63にて受け付けた際に実行される。なお、ユーザは、外部記録媒体91に保存された複数の画像ファイルの中から、処理対象となる少なくとも1つの画像ファイルを選択して画像変換指示を行う。図5Aでは、一例として、ユーザが1つのHEIFの画像ファイルを選択し、このHEIFの画像ファイルをJPEGの画像ファイルに変換させる画像変換指示を行った場合について説明する。
図5Aにおいて、まず、ステップS500では、システム制御部50Aは、ユーザが選択したHEIFの画像ファイルにおけるメタデータの読み込み処理を行う。具体的に、システム制御部50Aは、HEIFの画像ファイルにおける’ftype’BOX201及び’meta’BOX202にそれぞれ記録された情報をメモリ25に読み込む。
次いで、ステップS501において、システム制御部50Aは、上記HEIFの画像ファイルのメタデータ解析処理を行う。このメタデータ解析処理では、システム制御部50Aは、ステップS500にてメモリ25に読み込んだ’ftype’BOX201の情報及び’meta’BOX202の情報を解析して、上記HEIFの画像ファイルに記録されたメタデータを抽出する。このメタデータ解析処理により、上記HEIFの画像ファイルに記録された主画像の位置情報216及び関連画像の位置情報217が得られる。
次いで、ステップS502において、システム制御部50Aは、上記HEIFの画像ファイルに記録された主画像データの読み込み処理を行う。具体的に、システム制御部50Aは、上記メタデータ解析処理によって得られた主画像の位置情報216を用いて、上記HEIFの画像ファイルから主画像データ219を読み取って、当該主画像データ219をメモリ25に書き込む。
次いで、ステップS503において、システム制御部50Aは、主画像データ219のフォーマット変換処理を行う。具体的に、システム制御部50Aは、ステップS502にてメモリ25に書き込んだ主画像データ219を復号化する。更に、システム制御部50Aは、不図示の変換エンジンを用いて、復号化済みの主画像データ219をJPEGの画像ファイルに記録する主画像データ416として符号化する。
次いで、ステップS504において、システム制御部50Aは、上記HEIFの画像ファイルに記録された関連画像データの読み込み処理を行う。具体的に、システム制御部50Aは、上記メタデータ解析処理によって得られた関連画像の位置情報217を用いて、上記HEIFの画像ファイルから関連画像データ220を読み取って、当該関連画像データ220をメモリ25に書き込む。
次いで、ステップS505において、システム制御部50Aは、関連画像データ220のフォーマット変換処理を行う。具体的に、システム制御部50Aは、ステップS504にてメモリ25に書き込んだ関連画像データ220を復号化する。更に、システム制御部50Aは、不図示の変換エンジンを用いて、復号化済みの関連画像データ220をJPEGの画像ファイルに記録する関連画像データ419として符号化する。
次いで、ステップS506において、システム制御部50Aは、後述する図5Bのヘッダー作成処理を行って、変換後の画像ファイルとなるJPEGの画像ファイルのヘッダーを作成する。次いで、ステップS507において、システム制御部50Aは、後述する図5CのJPEGの画像ファイル保存処理を行い、上記HEIFの画像ファイルから変換したJPEGの画像ファイルを外部記録媒体91に保存して、本処理を終了する。
図5Bは、図5AのステップS506のヘッダー作成処理の手順を示すフローチャートである。
図5Bにおいて、ステップS520では、システム制御部50Aは、第1の記憶領域確保処理を行う。第1の記憶領域確保処理により、変換後の画像ファイルとなるJPEGの画像ファイルのヘッダーの作成に用いられる第1の記憶領域がメモリ25に確保される。
次いで、ステップS521において、システム制御部50Aは、上記HEIFの画像ファイルのメタデータ取得処理を行う。具体的に、システム制御部50Aは、ステップS500にてメモリ25に書き込まれた’ftype’BOX201の情報及び’meta’BOX202の情報をメモリ25から読み出す。
次いで、ステップS522において、システム制御部50Aは、第1のアプリケーションマーカー作成処理を行う。第1のアプリケーションマーカー作成処理により、JPEGの画像ファイルにおけるアプリケーションマーカー402が作成される。ここでは、アプリケーションマーカー402の一例として、APP1が作成されることとする。なお、ステップS522において作成されるアプリケーションマーカー402は、APP1に限られず、後述するステップS523において作成される識別コードに対応する別のアプリケーションマーカーが作成されても良い。
次いで、ステップS523において、システム制御部50Aは、第1の識別コード作成処理を行う。第1の識別コード作成処理により、JPEGの画像ファイルにおけるAPP1の識別コード403が作成される。ここでは、APP1の識別コード403の一例として、’Exif’が作成されることとする。なお、ステップS523において作成されるAPP1の識別コード403は、’Exif’に限られず、他の識別コードが作成されても良い。
次いで、ステップS524において、システム制御部50Aは、ステップS521にて取得したメタデータがアノテーション情報を含むか否かを判別する。ステップS524において、ステップS521にて取得したメタデータがアノテーション情報を含むと判別された場合、処理はステップS525へ進む。ステップS524において、ステップS521にて取得したメタデータがアノテーション情報を含まないと判別された場合、処理は後述するステップS535へ進む。
ステップS525では、システム制御部50Aは、JPEGの画像ファイルに記録するアノテーション情報を生成するアノテーション情報生成処理を開始する。アノテーション情報生成処理では、ステップS526~S533の処理が行われる。アノテーション情報生成処理は、HEIFの画像ファイルに記録される全てのアノテーション情報に対して実行される。
ステップS526では、システム制御部50Aは、ステップS521にて取得したメタデータからアノテーション情報を取得する。次いで、システム制御部50Aは、取得したアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報であるか否かを判別する。具体的に、ステップS527において、システム制御部50Aは、取得したアノテーション情報が関連画像データであるか否かを判別する。ステップS527では、例えば、ステップS521にて取得したメタデータにおける’アイテム定義’BOX203の情報に基づいて、取得したアノテーション情報が関連画像データであるか否かが判別される。
ステップS527において、取得したアノテーション情報が関連画像データでないと判別された場合、処理はステップS528へ進む。ステップS528では、システム制御部50Aは、第1の生成処理を行う。第1の生成処理では、取得したアノテーション情報、つまり、関連画像データ以外のアノテーション情報が、そのままの状態で、JPEGの画像ファイル400に記録されるアノテーション情報として生成される。例えば、取得したアノテーション情報が領域の属性情報214である場合、システム制御部50Aは、領域の属性情報214をそのままの状態で第1の記憶領域に保存する。このアノテーション情報は、後述する図5CのJPEGの画像ファイル保存処理により、領域の属性情報412として、JPEGの画像ファイル400におけるアプリケーションマーカー402に記録される。このように本実施の形態では、HEIFの画像ファイルにおけるアノテーション情報のうち所定値以上のデータ量となる所定のアノテーション情報以外のアノテーション情報は、JPEGの画像ファイルのアプリケーションマーカーにそのままの状態で記録される。次いで、処理は後述するステップS534へ進む。
ステップS527において、取得したアノテーション情報が関連画像データであると判別された場合、処理は後述するステップS529へ進む。ステップS529では、システム制御部50Aは、第2の生成処理を行う。第2の生成処理では、JPEGの画像ファイルのアプリケーションマーカー402に記録されるアノテーション情報であって関連画像データに関連するアノテーション情報が生成される。例えば、関連画像と関連画像の属性情報の関係409に対応するアノテーション情報や、関連画像の属性情報411に対応するアノテーション情報が生成される。生成されたアノテーション情報は、ステップS520にて確保された第1の記憶領域に保存される。
次いで、ステップS530において、システム制御部50Aは、第2の記憶領域確保処理を行う。第2の記憶領域確保処理により、第1の記憶領域と異なる第2の記憶領域がメモリ25に確保される。第2の記憶領域は、JPEGの画像ファイルにおけるアプリケーションマーカー413に記録されるアノテーション情報の作成に用いられる記憶領域である。
次いで、ステップS531において、システム制御部50Aは、第2のアプリケーションマーカー作成処理を行う。第2のアプリケーションマーカー作成処理により、JPEGの画像ファイルにおけるアプリケーションマーカー413が作成される。ここでは、アプリケーションマーカー413の一例として、APP2が作成されることとする。なお、ステップS531において作成されるアプリケーションマーカー413は、APP2に限られず、後述するステップS532において作成される識別コードに対応する別のアプリケーションマーカーが作成されても良い。
次いで、ステップS532において、システム制御部50Aは、第2の識別コード作成処理を行う。第2の識別コード作成処理により、JPEGの画像ファイルにおけるAPP2の識別コード414が作成される。
次いで、ステップS533において、システム制御部50Aは、第3の生成処理を行う。第3の生成処理では、JPEGの画像ファイルにおけるアプリケーションマーカー413に記録される関連画像データのリンク情報が生成される。例えば、関連画像の位置情報415に対応するリンク情報が生成される。生成されたリンク情報は、ステップS530にて確保された第2の記憶領域に保存される。ステップS529,S533にて生成された各種情報は、後述する図5CのJPEGの画像ファイル保存処理により、JPEGの画像ファイルにおけるアプリケーションマーカー402,413に記録される。このように本実施の形態では、HEIFの画像ファイルにおけるアノテーション情報のうち、所定値以上のデータ量となる所定のアノテーション情報は、JPEGの画像ファイルのアプリケーションマーカーに記録されず、そのリンク情報が記録される。なお、後述する図5CのJPEGの画像ファイル保存処理にて関連画像データの位置情報が確定する場合には、位置情報が確定したタイミングで関連画像の位置情報415に対応するリンク情報が更新されても良い。その後、処理はステップS534へ進む。
上記HEIFの画像ファイルに記録された全てのアノテーション情報に対する処理を完了すると、システム制御部50Aは、ステップS534において、アノテーション情報生成処理を終了する。
次いで、ステップS535において、システム制御部50Aは、アノテーション情報以外のメタデータを生成する。例えば、APP1の識別コード403が’Exif’である場合、ステップS535では、撮影日時や撮影条件等のメタデータが生成される。その後、本処理は終了する。
図5Cは、図5AのステップS507のJPEGの画像ファイル保存処理の手順を示すフローチャートである。
図5Cにおいて、ステップS540では、システム制御部50Aは、上述したヘッダー作成処理によって生成されたJPEGの画像ファイルのヘッダーに関する情報、例えば、第1の記録領域に保存された情報を外部記録媒体91に書き込む。次いで、ステップS541において、システム制御部50Aは、上述したヘッダー作成処理によって生成されたアプリケーションマーカー413(APP2)に記録される情報、例えば、第2の記録領域に保存された情報を外部記録媒体91に書き込む。次いで、ステップS542において、システム制御部50Aは、JPEGの画像ファイル400の主画像データ416を外部記録媒体91に書き込む。次いで、ステップS543において、システム制御部50Aは、JPEGの画像ファイル400の関連画像データ419を外部記録媒体91に書き込む。次いで、ステップS544において、システム制御部50Aは、その他のデータを外部記録媒体91に書き込む。その後、本処理は終了する。
上述した実施の形態によれば、HEIFの画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、このアノテーション情報がJPEGの画像ファイルにおけるアプリケーションマーカーに記録される。HEIFの画像ファイルに含まれるアノテーション情報が上記所定のアノテーション情報である場合、このアノテーション情報のリンク情報がJPEGの画像ファイルにおけるアプリケーションマーカーに記録される。これにより、変換前の画像ファイルに記録された全てのアノテーション情報を利用可能な変換後の画像ファイルを提供することができる。
また、上述した実施の形態では、所定のアノテーション情報は関連画像データであるので、データ量が比較的大きい関連画像データを利用可能な変換後の画像ファイルを提供することができる。
更に、上述した実施の形態では、関連画像データ419は、JPEGの画像ファイル400における領域であってアプリケーションマーカー402,413と異なる領域に記録される。これにより、変換後の画像ファイルから関連画像データ419を読み出すことができる。
以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。例えば、図6に示すように、変換後のJPEGの画像ファイル600と異なる別の画像ファイル618に関連画像データ620を記録しても良い。この場合、関連画像データ620のリンク情報として、例えば、関連画像のファイル名615が、変換後のJPEGの画像ファイル600におけるアプリケーションマーカー613に記録される。関連画像のファイル名615は、関連画像データ620が記録された画像ファイル618のファイル名である。JPEGの画像ファイル600の構成について、関連画像の位置情報415の代わりに関連画像のファイル名615が記録されていること、及び関連画像データ419が記録されていないことが、上述した図4のJPEGの画像ファイル400と異なる。それ以外について、上述した図4のJPEGの画像ファイル400と基本的に同じ構成である。
図7は、図5Bのヘッダー作成処理の別の手順を示すフローチャートである。なお、図7のヘッダー作成処理は、図5Bのヘッダー作成処理に類似する処理であり、以下では、特に、図5Bのヘッダー作成処理と異なる内容について説明する。
図7において、上述したステップS520~S527と同様の処理であるステップS701~S707の処理が行われる。
ステップS707において、取得したアノテーション情報が関連画像データでないと判別された場合、処理は上述したステップS528と同様の処理であるステップS708へ進む。その後、上述したステップS534,S535と同様の処理であるステップS714,S715の処理が行われ、本処理は終了する。
ステップS707において、取得したアノテーション情報が関連画像データであると判別された場合、処理は上述したステップS529と同様の処理であるステップS709へ進む。その後、上述したステップS530~S532と同様の処理であるステップS710~S712の処理が行われる。次いで、ステップS713において、システム制御部50Aは、第4の生成処理を行う。第4の生成処理では、上述した第3の生成処理とは異なり、関連画像データのリンク情報として、関連画像の位置情報415に対応するリンク情報ではなく、関連画像のファイル名615に対応するリンク情報が生成される。なお、本実施の形態では、ステップS713にて生成されるリンク情報は、関連画像データを特定可能な情報であれば、関連画像データが記録された画像ファイルのファイル名に限られない。例えば、関連画像データを特定するためのID等であっても良い。生成されたリンク情報は、ステップS710にて確保された第2の記憶領域に保存される。その後、上述したステップS534,S535と同様の処理であるステップS714,S715の処理が行われ、本処理は終了する。
図8は、図5CのJPEGの画像ファイル保存処理の別の手順を示すフローチャートである。なお、図8のJPEGの画像ファイル保存処理は、図5CのJPEGの画像ファイル保存処理に類似する処理であり、以下では、特に、図5CのJPEGの画像ファイル保存処理と異なる内容について説明する。
図8において、上述したステップS540~S542と同様の処理であるステップS800~S802が行われる。次いで、上述したステップS544と同様の処理であるステップS803が行われる。次いで、ステップS804において、システム制御部50Aは、関連画像データ620をJPEGの画像ファイル600とは異なる別の画像ファイル618として外部記録媒体91に書き込む。その後、本処理は終了する。
このように変換後の画像ファイルと異なる別の画像ファイルに関連画像データが記録される構成においても、変換後の画像ファイルにおいて、変換前の画像ファイルに記録されていた関連画像データを利用することができる。
なお、上述した実施の形態では、所定値以上のデータ量となる所定のアノテーション情報が関連画像データである場合について説明したが、所定のアノテーション情報は関連画像データに限られない。例えば、所定のアノテーション情報は、JPEG規格上、画像ファイルへの記録が認められていない動画データや音声データであっても良い。
所定のアノテーション情報が動画データや音声データである場合、所定のアノテーション情報は、変換後の画像ファイルではなく、変換後の画像ファイルと異なる別の画像ファイルに記録される。また、変換後の画像ファイルにおけるアプリケーションマーカーには、所定のアノテーション情報のリンク情報が記録される。所定のアノテーション情報のリンク情報は、所定のアノテーション情報が記録された画像ファイルのファイル名や、所定のアノテーション情報を特定するためのID等である。このように所定のアノテーション情報が動画データや音声データであっても、上述した実施の形態と同様の効果を奏することができる。
本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、本実施の形態の開示は、以下の構成及び方法を含む。
(構成1)画像データ及び当該画像データのアノテーション情報を含む第1の形式の画像ファイルを、アノテーション情報を記録する所定の領域の記録可能容量が前記第1の形式の画像ファイルより小さい第2の形式の画像ファイルに変換する変換手段を備え、前記変換手段は、前記第1の形式の画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、当該アノテーション情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録し、前記第1の形式の画像ファイルに含まれるアノテーション情報が前記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録することを特徴とする画像処理装置。
(構成2)前記所定のアノテーション情報は、前記画像データの関連画像データであることを特徴とする構成1に記載の画像処理装置。
(構成3)前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルにおける領域であって前記所定の領域と異なる領域に記録することを特徴とする構成2に記載の画像処理装置。
(構成4)前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルと異なる別の画像ファイルに記録することを特徴とする構成2に記載の画像処理装置。
(構成5)前記所定のアノテーション情報は、動画データ又は音声データであることを特徴とする構成1に記載の画像処理装置。
(構成6)前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルと異なる別の画像ファイルに記録することを特徴とする構成5に記載の画像処理装置。
50A システム制御部
100 デジタルカメラ
400 JPEGの画像ファイル
402 アプリケーションマーカー
413 アプリケーションマーカー
415 関連画像の位置情報
600 JPEGの画像ファイル
602 アプリケーションマーカー
613 アプリケーションマーカー
615 関連画像のファイル名
618 画像ファイル
620 関連画像データ

Claims (8)

  1. 画像データ及び当該画像データのアノテーション情報を含む第1の形式の画像ファイルを、アノテーション情報を記録する所定の領域の記録可能容量が前記第1の形式の画像ファイルより小さい第2の形式の画像ファイルに変換する変換手段を備え、
    前記変換手段は、前記第1の形式の画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、当該アノテーション情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録し、前記第1の形式の画像ファイルに含まれるアノテーション情報が前記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録することを特徴とする画像処理装置。
  2. 前記所定のアノテーション情報は、前記画像データの関連画像データであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルにおける領域であって前記所定の領域と異なる領域に記録することを特徴とする請求項2に記載の画像処理装置。
  4. 前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルと異なる別の画像ファイルに記録することを特徴とする請求項2に記載の画像処理装置。
  5. 前記所定のアノテーション情報は、動画データ又は音声データであることを特徴とする請求項1に記載の画像処理装置。
  6. 前記変換手段は、前記所定のアノテーション情報を前記第2の形式の画像ファイルと異なる別の画像ファイルに記録することを特徴とする請求項5に記載の画像処理装置。
  7. 画像データ及び当該画像データのアノテーション情報を含む第1の形式の画像ファイルを、アノテーション情報を記録する所定の領域の記録可能容量が前記第1の形式の画像ファイルより小さい第2の形式の画像ファイルに変換する変換工程を有し、
    前記変換工程は、前記第1の形式の画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、当該アノテーション情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録し、前記第1の形式の画像ファイルに含まれるアノテーション情報が前記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録することを特徴とする画像処理装置の制御方法。
  8. 画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
    前記画像処理装置の制御方法は、
    画像データ及び当該画像データのアノテーション情報を含む第1の形式の画像ファイルを、アノテーション情報を記録する所定の領域の記録可能容量が前記第1の形式の画像ファイルより小さい第2の形式の画像ファイルに変換する変換工程を有し、
    前記変換工程は、前記第1の形式の画像ファイルに含まれるアノテーション情報が所定値以上のデータ量となる所定のアノテーション情報でない場合、当該アノテーション情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録し、前記第1の形式の画像ファイルに含まれるアノテーション情報が前記所定のアノテーション情報である場合、当該アノテーション情報のリンク情報を前記第2の形式の画像ファイルにおける前記所定の領域に記録することを特徴とするプログラム。
JP2022086537A 2022-05-27 2022-05-27 画像処理装置、画像処理装置の制御方法、及びプログラム Pending JP2023173960A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022086537A JP2023173960A (ja) 2022-05-27 2022-05-27 画像処理装置、画像処理装置の制御方法、及びプログラム
US18/322,674 US20230388533A1 (en) 2022-05-27 2023-05-24 Image processing apparatus capable of converting image file such that all annotation information can be used, control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022086537A JP2023173960A (ja) 2022-05-27 2022-05-27 画像処理装置、画像処理装置の制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023173960A true JP2023173960A (ja) 2023-12-07

Family

ID=88875995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022086537A Pending JP2023173960A (ja) 2022-05-27 2022-05-27 画像処理装置、画像処理装置の制御方法、及びプログラム

Country Status (2)

Country Link
US (1) US20230388533A1 (ja)
JP (1) JP2023173960A (ja)

Also Published As

Publication number Publication date
US20230388533A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
JP4262082B2 (ja) 画像処理装置及びその制御方法とプログラム及び記憶媒体
EP2395745B1 (en) Photographic apparatus, setting method of photography conditions, and recording medium
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP4574459B2 (ja) 撮影装置及びその制御方法及びプログラム及び記憶媒体
CN101595727B (zh) 图像处理设备及其控制方法和图像处理系统
US8565496B2 (en) Image editing apparatus, image editing method, and computer readable medium
JP2007221723A (ja) 画像処理装置及びその制御方法
JP2007081732A (ja) 撮像装置
CN101924876A (zh) 摄像设备及其控制方法和图像处理设备及其控制方法
JP2012160950A (ja) 画像処理装置、撮像装置および表示装置
JP4906685B2 (ja) 撮像装置、その制御方法及びプログラム
JP2023173960A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2023174104A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
US20230360368A1 (en) Image processing apparatus and method, and image capturing apparatus
US20230260299A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
US20230196508A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2023118057A (ja) 画像処置装置及び画像処理方法、撮像装置、プログラム、記憶媒体
US20230196708A1 (en) Image processing apparatus and method for controlling the same, and non-transitory computer-readable storage medium
JP2024012965A (ja) 画像処理装置及びその制御方法並びにプログラム
JP5013924B2 (ja) 撮像装置、撮像方法、及びプログラム
US20230274402A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP5046809B2 (ja) 画像処理装置及び方法、及び撮像装置
JP2023180871A (ja) 記録装置、記録装置の制御方法、プログラム
JP6526270B2 (ja) 撮像装置及びその制御方法
JP5968386B2 (ja) 撮像装置及びその制御方法